wren-engine
Wren Engine 是一款专为 AI 智能体打造的开源“上下文引擎”,旨在填补人工智能与企业业务数据之间的认知鸿沟。当前,许多 AI 虽然能连接数据库并生成代码,却往往不理解“净收入”、“活跃客户”等企业特有的业务定义和逻辑,导致分析结果缺乏准确性。Wren Engine 正是为了解决这一痛点而生,它让 AI 不再直接面对冰冷的原始数据表,而是基于预定义的语义模型、可信指标和数据关系进行推理,从而将自然语言提问转化为精准、可解释且符合企业规范的数据查询。
该项目由 Canner 团队开发,底层采用高性能的 Rust 语言和 Apache DataFusion 构建,支持超过 15 种数据源。其核心亮点在于引入了 MDL(模型定义语言),允许开发者以声明式的方式建模业务含义,确保数据治理和血缘关系在 AI 交互中得到严格执行。Wren Engine 非常适合正在构建下一代 AI 应用的企业开发者、数据工程师以及希望将大模型能力安全落地到复杂业务场景中的技术团队。无论是嵌入 MCP 服务器还是集成到现有的 Agent 工作流中,它都能为智能体提供坚实的业务语境基础,让 AI 真正“懂”你的业务。
使用场景
某电商公司的数据团队正试图构建一个 AI 助手,让非技术背景的销售经理能直接通过自然语言查询复杂的业务指标(如“净营收”或“活跃客户数”)。
没有 wren-engine 时
- 语义理解偏差:AI 仅连接数据库表,无法区分“订单金额”与财务定义的“净营收”,常因缺少业务逻辑而生成错误的 SQL。
- 关联关系混乱:面对多表关联,AI 只能猜测连接键(Join Keys),导致查询结果出现数据重复或丢失。
- 指标口径不一:不同部门对“活跃用户”定义不同,AI 缺乏统一的度量衡标准,输出结果可信度低。
- 维护成本高昂:每次业务规则变更,开发人员需手动重写提示词或调整底层代码,响应速度慢。
使用 wren-engine 后
- 模型化理解:wren-engine 将原始表抽象为带有业务含义的语义模型,AI 能精准识别“净营收”的计算逻辑而非盲目查表。
- 预定义关联路径:通过 MDL(模型定义语言)明确表间关系,AI 不再猜测 Join 条件,确保查询路径准确无误。
- 统一度量标准:在引擎层固化企业级指标定义,无论谁提问,AI 输出的“活跃用户”数据始终基于同一套真理源。
- 敏捷迭代:业务规则变更只需更新语义模型配置,无需修改代码,AI 即刻适配新的分析需求。
wren-engine 通过构建统一的语义上下文层,让 AI 代理真正读懂企业业务,将自然语言转化为准确、可解释且受治理的数据洞察。
运行环境要求
- 未说明
未说明
未说明

快速开始
面向AI智能体的开放上下文引擎
Wren Engine是 Wren AI背后的开放基础架构:一个语义化、受治理且适用于智能体的业务数据上下文层。
https://github.com/user-attachments/assets/037f2317-d8e5-41f2-9563-1e0bce4ef50c
为什么需要Wren Engine
AI智能体已经能够调用工具、浏览文档和编写代码。然而,它们仍然难以处理业务上下文。
企业数据不仅仅是数据仓库中的行数据,还包括定义、指标、关系、权限、血缘关系以及使用意图等信息。即使智能体可以连接到PostgreSQL或Snowflake,它仍然无法理解“净收入”、“活跃客户”或“销售漏斗覆盖率”在贵公司究竟意味着什么。
这不仅是我们提出的观点,在a16z的文章《你的数据智能体需要上下文》中也指出,仅具备连接能力和SQL生成能力的数据智能体,在缺乏业务定义、权威数据上下文以及解释公司实际运作方式的运营知识时,将难以发挥作用。
Wren Engine正是为了解决这一问题而诞生的。
它为AI智能体提供了一个可进行推理的上下文引擎,使智能体能够:
- 理解模型而非原始表
- 使用可信的指标而非自行编写SQL
- 按照关系进行查询而非猜测联接方式
- 遵守治理规则而非绕过限制
- 将自然语言转化为准确且可解释的数据访问请求
这是面向构建下一代智能体体验团队的开源上下文引擎。
愿景
我们相信,AI的未来并非仅仅依赖于工具调用,而是基于丰富的上下文系统,让智能体能够在对业务现实达成共识的基础上进行推理、检索、规划并采取行动。
Wren Engine就是我们为实现这一未来所作出的开源贡献。
它是Wren AI背后的语义与执行基础,并且设计为能够超越单一产品而广泛适用:
- 可嵌入MCP服务器和智能体工作流中
- 能够连接现代数据仓库、数据库和文件系统
- 表达力足够强大,可通过MDL建模业务语义
- 性能稳健,足以支持受治理的企业级应用场景
- 开放程度高,便于社区扩展、集成和二次开发
如果说Wren AI是完整的愿景,那么Wren Engine就是使这一愿景具备互操作性的开放核心。
Wren Engine的功能
Wren Engine将业务数据转化为智能体可用的上下文。
从高层次来看:
- 您使用Wren的语义模型和MDL描述您的业务领域。
- Wren Engine捕获智能体所需的上下文:模型、指标、关系和访问规则。
- 它分析用户意图,并规划出针对底层数据源的正确查询。
- MCP客户端和AI智能体通过清晰的接口与该上下文交互。
- 团队会随着业务逻辑和系统的演进而不断优化模型。
这就是一条实用的开源路径,从文本到SQL,最终实现具备上下文感知的数据智能体。
这意味着您的智能体不再会问:“我应该查询哪张原始表?”
而是会问:“为了正确回答这个任务,我需要哪个业务概念、指标,或者受治理的上下文切片?”
专为智能体开发者打造
Wren Engine对于在以下工具中构建原生智能体工作流的开源社区尤为有用:
- OpenClaw
- Claude Code
- VS Code
- Claude Desktop
- Cline
- Cursor
如果您的环境能够支持MCP协议、调用HTTP API或嵌入语义服务,那么Wren Engine就可以成为您智能体背后的上下文层。
您可以利用它来实现以下场景:
- 基于可信业务定义的自然语言分析
- 能够跨受治理的企业数据回答问题的AI助手
- 可生成仪表盘、报告和工作流决策的智能体
- 需要真实业务上下文而非单纯模式转储的代码助手
- 应当以语义模型为基础而非临时编写SQL的内部AI工具
这一点在面向开发者的智能体环境中尤为重要,因为助手可能理解您的代码库,但仍然缺乏正确回答数据相关问题所需的业务上下文。
支持的数据源
Wren Engine旨在兼容现代数据栈,包括数据仓库、数据库和基于文件的数据源。
当前开源支持的连接器包括:
- Amazon S3
- Apache Spark
- Apache Doris
- Athena
- BigQuery
- ClickHouse
- Databricks
- DuckDB
- Google Cloud Storage
- 本地文件
- MinIO
- MySQL
- Oracle
- PostgreSQL
- Redshift
- SQL Server
- Snowflake
- Trino
请参阅项目文档中的连接器API说明,以获取最新的连接方案和功能支持信息。
开始使用
通过MCP使用Wren Engine
如果您希望通过Claude Code或其他支持MCP的IDE使用Wren Engine,请从这里开始:
MCP服务器包含:
- 用于连接和MDL设置的本地Web界面
- 只读模式,以提高智能体使用的安全性
- 清单部署和验证工具
- 用于远程模式发现的元数据工具
学习相关概念
Wren Engine 与其他数据工具的对比
人们常常将 Wren Engine 与 DataHub 等元数据目录服务、原始数据库 MCP 服务器、BI 语义工具或文本转 SQL 代理进行比较。
其根本区别在于:
- 这些工具通常帮助代理查找数据或生成 SQL;
- 而 Wren Engine 则通过上下文引擎帮助代理理解业务含义,并生成正确的查询。
| 工具类型 | 它为代理提供的功能 | Wren Engine 增加的价值 |
|---|---|---|
| 数据目录服务 | 表、列、血缘关系、负责人、描述 | 业务模型、指标、关系以及受治理约束的查询规划 |
| 原始数据库或模式访问 | 直接访问模式并执行 SQL | 在原始表之上构建业务层,使代理无需猜测意图 |
| BI 或语义工具 | 针对分析工作流的精选指标和实体 | 专为 MCP 和代理工作流设计的开放上下文层 |
| 文本转 SQL 代理 | 从自然语言快速生成 SQL | 通过将生成过程基于明确的业务定义,提升准确性 |
许多团队会同时需要两者:
- 一个元数据目录来盘点和记录数据资产;
- Wren Engine 将这些数据转化为代理可用的上下文。
这样做之所以重要:
- 查询结果更准确,因为连接和指标是明确定义的,而非凭猜测得出;
- 查询结果更一致,因为所有代理都使用相同的业务定义;
- 数据访问更安全,因为治理规则可以融入查询规划中;
- 减少对提示工程的依赖,因为上下文直接存在于引擎中,而非提示中。
如果没有 Wren,代理可能知道数据在哪里,却仍然无法正确回答问题。
仓库结构
该仓库包含核心引擎模块:
| 模块 | 功能 |
|---|---|
wren-core |
基于 Apache DataFusion 的 Rust 上下文引擎,用于 MDL 分析、规划和优化 |
wren-core-base |
共享的清单和建模类型 |
wren-core-py |
PyO3 绑定,将引擎暴露给 Python |
ibis-server |
FastAPI 服务器,用于查询执行、验证、元数据和连接器 |
mcp-server |
适用于 AI 代理和兼容 MCP 的客户端的 MCP 服务器 |
辅助模块包括 wren-core-legacy、example、mock-web-server 以及基准测试工具。
开发者入口
本地开发
常见工作流程:
# Rust 上下文引擎
cd wren-core
cargo check --all-targets
# Python + 连接器服务器
cd ibis-server
just install
just dev
# MCP 服务器
cd mcp-server
# 请参阅模块 README 获取基于 uv 的设置说明
项目状态
Wren Engine 正在开源社区中积极发展。当前的重点是强化上下文引擎、执行路径以及与 MCP 的集成,以更好地支持实际的代理工作流。
如果你目前正在构建基于代理的应用,现在正是参与的好时机。
社区
- 加入我们的 Discord 社区
- 打开一个 GitHub 问题
- 探索 Wren AI,了解更广泛的产品愿景
- 阅读 a16z 的市场观点:你的数据代理需要上下文
Wren Engine 专为那些相信 AI 需要更好的上下文,而不仅仅是更好的提示词的开发者打造。
版本历史
0.24.62026/03/260.24.52026/03/180.24.42026/03/170.24.32026/03/100.24.22026/03/090.24.12026/03/060.23.02026/01/220.22.22026/01/090.22.12025/12/260.22.02025/11/190.21.32025/11/130.21.22025/11/040.21.12025/10/220.21.02025/09/240.20.22025/09/170.18.3-12025/09/120.20.12025/09/110.20.02025/09/030.19.02025/08/260.18.42025/08/12常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。