WrenAI
WrenAI 是一款开源的生成式商业智能(GenBI)助手,旨在让用户能够使用自然语言直接与数据库进行交互。只需像日常对话一样提出问题,WrenAI 即可自动生成准确的 SQL 查询语句、可视化图表以及专业的商业洞察报告,极大地降低了数据获取和分析的门槛。
在传统的数据分析场景中,非技术人员往往依赖数据工程师编写 SQL,而直接使用大模型处理原始数据库结构时,又常因对业务指标理解偏差导致查询结果错误。WrenAI 通过引入独特的“语义层”技术有效解决了这一痛点。它允许团队预先定义业务指标、表关联和计算逻辑,确保大模型在生成查询时严格遵循统一的业务标准,从而保证数据的准确性和一致性,避免了“看似正确但含义错误”的分析结果。
这款工具非常适合希望提升数据驱动决策效率的团队使用。对于业务分析师和产品经理等普通用户,它消除了学习复杂 SQL 语言的障碍,让数据查询变得简单直观;对于开发者和数据工程师,WrenAI 提供了灵活的 API 接口,支持将其嵌入到现有应用或构建自定义数据聊天机器人中。此外,它兼容 PostgreSQL、BigQuery、Snowflake 等主流数据源,并支持接入 OpenAI、Claude、Ollama 等多种大语言模型,具备良好的扩展性和集成能力,是连接业务问题与数据价值的高效桥梁。
使用场景
某电商公司的数据分析师李明,正面临季度末销售复盘的紧迫压力。业务部门频繁提出关于“高价值用户复购率”和“特定品类毛利趋势”的复杂查询需求,要求快速提供可视化的洞察报告以支持战略调整。
没有 WrenAI 时
- 沟通成本高昂且易出错:业务方口中的“活跃用户”定义模糊,李明需反复确认是“登录过”还是“下过单”,导致 SQL 编写多次返工,数据口径难以统一。
- 技术门槛阻碍即时决策:面对临时性的多维交叉分析需求(如“按地区拆分的新客留存”),非技术背景的管理层无法直接查数,必须排队等待数据团队排期,错失市场反应窗口。
- 从数据到洞察链路断裂:即使写出了正确的 SQL,李明仍需手动将结果导出至 Excel 或 BI 工具制作图表,并人工撰写分析摘要,整个过程耗时数小时,效率极低。
- LLM 直接生成 SQL 不可靠:尝试使用通用 AI 辅助写 SQL 时,因缺乏对底层表结构和业务逻辑的理解,常出现关联错误表格或指标计算偏差的问题,信任成本高。
使用 WrenAI 后
- 语义层统一业务语言:通过 WrenAI 的语义层(MDL)预先定义好“活跃用户”、“复购率”等核心指标,AI 自动理解业务语境,确保每次生成的 SQL 都符合公司统一标准,消除歧义。
- 自然语言即时查数:业务人员直接用自然语言提问(如“展示上月华东地区新客复购趋势”),WrenAI 即刻生成准确 SQL 并执行,无需依赖数据团队介入,实现自助式分析。
- 端到端生成 GenBI 报告:WrenAI 不仅返回数据,还自动生成合适的可视化图表及 AI 驱动的文字洞察总结,李明只需微调即可汇报,将数小时的工作压缩至几分钟。
- 精准可控的 AI 输出:得益于语义层的约束,WrenAI 生成的 SQL 严格基于预定义的模型关系,避免了通用大模型“幻觉”导致的逻辑错误,结果可信且可追溯。
WrenAI 通过语义层架起自然语言与数据库的桥梁,让数据查询从“技术黑盒”变为“业务对话”,极大提升了企业数据驱动的敏捷性与准确性。
运行环境要求
- Linux
- macOS
- Windows
未说明(支持本地模型如 Ollama,具体 GPU 需求取决于所选 LLM 模型)
未说明

快速开始
nderstandings. The LLM doesn't guess what your metrics mean; the semantic layer tells it.
🤖 特性
| 你将获得 | 为什么重要 | |
|---|---|---|
| 与数据对话 | 用任意语言提问 → 精确的 SQL 和答案 | 缩短 SQL 学习曲线 |
| 生成式 BI 洞察 | AI 生成的摘要、图表和报告 | 一键获取决策所需的上下文 |
| 语义层 | MDL 模型编码了模式、指标和连接 | 确保 LLM 输出准确且受治理 |
| 通过 API 嵌入 | 在你的应用内生成查询和图表 (API 文档) | 构建自定义助手、SaaS 功能和聊天机器人 (Streamlit 实时演示) |
🔌 数据源
| 云数仓 | 数据库 | 查询引擎 |
|---|---|---|
| BigQuery | PostgreSQL | Trino |
| Snowflake | MySQL | Athena (Trino) |
| Redshift | Microsoft SQL Server | DuckDB |
| Databricks | ClickHouse | |
| Oracle |
没有找到你需要的数据源?投票支持 — 社区投票将推动我们的连接器路线图。
🧠 LLM 模型
Wren AI 可以与你已经在使用的任何 LLM 提供商合作:
| 云 API | 平台服务 | 自托管 |
|---|---|---|
| OpenAI | Azure OpenAI | Ollama |
| Anthropic | Google AI Studio (Gemini) | |
| DeepSeek | Vertex AI (Gemini + Anthropic) | |
| Groq | AWS Bedrock | |
| Databricks |
[!TIP] 为了获得最佳效果,建议使用前沿模型(GPT-4o、Claude Sonnet、Gemini Pro)。Wren AI 也适用于较小和本地模型——准确性会随着模型能力而变化。请参阅 配置示例 以获取设置指南。
🚀 入门指南
有三种方式可以开始使用 Wren AI,选择适合你的:
| 选项 | 最适合 | 链接 |
|---|---|---|
| 自托管(Docker) | 完全控制,处理本地数据 | 安装指南 |
| Wren AI 云服务 | 无需设置即可试用 | getwren.ai |
比较 OSS 与云服务计划。完整文档请访问 docs.getwren.ai。
🏗️ 架构
用户的问题从 Next.js UI 流向 Apollo GraphQL,再到 AI 服务(RAG + LLM),最后到达 Wren 引擎(语义查询执行),最终进入你的数据库。语义层(MDL)位于核心位置,确保 LLM 生成的 SQL 准确反映了你的真实业务定义。
👉 深入了解设计
🧑💻 针对开发者
WrenAI 是一个全栈 AI 系统,在每一层都面临着有趣的挑战——语义建模、RAG 检索、LLM 驱动的 SQL 生成,以及跨异构数据源的查询执行。以下是该系统底层的实际架构:
| 层次 | 功能描述 |
|---|---|
| wren-ui | Next.js + Apollo GraphQL — 用于语义建模的 UI 和连接各组件的 BFF 层 |
| wren-ai-service | Python/FastAPI 流水线 — 用于意图分类、从 Qdrant 中检索向量、LLM 提示工程以及 SQL 修正循环 |
| wren-engine | Rust + Apache DataFusion — 查询执行核心,在 SQL 到达数据库之前解析 MDL 语义(指标、联接、访问控制) |
wren-engine 是一个独立的开源项目,也是整个架构中最接近底层实现的部分。在这里,MDL 定义会被转换成适用于 15 种以上数据源的实际查询计划。如果你熟悉 Rust、DataFusion 或数据库连接器,这个项目非常值得一看——代码库易于理解,并且在查询计划、语义解析以及 MCP(模型上下文协议)代理集成等方面仍存在许多未解决的问题。
在两个仓库中,以下领域通常能带来最大影响:
- 数据源连接器 — wren-engine 支持 15 种以上的数据源;新增连接器总是很有帮助。
- MCP 集成 — wren-engine 提供了一个 MCP 服务器;基于代理的工作流目前仍处于早期阶段并不断发展。
- SQL 生成质量 — 在 wren-ai-service 中涉及提示工程、修正循环启发式方法以及评估框架。
- 语义层工具 — 在 wren-ui 中涉及 MDL 模式推断、验证以及开发者体验优化。
🛠️ 贡献
- 阅读 贡献指南,了解设置和 PR 提交规范。
- 如有 bug、功能请求或讨论,可先创建一个 issue。
- 如果 Wren AI 对你有所帮助,给个项目点个 star 将会大有裨益——这有助于让更多人发现该项目。
⭐️ 社区
- 加入我们超过 1,700 名开发者的 Discord 社区,获取实时支持并抢先了解路线图。
- 访问 GitHub Issues 查看 bug 和功能请求。
- 浏览我们的 公开路线图,了解接下来的规划。
- 订阅我们的博客 · 关注我们在 LinkedIn 上的动态
我们遵循 行为准则,以确保社区对所有人保持友好和包容。
🎉 我们的贡献者
版本历史
0.29.12025/11/280.29.1-rc.32025/11/280.29.1-rc.22025/11/280.29.1-rc.12025/11/260.29.02025/11/130.29.0-rc.22025/11/130.28.02025/09/170.28.0-rc.12025/09/170.27.02025/08/080.27.0-rc.32025/08/080.27.0-rc.22025/08/080.27.0-rc.12025/08/080.26.02025/08/010.26.0-rc.12025/08/010.25.02025/06/290.25.0-rc.12025/06/270.24.12025/06/250.24.1-rc.12025/06/250.24.02025/06/200.24.0-rc.32025/06/20常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。