UltraRAG
UltraRAG 是一款基于模型上下文协议(MCP)架构打造的低代码开发框架,旨在帮助用户快速构建复杂且创新的检索增强生成(RAG)流水线。由清华大学、东北大学及 OpenBMB 等机构联合推出,它主要解决了传统 RAG 开发中代码量大、组件耦合度高以及逻辑不透明等痛点,让开发者无需重复造轮子即可实现高效部署。
这款工具特别适合 AI 研究人员、算法工程师以及希望快速验证原型的工业界开发者使用。通过标准化检索、生成等核心组件,UltraRAG 让用户仅需数十行代码就能搭建高性能的 RAG 系统,从而将精力集中在业务逻辑与创新想法上。其独特的技术亮点在于引入了“白盒化”设计理念,尤其是在最新的 3.0 版本中,能够让每一步推理逻辑清晰可见,彻底告别黑盒开发模式。此外,它还提供了统一的评价体系和多模态支持,并配套了每日更新的论文导读与丰富的数据集资源,是探索大模型知识应用与落地实践的理想助手。
使用场景
某金融科技公司研发团队正急需构建一个能实时解析最新财报与监管政策的智能投研助手,以辅助分析师快速提取关键数据。
没有 UltraRAG 时
- 开发门槛高:团队需从零手写大量代码连接向量数据库、重排序模型及 LLM,资深算法工程师需耗费数周搭建基础框架。
- 逻辑黑盒难调优:检索增强生成(RAG)链路复杂,一旦回答出错,难以定位是检索召回失败还是生成逻辑偏差,调试如同“盲人摸象”。
- 迭代周期漫长:每当需要引入新的数据源(如 PDF 财报或网页新闻)或更换基座模型时,需重构底层接口,严重拖慢业务验证速度。
- 多模态支持缺失:面对包含图表的金融报告,传统文本 RAG 无法有效解析图像信息,导致关键财务趋势分析缺失。
使用 UltraRAG 后
- 低代码快速构建:基于 MCP 架构,研究人员仅需数十行配置代码即可组装复杂的 RAG 流水线,将原型开发时间从数周压缩至数小时。
- 推理过程全透明:UltraRAG 3.0 让每一步检索与推理逻辑清晰可见,团队可精准定位并优化特定环节,显著提升回答准确率。
- 灵活热插拔组件:通过标准化接口,轻松切换不同的嵌入模型或接入多模态解析器,无需修改核心代码即可适应新业务需求。
- 原生多模态赋能:内置增强的知识摄入模块,能直接理解财报中的图表数据,为分析师提供图文并茂的深度洞察。
UltraRAG 通过标准化与可视化彻底打破了 RAG 开发的“黑盒”困境,让团队能将精力从繁琐的工程实现回归到业务创新本身。
运行环境要求
- Linux
- macOS
- Windows
- 可选
- 提供 CPU 和 GPU 版本的 Docker 镜像
- 若使用 GPU 版本需 NVIDIA GPU 并支持 --gpus all 参数,具体型号和显存未说明
未说明

快速开始
更少的代码、更低的门槛、更快的部署
简体中文 | English
最新消息 🔥
- [2026.01.23] 🎉 UltraRAG 3.0 发布:告别“黑箱”开发——让每一步推理逻辑清晰可见 👉 📖 博客
- [2026.01.20] 🎉 AgentCPM-Report 模型发布!深度研究终于实现本地化:8B 规模的设备端写作代理 AgentCPM-Report 已开源 👉 🤗 模型
往期新闻
- [2025.11.11] 🎉 UltraRAG 2.1 发布:增强知识摄入与多模态支持,并配备更完善的统一评估体系!
- [2025.09.23] 每日 RAG 论文摘要更新,每天都有新内容 👉 📖 论文
- [2025.09.09] 发布轻量级深度研究流水线本地搭建教程 👉 📺 bilibili · 📖 博客
- [2025.09.01] 发布 UltraRAG 安装及完整 RAG 演示视频 👉 📺 bilibili · 📖 博客
- [2025.08.28] 🎉 UltraRAG 2.0 发布!UltraRAG 2.0 全面升级:只需几十行代码即可构建高性能 RAG,让研究人员专注于创意与创新!我们保留了 UltraRAG v2 的代码,可在 v2 查看。
- [2025.01.23] UltraRAG 正式发布!使大型模型能够更好地理解并利用知识库。UltraRAG 1.0 的代码仍可在 v1 获取。
💡 关于 UltraRAG
UltraRAG 是首个基于 模型上下文协议(MCP) 架构设计的轻量级 RAG 开发框架,由清华大学 THUNLP、东北大学 NEUIR、OpenBMB 和 AI9stars 联合推出。
UltraRAG 专为科研探索和工业原型开发而设计,将 RAG 的核心组件(检索器、生成器等)标准化为独立的 MCP 服务器,并结合 MCP 客户端 强大的工作流编排能力。开发者仅需通过 YAML 配置即可实现对条件分支、循环等复杂控制结构的精准编排。
🖥️ UltraRAG UI
UltraRAG UI 超越了传统聊天界面的界限,演变为一个集编排、调试和演示于一体的可视化 RAG 集成开发环境(IDE)。
该系统内置强大的流水线构建工具,支持“画布构建”与“代码编辑”之间的双向实时同步,允许用户在线精细调整流水线参数和提示词。此外,它还引入了智能 AI 助手,赋能从流水线结构设计到参数调优、提示词生成的整个开发周期。一旦构建完成,逻辑流程只需点击一下即可转换为交互式对话系统。系统无缝集成知识库管理组件,使用户能够构建用于文档问答的自定义知识库。这真正实现了从底层逻辑构建、数据治理到最终应用部署的一站式闭环。
https://github.com/user-attachments/assets/fcf437b7-8b79-42f2-bf4e-e3b7c2a896b9
✨ 核心亮点
|
🚀 复杂工作流的低代码编排 推理编排:原生支持顺序、循环和条件分支等控制结构。开发者只需编写 YAML 配置文件,即可用数十行代码实现复杂的迭代式 RAG 逻辑。 |
⚡ 模块化扩展与复用 原子级 Server:基于 MCP 架构,将功能解耦为独立的 Server。新增功能只需注册为函数级别的 Tool,即可无缝集成到工作流中,实现极高的复用性。 |
|
📊 统一评估与基准对比 科研效率:内置标准化评估流程,开箱即用主流科研基准。通过统一的指标管理和基线集成,显著提升实验可重复性和对比效率。 |
🎯 快速生成交互式原型 一键交付:告别繁琐的 UI 开发。只需一条命令,即可将 Pipeline 逻辑即时转换为交互式对话式 Web UI,缩短算法到演示的距离。 |
📦 安装
我们提供两种安装方式:本地源码安装(推荐使用 uv 进行包管理)和 Docker 容器部署。
方法一:源码安装
我们强烈建议使用 uv 来管理 Python 环境和依赖,它能极大提升安装速度。
准备环境
如果您尚未安装 uv,请执行:
## 直接安装
pip install uv
## 下载
curl -LsSf https://astral.sh/uv/install.sh | sh
下载源码
git clone https://github.com/OpenBMB/UltraRAG.git --depth 1
cd UltraRAG
安装依赖
根据您的使用场景,选择以下任一模式安装依赖:
A:创建新环境 使用 uv sync 自动创建虚拟环境并同步依赖:
核心依赖:如果您仅需运行基础核心功能,例如仅使用 UltraRAG UI:
uv sync全量安装:如果您希望全面体验 UltraRAG 的检索、生成、语料处理和评估功能,请运行:
uv sync --all-extras按需安装:如果您仅需运行特定模块,可根据需要保留相应的
--extra参数,例如:uv sync --extra retriever # 仅检索模块 uv sync --extra generation # 仅生成模块
安装完成后,激活虚拟环境:
# Windows CMD
.venv\Scripts\activate.bat
# Windows Powershell
.venv\Scripts\Activate.ps1
# macOS / Linux
source .venv/bin/activate
B:安装到现有环境 若要将 UltraRAG 安装到您当前活动的 Python 环境中,请使用 uv pip:
# 核心依赖
uv pip install -e .
# 全量安装
uv pip install -e ".[all]"
# 按需安装
uv pip install -e ".[retriever]"
方法二:Docker 容器部署
如果您不想配置本地 Python 环境,也可以使用 Docker 进行部署。
获取代码和镜像
# 1. 克隆仓库
git clone https://github.com/OpenBMB/UltraRAG.git --depth 1
cd UltraRAG
# 2. 准备镜像(任选其一)
# 选项 A:从 Docker Hub 拉取
docker pull hdxin2002/ultrarag:v0.3.0-base-cpu # 基础版(CPU)
docker pull hdxin2002/ultrarag:v0.3.0-base-gpu # 基础版(GPU)
docker pull hdxin2002/ultrarag:v0.3.0 # 完整版(GPU)
# 选项 B:本地构建
docker build -t ultrarag:v0.3.0 .
# 3. 启动容器(自动映射端口 5050)
docker run -it --gpus all -p 5050:5050 <docker_image_name>
启动容器
# 启动容器(默认映射端口 5050)
docker run -it --gpus all -p 5050:5050 <docker_image_name>
注意:容器启动后,UltraRAG UI 将自动运行。您可以在浏览器中直接访问 http://localhost:5050 使用。
验证安装
安装完成后,运行以下示例命令以检查环境是否正常:
ultrarag run examples/experiments/sayhello.yaml
如果看到以下输出,则表示安装成功:
Hello, UltraRAG v3!
🚀 快速入门
我们提供了从入门到进阶的完整教程示例。无论您是进行学术研究还是构建工业应用,都能在这里找到指导。欢迎访问 文档 获取更多详情。
🔬 科研实验
专为研究人员设计,提供数据、实验流程和可视化分析工具。
- 快速入门:学习如何基于 UltraRAG 快速运行标准 RAG 实验流程。
- 评估数据:下载 RAG 领域最常用的公开评估数据集和大规模检索语料库,直接用于科研基准测试。
- 案例分析:提供可视化的 Case Study 界面,深入跟踪工作流中的每个中间输出,辅助分析和错误定位。
- 代码集成:学习如何在 Python 代码中直接调用 UltraRAG 组件,实现更灵活的定制化开发。
🛠️ 演示系统
专为开发者和最终用户设计,提供完整的 UI 交互和复杂应用案例。
- 快速入门:学习如何启动 UltraRAG UI,并熟悉管理员模式下的各种高级配置。
- 部署指南:详细的生产环境部署教程,涵盖 Retriever、生成模型(LLM)以及 Milvus 向量数据库的搭建。
- 深度研究:旗舰案例,部署 Deep Research Pipeline。结合 AgentCPM-Report 模型,可自动执行多步检索与整合,生成数万字的调研报告。
🤝 贡献
感谢以下贡献者提供的代码提交和测试。我们也欢迎新成员加入我们,共同构建一个全面的 RAG 生态系统!
您可以通过标准流程进行贡献:Fork 本仓库 → 提交 Issue → 创建 Pull Request (PR)。
⭐ 支持我们
如果您觉得本仓库对您的研究有所帮助,请考虑给我们点个 star,以表示您的支持。
💬 联系我们
- 如遇技术问题或功能需求,请使用 GitHub Issues。
- 如有关于使用、反馈或其他与 RAG 技术相关的问题,欢迎您加入我们的 微信群、飞书群 和 Discord,与我们交流讨论。
- 如果您有任何疑问、建议或想与我们取得联系,请随时通过电子邮件 yanyk.thu@gmail.com 与我们沟通。
![]() 微信群 |
![]() 飞书群 |
Discord |
📖 出版物
论文
Shi Yu, Chaoyue Tang, Bokai Xu, Junbo Cui, Junhao Ran, Yukun Yan, Zhenghao Liu, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) VisRAG: 基于视觉的多模态文档检索增强生成。arXiv:2410.10594 和 第十三届国际学习表征会议(ICLR 2025)论文集。
Xinze Li, Sen Mei, Zhenghao Liu, Yukun Yan, Shuo Wang, Shi Yu, Zheni Zeng, Hao Chen, Ge Yu, Zhiyuan Liu, Maosong Sun, Chenyan Xiong. (2025) RAG-DDR: 利用可微数据奖励优化检索增强生成。arXiv:2410.13509 和 第十三届国际学习表征会议(ICLR 2025)论文集。
Kunlun Zhu, Yifan Luo, Dingling Xu, Yukun Yan, Zhenghao Liu, Shi Yu, Ruobing Wang, Shuo Wang, Yishan Li, Nan Zhang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) RAGEval: 场景特定的 RAG 评估数据集生成框架。arXiv:2408.01262 和 第63届计算语言学协会年会(ACL 2025)论文集。
Ruobing Wang, Qingfei Zhao, Yukun Yan, Daren Zha, Yuxuan Chen, Shi Yu, Zhenghao Liu, Yixuan Wang, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) DeepNote: 以笔记为中心的深度检索增强生成。arXiv:2410.08821 和 计算语言学协会发现:EMNLP 2025。
模型
Yishan Li, Wentong Chen, Yukun Yan, Mingwei Li, Sen Mei, Xiaorong Wang, Kunpeng Liu, Xin Cong, Shuo Wang, Zhong Zhang, Yaxi Lu, Zhenghao Liu, Yankai Lin, Zhiyuan Liu, Maosong Sun. (2026) AgentCPM-Report: 针对开放式深度研究的草稿撰写与深入分析交织模型。arXiv:2602.06540。
OpenBMB. MiniCPM-Embedding-Light。Hugging Face 模型卡片。
版本历史
v0.3.0.22026/04/09v0.3.0.12026/03/10v0.3.02026/01/26v0.2.1.32026/01/12v0.2.1.22025/11/25v0.2.1.12025/11/13v0.2.12025/10/22v0.2.02025/10/21常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器


