[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenBMB--UltraRAG":3,"tool-OpenBMB--UltraRAG":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":110,"forks":111,"last_commit_at":112,"license":113,"difficulty_score":32,"env_os":114,"env_gpu":115,"env_ram":116,"env_deps":117,"category_tags":126,"github_topics":128,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":145,"updated_at":146,"faqs":147,"releases":181},5831,"OpenBMB\u002FUltraRAG","UltraRAG","A Low-Code MCP Framework for Building Complex and Innovative RAG Pipelines","UltraRAG 是一款基于模型上下文协议（MCP）架构打造的低代码开发框架，旨在帮助用户快速构建复杂且创新的检索增强生成（RAG）流水线。由清华大学、东北大学及 OpenBMB 等机构联合推出，它主要解决了传统 RAG 开发中代码量大、组件耦合度高以及逻辑不透明等痛点，让开发者无需重复造轮子即可实现高效部署。\n\n这款工具特别适合 AI 研究人员、算法工程师以及希望快速验证原型的工业界开发者使用。通过标准化检索、生成等核心组件，UltraRAG 让用户仅需数十行代码就能搭建高性能的 RAG 系统，从而将精力集中在业务逻辑与创新想法上。其独特的技术亮点在于引入了“白盒化”设计理念，尤其是在最新的 3.0 版本中，能够让每一步推理逻辑清晰可见，彻底告别黑盒开发模式。此外，它还提供了统一的评价体系和多模态支持，并配套了每日更新的论文导读与丰富的数据集资源，是探索大模型知识应用与落地实践的理想助手。","\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\".\u002Fdocs\u002Fultrarag_dark.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\".\u002Fdocs\u002Fultrarag.svg\">\n    \u003Cimg alt=\"UltraRAG\" src=\".\u002Fdocs\u002Fultrarag.svg\" width=\"55%\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">\nLess Code, Lower Barrier, Faster Deployment\n\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F18747\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_4cc089988f35.png\" alt=\"OpenBMB%2FUltraRAG | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fultrarag.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-6ABED8?style=for-the-badge&logoColor=white\" alt=\"Homepage\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fintroduction\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocumentation-66B89E?style=for-the-badge&logo=bookstack&logoColor=white\" alt=\"Documentation\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002FUltraRAG\u002FUltraRAG_Benchmark\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDataset-DE8EA6?style=for-the-badge&logo=databricks&logoColor=white\" alt=\"Dataset\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Frag-paper-daily\u002Frag-paper-daily\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper_Daily-A48BC8?style=for-the-badge&logo=arxiv&logoColor=white\" alt=\"Paper Daily\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002Fdocs\u002FREADME_zh.md\">\u003Cb>简体中文\u003C\u002Fb>\u003C\u002Fa> &nbsp;|&nbsp; \u003Cb>English\u003C\u002Fb>\n\u003C\u002Fp>\n\n---\n\n\n**Latest News** 🔥\n\n- **[2026.01.23]** 🎉 UltraRAG 3.0 Released: Say no to \"black box\" development—make every line of reasoning logic clearly visible 👉 [📖 Blog](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002Fultrarag3_0.md)\n- **[2026.01.20]** 🎉 AgentCPM-Report Model Released! DeepResearch is finally localized: 8B on-device writing agent AgentCPM-Report is open-sourced 👉 [🤗 Model](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Report)\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Previous News\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cbr>\n\n- **[2025.11.11]** 🎉 UltraRAG 2.1 Released: Enhanced knowledge ingestion & multimodal support, with a more complete unified evaluation system!\n- **[2025.09.23]** New daily RAG paper digest, updated every day 👉 [📖 Papers](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Frag-paper-daily\u002Frag-paper-daily)\n- **[2025.09.09]** Released a Lightweight DeepResearch Pipeline local setup tutorial 👉 [📺 bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1p8JfziEwM) · [📖 Blog](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002F01_build_light_deepresearch.md)\n- **[2025.09.01]** Released a step-by-step UltraRAG installation and full RAG walkthrough video 👉 [📺 bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1B9apz4E7K\u002F?share_source=copy_web&vd_source=7035ae721e76c8149fb74ea7a2432710) · [📖 Blog](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002F00_Installing_and_Running_RAG.md)\n- **[2025.08.28]** 🎉 UltraRAG 2.0 Released! UltraRAG 2.0 is fully upgraded: build a high-performance RAG with just a few dozen lines of code, empowering researchers to focus on ideas and innovation! We have preserved the UltraRAG v2 code, which can be viewed at [v2](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Fv2).\n- **[2025.01.23]** UltraRAG Released! Enabling large models to better comprehend and utilize knowledge bases. The UltraRAG 1.0 code is still available at [v1](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Fv1).\n\n\u003C\u002Fdetails>\n\n---\n\n## 💡 About UltraRAG\n\nUltraRAG is the first lightweight RAG development framework based on the [Model Context Protocol (MCP)](https:\u002F\u002Fmodelcontextprotocol.io\u002Fdocs\u002Fgetting-started\u002Fintro) architecture design, jointly launched by [THUNLP](https:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002F) at Tsinghua University, [NEUIR](https:\u002F\u002Fneuir.github.io) at Northeastern University, [OpenBMB](https:\u002F\u002Fwww.openbmb.cn\u002Fhome), and [AI9stars](https:\u002F\u002Fgithub.com\u002FAI9Stars).\n\nDesigned for research exploration and industrial prototyping, UltraRAG standardizes core RAG components (Retriever, Generation, etc.) as independent **MCP Servers**, combined with the powerful workflow orchestration capabilities of the **MCP Client**. Developers can achieve precise orchestration of complex control structures such as conditional branches and loops simply through YAML configuration.\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Cimg alt=\"UltraRAG Architecture\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_5e19c2511483.png\" width=90%>\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n### 🖥️ UltraRAG UI\n\nUltraRAG UI transcends the boundaries of traditional chat interfaces, evolving into a visual RAG Integrated Development Environment (IDE) that combines orchestration, debugging, and demonstration.\n\nThe system features a powerful built-in Pipeline Builder that supports bidirectional real-time synchronization between \"Canvas Construction\" and \"Code Editing,\" allowing for granular online adjustments of pipeline parameters and prompts. Furthermore, it introduces an Intelligent AI Assistant to empower the entire development lifecycle, from pipeline structural design to parameter tuning and prompt generation. Once constructed, logic flows can be converted into interactive dialogue systems with a single click. The system seamlessly integrates Knowledge Base Management components, enabling users to build custom knowledge bases for document Q&A. This truly realizes a one-stop closed loop, spanning from underlying logic construction and data governance to final application deployment.\n\n\u003C!-- \u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Cimg alt=\"UltraRAG_UI\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_f58a9b5e47dc.png\" width=80%>\n  \u003C\u002Fpicture>\n\u003C\u002Fp> -->\n\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ffcf437b7-8b79-42f2-bf4e-e3b7c2a896b9\n\n\n### ✨ Key Highlights\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**🚀 Low-Code Orchestration of Complex Workflows**\n\n**Inference Orchestration**: Natively supports control structures such as sequential, loop, and conditional branches. Developers only need to write YAML configuration files to implement complex iterative RAG logic in dozens of lines of code.\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**⚡ Modular Extension and Reproduction**\n\n**Atomic Servers**: Based on the MCP architecture, functions are decoupled into independent Servers. New features only need to be registered as function-level Tools to seamlessly integrate into workflows, achieving extremely high reusability.\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**📊 Unified Evaluation and Benchmark Comparison**\n\n**Research Efficiency**: Built-in standardized evaluation workflows, ready-to-use mainstream research benchmarks. Through unified metric management and baseline integration, significantly improves experiment reproducibility and comparison efficiency.\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**🎯 Rapid Interactive Prototype Generation**\n\n**One-Click Delivery**: Say goodbye to tedious UI development. With just one command, Pipeline logic can be instantly converted into an interactive conversational Web UI, shortening the distance from algorithm to demonstration.\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 📦 Installation\n\nWe provide two installation methods: local source code installation (recommended using `uv` for package management) and Docker container deployment\n\n### Method 1: Source Code Installation\n\nWe strongly recommend using [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) to manage Python environments and dependencies, as it can greatly improve installation speed.\n\n**Prepare Environment**\n\nIf you haven't installed uv yet, please execute:\n\n```shell\n## Direct installation\npip install uv\n## Download\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n**Download Source Code**\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG.git --depth 1\ncd UltraRAG\n```\n\n**Install Dependencies**\n\nChoose one of the following modes to install dependencies based on your use case:\n\n**A: Create a New Environment** Use `uv sync` to automatically create a virtual environment and synchronize dependencies:\n\n- Core dependencies: If you only need to run basic core functions, such as only using UltraRAG UI:\n  ```shell\n  uv sync\n  ```\n\n- Full installation: If you want to fully experience UltraRAG's retrieval, generation, corpus processing, and evaluation functions, please run:\n  ```shell\n  uv sync --all-extras\n  ```\n- On-demand installation: If you only need to run specific modules, keep the corresponding `--extra` as needed, for example:\n\n  ```shell\n  uv sync --extra retriever   # Retrieval module only\n  uv sync --extra generation  # Generation module only\n  ```\n\nOnce installed, activate the virtual environment:\n\n```shell\n# Windows CMD\n.venv\\Scripts\\activate.bat\n\n# Windows Powershell\n.venv\\Scripts\\Activate.ps1\n\n# macOS \u002F Linux\nsource .venv\u002Fbin\u002Factivate\n```\n\n**B: Install into an Existing Environment** To install UltraRAG into your currently active Python environment, use `uv pip`:\n\n```shell\n# Core dependencies\nuv pip install -e .\n\n# Full installation\nuv pip install -e \".[all]\"\n\n# On-demand installation\nuv pip install -e \".[retriever]\"\n```\n\n### Method 2: Docker Container Deployment\n\nIf you prefer not to configure a local Python environment, you can deploy using Docker.\n\n**Get Code and Images**\n\n```shell\n# 1. Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG.git --depth 1\ncd UltraRAG\n\n# 2. Prepare the image (choose one)\n# Option A: Pull from Docker Hub\ndocker pull hdxin2002\u002Fultrarag:v0.3.0-base-cpu # Base version (CPU)\ndocker pull hdxin2002\u002Fultrarag:v0.3.0-base-gpu # Base version (GPU)\ndocker pull hdxin2002\u002Fultrarag:v0.3.0          # Full version (GPU)\n\n# Option B: Build locally\ndocker build -t ultrarag:v0.3.0 .\n\n# 3. Start container (port 5050 is automatically mapped)\ndocker run -it --gpus all -p 5050:5050 \u003Cdocker_image_name>\n```\n\n**Start the Container**\n\n```shell\n# Start the container (Port 5050 is mapped by default)\ndocker run -it --gpus all -p 5050:5050 \u003Cdocker_image_name>\n```\n\nNote: After the container starts, UltraRAG UI will run automatically. You can directly access `http:\u002F\u002Flocalhost:5050` in your browser to use it.\n\n### Verify Installation\n\nAfter installation, run the following example command to check if the environment is normal:\n\n```shell\nultrarag run examples\u002Fexperiments\u002Fsayhello.yaml\n```\n\nIf you see the following output, the installation is successful:\n\n```\nHello, UltraRAG v3!\n```\n\n\n## 🚀 Quick Start\n\nWe provide complete tutorial examples from beginner to advanced. Whether you are conducting academic research or building industrial applications, you can find guidance here. Welcome to visit the [Documentation](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fintroduction) for more details.\n\n### 🔬 Research Experiments\nDesigned for researchers, providing data, experimental workflows, and visualization analysis tools.\n- [Getting Started](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fquick_start): Learn how to quickly run standard RAG experimental workflows based on UltraRAG.\n- [Evaluation Data](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fdataset): Download the most commonly used public evaluation datasets in the RAG field and large-scale retrieval corpora, directly for research benchmark testing.\n- [Case Analysis](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fcase_study): Provides a visual Case Study interface to deeply track each intermediate output of the workflow, assisting in analysis and error attribution.\n- [Code Integration](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fcode_integration): Learn how to directly call UltraRAG components in Python code to achieve more flexible customized development.\n\n### 🛠️ Demo Systems\nDesigned for developers and end users, providing complete UI interaction and complex application cases.\n- [Quick Start](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fui\u002Fstart): Learn how to start UltraRAG UI and familiarize yourself with various advanced configurations in administrator mode.\n- [Deployment Guide](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fui\u002Fprepare): Detailed production environment deployment tutorials, covering the setup of Retriever, Generation models (LLM), and Milvus vector database.\n- [Deep Research](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdemo\u002Fdeepresearch): Flagship case, deploy a Deep Research Pipeline. Combined with the AgentCPM-Report model, it can automatically perform multi-step retrieval and integration to generate tens of thousands of words of survey reports.\n\n## 🤝 Contributing\n\nThanks to the following contributors for their code submissions and testing. We also welcome new members to join us in collectively building a comprehensive RAG ecosystem!\n\nYou can contribute by following the standard process: **Fork this repository → Submit Issues → Create Pull Requests (PRs)**.\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b218d00d58a9.png\" \u002F>\n\u003C\u002Fa>\n\n## ⭐ Support Us\n\nIf you find this repository helpful for your research, please consider giving us a ⭐ to show your support.\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#OpenBMB\u002FUltraRAG&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>\n\n## 💬 Contact Us\n\n- For technical issues and feature requests, please use [GitHub Issues](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues).\n- For questions about usage, feedback, or any discussions related to RAG technologies, you are welcome to join our [WeChat group](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fmain\u002Fdocs\u002Fwechat_qr.png), [Feishu group](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fmain\u002Fdocs\u002Ffeishu_qr.png), and [Discord](https:\u002F\u002Fdiscord.gg\u002FyRFFjjJnnS) to exchange ideas with us.\n- If you have any questions, feedback, or would like to get in touch, please feel free to reach out to us via email at yanyk.thu@gmail.com\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b00841ef8da9.png\" alt=\"WeChat Group QR Code\" width=\"220\"\u002F>\u003Cbr\u002F>\n      \u003Cb>WeChat Group\u003C\u002Fb>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_c6e0b432dafd.png\" alt=\"Feishu Group QR Code\" width=\"220\"\u002F>\u003Cbr\u002F>\n      \u003Cb>Feishu Group\u003C\u002Fb>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FyRFFjjJnnS\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-5865F2?style=for-the-badge&logo=discord&logoColor=white\" alt=\"Join Discord\"\u002F>\n      \u003C\u002Fa>\u003Cbr\u002F>\n      \u003Cb>Discord\u003C\u002Fb>\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 📖 Publications\n\n### Papers\n\n1. Shi Yu, Chaoyue Tang, Bokai Xu, Junbo Cui, Junhao Ran, Yukun Yan, Zhenghao Liu, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) VisRAG: Vision-based Retrieval-augmented Generation on Multi-modality Documents. [arXiv:2410.10594](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10594) and [In Proceedings of the Thirteenth International Conference on Learning Representations (ICLR 2025)](https:\u002F\u002Fopenreview.net\u002Fforum?id=zG459X3Xge).\n\n2. Xinze Li, Sen Mei, Zhenghao Liu, Yukun Yan, Shuo Wang, Shi Yu, Zheni Zeng, Hao Chen, Ge Yu, Zhiyuan Liu, Maosong Sun, Chenyan Xiong. (2025) RAG-DDR: Optimizing Retrieval-Augmented Generation Using Differentiable Data Rewards. [arXiv:2410.13509](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.13509) and [In Proceedings of the Thirteenth International Conference on Learning Representations (ICLR 2025)](https:\u002F\u002Fopenreview.net\u002Fforum?id=Pnktu2PBXD).\n\n3. Kunlun Zhu, Yifan Luo, Dingling Xu, Yukun Yan, Zhenghao Liu, Shi Yu, Ruobing Wang, Shuo Wang, Yishan Li, Nan Zhang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework. [arXiv:2408.01262](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.01262) and [In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (ACL 2025)](https:\u002F\u002Faclanthology.org\u002F2025.acl-long.418\u002F).\n\n4. Ruobing Wang, Qingfei Zhao, Yukun Yan, Daren Zha, Yuxuan Chen, Shi Yu, Zhenghao Liu, Yixuan Wang, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) DeepNote: Note-Centric Deep Retrieval-Augmented Generation. [arXiv:2410.08821](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.08821) and [In Findings of the Association for Computational Linguistics: EMNLP 2025](https:\u002F\u002Faclanthology.org\u002F2025.findings-emnlp.1073\u002F).\n\n### Models\n\n1. Yishan Li, Wentong Chen, Yukun Yan, Mingwei Li, Sen Mei, Xiaorong Wang, Kunpeng Liu, Xin Cong, Shuo Wang, Zhong Zhang, Yaxi Lu, Zhenghao Liu, Yankai Lin, Zhiyuan Liu, Maosong Sun. (2026) AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research. [arXiv:2602.06540](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540).\n\n2. OpenBMB. MiniCPM-Embedding-Light. [Hugging Face Model Card](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-Embedding-Light).\n","\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\".\u002Fdocs\u002Fultrarag_dark.svg\">\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\".\u002Fdocs\u002Fultrarag.svg\">\n    \u003Cimg alt=\"UltraRAG\" src=\".\u002Fdocs\u002Fultrarag.svg\" width=\"55%\">\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch3 align=\"center\">\n更少的代码、更低的门槛、更快的部署\n\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F18747\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_4cc089988f35.png\" alt=\"OpenBMB%2FUltraRAG | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fultrarag.github.io\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomepage-6ABED8?style=for-the-badge&logoColor=white\" alt=\"主页\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fintroduction\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F文档-66B89E?style=for-the-badge&logo=bookstack&logoColor=white\" alt=\"文档\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002FUltraRAG\u002FUltraRAG_Benchmark\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F数据集-DE8EA6?style=for-the-badge&logo=databricks&logoColor=white\" alt=\"数据集\"\u002F>\u003C\u002Fa>&nbsp;\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Frag-paper-daily\u002Frag-paper-daily\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F论文每日-A48BC8?style=for-the-badge&logo=arxiv&logoColor=white\" alt=\"论文每日\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002Fdocs\u002FREADME_zh.md\">\u003Cb>简体中文\u003C\u002Fb>\u003C\u002Fa> &nbsp;|&nbsp; \u003Cb>English\u003C\u002Fb>\n\u003C\u002Fp>\n\n---\n\n\n**最新消息** 🔥\n\n- **[2026.01.23]** 🎉 UltraRAG 3.0 发布：告别“黑箱”开发——让每一步推理逻辑清晰可见 👉 [📖 博客](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002Fultrarag3_0.md)\n- **[2026.01.20]** 🎉 AgentCPM-Report 模型发布！深度研究终于实现本地化：8B 规模的设备端写作代理 AgentCPM-Report 已开源 👉 [🤗 模型](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Report)\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>往期新闻\u003C\u002Fb>\u003C\u002Fsummary>\n\u003Cbr>\n\n- **[2025.11.11]** 🎉 UltraRAG 2.1 发布：增强知识摄入与多模态支持，并配备更完善的统一评估体系！\n- **[2025.09.23]** 每日 RAG 论文摘要更新，每天都有新内容 👉 [📖 论文](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Frag-paper-daily\u002Frag-paper-daily)\n- **[2025.09.09]** 发布轻量级深度研究流水线本地搭建教程 👉 [📺 bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1p8JfziEwM) · [📖 博客](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002F01_build_light_deepresearch.md)\n- **[2025.09.01]** 发布 UltraRAG 安装及完整 RAG 演示视频 👉 [📺 bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1B9apz4E7K\u002F?share_source=copy_web&vd_source=7035ae721e76c8149fb74ea7a2432710) · [📖 博客](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fpage\u002Fproject\u002Fblog\u002Fen\u002F00_Installing_and_Running_RAG.md)\n- **[2025.08.28]** 🎉 UltraRAG 2.0 发布！UltraRAG 2.0 全面升级：只需几十行代码即可构建高性能 RAG，让研究人员专注于创意与创新！我们保留了 UltraRAG v2 的代码，可在 [v2](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Fv2) 查看。\n- **[2025.01.23]** UltraRAG 正式发布！使大型模型能够更好地理解并利用知识库。UltraRAG 1.0 的代码仍可在 [v1](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Ftree\u002Fv1) 获取。\n\n\u003C\u002Fdetails>\n\n---\n\n## 💡 关于 UltraRAG\n\nUltraRAG 是首个基于 [模型上下文协议（MCP）](https:\u002F\u002Fmodelcontextprotocol.io\u002Fdocs\u002Fgetting-started\u002Fintro) 架构设计的轻量级 RAG 开发框架，由清华大学 [THUNLP](https:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002F)、东北大学 [NEUIR](https:\u002F\u002Fneuir.github.io)、[OpenBMB](https:\u002F\u002Fwww.openbmb.cn\u002Fhome) 和 [AI9stars](https:\u002F\u002Fgithub.com\u002FAI9Stars) 联合推出。\n\nUltraRAG 专为科研探索和工业原型开发而设计，将 RAG 的核心组件（检索器、生成器等）标准化为独立的 **MCP 服务器**，并结合 **MCP 客户端** 强大的工作流编排能力。开发者仅需通过 YAML 配置即可实现对条件分支、循环等复杂控制结构的精准编排。\n\n\u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Cimg alt=\"UltraRAG 架构\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_5e19c2511483.png\" width=90%>\n  \u003C\u002Fpicture>\n\u003C\u002Fp>\n\n### 🖥️ UltraRAG UI\n\nUltraRAG UI 超越了传统聊天界面的界限，演变为一个集编排、调试和演示于一体的可视化 RAG 集成开发环境（IDE）。\n\n该系统内置强大的流水线构建工具，支持“画布构建”与“代码编辑”之间的双向实时同步，允许用户在线精细调整流水线参数和提示词。此外，它还引入了智能 AI 助手，赋能从流水线结构设计到参数调优、提示词生成的整个开发周期。一旦构建完成，逻辑流程只需点击一下即可转换为交互式对话系统。系统无缝集成知识库管理组件，使用户能够构建用于文档问答的自定义知识库。这真正实现了从底层逻辑构建、数据治理到最终应用部署的一站式闭环。\n\n\u003C!-- \u003Cp align=\"center\">\n  \u003Cpicture>\n    \u003Cimg alt=\"UltraRAG_UI\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_f58a9b5e47dc.png\" width=80%>\n  \u003C\u002Fpicture>\n\u003C\u002Fp> -->\n\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ffcf437b7-8b79-42f2-bf4e-e3b7c2a896b9\n\n### ✨ 核心亮点\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**🚀 复杂工作流的低代码编排**\n\n**推理编排**：原生支持顺序、循环和条件分支等控制结构。开发者只需编写 YAML 配置文件，即可用数十行代码实现复杂的迭代式 RAG 逻辑。\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**⚡ 模块化扩展与复用**\n\n**原子级 Server**：基于 MCP 架构，将功能解耦为独立的 Server。新增功能只需注册为函数级别的 Tool，即可无缝集成到工作流中，实现极高的复用性。\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**📊 统一评估与基准对比**\n\n**科研效率**：内置标准化评估流程，开箱即用主流科研基准。通过统一的指标管理和基线集成，显著提升实验可重复性和对比效率。\n\n\u003C\u002Ftd>\n\u003Ctd width=\"50%\" valign=\"top\">\n\n**🎯 快速生成交互式原型**\n\n**一键交付**：告别繁琐的 UI 开发。只需一条命令，即可将 Pipeline 逻辑即时转换为交互式对话式 Web UI，缩短算法到演示的距离。\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 📦 安装\n\n我们提供两种安装方式：本地源码安装（推荐使用 `uv` 进行包管理）和 Docker 容器部署。\n\n### 方法一：源码安装\n\n我们强烈建议使用 [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) 来管理 Python 环境和依赖，它能极大提升安装速度。\n\n**准备环境**\n\n如果您尚未安装 uv，请执行：\n\n```shell\n## 直接安装\npip install uv\n## 下载\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n**下载源码**\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG.git --depth 1\ncd UltraRAG\n```\n\n**安装依赖**\n\n根据您的使用场景，选择以下任一模式安装依赖：\n\n**A：创建新环境** 使用 `uv sync` 自动创建虚拟环境并同步依赖：\n\n- 核心依赖：如果您仅需运行基础核心功能，例如仅使用 UltraRAG UI：\n  ```shell\n  uv sync\n  ```\n\n- 全量安装：如果您希望全面体验 UltraRAG 的检索、生成、语料处理和评估功能，请运行：\n  ```shell\n  uv sync --all-extras\n  ```\n- 按需安装：如果您仅需运行特定模块，可根据需要保留相应的 `--extra` 参数，例如：\n\n  ```shell\n  uv sync --extra retriever   # 仅检索模块\n  uv sync --extra generation  # 仅生成模块\n  ```\n\n安装完成后，激活虚拟环境：\n\n```shell\n# Windows CMD\n.venv\\Scripts\\activate.bat\n\n# Windows Powershell\n.venv\\Scripts\\Activate.ps1\n\n# macOS \u002F Linux\nsource .venv\u002Fbin\u002Factivate\n```\n\n**B：安装到现有环境** 若要将 UltraRAG 安装到您当前活动的 Python 环境中，请使用 `uv pip`：\n\n```shell\n# 核心依赖\nuv pip install -e .\n\n# 全量安装\nuv pip install -e \".[all]\"\n\n# 按需安装\nuv pip install -e \".[retriever]\"\n```\n\n### 方法二：Docker 容器部署\n\n如果您不想配置本地 Python 环境，也可以使用 Docker 进行部署。\n\n**获取代码和镜像**\n\n```shell\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG.git --depth 1\ncd UltraRAG\n\n# 2. 准备镜像（任选其一）\n# 选项 A：从 Docker Hub 拉取\ndocker pull hdxin2002\u002Fultrarag:v0.3.0-base-cpu # 基础版（CPU）\ndocker pull hdxin2002\u002Fultrarag:v0.3.0-base-gpu # 基础版（GPU）\ndocker pull hdxin2002\u002Fultrarag:v0.3.0          # 完整版（GPU）\n\n# 选项 B：本地构建\ndocker build -t ultrarag:v0.3.0 .\n\n# 3. 启动容器（自动映射端口 5050）\ndocker run -it --gpus all -p 5050:5050 \u003Cdocker_image_name>\n```\n\n**启动容器**\n\n```shell\n# 启动容器（默认映射端口 5050）\ndocker run -it --gpus all -p 5050:5050 \u003Cdocker_image_name>\n```\n\n注意：容器启动后，UltraRAG UI 将自动运行。您可以在浏览器中直接访问 `http:\u002F\u002Flocalhost:5050` 使用。\n\n### 验证安装\n\n安装完成后，运行以下示例命令以检查环境是否正常：\n\n```shell\nultrarag run examples\u002Fexperiments\u002Fsayhello.yaml\n```\n\n如果看到以下输出，则表示安装成功：\n\n```\nHello, UltraRAG v3!\n```\n\n\n## 🚀 快速入门\n\n我们提供了从入门到进阶的完整教程示例。无论您是进行学术研究还是构建工业应用，都能在这里找到指导。欢迎访问 [文档](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fintroduction) 获取更多详情。\n\n### 🔬 科研实验\n专为研究人员设计，提供数据、实验流程和可视化分析工具。\n- [快速入门](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fgetting_started\u002Fquick_start)：学习如何基于 UltraRAG 快速运行标准 RAG 实验流程。\n- [评估数据](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fdataset)：下载 RAG 领域最常用的公开评估数据集和大规模检索语料库，直接用于科研基准测试。\n- [案例分析](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fcase_study)：提供可视化的 Case Study 界面，深入跟踪工作流中的每个中间输出，辅助分析和错误定位。\n- [代码集成](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdevelop_guide\u002Fcode_integration)：学习如何在 Python 代码中直接调用 UltraRAG 组件，实现更灵活的定制化开发。\n\n### 🛠️ 演示系统\n专为开发者和最终用户设计，提供完整的 UI 交互和复杂应用案例。\n- [快速入门](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fui\u002Fstart)：学习如何启动 UltraRAG UI，并熟悉管理员模式下的各种高级配置。\n- [部署指南](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fui\u002Fprepare)：详细的生产环境部署教程，涵盖 Retriever、生成模型（LLM）以及 Milvus 向量数据库的搭建。\n- [深度研究](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdemo\u002Fdeepresearch)：旗舰案例，部署 Deep Research Pipeline。结合 AgentCPM-Report 模型，可自动执行多步检索与整合，生成数万字的调研报告。\n\n## 🤝 贡献\n\n感谢以下贡献者提供的代码提交和测试。我们也欢迎新成员加入我们，共同构建一个全面的 RAG 生态系统！\n\n您可以通过标准流程进行贡献：**Fork 本仓库 → 提交 Issue → 创建 Pull Request (PR)**。\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b218d00d58a9.png\" \u002F>\n\u003C\u002Fa>\n\n## ⭐ 支持我们\n\n如果您觉得本仓库对您的研究有所帮助，请考虑给我们点个 star，以表示您的支持。\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#OpenBMB\u002FUltraRAG&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b950b55bdeca.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>\n\n## 💬 联系我们\n\n- 如遇技术问题或功能需求，请使用 [GitHub Issues](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues)。\n- 如有关于使用、反馈或其他与 RAG 技术相关的问题，欢迎您加入我们的 [微信群](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fmain\u002Fdocs\u002Fwechat_qr.png)、[飞书群](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fblob\u002Fmain\u002Fdocs\u002Ffeishu_qr.png) 和 [Discord](https:\u002F\u002Fdiscord.gg\u002FyRFFjjJnnS)，与我们交流讨论。\n- 如果您有任何疑问、建议或想与我们取得联系，请随时通过电子邮件 yanyk.thu@gmail.com 与我们沟通。\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_b00841ef8da9.png\" alt=\"WeChat Group QR Code\" width=\"220\"\u002F>\u003Cbr\u002F>\n      \u003Cb>微信群\u003C\u002Fb>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_readme_c6e0b432dafd.png\" alt=\"Feishu Group QR Code\" width=\"220\"\u002F>\u003Cbr\u002F>\n      \u003Cb>飞书群\u003C\u002Fb>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FyRFFjjJnnS\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-5865F2?style=for-the-badge&logo=discord&logoColor=white\" alt=\"Join Discord\"\u002F>\n      \u003C\u002Fa>\u003Cbr\u002F>\n      \u003Cb>Discord\u003C\u002Fb>\n  \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 📖 出版物\n\n### 论文\n\n1. Shi Yu, Chaoyue Tang, Bokai Xu, Junbo Cui, Junhao Ran, Yukun Yan, Zhenghao Liu, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) VisRAG: 基于视觉的多模态文档检索增强生成。[arXiv:2410.10594](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10594) 和 [第十三届国际学习表征会议（ICLR 2025）论文集](https:\u002F\u002Fopenreview.net\u002Fforum?id=zG459X3Xge)。\n\n2. Xinze Li, Sen Mei, Zhenghao Liu, Yukun Yan, Shuo Wang, Shi Yu, Zheni Zeng, Hao Chen, Ge Yu, Zhiyuan Liu, Maosong Sun, Chenyan Xiong. (2025) RAG-DDR: 利用可微数据奖励优化检索增强生成。[arXiv:2410.13509](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.13509) 和 [第十三届国际学习表征会议（ICLR 2025）论文集](https:\u002F\u002Fopenreview.net\u002Fforum?id=Pnktu2PBXD)。\n\n3. Kunlun Zhu, Yifan Luo, Dingling Xu, Yukun Yan, Zhenghao Liu, Shi Yu, Ruobing Wang, Shuo Wang, Yishan Li, Nan Zhang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) RAGEval: 场景特定的 RAG 评估数据集生成框架。[arXiv:2408.01262](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.01262) 和 [第63届计算语言学协会年会（ACL 2025）论文集](https:\u002F\u002Faclanthology.org\u002F2025.acl-long.418\u002F)。\n\n4. Ruobing Wang, Qingfei Zhao, Yukun Yan, Daren Zha, Yuxuan Chen, Shi Yu, Zhenghao Liu, Yixuan Wang, Shuo Wang, Xu Han, Zhiyuan Liu, Maosong Sun. (2025) DeepNote: 以笔记为中心的深度检索增强生成。[arXiv:2410.08821](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.08821) 和 [计算语言学协会发现：EMNLP 2025](https:\u002F\u002Faclanthology.org\u002F2025.findings-emnlp.1073\u002F)。\n\n### 模型\n\n1. Yishan Li, Wentong Chen, Yukun Yan, Mingwei Li, Sen Mei, Xiaorong Wang, Kunpeng Liu, Xin Cong, Shuo Wang, Zhong Zhang, Yaxi Lu, Zhenghao Liu, Yankai Lin, Zhiyuan Liu, Maosong Sun. (2026) AgentCPM-Report: 针对开放式深度研究的草稿撰写与深入分析交织模型。[arXiv:2602.06540](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540)。\n\n2. OpenBMB. MiniCPM-Embedding-Light。[Hugging Face 模型卡片](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-Embedding-Light)。","# UltraRAG 快速上手指南\n\nUltraRAG 是由清华大学 THUNLP、东北大学 NEUIR、OpenBMB 等联合推出的首个基于 **Model Context Protocol (MCP)** 架构的轻量级 RAG 开发框架。它支持通过 YAML 配置实现复杂工作流的低代码编排，并提供可视化的 UI 界面进行调试与部署。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux, macOS, Windows (WSL 推荐)\n- **Python 版本**: 3.9 - 3.12\n- **硬件建议**:\n  - 基础运行：CPU 即可\n  - 完整功能（检索\u002F生成\u002F评估）：建议配备 NVIDIA GPU (CUDA 支持)\n\n### 前置依赖\n推荐使用 [`uv`](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) 进行包管理，它能显著提升安装速度。如未安装，请先执行以下任一命令安装 `uv`：\n\n```shell\n# 方式一：通过 pip 安装\npip install uv\n\n# 方式二：官方脚本安装 (Linux\u002FmacOS)\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n## 2. 安装步骤\n\n### 方法一：源码安装（推荐）\n\n**1. 克隆项目**\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG.git --depth 1\ncd UltraRAG\n```\n\n**2. 安装依赖**\n根据需求选择以下一种模式：\n\n*   **核心模式**（仅运行基础功能或 UI）：\n    ```shell\n    uv sync\n    ```\n*   **全量模式**（包含检索、生成、数据处理及评估功能）：\n    ```shell\n    uv sync --all-extras\n    ```\n*   **按需模式**（例如仅安装检索模块）：\n    ```shell\n    uv sync --extra retriever\n    ```\n\n**3. 激活虚拟环境**\n安装完成后，激活生成的 `.venv` 环境：\n\n```shell\n# Linux \u002F macOS\nsource .venv\u002Fbin\u002Factivate\n\n# Windows CMD\n.venv\\Scripts\\activate.bat\n\n# Windows PowerShell\n.venv\\Scripts\\Activate.ps1\n```\n\n> **备选方案：直接安装到当前环境**\n> 若不希望使用虚拟环境，可使用 `uv pip` 直接安装：\n> ```shell\n> uv pip install -e \".[all]\"\n> ```\n\n### 方法二：Docker 部署\n\n若不想配置本地 Python 环境，可直接使用 Docker。\n\n**1. 拉取镜像**\n```shell\n# CPU 基础版\ndocker pull hdxin2002\u002Fultrarag:v0.3.0-base-cpu\n\n# GPU 完整版（推荐）\ndocker pull hdxin2002\u002Fultrarag:v0.3.0\n```\n\n**2. 启动容器**\n```shell\ndocker run -it --gpus all -p 5050:5050 hdxin2002\u002Fultrarag:v0.3.0\n```\n启动后，直接在浏览器访问 `http:\u002F\u002Flocalhost:5050` 即可使用 UltraRAG UI。\n\n## 3. 基本使用\n\n### 验证安装\n运行官方提供的 \"Hello World\" 示例，检查环境是否正常：\n\n```shell\nultrarag run examples\u002Fexperiments\u002Fsayhello.yaml\n```\n\n若终端输出以下内容，表示安装成功：\n```text\nHello, UltraRAG v3!\n```\n\n### 快速体验 UI 界面\nUltraRAG 提供了可视化的 IDE 界面，支持画布编排与代码实时同步。\n\n1. 确保已激活虚拟环境（源码安装用户）。\n2. 在终端输入以下命令启动 UI 服务：\n   ```shell\n   ultrarag ui\n   ```\n   *(注：具体启动命令可能随版本微调，若上述命令无效，请尝试直接运行 `python -m ultrarag.ui` 或参考启动日志)*\n3. 打开浏览器访问 `http:\u002F\u002Flocalhost:5050`。\n4. 在界面中，您可以：\n   - 使用 **Pipeline Builder** 拖拽组件构建 RAG 流程。\n   - 编辑 **YAML 配置文件** 定义条件分支与循环逻辑。\n   - 一键将构建好的流程转换为交互式对话应用。\n\n### 运行研究实验\n对于科研人员，可直接运行内置的基准测试工作流：\n\n```shell\n# 运行标准 RAG 实验流程\nultrarag run examples\u002Fexperiments\u002Fstandard_rag.yaml\n```\n\n更多高级用法（如自定义 MCP Server、复杂工作流编排）请参考 [官方文档](https:\u002F\u002Fultrarag.openbmb.cn)。","某金融科技公司研发团队正急需构建一个能实时解析最新财报与监管政策的智能投研助手，以辅助分析师快速提取关键数据。\n\n### 没有 UltraRAG 时\n- **开发门槛高**：团队需从零手写大量代码连接向量数据库、重排序模型及 LLM，资深算法工程师需耗费数周搭建基础框架。\n- **逻辑黑盒难调优**：检索增强生成（RAG）链路复杂，一旦回答出错，难以定位是检索召回失败还是生成逻辑偏差，调试如同“盲人摸象”。\n- **迭代周期漫长**：每当需要引入新的数据源（如 PDF 财报或网页新闻）或更换基座模型时，需重构底层接口，严重拖慢业务验证速度。\n- **多模态支持缺失**：面对包含图表的金融报告，传统文本 RAG 无法有效解析图像信息，导致关键财务趋势分析缺失。\n\n### 使用 UltraRAG 后\n- **低代码快速构建**：基于 MCP 架构，研究人员仅需数十行配置代码即可组装复杂的 RAG 流水线，将原型开发时间从数周压缩至数小时。\n- **推理过程全透明**：UltraRAG 3.0 让每一步检索与推理逻辑清晰可见，团队可精准定位并优化特定环节，显著提升回答准确率。\n- **灵活热插拔组件**：通过标准化接口，轻松切换不同的嵌入模型或接入多模态解析器，无需修改核心代码即可适应新业务需求。\n- **原生多模态赋能**：内置增强的知识摄入模块，能直接理解财报中的图表数据，为分析师提供图文并茂的深度洞察。\n\nUltraRAG 通过标准化与可视化彻底打破了 RAG 开发的“黑盒”困境，让团队能将精力从繁琐的工程实现回归到业务创新本身。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_UltraRAG_f58a9b5e.png","OpenBMB","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenBMB_02e4bd39.png","OpenBMB (Open Lab for Big Model Base) aims to build foundation models and systems towards AGI.",null,"openbmb@gmail.com","https:\u002F\u002Fwww.openbmb.cn","https:\u002F\u002Fgithub.com\u002FOpenBMB",[80,84,88,92,96,100,104,107],{"name":81,"color":82,"percentage":83},"Python","#3572A5",46.9,{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",32.5,{"name":89,"color":90,"percentage":91},"CSS","#663399",14.1,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",3.8,{"name":97,"color":98,"percentage":99},"Jinja","#a52a22",2.5,{"name":101,"color":102,"percentage":103},"HTML","#e34c26",0.1,{"name":105,"color":106,"percentage":103},"Dockerfile","#384d54",{"name":108,"color":109,"percentage":103},"Shell","#89e051",5477,409,"2026-04-09T03:43:09","Apache-2.0","Linux, macOS, Windows","可选。提供 CPU 和 GPU 版本的 Docker 镜像；若使用 GPU 版本需 NVIDIA GPU 并支持 --gpus all 参数，具体型号和显存未说明","未说明",{"notes":118,"python":119,"dependencies":120},"强烈建议使用 uv 进行包管理和环境创建；支持通过 Docker 部署（提供 CPU 和 GPU 基础镜像及全功能镜像）；核心功能基于 Model Context Protocol (MCP) 架构；可通过 YAML 配置实现低代码工作流编排；首次运行建议执行示例命令验证安装。","未说明 (推荐使用 uv 管理环境)",[121,122,123,124,125],"uv","torch","transformers","accelerate","mcp",[13,35,127,15,14],"其他",[129,130,131,132,125,133,134,135,136,137,138,139,140,141,142,143,144],"embedding","llm","rag","easy","openai","vllm","gpt","qwen","deepseek","sentence-transformers","demo","flask","ui","huggingface-transformers","multimodal","vlm","2026-03-27T02:49:30.150509","2026-04-11T18:31:00.488032",[148,153,158,163,168,173,177],{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},26436,"使用 OpenAI API 调用 retriever_init 时报错 'list index out of range' 或配置冲突怎么办？","这通常是因为配置文件参数与调用的工具不匹配。如果您使用的是 `retriever.retriever_init` 工具（本地模型），请在 YAML 配置中**去掉** `use_openai: true` 参数。如果您想使用 OpenAI 兼容的 Embedding 服务，则应在 pipeline.yaml 中使用 `retriever.retriever_init_openai` 工具，并保留相关 OpenAI 配置。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues\u002F78",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},26437,"调用生成接口时遇到 'enable_thinking must be set to false for non-streaming calls' 错误如何解决？","这是某些模型服务商（如 DashScope）对非流式调用的参数校验要求。解决方法是在配置的 `extra_params` 中显式添加 `stream: false`，并确保 `enable_thinking` 设置为 false。配置示例如下：\n```yaml\nextra_params:\n    enable_thinking: false\n    stream: false\n    chat_template_kwargs:\n      enable_thinking: false\n```\n或者直接删除整个 `extra_params` 参数块尝试默认行为。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues\u002F287",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},26438,"VisRAG 运行时出现显存不足（OOM）或 Pydantic 验证错误如何处理？","1. **显存问题**：即使有 24GB 显存，也建议将多模态模型（如 MiniCPM-V-2_6）和检索模型（VisRAG-ret）部署在**不同的显卡**上以避免 OOM。如果显存仍然紧张，可以尝试使用模型的 int 量化版本。\n2. **API 支持**：目前 VisRAG 暂时不支持直接通过 API 调用 gpt-4o 等外部多模态模型。\n3. **推理后端**：如果使用 vllm 推理多模态模型，建议直接在 WebUI 中填写模型地址进行测试，因为 UltraRAG 对 vllm 多模态模型的适配仍在进行中。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues\u002F37",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},26439,"UltraRAG 是否支持多用户并发提问？","目前版本主要面向单用户或开发测试场景，官方尚未完全实现多用户高并发支持。维护者表示已收到此类需求（如企业内部 Chatbot 场景），未来版本会考虑加入对多用户并发的支持。在当前版本中，如需内网多机同时提问，可能需要自行搭建负载均衡或在应用层进行队列管理。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues\u002F38",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},26440,"执行评估脚本 eval.py 时出现 'TypeError: NoneType object is not iterable' 错误是什么原因？","该错误通常发生在编码查询字符串时，传入的 query 列表为 None。请检查您的输入数据文件（如 output.jsonl），确保其中包含有效的 'question' 或 'instruction' 字段，且格式正确。此外，确认在调用搜索接口前，query 变量已被正确初始化为字符串列表，而非空值。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG\u002Fissues\u002F36",{"id":174,"question_zh":175,"answer_zh":176,"source_url":172},26441,"corpus_toy.jsonl 中的 id 是如何生成的？与 UI 界面中的 file_id 为何不一致？","数据文件（如 corpus_toy.jsonl）中的 `id` 通常是基于文档内容（content）计算的 Hash 值，用于唯一标识文本片段。而 UI 界面文件列表中显示的 ID 可能是文件级别的标识符（file_id）或数据库内部生成的 UUID。两者用途不同，长度和格式不一致属于正常现象，无需强行对应。",{"id":178,"question_zh":179,"answer_zh":180,"source_url":157},26442,"如何在 UltraRAG 中兼容不同服务商（如阿里云、GLM）的模型 API？","UltraRAG 理论上兼容任何符合 OpenAI 接口标准的模型部署。但由于不同服务商（如阿里云 DashScope、智谱 GLM）的参数校验逻辑略有不同，使用时需参考对应服务商的 API 文档调整配置。例如，某些服务可能强制要求特定的布尔参数或流式设置。如果遇到报错，建议尝试简化 `extra_params` 或根据错误提示显式声明所需参数。",[182,187,192,197,202,207,212,217],{"id":183,"version":184,"summary_zh":185,"released_at":186},171682,"v0.3.0.2","发布日期：2026年4月9日\n\n## 亮点\n\n本次发布为 UltraRAG 带来了重大的端到端记忆系统升级，引入了持久化用户记忆、项目级记忆检索功能，以及专门的内存感知 RAG 示例。同时，通过基于 SQLite 的认证机制、持久化聊天会话、昵称与模型设置管理，以及支持公开、私有和共享访问的知识库可见性控制，显著提升了演示体验的状态性和个性化程度。\n\n前端方面，我们基于 React\u002FVite 对代码进行了全面重构，新增了“探索”板块，优化了源文档详情交互，并实现了移动端的基础适配。此外，我们还通过修复异步检索器初始化问题、增加对 FastMCP 3.x 相关构建变更及演示运行时清理的兼容性保护、为 SayHello 流程和前端构建添加 CI 冒烟测试，以及编写结构化的故障排查指南等措施，进一步提升了工程健壮性。与此同时，我们也对后端和前端依赖库进行了广泛更新和维护。\n\n## 变更内容\n\n1. 添加端到端记忆系统，支持持久化用户记忆、项目级记忆检索，以及专用的内存感知 RAG 示例。由 @mssssss123 在 #379 中实现。\n\n2. 引入基于 SQLite 的认证机制、持久化聊天会话、昵称与模型设置管理功能，以及知识库可见性控制。由 @mssssss123 在 #379 中完成。\n\n3. 使用 React\u002FVite 重构前端，新增“探索”板块，并提升移动端响应式体验及源文档详情交互。由 @mssssss123 在 #379 中实现。\n\n4. 修复异步检索器初始化问题，在启动时等待 retriever_init(...) 完成后再继续。由 @xhd0728 在 #385 中解决。\n\n5. 解决因 FastMCP 3.x API 变更导致的构建兼容性问题，并强化演示运行时处理，消除事件循环关闭相关的噪声信息，同时完善后端覆盖逻辑。由 @xhd0728 在 #388 中完成。\n\n6. 为 SayHello 流程和前端构建添加 CI 冒烟测试，并进一步优化工作流工具链及安装示例。由 @xhd0728 在 #389 和 #390 中实施。\n\n7. 针对 UltraRAG 工作流新增结构化的故障排查指南。由 @onestardao 在 #352 中完成。\n\n8. 更新 README 文档中的发布信息和模型引用。由 @xhd0728 在 #359 中完成。\n\n9. 更新后端和前端依赖库，包括 Gradio、vLLM、pypdf、pyjwt、cbor2、cryptography、aiohttp、requests、authlib、orjson、tornado、NLTK，以及多个前端相关包。由 @dependabot 在 #354、#355、#357、#360、#366、#368、#369、#371、#373、#376、#377、#380、#381、#382、#383、#384、#386 和 #387 中完成。","2026-04-09T04:41:05",{"id":188,"version":189,"summary_zh":190,"released_at":191},171683,"v0.3.0.1","发布日期：2026年3月10日\n\n## 亮点\n\n本次发布新增了对 `.doc` 和 `.wps` 格式的文档解析支持，并为演示环境引入了全新的网络搜索功能。我们通过添加 `DOCX` 和 `Markdown` 导出功能、可下载的文本操作以及优化会话创建与中断处理流程，显著提升了聊天体验。引用系统也得到了进一步优化，实现了自动重新编号和更清晰的来源排序，以提升阅读体验。此外，我们还通过为 OpenAI 嵌入引入并发机制来提升后端性能，并新增了一个案例研究查看器，以扩展功能。\n\n## 变更内容\n\n1. 为演示环境支持网络搜索功能。由 @xhd0728 在 #285 中完成。\n\n2. 支持 `.doc` 和 `.wps` 文件解析。由 @xhd0728 在 #293 中完成。\n\n3. 实现案例研究查看器的启动功能。由 @mssssss123 在 #313 中完成。\n\n4. 新增聊天消息的 DOCX 格式导出功能。由 @mssssss123 在 #323 中完成。\n\n5. 简化参数显示切换，使界面更加整洁。由 @mssssss123 在 #282 中完成。\n\n6. 添加用户确认以中断聊天生成过程，并优化新聊天会话的创建流程。由 @mssssss123 在 #305 中完成。\n\n7. 实现引用的自动重新编号功能。由 @mssssss123 在 #314 中完成。\n\n8. 增强聊天文本操作功能，新增下载能力，并按数字引用 ID 对已使用和未使用的来源进行排序。由 @mssssss123 在 #315 中完成。\n\n9. 通过引入并发机制优化 OpenAI 嵌入。由 @xhd0728 在 #295 中完成。","2026-03-10T09:22:27",{"id":193,"version":194,"summary_zh":195,"released_at":196},171684,"v0.3.0","发布日期：2026年1月23日\n\n## 亮点\n\n隆重推出 UltraRAG 3.0：拒绝“黑盒”开发，让每一段推理逻辑都清晰可见！UltraRAG 3.0 由 THUNLP、NEUIR、OpenBMB 和 AI9Stars 联合研发，成功解决了 RAG 开发中的“最后一公里”难题。本次发布是一个重要的里程碑，共合并了 **129 个 Pull Request**，在功能、UI\u002FUX 和系统稳定性方面带来了重大提升。\n\n* 所见即所得的 Pipeline 构建器：从逻辑到原型，只需几秒钟。我们的双模构建模式（画布 + 代码）可实时同步。点击“构建”，你的静态逻辑将立即变为交互式 UI，再也不用写重复的样板代码！\n\n* 像素级“白盒”可视化：不再靠猜测。“展示思考”面板会可视化整个推理轨迹——循环、分支和工具调用。通过对比检索片段与模型幻觉，你可以即时调试不良案例。\n\n* 内置 AI 开发助手：卡在配置上？内置的 AI 助手对框架了如指掌。只需使用自然语言即可生成 Pipeline 配置、优化 Prompt 或解释参数。\n\n* 深度研究引擎：基于 AgentCPM-Report，支持“写作即推理”。系统会动态规划、检索并深入内容，自动生成专业且带引用的报告。\n\n\n## 变更内容\n\n\n**演示模式与流式处理：**\n* 为检索服务器和 Milvus 后端启用演示模式兼容性 (#145) @mssssss123\n* 在生成服务器中启用流式生成以支持演示模式 (#147) @mssssss123\n* 全栈支持（前端、后端、客户端）演示模式；升级 CLI 至 v3 (#149) @mssssss123\n* 支持在演示中显示“思考过程”(#151) @mssssss123\n* 支持自定义 chunk 参数，优化语料库服务器，并添加线程清理 (#167) @mssssss123\n\n\n**知识库 (KB)：**\n* 为演示模式支持知识管理 (#160) @mssssss123\n* 支持上传多文件和文件夹 (#161) @mssssss123\n* 支持在聊天过程中选择知识库 (#162) @mssssss123\n* 支持中文知识库名称 (#212) @xhd0728\n* 添加知识库选择验证 (#194) @xhd0728\n* 修复设置已存在集合名称时的追加索引错误 (#266) @xhd0728\n\n\n**引用与渲染：**\n* 支持通过 Prompt 插入引用 (#155) @mssssss123\n* 支持循环类 Pipeline 的引用 (#156) @mssssss123\n* 支持轻量级研究 Pipeline 的引用 (#157) @mssssss123\n* 重新实现单步和多步引用逻辑 (#173) @mssssss123\n* 通过折叠未使用的引用和改进高亮逻辑，增强参考文献的渲染效果 (#174) @mssssss123\n* 集成 KaTeX 实现 Markdown 中的 LaTeX 渲染 (#171) @mssssss123\n\n\n**Pipeline 与 Agents：**\n* 支持 SurveyCPM Pipeline (#183) @mssssss123\n* 支持后台推理暂停并优化生成细节 (#185) @mssssss123\n* 通过用户 ID 隔离增强后台任务管理 (#186) @mssssss123\n* 添加 PaperAgent 演示 (#189) @mssssss123\n* 添加 AgentCPM-Report 演示 (#226, #230) @","2026-01-26T05:13:06",{"id":198,"version":199,"summary_zh":200,"released_at":201},171685,"v0.2.1.3","发布日期：2026年1月12日\n\n## 亮点\n\n本次发布重点在于提升系统稳定性和核心逻辑。我们修复了生成服务器中的路径索引错误，以确保图像渲染的可靠性。此外，search-o1 流程已被完全重写，解决了此前存在的实现缺陷。\n\n## 变更内容\n\n1. 修复了生成服务器中图像路径的索引引用问题。由 @xhd0728 提交 #146\n2. 重新实现了 search-o1 流程。由 @mssssss123 和 @lifelsl 负责 #158","2026-01-12T02:40:54",{"id":203,"version":204,"summary_zh":205,"released_at":206},171686,"v0.2.1.2","发布日期：2025年11月25日\n\n## 亮点\n\n本次发布引入了焕然一新的 UltraRAG 前端界面，修复了多个逻辑问题，并新增了 ToolCall 和 PipelineCall 能力，允许您直接从自己的代码中调用 UltraRAG 工具或流水线。检索服务器经过进一步优化，现已支持完整部署而无需重复进行语料库\u002F索引的初始化，从而显著提升实验效率。此外，我们还完善了 GPU\u002FCPU 配置逻辑，使检索器的性能更加稳定、灵活。\n\n## 变更内容\n\n1. 新增对检索服务器的完整部署支持。由 @mssssss123 提供 #136\n2. 更新了 UltraRAG 演示前端界面。由 @mssssss123 提供 #139\n3. 优化了检索服务器的 GPU\u002FCPU 配置逻辑。由 @mssssss123 提供 #142\n4. 引入了全新的 ToolCall 和 PipelineCall 功能。由 @hm1229 和 @mssssss123 共同提供 #143","2025-11-25T01:32:23",{"id":208,"version":209,"summary_zh":210,"released_at":211},171687,"v0.2.1.1","发布日期：2025年11月13日\n\n## 亮点\n\n本次发布提升了 UltraRAG 的稳定性和灵活性。Retriever 和索引现已完全解耦，并新增对 Milvus 和 Faiss 的支持。全新支持 VisRAG 2.0 流程，同时更新了与 chonkie 1.4.0 及以上版本的兼容性。包括 Search-o1 和 WebNote 在内的多个流程已修复。通过在文档解析过程中支持进度条、提供保存检索结果的脚本，以及在案例研究 UI 中支持图片放大查看等功能，进一步优化了用户体验。此外，README 文件现包含更清晰的 Docker 使用指南。\n\n## 变更内容\n\n1. Retriever 与索引解耦，并支持 Milvus 和 Faiss：Retriever 和向量索引现已完全解耦，原生支持 Milvus 和 Faiss，为大规模语料库构建和高性能检索提供了更高的灵活性。由 @mssssss123 提交，#122  \n2. 新增对 VisRAG 2.0 全流程的支持：UltraRAG 现在原生支持 VisRAG 2.0 流程，能够实现更强的多模态文档理解能力，并进行图像与文本的联合推理。由 @mssssss123 提交，#115  \n3. 升级与 chonkie ≥ 1.4.0 的兼容性：更新了文档处理模块，使其与 chonkie 1.4.0 及以上版本完全兼容，从而提升结构化提取和解析工作流的稳定性。由 @yinyannlp 和 @mssssss123 共同提交，#119 和 #120  \n4. 修复 Search-o1 流程：解决了迭代式搜索-生成循环中的关键问题，恢复了 Search-o1 流程的稳定功能。由 @mssssss123 提交，#123  \n5. 修复准确率指标计算错误：修正了 acc 指标计算中的不准确性，确保在各类基准测试中评估结果更加可靠和一致。由 @mssssss123 提交，#127  \n6. 新增保存检索结果的脚本：引入了一款新脚本，用于持久化检索到的内容，从而改善调试流程、可视化效果及错误案例分析。由 @mssssss123 提交，#129  \n7. 修复 WebNote 流程中的多个缺陷：针对 WebNote 流程中存在的多项问题进行了修复，提升了其在处理网页类或长篇内容时的鲁棒性。由 @mssssss123 提交，#128  \n8. 增强案例研究 UI，支持图片放大查看：案例研究界面现支持图片放大查看功能，显著提升了多模态内容的检查与可视化体验。由 @mssssss123 提交，#130  \n9. 为文档解析新增进度条：文档解析过程现在会显示进度条，在处理长文档时提供更清晰的反馈信息。由 @mssssss123 提交，#133  \n10. 更新 README，添加完整的 Docker 使用指南：README 文件现已更新，增加了详尽的 Docker 使用说明部分，使部署更加简便易行。由 @xhd0728 提交，#131","2025-11-13T12:28:37",{"id":213,"version":214,"summary_zh":215,"released_at":216},171688,"v0.2.1","**发布日期：** 2025年10月22日  \n\n## 亮点  \n\n1. 全面多模态升级：检索服务器和生成服务器现均支持多模态输入，实现从检索到生成的端到端多模态工作流。  \n2. 语料库解析与分块重新设计：语料库服务器新增多格式文件解析功能，并深度集成MinerU，支持词级、句级以及自定义分块策略，灵活适配各类语料结构。  \n3. 统一部署与高效推理：检索服务器和生成服务器完全兼容vLLM等标准化部署框架，支持离线推理、多引擎适配及加速实验。  \n4. 评估与实验流程增强：引入基于TREC的检索评估与显著性检验模块，支持并行实验执行及多模态结果可视化，优化科研评估与实验流程。  \n\n## 变更内容  \n\n- 语料库服务器支持从.txt、.md、.pdf、.xps、.oxps、.epub、.mobi和.fb2文件中提取纯文本。@mssssss123  \n- 语料库服务器为.pdf文件新增简单的逐页图片转换功能。@mssssss123  \n- 语料库服务器集成MinerU，实现高精度PDF解析。@mssssss123  \n- 语料库服务器推出新的分块策略，支持词级或字符级切分。@mssssss123  \n- 语料库服务器支持句级分块。@mssssss123  \n- 语料库服务器支持自定义分块规则（默认规则识别Markdown章节；其他规则可通过配置文件扩展）。@mssssss123  \n- 检索服务器支持三种检索引擎：Infinity、Sentence-Transformers和OpenAI。@mssssss123  \n- 检索服务器支持多模态检索。@mssssss123  \n- 检索服务器新增BM25稀疏检索功能。@xhd0728  \n- 检索服务器支持稠密与稀疏结合的混合检索。@mssssss123  \n- 检索服务器提供基于vLLM的标准化部署，并统一为OpenAI兼容API。@xhd0728  \n- 检索服务器支持通过Exa、Tavily和智谱AI进行在线检索。@xhd0728  \n- 重排序服务器支持Infinity、Sentence-Transformers和OpenAI的排序引擎。@xhd0728  \n- 生成服务器支持多模态推理。@mssssss123  \n- 生成服务器引入vLLM离线推理功能，显著提升实验效率。@mssssss123  \n- 生成服务器支持Hugging Face推理，便于本地调试。@xhd0728  \n- 评估服务器支持TREC检索评估。@xhd0728  \n- 评估服务器支持TREC显著性检验。@xhd0728  \n- VisRAG流水线实现从本地PDF导入到多模态检索与生成的端到端工作流。@mssssss123  \n- RAG客户端支持通过自定义参数文件，在同一流水线下并行运行多个实验。@mssssss123  \n- UltraRAG基准测试新增六个VQA数据集，其中包括wiki2024等。","2025-10-22T07:20:03",{"id":218,"version":219,"summary_zh":220,"released_at":221},171689,"v0.2.0","**发布日期：** 2025年8月28日  \n\n## 亮点  \n\nUltraRAG 2.0 对系统架构进行了全面重构，完全采用基于 MCP 的模块化结构。此次发布显著提升了系统的灵活性、可扩展性和开发者体验，使研究人员和工程师能够以极低的开销快速构建、定制并复现复杂的 RAG 流水线。  \n\nUltraRAG 2.0 的核心是全新的 MCP 客户端—服务器工作流，实现了语料库、检索器、生成模型、评估模块、路由模块和笔记模块等功能组件之间的清晰分离。流水线引擎经过重新设计，支持循环、分支、多服务器实例以及完全自定义的数据流，从而让 Search-o1、RankCoT、WebNote、Iter-RetGen 等高级 RAG 流水线开箱即用。  \n\n开发者体验也进一步优化，包括简化的 YAML 配置、类似 Functool 的工具调用方式、自动化的服务器构建以及更完善的错误处理机制。UltraRAG 2.0 标志着迈向统一、可复现且对开发者友好的 RAG 研究平台的重要一步。  \n\n## 变更内容  \n\n**MCP 架构与客户端—服务器重设计**  \n\n- 统一的 MCP 服务器架构：所有 RAG 组件（基准测试、语料库、检索器、生成模型、评估模块、路由模块、笔记模块）现均以独立的 MCP 服务器形式实现，支持模块化开发和清晰的扩展性。  \n由 @hm1229 和 @xhd0728 负责  \n\n- 全新的 MCP 客户端流水线引擎：引入了支持循环、分支、路由、多服务器别名、提前终止及嵌套流水线的新执行引擎，原生支持复杂的迭代式工作流。  \n由 @hm1229 和 @xhd0728 负责  \n\n**语料库服务器**  \n\n- 新增统一的文件读取支持（doc\u002Fdocx\u002Fpdf\u002Fmd\u002Ftxt）及多种分块策略（静态\u002F语义\u002FLLM）。  \n由 @mssssss123 负责  \n\n- 增强的分块流水线：提升了大文档处理的稳定性和可扩展性，并优化了 JSONL 语料库的生成流程。  \n由 @mssssss123 负责  \n\n**检索器与重排序器服务器**  \n\n- 检索器服务器重构：将嵌入、索引、检索和重排序功能完全模块化。  \n由 @mssssss123、@Kaguya-19 和 @gdw439 负责  \n\n- 改进的向量索引处理：提供了更简洁的索引构建 API，并提升了大规模索引过程中的容错能力。  \n由 @mssssss123、@Kaguya-19 和 @gdw439 负责  \n\n- 新增重排序器服务器：以模块化形式原生支持段落级别的重排序。  \n由 @mssssss123 和 @xhd0728 负责  \n\n**提示与生成服务器**  \n\n- 统一的生成服务器：支持 OpenAI 兼容 API、本地 HF\u002FvLLM 模型、可自定义的采样参数，并可与提示服务器集成。  \n由 @methanechen 和 @hm1229 负责  \n\n- 提示服务器支持：推出了专门的提示服务器，用于处理参数化的 Jinja 模板和可复用的提示逻辑。  \n由 @hm1229 和 @xhd0728 负责  \n\n**基准测试与评估服务器**  \n\n- 统一的基准测试加载器：新增了同时支持多种数据集的功能，并实现了标准化的查询与黄金标准提取。  \n由 @lifelsl 和 @xhd0728 负责  \n\n- 扩展的评估指标：新增 CoverEM 和 Acc 指标，并改进了 EM\u002FF1 计算的一致性。  \n由 @xhd0728 负责","2025-10-21T06:42:16"]