[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenBMB--AgentCPM":3,"tool-OpenBMB--AgentCPM":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,2,"2026-04-13T23:32:16",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":112,"forks":113,"last_commit_at":114,"license":115,"difficulty_score":10,"env_os":116,"env_gpu":117,"env_ram":118,"env_deps":119,"category_tags":130,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":169},7376,"OpenBMB\u002FAgentCPM","AgentCPM","An End-to-End Infrastructure for Training and Evaluating Various LLM Agents","AgentCPM 是由清华大学 NLP 实验室、中国人民大学等机构联合推出的开源大模型智能体（LLM Agent）端到端基础设施，旨在解决现有智能体在长程任务规划、自主决策及通用泛化能力上的不足。该项目不仅提供模型，更涵盖了一套完整的训练与评估体系，帮助开发者构建能处理复杂现实任务的智能体。\n\n目前，AgentCPM 已发布两款核心模型：AgentCPM-Explore 和 AgentCPM-Report。前者仅用 40 亿参数便实现了卓越的长程探索能力，在 GAIA 等多个高难度榜单上达到业界领先水平，特别适合部署在本地设备；后者则专注于深度研究报告生成，性能可媲美顶尖闭源商业系统。\n\n其独特技术亮点包括全异步智能体强化学习框架（AgentRL）、统一的工具沙箱管理平台（AgentDock）以及低代码 RAG 框架（UltraRAG），这些组件大幅降低了高质量智能体的研发门槛。无论是希望深入探索智能体底层机制的科研人员，还是寻求高效部署方案的应用开发者，AgentCPM 都提供了从数据准备、模型训练到效果评估的一站式支持，是推动智能体技术落地与创新的得力助手。","\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\".\u002Fassets\u002Flight.svg\" alt=\"AgentCPM标志\" width=\"400em\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n    【\u003Ca href=\"README_zh.md\">中文\u003C\u002Fa> | English】\n\u003C\u002Fp>\n\n\n\u003Cp align=\"center\">\n  \u003Cspan style=\"display: inline-flex; align-items: center; justify-content: center; margin-right: 2px;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_9a6bfda920e6.png\" alt=\"WeChat\" style=\"margin-right: 4px;\">\n    \u003Ca href=\"assets\u002Fwechat.md\" target=\"_blank\"> WeChat\u003C\u002Fa>\n  \u003C\u002Fspan>\n\u003C\u002Fp>\n\n# Latest News\n\n\n* [2026-01-20] 🚀🚀🚀 We have open-sourced **AgentCPM-Report**, built on MiniCPM4.1-8B, which can rival top closed-source commercial systems for report generation such as Gemini-2.5-pro-DeepResearch.\n\n* [2026-01-12] 🚀🚀🚀 We have open-sourced **AgentCPM-Explore**—an agent LLM with only **4B parameters**—along with all code for training, inference, and the tool sandbox environment. It successfully made it onto eight classic long-horizon and challenging agent leaderboards, including GAIA, HLE, and BrowseComp. Its SOTA performance at this scale enables longer action chains and more accurate Deep Research, breaking the performance barrier for on-device agents.\n\n\n## Table of Contents\n\n- [Latest News](#latest-news)\n  - [Table of Contents](#table-of-contents)\n- [Overview](#overview)\n- [Model List](#model-list)\n  - [AgentCPM-Explore](#agentcpm-explore)\n    - [Demo](#demo)\n    - [QuickStart](#quickstart)\n  - [AgentCPM-Report](#agentcpm-report)\n    - [Introduction](#introduction)\n    - [Demo](#demo-1)\n    - [QuickStart](#quickstart-1)\n      - [Docker Deployment](#docker-deployment)\n- [License](#license)\n- [Citation](#citation)\n- [Explore More](#explore-more)\n\n\n# Overview\nAgentCPM is a series of open-source LLM agents jointly developed by [THUNLP (Tsinghua NLP Lab)](https:\u002F\u002Fnlp.csai.tsinghua.edu.cn), [Renmin University of China](http:\u002F\u002Fai.ruc.edu.cn\u002F), [ModelBest](https:\u002F\u002Fmodelbest.cn\u002Fen), and the [OpenBMB community](https:\u002F\u002Fwww.openbmb.cn\u002Fhome). To address challenges faced by agents in real-world applications—such as limited long-horizon capability, autonomy, and generalization—we propose a series of model-building approaches. Recently, the team has focused on comprehensively building deep research capabilities for agents, releasing [AgentCPM-Explore](.\u002FAgentCPM-Explore), a deep-search LLM agent, and [AgentCPM-Report](.\u002FAgentCPM-Report), a deep-research LLM agent.\n\n\n# Model List\n\n| Model            | Download Links                                                                                                                                | Open-Sourced Content | Technical Report | How to Use |\n|------------------|-----------------------------------------------------------------------------------------------------------------------------------------------|------------|-----------|-----------|\n| [AgentCPM-Explore](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fblob\u002Fmain\u002FAgentCPM-Explore)          | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Explore)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FOpenBMB\u002FAgentCPM-Explore\u002F)                  |  [AgentDock](.\u002FAgentCPM-Explore\u002FAgentDock): unified tool sandbox management & scheduling platform  \u003Cbr> [AgentRL](.\u002FAgentCPM-Explore\u002FAgentRL): fully asynchronous agent reinforcement learning framework  \u003Cbr> [AgentToLeaP](.\u002FAgentCPM-Explore\u002FAgentToLeaP): one-click evaluation framework for agent tool-learning capability | [AgentCPM-Explore: Realizing Long-Horizon Deep Exploration for Edge-Scale Agents](http:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06485) | [README.md](.\u002FAgentCPM-Explore)\n| [AgentCPM-Report](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fblob\u002Fmain\u002FAgentCPM-Report)          | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Report)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FOpenBMB\u002FAgentCPM-Report\u002F)                  |  [UltraRAG](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG): low-code RAG framework   | [AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540) | [README.md](.\u002FAgentCPM-Report)\n\n\n## AgentCPM-Explore\n\nThe AgentCPM team has focused on systematically building agents’ deep research capabilities and released **AgentCPM-Explore**, a deep-search LLM agent. **AgentCPM-Explore** is the first open-source agent model with 4B parameters to appear on eight widely used long-horizon agent benchmarks such as GAIA, XBench, etc.\n\nKey highlights:\n\n- **SOTA at 4B Scale**: Best-in-class among same-size models, matches or surpasses 8B models, rivals some 30B+ and closed-source LLMs.\n\n- **Deep Exploration**: 100+ turns of continuous interaction with multi-source cross-validation and dynamic strategy adjustment.\n\n- **End-to-End Open Source**: Complete training and evaluation infrastructure for community development and custom extensions.\n\n\n### Demo\n\nDemo examples (speed up):\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff2b3bb20-ccd5-4b61-8022-9f6e90992baa\n\n\n### QuickStart\n\n- **Multi-model, multi-tool collaborative environment setup**: First, start the AgentDock tool sandbox platform to provide unified MCP (Model Context Protocol) tool services. When working with API-based models, configure the model’s `BASE_URL` and `API_KEY`. When working with locally hosted models, ensure the model service is accessible. Configure the required tool parameters in the `config.toml` file.\n\n- **Launch the environment**: Out of the box, one-click startup. The AgentDock unified tool sandbox platform supports launching all services with a single `docker compose up -d` command, including the management dashboard, database, and tool nodes.\n\n- **Run execution**: Quickly experience the core capabilities of the framework via the QuickStart script, allowing you to run a complete Agent task without complex configuration.\n\n0. **Prepare Evaluation Environment (Recommended)**:  \n   We provide a Docker image with all evaluation dependencies pre-installed. It is recommended to pull the image and run it directly:\n\n   ```bash\n   # 1. Enter the project folder\n   cd AgentCPM-Explore\n   \n   # 2. Pull the image (Supports amd64\u002Farm64 architectures)\n   docker pull yuyangfu\u002Fagenttoleap-eval:v2.0\n   \n   # 3. Start the container (Adjust the -v path as needed)\n   docker run -dit --name agenttoleap --gpus all --network host -v $(pwd):\u002Fworkspace yuyangfu\u002Fagenttoleap-eval:v2.0\n   \n   # 4. Enter the container\n   docker exec -it agenttoleap \u002Fbin\u002Fbash\n   cd \u002Fworkspace\n   ```\n\n1. **Configure and run**:  \n  Open `quickstart.py` and make simple configurations in the `[USER CONFIGURATION]` section:\n\n  - **Custom task**: Modify the `QUERY` variable to the instruction you want to test (e.g., “Check the results of last night’s UEFA Champions League matches”).\n  - **Model information**: Provide your LLM `API_KEY`, `MODEL_NAME`, and `BASE_URL`.\n  - **Tool service**: Set `MANAGER_URL` to the address of your MCP tool server (e.g., `http:\u002F\u002Flocalhost:8000`; make sure the service is already running).\n\n  After configuration, run:\n\n  ```bash\n  python quickstart.py\n  ```\n\n  The script will automatically create a demo task (by default, querying today’s arXiv computer science papers), generate the execution workflow, and start the evaluation process.\n\n2. **View Results**\n\n  After execution completes, results will be saved under the `outputs\u002Fquickstart_results\u002F` directory. You can inspect `dialog.json` to obtain the full interaction trace, including tool calls and reasoning chains.\n\n  *Note: In QuickStart mode, automatic scoring is skipped by default and is intended only to demonstrate the Agent’s execution capabilities.*\n\n\n## AgentCPM-Report\n\n### Introduction\n**AgentCPM-Report** is built on the 8B-parameter base model [MiniCPM4.1](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM). It takes user instructions as input and autonomously generates long-form reports. Highlights include:\n\n- **Extreme Performance, Minimal Footprint**: Through an average of 40 rounds of deep retrieval and nearly 100 rounds of chain-of-thought reasoning, it achieves comprehensive information mining and restructuring, enabling edge-side models to produce logically rigorous, deeply insightful long-form articles with tens of thousands of words. With just 8 billion parameters, it delivers performance on par with top-tier closed-source systems in deep research tasks.  \n- **Physical Isolation, Local Security**: Specifically designed for high-privacy scenarios, it supports fully offline and agile local deployment, completely eliminating the risk of cloud data leaks. Leveraging our UltraRAG framework, it efficiently mounts and understands your local private knowledge base, securely transforming core confidential data into highly valuable professional decision-making reports without ever leaving its domain.\n\n\n### Demo\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=d5XWONt0PWo\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_06bc148f16f6.jpg\", width=70%>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n### QuickStart\n#### Docker Deployment\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ze8qJRrass4\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_e7941209993c.jpg\", width=70%>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\nWe provide a minimal one-click docker-compose deployment integrated into UltraRAG, which includes the RAG framework UltraRAG2.0, the model inference framework vllm, and the Milvus vector database. If you want CPU inference, we also provide a llama.cpp-based version for GGUF-format models—simply replace `docker-compose.yml` with `docker-compose.cpu.yml`.\n\n``` bash\ngit clone git@github.com:OpenBMB\u002FUltraRAG.git\ncd UltraRAG\ngit checkout agentcpm-report-demo\ncd agentcpm-report-demo\ncp env.example .env\ndocker-compose -f docker-compose.yml up -d --build\ndocker-compose -f docker-compose.yml logs -f ultrarag-ui\n``` \nThe first startup needs to pull images, download models, and set up the environment, which may take about 30 minutes.\nThen open `http:\u002F\u002Flocalhost:5050`. If you can see the GUI, the deployment is successful.\nFollow the UI instructions to upload local files, chunk them, and build the index. Then, in the Chat panel, select AgentCPM-Report in the pipeline to start your workflow!\n\n(Optional) You can import Wiki2024 from [Wiki2024](https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002FUltraRAG\u002FUltraRAG_Benchmark\u002Ftree\u002Fmaster\u002Fcorpus\u002Fwiki24) as a writing database.\n\nYou can read more tutorials about AgentCPM-Report from the [tutorial](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdemo\u002Fdeepresearch).\n\n\n# License\n\n* The code in this repository is released under the [Apache-2.0](.\u002FLICENSE) license.\n\n# Citation\n\nIf **AgentCPM-Explore** is useful for your research, please cite the codebase:\n\n```bibtex\n@misc{chen2026agentcpmexplore,\n  title = {{{AgentCPM-Explore}}: {{Realizing Long-Horizon Deep Exploration}} for {{Edge-Scale Agents}}},\n  author = {Chen, Haotian and Cong, Xin and Fan, Shengda and Fu, Yuyang and Gong, Ziqin and Lu, Yaxi and Li, Yishan and Niu, Boye and Pan, Chengjun and Song, Zijun and Wang, Huadong and Wu, Yesai and Wu, Yueying and Xie, Zihao and Yan, Yukun and Zhang, Zhong and Lin, Yankai and Liu, Zhiyuan and Sun, Maosong},\n  year = 2026,\n  month = feb,\n  number = {arXiv:2602.06485},\n  eprint = {2602.06485},\n  publisher = {arXiv},\n  doi = {10.48550\u002FarXiv.2602.06485},\n  archiveprefix = {arXiv},\n  langid = {english}\n}\n```\n\nIf **AgentCPM-Report** is helpful for your research, you can cite it as follows:\n\n```bibtex\n@misc{li2026agentcpmreport,\n      title={AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research}, \n      author={Yishan Li and Wentong Chen and Yukun Yan and Mingwei Li and Sen Mei and Xiaorong Wang and Kunpeng Liu and Xin Cong and Shuo Wang and Zhong Zhang and Yaxi Lu and Zhenghao Liu and Yankai Lin and Zhiyuan Liu and Maosong Sun},\n      year={2026},\n      eprint={2602.06540},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540}, \n}\n```\n\n\n# Explore More\n\n- [AgentCPM-GUI](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM-GUI)\n- [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM)\n- [MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V)\n- [UltraRAG](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG)\n","\u003Cdiv align=\"center\">\n  \u003Cimg src=\".\u002Fassets\u002Flight.svg\" alt=\"AgentCPM标志\" width=\"400em\">\u003C\u002Fimg>\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n    【\u003Ca href=\"README_zh.md\">中文\u003C\u002Fa> | English】\n\u003C\u002Fp>\n\n\n\u003Cp align=\"center\">\n  \u003Cspan style=\"display: inline-flex; align-items: center; justify-content: center; margin-right: 2px;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_9a6bfda920e6.png\" alt=\"WeChat\" style=\"margin-right: 4px;\">\n    \u003Ca href=\"assets\u002Fwechat.md\" target=\"_blank\"> WeChat\u003C\u002Fa>\n  \u003C\u002Fspan>\n\u003C\u002Fp>\n\n# 最新消息\n\n\n* [2026-01-20] 🚀🚀🚀 我们开源了基于MiniCPM4.1-8B构建的**AgentCPM-Report**，其在报告生成任务上可与Gemini-2.5-pro-DeepResearch等顶级闭源商用系统相媲美。\n\n* [2026-01-12] 🚀🚀🚀 我们开源了仅含**4B参数**的代理LLM——**AgentCPM-Explore**，并附带所有训练、推理及工具沙盒环境的相关代码。它成功登上了包括GAIA、HLE和BrowseComp在内的八个经典的长时序、高难度代理排行榜。该模型在这一规模下的SOTA表现使其能够执行更长的动作链，并实现更精准的深度研究，从而突破了设备端代理的性能瓶颈。\n\n\n## 目录\n\n- [最新消息](#latest-news)\n  - [目录](#table-of-contents)\n- [概述](#overview)\n- [模型列表](#model-list)\n  - [AgentCPM-Explore](#agentcpm-explore)\n    - [演示](#demo)\n    - [快速入门](#quickstart)\n  - [AgentCPM-Report](#agentcpm-report)\n    - [简介](#introduction)\n    - [演示](#demo-1)\n    - [快速入门](#quickstart-1)\n      - [Docker部署](#docker-deployment)\n- [许可证](#license)\n- [引用](#citation)\n- [探索更多](#explore-more)\n\n\n# 概述\nAgentCPM是由[THUNLP（清华大学自然语言处理实验室）](https:\u002F\u002Fnlp.csai.tsinghua.edu.cn)、[中国人民大学](http:\u002F\u002Fai.ruc.edu.cn\u002F)、[ModelBest](https:\u002F\u002Fmodelbest.cn\u002Fen)以及[OpenBMB社区](https:\u002F\u002Fwww.openbmb.cn\u002Fhome)联合开发的一系列开源LLM代理。为应对代理在实际应用中面临的挑战，如长时序能力有限、自主性不足以及泛化能力欠缺等问题，我们提出了一系列模型构建方法。近期，团队专注于全面构建代理的深度研究能力，先后发布了深度搜索型LLM代理**AgentCPM-Explore**和深度研究型LLM代理**AgentCPM-Report**。\n\n\n# 模型列表\n\n| 模型            | 下载链接                                                                                                                                | 开源内容 | 技术报告 | 使用方法 |\n|------------------|-----------------------------------------------------------------------------------------------------------------------------------------------|------------|-----------|-----------|\n| [AgentCPM-Explore](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fblob\u002Fmain\u002FAgentCPM-Explore)          | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Explore)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FOpenBMB\u002FAgentCPM-Explore\u002F)                  |  [AgentDock](.\u002FAgentCPM-Explore\u002FAgentDock): 统一的工具沙盒管理与调度平台  \u003Cbr> [AgentRL](.\u002FAgentCPM-Explore\u002FAgentRL): 全异步代理强化学习框架  \u003Cbr> [AgentToLeaP](.\u002FAgentCPM-Explore\u002FAgentToLeaP): 用于评估代理工具学习能力的一键式框架 | [AgentCPM-Explore：实现边缘级代理的长时序深度探索](http:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06485) | [README.md](.\u002FAgentCPM-Explore)\n| [AgentCPM-Report](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fblob\u002Fmain\u002FAgentCPM-Report)          | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FAgentCPM-Report)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FOpenBMB\u002FAgentCPM-Report\u002F)                  |  [UltraRAG](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG): 低代码RAG框架   | [AgentCPM-Report：通过穿插草稿撰写与深入挖掘实现开放式深度研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540) | [README.md](.\u002FAgentCPM-Report)\n\n\n## AgentCPM-Explore\n\nAgentCPM团队一直致力于系统性地构建代理的深度研究能力，并发布了深度搜索型LLM代理**AgentCPM-Explore**。**AgentCPM-Explore**是首个出现在GAIA、XBench等八个广泛使用的长时序代理基准测试中的4B参数开源代理模型。\n\n主要亮点：\n\n- **4B规模下的SOTA**：在同规模模型中处于领先地位，性能可与8B模型媲美甚至超越，部分指标已接近30B以上及闭源LLM水平。\n\n- **深度探索**：支持100余轮连续交互，具备多源交叉验证与动态策略调整能力。\n\n- **全流程开源**：提供完整的训练与评估基础设施，便于社区开发与自定义扩展。\n\n\n### 演示\n\n演示示例（加速播放）：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff2b3bb20-ccd5-4b61-8022-9f6e90992baa\n\n### 快速入门\n\n- **多模型、多工具协同环境搭建**：首先启动 AgentDock 工具沙盒平台，以提供统一的 MCP（Model Context Protocol）工具服务。当使用基于 API 的模型时，需配置模型的 `BASE_URL` 和 `API_KEY`；当使用本地部署的模型时，则需确保模型服务可访问。在 `config.toml` 文件中配置所需的工具参数。\n\n- **启动环境**：开箱即用，一键启动。AgentDock 统一工具沙盒平台支持通过一条 `docker compose up -d` 命令启动所有服务，包括管理仪表盘、数据库和工具节点。\n\n- **运行执行**：通过快速入门脚本，您可以快速体验框架的核心能力，无需复杂配置即可运行完整的 Agent 任务。\n\n0. **准备评估环境（推荐）**：  \n我们提供一个预装了所有评估依赖项的 Docker 镜像。建议直接拉取并运行该镜像：\n\n   ```bash\n   # 1. 进入项目文件夹\n   cd AgentCPM-Explore\n   \n   # 2. 拉取镜像（支持 amd64\u002Farm64 架构）\n   docker pull yuyangfu\u002Fagenttoleap-eval:v2.0\n   \n   # 3. 启动容器（请根据需要调整 -v 路径）\n   docker run -dit --name agenttoleap --gpus all --network host -v $(pwd):\u002Fworkspace yuyangfu\u002Fagenttoleap-eval:v2.0\n   \n   # 4. 进入容器\n   docker exec -it agenttoleap \u002Fbin\u002Fbash\n   cd \u002Fworkspace\n   ```\n\n1. **配置并运行**：  \n打开 `quickstart.py`，在 `[USER CONFIGURATION]` 部分进行简单配置：\n\n  - **自定义任务**：将 `QUERY` 变量修改为您想要测试的指令（例如：“查看昨晚欧冠比赛结果”）。\n  - **模型信息**：提供您的 LLM `API_KEY`、`MODEL_NAME` 和 `BASE_URL`。\n  - **工具服务**：将 `MANAGER_URL` 设置为您 MCP 工具服务器的地址（例如 `http:\u002F\u002Flocalhost:8000`；请确保服务已启动）。\n\n配置完成后，运行：\n\n  ```bash\n  python quickstart.py\n  ```\n\n脚本会自动创建一个演示任务（默认为查询今日 arXiv 计算机科学论文），生成执行流程，并开始评估过程。\n\n2. **查看结果**\n\n执行完成后，结果将保存在 `outputs\u002Fquickstart_results\u002F` 目录下。您可以通过检查 `dialog.json` 获取完整的交互轨迹，包括工具调用和推理链。\n\n*注意：在快速入门模式下，默认会跳过自动评分，仅用于展示 Agent 的执行能力。*\n\n\n## AgentCPM-Report\n\n### 简介\n**AgentCPM-Report** 基于 8B 参数的基础模型 [MiniCPM4.1](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM) 构建。它以用户指令为输入，自主生成长篇报告。其亮点包括：\n\n- **极致性能，极小占用**：通过平均 40 轮深度检索和近 100 轮思维链式推理，实现全面的信息挖掘与重组，使边缘端模型能够产出逻辑严密、见解深刻的数万字长文。仅需 80 亿参数，便可在深度研究任务中达到与顶级闭源系统相当的性能。  \n- **物理隔离，本地安全**：专为高隐私场景设计，支持完全离线及敏捷的本地部署，彻底消除云端数据泄露的风险。借助我们的 UltraRAG 框架，高效挂载并理解您的本地私有知识库，安全地将核心机密数据转化为极具价值的专业决策报告，全程不离开本地环境。\n\n\n### 演示\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=d5XWONt0PWo\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_06bc148f16f6.jpg\", width=70%>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n### 快速入门\n#### Docker 部署\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ze8qJRrass4\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_readme_e7941209993c.jpg\", width=70%>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n我们提供集成了 UltraRAG 的极简一键式 docker-compose 部署方案，其中包含 RAG 框架 UltraRAG2.0、模型推理框架 vllm 以及 Milvus 向量数据库。若您希望使用 CPU 推理，我们也提供了基于 llama.cpp 的 GGUF 格式模型版本——只需将 `docker-compose.yml` 替换为 `docker-compose.cpu.yml` 即可。\n\n``` bash\ngit clone git@github.com:OpenBMB\u002FUltraRAG.git\ncd UltraRAG\ngit checkout agentcpm-report-demo\ncd agentcpm-report-demo\ncp env.example .env\ndocker-compose -f docker-compose.yml up -d --build\ndocker-compose -f docker-compose.yml logs -f ultrarag-ui\n``` \n首次启动需要拉取镜像、下载模型并设置环境，可能耗时约 30 分钟。  \n随后打开 `http:\u002F\u002Flocalhost:5050`。若能看到 GUI 界面，则说明部署成功。  \n按照 UI 提示上传本地文件、分块处理并构建索引。然后在聊天面板中选择 AgentCPM-Report 流程，即可开始您的工作流！\n\n（可选）您可以从 [Wiki2024](https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002FUltraRAG\u002FUltraRAG_Benchmark\u002Ftree\u002Fmaster\u002Fcorpus\u002Fwiki24) 导入 Wiki2024 作为写作数据库。\n\n更多关于 AgentCPM-Report 的教程，请参阅 [教程](https:\u002F\u002Fultrarag.openbmb.cn\u002Fpages\u002Fen\u002Fdemo\u002Fdeepresearch)。\n\n\n# 许可证\n\n* 本仓库中的代码采用 [Apache-2.0](.\u002FLICENSE) 许可证发布。\n\n# 引用\n\n若 **AgentCPM-Explore** 对您的研究有所帮助，请引用该代码库：\n\n```bibtex\n@misc{chen2026agentcpmexplore,\n  title = {{{AgentCPM-Explore}}: {{Realizing Long-Horizon Deep Exploration}} for {{Edge-Scale Agents}}},\n  author = {Chen, Haotian and Cong, Xin and Fan, Shengda and Fu, Yuyang and Gong, Ziqin and Lu, Yaxi and Li, Yishan and Niu, Boye and Pan, Chengjun and Song, Zijun and Wang, Huadong and Wu, Yesai and Wu, Yueying and Xie, Zihao and Yan, Yukun and Zhang, Zhong and Lin, Yankai and Liu, Zhiyuan and Sun, Maosong},\n  year = 2026,\n  month = feb,\n  number = {arXiv:2602.06485},\n  eprint = {2602.06485},\n  publisher = {arXiv},\n  doi = {10.48550\u002FarXiv.2602.06485},\n  archiveprefix = {arXiv},\n  langid = {english}\n}\n```\n\n若 **AgentCPM-Report** 对您的研究有帮助，可按以下方式引用：\n\n```bibtex\n@misc{li2026agentcpmreport,\n      title={AgentCPM-Report: Interleaving Drafting and Deepening for Open-Ended Deep Research}, \n      author={Yishan Li and Wentong Chen and Yukun Yan and Mingwei Li and Sen Mei and Xiaorong Wang and Kunpeng Liu and Xin Cong and Shuo Wang and Zhong Zhang and Yaxi Lu and Zhenghao Liu and Yankai Lin and Zhiyuan Liu and Maosong Sun},\n      year={2026},\n      eprint={2602.06540},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06540}, \n}\n```\n\n# 探索更多\n\n- [AgentCPM-GUI](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM-GUI)\n- [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM)\n- [MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V)\n- [UltraRAG](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FUltraRAG)","# AgentCPM 快速上手指南\n\nAgentCPM 是由清华大学 NLP 实验室、中国人民大学、ModelBest 及 OpenBMB 社区联合开源的智能体（Agent）大模型系列。本指南涵盖两个核心模型：**AgentCPM-Explore**（4B 参数，擅长长程深度探索）和 **AgentCPM-Report**（8B 参数，擅长深度研究报告生成）。\n\n---\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n- **硬件**: \n  - **AgentCPM-Explore**: 推荐 NVIDIA GPU (支持 amd64\u002Farm64)，显存建议 8GB+\n  - **AgentCPM-Report**: 推荐 NVIDIA GPU，显存建议 16GB+；若使用 CPU 推理需较大内存\n- **软件依赖**:\n  - Docker & Docker Compose (强烈推荐用于一键部署)\n  - Python 3.9+ (若手动运行脚本)\n  - Git\n\n### 前置依赖\n确保已安装 Docker：\n```bash\ndocker --version\ndocker compose version\n```\n\n---\n\n## 2. 安装与部署\n\n### 方案 A：AgentCPM-Explore (深度探索智能体)\n\n该方案通过 Docker 容器提供完整的评估与运行环境。\n\n**步骤 1：拉取镜像并启动容器**\n```bash\n# 进入项目目录 (假设已 clone 仓库)\ncd AgentCPM-Explore\n\n# 拉取预装好依赖的镜像 (支持 amd64\u002Farm64)\ndocker pull yuyangfu\u002Fagenttoleap-eval:v2.0\n\n# 启动容器 (挂载当前目录到 \u002Fworkspace)\ndocker run -dit --name agenttoleap --gpus all --network host -v $(pwd):\u002Fworkspace yuyangfu\u002Fagenttoleap-eval:v2.0\n\n# 进入容器\ndocker exec -it agenttoleap \u002Fbin\u002Fbash\ncd \u002Fworkspace\n```\n\n**步骤 2：配置工具沙箱 (AgentDock)**\n在运行任务前，需启动统一的工具管理平台 AgentDock（通常在宿主机或另一容器中运行）：\n```bash\n# 在包含 AgentDock 的目录下执行\ndocker compose up -d\n```\n*注：确保 `config.toml` 中配置的 `MANAGER_URL` 指向正确的服务地址（如 `http:\u002F\u002Flocalhost:8000`）。*\n\n### 方案 B：AgentCPM-Report (深度报告生成)\n\n该方案基于 UltraRAG 框架，提供一键 Docker 部署，包含向量数据库和推理引擎。\n\n**步骤 1：克隆代码并配置环境变量**\n```bash\ngit clone git@github.com:OpenBMB\u002FUltraRAG.git\ncd UltraRAG\ngit checkout agentcpm-report-demo\ncd agentcpm-report-demo\ncp env.example .env\n```\n\n**步骤 2：一键启动服务**\n```bash\n# GPU 版本启动\ndocker-compose -f docker-compose.yml up -d --build\n\n# 查看日志确认启动状态\ndocker-compose -f docker-compose.yml logs -f ultrarag-ui\n```\n*注：首次启动需拉取镜像、下载模型及初始化环境，耗时约 30 分钟。*\n*若仅需 CPU 推理，请将 `docker-compose.yml` 替换为 `docker-compose.cpu.yml`。*\n\n---\n\n## 3. 基本使用\n\n### AgentCPM-Explore：运行首个任务\n\n1. **编辑配置文件**  \n   打开 `quickstart.py`，在 `[USER CONFIGURATION]` 部分修改以下参数：\n   - `QUERY`: 输入测试指令（例如：\"Check the results of last night's UEFA Champions League matches\"）\n   - `API_KEY`, `MODEL_NAME`, `BASE_URL`: 填入你的 LLM 服务信息（若使用本地模型，确保服务可达）\n   - `MANAGER_URL`: 填入 MCP 工具服务器地址（例如：`http:\u002F\u002Flocalhost:8000`）\n\n2. **执行任务**\n   ```bash\n   python quickstart.py\n   ```\n   脚本将自动创建任务、生成工作流并执行。\n\n3. **查看结果**\n   执行完成后，交互轨迹保存在 `outputs\u002Fquickstart_results\u002Fdialog.json`。\n\n### AgentCPM-Report：生成长篇报告\n\n1. **访问 Web 界面**  \n   部署成功后，浏览器打开：\n   ```text\n   http:\u002F\u002Flocalhost:5050\n   ```\n\n2. **构建知识库**  \n   - 在 UI 界面上传本地文档（或使用内置的 Wiki2024 数据集）。\n   - 点击分块（Chunk）并建立索引。\n\n3. **开始对话**  \n   - 进入 **Chat** 面板。\n   - 在 Pipeline 选项中选择 **AgentCPM-Report**。\n   - 输入研究主题（例如：“分析 2025 年人工智能在医疗领域的最新进展”），系统将自动进行多轮检索与推理，生成万字级深度报告。\n\n---\n\n> **提示**：国内用户若遇到模型下载缓慢，可优先使用 **ModelScope (魔搭)** 镜像源下载模型权重，或在 Docker 配置中替换为国内加速地址。","某科技公司的数据分析师需要针对“全球固态电池产业链最新突破”这一复杂课题，在一天内完成从信息搜集、交叉验证到撰写深度研报的全流程工作。\n\n### 没有 AgentCPM 时\n- **长程任务易迷失**：面对需要数十步操作的研究任务，普通大模型常在中间步骤“断片”或陷入死循环，无法自主完成闭环。\n- **端侧能力受限**：受限于算力和参数量，轻量级模型难以处理复杂的深度搜索与逻辑推理，必须依赖昂贵且响应慢的云端闭源服务。\n- **评估调试黑盒**：缺乏统一的工具沙箱和评估框架，开发人员难以量化代理在真实环境中的表现，优化过程全靠盲目试错。\n- **报告质量不稳定**：生成的研报往往缺乏深度论证，事实幻觉频发，需要人工花费大量时间进行二次核实与重写。\n\n### 使用 AgentCPM 后\n- **长程规划更稳健**：依托 AgentCPM-Explore 的强化学习框架，代理能稳定执行长达数十步的复杂探索链，自主完成从检索到验证的全流程。\n- **端侧部署高性能**：仅 4B 参数的 AgentCPM-Explore 即可在本地设备运行，却能在 GAIA 等权威榜单上媲美顶级闭源模型，大幅降低算力成本。\n- **全链路可视可控**：通过 AgentDock 统一调度工具沙箱，配合 AgentToLeaP 一键评估体系，团队可清晰监控代理行为并针对性优化短板。\n- **深度研报专业化**：AgentCPM-Report 采用“起草与深化交错”机制，生成的行业分析报告逻辑严密、数据详实，可直接对标 Gemini-2.5-pro 等商业系统。\n\nAgentCPM 通过端到端的基础设施，让轻量级模型具备了执行长周期、高难度深度研究任务的能力，真正实现了高性能 AI 代理的落地普及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenBMB_AgentCPM_cd2e377f.png","OpenBMB","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenBMB_02e4bd39.png","OpenBMB (Open Lab for Big Model Base) aims to build foundation models and systems towards AGI.",null,"openbmb@gmail.com","https:\u002F\u002Fwww.openbmb.cn","https:\u002F\u002Fgithub.com\u002FOpenBMB",[80,84,88,92,96,100,104,108],{"name":81,"color":82,"percentage":83},"Python","#3572A5",86.9,{"name":85,"color":86,"percentage":87},"Shell","#89e051",4.6,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",3.7,{"name":93,"color":94,"percentage":95},"Jupyter Notebook","#DA5B0B",2.6,{"name":97,"color":98,"percentage":99},"HTML","#e34c26",1.4,{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0.4,{"name":105,"color":106,"percentage":107},"Jinja","#a52a22",0.3,{"name":109,"color":110,"percentage":111},"CSS","#663399",0.1,782,67,"2026-04-13T08:15:46","Apache-2.0","Linux","AgentCPM-Explore: 推荐 NVIDIA GPU (支持 amd64\u002Farm64 架构的 Docker 镜像，启动参数含 --gpus all)；AgentCPM-Report: 推荐 NVIDIA GPU (使用 vllm)，也支持 CPU 推理 (使用 llama.cpp\u002FGGUF)","未说明 (建议根据模型参数量配置：4B\u002F8B 模型通常需 16GB+)",{"notes":120,"python":121,"dependencies":122},"1. 项目强烈推荐使用 Docker 部署：AgentCPM-Explore 需拉取 'yuyangfu\u002Fagenttoleap-eval:v2.0' 镜像；AgentCPM-Report 需通过 docker-compose 部署 UltraRAG、vllm 和 Milvus。2. AgentCPM-Report 首次启动需约 30 分钟用于拉取镜像、下载模型和初始化环境。3. AgentCPM-Explore 基于 4B 参数模型，AgentCPM-Report 基于 MiniCPM4.1-8B 模型。4. 若需 CPU 运行 AgentCPM-Report，需将 docker-compose.yml 替换为 docker-compose.cpu.yml。","未说明 (包含在提供的 Docker 镜像中)",[123,124,125,126,127,128,129],"Docker","docker-compose","vllm","llama.cpp","Milvus","UltraRAG","AgentDock",[35,14,13],"2026-03-27T02:49:30.150509","2026-04-14T12:35:40.056217",[134,139,144,149,154,159,164],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},33106,"遇到 HuggingFace 无法访问或模型加载失败（如缺少文件、网络报错）怎么办？","可以通过 ModelScope 离线下载模型并配置本地路径。具体步骤如下：\n1. 从 ModelScope 下载模型到本地目录（例如：UltraRAG\u002Fagentcpm-report-demo\u002Fmodels\u002Fagentcpm-report）。\n2. 在 .env 文件中设置以下环境变量：\nVLLM_MODEL_HOST_PATH=\u003C你的本地模型绝对路径>\nVLLM_MODEL_CONTAINER_PATH=\u002Fmodels\u002Fagentcpm-report\nVLLM_MODEL=\u002Fmodels\u002Fagentcpm-report\nVLLM_SERVED_MODEL_NAME=agentcpm-report\n如果是 Docker Compose 启动报错，也可以手动下载 GGUF 模型放到指定目录跳过自动下载：\ncp \u002Fpath\u002Fto\u002Fyour\u002FAgentCPM-Report-Q4_K_M.gguf AgentCPM-Report-Demo\u002FUltraRAG\u002Fagentcpm-report-demo\u002Fmodels\u002Fmodel.gguf","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F14",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},33107,"是否开源了 AgentCPM-Explore 的训练数据集和构造方法？","问题数据（questions）是开源的，但具体的轨迹数据（trajectories）暂时没有开源计划。相关论文已发布在 arXiv:2602.06485，可参考论文了解数据构造方法。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F12",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},33108,"知识库切片（Chunks）功能必须使用 OpenAI 吗？支持本地大模型吗？","默认配置下使用的是本地模型 MiniCPM-Embedding-Light。如果保存了配置（save config），系统会按照设定调用接口，此时如果需要更换模型，需要自己部署相应的模型服务并在配置中指向该接口。如果未进行特殊设置直接报错，建议检查环境或重新安装尝试。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F13",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},33109,"AgentCPM-Report 模型与 UltraRAG 项目是什么关系？","AgentCPM-Report 是一套针对本地知识库生成报告的 Pipeline 以及经过针对性调优的模型；而 UltraRAG 是实现这个 Pipeline 的工程框架。如果想体验完整的 RAG 查询和报告生成效果，需要运行 UltraRAG 工程来配合 AgentCPM-Report 模型使用。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F15",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},33110,"Docker Compose 启动时出现 'service didn't complete successfully' 或网络构建错误如何解决？","这通常是由于网络不稳定导致的。解决方法包括：\n1. 多次重试构建。\n2. 项目已在 docker-compose.cpu.yml 中默认配置了国内镜像源：HF_ENDPOINT=${HF_ENDPOINT:-https:\u002F\u002Fhf-mirrors.com}。\n3. 如果您可以直接访问 HuggingFace 官方源，可以注释掉上述行以使用官方地址。\n4. 也可以手动下载模型文件放入指定目录以跳过下载步骤。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F6",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},33111,"如何修改 docker-compose.yml 中的 Ultrarag 构建路径（context 和 dockerfile）？","是的，需要根据您的实际项目结构调整路径。默认配置是相对路径 ..\u002Fultrarag。如果您将 UltraRAG 文件夹放在了其他位置（例如 G:\u002FDesktop\u002Fzxy\u002FUltraRAG），需要将 docker-compose.yml 中的 context 和 dockerfile 参数修改为您实际的 UltraRAG 文件夹路径。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F11",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},33112,"配置文件中的 LLM 地址 (http:\u002F\u002Fvllm:8000\u002Fv1) 是硬编码的吗？如何自定义？","该地址不是硬编码死的，而是通过环境变量控制的。默认值为 http:\u002F\u002Fvllm:8000\u002Fv1。您可以通过设置环境变量 LLM_BASE_URL 来自定义地址，例如：\nLLM_BASE_URL=${LLM_BASE_URL:-http:\u002F\u002Fvllm:8000\u002Fv1}\n在启动前 export 该变量或在 .env 文件中配置即可。","https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FAgentCPM\u002Fissues\u002F10",[]]