[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GAIR-NLP--DeepResearcher":3,"tool-GAIR-NLP--DeepResearcher":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":109,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":142},2053,"GAIR-NLP\u002FDeepResearcher","DeepResearcher","Scaling Deep Research via Reinforcement Learning in Real-world Environments.","DeepResearcher 是一个专为大语言模型打造的深度研究智能体框架，旨在通过强化学习技术在真实的互联网环境中进行端到端训练。它主要解决了传统 AI 在复杂开放域研究任务中难以自主规划、验证信息及保持客观准确的问题。与依赖提示词工程或简单检索增强生成（RAG）的方案不同，DeepResearcher 让模型直接在真实网页搜索交互中学习，从而实现了显著的性能提升。\n\n该工具特别适合人工智能研究人员、开发者以及需要处理高难度信息搜集与分析任务的专业人士使用。其独特的技术亮点在于，通过在真实环境中的规模化强化学习训练，模型涌现出了类人的“认知行为”：它能够自主制定研究计划、交叉验证多源信息以确保准确性、在遇到阻碍时自我反思并调整方向，甚至在无法找到确切答案时保持诚实而非胡乱编造。实验数据显示，DeepResearcher 在多项开放域研究任务上的表现远超现有基线方法。目前，该项目已开源并提供 7B 参数版本的模型权重，支持研究者复现实验或基于此构建更强大的垂直领域研究助手。","# DeepResearcher: Scaling Deep Research via Reinforcement Learning in Real-world Environments\n\nThis is the official repository for [DeepResearcher](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.03160).\n## 📝 Introduction\n\nDeepResearcher is the first comprehensive framework for end-to-end training of LLM-based deep research agents through scaling reinforcement learning (RL) in real-world environments with authentic web search interactions. Our qualitative analysis reveals emergent **cognitive behaviors** from end-to-end RL training, including the ability to formulate plans, cross-validate information from multiple sources, engage in self-reflection to redirect research, and maintain honesty when unable to find definitive answers.\n\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_3e89caaf6c0f.png\" id=\"framework-icon\" style=\"display:inline-block; width:46.55%; margin-right:5px;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_e25154dcc38b.png\" id=\"framework-icon\" style=\"display:inline-block; width:43.45%;\">\n\u003C\u002Fp>\n\n\n## 📋 Table of Contents\n\n- [Introduction](#-introduction)\n- [Model](#-Model)\n- [Performance](#-performance)\n- [Get started](#-get-started)\n- [Acknowledgement](#-Acknowledgement)\n- [Citation](#✍️-citation)\n\n\n\n\n## 🤖 Model\nDeepResearcher is now available on huggingface-hub:\n| Model Name | HF Checkpoint                                                | Size                                                    |\n| ---------- | ------------------------------------------------------------ | :------: |\n| DeepResearcher-7b     | [🤗 GAIR\u002FDeepResearcher-7b](https:\u002F\u002Fhuggingface.co\u002FGAIR\u002FDeepResearcher-7b) | **7B** \n\n\n## 🏆 Performance\n\nExtensive experiments on open-domain research tasks demonstrate that DeepResearcher achieves substantial improvements of up to 28.9 points over prompt engineering-based baselines and up to 7.2 points over RAG-based RL agents. Our qualitative analysis reveals emergent cognitive behaviors from end-to-end RL training, including the ability to formulate plans, cross-validate information from multiple sources, engage in self-reflection to redirect research, and maintain honesty when unable to find definitive answers. Our results highlight that end-to-end training in real-world web environments is not merely an implementation detail but a fundamental requirement for developing robust research capabilities aligned with real-world applications.\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_831bc7340abd.png\" id=\"performance-icon\">       \u003C\u002Fp>\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_7da4f858eadb.png\" id=\"performance-icon\">       \u003C\u002Fp>\n\n\n## 🚀 Get Started\n\n### Package Installation\n\nTo begin using this repo, you need to install the required dependencies. You can do this by running the following command:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher.git \nconda create -n deepresearcher python=3.10 \nconda activate deepresearcher\ncd DeepResearcher\npip3 install torch==2.4.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\npip3 install flash-attn --no-build-isolation\npip3 install -e .\npip3 install -r requirements.txt\n```\n\n### Start ray before training and inference\nWe use ray to train model, befor start ray you should set ```PET_NODE_RANK``` first. (**This is compulsory even if you only have 1 node**).\nHere is the code of the head node:\n```bash\nexport PET_NODE_RANK=0\nray start --head\n```\n\n### Run backend handler\n\nRunning the following command to launch the server handler:\n1. Modify ```serper_api_key``` or ```azure_bing_search_subscription_key``` & ```search_engine``` in ```.\u002Fscrl\u002Fhandler\u002Fconfig.yaml```\n2. Add  ```qwen-plus``` api key in ```.\u002Fscrl\u002Fhandler\u002Fserver_handler.py```\n```python\nclient = OpenAI(\n    api_key=\"sk-xxx\",\n    base_url=\"xxxx\"\n)\n```\n3. Start server handler:\n```bash\n python .\u002Fscrl\u002Fhandler\u002Fserver_handler.py\n```\n\nAfter launching all server handlers, you can replace ```server_url_list``` in ```.\u002Fscrl\u002Fhandler\u002Fconfig.yaml``` in your training host node and then run:\n```bash\n python .\u002Fscrl\u002Fhandler\u002Fhandler.py\n```\n### Training model\n\nUsing the following command to train the model:\n```bash\n bash train_grpo.sh\n```\n\n### Evaluate\nUsing the following command to generate rollout:\n```bash\n bash evaluate.sh\n```\nYou can find the rollout file in: ```.\u002Foutputs\u002F{project_name}\u002F{experiment_name}\u002Frollout\u002Frollout_step_0.json```\nYou can rename and copy it into ```.\u002Fevaluate\u002F{experiment_name}_result.json```\n\nThen, run the following command:\n```bash\n python .\u002Fevaluate\u002Fcacluate_metrics.py {experiment_name}\n```\nYou can check the score in ```.\u002Fevaluate\u002F{experiment_name}_score.json```\n\n## 🙏 Acknowledgement\n\nDeepResearcher is inspired by [Deepseek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) with its implementation based on [veRL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002Fverl) and [Search-r1](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FSearch-R1). We deeply appreciate the contributions of these teams to open-source research and development. \n\n## ✍️ Citation\n\nPlease cite the repo if the model\u002Fcode\u002Fconclusion in this repo are helpful to you.\n```\n@misc{zheng2025deepresearcherscalingdeepresearch,\n      title={DeepResearcher: Scaling Deep Research via Reinforcement Learning in Real-world Environments}, \n      author={Yuxiang Zheng and Dayuan Fu and Xiangkun Hu and Xiaojie Cai and Lyumanshan Ye and Pengrui Lu and Pengfei Liu},\n      year={2025},\n      eprint={2504.03160},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.03160}, \n}\n```\n","# DeepResearcher：在真实环境中通过强化学习扩展深度研究\n\n这是 [DeepResearcher](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.03160) 的官方代码库。\n## 📝 引言\n\nDeepResearcher 是首个端到端训练基于大语言模型的深度研究智能体的综合框架，它通过在包含真实网络搜索交互的真实环境中扩展强化学习（RL），实现了这一目标。我们的定性分析揭示了从端到端强化学习训练中涌现的 **认知行为**，包括制定计划、从多个来源交叉验证信息、进行自我反思以调整研究方向，以及在无法找到明确答案时保持诚实的能力。\n\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_3e89caaf6c0f.png\" id=\"framework-icon\" style=\"display:inline-block; width:46.55%; margin-right:5px;\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_e25154dcc38b.png\" id=\"framework-icon\" style=\"display:inline-block; width:43.45%;\">\n\u003C\u002Fp>\n\n\n## 📋 目录\n\n- [引言](#-introduction)\n- [模型](#-Model)\n- [性能](#-performance)\n- [开始使用](#-get-started)\n- [致谢](#-Acknowledgement)\n- [引用](#✍️-citation)\n\n\n\n\n## 🤖 模型\nDeepResearcher 现已在 Hugging Face Hub 上发布：\n| 模型名称 | HF 检查点                                                | 大小                                                    |\n| ---------- | ------------------------------------------------------------ | :------: |\n| DeepResearcher-7b     | [🤗 GAIR\u002FDeepResearcher-7b](https:\u002F\u002Fhuggingface.co\u002FGAIR\u002FDeepResearcher-7b) | **7B** \n\n\n## 🏆 性能\n\n我们在开放域研究任务上的大量实验表明，与基于提示工程的基线相比，DeepResearcher 的性能提升了高达 28.9 分；与基于 RAG 的强化学习智能体相比，也提升了高达 7.2 分。我们的定性分析揭示了从端到端强化学习训练中涌现的认知行为，包括制定计划、从多个来源交叉验证信息、进行自我反思以调整研究方向，以及在无法找到明确答案时保持诚实的能力。我们的研究结果强调，在真实网络环境中进行端到端训练不仅仅是一个实现细节，而是开发与实际应用相一致的稳健研究能力的基本要求。\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_831bc7340abd.png\" id=\"performance-icon\">       \u003C\u002Fp>\n\n\u003Cp align=\"center\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_readme_7da4f858eadb.png\" id=\"performance-icon\">       \u003C\u002Fp>\n\n\n## 🚀 开始使用\n\n### 安装依赖包\n\n要开始使用本仓库，您需要安装所需的依赖项。可以通过运行以下命令来完成：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher.git \nconda create -n deepresearcher python=3.10 \nconda activate deepresearcher\ncd DeepResearcher\npip3 install torch==2.4.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\npip3 install flash-attn --no-build-isolation\npip3 install -e .\npip3 install -r requirements.txt\n```\n\n### 在训练和推理前启动 Ray\n我们使用 Ray 来训练模型，在启动 Ray 之前，您需要先设置 ```PET_NODE_RANK```。（**即使您只有 1 个节点，这也必须执行**）。\n以下是主节点的代码：\n```bash\nexport PET_NODE_RANK=0\nray start --head\n```\n\n### 运行后端处理程序\n\n运行以下命令以启动服务器处理程序：\n1. 修改 ```.\u002Fscrl\u002Fhandler\u002Fconfig.yaml``` 中的 ```serper_api_key``` 或 ```azure_bing_search_subscription_key``` 以及 ```search_engine```。\n2. 在 ```.\u002Fscrl\u002Fhandler\u002Fserver_handler.py``` 中添加 ```qwen-plus``` API 密钥：\n```python\nclient = OpenAI(\n    api_key=\"sk-xxx\",\n    base_url=\"xxxx\"\n)\n```\n3. 启动服务器处理程序：\n```bash\n python .\u002Fscrl\u002Fhandler\u002Fserver_handler.py\n```\n\n所有服务器处理程序启动完成后，您可以将 ```server_url_list``` 替换为您训练主机节点中的 ```.\u002Fscrl\u002Fhandler\u002Fconfig.yaml```，然后运行：\n```bash\n python .\u002Fscrl\u002Fhandler\u002Fhandler.py\n```\n\n### 训练模型\n\n使用以下命令训练模型：\n```bash\n bash train_grpo.sh\n```\n\n### 评估\n使用以下命令生成回放数据：\n```bash\n bash evaluate.sh\n```\n您可以在以下路径找到回放文件：```.\u002Foutputs\u002F{project_name}\u002F{experiment_name}\u002Frollout\u002Frollout_step_0.json```。\n您可以重命名并将其复制到 ```.\u002Fevaluate\u002F{experiment_name}_result.json```。\n\n然后，运行以下命令：\n```bash\n python .\u002Fevaluate\u002Fcacluate_metrics.py {experiment_name}\n```\n您可以在 ```.\u002Fevaluate\u002F{experiment_name}_score.json``` 中查看评分。\n\n## 🙏 致谢\n\nDeepResearcher 受 [Deepseek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) 的启发，其具体实现基于 [veRL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002Fverl) 和 [Search-r1](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FSearch-R1)。我们对这些团队在开源研究与开发方面的贡献表示由衷的感谢。\n\n## ✍️ 引用\n\n如果您在使用本仓库中的模型、代码或结论时获得了帮助，请引用本仓库：\n```\n@misc{zheng2025deepresearcherscalingdeepresearch,\n      title={DeepResearcher: Scaling Deep Research via Reinforcement Learning in Real-world Environments}, \n      author={Yuxiang Zheng and Dayuan Fu and Xiangkun Hu and Xiaojie Cai and Lyumanshan Ye and Pengrui Lu and Pengfei Liu},\n      year={2025},\n      eprint={2504.03160},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.03160}, \n}\n```","# DeepResearcher 快速上手指南\n\nDeepResearcher 是首个通过在真实网络环境中进行大规模强化学习（RL）端到端训练的大语言模型深度研究代理框架。它具备制定计划、多源信息交叉验证、自我反思及诚实回答等 emergent 认知行为。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **Python 版本**: 3.10\n*   **GPU 支持**: 需要 NVIDIA GPU 且已安装 CUDA 12.4 驱动（对应 `cu124`）\n*   **API 密钥**:\n    *   搜索引擎 API：Serper API Key 或 Azure Bing Search Subscription Key\n    *   大模型 API：兼容 OpenAI 格式的 API Key（如 Qwen-Plus 等）\n\n## 安装步骤\n\n### 1. 克隆项目与创建环境\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher.git \nconda create -n deepresearcher python=3.10 \nconda activate deepresearcher\ncd DeepResearcher\n```\n\n### 2. 安装依赖库\n\n注意：以下步骤指定了 PyTorch 2.4.0 (CUDA 12.4) 和 flash-attn。如果国内网络下载缓慢，建议配置 pip 国内镜像源（如清华源）。\n\n```bash\n# 安装指定版本的 PyTorch (CUDA 12.4)\npip3 install torch==2.4.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124\n\n# 安装 flash-attn (跳过构建隔离以加速)\npip3 install flash-attn --no-build-isolation\n\n# 安装当前项目包\npip3 install -e .\n\n# 安装其他依赖\npip3 install -r requirements.txt\n```\n\n### 3. 配置 Ray 分布式环境\n\nDeepResearcher 使用 Ray 进行训练和推理。**即使只在单节点运行，也必须设置 `PET_NODE_RANK` 环境变量。**\n\n启动头节点（Head Node）：\n```bash\nexport PET_NODE_RANK=0\nray start --head\n```\n\n## 基本使用\n\n### 1. 配置后端服务\n\n在运行训练或推理前，需配置搜索引擎和大模型 API。\n\n1.  **编辑配置文件** `.\u002Fscrl\u002Fhandler\u002Fconfig.yaml`：\n    *   填入 `serper_api_key` 或 `azure_bing_search_subscription_key`。\n    *   设置 `search_engine` 类型。\n    *   （可选）若有多节点，更新 `server_url_list`。\n\n2.  **配置大模型 API**：\n    打开 `.\u002Fscrl\u002Fhandler\u002Fserver_handler.py`，找到 `OpenAI` 客户端初始化部分，填入您的 API Key 和 Base URL（例如使用通义千问 Plus）：\n    ```python\n    client = OpenAI(\n        api_key=\"sk-xxx\", # 替换为您的 API Key\n        base_url=\"xxxx\"   # 替换为您的 API Base URL\n    )\n    ```\n\n3.  **启动服务处理器**：\n    ```bash\n    python .\u002Fscrl\u002Fhandler\u002Fserver_handler.py\n    ```\n    *注：若在独立训练节点运行，启动上述服务后，还需在该节点运行 `python .\u002Fscrl\u002Fhandler\u002Fhandler.py`。*\n\n### 2. 模型训练\n\n配置完成后，执行以下脚本启动基于 GRPO 的强化学习训练：\n\n```bash\nbash train_grpo.sh\n```\n\n### 3. 评估与测试\n\n生成 rollout 数据并进行评估：\n\n1.  **生成 Rollout**：\n    ```bash\n    bash evaluate.sh\n    ```\n    生成的文件位于：`.\u002Foutputs\u002F{project_name}\u002F{experiment_name}\u002Frollout\u002Frollout_step_0.json`\n\n2.  **准备评估文件**：\n    将生成的 rollout 文件重命名并复制到评估目录：\n    ```bash\n    cp .\u002Foutputs\u002F{project_name}\u002F{experiment_name}\u002Frollout\u002Frollout_step_0.json .\u002Fevaluate\u002F{experiment_name}_result.json\n    ```\n\n3.  **计算指标**：\n    ```bash\n    python .\u002Fevaluate\u002Fcacluate_metrics.py {experiment_name}\n    ```\n    最终得分可查看：`.\u002Fevaluate\u002F{experiment_name}_score.json`\n\n---\n*提示：预训练模型权重可直接从 Hugging Face 获取：[GAIR\u002FDeepResearcher-7b](https:\u002F\u002Fhuggingface.co\u002FGAIR\u002FDeepResearcher-7b)*","某金融科技公司的量化分析师需要在极短时间内，针对“全球半导体供应链断裂对新兴市场的潜在连锁反应”这一复杂课题，撰写一份包含多源数据验证的深度研报。\n\n### 没有 DeepResearcher 时\n- **信息碎片化严重**：传统搜索或基础 RAG 工具只能返回零散的新闻片段，无法自动串联起地缘政治、物流数据与财报之间的深层逻辑。\n- **缺乏交叉验证机制**：模型容易幻觉或盲目采信单一来源的错误数据，分析师需人工花费数小时比对不同信源以确保准确性。\n- **无法动态调整策略**：当初步搜索陷入死胡同时，系统不懂自我反思或重新规划搜索路径，导致研究过程停滞不前。\n- **结论强行生成**：即使在关键数据缺失的情况下，旧模型也倾向于编造确定性结论，增加了投资决策的合规风险。\n\n### 使用 DeepResearcher 后\n- **自主规划研究路径**：DeepResearcher 能像人类专家一样拆解问题，主动制定分步搜索计划，从宏观政策追踪到微观企业库存数据。\n- **多源交叉验证**：通过强化学习训练出的认知行为，它能自动对比维基百科、权威财经数据库及新闻报道，剔除矛盾信息并标记可信度。\n- **具备自我反思能力**：在发现初始假设证据不足时，DeepResearcher 会主动修正搜索方向，转向替代性指标进行迂回验证，确保持续推进。\n- **诚实面对未知**：当确实无法找到确凿证据时，它会明确告知“暂无定论”而非胡编乱造，保障了研报的严谨性与合规性。\n\nDeepResearcher 将原本需要数天的人工深度调研压缩至分钟级，并通过端到端的强化学习赋予了 AI 真正的逻辑推理与自我纠错能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGAIR-NLP_DeepResearcher_3e89caaf.png","GAIR-NLP","SII - Generative Artificial Intelligence Research Lab (GAIR)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGAIR-NLP_8bfb05dd.png","GAIR is part of SII, focusing on Generative Artificial Intelligence Research, with joint effort from SJTU.",null,"pengfei@sii.com","https:\u002F\u002Fplms.ai\u002F","https:\u002F\u002Fgithub.com\u002FGAIR-NLP",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",97.3,{"name":89,"color":90,"percentage":91},"Shell","#89e051",2.7,722,49,"2026-04-05T07:04:43","Apache-2.0",4,"Linux","必需 NVIDIA GPU，需安装 CUDA 12.4 (由 torch==2.4.0+cu124 推断)，建议支持 flash-attn 的显卡","未说明",{"notes":101,"python":102,"dependencies":103},"1. 必须使用 conda 创建名为 'deepresearcher' 的虚拟环境。2. 训练和推理前必须启动 Ray 集群，即使单节点也需设置环境变量 PET_NODE_RANK=0。3. 运行前需配置搜索引擎 API (Serper 或 Azure Bing) 及大模型 API (如 Qwen-plus) 的密钥。4. 项目基于 veRL 和 Search-r1 框架，依赖真实的网络搜索交互环境。","3.10",[104,105,106,107,108],"torch==2.4.0","flash-attn","ray","veRL","OpenAI",[26,13,15],"2026-03-27T02:49:30.150509","2026-04-06T05:16:41.944540",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},9347,"训练和评估时使用了什么样的 Prompt 格式？","项目实际使用的是 Qwen2 的工具调用（tool call）格式，这与论文中为了可读性而展示的简化案例格式不同。\n\n**真实格式示例：**\n1. **助手回复（Assistant Message）：**\n```python\n{\n    \"role\": \"assistant\", \n    \"content\": \"\u003Cthink>\" + 思考内容 + \"\u003C\u002Fthink>\", \n    \"tool_calls\": [\n        {\n            \"type\": \"function\", \n            \"function\": {\"name\": \"web_search\", \"arguments\":{\"query\":[\"查询 1\", \"查询 2\"]}}\n        }\n    ]\n}\n```\n2. **工具返回（Tool Message）：**\n```python\n{\n    \"role\": \"tool\", \n    \"name\": \"web_search\",\n    \"content\": \"搜索结果内容\"\n}\n```\n请按照上述 JSON 结构构建消息列表进行推理或训练。","https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher\u002Fissues\u002F1",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},9348,"train_grpo.sh 脚本中似乎没有显式的 GRPO 配置，如何启用 GRPO 算法？","项目基于 `verl` 框架修改，训练参数由 `train_grpo.sh` 和 `verl\u002Ftrainer\u002Fconfig\u002Fppo_trainer.yaml` 共同定义，其中脚本中的参数优先级更高。要启用 GRPO 算法，需设置以下关键参数：\n1. **指定优势估计算法**：设置 `critic.algorithm.adv_estimator=grpo`。\n2. **启用 KL 散度损失**：设置 `actor_rollout_ref.actor.use_kl_loss=true`。\n3. **控制采样次数**：通过额外参数 `agent_grpo.n=16` 实现每个样本采样 16 次（默认 verl 为 1 次）。\n4. **奖励函数定义**：基于规则的奖励函数定义在 `verl\u002Futils\u002Freward_score\u002Fformat_and_f1.py` 中。\n5. **环境交互机制**：利用 `data.data_writing_file` 和 `data.signal_writing_file` 作为信号量机制。模型生成工具调用写入 data 文件并将 signal 置为 1，环境处理完后将 signal 置回 0，模型检测到 0 后继续执行。","https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher\u002Fissues\u002F15",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},9349,"运行 handler 时遇到 'Expecting value' JSON 解析错误或 404 Not Found 怎么办？","该错误通常是因为 handler 无法连接到后端服务。请检查以下几点：\n1. **确认服务启动**：确保 Flask 服务端程序已正确启动。\n2. **检查端口监听**：确认服务是否监听在本机的 `5000` 端口（默认地址 `http:\u002F\u002F127.0.0.1:5000`）。\n3. **网络连通性**：如果服务启动在 Docker 容器或其他机器上，需确保网络可达且端口映射正确。报错中的 `404 Not Found` 或 JSON 解析失败往往意味着请求发送到了错误的地址或服务未正常响应。","https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher\u002Fissues\u002F10",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},9350,"训练 DeepResearcher 推荐的最低硬件配置（显存）是多少？","根据维护者建议，硬件需求取决于任务类型和上下文长度：\n- **训练（Training）**：如果上下文长度卡在 32000 tokens，最低配置建议为 **4 张 A800 80GB** 显卡。用户反馈的 2 张 A100 40GB 显存不足，无法运行训练。\n- **推理（Inference）**：单张 80GB 显存的显卡即可满足需求。","https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher\u002Fissues\u002F6",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},9351,"如何提高训练效率或缩短训练时间？","根据项目特性，训练过程中最耗时的部分是**工具调用阶段（tool call stage \u002F handler）**。因此，优化建议主要集中在优化 handler 的处理逻辑和网络交互效率上，减少模型等待工具返回结果的时间。","https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FDeepResearcher\u002Fissues\u002F2",{"id":139,"question_zh":140,"answer_zh":141,"source_url":132},9352,"如何解决 Ray 集群启动时的 'No available node types' 或资源请求失败问题？","此类错误通常与 GPU 驱动版本过旧或显存资源不足有关：\n1. **更新驱动**：日志中若出现 `CUDA initialization: The NVIDIA driver on your system is too old` 警告，请务必下载并安装最新版本的 NVIDIA 驱动以匹配当前的 CUDA 版本（如 CUDA 11.8+）。\n2. **检查资源规格**：确保集群节点拥有的 GPU 显存满足模型训练需求（参考 FAQ：训练至少需要 4x80GB）。如果显存不足，Ray 调度器将无法分配满足 `resource request` 的节点。",[]]