[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-rlresearch--dr-tulu":3,"similar-rlresearch--dr-tulu":78},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":18,"owner_url":19,"languages":20,"stars":48,"forks":49,"last_commit_at":50,"license":51,"difficulty_score":52,"env_os":53,"env_gpu":54,"env_ram":55,"env_deps":56,"category_tags":64,"github_topics":67,"view_count":72,"oss_zip_url":18,"oss_zip_packed_at":18,"status":73,"created_at":74,"updated_at":75,"faqs":76,"releases":77},7957,"rlresearch\u002Fdr-tulu","dr-tulu","Official repository for DR Tulu: Reinforcement Learning with Evolving Rubrics for Deep Research","DR Tulu 是首个开源的“深度研究”大模型，专为处理长篇幅、高复杂度的研究任务而设计。它旨在解决传统 AI 在面对需要多步检索、信息综合及长篇报告生成时的能力瓶颈，在多项权威基准测试中，其表现已媲美闭源的顶尖模型。\n\n该项目的核心亮点在于引入了“基于演进式评分标准的强化学习”技术。不同于常规训练，DR Tulu 能让模型在训练过程中动态优化评估准则，从而更精准地掌握深度推理与信息整合能力。项目不仅提供了训练好的 8B 参数模型，还开源了完整的智能体库、强化学习（GRPO）及监督微调代码，支持高并发异步请求与灵活的提示词接口。\n\nDR Tulu 非常适合 AI 研究人员、开发者以及需要自动化深度调研的专业人士使用。研究人员可利用其复现先进的强化学习算法；开发者能基于提供的 MCP 工具后端和评估脚本，构建定制化的研究智能体；普通用户也可通过简易的命令行演示，体验模型实时搜索并合成答案的强大功能。只需少量显卡资源，即可部署并探索下一代深度研究 AI 的潜力。","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlresearch_dr-tulu_readme_aa4e60cef3ee.png\" alt=\"DR Tulu\" width=\"500\"\u002F>\n\n# DR Tulu: Reinforcement Learning with Evolving Rubrics for Deep Research\n\n\n[**Paper**](https:\u002F\u002Fallenai.org\u002Fpapers\u002Fdrtulu) • [**Data & Models**](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Frl-research\u002Fdr-tulu) • [**Blogpost**](http:\u002F\u002Fallenai.org\u002Fblog\u002Fdr-tulu) • [**Video**](https:\u002F\u002Fyoutu.be\u002F4i0W9qAf8K8)• [**Interactive Demo**](https:\u002F\u002Fwww.dr-tulu.org)\n\u003C\u002Fdiv>\n\nDR Tulu-8B is the first open Deep Research (DR) model trained for long-form DR tasks. DR Tulu-8B matches OpenAI DR on long-form DR benchmarks.\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlresearch_dr-tulu_readme_3bec60503f9c.png\" alt=\"DR Tulu Overview\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n---\n\n## Release Notes \n- Feburary 9, 2026: 🔥 We released a free interactive demo for DR Tulu-8B! Try it out at [dr-tulu.org](https:\u002F\u002Fwww.dr-tulu.org\u002Fchat)!\n- November 19, 2025: Initial code release.\n- November 25, 2025: We released our interactive CLI demo code, along with additional documentation for evaluation, training, and our new RL checkpoints.\n\n## Overview\n\nThis repository contains three main components:\n\n- **[`agent\u002F`](agent\u002F)**: Agent library (`dr-agent-lib`) with MCP-based tool backend, high-concurrency async request management, and flexible prompting interface for developing and training deep research agents. This directory also includes evaluation scripts for benchmarking DR agents.\n\n- **[`rl\u002F`](rl\u002Fopen-instruct\u002F)**: RL training code based on [Open-Instruct](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fopen-instruct) for training deep research agents with GRPO and evolving rubrics.\n\n- **[`sft\u002F`](sft\u002Fllama-factory\u002F)**: SFT training code based on [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory) for supervised fine-tuning of deep research agents.\n\nFor detailed setup and usage instructions, see the README files in each subdirectory.\n\n---\n\n## Quick Start: Playing with DR Tulu Interactively\n\nTry DR Tulu interactively with our CLI demo! This requires **1-2 GPUs** and takes just a few steps to set up:\n\n1. **Setup Environment**\n   ```bash\n   cd agent\u002F\n   conda create -n dr_agent python=3.10 -y && conda activate dr_agent\n   uv pip install -e .\n   ```\n\n2. **Configure API Keys** (get free keys from the respective services)\n   ```bash\n   export SERPER_API_KEY=\"your_key\"  # https:\u002F\u002Fserper.dev\u002F\n   export S2_API_KEY=\"your_key\"      # https:\u002F\u002Fapi.semanticscholar.org\u002F\n   export JINA_API_KEY=\"your_key\"    # https:\u002F\u002Fjina.ai\u002Freader\u002F\n   ```\n\n3. **Launch Interactive Demo**\n   ```bash\n   uv run --extra vllm python scripts\u002Flaunch_chat.py --model rl-research\u002FDR-Tulu-8B\n   ```\n\nThe demo will auto-launch required services (MCP server and vLLM) and start an interactive chat interface. You can now ask research questions and watch DR Tulu search and synthesize answers in real-time!\n\nFor more options and advanced usage, see [`agent\u002FREADME.md`](agent\u002F#interactive-chat).\n\n---\n\n## Running Evaluations\n\nTo benchmark DR Tulu on various tasks (HealthBench, Deep Research Bench, SimpleQA, etc.), you'll need to:\n\n1. **Launch required servers on the same node** (requires 2 GPUs):\n   ```bash\n   # Launch VLLM servers\n   CUDA_VISIBLE_DEVICES=0 vllm serve rl-research\u002FDR-Tulu-8B --dtype auto --port 30001 --max-model-len 40960\n   CUDA_VISIBLE_DEVICES=1 vllm serve Qwen\u002FQwen3-8B --dtype auto --port 30002 --max-model-len 40960\n   \n   # Launch MCP server\n   python -m dr_agent.mcp_backend.main --port 8000\n   ```\n\n2. **Run evaluation script** on your desired benchmarks:\n   ```bash\n   cd agent\u002F\n   \n   # Example: Run on all benchmarks\n   for task in healthbench deep_research_bench research_qa genetic_diseases simpleqa 2wiki webwalker; do \n       python workflows\u002Fauto_search_sft.py \\\n           generate-dataset $task \\\n           --num-examples final_run \\\n           --max-concurrent 20 \\\n           --use-cache \\\n           --config workflows\u002Fauto_search_sft.yaml \\\n           --config-overrides \"use_browse_agent=true,search_agent_max_tool_calls=10,browse_tool_name=jina\" \\\n           --output eval_output\u002Fauto_search_sft\u002F$task.jsonl\n       \n       python scripts\u002Fevaluate.py $task eval_output\u002Fauto_search_sft\u002F$task.jsonl\n   done\n   ```\n\n**Note**: SQA-CS-V2 and Deep Research Bench require additional conversion scripts for evaluation. See [`agent\u002Fevaluation\u002FREADME.md`](agent\u002Fevaluation\u002F) for detailed instructions.\n\nFor complete evaluation instructions, benchmark descriptions, and example scripts, see [`agent\u002Fevaluation\u002FREADME.md`](agent\u002Fevaluation\u002F).\n\n---\n\n## Training\n\n### Supervised Fine-Tuning (SFT)\n\nFor supervised fine-tuning of deep research agents using high-quality demonstration data:\n\n```bash\ncd sft\u002Fllama-factory\u002F\n# See sft\u002Fllama-factory\u002FREADME.md for detailed instructions\n```\n\nSee [`sft\u002Fllama-factory\u002FREADME.md`](sft\u002Fllama-factory\u002F) for complete SFT training setup and configuration.\n\n### Reinforcement Learning (RL)\n\nFor training deep research agents with GRPO and evolving rubrics:\n\n```bash\ncd rl\u002Fopen-instruct\u002F\n# See rl\u002Fopen-instruct\u002FREADME.md for detailed instructions\n```\n\nSee [`rl\u002Fopen-instruct\u002FREADME.md`](rl\u002Fopen-instruct\u002F) for complete RL training setup, including reward model training and policy optimization.\n\n---\n\n## Acknowledgments\n\nDR Tulu is provided by The Allen Institute for Artificial Intelligence (Ai2). The code for this project is developed in collaboration with student researchers at the University of Washington, Carnegie Mellon University, and MIT.\n\n---\n\n## Citation and Contact\n\nIf you find our work useful, please cite:\n\n```bibtex\n@article{shao2025dr,\n  title={DR Tulu: Reinforcement Learning with Evolving Rubrics for Deep Research},\n  author={Shao, Rulin and Asai, Akari and Shen, Shannon Zejiang and Ivison, Hamish and Kishore, Varsha and Zhuo, Jingming and Zhao, Xinran and Park, Molly and Finlayson, Samuel G and Sontag, David and others},\n  journal={arXiv preprint arXiv:2511.19399},\n  year={2025}\n}\n```\nIf you have any questions, you can contact [Rulin Shao](https:\u002F\u002Frulinshao.github.io\u002F), [Akari Asai](https:\u002F\u002Fakariasai.github.io\u002F), [Shannon Shen](https:\u002F\u002Fwww.szj.io\u002F), and [Hamish Ivison](https:\u002F\u002Fivison.id.au\u002F) or open a github issue. \n","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlresearch_dr-tulu_readme_aa4e60cef3ee.png\" alt=\"DR Tulu\" width=\"500\"\u002F>\n\n# DR Tulu：基于动态评分标准的深度研究强化学习\n\n[**论文**](https:\u002F\u002Fallenai.org\u002Fpapers\u002Fdrtulu) • [**数据与模型**](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Frl-research\u002Fdr-tulu) • [**博客文章**](http:\u002F\u002Fallenai.org\u002Fblog\u002Fdr-tulu) • [**视频**](https:\u002F\u002Fyoutu.be\u002F4i0W9qAf8K8)• [**交互式演示**](https:\u002F\u002Fwww.dr-tulu.org)\n\u003C\u002Fdiv>\n\nDR Tulu-8B 是首个针对长篇幅深度研究任务训练的开源深度研究（DR）模型。在长篇幅深度研究基准测试中，DR Tulu-8B 的表现可与 OpenAI 的深度研究模型相媲美。\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlresearch_dr-tulu_readme_3bec60503f9c.png\" alt=\"DR Tulu 概览\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n---\n\n## 发布说明\n- 2026年2月9日：🔥 我们发布了 DR Tulu-8B 的免费交互式演示！请访问 [dr-tulu.org](https:\u002F\u002Fwww.dr-tulu.org\u002Fchat) 体验！\n- 2025年11月19日：首次代码发布。\n- 2025年11月25日：我们发布了交互式 CLI 演示代码，并附带了关于评估、训练以及全新强化学习检查点的额外文档。\n\n## 概述\n\n本仓库包含三个主要组件：\n\n- **[`agent\u002F`](agent\u002F)**：代理库（`dr-agent-lib`），配备基于 MCP 的工具后端、高并发异步请求管理功能，以及用于开发和训练深度研究代理的灵活提示接口。该目录还包含用于基准测试深度研究代理的评估脚本。\n\n- **[`rl\u002F`](rl\u002Fopen-instruct\u002F)**：基于 [Open-Instruct](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fopen-instruct) 的强化学习训练代码，用于使用 GRPO 和动态评分标准训练深度研究代理。\n\n- **[`sft\u002F`](sft\u002Fllama-factory\u002F)**：基于 [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory) 的监督微调训练代码，用于对深度研究代理进行监督微调。\n\n有关详细的设置和使用说明，请参阅各子目录中的 README 文件。\n\n---\n\n## 快速入门：交互式体验 DR Tulu\n\n使用我们的 CLI 演示，即可交互式地体验 DR Tulu！这需要 **1–2 张 GPU 卡**，设置过程只需几个步骤：\n\n1. **设置环境**\n   ```bash\n   cd agent\u002F\n   conda create -n dr_agent python=3.10 -y && conda activate dr_agent\n   uv pip install -e .\n   ```\n\n2. **配置 API 密钥**（可从相应服务获取免费密钥）\n   ```bash\n   export SERPER_API_KEY=\"your_key\"  # https:\u002F\u002Fserper.dev\u002F\n   export S2_API_KEY=\"your_key\"      # https:\u002F\u002Fapi.semanticscholar.org\u002F\n   export JINA_API_KEY=\"your_key\"    # https:\u002F\u002Fjina.ai\u002Freader\u002F\n   ```\n\n3. **启动交互式演示**\n   ```bash\n   uv run --extra vllm python scripts\u002Flaunch_chat.py --model rl-research\u002FDR-Tulu-8B\n   ```\n\n演示将自动启动所需服务（MCP 服务器和 vLLM），并开启一个交互式聊天界面。现在您可以提出研究问题，观看 DR Tulu 实时搜索并综合答案！\n\n更多选项和高级用法，请参阅 [`agent\u002FREADME.md`](agent\u002F#interactive-chat)。\n\n---\n\n## 运行评估\n\n要在各类任务（HealthBench、Deep Research Bench、SimpleQA 等）上对 DR Tulu 进行基准测试，您需要：\n\n1. **在同一节点上启动所需服务器**（需 2 张 GPU 卡）：\n   ```bash\n   # 启动 VLLM 服务器\n   CUDA_VISIBLE_DEVICES=0 vllm serve rl-research\u002FDR-Tulu-8B --dtype auto --port 30001 --max-model-len 40960\n   CUDA_VISIBLE_DEVICES=1 vllm serve Qwen\u002FQwen3-8B --dtype auto --port 30002 --max-model-len 40960\n   \n   # 启动 MCP 服务器\n   python -m dr_agent.mcp_backend.main --port 8000\n   ```\n\n2. **运行评估脚本**以测试您感兴趣的基准：\n   ```bash\n   cd agent\u002F\n   \n   # 示例：在所有基准上运行\n   for task in healthbench deep_research_bench research_qa genetic_diseases simpleqa 2wiki webwalker; do \n       python workflows\u002Fauto_search_sft.py \\\n           generate-dataset $task \\\n           --num-examples final_run \\\n           --max-concurrent 20 \\\n           --use-cache \\\n           --config workflows\u002Fauto_search_sft.yaml \\\n           --config-overrides \"use_browse_agent=true,search_agent_max_tool_calls=10,browse_tool_name=jina\" \\\n           --output eval_output\u002Fauto_search_sft\u002F$task.jsonl\n       \n       python scripts\u002Fevaluate.py $task eval_output\u002Fauto_search_sft\u002F$task.jsonl\n   done\n   ```\n\n**注意**：SQA-CS-V2 和 Deep Research Bench 需要额外的转换脚本来进行评估。详细说明请参阅 [`agent\u002Fevaluation\u002FREADME.md`](agent\u002Fevaluation\u002F)。\n\n完整的评估说明、基准描述及示例脚本，请参阅 [`agent\u002Fevaluation\u002FREADME.md`](agent\u002Fevaluation\u002F)。\n\n---\n\n## 训练\n\n### 监督微调（SFT）\n\n使用高质量示范数据对深度研究代理进行监督微调：\n\n```bash\ncd sft\u002Fllama-factory\u002F\n# 详细说明请参阅 sft\u002Fllama-factory\u002FREADME.md\n```\n\n有关完整的 SFT 训练设置和配置，请参阅 [`sft\u002Fllama-factory\u002FREADME.md`](sft\u002Fllama-factory\u002F)。\n\n### 强化学习（RL）\n\n使用 GRPO 和动态评分标准训练深度研究代理：\n\n```bash\ncd rl\u002Fopen-instruct\u002F\n# 详细说明请参阅 rl\u002Fopen-instruct\u002FREADME.md\n```\n\n有关完整的 RL 训练设置，包括奖励模型训练和策略优化，请参阅 [`rl\u002Fopen-instruct\u002FREADME.md`](rl\u002Fopen-instruct\u002F)。\n\n---\n\n## 致谢\n\nDR Tulu 由艾伦人工智能研究所（Ai2）提供。该项目的代码由华盛顿大学、卡内基梅隆大学和麻省理工学院的学生研究人员共同开发。\n\n---\n\n## 引用与联系\n\n如果您觉得我们的工作有所帮助，请引用以下内容：\n\n```bibtex\n@article{shao2025dr,\n  title={DR Tulu: Reinforcement Learning with Evolving Rubrics for Deep Research},\n  author={Shao, Rulin and Asai, Akari and Shen, Shannon Zejiang and Ivison, Hamish and Kishore, Varsha and Zhuo, Jingming and Zhao, Xinran and Park, Molly and Finlayson, Samuel G and Sontag, David and others},\n  journal={arXiv preprint arXiv:2511.19399},\n  year={2025}\n}\n```\n如有任何问题，欢迎联系 [Rulin Shao](https:\u002F\u002Frulinshao.github.io\u002F)、[Akari Asai](https:\u002F\u002Fakariasai.github.io\u002F)、[Shannon Shen](https:\u002F\u002Fwww.szj.io\u002F) 和 [Hamish Ivison](https:\u002F\u002Fivison.id.au\u002F)，或在 GitHub 上提交问题。","# DR Tulu 快速上手指南\n\nDR Tulu-8B 是首个开源的长文本深度研究（Deep Research）模型，基于强化学习与动态评估标准训练而成。本指南将帮助开发者快速在本地部署并体验其交互式研究能力。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+)\n*   **硬件要求**: \n    *   **交互式演示**: 至少需要 1-2 张 NVIDIA GPU (显存建议 24GB+)\n    *   **完整评测**: 需要 2 张 NVIDIA GPU\n*   **软件依赖**:\n    *   Python 3.10\n    *   Conda (用于环境管理)\n    *   UV (用于快速包安装)\n*   **API 密钥**: 需提前申请以下服务的免费 API Key：\n    *   [Serper](https:\u002F\u002Fserper.dev\u002F) (搜索服务)\n    *   [Semantic Scholar](https:\u002F\u002Fapi.semanticscholar.org\u002F) (学术搜索)\n    *   [Jina AI](https:\u002F\u002Fjina.ai\u002Freader\u002F) (网页内容读取)\n\n## 安装步骤\n\n1.  **克隆代码库并进入代理目录**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fallenai\u002Fdr-tulu.git\n    cd dr-tulu\u002Fagent\u002F\n    ```\n\n2.  **创建并激活 Conda 环境**\n    ```bash\n    conda create -n dr_agent python=3.10 -y && conda activate dr_agent\n    ```\n\n3.  **安装项目依赖**\n    ```bash\n    uv pip install -e .\n    ```\n    > **提示**: 如果国内下载速度慢，可配置 UV 使用国内镜像源：\n    > `export UV_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n4.  **配置 API 密钥**\n    将申请的密钥导出为环境变量：\n    ```bash\n    export SERPER_API_KEY=\"your_serper_key\"\n    export S2_API_KEY=\"your_s2_key\"\n    export JINA_API_KEY=\"your_jina_key\"\n    ```\n\n## 基本使用\n\n完成安装后，即可启动交互式命令行演示。该命令会自动拉起所需的 MCP 服务和 vLLM 推理后端。\n\n**启动交互式对话**\n```bash\nuv run --extra vllm python scripts\u002Flaunch_chat.py --model rl-research\u002FDR-Tulu-8B\n```\n\n启动成功后，终端将进入聊天界面。您可以直接输入复杂的研究问题（例如：“请总结最近关于大语言模型在蛋白质折叠领域的应用进展”），DR Tulu 将实时执行搜索、阅读文献并合成最终答案。\n\n> **注意**: 首次运行时会自动下载 `rl-research\u002FDR-Tulu-8B` 模型权重。若网络受限，建议提前通过 Hugging Face 镜像站下载模型至本地缓存目录。","某生物医药初创公司的研究员正在紧急撰写一份关于\"CRISPR 基因编辑在治疗罕见遗传病中最新临床进展”的深度综述报告，需要在极短时间内整合全球最新的学术论文与临床试验数据。\n\n### 没有 dr-tulu 时\n- **信息搜集碎片化**：研究员需手动在 PubMed、Google Scholar 等多个平台反复切换搜索，难以全面覆盖非英语文献或最新预印本，极易遗漏关键数据。\n- **内容整合耗时巨大**：面对数百篇文档，人工阅读、提取核心结论并交叉验证真实性需要数天时间，严重拖慢报告产出进度。\n- **缺乏动态评估标准**：传统搜索工具无法根据研究深度自动调整筛选标准，导致检索结果要么过于宽泛无关，要么过于陈旧缺乏临床指导意义。\n- **长程推理能力不足**：通用大模型在处理此类需要多步检索、对比分析的长文本任务时，容易出现逻辑断层或幻觉，无法生成可信的深度分析。\n\n### 使用 dr-tulu 后\n- **全自动深度挖掘**：dr-tulu 通过内置的 MCP 工具链并发调用 Serper、Semantic Scholar 等接口，自动遍历全球数据库，精准锁定最新临床试验数据与相关论文。\n- **实时综合与去伪**：模型利用进化评分机制（Evolving Rubrics）实时评估检索质量，自动合成跨文档的核心观点，并在几分钟内输出结构严谨、引用准确的初稿。\n- **动态优化检索策略**：在长程研究过程中，dr-tulu 能根据初步发现自动调整后续搜索方向，从“广泛撒网”智能过渡到“精准打击”，确保信息的高相关性。\n- **专业级长文生成**：基于强化学习训练的 dr-tulu-8B 展现出媲美顶级闭源模型的长文本处理能力，能够逻辑严密地梳理复杂病理机制与治疗前景，大幅降低人工复核成本。\n\ndr-tulu 将原本需要数天的深度研究工作压缩至分钟级，让研究人员从繁琐的信息搬运工转变为真正的决策分析者。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frlresearch_dr-tulu_9013e947.png","rlresearch","RL ReSearch","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frlresearch_cfa8de32.jpg","",null,"https:\u002F\u002Fgithub.com\u002Frlresearch",[21,25,29,33,37,41,45],{"name":22,"color":23,"percentage":24},"Python","#3572A5",96.3,{"name":26,"color":27,"percentage":28},"TypeScript","#3178c6",2.1,{"name":30,"color":31,"percentage":32},"Shell","#89e051",1.3,{"name":34,"color":35,"percentage":36},"Dockerfile","#384d54",0.2,{"name":38,"color":39,"percentage":40},"JavaScript","#f1e05a",0.1,{"name":42,"color":43,"percentage":44},"CSS","#663399",0,{"name":46,"color":47,"percentage":44},"Makefile","#427819",616,59,"2026-04-15T14:52:25","Apache-2.0",3,"Linux","必需。交互式演示需 1-2 张 GPU；评估需 2 张 GPU。示例使用 vLLM 运行 8B 模型，隐含需要支持 CUDA 的 NVIDIA GPU（显存建议 16GB+ 以容纳 8B 模型及长上下文）。","未说明",{"notes":57,"python":58,"dependencies":59},"1. 必须配置外部 API 密钥：Serper (搜索), Semantic Scholar (S2), Jina (阅读)。\n2. 评估流程需在单节点启动两个 vLLM 服务实例（分别加载 DR-Tulu-8B 和 Qwen3-8B）以及一个 MCP 后端服务。\n3. 推荐使用 'uv' 进行包管理，并使用 conda 创建虚拟环境。\n4. 项目包含代理库、RL 训练代码 (基于 Open-Instruct) 和 SFT 训练代码 (基于 LLaMA-Factory) 三个主要部分。","3.10",[60,61,62,63],"vllm","dr-agent-lib","uv","conda",[65,66],"Agent","其他",[68,69,70,71],"deepresearch","rl","rubrics","tool-use",2,"ready","2026-03-27T02:49:30.150509","2026-04-16T08:12:32.432065",[],[],[79,90,98,107,115,124],{"id":80,"name":81,"github_repo":82,"description_zh":83,"stars":84,"difficulty_score":52,"last_commit_at":85,"category_tags":86,"status":73},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[65,87,88,89],"开发框架","图像","数据工具",{"id":91,"name":92,"github_repo":93,"description_zh":94,"stars":95,"difficulty_score":52,"last_commit_at":96,"category_tags":97,"status":73},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[87,88,65],{"id":99,"name":100,"github_repo":101,"description_zh":102,"stars":103,"difficulty_score":72,"last_commit_at":104,"category_tags":105,"status":73},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",157379,"2026-04-15T23:32:42",[87,65,106],"语言模型",{"id":108,"name":109,"github_repo":110,"description_zh":111,"stars":112,"difficulty_score":72,"last_commit_at":113,"category_tags":114,"status":73},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[87,88,65],{"id":116,"name":117,"github_repo":118,"description_zh":119,"stars":120,"difficulty_score":72,"last_commit_at":121,"category_tags":122,"status":73},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[123,65,88,87],"插件",{"id":125,"name":126,"github_repo":127,"description_zh":128,"stars":129,"difficulty_score":52,"last_commit_at":130,"category_tags":131,"status":73},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[106,88,65,87]]