[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Alibaba-NLP--DeepResearch":3,"tool-Alibaba-NLP--DeepResearch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":99,"env_deps":101,"category_tags":106,"github_topics":107,"view_count":117,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":161},2874,"Alibaba-NLP\u002FDeepResearch","DeepResearch","Tongyi Deep Research, the Leading Open-source Deep Research Agent","DeepResearch 是由通义实验室推出的开源深度研究智能体，专为处理长周期、高复杂度的信息检索任务而设计。面对传统模型在需要多步推理、跨页面浏览及长时间上下文记忆的场景中表现不足的痛点，DeepResearch 能够自主规划搜索路径，深入挖掘网络信息，从而生成高质量的研究结论。\n\n这款工具非常适合 AI 研究人员、开发者以及需要处理深度调研工作的专业人士使用。其核心亮点在于独特的模型架构：虽然总参数量达 305 亿，但每生成一个 token 仅激活 33 亿参数，这种稀疏激活机制在保持强大推理能力的同时，显著提升了运行效率。此外，DeepResearch 拥有全自动的合成数据生成流水线，支持从预训练到强化学习的全流程优化，并通过大规模的智能体持续预训练，不断刷新其在各类权威评测基准上的表现。无论是希望探索前沿智能体技术的开发者，还是寻求高效深度搜索解决方案的研究者，DeepResearch 都提供了一个性能卓越且开放可用的选择。","\u003Cdiv align=\"center\">\n  \u003Cpicture>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_a4aa392c98a7.png\" width=\"100%\">\n  \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Chr>\n\n\u003Cdiv align=\"center\" style=\"line-height: 1;\">\n\n[![MODELS](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModels-5EDDD2?style=for-the-badge&logo=huggingface&logoColor=ffffff&labelColor)](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B)\n[![GITHUB](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGithub-24292F?style=for-the-badge&logo=github&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch)\n[![Blog](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-4285F4?style=for-the-badge&logo=google-chrome&logoColor=white)](https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F)\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-red?style=for-the-badge&logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24701)\n\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B\" target=\"_blank\">HuggingFace\u003C\u002Fa> ｜\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fiic\u002FTongyi-DeepResearch-30B-A3B\" target=\"_blank\">ModelScope\u003C\u002Fa> | 💬 \u003Ca href=\".\u002Fassets\u002Fwechat_new.jpg\">WeChat(微信)\u003C\u002Fa> | 📰 \u003Ca href=\"https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F\">Blog\u003C\u002Fa> | 📑 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24701\">Paper\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F14895\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_4a68feb902da.png\" alt=\"Alibaba-NLP%2FDeepResearch | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n👏 Welcome to try Tongyi DeepResearch via our **[\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> Modelscope online demo](https:\u002F\u002Fwww.modelscope.cn\u002Fstudios\u002Fjialongwu\u002FTongyi-DeepResearch)** or **[🤗 Huggingface online demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAlibaba-NLP\u002FTongyi-DeepResearch)** or \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_1d89ed7d0676.png\" width=\"14px\" style=\"display:inline;\"> **[bailian service](https:\u002F\u002Fbailian.console.aliyun.com\u002F?spm=a2ty02.31808181.d_app-market.1.6c4974a1tFmoFc&tab=app#\u002Fapp\u002Fapp-market\u002Fdeep-search\u002F)**!\n\n> [!NOTE]\n> This demo is for quick exploration only. Response times may vary or fail intermittently due to model latency and tool QPS limits. For a stable experience we recommend local deployment; for a production-ready service, visit \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_1d89ed7d0676.png\" width=\"14px\" style=\"display:inline;\"> [bailian](https:\u002F\u002Fbailian.console.aliyun.com\u002F?spm=a2ty02.31808181.d_app-market.1.6c4974a1tFmoFc&tab=app#\u002Fapp\u002Fapp-market\u002Fdeep-search\u002F) and follow the guided setup.\n\n# Introduction\n\nWe present \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> **Tongyi DeepResearch**, an agentic large language model featuring 30.5 billion total parameters, with only 3.3 billion activated per token. Developed by Tongyi Lab, the model is specifically designed for **long-horizon, deep information-seeking** tasks. Tongyi DeepResearch demonstrates state-of-the-art performance across a range of agentic search benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA,xbench-DeepSearch, FRAMES and SimpleQA.\n\n> Tongyi DeepResearch builds upon our previous work on the \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> [WebAgent](.\u002FWebAgent\u002F) project.\n\nMore details can be found in our 📰&nbsp;\u003Ca href=\"https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F\">Tech Blog\u003C\u002Fa>.\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_3dfb8ac6a30f.png\">\n\u003C\u002Fp>\n\n## Features\n\n- ⚙️ **Fully automated synthetic data generation pipeline**: We design a highly scalable data synthesis pipeline, which is fully automatic and empowers agentic pre-training, supervised fine-tuning, and reinforcement learning.\n- 🔄 **Large-scale continual pre-training on agentic data**: Leveraging diverse, high-quality agentic interaction data to extend model capabilities, maintain freshness, and strengthen reasoning performance.\n- 🔁 **End-to-end reinforcement learning**: We employ a strictly on-policy RL approach based on a customized Group Relative Policy Optimization framework, with token-level policy gradients, leave-one-out advantage estimation, and selective filtering of negative samples to stabilize training in a non‑stationary environment.\n- 🤖 **Agent Inference Paradigm Compatibility**: At inference, Tongyi DeepResearch is compatible with two inference paradigms: ReAct, for rigorously evaluating the model's core intrinsic abilities, and an IterResearch-based 'Heavy' mode, which uses a test-time scaling strategy to unlock the model's maximum performance ceiling.\n\n# Model Download\n\nYou can directly download the model by following the links below.\n\n|            Model            |                                                                           Download Links                                                                           | Model Size | Context Length |\n| :-------------------------: | :----------------------------------------------------------------------------------------------------------------------------------------------------------------: | :--------: | :------------: |\n| Tongyi-DeepResearch-30B-A3B | [🤗 HuggingFace](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fiic\u002FTongyi-DeepResearch-30B-A3B) |  30B-A3B   |      128K      |\n\n# News\n\n[2025\u002F09\u002F20]🚀 Tongyi-DeepResearch-30B-A3B is now on [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Falibaba\u002Ftongyi-deepresearch-30b-a3b)! Follow the [Quick-start](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch?tab=readme-ov-file#6-you-can-use-openrouters-api-to-call-our-model) guide.\n\n[2025\u002F09\u002F17]🔥 We have released **Tongyi-DeepResearch-30B-A3B**.\n\n# Deep Research Benchmark Results\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_24dfe39381e0.png\">\n\u003C\u002Fp>\n\n## Quick Start\n\nThis guide provides instructions for setting up the environment and running inference scripts located in the [inference](.\u002Finference\u002F) folder.\n\n### 1. Environment Setup\n- Recommended Python version: **3.10.0** (using other versions may cause dependency issues).\n- It is strongly advised to create an isolated environment using `conda` or `virtualenv`.\n\n```bash\n# Example with Conda\nconda create -n react_infer_env python=3.10.0\nconda activate react_infer_env\n```\n\n### 2. Installation\n\nInstall the required dependencies:\n```bash\npip install -r requirements.txt\n```\n\n### 3. Environment Configuration and Prepare Evaluation Data\n\n#### Environment Configuration\n\nConfigure your API keys and settings by copying the example environment file:\n\n```bash\n# Copy the example environment file\ncp .env.example .env\n```\n\nEdit the `.env` file and provide your actual API keys and configuration values:\n\n- **SERPER_KEY_ID**: Get your key from [Serper.dev](https:\u002F\u002Fserper.dev\u002F) for web search and Google Scholar\n- **JINA_API_KEYS**: Get your key from [Jina.ai](https:\u002F\u002Fjina.ai\u002F) for web page reading\n- **API_KEY\u002FAPI_BASE**: OpenAI-compatible API for page summarization from [OpenAI](https:\u002F\u002Fplatform.openai.com\u002F)\n- **DASHSCOPE_API_KEY**: Get your key from [Dashscope](https:\u002F\u002Fdashscope.aliyun.com\u002F) for file parsing\n- **SANDBOX_FUSION_ENDPOINT**: Python interpreter sandbox endpoints (see [SandboxFusion](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FSandboxFusion))\n- **MODEL_PATH**: Path to your model weights\n- **DATASET**: Name of your evaluation dataset\n- **OUTPUT_PATH**: Directory for saving results\n\n> **Note**: The `.env` file is gitignored, so your secrets will not be committed to the repository.\n\n#### Prepare Evaluation Data\n\nThe system supports two input file formats: **JSON** and **JSONL**.\n\n#### Supported File Formats:\n\n**Option 1: JSONL Format (recommended)**\n- Create your data file with `.jsonl` extension (e.g., `my_questions.jsonl`)\n- Each line must be a valid JSON object with `question` and `answer` keys:\n  ```json\n  {\"question\": \"What is the capital of France?\", \"answer\": \"Paris\"}\n  {\"question\": \"Explain quantum computing\", \"answer\": \"\"}\n  ```\n\n**Option 2: JSON Format**\n- Create your data file with `.json` extension (e.g., `my_questions.json`)\n- File must contain a JSON array of objects, each with `question` and `answer` keys:\n  ```json\n  [\n    { \"question\": \"What is the capital of France?\", \"answer\": \"Paris\" },\n    { \"question\": \"Explain quantum computing\", \"answer\": \"\" }\n  ]\n  ```\n\n**Important Note:** The `answer` field contains the **ground truth\u002Freference answer** used for evaluation. The system generates its own responses to the questions, and these reference answers are used to automatically judge the quality of the generated responses during benchmark evaluation.\n\n#### File References for Document Processing:\n\n- If using the _file parser_ tool, **prepend the filename to the `question` field**\n- Place referenced files in `eval_data\u002Ffile_corpus\u002F` directory\n- Example: `{\"question\": \"(Uploaded 1 file: ['report.pdf'])\\n\\nWhat are the key findings?\", \"answer\": \"...\"}`\n\n#### File Organization:\n```\nproject_root\u002F\n├── eval_data\u002F\n│   ├── my_questions.jsonl          # Your evaluation data\n│   └── file_corpus\u002F                # Referenced documents\n│       ├── report.pdf\n│       └── data.xlsx\n```\n\n### 4. Configure the Inference Script\n\n- Open `run_react_infer.sh` and modify the following variables as instructed in the comments:\n  - `MODEL_PATH` - path to the local or remote model weights.\n  - `DATASET` - full path to your evaluation file, e.g. `eval_data\u002Fmy_questions.jsonl` or `\u002Fpath\u002Fto\u002Fmy_questions.json`.\n  - `OUTPUT_PATH` - path for saving the prediction results, e.g. `.\u002Foutputs`.\n- Depending on the tools you enable (retrieval, calculator, web search, etc.), provide the required `API_KEY`, `BASE_URL`, or other credentials. Each key is explained inline in the bash script.\n\n### 5. Run the Inference Script\n\n```bash\nbash run_react_infer.sh\n```\n---\n\nWith these steps, you can fully prepare the environment, configure the dataset, and run the model. For more details, consult the inline comments in each script or open an issue.\n\n### 6. You can use OpenRouter's API to call our model\n\nTongyi-DeepResearch-30B-A3B is now available at [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Falibaba\u002Ftongyi-deepresearch-30b-a3b). You can run the inference without any GPUs.\n\nYou need to modify the following in the file [inference\u002Freact_agent.py](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fblob\u002Fmain\u002Finference\u002Freact_agent.py):\n\n- In the call_server function: Set the API key and URL to your OpenRouter account’s API and URL.\n- Change the model name to alibaba\u002Ftongyi-deepresearch-30b-a3b.\n- Adjust the content concatenation way as described in the comments on lines **88–90.**\n\n## Benchmark Evaluation\n\nWe provide benchmark evaluation scripts for various datasets. Please refer to the [evaluation scripts](.\u002Fevaluation\u002F) directory for more details.\n\n## FAQ\n\nPlease refer to the [FAQ](.\u002FFAQ.md) for more details.\n\n## Deep Research Agent Family\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_42f96019cb03.png\">\n\u003C\u002Fp>\n\nTongyi DeepResearch also has an extensive deep research agent family. You can find more information in the following paper:\n\n[1] [WebWalker: Benchmarking LLMs in Web Traversal](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.07572) (ACL 2025)\u003Cbr>\n[2] [WebDancer: Towards Autonomous Information Seeking Agency](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.22648) (NeurIPS 2025)\u003Cbr>\n[3] [WebSailor: Navigating Super-human Reasoning for Web Agent](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2507.02592)\u003Cbr>\n[4] [WebShaper: Agentically Data Synthesizing via Information-Seeking Formalization](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2507.15061)\u003Cbr>\n[5] [WebWatcher: Breaking New Frontier of Vision-Language Deep Research Agent](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2508.05748)\u003Cbr>\n[6] [WebResearcher: Unleashing unbounded reasoning capability in Long-Horizon Agents](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13309)\u003Cbr>\n[7] [ReSum: Unlocking Long-Horizon Search Intelligence via Context Summarization](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13313)\u003Cbr>\n[8] [WebWeaver: Structuring Web-Scale Evidence with Dynamic Outlines for Open-Ended Deep Research](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13312)\u003Cbr>\n[9] [WebSailor-V2: Bridging the Chasm to Proprietary Agents via Synthetic Data and Scalable Reinforcement Learning](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13305)\u003Cbr>\n[10] [Scaling Agents via Continual Pre-training](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13310)\u003Cbr>\n[11] [Towards General Agentic Intelligence via Environment Scaling](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13311)\u003Cbr>\n[12] [AgentFold: Long-Horizon Web Agents with Proactive Context Management](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24699)\u003Cbr>\n[13] [WebLeaper: Empowering Efficient, Info-Rich Seeking for Web Agents](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24697)\u003Cbr>\n[14] [BrowseConf: Confidence-Guided Test-Time Scaling for Web Agents](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.23458)\u003Cbr>\n[15] [Repurposing Synthetic Data for Fine-grained Search Agent Supervision](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24694)\u003Cbr>\n[16] [ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24698)\u003Cbr>\n[17] [AgentFrontier: Expanding the Capability Frontier of LLM Agents with ZPD-Guided Data Synthesis](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24695)\u003Cbr>\n[18] [Nested Browser-Use Learning for Agentic Information Seeking](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2512.23647)\u003Cbr>\n\n## 🌟 Misc\n\n\u003Cdiv align=\"center\">\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_37ed74a4c232.png)](https:\u002F\u002Fwww.star-history.com\u002F#Alibaba-NLP\u002FDeepResearch&Date)\n\n\u003C\u002Fdiv>\n\n## 🚩 Talent Recruitment\n\n🔥🔥🔥 We are hiring! Research intern positions are open (based in Hangzhou、Beijing、Shanghai)\n\n📚 **Research Area**：Web Agent, Search Agent, Agent RL, MultiAgent RL, Agentic RAG\n\n☎️ **Contact**：[yongjiang.jy@alibaba-inc.com]()\n\n## Contact Information\n\nFor communications, please contact Yong Jiang (yongjiang.jy@alibaba-inc.com).\n\n## Citation\n\n```bibtex\n@article{tongyidr,\n  title={Tongyi DeepResearch Technical Report},\n  author={Team, Tongyi DeepResearch and Li, Baixuan and Zhang, Bo and Zhang, Dingchu and Huang, Fei and Li, Guangyu and Chen, Guoxin and Yin, Huifeng and Wu, Jialong and Zhou, Jingren and others},\n  journal={arXiv preprint arXiv:2510.24701},\n  year={2025}\n}\n```\n","\u003Cdiv align=\"center\">\n  \u003Cpicture>\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_a4aa392c98a7.png\" width=\"100%\">\n  \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Chr>\n\n\u003Cdiv align=\"center\" style=\"line-height: 1;\">\n\n[![模型](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FModels-5EDDD2?style=for-the-badge&logo=huggingface&logoColor=ffffff&labelColor)](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B)\n[![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGithub-24292F?style=for-the-badge&logo=github&logoColor=white)](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch)\n[![博客](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-4285F4?style=for-the-badge&logo=google-chrome&logoColor=white)](https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F)\n[![论文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-red?style=for-the-badge&logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24701)\n\n\u003C\u002Fdiv>\n\u003Cp align=\"center\">\n\u003Cp align=\"center\">\n🤗 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B\" target=\"_blank\">HuggingFace\u003C\u002Fa> ｜\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> \u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fiic\u002FTongyi-DeepResearch-30B-A3B\" target=\"_blank\">ModelScope\u003C\u002Fa> | 💬 \u003Ca href=\".\u002Fassets\u002Fwechat_new.jpg\">微信\u003C\u002Fa> | 📰 \u003Ca href=\"https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F\">博客\u003C\u002Fa> | 📑 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24701\">论文\u003C\u002Fa>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F14895\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_4a68feb902da.png\" alt=\"Alibaba-NLP%2FDeepResearch | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n👏 欢迎通过我们的 **[\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> Modelscope 在线演示](https:\u002F\u002Fwww.modelscope.cn\u002Fstudios\u002Fjialongwu\u002FTongyi-DeepResearch)** 或 **[🤗 Huggingface 在线演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAlibaba-NLP\u002FTongyi-DeepResearch)**，或 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_1d89ed7d0676.png\" width=\"14px\" style=\"display:inline;\"> **[bailian 服务](https:\u002F\u002Fbailian.console.aliyun.com\u002F?spm=a2ty02.31808181.d_app-market.1.6c4974a1tFmoFc&tab=app#\u002Fapp\u002Fapp-market\u002Fdeep-search\u002F)** 来体验通义深度研究！\n\n> [!NOTE]\n> 此演示仅供快速探索使用。由于模型延迟和工具 QPS 限制，响应时间可能会有所不同或间歇性失败。为了获得稳定的体验，我们建议进行本地部署；若需生产级服务，请访问 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_1d89ed7d0676.png\" width=\"14px\" style=\"display:inline;\"> [bailian](https:\u002F\u002Fbailian.console.aliyun.com\u002F?spm=a2ty02.31808181.d_app-market.1.6c4974a1tFmoFc&tab=app#\u002Fapp\u002Fapp-market\u002Fdeep-search\u002F) 并按照引导设置。\n\n# 简介\n\n我们推出 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> **通义深度研究**，这是一款具有 305 亿总参数的代理型大语言模型，每 token 只激活 33 亿参数。该模型由通义实验室开发，专为 **长周期、深度信息检索** 任务而设计。通义深度研究在一系列代理式搜索基准测试中表现出最先进的性能，包括 Humanity's Last Exam、BrowseComp、BrowseComp-ZH、WebWalkerQA、xbench-DeepSearch、FRAMES 和 SimpleQA。\n\n> 通义深度研究基于我们之前在 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_ad19c9d61b7a.png\" width=\"14px\" style=\"display:inline;\"> [WebAgent](.\u002FWebAgent\u002F) 项目上的工作。\n\n更多详情请参阅我们的 📰&nbsp;\u003Ca href=\"https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research\u002F\">技术博客\u003C\u002Fa>。\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_3dfb8ac6a30f.png\">\n\u003C\u002Fp>\n\n## 特点\n\n- ⚙️ **全自动合成数据生成流水线**：我们设计了一条高度可扩展的自动数据合成流水线，支持代理式预训练、监督微调和强化学习。\n- 🔄 **大规模持续代理式预训练**：利用多样且高质量的代理式交互数据来扩展模型能力、保持模型新鲜度并增强推理性能。\n- 🔁 **端到端强化学习**：我们采用基于自定义 Group Relative Policy Optimization 框架的严格 on-policy RL 方法，结合 token 级别的策略梯度、留一法优势估计以及对负样本的选择性过滤，以在非平稳环境中稳定训练。\n- 🤖 **兼容代理推理范式**：在推理时，通义深度研究兼容两种推理范式：ReAct，用于严格评估模型的核心内在能力；以及基于 IterResearch 的“重型”模式，该模式采用测试时缩放策略来释放模型的最大性能潜力。\n\n# 模型下载\n\n您可以通过以下链接直接下载模型。\n\n|            模型            |                                                                           下载链接                                                                           | 模型大小 | 上下文长度 |\n| :-------------------------: | :----------------------------------------------------------------------------------------------------------------------------------------------------------------: | :--------: | :------------: |\n| Tongyi-DeepResearch-30B-A3B | [🤗 HuggingFace](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B)\u003Cbr> [🤖 ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fiic\u002FTongyi-DeepResearch-30B-A3B) |  30B-A3B   |      128K      |\n\n# 新闻\n\n[2025\u002F09\u002F20]🚀 Tongyi-DeepResearch-30B-A3B 现已上线 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Falibaba\u002Ftongyi-deepresearch-30b-a3b)! 请按照 [快速入门](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch?tab=readme-ov-file#6-you-can-use-openrouters-api-to-call-our-model) 指南操作。\n\n[2025\u002F09\u002F17]🔥 我们发布了 **Tongyi-DeepResearch-30B-A3B**。\n\n# 深度研究基准测试结果\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_24dfe39381e0.png\">\n\u003C\u002Fp>\n\n## 快速入门\n\n本指南提供了设置环境和运行位于 [inference](.\u002Finference\u002F) 文件夹中的推理脚本的说明。\n\n### 1. 环境设置\n- 推荐 Python 版本：**3.10.0**（使用其他版本可能导致依赖问题）。\n- 强烈建议使用 `conda` 或 `virtualenv` 创建隔离环境。\n\n```bash\n# Conda 示例\nconda create -n react_infer_env python=3.10.0\nconda activate react_infer_env\n```\n\n### 2. 安装\n\n安装所需的依赖项：\n```bash\npip install -r requirements.txt\n```\n\n### 3. 环境配置与评估数据准备\n\n#### 环境配置\n\n通过复制示例环境文件来配置您的 API 密钥和设置：\n\n```bash\ncp .env.example .env\nnano .env\n```\n\n#### 准备评估数据\n\n将评估数据放入 `data\u002Feval` 文件夹中，并确保其格式符合要求。\n\n### 4. 运行推理脚本\n\n执行以下命令来运行推理脚本：\n\n```bash\npython inference.py --model tongyi-deepresearch-30b-a3b --input \"你的输入文本\"\n```\n\n### 5. 结果分析\n\n查看输出文件以分析推理结果。\n\n# 结语\n\n通义深度研究代表了我们在代理式大语言模型领域的最新突破。我们相信，这一模型将在未来的科学研究、信息检索和其他复杂任务中发挥重要作用。感谢您的关注和支持！\n\n---\u003C\u002Fdiv>\n\n# 复制示例环境文件\ncp .env.example .env\n```\n\n编辑 `.env` 文件，并填写您实际的 API 密钥和配置值：\n\n- **SERPER_KEY_ID**：从 [Serper.dev](https:\u002F\u002Fserper.dev\u002F) 获取用于网页搜索和 Google 学术的密钥。\n- **JINA_API_KEYS**：从 [Jina.ai](https:\u002F\u002Fjina.ai\u002F) 获取用于网页内容读取的密钥。\n- **API_KEY\u002FAPI_BASE**：从 [OpenAI](https:\u002F\u002Fplatform.openai.com\u002F) 获取与 OpenAI 兼容的 API，用于页面摘要生成。\n- **DASHSCOPE_API_KEY**：从 [Dashscope](https:\u002F\u002Fdashscope.aliyun.com\u002F) 获取用于文件解析的密钥。\n- **SANDBOX_FUSION_ENDPOINT**：Python 解释器沙盒端点（参见 [SandboxFusion](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FSandboxFusion)）。\n- **MODEL_PATH**：您的模型权重路径。\n- **DATASET**：您的评估数据集名称。\n- **OUTPUT_PATH**：保存结果的目录。\n\n> **注意**：`.env` 文件已被添加到 `.gitignore` 中，因此您的密钥不会被提交到仓库。\n\n#### 准备评估数据\n\n系统支持两种输入文件格式：**JSON** 和 **JSONL**。\n\n#### 支持的文件格式：\n\n**选项 1：JSONL 格式（推荐）**\n- 创建以 `.jsonl` 为扩展名的数据文件（例如 `my_questions.jsonl`）。\n- 每一行必须是一个有效的 JSON 对象，包含 `question` 和 `answer` 键：\n  ```json\n  {\"question\": \"法国的首都是什么？\", \"answer\": \"巴黎\"}\n  {\"question\": \"请解释量子计算。\", \"answer\": \"\"}\n  ```\n\n**选项 2：JSON 格式**\n- 创建以 `.json` 为扩展名的数据文件（例如 `my_questions.json`）。\n- 文件必须包含一个 JSON 数组，每个对象都包含 `question` 和 `answer` 键：\n  ```json\n  [\n    { \"question\": \"法国的首都是什么？\", \"answer\": \"巴黎\" },\n    { \"question\": \"请解释量子计算。\", \"answer\": \"\" }\n  ]\n  ```\n\n**重要提示**：`answer` 字段包含用于评估的 **真实答案\u002F参考答案**。系统会针对问题生成自己的回答，这些参考答案将在基准测试中用于自动评估生成回答的质量。\n\n#### 文档处理中的文件引用：\n\n- 如果使用 _文件解析器_ 工具，请在 `question` 字段前加上文件名。\n- 将引用的文件放置在 `eval_data\u002Ffile_corpus\u002F` 目录下。\n- 示例：`{\"question\": \"(已上传 1 个文件：['report.pdf'])\\n\\n主要发现是什么？\", \"answer\": \"...\"}`\n\n#### 文件组织结构：\n```\nproject_root\u002F\n├── eval_data\u002F\n│   ├── my_questions.jsonl          # 您的评估数据\n│   └── file_corpus\u002F                # 引用的文档\n│       ├── report.pdf\n│       └── data.xlsx\n```\n\n### 4. 配置推理脚本\n\n- 打开 `run_react_infer.sh`，并按照注释中的说明修改以下变量：\n  - `MODEL_PATH`：本地或远程模型权重的路径。\n  - `DATASET`：您的评估文件的完整路径，例如 `eval_data\u002Fmy_questions.jsonl` 或 `\u002Fpath\u002Fto\u002Fmy_questions.json`。\n  - `OUTPUT_PATH`：保存预测结果的路径，例如 `.\u002Foutputs`。\n- 根据您启用的工具（检索、计算器、网页搜索等），提供所需的 `API_KEY`、`BASE_URL` 或其他凭证。每个密钥都在 Bash 脚本中进行了说明。\n\n### 5. 运行推理脚本\n\n```bash\nbash run_react_infer.sh\n```\n\n---\n\n通过以上步骤，您可以完全准备好环境、配置数据集并运行模型。如需更多详细信息，请参阅各脚本中的内嵌注释或提交问题。\n\n### 6. 您可以使用 OpenRouter 的 API 来调用我们的模型\n\nTongyi-DeepResearch-30B-A3B 现已在 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Falibaba\u002Ftongyi-deepresearch-30b-a3b) 上可用。您无需任何 GPU 即可运行推理。\n\n您需要在文件 [inference\u002Freact_agent.py](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fblob\u002Fmain\u002Finference\u002Freact_agent.py) 中进行以下修改：\n\n- 在 `call_server` 函数中：将 API 密钥和 URL 设置为您 OpenRouter 账户的 API 和 URL。\n- 将模型名称更改为 `alibaba\u002Ftongyi-deepresearch-30b-a3b`。\n- 按照第 **88–90 行** 注释中的说明调整内容拼接方式。\n\n## 基准评估\n\n我们提供了针对各种数据集的基准评估脚本。请参阅 [evaluation\u002F](.\u002Fevaluation\u002F) 目录以获取更多详细信息。\n\n## 常见问题解答\n\n请参阅 [FAQ](.\u002FFAQ.md) 以获取更多详细信息。\n\n## 深度研究代理家族\n\n\u003Cp align=\"center\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_42f96019cb03.png\">\n\u003C\u002Fp>\n\nTongyi DeepResearch 还拥有一系列深度研究代理。更多信息请参阅以下论文：\n\n[1] [WebWalker：LLM 在网络遍历中的基准测试](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.07572)（ACL 2025）\u003Cbr>\n[2] [WebDancer：迈向自主信息搜寻代理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2505.22648)（NeurIPS 2025）\u003Cbr>\n[3] [WebSailor：为网络代理导航超人类推理能力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2507.02592)\u003Cbr>\n[4] [WebShaper：通过信息搜寻形式化实现代理式数据合成](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2507.15061)\u003Cbr>\n[5] [WebWatcher：突破视觉-语言深度研究代理的新前沿](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2508.05748)\u003Cbr>\n[6] [WebResearcher：释放长时程代理的无限推理能力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13309)\u003Cbr>\n[7] [ReSum：通过上下文摘要解锁长时程搜索智能](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13313)\u003Cbr>\n[8] [WebWeaver：通过动态大纲构建网络规模证据，用于开放式深度研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13312)\u003Cbr>\n[9] [WebSailor-V2：通过合成数据和可扩展强化学习弥合与专有代理之间的鸿沟](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13305)\u003Cbr>\n[10] [通过持续预训练扩展代理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13310)\u003Cbr>\n[11] [通过环境扩展迈向通用代理智能](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2509.13311)\u003Cbr>\n[12] [AgentFold：具有主动上下文管理功能的长时程网络代理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24699)\u003Cbr>\n[13] [WebLeaper：赋能高效、信息丰富的网络代理搜索](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24697)\u003Cbr>\n[14] [BrowseConf：面向网络代理的置信度引导测试时缩放](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.23458)\u003Cbr>\n[15] [重新利用合成数据进行细粒度搜索代理监督](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24694)\u003Cbr>\n[16] [ParallelMuse：用于深度信息搜寻的代理式并行思维](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24698)\u003Cbr>\n[17] [AgentFrontier：借助 ZPD 引导的数据合成扩展 LLM 代理的能力边界](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2510.24695)\u003Cbr>\n[18] [代理式信息搜寻中的嵌套浏览器使用学习](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2512.23647)\u003Cbr>\n\n## 🌟 杂项\n\n\u003Cdiv align=\"center\">\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_readme_37ed74a4c232.png)](https:\u002F\u002Fwww.star-history.com\u002F#Alibaba-NLP\u002FDeepResearch&Date)\n\n\u003C\u002Fdiv>\n\n## 🚩 人才招聘\n\n🔥🔥🔥 我们正在招聘！研究实习生岗位开放中（工作地点：杭州、北京、上海）\n\n📚 **研究方向**：Web智能体、搜索智能体、智能体强化学习、多智能体强化学习、基于智能体的RAG\n\n☎️ **联系方式**：[yongjiang.jy@alibaba-inc.com]()\n\n## 联系方式\n\n如有任何沟通需求，请联系Yong Jiang（yongjiang.jy@alibaba-inc.com）。\n\n## 引用\n\n```bibtex\n@article{tongyidr,\n  title={通义DeepResearch技术报告},\n  author={通义DeepResearch团队 and 李百轩 and 张博 and 张丁楚 and 黄飞 and 李广宇 and 陈国新 and 尹慧峰 and 吴嘉龙 and 周景仁 and others},\n  journal={arXiv预印本 arXiv:2510.24701},\n  year={2025}\n}\n```","# Tongyi DeepResearch 快速上手指南\n\nTongyi DeepResearch 是由通义实验室研发的代理式大语言模型（30.5B 总参数，激活 3.3B），专为长程、深度信息检索任务设计。本指南将帮助您快速在本地部署并运行推理。\n\n## 1. 环境准备\n\n*   **操作系统**: Linux \u002F macOS (Windows 需使用 WSL2)\n*   **Python 版本**: **3.10.0** (强烈建议使用此版本，其他版本可能导致依赖冲突)\n*   **硬件要求**: 推荐具备足够显存的 GPU 进行本地部署；若无 GPU，可通过 OpenRouter API 调用（见后文）。\n*   **前置工具**: 建议安装 `conda` 用于创建隔离环境。\n\n## 2. 安装步骤\n\n### 2.1 创建虚拟环境\n使用 Conda 创建并激活名为 `react_infer_env` 的环境：\n\n```bash\nconda create -n react_infer_env python=3.10.0\nconda activate react_infer_env\n```\n\n### 2.2 安装依赖\n克隆仓库后进入目录，安装所需 Python 包。国内用户如遇下载缓慢，可配置 pip 使用清华或阿里镜像源：\n\n```bash\n# 可选：配置国内镜像加速\npip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装依赖\npip install -r requirements.txt\n```\n\n### 2.3 下载模型\n您可以从 **ModelScope (魔搭)** 或 HuggingFace 下载模型权重。国内开发者推荐使用 ModelScope 以获得更快的下载速度。\n\n*   **模型名称**: `Tongyi-DeepResearch-30B-A3B`\n*   **ModelScope 地址**: https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fiic\u002FTongyi-DeepResearch-30B-A3B\n*   **HuggingFace 地址**: https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B\n\n下载完成后，记录模型在本地的存储路径（即下文配置的 `MODEL_PATH`）。\n\n## 3. 基本使用\n\n### 3.1 配置环境变量\n复制示例配置文件并根据实际情况填写 API Key 和路径：\n\n```bash\ncp .env.example .env\n```\n\n编辑 `.env` 文件，填入以下关键信息：\n*   `MODEL_PATH`: 您下载的模型权重本地路径。\n*   `SERPER_KEY_ID`: [Serper.dev](https:\u002F\u002Fserper.dev\u002F) 提供的搜索 API Key（用于联网搜索）。\n*   `JINA_API_KEYS`: [Jina.ai](https:\u002F\u002Fjina.ai\u002F) 提供的 Key（用于网页阅读）。\n*   `DASHSCOPE_API_KEY`: [阿里云 DashScope](https:\u002F\u002Fdashscope.aliyun.com\u002F) Key（用于文件解析等）。\n*   其他 API Key 根据您启用的工具按需填写。\n\n### 3.2 准备测试数据\n系统支持 **JSONL** 或 **JSON** 格式输入。推荐创建 `eval_data\u002Fmy_questions.jsonl` 文件，每行包含一个问答对（`answer` 字段用于评估参考，可为空）：\n\n```json\n{\"question\": \"2024 年诺贝尔物理学奖得主是谁？\", \"answer\": \"\"}\n{\"question\": \"解释量子计算的基本原理\", \"answer\": \"\"}\n```\n\n若需处理本地文件（如 PDF），请将文件放入 `eval_data\u002Ffile_corpus\u002F` 目录，并在 question 中引用文件名，例如：\n`{\"question\": \"(Uploaded 1 file: ['report.pdf'])\\n\\n报告的核心结论是什么？\", \"answer\": \"\"}`\n\n### 3.3 配置并运行推理脚本\n打开 `run_react_infer.sh` 脚本，修改以下变量以匹配您的环境：\n*   `MODEL_PATH`: 指向模型权重路径。\n*   `DATASET`: 指向您的数据文件路径（如 `eval_data\u002Fmy_questions.jsonl`）。\n*   `OUTPUT_PATH`: 指定结果输出目录（如 `.\u002Foutputs`）。\n\n确认配置无误后，执行脚本启动推理：\n\n```bash\nbash run_react_infer.sh\n```\n\n### 3.4 无显卡方案 (OpenRouter)\n如果您没有本地 GPU 资源，可以使用 OpenRouter API 直接调用模型：\n1.  获取 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Falibaba\u002Ftongyi-deepresearch-30b-a3b) API Key。\n2.  编辑 `inference\u002Freact_agent.py`：\n    *   在 `call_server` 函数中填入 OpenRouter 的 API Key 和 URL。\n    *   将模型名称改为 `alibaba\u002Ftongyi-deepresearch-30b-a3b`。\n    *   按照代码注释（第 88-90 行）调整内容拼接方式。\n3.  运行上述推理脚本即可云端执行。","某金融科技公司的行业分析师需要在 24 小时内完成一份关于“全球固态电池供应链最新突破”的深度研报，以支持投资决策。\n\n### 没有 DeepResearch 时\n- **信息碎片化严重**：分析师需手动在数十个学术网站、新闻源和专利库中反复搜索，难以串联起从材料创新到量产落地的完整链条。\n- **深度推理缺失**：传统搜索工具仅能返回关键词匹配的新闻摘要，无法自动分析技术路线的可行性或对比不同厂商的产能数据。\n- **时效性与准确性矛盾**：为了赶工期，往往被迫牺牲验证环节，容易引用过时数据或误读非权威来源的信息。\n- **长程任务中断**：面对需要多步跳转（如：查论文->找作者->追踪其最新项目->核实合作方）的复杂查询，人工操作极易迷失方向或遗漏关键节点。\n\n### 使用 DeepResearch 后\n- **全自动深度挖掘**：DeepResearch 自主规划搜索路径，一次性遍历全球主流数据库，自动构建起从实验室突破到工厂投产的全景图谱。\n- **智能推理与综合**：基于 305 亿参数的大模型能力，DeepResearch 不仅能提取数据，还能交叉验证不同来源，自动生成包含技术壁垒分析和竞争格局的判断。\n- **高信源溯源保障**：工具在生成报告时自动附带精确的引用链接，确保每一条关键结论都有据可查，大幅降低合规风险。\n- **长链路任务闭环**：DeepResearch 擅长处理长周期任务，能独立执行“发现线索 - 深入追踪 - 逻辑验证”的完整闭环，无需人工中途干预。\n\nDeepResearch 将原本需要数天的人工情报搜集工作压缩至小时级，让分析师从繁琐的“找资料”转型为高价值的“做决策”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAlibaba-NLP_DeepResearch_a4aa392c.png","Alibaba-NLP","Tongyi Lab, Alibaba Group","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAlibaba-NLP_4756c6c9.png","Our team at Tongyi Lab is dedicated to pioneer advancements in AI search technologies.",null,"yongjiang.jy@alibaba-inc.com","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",97.6,{"name":88,"color":89,"percentage":90},"Shell","#89e051",2.2,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0.1,18593,1442,"2026-04-03T13:17:09","Apache-2.0","未说明","本地部署需要 GPU（具体型号和显存未说明）；也可通过 OpenRouter API 调用无需本地 GPU",{"notes":102,"python":103,"dependencies":104},"强烈建议使用 conda 或 virtualenv 创建隔离环境。需配置多个 API 密钥（Serper, Jina, OpenAI\u002FDashscope 等）以支持搜索、阅读和文件解析功能。模型大小为 30B（激活参数 3.3B），上下文长度 128K。若使用 OpenRouter 接口可免去本地硬件部署需求。","3.10.0",[105],"requirements.txt 中定义的依赖（具体列表未在 README 中展示）",[13,54,26,15],[108,109,110,111,112,113,114,115,116],"agent","llm","artificial-intelligence","information-seeking","alibaba","web-agent","deepresearch","tongyi","deep-research",7,"2026-03-27T02:49:30.150509","2026-04-06T06:52:07.635174",[121,126,131,136,141,146,151,156],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},13290,"WebWatcher 的推理代码在哪里可以找到？","WebWatcher 的推理代码已经发布。您可以直接在项目的 `webagent\u002Fwebwatcher` 文件夹中找到相关代码。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F88",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},13291,"为什么 WebDancer-32B 模型在对话时会一直输出重复内容？","如果遇到模型输出重复内容的问题，请首先检查模型文件是否完整或受损。此外，官方已在 Hugging Face 开源了一系列模型（地址：https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FAlibaba-NLP\u002Fwebagent-6878a9947443234bc6cbf9f4），建议尝试使用官方发布的最新版本以获得更好的体验。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F51",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},13292,"下载 BrowseComp-VL 数据集图片时出现 'AccessDenied' 错误怎么办？","该问题是由于部分图片缺失导致的权限错误，目前官方已修复此问题。现在的 dataset 版本完全可用，您可以直接用于评估 WebWatcher。图片归档位于 `WebAgent\u002FWebWatcher\u002Fbrowsecomp-vl\u002Fimages` 目录下，请确保拉取了最新代码或重新下载数据集。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F224",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},13293,"GAIA 基准测试的分数是基于文本子集还是完整验证集计算的？","GAIA 的得分（如 70.9）是基于完整的 GAIA 验证集（共 166 个样本）计算的，而不仅仅是 103 条纯文本子集。评估设置复用了 WebThinker 的评估提示词和评估模型（Qwen2.5-72B-Instruct），相关细节已在报告中更新澄清。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F173",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},13294,"Tongyi-DeepResearch-30B-A3B 模型的 Chat Template 中 `\u003Cthink>` 标签格式是否正确？如何禁用思考过程？","该模型在 assistant 回合中添加 `\u003Cthink>\\n\\n\u003C\u002Fthink>` 是预期的训练格式。如果您希望像 Qwen3-30B-A3B 那样禁用思考过程，可以在使用 chat template 时指定参数 `--chat-template qwen3_nonthinking.jinja`。所有评估脚本、Judge 模型及提示词均可在项目的 `evaluation` 目录中找到。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F123",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},13295,"如何复现官方在 BrowseComp 上的高分结果？为什么我自己合成的数据上准确率很低？","复现结果差异巨大通常是因为未使用官方的 Prompt 和工具集（Tool Set）。该模型可能对特定的训练环境、Prompt 格式及工具调用方式有较强的依赖性（存在过拟合特定配置的可能）。若要复现官方分数，建议使用官方提供的 Prompt 和工具配置，而不是自行适配本地部署的通用配置。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F128",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},13296,"项目是否提供了 API 调用接口或部署好的 Demo？","目前主要提供代码库供用户自行部署。关于 ModelScope 上是否有部署好的 Demo，社区用户曾反馈部署失败的情况，建议直接参考项目源码进行本地部署，或关注官方后续是否上线在线演示服务。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F23",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},13297,"WebSailor 论文为何没有引用 DeepDiver？","作者回应表示，信息检索（Information seeking）一直是其研究主线，相关工作（如 WebWalker 和 WebDancer）已对此进行了探索。对于未引用 DeepDiver 的问题，作者承诺会在论文的后续版本中进行更新和补充引用。","https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch\u002Fissues\u002F27",[]]