DeepCode

GitHub
15.2k 2k 较难 1 次阅读 今天MITAgent语言模型
AI 解读 由 AI 自动生成,仅供参考

DeepCode 是一个开源的“智能体编程”框架,旨在通过多智能体协作系统,将代码生成能力推向新高度。它不仅能理解自然语言指令,还能自主完成从学术论文复现(Paper2Code)、前端网页构建(Text2Web)到后端服务开发(Text2Backend)的全流程任务。

传统 AI 编程助手往往局限于单段代码的建议或简单脚本的生成,难以应对需要复杂逻辑推理、多文件协同及完整架构设计的实际工程需求。DeepCode 通过模拟真实软件开发团队,让多个具备不同专长的 AI 智能体分工合作——有的负责规划架构,有的专注编写具体功能,还有的负责测试与调试,从而有效解决了单一模型在处理大型项目时上下文受限、逻辑断层及错误率高的问题。

这款工具特别适合希望提升开发效率的软件工程师、需要快速验证想法的研究人员,以及想要将创意直接转化为可运行原型的创业者。其独特的技术亮点在于“开放式的多智能体协作机制”,允许用户自定义智能体角色与工作流,使系统能灵活适应从简单工具脚本到复杂全栈应用的各种开发场景。无论是想自动化复现前沿算法论文,还是希望通过对话快速搭建网站,DeepCode 都能提供强有力的支持,让编程变得更加高效与直观。

使用场景

某初创团队的产品经理希望将一篇关于“动态库存预警”的学术论文快速转化为可演示的 Web 原型,以便向投资人展示核心算法价值。

没有 DeepCode 时

  • 转化周期漫长:开发人员需手动阅读论文公式并逐行编写后端逻辑,从理论到代码至少耗时 3-5 天。
  • 前后端割裂:算法工程师只负责核心代码,前端界面需另外协调 UI 设计师和前端开发,沟通成本极高。
  • 实现偏差风险:人工复现复杂数学模型时容易出现理解偏差,导致最终运行结果与论文结论不一致。
  • 资源协调困难:需要同时调动算法、后端、前端多名成员,对于小团队而言人力负担过重。

使用 DeepCode 后

  • 一键论文转代码:直接上传论文 PDF,DeepCode 的 Paper2Code 代理自动解析公式并生成可运行的 Python 后端核心代码,耗时缩短至小时级。
  • 全栈自动生成:利用 Text2Web 和 Text2Backend 能力,DeepCode 自动构建包含数据可视化图表的前端界面及配套的 API 服务,无需额外人力介入。
  • 多代理协同校验:内置的多智能体系统自动对生成的代码进行逻辑自洽性检查,确保算法实现严格还原文献数据。
  • 单人闭环交付:产品经理仅需输入自然语言需求,DeepCode 即可独立完成从理论验证到 Web 部署的全流程,一人即可搞定全栈开发。

DeepCode 通过多智能体协作打破了学术理论与工程落地之间的壁垒,让创意验证的速度提升了数倍。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes支持 CLI 终端界面和 Web 可视化界面。提供与飞书机器人(nanobot)的集成,支持通过聊天自然语言处理编码任务。一键启动命令为 `deepcode`。具体深度学习框架依赖(如 PyTorch 版本)在提供的片段中未明确列出,需参考完整文档或 requirements 文件。
python3.13
未说明
DeepCode hero image

快速开始

DeepCode Logo
    ██████╗ ███████╗███████╗██████╗  ██████╗ ██████╗ ██████╗ ███████╗
    ██╔══██╗██╔════╝██╔════╝██╔══██╗██╔════╝██╔═══██╗██╔══██╗██╔════╝
    ██║  ██║█████╗  █████╗  ██████╔╝██║     ██║   ██║██║  ██║█████╗
    ██║  ██║██╔══╝  ██╔══╝  ██╔═══╝ ██║     ██║   ██║██║  ██║██╔══╝
    ██████╔╝███████╗███████╗██║     ╚██████╗╚██████╔╝██████╔╝███████╗
    ╚═════╝ ╚══════╝╚══════╝╚═╝      ╚═════╝ ╚═════╝ ╚═════╝ ╚══════╝
HKUDS%2FDeepCode | Trendshift

DeepCode Logo DeepCode: 开放式智能体编程

利用多智能体系统推动代码生成

🖥️ 界面展示

🖥️ CLI 界面

基于终端的开发

CLI 界面演示
🚀 高级终端体验
⚡ 快速命令行工作流
🔧 开发者友好的界面
📊 实时进度跟踪

面向高级用户和 CI/CD 集成的专业终端界面

🌐 Web 界面

可视化交互体验

Web 界面演示
🎨 现代 Web 仪表盘
🖱️ 直观的拖放操作
📱 响应式设计
🎯 可视化的进度跟踪

适用于所有技能水平、流程简化的精美网页界面


🎬 介绍视频

🎯 观看我们的完整介绍 - 了解 DeepCode 如何将科研论文和自然语言转化为可投入生产的代码

观看视频


"让 AI 助手将创意转化为生产就绪的代码的地方"


📑 目录


📰 新闻

🎉 [2026-02] nanobot ✖️ DeepCode。只需与 openclaw/nanobot 自然对话,即可处理您的编码任务:

DeepCode

nanobot
  • nanobot 现在为您的代理式编码与工程提供支持! 🤖💻
  • 远离你的笔记本电脑——让编程体验更加酷炫!直接用手机编写代码吧! 📱✨
  • 一键部署:./nanobot/run_nanobot.sh设置指南 →
Feishu 聊天示例 1 Feishu 聊天示例 2
Feishu 机器人实战 — 自然语言 → 完整代码生成及部署说明

🎉 [2026-02] 全新 Web UI 体验升级!

  • 🔄 用户参与式交互:支持工作流中的实时用户互动——AI 会在聊天中直接提出澄清问题。
  • 💬 内联交互设计:交互提示会自然地出现在聊天流程中,带来无缝的使用体验。
  • 🚀 一键启动:只需运行 deepcode 即可启动新界面(跨平台:Windows/macOS/Linux)。
  • 🔧 改进的进程管理:增强的服务启停机制,自动清理端口。
  • 📡 WebSocket 实时通信:解决了消息丢失问题,确保交互状态同步无误。
DeepCode 新 UI
DeepCode 新 Web UI - 现代化的 React 基础界面

🎉 [2025-10-28] DeepCode 在 PaperBench 上取得 SOTA 成绩!

DeepCode 在 OpenAI 的 PaperBench Code-Dev 测试中,在所有类别上都创造了新的标杆:

  • 🏆 超越人类专家75.9%(DeepCode)对比顶尖机器学习博士的 72.4%(+3.5%)。
  • 🥇 优于现有最佳商用代码助手84.8%(DeepCode)对比领先商用代码助手(Cursor、Claude Code 和 Codex)的 58.7%(+26.1%)。
  • 🔬 推动科学编码进步73.5%(DeepCode)对比 PaperCoder 的 51.1%(+22.4%)。
  • 🚀 击败 LLM 助手73.5%(DeepCode)对比最佳 LLM 框架的 43.3%(+30.2%)。

🚀 核心功能


🚀 Paper2Code

算法徽章

复杂算法的自动化实现

轻松地将科研论文中的复杂算法转化为高质量生产就绪的代码,加速算法复现。

🎨 Text2Web

前端徽章


我们在 PaperBench 基准测试上评估了 DeepCode(由 OpenAI 发布),这是一个严格的测试平台,要求 AI 代理从零开始独立复现 20 篇 ICML 2024 论文。该基准包含 8,316 个可评分组件,使用 SimpleJudge 并结合层次化权重进行评估。

我们的实验将 DeepCode 与四个基线类别进行了对比:(1) 人类专家(2) 最先进的商用代码代理(3) 科学代码代理(4) 基于大语言模型的代理

① 🧠 人类专家表现(顶尖机器学习博士)

DeepCode: 75.9% vs. 顶尖机器学习博士: 72.4% (+3.5%)

在针对 3 篇论文的人工评估子集中,DeepCode 达到了 75.9%比三名人类专家中的最佳表现(72.4%)高出 3.5 个百分点。这表明我们的框架不仅达到了专家级别的代码复现能力,还超越了这一水平,标志着自主科学软件工程领域的一个重要里程碑。

② 💼 最先进的商用代码代理

DeepCode: 84.8% vs. 最佳商用代理: 58.7% (+26.1%)

在 5 篇论文的子集上,DeepCode 显著优于领先的商用编码工具:

  • Cursor: 58.4%
  • Claude Code: 58.7%
  • Codex: 40.0%
  • DeepCode: 84.8%

这相比领先的商用代码代理提高了 26.1%。所有商用代理均使用 Claude Sonnet 4.5 或 GPT-5 Codex-high 模型,这凸显出驱动这一性能差距的是 DeepCode 的优越架构,而非基础模型的能力。

③ 🔬 科学代码代理

DeepCode: 73.5% vs. PaperCoder: 51.1% (+22.4%)

与最先进的科学代码复现框架 PaperCoder(51.1%)相比,DeepCode 达到了 73.5%,展示了 22.4% 的相对提升。这一显著优势验证了我们采用规划、层次化任务分解、代码生成和迭代调试相结合的多模块架构,相较于简单的流水线式方法更具优势。

④ 🤖 基于大语言模型的代理

DeepCode: 73.5% vs. 最佳 LLM 代理: 43.3% (+30.2%)

DeepCode 明显优于所有测试过的 LLM 代理:

  • Claude 3.5 Sonnet + IterativeAgent: 27.5%
  • o1 + IterativeAgent(36 小时): 42.4%
  • o1 BasicAgent: 43.3%
  • DeepCode: 73.5%

相比表现最好的 LLM 代理,30.2% 的提升表明,对于复杂的代码复现任务,关键在于精巧的代理架构设计,而非延长推理时间或使用更大规模的模型。


🎯 自主自协调的多智能体架构

面临的挑战

  • 📄 实现复杂性:将学术论文和复杂算法转化为可运行的代码需要大量的技术投入和领域专业知识。

  • 🔬 研究瓶颈:研究人员不得不花费宝贵的时间来实现算法,而不是专注于核心研究和发现工作。

  • ⏱️ 开发延迟:产品团队在概念阶段与可测试原型之间往往经历漫长的等待,从而拖慢创新周期。

  • 🔄 重复性编码:开发者反复实现相似的模式和功能,而无法基于现有解决方案进行构建。

DeepCode 通过为常见开发任务提供可靠的自动化支持,解决了这些工作流低效问题,从而简化您的开发流程,从概念到代码一气呵成。

flowchart LR
    A["📄 研究论文<br/>💬 文本提示<br/>🌐 URLs & 文档<br/>📎 文件:PDF、DOC、PPTX、TXT、HTML"] --> B["🧠 DeepCode<br/>多智能体引擎"]
    B --> C["🚀 算法实现 <br/>🎨 前端开发 <br/>⚙️ 后端开发"]

    style A fill:#ff6b6b,stroke:#c0392b,stroke-width:2px,color:#000
    style B fill:#00d4ff,stroke:#0984e3,stroke-width:3px,color:#000
    style C fill:#00b894,stroke:#00a085,stroke-width:2px,color:#000

🏗️ 架构

📊 系统概述

DeepCode 是一个由 AI 驱动的开发平台,能够自动完成代码生成和实现任务。我们的多智能体系统可以处理将需求转化为功能完善、结构良好的代码这一复杂过程,使您能够专注于创新,而非实现细节。

🎯 技术能力

🧬 从研究到生产的工作流
多模态文档分析引擎,可以从学术论文中提取算法逻辑和数学模型。在保持计算复杂度特性的同时,生成具有适当数据结构的优化实现。

🪄 自然语言代码合成
基于微调语言模型的上下文感知代码生成,训练数据来自精选的代码仓库。能够在跨模块间保持架构一致性,并支持多种编程语言和框架。

自动化原型引擎
智能脚手架系统,能够生成包括数据库模式、API 端点和前端组件在内的完整应用结构。利用依赖关系分析确保从初始生成起就具备可扩展的架构。

💎 质量保证自动化
集成静态分析、自动化单元测试生成和文档合成功能。采用 AST 分析确保代码正确性,并通过基于属性的测试实现全面覆盖。

🔮 CodeRAG 集成系统
先进的检索增强生成技术,结合语义向量嵌入与基于图的依赖关系分析。能够从大规模代码库中自动发现最优的库和实现模式。


🔧 核心技术

  • 🧠 智能编排代理:中央决策系统,负责协调工作流各阶段并分析需求。采用动态规划算法,根据项目复杂度的变化实时调整执行策略。为每个实现步骤动态选择最优处理方案。

  • 💾 高效内存机制:先进的上下文工程系统,能够高效管理大规模代码上下文。实施分层内存结构,并结合智能压缩技术以应对复杂代码库。该组件可实现对实现模式的即时检索,并在长时间的开发会话中保持语义连贯性。

  • 🔍 高级 CodeRAG 系统:全局代码理解引擎,能够分析跨代码库的复杂依赖关系。通过跨代码库的关系映射,从整体视角理解架构模式。该模块利用依赖图和语义分析,在实现过程中提供全局视角下的代码建议。


🤖 DeepCode 的多智能体架构

  • 🎯 中央协调智能体:协调整个工作流的执行并做出战略决策。根据输入复杂度分析,协调各专业智能体的工作。实施动态任务规划和资源分配算法。

  • 📝 意图理解智能体:对用户需求进行深度语义分析,以解析复杂的意图。通过先进的自然语言处理技术提取功能规范和技术约束。将模糊的人类描述转化为精确、可执行的开发规范,并进行结构化的任务分解。

  • 📄 文档解析智能体:利用先进的解析能力处理复杂的技术文档和研究论文。使用文档理解模型提取算法和方法论。通过智能内容分析,将学术概念转化为实际的实现规范。

  • 🏗️ 代码规划智能体:进行架构设计和技术栈优化。动态规划适应性开发路线图。通过自动选择设计模式来执行编码标准并生成模块化结构。

  • 🔍 代码参考挖掘智能体:通过智能搜索算法发现相关的代码库和框架。分析代码库的兼容性和集成潜力。基于相似度指标和自动化依赖分析提供推荐。

  • 📚 代码索引智能体:构建已发现代码库的综合知识图谱。维护代码组件之间的语义关系。实现智能检索和交叉引用功能。

  • 🧬 代码生成智能体:将收集到的信息综合成可执行的代码实现。创建功能接口并集成已发现的组件。生成全面的测试套件和文档,以确保可重复性。


🛠️ 实施工具矩阵

🔧 基于 MCP(模型上下文协议)

DeepCode 利用 模型上下文协议 (MCP) 标准,与各种工具和服务无缝集成。这种标准化的方法确保了 AI 智能体与外部系统之间的可靠通信,从而实现强大的自动化能力。

📡 MCP 服务器及工具
🛠️ MCP 服务器 🔧 主要功能 💡 用途与能力
🔍 brave 网络搜索引擎 通过 Brave Search API 实时获取信息
🌐 bocha-mcp 替代搜索引擎 具有独立 API 访问权限的次要搜索选项
📂 filesystem 文件系统操作 本地文件和目录管理,读写操作
🌐 fetch 网页内容获取 从 URL 和网络资源中抓取并提取内容
📥 github-downloader 代码库管理 克隆和下载 GitHub 代码库以供分析
📋 file-downloader 文档处理 下载并转换文件(PDF、DOCX 等)为 Markdown 格式
⚡ command-executor 系统命令执行 执行 bash/shell 命令以进行环境管理
🧬 code-implementation 代码生成中心 综合性的代码复现,包含执行和测试
📚 code-reference-indexer 智能代码搜索 对代码仓库进行智能索引和搜索
📄 document-segmentation 智能文档分析 针对大型论文和技术文档的智能文档分割
🔧 遗留工具功能 (供参考)
🛠️ 功能 🎯 使用场景
📄 read_code_mem 从内存中高效检索代码上下文
✍️ write_file 直接生成和修改文件内容
🐍 execute_python Python 代码的测试和验证
📁 get_file_structure 项目结构分析和组织
⚙️ set_workspace 动态工作区和环境配置
📊 get_operation_history 流程监控和操作跟踪

🎛️ 多接口框架
提供 RESTful API、命令行界面以及带有实时代码流、交互式调试功能的 Web 前端,并具备可扩展的插件架构,便于与 CI/CD 集成。

🚀 多智能体智能流水线:

🌟 智能处理流程

💡 输入层
📄 研究论文 • 💬 自然语言 • 🌐 URL • 📋 需求
🎯 中央协调
战略决策 • 工作流协调 • 代理管理
📝 文本分析
需求处理
📄 文档分析
论文与规格处理
📋 复现计划
深度论文分析 • 代码需求解析 • 复现策略制定
🔍 参考分析
仓库发现
📚 代码索引
知识图谱构建
🧬 代码实现
实现生成 • 测试 • 文档编写
输出交付
📦 完整代码库 • 🧪 测试套件 • 📚 文档 • 🚀 部署就绪

🔄 流程智能特性

🎯 自适应流程

根据输入复杂度动态选择代理

🧠 智能协调

智能任务分配与并行处理

🔍 上下文感知

通过 CodeRAG 集成实现深度理解

⚡ 质量保证

全程自动化测试与验证


🚀 快速入门

📋 先决条件

在安装 DeepCode 之前,请确保您已具备以下条件:

要求 版本 用途
Python 3.9+ 核心运行时
Node.js 18+ 新 UI 前端
npm 8+ 包管理
# 检查您的版本
python --version   # 应为 3.9+
node --version     # 应为 18+
npm --version      # 应为 8+
📥 安装 Node.js(如未安装)
# macOS(使用 Homebrew)
brew install node

# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs

# Windows
# 从 https://nodejs.org/ 下载

📦 步骤 1:安装

请选择以下任一安装方式:

直接安装(推荐)

# 🚀 直接安装 DeepCode 包
pip install deepcode-hku

# 🔑 下载配置文件
curl -O https://raw.githubusercontent.com/HKUDS/DeepCode/main/mcp_agent.config.yaml
curl -O https://raw.githubusercontent.com/HKUDS/DeepCode/main/mcp_agent.secrets.yaml

🔧 开发安装(从源码)

📂 点击展开开发安装选项
🔥 使用 UV(推荐用于开发)
git clone https://github.com/HKUDS/DeepCode.git
cd DeepCode/

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv --python=3.13
source .venv/bin/activate  # 在 Windows 上:.venv\Scripts\activate
uv pip install -r requirements.txt

# 安装前端依赖
npm install --prefix new_ui/frontend
🐍 使用传统 pip
git clone https://github.com/HKUDS/DeepCode.git
cd DeepCode/

pip install -r requirements.txt

# 安装前端依赖
npm install --prefix new_ui/frontend

🔧 步骤 2:配置

以下配置适用于 所有安装方法(pip、UV、源码和 Docker)。

🔑 API 密钥 (必需)

编辑 mcp_agent.secrets.yaml,填入您的 API 密钥:

# 至少需要一个提供商的 API 密钥
openai:
  api_key: "your_openai_api_key"
  base_url: "https://openrouter.ai/api/v1"  # 可选:用于 OpenRouter 或自定义端点

anthropic:
  api_key: "your_anthropic_api_key"  # 用于 Claude 模型

google:
  api_key: "your_google_api_key"     # 用于 Gemini 模型

🤖 LLM 提供商 (可选)

编辑 mcp_agent.config.yaml,选择您偏好的 LLM 提供商(约第 106 行):

# 选项: "google", "anthropic", "openai"
# 如果未设置或不可用,则会自动回退到首个可用的提供商
llm_provider: "google"

🔍 搜索 API 密钥 (可选)

mcp_agent.config.yaml 中配置网页搜索:


# 对于 Brave Search(默认)—— 在 brave.env 部分设置(第 28 行左右)
brave:
  env:
    BRAVE_API_KEY: "your_brave_api_key_here"

# 对于 Bocha-MCP(替代方案)—— 在 bocha-mcp.env 部分设置(第 74 行左右)
bocha-mcp:
  env:
    BOCHA_API_KEY: "your_bocha_api_key_here"

📄 文档分割 (可选)

mcp_agent.config.yaml 中控制文档处理:

document_segmentation:
  enabled: true          # true/false — 是否启用智能文档分割
  size_threshold_chars: 50000  # 触发分割的文档大小阈值
🪟 Windows 用户:额外的 MCP 服务器配置

如果您使用的是 Windows,可能需要在 mcp_agent.config.yaml 中手动配置 MCP 服务器:

# 1. 全局安装 MCP 服务器
npm i -g @modelcontextprotocol/server-brave-search
npm i -g @modelcontextprotocol/server-filesystem

# 2. 查找您的全局 node_modules 路径
npm -g root

然后更新您的 mcp_agent.config.yaml 文件以使用绝对路径:

mcp:
  servers:
    brave:
      command: "node"
      args: ["C:/Program Files/nodejs/node_modules/@modelcontextprotocol/server-brave-search/dist/index.js"]
    filesystem:
      command: "node"
      args: ["C:/Program Files/nodejs/node_modules/@modelcontextprotocol/server-filesystem/dist/index.js", "."]

注意:请将路径替换为您在步骤 2 中找到的实际全局 node_modules 路径。

🔍 搜索服务器配置(可选)

DeepCode 支持多种用于网络搜索功能的搜索服务器。您可以在 mcp_agent.config.yaml 中配置首选选项:

# 默认搜索服务器配置
# 选项:“brave” 或 “bocha-mcp”
default_search_server: "brave"

可用选项:

  • 🔍 Brave Search ("brave"): 默认选项,提供高质量的搜索结果。需要 BRAVE_API_KEY。推荐大多数用户使用。
  • 🌐 Bocha-MCP ("bocha-mcp"): 替代搜索服务器。需要 BOCHA_API_KEY。使用本地 Python 服务器实现。

mcp_agent.config.yaml 中完整的 MCP 服务器配置:

# 对于 Brave Search(默认)—— 大约第 28 行
brave:
  command: "npx"
  args: ["-y", "@modelcontextprotocol/server-brave-search"]
  env:
    BRAVE_API_KEY: "your_brave_api_key_here"

# 对于 Bocha-MCP(替代方案)—— 大约第 74 行
bocha-mcp:
  command: "python"
  args: ["tools/bocha_search_server.py"]
  env:
    PYTHONPATH: "."
    BOCHA_API_KEY: "your_bocha_api_key_here"

💡 提示:两种搜索服务器都需要配置 API 密钥。请选择最适合您 API 访问权限和需求的选项。

步骤 3:启动应用

选择您 preferred 的启动方式:

🐳 Docker(推荐) 🚀 本地(`deepcode` 命令) 🛠️ 其他方法

无需 Python/Node——一切都在容器中。

git clone https://github.com/HKUDS/DeepCode.git
cd DeepCode/
cp mcp_agent.secrets.yaml.example \
   mcp_agent.secrets.yaml
# 使用您的 API 密钥编辑密钥文件

./deepcode_docker/run_docker.sh
# 访问 → http://localhost:8000

首次运行时会自动安装依赖项。

deepcode
# 前端 → http://localhost:5173
# 后端 → http://localhost:8000
# 按 Ctrl+C 停止

特点:用户参与循环、实时进度、内联聊天。

# macOS / Linux
./run.sh
# 或:python deepcode.py

# Windows
run.bat
# 或:python deepcode.py

# 经典 Streamlit 界面
deepcode --classic

# CLI 模式
deepcode --cli
# 或:python cli/main_cli.py
🐳 Docker 管理命令
./deepcode_docker/run_docker.sh stop      # 停止
./deepcode_docker/run_docker.sh restart   # 重启(配置更改无需重新构建)
./deepcode_docker/run_docker.sh --build   # 强制重新构建
./deepcode_docker/run_docker.sh logs      # 实时日志
./deepcode_docker/run_docker.sh status    # 健康检查
./deepcode_docker/run_docker.sh clean     # 移除容器和镜像

或者直接使用 Docker Compose:

docker compose -f deepcode_docker/docker-compose.yml up --build   # 构建并启动
docker compose -f deepcode_docker/docker-compose.yml down         # 停止
docker compose -f deepcode_docker/docker-compose.yml logs -f      # 日志

💡 配置文件作为卷挂载——编辑后重启即可,无需重新构建。 💡 Windows 用户:如果 shell 脚本不可用,请直接运行 docker compose 命令。

🎯 步骤 4:生成代码

  1. 📄 输入 — 上传研究论文、输入需求或粘贴 URL
  2. 🤖 处理 — 多智能体系统进行分析、规划和生成
  3. ⚡ 输出 — 获得带有测试和文档的生产就绪代码

🔧 故障排除

❓ 常见问题及解决方案
问题 原因 解决方法
Docker 构建失败,提示 tsc: not found 构建缓存损坏 运行 docker builder prune -f,然后使用 --no-cache 重新构建
error during connect / cannot find the file Docker Desktop 未运行 启动 Docker Desktop,等待其准备就绪后重试
前端空白页 node_modules 损坏 cd new_ui/frontend && rm -rf node_modules && npm install
ERR_CONNECTION_REFUSED 端口错误 / 后端未运行 Docker:http://localhost:8000。本地:http://localhost:5173
npm installCould not read package.json 目录错误 使用 npm install --prefix new_ui/frontend
Windows:MCP 服务器无法工作 需要绝对路径 参阅上方的 Windows MCP 配置

🤖 nanobot 集成(飞书聊天机器人)

通过 Feishu 与 DeepCode 聊天 —— 由 nanobot 提供支持。

flowchart LR
    subgraph Clients["💬 聊天平台"]
        direction TB
        F["<b>Feishu</b><br/>WebSocket"]
        T["<b>Telegram</b><br/>Polling"]
        D["<b>Discord</b><br/>Gateway"]
    end

    subgraph Gateway["🐈 nanobot 网关"]
        direction TB
        A["代理循环<br/><i>LLM + 工具调用</i>"]
    end

    subgraph Engine["🧠 DeepCode 引擎"]
        direction TB
        P2C["论文 → 代码"]
        C2C["聊天 → 代码"]
        TRK["任务跟踪"]
    end

    F & T & D <-->|"消息"| A
    A -->|"HTTP API"| P2C & C2C & TRK
    A -.->|"LLM API"| LLM["☁️ OpenRouter"]

    style Clients fill:#1a1a2e,stroke:#00d9ff,color:#fff
    style Gateway fill:#1a1a2e,stroke:#4ecdc4,color:#fff
    style Engine fill:#1a1a2e,stroke:#ff6b6b,color:#fff
    style LLM fill:#1a1a2e,stroke:#9b59b6,color:#fff
DeepCode

nanobot

这两个服务运行在同一套 Docker Compose 网络中。先决条件:Docker Desktop + OpenRouter API 密钥获取密钥)+ Feishu 应用程序


步骤 1 · 创建 Feishu 机器人

Feishu / Lark(推荐 — WebSocket,无需公网 IP)
  1. 前往 Feishu 开放平台创建自定义应用
  2. 在应用功能中启用 机器人 功能
  3. 添加权限:im:message · im:message:send_as_bot
  4. 事件订阅 → 选择 长连接 → 添加 im.message.receive_v1
  5. 记下你的 App ID (cli_xxx) 和 App Secret → 发布应用

注意:Feishu 要求在保存“长连接”模式之前必须先建立有效的 WebSocket 连接。请先启动 nanobot(步骤 3),然后再回来配置事件订阅。

步骤 2 · 配置

cp nanobot_config.json.example nanobot_config.json

编辑 nanobot_config.json 文件,填写以下 3 个必填字段:

{
  "channels": {
    "feishu": {
      "enabled": true,
      "appId": "cli_xxx",              // ← Feishu App ID
      "appSecret": "xxx",              // ← Feishu App Secret
      "allowFrom": []                  // [] = 允许所有用户
    }
  },
  "providers": {
    "openrouter": {
      "apiKey": "sk-or-v1-xxx"         // ← OpenRouter API 密钥
    }
  },
  "agents": {
    "defaults": {
      "model": "anthropic/claude-sonnet-4-20250514"
    }
  }
}

模型选择:可在 openrouter.ai/models 上选择任意模型。英语使用 anthropic/claude-sonnet-4-20250514,中文则使用 minimax/minimax-m2.1


步骤 3 · 启动

确保 mcp_agent.secrets.yaml 中已填写你的 DeepCode API 密钥(参见【步骤 2 · 配置】),然后执行以下命令:

./nanobot/run_nanobot.sh -d          # 在后台同时启动 DeepCode 和 nanobot

该脚本会检查 Docker 环境、验证配置文件、构建镜像(仅首次运行时),并启动两个容器。

✓ DeepCode API:  http://localhost:8000
✓ Nanobot:       http://localhost:18790

现在打开 Feishu → 找到你的机器人 → 发送一条消息吧!

管理命令
./nanobot/run_nanobot.sh              # 前台启动
./nanobot/run_nanobot.sh -d           # 后台启动
./nanobot/run_nanobot.sh stop         # 停止所有服务
./nanobot/run_nanobot.sh restart      # 重启(配置更改立即生效)
./nanobot/run_nanobot.sh --build      # 强制重建 Docker 镜像
./nanobot/run_nanobot.sh logs         # 查看实时日志
./nanobot/run_nanobot.sh status       # 健康检查
./nanobot/run_nanobot.sh clean        # 移除容器和镜像
故障排除
问题 解决方法
Feishu 机器人无响应 检查日志(./nanobot/run_nanobot.sh logs),确认 appId/appSecret 是否正确,并确保应用已发布且启用了长连接模式
无法连接到 DeepCode 确认 deepcode 容器是否正常运行:curl http://localhost:8000/health
输出语言错误 更换模型 —— minimax-m2.1 默认为中文,若需英文则使用 Claude/GPT
配置未生效 直接重启:./nanobot/run_nanobot.sh restart(无需重新构建)
清除聊天记录 在聊天中发送 /clear,或执行:docker exec nanobot sh -c 'rm -rf /root/.nanobot/sessions/*.jsonl'

💡 示例

🎬 现场演示

📄 Paper2Code 演示

从研究到实现

Paper2Code 演示

▶️ 观看演示

自动将学术论文转化为可投入生产的代码

🖼️ 图像处理演示

AI 驱动的图像工具

图像处理演示

▶️ 观看演示

智能图像处理,包括背景移除和增强

🌐 前端实现

完整的 Web 应用

前端演示

▶️ 观看演示

从概念设计到部署的全栈 Web 开发

🆕 近期更新

📄 智能文档分割(v1.2.0)

  • 智能处理:自动处理超出 LLM 令牌限制的大篇幅科研论文和技术文档
  • 可配置控制:通过配置大小阈值来切换分割功能
  • 语义分析:先进的内容理解技术,能够保留算法、概念和公式
  • 向后兼容性:对于较小的文档,可无缝回退到传统处理方式

🚀 即将推出

我们正不断为 DeepCode 增加令人兴奋的新功能:

🔧 增强的代码可靠性和验证

  • 自动化测试:全面的功能测试,包含执行验证和错误检测。
  • 代码质量保证:通过静态分析、动态测试和性能基准测试进行多层级验证。
  • 智能调试:基于 AI 的错误检测,并提供自动修复建议。

📊 PaperBench 性能展示

  • 基准测试仪表板:涵盖 PaperBench 评估套件的全面性能指标。
  • 准确率指标:与最先进论文复现系统的详细对比。
  • 成功分析:按论文类别和复杂度水平进行统计分析。

系统级优化

  • 性能提升:多线程处理和优化的代理协调机制,实现更快的生成速度。
  • 推理能力增强:具备更强大的上下文理解能力,推理水平进一步提升。
  • 扩展支持:增加对更多编程语言和框架的支持。

⭐ 星标历史

社区增长轨迹

星标历史图表

🚀 准备好变革开发了吗?

开始使用 在 GitHub 查看 给项目加星


📖 引用

如果您在研究或应用中使用了 DeepCode,请引用以下内容:

@misc{li2025deepcodeopenagenticcoding,
      title={DeepCode: 开放式智能体编码},
      author={Zongwei Li 和 Zhonghang Li 和 Zirui Guo 和 Xubin Ren 和 Chao Huang},
      year={2025},
      eprint={2512.07921},
      archivePrefix={arXiv},
      primaryClass={cs.SE},
      url={https://arxiv.org/abs/2512.07921},
}

📄 许可证

MIT 许可证

MIT 许可证 - 版权所有 © 2025 香港大学数据智能实验室


访问量

版本历史

v1.2.02026/02/11
v1.1.02026/02/09
v1.0.92026/02/04
v1.0.82025/11/19
v1.0.72025/11/18
v1.0.62025/11/10
v1.0.52025/10/02
v1.0.42025/08/08
v1.0.32025/07/25
v1.0.22025/07/23
v1.0.12025/07/21
v1.0.02025/07/21

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|4天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|5天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

149.5k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|今天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|昨天
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|4天前
语言模型图像Agent