claude-delegator
claude-delegator 是一款专为 Claude Code 设计的智能插件,它能让 Claude 直接调用 Codex(GPT)或 Gemini 模型中的专家子代理来协助完成复杂任务。简单来说,它相当于为 Claude 组建了一支由五位领域专家构成的虚拟团队,涵盖系统架构、方案评审、范围分析、代码审查及安全分析等核心职能。
该工具主要解决了单一模型在处理高难度、多维度技术问题时可能存在的视角局限或专业深度不足的问题。当开发者面临复杂的架构决策、陷入调试僵局、需要预验证实施方案或关注代码安全性时,claude-delegator 能自动识别意图,将任务精准路由给最匹配的专家模型进行处理,最后由 Claude 综合各方意见输出高质量结论,而非简单转发原始回复。
这款软件非常适合专业软件开发者和工程团队使用,尤其是那些对代码质量、系统稳定性和安全性有较高要求的技术人员。其独特亮点在于支持“双模式”运作:专家既可提供只读的分析建议,也能直接参与代码实施;同时具备自动路由机制和多轮对话上下文保持能力,确保在链式任务中逻辑连贯。通过原生 MCP 协议集成,用户无需切换环境即可在 Claude Code 内部享受多模型协同带来的效率提升。
使用场景
某后端工程师正在重构一个高并发的电商订单系统,需要在引入新缓存架构前确保方案的安全性与合理性。
没有 claude-delegator 时
- 视角单一:仅依赖 Claude 自身的通用知识库,难以获得针对特定领域(如深层安全漏洞或复杂架构权衡)的专家级洞察。
- 流程割裂:发现潜在风险后,需手动复制代码到外部工具或切换上下文去咨询其他模型,打断开发心流。
- 验证成本高:在编写代码前缺乏自动化的“计划审查”机制,往往等到实现完成后才发现设计缺陷,导致返工。
- 盲点难除:对于自身知识盲区的需求范围(Scope),容易因定义模糊而遗漏关键边界条件,埋下隐患。
使用 claude-delegator 后
- 专家协同:Claude 自动识别需求,瞬间调用"Security Analyst"和"Architect"子代理,直接提供深度的威胁建模与架构取舍分析。
- 无缝流转:在同一个对话窗口内,任务被自动路由给 Codex 或 Gemini 专家处理,无需人工干预即可获取多模型视角的综合建议。
- 前置风控:通过"Plan Reviewer"在编码前预先验证迁移方案的可行性,将错误拦截在蓝图阶段,大幅降低试错成本。
- 精准定界:"Scope Analyst"主动识别需求中的模糊地带并澄清范围,确保后续实施无遗漏,提升交付质量。
claude-delegator 通过将单一助手升级为多专家协作团队,让开发者在保持流畅心流的同时,获得企业级的架构与安全决策支持。
运行环境要求
- 未说明 (基于 Node.js 和 CLI 工具,通常支持 Linux
- macOS
- Windows)
不需要
未说明

快速开始
克劳德委托者
用于 Claude Code 的 GPT 专家子代理。五位专家可分析并实施——架构、安全、代码审查等。

安装
在 Claude Code 实例中,运行以下命令:
步骤 1:添加市场
/plugin marketplace add jarrodwatts/claude-delegator
步骤 2:安装插件
/plugin install claude-delegator
步骤 3:运行设置
/claude-delegator:setup
完成!现在,Claude 会自动将复杂任务路由给 GPT 专家。
注意:需要 Codex CLI 或 Gemini CLI。设置过程会引导您完成安装。
什么是克劳德委托者?
通过原生 MCP,Claude 获得了一支由 GPT 和 Gemini 专家组成的团队。每位专家都有独特的专长,既可以提供建议,也可以直接实施。
注意:您可以使用 GPT 或 Gemini 中的任意一个提供商,也可以同时使用两者。插件会自动检测已配置的提供商,并相应地路由任务。
| 您获得的内容 | 为什么重要 |
|---|---|
| 5 位领域专家 | 针对每种问题类型配备合适的专家 |
| GPT 或 Gemini | 使用您偏好的模型提供商 |
| 双模式 | 专家可以进行分析(只读)或实施(写入) |
| 自动路由 | Claude 会根据您的请求判断何时委派 |
| 综合响应 | Claude 会解读专家输出,绝不会直接传递原始结果 |
专家们
| 专家 | 他们的职责 | 示例触发条件 |
|---|---|---|
| 架构师 | 系统设计、权衡取舍、复杂调试 | “我该如何构建这个系统?” / “有哪些权衡?” |
| 方案评审员 | 在开始前验证计划 | “请评审这个迁移方案” / “这种方法是否可行?” |
| 范围分析师 | 提前发现模糊之处 | “我还有什么遗漏吗?” / “请明确一下范围。” |
| 代码审查员 | 查找错误、提升质量 | “请评审这个 PR” / “这里有什么问题?” |
| 安全分析师 | 漏洞检测、威胁建模 | “这段代码安全吗?” / “加固这个接口。” |
专家最能提供帮助的情况
- 架构决策 — “我应该使用 Redis 还是内存缓存?”
- 陷入困境的调试 — 尝试两次以上仍无法解决时,获取新的视角
- 实施前 — 在编写代码之前验证您的计划
- 安全顾虑 — “这个认证流程安全吗?”
- 代码质量 — 为您的实现寻求第二意见
不应使用专家的情况
- 简单的文件操作(Claude 可以直接处理)
- 第一次尝试修复问题(先自己试试)
- 简单的问题(无需委派)
工作原理
您: “这个认证流程安全吗?”
↓
Claude: [检测到安全相关问题 → 选择安全分析师]
↓
┌───────────────────────────────┐
│ mcp__codex__codex │
│ (或 mcp__gemini__gemini) │
│ → 安全分析师提示 │
│ → 专家分析您的代码 │
└───────────────────────────────┘
↓
Claude: “根据分析结果,我发现 3 个问题……”
[综合响应,做出判断]
关键细节:
- 每位专家都有专门的系统提示词(位于
prompts/目录下) - Claude 读取您的请求 → 选择合适的专家 → 通过 MCP(GPT 或 Gemini)委派任务
- 响应经过综合处理,而非直接传递原始结果
- 专家最多可重试三次后再上报
- 多轮对话通过
threadId保留上下文,适用于链式任务
多轮对话
对于链式实施步骤,专家会在各轮之间保持上下文:
第 1 轮:mcp__*__* → 返回 threadId
第 2 轮:mcp__*__*-reply(threadId) → 专家记得第 1 轮的内容
第 3 轮:mcp__*__*-reply(threadId) → 专家记得第 1–2 轮的内容
对于咨询类任务,请使用单次调用(仅限 codex 或 gemini)。对于实施链条和重试任务,则应使用多轮调用。
配置
运行模式
每位专家都支持两种模式,具体取决于任务:
| 模式 | 沙盒环境 | 适用场景 |
|---|---|---|
| 咨询模式 | 只读 |
分析、建议、评审 |
| 实施模式 | 工作区写入 |
进行更改、修复问题 |
Claude 会根据您的请求自动选择模式。
配置默认值
您可以在 ~/.codex/config.toml 中设置全局默认值,而无需每次调用时都传递参数:
sandbox_mode = "workspace-write"
approval_policy = "on-failure"
每次调用时传递的参数会覆盖这些默认值。有关所有配置选项,请参阅 Codex CLI 文档。
手动 MCP 设置
如果 /setup 无法正常工作,您可以手动注册 MCP 服务器:
# 对于 Codex(GPT)
# 幂等性:可重复执行,安全无虞
claude mcp remove codex >/dev/null 2>&1 || true
claude mcp add --transport stdio --scope user codex -- codex -m gpt-5.3-codex mcp-server
# 对于 Gemini
# 幂等性:可重复执行,安全无虞
claude mcp remove gemini >/dev/null 2>&1 || true
claude mcp add --transport stdio --scope user gemini -- node ${CLAUDE_PLUGIN_ROOT}/server/gemini/index.js
验证方法如下:
claude mcp list
printf '{"jsonrpc":"2.0","id":"health","method":"initialize","params":{}}\n' | node ${CLAUDE_PLUGIN_ROOT}/server/gemini/index.js
自定义专家提示词
专家提示词位于 prompts/ 目录中。每个提示词都遵循相同的结构:
- 角色定义与背景信息
- 咨询模式与实施模式
- 响应格式指南
- 何时调用 / 何时不调用
您可以编辑这些提示词,以根据自己的工作流程自定义专家行为。
要求
您至少需要配置以下其中一个提供商:
- Codex CLI(用于 GPT):
npm install -g @openai/codex - Gemini CLI(用于 Gemini):
npm install -g @google/gemini-cli
身份验证:
- Codex:运行
codex login - Gemini:运行一次
gemini并完成登录流程(或设置GOOGLE_API_KEY)
命令
| 命令 | 描述 |
|---|---|
/claude-delegator:setup |
配置 MCP 服务器并安装规则 |
/claude-delegator:uninstall |
移除 MCP 配置和规则 |
故障排除
| 问题 | 解决方案 |
|---|---|
| 找不到 MCP 服务器 | 设置完成后重启 Claude Code |
| 提供商未通过身份验证 | Codex:运行 codex login。Gemini:运行一次 gemini 完成登录(或设置 GOOGLE_API_KEY) |
| 工具未显示 | 运行 claude mcp list 并确认注册情况 |
| 专家未被触发 | 尝试明确指定:“请让 GPT 评审……”或“请让 Gemini 评审……” |
开发
git clone https://github.com/jarrodwatts/claude-delegator
cd claude-delegator
# 在本地测试,无需重新安装
claude --plugin-dir /path/to/claude-delegator
请参阅 CONTRIBUTING.md 获取贡献指南。
致谢
专家提示改编自 @code-yeongyu 的 oh-my-opencode。
许可证
MIT — 详见 LICENSE
星标历史
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
