agent-orchestrator
Agent Orchestrator 是一个专为并行 AI 编程助手设计的协调层,旨在让多个 AI 代理在你的代码库中高效协同工作。它核心解决了多任务并发开发中的管理难题:能够自动规划任务、为每个任务启动独立的 AI 代理,并自主处理持续集成(CI)失败、合并冲突以及代码审查意见,最终自动提交拉取请求。
这款工具特别适合需要提升研发效率的软件开发者和技术团队。通过引入 Agent Orchestrator,开发者只需在一个统一的仪表盘上进行监督,仅在需要人类判断的关键环节介入,从而将繁琐的修复和迭代工作交给 AI 完成。
其独特的技术亮点在于高度的灵活性与隔离性。首先,它为每个 AI 代理分配独立的 Git 工作树和分支,确保并行任务互不干扰;其次,它具备“三无关”特性——不绑定特定 AI 模型(支持 Claude Code、Codex、Aider 等)、不依赖特定运行环境(兼容 tmux、Docker)且适配多种项目追踪工具(如 GitHub、Linear)。这种设计使得团队可以灵活构建属于自己的自动化开发流水线,在保障代码质量的同时显著加速交付过程。
使用场景
某中型电商团队的后端负责人正面临季度末的大规模重构,需要同时处理 20 多个遗留模块的代码迁移与测试修复。
没有 agent-orchestrator 时
- 并行开发受阻:开发人员只能串行处理任务,或手动创建多个分支,极易产生代码冲突,导致合并耗时巨大。
- CI 失败响应慢:自动化测试一旦报错,开发者需中断手头工作去排查日志、修复代码并重新提交,上下文切换频繁。
- 代码审查积压:大量初级修改占用资深工程师时间进行重复性 Review,核心架构优化进度被严重拖延。
- 环境隔离困难:多人协作时本地环境不一致,复现问题成本高,且缺乏统一视角监控所有任务的实时状态。
使用 agent-orchestrator 后
- 全自动并行执行:agent-orchestrator 自动为每个重构任务生成独立的 Git Worktree 和分支,启动多个 AI Agent 并行编码,互不干扰。
- 自主修复 CI 错误:当流水线因测试失败阻断时,对应的 AI Agent 会自动分析日志、修正代码并重跑,无需人工介入。
- 智能处理评审意见:针对 PR 中的评论,Agent 能自动理解意图并更新代码,仅在遇到复杂逻辑歧义时才通知人类专家。
- 统一仪表盘监控:负责人只需在一个网页面板上查看所有任务的进度、状态和产出,从“救火队员”转变为真正的“监督者”。
agent-orchestrator 将原本需要数周的人海战术压缩至数天,让团队从繁琐的修修补补中解放出来,专注于高价值的架构决策。
运行环境要求
- macOS
- Linux
未说明
未说明

快速开始
Agent Orchestrator — 并行 AI 代理的编排层
Agent Orchestrator 负责管理在你的代码库上并行工作的 AI 编码代理集群。每个代理都有自己的 Git 工作树、分支和 PR。当 CI 测试失败时,代理会自动修复;当评审人员留下评论时,代理也会相应处理。只有在需要人工判断时,你才会被介入。
与代理无关(Claude Code、Codex、Aider)· 与运行时环境无关(tmux、Docker)· 与代码追踪工具无关(GitHub、Linear)
快速入门
先决条件: Node.js 20+、Git 2.25+、tmux、
ghCLI。可通过brew install tmux(macOS)或sudo apt install tmux(Linux)安装 tmux。
安装
npm install -g @aoagents/ao
权限不足?从源码安装吗?
如果 npm install -g 因 EACCES 错误而失败,请使用 sudo 前缀,或按照 npm 权限修复指南 进行操作。
若要从源码安装(适用于贡献者):
git clone https://github.com/ComposioHQ/agent-orchestrator.git
cd agent-orchestrator && bash scripts/setup.sh
启动
只需指向任意仓库,它就会在一个命令中完成克隆、配置并启动仪表板:
ao start https://github.com/your-org/your-repo
或者在现有的本地仓库中直接运行:
cd ~/your-project && ao start
仅此而已。仪表板将在 http://localhost:3000 打开,编排器代理也将开始管理你的项目。
添加更多项目
ao start ~/path/to/another-repo
工作原理
- 你启动——
ao start会启动仪表板和编排器代理。 - 编排器生成工作代理——每个问题都会在隔离的 Git 工作树中分配一个独立的代理。
- 代理自主工作——它们读取代码、编写测试并创建 PR。
- 反应机制处理反馈——CI 失败和评审意见会自动重新路由回代理。
- 你审查并合并——只有在需要人工判断时,你才会被介入。
编排器代理内部使用 AO CLI 来管理会话。你无需学习或使用 CLI——一切均由仪表板和编排器代理自动处理。
配置
ao start 会自动生成带有合理默认值的 agent-orchestrator.yaml 文件。你可以稍后编辑该文件以自定义行为:
# agent-orchestrator.yaml
# 运行时数据会自动存储在 ~/.agent-orchestrator/{hash}-{projectId}/ 目录下
port: 3000
defaults:
runtime: tmux
agent: claude-code
workspace: worktree
notifiers: [desktop]
projects:
my-app:
repo: owner/my-app
path: ~/my-app
defaultBranch: main
sessionPrefix: app
reactions:
ci-failed:
auto: true
action: send-to-agent
retries: 2
changes-requested:
auto: true
action: send-to-agent
escalateAfter: 30m
approved-and-green:
auto: false # 设置为 true 可实现自动合并
action: notify
CI 失败时,代理会获取日志并修复问题。评审人员提出修改要求时,代理会予以回应。当 PR 通过评审且 CI 测试绿色时,你会收到合并通知。
完整的参考文档请参阅 agent-orchestrator.yaml.example,或运行 ao config-help 查看完整架构。
远程访问
AO 在运行期间会让你的 Mac 保持唤醒状态,因此你可以远程访问仪表板(例如通过 Tailscale 从手机访问),而不会让设备进入睡眠模式。
工作原理: 在 macOS 上,AO 会自动使用 caffeinate 保持空闲防止睡眠的状态。当 AO 退出时,该状态将被释放。
# agent-orchestrator.yaml
power:
preventIdleSleep: true # macOS 默认开启,Linux 无操作
如果你希望 AO 运行时允许设备进入空闲睡眠状态,可将其设置为 false。
合盖限制: macOS 在硬件层面强制执行合盖睡眠——任何用户空间的声明都无法覆盖这一行为。如果你在旅途中需要在合盖状态下进行远程访问,可以使用 clamshell 模式(外接电源、显示器和输入设备)。
插件架构
七个插件槽位。生命周期由核心管理。
| 插件槽位 | 默认值 | 替代方案 |
|---|---|---|
| 运行时环境 | tmux | process |
| 代理 | claude-code | codex、aider、cursor、opencode |
| 工作空间 | worktree | clone |
| 代码追踪工具 | github | linear、gitlab |
| 版本控制系统 | github | gitlab |
| 通知方式 | desktop | slack、discord、composio、webhook、openclaw |
| 终端 | iterm2 | web |
所有接口均在 packages/core/src/types.ts 中定义。插件只需实现其中一个接口,并导出一个 PluginModule 即可。就这么简单。
为什么需要 Agent Orchestrator?
在终端中运行一个 AI 代理很简单。但如果要在不同的问题、分支和 PR 上同时运行 30 个代理,这就变成了一个协调难题。
如果没有编排工具,你需要手动完成以下工作:创建分支、启动代理、检查代理是否卡住、阅读 CI 失败信息、转发评审意见、跟踪哪些 PR 已经可以合并、并在完成后清理环境。
有了 Agent Orchestrator,你只需运行 ao start,然后就可以放手不管了。系统会自动处理隔离、反馈路由和状态跟踪等工作。你只需要评审 PR 并做出决策——其余的一切都由自动化完成。
文档
| 文档 | 涵盖内容 |
|---|---|
| 设置指南 | 详细的安装、配置和故障排除说明 |
| CLI 参考 | 所有 ao 命令(主要由编排代理使用) |
| 示例 | 配置模板(GitHub、Linear、多项目、自动合并) |
| 开发指南 | 架构、规范和插件模式 |
| 贡献指南 | 如何贡献、构建插件以及 PR 流程 |
开发
pnpm install && pnpm build # 安装并构建所有包
pnpm test # 运行测试(共 3,288 个测试用例)
pnpm dev # 启动 Web 控制台的开发服务器
代码规范和架构细节请参阅 docs/DEVELOPMENT.md。
贡献
欢迎贡献!通过插件系统,你可以轻松地为新的代理、运行时、追踪器和通知渠道添加支持。每个插件都是 TypeScript 接口的具体实现——有关模式详情,请参阅 CONTRIBUTING.md 和 开发指南。
许可证
MIT
版本历史
@composio/ao-cli@0.2.22026/03/29@composio/ao-web@0.2.22026/03/29@composio/ao@0.2.22026/03/29@composio/ao-cli@0.2.12026/03/26@composio/ao@0.2.12026/03/26@composio/ao-plugin-scm-gitlab@0.1.12026/03/21@composio/ao-web@0.2.02026/03/21@composio/ao-plugin-tracker-linear@0.2.02026/03/21@composio/ao-plugin-tracker-gitlab@0.1.12026/03/21@composio/ao-plugin-workspace-clone@0.2.02026/03/21@composio/ao-plugin-scm-github@0.2.02026/03/21@composio/ao-plugin-notifier-slack@0.2.02026/03/21@composio/ao-plugin-terminal-web@0.2.02026/03/21@composio/ao-plugin-terminal-iterm2@0.2.02026/03/21@composio/ao-plugin-notifier-webhook@0.2.02026/03/21@composio/ao-plugin-workspace-worktree@0.2.02026/03/21@composio/ao-plugin-tracker-github@0.2.02026/03/21@composio/ao-plugin-notifier-openclaw@0.1.12026/03/21@composio/ao-plugin-runtime-process@0.2.02026/03/21@composio/ao-plugin-agent-aider@0.2.02026/03/21常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器