hive
Hive 是一款专为生产环境打造的多智能体协作框架,旨在让复杂的 AI 任务自动化运行更稳定、高效。它解决了传统多智能体系统在长流程业务中容易出现的状态混乱、错误难恢复、缺乏监控等痛点,无需繁琐配置,只需定义目标,Hive 就能自动构建基于图结构的执行流程,协调多个专用智能体并行完成任务。
Hive 特别适合开发者和技术团队使用,尤其是那些希望将 AI 智能体应用于实际业务场景(如数据处理、网页操作、流程自动化)的人群。其独特亮点包括:支持动态生成多智能体拓扑结构、具备基于角色的持久化记忆机制、提供完整的状态可观测性与故障自愈能力,并兼容 OpenAI、Anthropic、Google Gemini 等多种大模型。此外,Hive 还支持“人在回路”(Human-in-the-Loop)机制,确保关键节点有人工干预的可能,提升系统可靠性。
无论是构建自动化工作流,还是探索多智能体协同的新应用,Hive 都能以零样板代码的方式,帮助团队快速部署可信赖的 AI 代理系统。
使用场景
某电商运营团队需要每日从全球数十个竞品网站抓取价格、库存及促销信息,并生成动态分析报告以调整定价策略。
没有 hive 时
- 流程脆弱易断:自定义编写的爬虫脚本一旦遇到网站结构微调或反爬机制,整个任务链即刻崩溃,需人工介入修复代码。
- 并发能力受限:串行执行导致处理上百个页面耗时数小时,无法在早会前产出最新数据,错失黄金调价窗口。
- 状态黑盒难溯:任务失败后难以定位是网络波动、解析错误还是模型幻觉,缺乏可视化的执行链路排查问题。
- 上下文丢失严重:多轮任务间无法共享历史数据,每次运行都是“从零开始”,无法基于过往趋势优化抓取策略。
使用 hive 后
- 自愈容错稳定:hive 自动构建基于图的执行拓扑,当某个代理节点因反爬失败时,系统自动切换代理 IP 或重试,无需人工干预。
- 高效并行处理:通过多智能体协同,hive 将数百个网站的抓取任务拆解为并行子任务,将原本数小时的流程压缩至十分钟完成。
- 全链路可观测:提供深度的状态观察面板,清晰展示每个智能体的决策路径、工具调用及中间状态,故障根因一目了然。
- 记忆持续进化:基于角色的持久化记忆让智能体记住特定网站的反爬规律和历史价格波动,随项目运行越用越聪明。
hive 将原本脆弱、缓慢且不可控的复杂数据工程,转化为具备自愈能力、实时响应且持续进化的自动化生产流。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
English | 简体中文 | Español | हिन्दी | Português | 日本語 | Русский | 한국어
面向生产级工作负载的智能体运行时框架——提供状态管理、故障恢复、可观测性以及人工监督功能,确保您的智能体真正落地运行。
概述
OpenHive 是一款无需任何配置、与模型无关的执行框架,能够动态生成多智能体拓扑结构,以高效处理复杂且长期运行的业务流程,而无需编写任何编排模板代码。用户只需定义目标,运行时便会自动生成一个严格的基于图的执行 DAG,安全协调各专业智能体并行执行任务。借助持久化的角色化内存,OpenHive 能够根据项目上下文智能演进,从而实现确定性的容错能力、深度的状态可观测性,以及在任意底层大语言模型上无缝进行异步执行。
特性
- ✅ 多智能体协同,支持并行任务执行
- ✅ 基于图的执行架构,适用于重复性和复杂流程
- ✅ 角色化内存,随项目进展动态演化
- ✅ 零配置——无需任何技术设置
- ✅ 支持通用计算及浏览器原生扩展使用
- ✅ 自定义模型支持
访问 adenhq.com 获取完整文档、示例和指南。
访问 HoneyComb 查看由 AI 自动化的各类工作。这是一个由社区 AI 智能体发展驱动的工作市场,您可以基于对某项工作被 AI 取代程度的判断,用计算代币“做多”或“做空”这些工作。
https://github.com/user-attachments/assets/bf10edc3-06ba-48b6-98ba-d069b15fb69d
Hive 适合哪些人群?
Hive 是一款用于将 AI 智能体从原型阶段推向生产环境的多智能体运行时框架。像 Openclaw 和 Cowork 这样的单体智能体虽然能很好地完成个人任务,但缺乏满足企业级业务流程所需的严谨性。
如果您符合以下条件,Hive 将非常适合您:
- 希望部署能够执行真实业务流程而非仅用于演示的 AI 智能体
- 需要一个能够在大规模场景下处理状态管理、故障恢复和并行执行的运行时框架
- 需要具备自我修复和自适应能力、能够持续优化的智能体
- 需要人工介入控制、可观测性以及成本约束
- 计划在生产环境中运行智能体,其中系统可用性、成本和可审计性至关重要
然而,如果您目前只是在试验简单的智能体链或一次性脚本,则 Hive 可能并不是最佳选择。
何时应该使用 Hive?
当瓶颈不再是模型本身,而是围绕模型的运行框架时,就该使用 Hive 了:
- 需要状态持久化和崩溃恢复的长期运行智能体
- 生产级工作负载需要成本控制、可观测性及审计追踪
- 智能体能够通过捕获故障并动态调整执行图来实现自我修复
- 多智能体协作需要会话隔离和共享缓冲区
- 您希望使用一个能够随着模型能力提升而扩展,而不是与其对抗的框架
快速链接
- 文档 — 完整指南和 API 参考
- 自托管指南 — 在您的基础设施上部署 Hive
- 更新日志 — 最新更新和发布版本
- 路线图 — 即将推出的功能和未来规划
- 报告问题 — Bug 报告和功能请求
- 贡献指南 — 如何参与贡献和提交 PR
快速入门
前置条件
- Python 3.11 或更高版本,用于智能体开发
- 一个为智能体提供支持的大语言模型提供商
- ripgrep(可选,Windows 推荐):
search_files工具使用 ripgrep 来加速文件搜索。如果未安装,将回退到 Python 实现。在 Windows 上:运行winget install BurntSushi.ripgrep或scoop install ripgrep
Windows 用户: 通过
quickstart.ps1和hive.ps1支持原生 Windows 环境。请在 PowerShell 5.1+ 中运行这些脚本。此外,WSL 也是一种选择,但并非必需。
安装
注意 Hive 使用
uv工作区布局,无法通过pip install进行安装。 如果直接在仓库根目录下运行pip install -e .,只会创建一个占位包,Hive 将无法正常工作。 请使用下方的快速入门脚本设置环境。
# 克隆仓库
git clone https://github.com/aden-hive/hive.git
cd hive
# 运行快速入门设置(macOS/Linux)
./quickstart.sh
# Windows (PowerShell)
.\quickstart.ps1
这将设置:
framework - 核心代理运行时和图执行器(位于
core/.venv中)aden_tools - 用于代理能力的 MCP 工具(位于
tools/.venv中)credential store - 加密的 API 密钥存储(
~/.hive/credentials)LLM provider - 交互式的默认模型配置,包括 Hive LLM 和 OpenRouter
所有必需的 Python 依赖项通过
uv安装最后,它会在您的浏览器中打开 Hive 界面
提示: 若要稍后重新打开仪表板,请从项目目录运行
hive open。
构建您的第一个代理
在主页输入框中键入您想要构建的代理。女王会向您提问,并与您一起制定解决方案。
使用模板代理
点击“尝试示例代理”并查看模板。您可以直接运行模板,也可以选择在现有模板的基础上构建您自己的版本。
运行代理
现在您可以选择一个代理(无论是现有代理还是示例代理)来运行。您可以点击左上角的“运行”按钮,或者与女王代理对话,它会为您运行该代理。
集成
- LLM 灵活性 - Hive Framework 支持 Anthropic、OpenAI、OpenRouter、Hive LLM 以及其他通过 LiteLLM 兼容提供商托管或本地运行的模型。
- 业务系统连接 - Hive Framework 被设计为能够通过 MCP 将各种业务系统作为工具连接起来,例如 CRM、支持、消息传递、数据、文件和内部 API。
为什么选择 Hive
随着模型性能的提升,代理的能力上限也在不断提高——但其可靠性和生产价值却取决于框架的设计。Hive 专注于构建能够运行实际业务流程的代理,而非通用型代理。与其让您手动设计工作流、定义代理交互并被动地处理故障,Hive 反其道而行之:您只需描述期望的结果,系统便会自动构建所需的一切——从而提供以结果为导向、适应性强的体验,并配备易于使用的工具和集成。
flowchart LR
GOAL["定义目标"] --> GEN["自动生成图"]
GEN --> EXEC["执行代理"]
EXEC --> MON["监控与观测"]
MON --> CHECK{{"成功?"}}
CHECK -- "是" --> DONE["交付结果"]
CHECK -- "否" --> EVOLVE["进化图"]
EVOLVE --> EXEC
GOAL -.- V1["自然语言"]
GEN -.- V2["即时架构"]
EXEC -.- V3["轻松集成"]
MON -.- V4["全面可见性"]
EVOLVE -.- V5["适应性"]
DONE -.- V6["可靠结果"]
style GOAL fill:#ffbe42,stroke:#cc5d00,stroke-width:2px,color:#333
style GEN fill:#ffb100,stroke:#cc5d00,stroke-width:2px,color:#333
style EXEC fill:#ff9800,stroke:#cc5d00,stroke-width:2px,color:#fff
style MON fill:#ff9800,stroke:#cc5d00,stroke-width:2px,color:#fff
style CHECK fill:#fff59d,stroke:#ed8c00,stroke-width:2px,color:#333
style DONE fill:#4caf50,stroke:#2e7d32,stroke-width:2px,color:#fff
style EVOLVE fill:#e8763d,stroke:#cc5d00,stroke-width:2px,color:#fff
style V1 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
style V2 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
style V3 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
style V4 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
style V5 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
style V6 fill:#fff,stroke:#ed8c00,stroke-width:1px,color:#cc5d00
工作原理
- 定义您的目标 → 用通俗易懂的英语描述您希望达成的目标
- 编码代理生成 → 创建 代理图、连接代码和测试用例
- 工作者执行 → SDK 包装的节点在完全可观测性和工具访问权限下运行
- 控制平面监控 → 实时指标、预算执行和策略管理
- 适应性 → 发生故障时,系统会自动进化图并重新部署
文档
贡献
我们欢迎社区的贡献!我们尤其需要帮助构建框架的工具、集成和示例代理(请参阅 #2805)。如果您有兴趣扩展其功能,这里正是开始的理想之地。请参阅 CONTRIBUTING.md 获取相关指南。
重要提示: 请务必在提交 PR 之前先被分配到某个问题。在问题下方留言以认领,维护人员会为您分配。具有可复现步骤和详细方案的问题将优先处理。这样可以避免重复劳动。
- 查找或创建一个问题并被分配
- 分支仓库
- 创建您的功能分支(
git checkout -b feature/amazing-feature) - 提交更改(
git commit -m '添加超赞功能') - 推送到分支(
git push origin feature/amazing-feature) - 打开拉取请求
社区与支持
我们使用 Discord 进行支持、功能请求和社区讨论。
加入我们的团队
我们正在招聘! 欢迎加入我们的工程、研究和市场推广团队。
安全
如有安全相关问题,请参阅 SECURITY.md。
许可证
本项目采用 Apache License 2.0 许可证授权——详情请参阅 LICENSE 文件。
常见问题解答 (FAQ)
问:Hive 支持哪些大模型提供商?
Hive 通过 LiteLLM 集成支持 100 多家大模型提供商,包括 OpenAI(GPT-4、GPT-4o)、Anthropic(Claude 系列模型)、Google Gemini、DeepSeek、Mistral、Groq、OpenRouter 以及 Hive LLM。只需设置相应的 API 密钥环境变量并指定模型名称即可。有关各提供商的具体配置示例,请参阅 docs/configuration.md。
问:我能否将 Hive 与本地 AI 模型(如 Ollama)一起使用?
可以!Hive 通过 LiteLLM 支持本地模型。只需使用 ollama/模型名称 的格式(例如 ollama/llama3、ollama/mistral),并确保 Ollama 已在本地运行。
问:Hive 与其他智能体框架有何不同?
Hive 是一个智能体运行时框架,而不仅仅是编排框架。它提供了生产级的运行时层——会话隔离、基于检查点的故障恢复、成本控制、实时可观测性以及人机协作控制——这些功能使智能体能够可靠地处理实际工作负载。此外,Hive 还能根据自然语言目标自动生成整个智能体系统,并在智能体失败时自动演化图谱。正是这种强大的运行时框架与自我改进生成能力的结合,使 Hive 脱颖而出。
问:Hive 是开源的吗?
是的,Hive 在 Apache License 2.0 许可下完全开源。我们积极鼓励社区贡献和协作。
问:Hive 是否支持人机协作工作流?
是的,Hive 完全支持人机协作工作流,通过干预节点暂停执行以等待人工输入。这些节点还提供可配置的超时和升级策略,从而实现人类专家与 AI 智能体之间的无缝协作。
问:Hive 支持哪些编程语言?
Hive 框架是用 Python 构建的。JavaScript/TypeScript SDK 正在开发计划中。
问:Hive 智能体能否与外部工具和 API 进行交互?
可以。Aden 的 SDK 封装节点提供了内置的工具访问功能,同时框架也支持灵活的工具生态系统。智能体可以通过节点架构集成外部 API、数据库和其他服务。
问:Hive 中的成本控制是如何实现的?
Hive 提供细粒度的预算控制,包括支出上限、速率限制以及自动模型降级策略。您可以在团队、智能体或工作流级别设置预算,并获得实时成本跟踪和警报。
问:在哪里可以找到示例和文档?
请访问 docs.adenhq.com 获取完整的指南、API 参考和入门教程。仓库中的 docs/ 文件夹也包含相关文档,以及一份全面的开发者指南。
问:我如何为 Aden 做出贡献?
欢迎任何形式的贡献!您可以 fork 该仓库,创建自己的功能分支,实现更改后提交 pull request。详细指南请参阅 CONTRIBUTING.md。
星标历史
由旧金山的热情打造
版本历史
v0.10.22026/04/17v0.10.12026/04/16v0.10.02026/04/15v0.9.02026/04/04v0.8.02026/04/01v0.7.62026/03/21v0.7.52026/03/20v0.7.42026/03/19v0.7.32026/03/18v0.7.22026/03/17v0.7.12026/03/14v0.7.02026/03/13v0.6.72026/03/11v0.6.62026/03/10v0.6.52026/03/07v0.6.42026/03/05v0.6.32026/03/04v0.6.22026/03/03v0.6.12026/02/28v0.6.02026/02/27常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

