IoA
IoA(Internet of Agents)是一个开源框架,旨在构建一个让多样化 AI 智能体像人类在互联网上协作一样共同工作的平台。它解决了单个 AI 智能体在面对复杂任务时能力有限、难以跨环境协同的痛点,通过类似互联网的连接机制,让来自不同背景、具备不同技能的智能体(如 AutoGPT、Open Interpreter 等)能够自由组队,共享能力以攻克难题。
该项目特别适合 AI 开发者、研究人员以及需要构建多智能体协作系统的技术团队使用。无论是希望探索分布式智能体架构的研究者,还是想要整合现有工具解决复杂工程问题的开发者,都能从中受益。
IoA 的核心亮点在于其独特的“类互联网”架构设计。它支持智能体自主形成嵌套式团队,灵活适应任务需求;能够异构集成不同特性的智能体,打造“全明星”阵容;并采用异步任务执行机制,显著提升系统整体效率。此外,其自适应的对话流管理确保了协作过程既结构化又充满灵活性,而高度可扩展的设计也让添加新类型智能体或应对新任务变得简单便捷。通过 IoA,构建高效、协同的下一代多智能体系统变得更加触手可及。
使用场景
某跨国电商团队需要构建一个能实时分析全球社交媒体舆情、自动检索竞品动态并生成多语言危机公关报告的智能系统。
没有 IoA 时
- 单点能力瓶颈:单个 AI 代理难以同时精通多语言情感分析、实时网络检索和专业公文写作,导致报告质量参差不齐。
- 协作流程僵化:不同功能的脚本(如爬虫、NLP 模型)之间缺乏统一通信协议,需人工编写大量胶水代码串联,维护成本极高。
- 任务执行低效:所有步骤必须按顺序线性执行,一旦某个环节(如数据抓取)卡顿,整个报告生成流程就会停滞,无法应对突发舆情。
- 扩展性差:若要新增“视频内容分析”能力,必须重构整个系统架构,无法像插拔组件一样灵活接入新的专用代理。
使用 IoA 后
- 异构专家组队:IoA 自动将擅长翻译、搜索和写作的不同代理(如 AutoGPT 与 Open Interpreter)组建为“危机应对小队”,各司其职发挥专长。
- 类互联网协作:基于类互联网架构,各代理通过标准协议自主发现队友并交换信息,无需人工硬编码连接,系统稳定性大幅提升。
- 异步并行处理:支持异步任务执行,数据抓取、情感分析和草稿撰写同时进行,将原本数小时的报告生成时间缩短至分钟级。
- 动态弹性扩容:只需简单配置即可接入新的视频分析代理进入子团队,系统自动调整协作流,轻松应对业务需求变化。
IoA 通过将分散的 AI 能力编织成一张自适应的协作网络,让复杂的跨域任务从“手工拼装”进化为“有机协同”。
运行环境要求
- 未说明
未说明
未说明

快速开始
智能体互联网
🌎 什么是智能体互联网?
想象一下,如果人工智能智能体能够像人类在互联网上协作一样工作,那该有多好?这正是智能体互联网(IoA)的核心理念!它是一个开源框架,旨在创建一个平台,让各种各样的智能体能够协同合作,共同解决复杂任务。例如,AutoGPT 和 Open Interpreter 等智能体可以汇聚在一起,共享各自独特的技能,一起攻克那些单个智能体难以独立完成的难题。
🚀 核心特性
- 🌐 受互联网启发的架构:就像互联网连接着世界各地的人们一样,IoA 能够将不同环境中的各类智能体连接起来。
- 🤝 自主嵌套式团队组建:智能体可以自行组建团队及子团队,以适应复杂的任务需求。
- 🧩 异构智能体集成:将具备不同技能和背景的智能体汇聚在一起,如同组建一支全明星队伍。
- ⏳ 异步任务执行:智能体可以同时处理多项任务,从而提升整个系统的效率。
- 🗣️ 自适应对话流程:对话流程由系统自主管理,既保持结构化又灵活多变。
- 🔄 可扩展性和可拓展性:轻松添加新型智能体或应对不同类型的任务。
更多详细信息,请参阅我们的论文。
IoA 分层架构一览
IoA 的工作原理
🚀 快速入门
只需几个步骤,即可启动并运行 IoA:
1. 📋 前置条件
- 确保您的系统已安装 Docker。
2. 📥 克隆仓库
git clone git@github.com:OpenBMB/IoA.git
cd IoA
3. 🏗️ 构建 Docker 镜像
核心组件
您可以直接从 Docker Hub 拉取预构建的 Docker 镜像:
# 服务器
docker pull weize/ioa-server:latest
# 客户端
docker pull weize/ioa-client:latest
# 服务器前端
docker pull weize/ioa-server-frontend:latest
# 重命名镜像
docker tag weize/ioa-server:latest ioa-server:latest
docker tag weize/ioa-client:latest ioa-client:latest
docker tag weize/ioa-server-frontend:latest ioa-server-frontend:latest
或者您也可以从源码构建
# 服务器
docker build -f dockerfiles/server.Dockerfile -t ioa-server:latest .
# 客户端
docker build -f dockerfiles/client.Dockerfile -t ioa-client:latest .
# 服务器前端
docker build -f dockerfiles/server_frontend.Dockerfile -t ioa-server-frontend:latest .
智能体镜像(按需构建)
# ReAct 智能体
docker pull weize/react-agent:latest
docker tag weize/react-agent:latest react-agent:latest
# AutoGPT(我们修复了 AutoGPT 原始 Docker 镜像中的一些问题)
docker pull weize/autogpt:latest
docker tag weize/autogpt:latest autogpt:latest
# Open Interpreter
docker pull weize/open-interpreter:latest
docker tag weize/open-interpreter:latest open-interpreter:latest
或者您也可以从源码构建
# ReAct 智能体
docker build -f dockerfiles/tool_agents/react.Dockerfile -t react-agent:latest .
# AutoGPT(我们修复了 AutoGPT 原始 Docker 镜像中的一些问题)
docker build -f dockerfiles/tool_agents/autogpt.Dockerfile -t autogpt:latest .
# Open Interpreter
docker build -f dockerfiles/tool_agents/open_interpreter.Dockerfile -t open-interpreter:latest .
4. 🌐 启动 Milvus 服务
docker network create agent_network
docker-compose -f dockerfiles/compose/milvus.yaml up
5. 🎬 启动 IoA
cd dockerfiles/compose/
cp .env_template .env
在 .env 文件中,填写您的 OpenAI API 密钥及其他可选环境变量。然后,如果您想快速体验 AutoGPT 和 Open Interpreter 的演示:
cd ../../
docker-compose -f dockerfiles/compose/open_instruction.yaml up
这样,您就搭建起了一个由 AutoGPT 和 Open Interpreter 组成的小规模智能体互联网!
6. 🧪 进行测试
您可以使用以下脚本,在我们的 Open Instruction 数据集上测试 IoA:
python scripts/open_instruction/test_open_instruction.py
或者直接发送一个 POST 请求,例如:
import requests
goal = "我想知道微软公司2014年至2020年的年收入情况。请生成一张展示年收入趋势的图表,并为我提供一份分析报告。"
response = requests.post(
"http://127.0.0.1:5050/launch_goal",
json={
"goal": goal,
"max_turns": 20,
"team_member_names": ["AutoGPT", "Open Interpreter"], # 当此处留空时,智能体会自主决定是否组建团队
},
)
print(response)
🤔 想在不同设备上运行 IoA 吗?
请查看我们的分布式部署指南。我们正在不断完善文档,您的反馈对我们非常重要!
🌟 加入 IoA 的冒险之旅吧!
我们刚刚起步,非常期待您的参与,帮助我们把 IoA 打造得更加出色!您是否有任何关于如何巧妙运用 IoA 的创意,比如将 PC 端智能体与移动端智能体连接起来?我们非常乐意倾听!
- 👾 在 Discord 上与我们交流
- ✉️ 发送邮件至 ioa.thunlp@gmail.com
让我们携手共建人工智能协作的未来吧!🚀
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备