solace-agent-mesh
Solace Agent Mesh 是一个开源框架,专为构建基于事件驱动的多智能体(Multi-Agent)AI 系统而设计。它旨在解决单一 AI 模型难以处理复杂现实任务的问题,通过协调多个具备不同技能的智能体协作,轻松实现从数据查询到多模态内容生成的复杂多步工作流。
该工具特别适合需要开发高可扩展、高可靠性企业级 AI 应用的开发者。其核心亮点在于利用 Solace 平台的事件消息机制作为通信骨干,实现了智能体之间的完全异步和解耦通信。借助内置的“编排器”智能体,系统能自动拆解复杂任务并分发给合适的成员;同时支持标准的 Agent-to-Agent (A2A) 协议,让智能体能自主发现同伴并委托任务。此外,它还提供了灵活的接口网关,可快速集成 REST API、Web 界面或 Slack 等外部系统。基于 Google Agent Development Kit (ADK) 构建,Solace Agent Mesh 让开发者只需关注业务逻辑,即可打造出稳健且易于维护的生产级 AI 架构。
使用场景
某大型电商企业的技术团队正在构建一个能自动处理“用户投诉并生成分析报告”的智能系统,需要协调多个具备不同技能的 AI 角色协同工作。
没有 solace-agent-mesh 时
- 通信耦合严重:各个专用 Agent(如数据库查询员、图像生成器)之间通过硬编码的 API 直接调用,一旦某个服务地址变更,整个链路就会断裂。
- 流程僵化难扩展:处理复杂的多步投诉流程时,必须编写大量胶水代码来串联逻辑,新增一个“情感分析”环节往往需要重构核心代码。
- 并发瓶颈明显:面对突发的大规模投诉流量,传统的同步请求 - 响应模式容易导致系统阻塞,无法弹性伸缩,造成用户等待超时。
- 数据共享混乱:不同 Agent 产生的中间数据(如 SQL 结果、生成的图表)缺乏统一的标准传递机制,经常导致数据丢失或格式不兼容。
使用 solace-agent-mesh 后
- 事件驱动解耦:利用 Solace Event Mesh 作为统一通信层,所有 Agent 通过发布/订阅事件交互,新增或替换 Agent 无需修改其他组件代码。
- 自动编排协作:内置的 Orchestrator 代理能自动将复杂的投诉处理任务拆解,并动态分派给数据库 Agent 或多模态 Agent 执行,大幅减少人工编排代码。
- 高并发异步处理:基于完全异步的事件架构,系统能轻松应对流量洪峰,消息队列自动缓冲请求,确保在高负载下依然稳定运行。
- 标准化数据流转:框架提供了标准的工件共享机制,确保从 SQL 查询结果到最终报告生成的每一步数据都能无缝、准确地传递给下一个环节。
solace-agent-mesh 通过事件驱动的架构将分散的 AI 能力编织成一张弹性、可靠且易于维护的协同网络,让复杂的多智能体应用真正具备生产级落地能力。
运行环境要求
- Linux
- macOS
- Windows (需 WSL)
未说明
未说明

快速开始
Solace Agent Mesh
用于构建事件驱动型多智能体AI系统的开源框架
请为本仓库标星⭐️,以便在我们发布新功能和改进时及时获取更新。
Solace Agent Mesh 是一个支持构建AI应用的框架,允许多个专业化的AI智能体协同工作以解决复杂问题。它利用 Solace Platform 的事件消息传递机制,实现真正的可扩展性和可靠性。
借助 Solace Agent Mesh (SAM),您可以创建由具备不同技能和工具访问权限的AI智能体组成的团队。例如,您可以拥有一个能够执行SQL查询以获取数据的数据库智能体,或者一个可以帮助生成图像、音频文件和报告的多模态智能体。
该框架会自动处理智能体之间的通信,使您能够专注于构建出色的AI体验。
SAM 创建了一个标准化的通信层,AI智能体可以在其中:
- 将任务委派给其他智能体
- 共享数据和成果
- 连接多样化的用户界面和外部系统
- 执行低耦合的多步骤工作流
SAM 构建在 Solace AI Connector (SAC) 之上,该连接器允许 Solace Platform 事件代理与AI模型和服务相连;同时结合了Google的AI开发套件(ADK),用于实现AI逻辑和工具集成。
其结果是一个完全异步、事件驱动且解耦的AI智能体架构,已准备好投入生产部署。它具有强大的鲁棒性、可靠性和易于维护的特点。
🔑 主要特性
- 多智能体事件驱动架构 – 智能体通过Solace Event Mesh进行通信,实现真正的可扩展性
- 智能体编排 – 复杂任务由编排器智能体自动分解并委派
- 灵活接口 – 可集成REST API、Web UI、Slack,或自行构建集成
- 可扩展 – 仅需少量代码即可添加自定义智能体、网关或服务
- 智能体间通信 – 智能体可通过Agent2Agent (A2A) 协议无缝发现彼此并相互委派任务
- 动态嵌入 – 在响应中嵌入实时数据、计算结果和文件内容等动态内容
📚 想了解更多? 请查看完整的 Solace Agent Mesh 文档。
🚀 快速入门(5分钟)
只需几个步骤即可设置Solace Agent Mesh。
⚙️ 系统要求
要在本地运行Solace Agent Mesh,您需要:
- Python 3.10.16 – 3.13.x
- pip(随Python自带)
- 操作系统:MacOS、Linux或Windows(配备WSL)
- LLM API密钥(任何主流提供商或自定义端点)
🎸 Vibe Coding
要快速设置和定制您的Agent Mesh,请参阅Vibe Coding快速入门指南。本指南将引导您完成必要的步骤,以最少的努力启动并运行Solace Agent Mesh。
💻 设置步骤
1. 创建新项目目录
mkdir my-sam && cd my-sam
2. 创建并激活Python虚拟环境
python3 -m venv .venv && source .venv/bin/activate
3. 安装Solace Agent Mesh (SAM)
检查是否已安装SAM的某个版本。
sam -v
如果已安装旧版本,请将其卸载并从头开始:
pip3 uninstall solace-agent-mesh
注意:您也可以尝试升级版本,但目前此操作尚未得到官方支持。(pip3 install --upgrade solace-agent-mesh)
如果没有先前版本,则安装最新版本:
pip3 install solace-agent-mesh
4. 通过GUI工具初始化新项目
sam init --gui
注意:此初始化界面运行在端口5002上
5. 运行项目
sam run
6. 验证SAM是否正在运行
打开Web界面 http://localhost:8000,进入聊天界面并提出一个问题
🔧 自定义SAM
可通过GUI界面添加新智能体
sam add agent --gui
可安装现有插件
sam plugin add <your-component-name> --plugin <plugin-name>
🏗️ 架构概览
Solace Agent Mesh 提供了一个“通用 A2A 代理主机”,这是一个灵活且可配置的运行时环境,通过将 Google 的代理开发工具包 (ADK) 与 Solace AI 连接器 (SAC) 框架集成构建而成。
该系统允许您:
- 在 SAC 框架中托管使用 Google ADK 开发的 AI 代理
- 主要通过 SAC YAML 配置定义代理的能力(LLM 模型、指令、工具)
- 使用 Solace 平台作为标准代理间 (A2A) 协议通信的传输层
- 实现对同一生态系统中运行的对等代理的动态发现
- 允许代理通过 Solace 上的 A2A 协议将任务委派给已发现的对等代理
- 使用内置工具管理文件工件,并自动注入元数据
- 利用内置的 SQL、JQ 和可视化工具进行数据分析
- 使用动态嵌入来解析依赖于上下文的信息
关键组件
- SAC 负责代理连接、配置加载和组件生命周期管理
- ADK 提供代理运行时、LLM 交互、工具执行和状态管理功能
- A2A 协议 实现客户端与代理之间以及对等代理之间的通信
- 动态嵌入 允许在响应中使用占位符,这些占位符会根据上下文信息被解析
- 文件管理 提供用于创建、列出、加载工件以及处理元数据的内置工具
➡️ 下一步
想进一步了解吗?以下是一些动手教程,可以帮助您快速入门:
| 🔧 集成 | ⏱️ 预计时间 | 📘 教程 |
|---|---|---|
| 🌤️ 天气代理 学习如何构建一个能够使 Solace Agent Mesh 访问实时天气信息的代理。 |
~15 分钟 | 天气代理插件 |
| 🗃️ SQL 数据库集成 启用 Solace Agent Mesh 使用示例咖啡公司数据库回答公司特定问题。 |
~10–15 分钟 | SQL 数据库教程 |
| 🧠 MCP 集成 将模型上下文协议 (MCP) 服务器集成到 Solace Agent Mesh 中。 |
~10–15 分钟 | MCP 集成教程 |
| 💬 Slack 集成 直接从 Slack 与 Solace Agent Mesh 对话。 |
~20–30 分钟 | Slack 集成教程 |
| 👔 Microsoft Teams 集成(企业版) 通过 Azure AD 身份验证将 Solace Agent Mesh Enterprise 连接到 Microsoft Teams。 |
~30–40 分钟 | Teams 集成教程 |
👥 贡献者
Solace Agent Mesh 是在我们卓越社区的帮助下构建的。感谢每一位为改进该项目贡献想法、代码和时间的人!
在此查看完整的贡献者列表:GitHub 贡献者 💚
希望参与贡献吗? 请查看 CONTRIBUTING.md,开始行动并了解如何提供帮助!
📄 许可证
本项目采用 Apache 2.0 许可证 许可。完整许可文本请参见 LICENSE 文件。
🧪 运行测试
本项目使用 pytest 进行测试。您可以使用 hatch 或直接使用 pytest 来运行测试。
使用 Hatch
推荐通过 hatch 环境运行测试,这样可以确保所有依赖项得到正确管理。
# 运行所有测试
hatch test
# 带标签运行测试
hatch test -m "<tag>"
使用 Pytest 直接运行
如果您更倾向于直接使用 pytest,则必须先安装项目及其测试依赖项。
# 以可编辑模式安装项目,并包含 'test' 附加组件
pip install -e .[test]
# 运行所有测试
pytest
版本历史
1.18.282026/04/041.18.272026/04/021.18.262026/04/021.18.252026/04/021.18.242026/04/011.18.222026/03/311.18.212026/03/301.18.202026/03/271.18.192026/03/261.18.182026/03/231.18.172026/03/231.18.162026/03/231.18.152026/03/201.18.142026/03/191.18.122026/03/181.18.102026/03/181.18.92026/03/171.18.82026/03/161.18.72026/03/161.18.62026/03/13常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器