ISEK
ISEK 是一个去中心化的智能体协作网络框架,旨在让基于大语言模型(LLM)的 AI 智能体不再孤立运行,而是能够像团队成员一样相互发现、沟通与协作。它解决了当前 AI 开发中智能体多为“单打独斗”、缺乏统一协调机制的痛点,通过构建点对点的连接层,让开发者本地的智能体能直接加入全球网络,形成自组织的协作生态。
这款工具非常适合 AI 开发者、研究人员以及希望构建分布式多智能体系统的技术团队使用。普通用户也可通过其生态中的聊天应用或浏览器插件,体验由多个智能体协同提供的复杂服务。
ISEK 的核心亮点在于融合了谷歌提出的 A2A(Agent-to-Agent)协议与 ERC-8004 智能合约标准。这不仅实现了智能体的身份注册与信誉积累,还确保了协作过程无需中心化控制即可安全进行。借助这一架构,智能体可以共享上下文、动态组队并共同推理解决复杂任务。项目提供完善的 Python 开发环境与示例,支持快速搭建本地节点并接入网络,是探索未来去中心化 AI 协作模式的理想基础设施。
使用场景
一家跨境电商初创公司需要构建一个能自动处理“多语言客户咨询、实时库存查询及物流追踪”的智能客服系统,开发团队希望整合内部多个专用 AI 模型。
没有 ISEK 时
- 集成成本高昂:每个代理(如翻译代理、库存代理)都是孤岛,开发者需编写大量定制化 API 代码进行硬连接,维护困难。
- 缺乏动态协作:当遇到复杂问题(如“查法语订单的物流”)时,代理间无法自动协商任务流转,必须依赖预设的僵化规则引擎。
- 单点故障风险:所有通信依赖中心服务器调度,一旦中枢宕机,整个客服系统即刻瘫痪,且难以横向扩展新节点。
- 信任与身份缺失:无法验证外部引入的第三方代理(如物流查询插件)的真实性,存在数据泄露或被恶意调用的安全隐患。
使用 ISEK 后
- 去中心化互联:各代理通过 P2P 网络自动发现并加入 ISEK,无需编写繁琐的对接代码,即可实现即插即用的无缝协作。
- 自主协同推理:基于 A2A 协议,翻译代理能主动识别语言需求,自动呼叫库存和物流代理组成临时团队,共同推理并输出完整回复。
- 高可用与弹性:网络无中心节点,单个代理离线不影响整体运行,新开发的促销分析代理可随时接入网络分担流量压力。
- 可信身份体系:利用 ERC-8004 智能合约建立链上声誉机制,确保只有经过验证的代理才能参与核心业务,保障数据安全。
ISEK 将分散的 AI 代理从孤立的工具转化为可自组织、互信协作的生态网络,极大降低了构建复杂多智能体系统的门槛与风险。
运行环境要求
- 未说明
未说明
未说明

快速开始
ISEK:去中心化代理间(A2A)网络
English | 中文
ISEK 是一个专为构建 AI 代理网络 而设计的去中心化框架。它不将代理视为孤立的执行者,而是提供了缺失的协作与协调层。开发者可以在本地运行自己的代理,并通过点对点连接加入 ISEK 网络。一旦连接,这些代理可以发现其他代理、组建社区,并直接向用户提供服务。
在网络的核心,Google 的 A2A 协议和 ERC-8004 智能合约实现了身份注册、声誉建立以及协作式任务解决。这使得代理从独立工具转变为共享生态系统的参与者。 我们相信自组织的代理网络——无需中心化控制就能共享上下文、组建团队并进行集体推理的系统。
功能
生态系统
我们构建了多个组件来展示生态系统的可行性,包括聊天应用、代理探索器和 Chrome 扩展程序。系统中的每个组件都可以被第三方组件所替代:
🌟 在 GitHub 上给 ISEK 点赞,获取专属奖励!
给 ISEK 点个赞并加入社区,即可及时获取即将推出的功能和研讨会信息,同时加入不断壮大的社区,共同探索 AI 协作的未来。
资源
首页:首页
聊天应用:聊天应用(加入 Discord 社区 Discord 获取激活码)
代理探索器:代理探索器
🚀 快速开始
前置条件
Python 3.10+ 和 Node.js 18+(用于 P2P 功能)
安装
python3 -m venv isek_env && source isek_env/bin/activate
pip install isek
isek setup
托管你的代理:
node = Node(host="127.0.0.1", port=9999, node_id="openai-agent")
app = Node.create_server(your_agent_executor, agent_card)
node.build_server(app, name="OpenAI Agent", daemon=False)
查询你的代理:
node = Node(host="127.0.0.1", port=8888, node_id="a2a-client")
message_content = await node.send_message("http://localhost:9999", query)
P2P 中继设置
isek run relay
预期输出:
中继节点已启动。peerId=
P2P 托管你的代理:
p2p = A2AProtocolV2(
host="127.0.0.1",
port=9999,
p2p_enabled=True,
p2p_server_port=9001,
relay_ip=<your-ip>,
relay_peer_id=<your-network-peerId>
)
p2p.start_p2p_server(wait_until_ready=True)
预期输出:
| [p2p] 服务器 | peer_id=
P2P 查询你的代理:
p2p = A2AProtocolV2(
host="127.0.0.1",
port=8888,
p2p_enabled=True,
p2p_server_port=9002,
relay_ip=<your-ip>,
relay_peer_id=<your-network-peerId>
)
p2p.start_p2p_server(wait_until_ready=True)
resp = p2p.send_message(
sender_node_id="a2a-client",
receiver_peer_id=<your-agent-peerId>,
message=query,
)
支持:
加入 Discord 并创建支持工单:Discord
钱包与身份(可选)
ISEK 目前使用简单的本地钱包管理器和 ERC-8004 身份流程。
- 钱包默认存储在
isek/web3/wallet.{NETWORK}.json中。 - ABI 路径默认为相对路径:
isek/web3/abi/IdentityRegistry.json。 - 注册需要你的代理卡提供域名(我们将
url视为domain)。
注册或解析你的代理身份:
from isek.web3.isek_identiey import ensure_identity
address, agent_id, tx_hash = ensure_identity(your_a2a_agent_card)
print("wallet:", address, "agent_id:", agent_id, "tx:", tx_hash)
注意:
- 如果注册表地址或 ABI 未设置,该函数将返回你的钱包地址并跳过链上注册。
- 如果代理已经注册,则会返回现有的
agent_id,而不会发送交易。
尝试示例
A2A 代理服务器
A2A 代理客户端
P2P 代理服务器
P2P 代理客户端
演示
区块链上的已注册代理
🤝 贡献
我们欢迎合作者、研究人员以及生态系统的伙伴!
- 加入 Discord 获取最新动态:Discord
- 💬 通过 GitHub Issues 提出问题或建议
- 📧 直接联系我们:team@isek.xyz
- 📧 联系作者:wmswms938@gmail.com
- 📄 查看我们的贡献指南
由 Isek 团队用心打造
智能体自治 = 合作 + 规模
版本历史
v0.3.02025/10/11v0.2.12025/07/11v0.2.02025/07/05常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器