graphbit
GraphBit 是全球首款专为企业级应用打造的智能体(Agentic)AI 框架。它致力于解决大模型在多智能体协作场景中常见的性能瓶颈、资源消耗过高以及运行不稳定等难题,让复杂的 AI 工作流能够真正落地于生产环境。
该框架采用独特的"Rust 核心 + Python 封装”架构:底层利用 Rust 语言确保极致的执行速度、内存安全与高并发处理能力,上层则提供友好的 Python 接口,方便开发者快速上手。这种设计使得 GraphBit 在构建可靠的多智能体协作流程时,仅需极少的 CPU 和内存占用,显著降低了部署成本。
GraphBit 特别适合需要构建高可用、可扩展 AI 应用的软件开发工程师、系统架构师以及企业技术团队。无论是处理复杂的数据分析任务,还是编排自动化业务逻辑,GraphBit 都能提供类型安全的工作流支持,帮助开发者在保证系统稳定性的前提下,高效释放人工智能的潜力,是连接实验原型与大规模商业应用的理想桥梁。
使用场景
某大型金融科技公司正在构建一个实时反欺诈系统,需要协调多个 AI 代理并行处理交易数据、查询历史行为库并生成风险报告。
没有 graphbit 时
- 资源消耗巨大:基于纯 Python 的多代理框架在高峰期占用大量 CPU 和内存,导致服务器成本激增且容易触发资源限制。
- 并发稳定性差:当数百个代理同时执行复杂推理任务时,系统经常出现死锁或响应延迟,难以保证金融级的高可用性。
- 类型安全隐患:动态语言特性使得代理间的数据传递缺乏严格校验,生产环境中常因数据结构不匹配引发运行时错误。
- 扩展瓶颈明显:随着业务量增长,原有架构难以水平扩展,增加节点往往带来更复杂的协调开销而非性能提升。
使用 graphbit 后
- 极致性能表现:依托 Rust 核心引擎,graphbit 将多代理工作流的 CPU 和内存占用降低了 80%,在同等硬件下支撑更高并发。
- 企业级可靠性:内置的异步调度机制确保了代理间通信的原子性与一致性,实现了 7x24 小时无故障稳定运行。
- 类型安全闭环:通过 Python 封装层保留开发便捷性的同时,利用底层强类型系统杜绝了数据流转中的格式错误。
- 无缝线性扩展:轻量级架构允许团队轻松横向部署数百个代理节点,完美应对“双十一”等流量洪峰场景。
graphbit 凭借 Rust 的高性能内核与 Python 的易用性,成功将实验性多代理方案转化为可承载核心金融业务的生产级系统。
运行环境要求
- 未说明
未说明
未说明(文档宣称比同类框架内存占用低 140 倍,适合低资源环境)

快速开始
以其他语言阅读此内容: 🇨🇳 简体中文 | 🇨🇳 繁體中文 | 🇪🇸 Español | 🇫🇷 Français | 🇩🇪 Deutsch | 🇯🇵 日本語 | 🇰🇷 한국어 | 🇮🇳 हिन्दी | 🇸🇦 العربية | 🇮🇹 Italiano | 🇧🇷 Português | 🇷🇺 Русский | 🇧🇩 বাংলা
GraphBit 是一个开源的代理式 AI 框架,用于实现确定性、并发且低开销的执行。
为什么选择 GraphBit?
效率决定了谁能规模化发展。GraphBit 专为需要确定性、并发且超高效 AI 执行,同时又不产生额外开销的开发者而设计。
GraphBit 采用 Rust 核心与极简 Python 层,相比其他框架,其 CPU 使用率最多可降低 68 倍,内存占用最多可降低 140 倍,同时保持同等或更高的吞吐量。
它支持多代理并行工作流,在各步骤间持久化内存,能够从故障中自我恢复,并确保 100% 的任务可靠性。GraphBit 适用于生产环境中的各类工作负载,无论是企业级 AI 系统还是资源受限的边缘部署。
已在生产环境中使用
核心特性
- 工具选择 - LLM 能根据描述智能选择工具
- 类型安全 - 在每个执行层都进行强类型检查
- 可靠性 - 断路器、重试策略以及错误处理和故障恢复机制
- 多 LLM 支持 - OpenAI、Azure OpenAI、Anthropic、OpenRouter、DeepSeek、Replicate、Ollama、TogetherAI 等多种模型
- 资源管理 - 并发控制与内存优化
- 可观测性 - 内置追踪、结构化日志和性能指标
基准测试
GraphBit 的设计初衷是实现大规模下的高效运行,而非基于理论假设的声明,而是以实际测量结果为依据。
我们的内部基准测试套件在完全相同的工作负载下,将 GraphBit 与领先的基于 Python 的智能体框架进行了对比。
| 指标 | GraphBit | 其他框架 | 提升倍数 |
|---|---|---|---|
| CPU 使用率 | 1.0× 基线 | 68.3× 更高 | 约 68 倍 CPU |
| 内存占用 | 1.0× 基线 | 140× 更高 | 约 140 倍 内存 |
| 执行速度 | ≈ 相等 / 更快 | — | 稳定的吞吐量 |
| 确定性 | 100% 成功 | 不确定 | 可靠性保障 |
GraphBit 在 LLM 调用、工具调用以及多智能体链中,始终能够提供生产级别的效率。
基准测试演示
何时使用 GraphBit
如果您需要以下功能,请选择 GraphBit:
- 生产级的多智能体系统,能够在高负载下稳定运行
- 类型安全的执行和可复现的输出
- 面向混合或流式 AI 应用程序的实时编排能力
- 具备 Rust 级别的效率,同时拥有 Python 级别的易用性
如果您正在从原型阶段迈向规模化应用,或者对运行时的确定性有较高要求,那么 GraphBit 就是您的理想选择。
快速入门
安装
建议使用虚拟环境。
pip install graphbit
快速入门视频教程
环境设置
为项目配置所需的 API 密钥:
# OpenAI(可选——若使用 OpenAI 模型则必需)
export OPENAI_API_KEY=your_openai_api_key_here
# Anthropic(可选——若使用 Anthropic 模型则必需)
export ANTHROPIC_API_KEY=your_anthropic_api_key_here
安全提示:切勿将 API 密钥提交到版本控制系统中。请始终使用环境变量或安全的密钥管理工具。
基本用法
import os
from graphbit import LlmConfig, Executor, Workflow, Node, tool, GuardRailPolicyConfig
# 初始化并配置
config = LlmConfig.openai(os.getenv("OPENAI_API_KEY"), "gpt-4o-mini")
# 创建执行器
executor = Executor(config)
# 创建带有清晰描述的工具,便于 LLM 选择
@tool(_description="获取任意城市的当前天气信息")
def get_weather(location: str) -> dict:
return {"location": location, "temperature": 22, "condition": "sunny"}
@tool(_description="执行数学计算并返回结果")
def calculate(expression: str) -> str:
return f"Result: {eval(expression)}"
# 构建工作流
workflow = Workflow("分析流水线")
# 创建智能体节点
smart_agent = Node.agent(
name="Smart Agent",
prompt="巴黎的天气如何?并计算 15 + 27 是多少?",
system_prompt="你是一位擅长查询天气和进行数学计算的助手。请使用工具准确回答问题。",
tools=[get_weather, calculate]
)
processor = Node.agent(
name="数据处理器",
prompt="处理来自 Smart Agent 的结果。",
system_prompt="""你负责处理并整理其他智能体的结果。
- 总结并澄清关键点
- 将输出结构化以便于阅读
- 专注于提供可操作的见解
"""
)
# 连接并执行
id1 = workflow.add_node(smart_agent)
id2 = workflow.add_node(processor)
workflow.connect(id1, id2)
# 运行(可选:添加隐私保护策略以屏蔽或映射 PII)
result = executor.execute(workflow)
# 或者使用策略:result = executor.execute(workflow, policy=GuardRailPolicyConfig.from_json('{"guardrail_policy": {"pii_rules": [...]}}'))
print(f"工作流已完成:{result.is_success()}")
print("\nSmart Agent 输出:\n", result.get_node_output("Smart Agent"))
print("\n数据处理器输出:\n", result.get_node_output("Data Processor"))
使用 GraphBit 构建您的第一个智能体工作流
可观测性与追踪
GraphBit Tracer 可以在极少配置的情况下捕获并监控 LLM 调用和 AI 工作流。它会包装 GraphBit 的 LLM 客户端和工作流执行器,从而追踪提示、响应、令牌使用量、延迟和错误,而无需更改您的代码。
高层次架构
三层次设计确保了可靠性和性能:
- Rust 核心 - 工作流引擎、智能体和 LLM 提供者
- 编排层 - 项目管理和执行
- Python API - 基于 PyO3 的绑定,支持异步操作
Python API 集成
GraphBit 提供了丰富的 Python API,用于构建和集成智能体工作流:
- LLM 客户端 - 多提供商 LLM 集成(OpenAI、Anthropic、Azure 等)
- 工作流 - 定义和管理多智能体工作流图,并进行状态管理
- 节点 - 智能体节点、工具节点以及自定义工作流组件
- 执行器 - 支持配置管理的工作流执行引擎
- 工具系统 - 用于智能体工具的函数装饰器、注册表和执行框架
- 工作流结果 - 包含元数据、时间信息及输出访问权限的执行结果
- 嵌入 - 用于语义搜索和检索的向量嵌入
- 工作流上下文 - 工作流执行过程中共享的状态和变量
- 文档加载器 - 支持从多种格式(PDF、DOCX、TXT、JSON、CSV、XML、HTML)加载和解析文档
- 文本分割器 - 可按字符、令牌、句子或递归方式将文档分割成块
有关完整的类、方法列表及使用示例,请参阅 Python API 参考文档。
生态系统与扩展
GraphBit 的模块化架构支持外部集成:
| 类别 | 示例 |
|---|---|
| 大语言模型提供商 | OpenAI、Anthropic、Azure OpenAI、DeepSeek、Together、Ollama、OpenRouter、Fireworks、Mistral AI、Replicate、Perplexity、HuggingFace、AI21、字节跳动、xAI 等 |
| 向量数据库 | Pinecone、Qdrant、Chroma、Milvus、Weaviate、FAISS、Elasticsearch、AstraDB、Redis 等 |
| 数据库 | PostgreSQL (PGVector)、MongoDB、MariaDB、IBM DB2、Redis 等 |
| 云平台 | AWS (Boto3)、Azure、Google Cloud Platform 等 |
| 搜索 API | Serper、Google 搜索、GitHub 搜索、GitLab 搜索 等 |
| 嵌入模型 | OpenAI Embeddings、Voyage AI 等 |
扩展由社区开发和维护。
参与 GraphBit 贡献
我们欢迎各类贡献。要开始参与,请参阅 贡献指南,了解开发环境搭建及相关规范。
GraphBit 由一群优秀的研究人员和工程师组成的社区共同打造。
安全性
GraphBit 致力于维护其智能体框架的安全标准。我们建议在生产环境中使用环境变量存储 API 密钥、及时更新 GraphBit,并采用适当的密钥管理方案。如果您发现任何安全漏洞,请通过 GitHub Security 或电子邮件以负责任的方式报告,而非公开创建问题。
有关详细的报告流程和响应时间表,请参阅我们的 安全策略。
许可证
GraphBit 项目采用 Apache License, Version 2.0 许可证。
完整条款与条件请参阅 完整许可证。
版权所有 © 2023–2026 InfinitiBit GmbH。保留所有权利。
版本历史
GraphBit_Python_v0.6.62026/03/25GraphBit_Python_v0.6.52026/02/18GraphBit_Python_Version_0.6.42026/02/12v0.6.32026/02/10v0.6.22026/02/10v0.6.12026/01/12v0.6.02025/12/02v0.5.12025/10/24v0.5.02025/10/03v0.4.02025/09/11v0.3.02025/07/16v0.2.02025/06/27v0.1.02025/06/10相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

