fastagency
FastAgency 是一款专为加速多智能体(Multi-Agent)AI 工作流从原型开发走向生产环境而设计的开源框架。它并非另一个独立的智能体框架,而是作为 AG2(原 AutoGen)生态的强大补充,旨在解决开发者将 Jupyter Notebook 中的实验性代码转化为稳定、可扩展的生产级应用时面临的难题。
过去,将智能体工作流部署为 Web 聊天应用或 REST API 服务往往需要大量重复的基础设施代码,且难以在不同环境间平滑迁移。FastAgency 通过提供统一的编程接口,让开发者仅需几行代码即可快速构建前端交互界面或后端服务。更独特的是,它支持无缝扩展:当业务需要增长时,只需微调配置,即可利用内部消息代理将本地单机部署升级为跨数据中心的多机分布式系统,极大降低了架构演进的复杂度。
这款工具主要面向正在使用 AG2/AutoGen 进行开发的 AI 工程师和研究人员。如果你希望摆脱繁琐的部署流程,专注于优化智能体协作逻辑,并快速将创意落地为高可用的生产系统,FastAgency 将是提升研发效率的理想助手。它以简洁灵活的设计,帮助团队缩短开发周期,轻松应对从概念验证到大规模应用的挑战。
使用场景
某电商公司的算法团队基于 AG2(原 AutoGen)在 Jupyter Notebook 中成功开发了一套“智能客服多智能体系统”,包含负责查询订单、处理退换货及安抚情绪的多个协作 Agent,现在急需将其转化为供客服部门日常使用的 Web 应用。
没有 fastagency 时
- 部署割裂严重:开发人员需手动重写大量胶水代码,将 Notebook 中的原型逻辑迁移至 Flask 或 FastAPI 框架,极易引入兼容性错误。
- 扩展能力缺失:面对大促期间的高并发请求,缺乏内置的消息代理机制,难以将单机脚本快速升级为跨数据中心的分布式集群。
- 交互界面匮乏:默认仅支持命令行交互,若要提供图形化聊天窗口,需额外投入前端资源开发整套 UI 界面。
- 运维成本高昂:从本地调试到生产环境上线周期长达数周,期间需反复调整网络配置和依赖管理,拖慢业务响应速度。
使用 fastagency 后
- 一键生成服务:仅需几行代码即可将现有的 AG2 工作流直接封装为生产级的 REST API 服务或完整的 Web 聊天应用,无需重构核心逻辑。
- 弹性无缝扩容:通过修改少量配置即可启用内部消息代理,自动协调多台机器协同工作,轻松支撑高并发场景下的稳定运行。
- 统一接口适配:利用统一的编程接口,瞬间为多智能体系统挂载现代化的用户界面,让客服人员能立即通过浏览器与 AI 团队协作。
- 研发效率飞跃:将从原型到生产的转化周期从数周缩短至数小时,团队可专注于优化 Agent 的决策策略而非底层架构搭建。
fastagency 的核心价值在于消除了多智能体系统从实验室原型到工业化落地之间的巨大鸿沟,让开发者能以最快速度交付可扩展的生产级应用。
运行环境要求
- 未说明
未说明
未说明

快速开始

FastAgency
将多智能体工作流快速投入生产环境的最高效方式。
什么是FastAgency?
首先,FastAgency并不是又一个代理式AI框架。如今市面上已有很多此类框架,其中最受欢迎的开源框架是AG2(原名AutoGen)。FastAgency为您提供了一个统一的编程接口,用于在开发和生产环境中部署基于AG2代理框架编写的代理式工作流。只需几行代码,您就可以创建一个与所选智能体交互的Web聊天应用或REST API服务。如果您需要扩展工作负载,FastAgency可以帮助您部署一个完全分布式的系统,利用内部消息代理协调多个数据中心中的多台机器,而无需对本地开发环境进行大量修改。
FastAgency是一个开源框架,旨在加速多智能体AI工作流从原型到生产的过渡。对于使用AG2(原名AutoGen)框架的开发者来说,FastAgency使您能够无缝地将Jupyter Notebook中的原型扩展为功能齐全、可直接投入生产的应用程序。凭借多框架支持、统一的编程接口以及强大的API集成能力,FastAgency简化了部署流程,节省了时间和精力,同时保持了灵活性和高性能。
无论您是在编排复杂的AI智能体,还是将外部API集成到工作流中,FastAgency都提供了将概念快速转化为生产所需的工具,从而缩短开发周期,让您专注于优化多智能体系统。
核心特性
跨用户界面的统一编程接口:FastAgency提供了一个通用编程接口,使您只需开发一次核心工作流,即可在各种用户界面中重复使用,而无需重写代码。这包括通过
ConsoleUI支持基于控制台的应用程序,以及通过MesopUI支持基于Web的应用程序。无论您需要命令行工具还是完全交互式的Web应用,FastAgency都允许您在不同环境中部署相同的底层工作流,从而节省开发时间并确保一致性。无缝集成外部API:FastAgency的一大亮点是能够轻松地将外部API集成到您的智能体工作流中。只需几行代码,您就可以导入OpenAPI规范,并再添加一行代码将其连接到您的智能体。这极大地简化了用实时数据、外部处理或第三方服务增强AI智能体的过程。例如,您可以轻松集成天气API,为用户提供动态的实时天气信息,以最小的努力让您的应用更具互动性和实用性。
用于持续集成的测试器类:FastAgency还提供了一个测试器类,使开发者能够为多智能体工作流编写和执行测试。这一特性对于保持应用程序的可靠性和健壮性至关重要,它允许您自动验证智能体的行为和交互。测试器类设计用于与**持续集成(CI)**流水线无缝集成,帮助您尽早发现并修复错误,确保工作流在扩展到生产环境时仍能正常运行。
用于编排的命令行界面(CLI):FastAgency包含一个功能强大的命令行界面(CLI),用于直接从终端编排和管理多智能体应用程序。CLI使开发者能够快速运行工作流、传递参数并监控智能体之间的交互,而无需完整的GUI。这对于自动化部署以及将工作流集成到更广泛的DevOps管道中尤为有用,使开发者能够在管理AI驱动的应用程序时保持控制力和灵活性。
为什么选择FastAgency?
FastAgency弥合了快速原型开发与生产就绪部署之间的差距,赋能开发者快速高效地将多智能体系统付诸实践。通过集成熟悉的框架如AG2(原名AutoGen),提供强大的API集成能力,并配备稳健的CI测试工具,FastAgency降低了通常与在实际应用中部署AI智能体相关的复杂性和开销。
无论您是在构建交互式控制台工具、开发功能齐全的Web应用,还是编排大规模的多智能体系统,FastAgency都能帮助您更快、更可靠、更灵活地完成部署。
支持的运行时
目前,唯一支持的运行时是 AG2(前身为 AutoGen)。
支持的用户界面
FastAgency 当前支持使用 AG2(前身为 AutoGen)定义的工作流,并提供了适用于不同类型应用的选项:
控制台:使用
ConsoleUI界面进行基于命令行的交互。这非常适合在文本环境中开发和测试工作流。
支持的网络适配器
FastAgency 可以使用可链式的网络适配器,从而轻松构建可扩展、生产就绪的架构来部署您的工作流。目前,我们支持以下网络适配器:
通过 FastAPI 提供的 REST API:使用
FastAPIAdapter通过 FastAPI 服务器部署您的工作流。此设置允许您在多个工作进程中运行工作流,并使用高度可扩展且稳定的 ASGI 服务器进行服务。通过 FastStream 使用 NATS.io:利用
NatsAdapter将 NATS.io MQ 消息代理用于高度可扩展、生产就绪的部署。该接口适用于 VPN 环境中的部署,或者与FastAPIAdapter结合使用,以身份验证和安全的方式公开服务工作流。
快速入门
项目设置
我们 强烈建议 使用 Cookiecutter 来设置 FastAgency 项目。它会创建项目文件夹结构、默认工作流,自动安装所有必要的依赖项,并生成一个可用于 Visual Studio Code 开发的 devcontainer。
使用以下命令安装 Cookiecutter:
pip install cookiecutter运行
cookiecutter命令:cookiecutter https://github.com/ag2ai/cookiecutter-fastagency.git假设您使用了默认值,您应该会看到如下输出:
[1/4] project_name (My FastAgency App): [2/4] project_slug (my_fastagency_app): [3/4] Select app_type 1 - fastapi+mesop 2 - mesop 3 - nats+fastapi+mesop Choose from [1/2/3] (1): 1 [4/4] Select python_version 1 - 3.12 2 - 3.11 3 - 3.10 Choose from [1/2/3] (1): [5/5] Select authentication 1 - none 2 - google Choose from [1/2] (1):要运行基于 LLM 的应用,您需要所使用的 LLM 的 API 密钥。最常用的 LLM 是 OpenAI。要使用它,请创建一个 OpenAI API Key,并使用以下命令将其设置为终端中的环境变量:
export OPENAI_API_KEY=openai_api_key_here使用以下命令在 Visual Studio Code 中打开生成的项目:
code my_fastagency_app项目打开后,您将看到以下选项,提示您在 devcontainer 中重新打开该项目:
在 devcontainer 中重新打开项目后,您可以通过运行提供的测试来验证设置是否正确,命令如下:
pytest -s如果一切设置正确,您应该会看到如下输出:
=================================== test session starts =================================== platform linux -- Python 3.12.7, pytest-8.3.3, pluggy-1.5.0 rootdir: /workspaces/my_fastagency_app configfile: pyproject.toml plugins: asyncio-0.24.0, anyio-4.6.2.post1 asyncio: mode=Mode.STRICT, default_loop_scope=None collected 1 item tests/test_workflow.py . [100%] ==================================== 1 passed in 1.02s ====================================
工作流开发
定义工作流
你需要定义应用程序将使用的工作流。在这里,你可以指定代理之间的交互方式以及它们的具体行为。以下是一个由 Cookiecutter 在 my_fastagency_app/workflow.py 中生成的简单工作流定义示例:
import os
from typing import Any
from autogen import ConversableAgent, LLMConfig
from fastagency import UI
from fastagency.runtimes.ag2 import Workflow
llm_config = LLMConfig(
model="gpt-4o-mini",
api_key=os.getenv("OPENAI_API_KEY"),
temperature=0.8,
)
wf = Workflow()
@wf.register(name="simple_learning", description="学生和教师的学习聊天") # type: ignore[misc]
def simple_workflow(ui: UI, params: dict[str, Any]) -> str:
initial_message = ui.text_input(
sender="Workflow",
recipient="User",
prompt="我可以帮助你学习数学。你想探讨哪个主题呢?",
)
with llm_config:
student_agent = ConversableAgent(
name="Student_Agent",
system_message="你是一位愿意学习的学生。",
)
teacher_agent = ConversableAgent(
name="Teacher_Agent",
system_message="你是一位数学老师。",
)
response = student_agent.run(
teacher_agent,
message=initial_message,
summary_method="reflection_with_llm",
max_turns=3,
)
return ui.process(response)
这段代码设置了一个学生与教师之间的简单学习聊天场景。它定义了代理及其交互方式,并指定了对话的总结方法。
运行与调试工作流
为了确保我们定义的工作流正常运行,可以使用 MesopUI 在本地进行测试。以下代码位于 my_fastagency_app/local/main_mesop.py 中,用于导入已定义的工作流并设置 MesopUI。
在 Linux 和 macOS 上,你可以通过以下命令在本地运行 Mesop 应用程序:
gunicorn my_fastagency_app.local.main_mesop:app
在 Windows 上,请使用以下命令:
waitress-serve --listen=0.0.0.0:8000 my_fastagency_app.local.main_mesop:app
在浏览器中打开 MesopUI 的 URL http://localhost:8000。现在你可以使用图形用户界面手动启动、运行、测试和调试 AutoGen 工作流。

部署
构建 Docker 镜像
如果你是使用 Cookiecutter 创建的项目,那么构建 Docker 镜像只需运行提供的脚本即可,如下所示:
./scripts/build_docker.sh
运行 Docker 容器
同样地,运行 Docker 容器也只需执行提供的脚本,如下所示:
./scripts/run_docker.sh
部署到 Fly.io
如果你是使用 Cookiecutter 创建的项目,那么内置的脚本可以帮助你将工作流部署到 Fly.io。由于 Fly.io 的应用命名空间是全局的,你选择的应用名称可能已被占用。要检查应用名称是否可用并预留该名称,可以运行以下脚本:
./scripts/register_to_fly_io.sh
一旦预留好应用名称,你可以使用以下脚本来测试是否能够成功部署到 Fly.io:
./scripts/deploy_to_fly_io.sh
不过,这仅用于测试目的。实际部署应使用 GitHub Actions{target="_blank"},具体说明如下。
Cookiecutter 已经生成了所有必要的文件,以便通过 GitHub Actions 将你的应用部署到 Fly.io。你只需将代码推送到 GitHub 仓库的 main 分支,GitHub Actions 就会自动将你的应用部署到 Fly.io。为此,你需要在 GitHub 仓库中设置以下密钥:
FLY_API_TOKENOPENAI_API_KEY
有关如何创建这些密钥并将其添加为秘密的详细信息,请参考以下链接:
未来计划
我们正在积极扩展 FastAgency 的功能。除了支持 AG2(原 AutoGen)之外,我们还计划集成对其他框架、其他网络提供商以及其他 UI 框架的支持。
⭐⭐⭐ 保持联系 ⭐⭐⭐
请关注我们的文档和社区更新,及时了解新功能和集成信息,访问我们的 Discord 服务器。FastAgency 不断发展,以支持新的框架、API 和部署策略,确保你在 AI 驱动开发领域始终处于前沿。
最后但同样重要的是,请为我们GitHub 仓库 点个赞,以表达你的支持!
你的支持使我们能够与你保持紧密联系,并激励我们继续开发和改进这个框架。感谢你的支持!
贡献者
感谢所有让这个项目变得更优秀的杰出人士!
版本历史
v0.10.22025/12/09v0.9.72025/07/25v0.9.62025/07/10v0.9.42025/06/28v0.9.32025/06/26v0.9.1.post02025/05/07v0.9.12025/05/06v0.9.02025/04/25v0.8.6.post02025/04/16v0.8.62025/04/11v0.8.42025/04/020.3.42024/11/12v0.3.32024/11/06v0.3.22024/10/23v0.3.12024/10/18v0.3.02024/10/15v0.2.52024/10/14v0.2.42024/10/08v0.2.32024/10/04v0.2.22024/10/03常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。