agentica
Agentica 是一个专为 TypeScript 开发者打造的 AI 智能体(Agent)开发框架,核心专注于简化"AI 函数调用”的实现过程。它旨在解决传统 AI 代理开发中复杂的集成难题,让开发者无需深入钻研大模型底层原理,只需列出已有的业务函数,即可快速构建具备执行能力的智能体。
无论是后端工程师还是前端开发者,只要熟悉 TypeScript,就能轻松上手。Agentica 支持三种灵活的函数接入方式:直接复用现有的 TypeScript 类、导入标准的 Swagger/OpenAPI 文档,或连接 MCP(模型上下文协议)服务器。这意味着你可以像搭积木一样,将电商交易、新闻检索或文件管理等现有功能迅速转化为 AI 能力。
其独特的技术亮点在于“编译器增强”技能,利用静态类型检查确保 AI 调用的函数参数准确无误,大幅减少了运行时错误。配合内置的项目初始化向导,用户可一键生成包含常见服务(如 GitHub、Google Calendar 等)的 Node.js 或 NestJS 项目模板。如果你希望用熟悉的后端开发经验来构建可靠的 AI 应用,Agentica 能让这一过程变得简单而高效。
使用场景
某电商初创团队的后端工程师需要快速构建一个能处理用户自然语言指令(如“帮我买台 MacBook")的智能客服 Agent,并对接内部现有的订单系统与第三方物流 API。
没有 agentica 时
- 开发门槛高:工程师需深入研究 Prompt Engineering 和复杂的 LLM 函数调用协议,将后端业务逻辑手动转换为 AI 可理解的 Schema,耗时且易错。
- 维护成本大:一旦后端 API 接口变更(如参数调整),必须同步手动更新 AI 层的描述文件,极易出现文档与代码不一致导致的调用失败。
- 集成碎片化:难以统一纳管不同类型的接口,内部 TypeScript 类、外部 Swagger 文档和 MCP 服务需要编写多套适配代码,架构臃肿。
- 调试困难:缺乏类型安全保护,AI 生成的参数错误往往在运行时才暴露,排查问题如同大海捞针。
使用 agentica 后
- 零样本开发:工程师只需列出原有的 TypeScript 类或 Swagger 文档,agentica 利用编译器技能自动将其转化为高精度的 AI 函数定义,无需重写任何业务逻辑。
- 实时同步:后端代码或 API 文档更新后,agentica 自动感知并刷新 AI 能力,彻底消除了人工维护描述文件的滞后性与错误率。
- 统一协议栈:通过简单的配置即可同时挂载内部 TS 服务、外部 OpenAPI 及 MCP 服务器,将异构数据源无缝整合为统一的 Agent 大脑。
- 编译级保障:依托 Typia 技术,在编译阶段即可校验 AI 输出参数的类型安全性,将运行时错误拦截在开发期,大幅提升系统稳定性。
agentica 让传统后端开发者无需学习复杂的 AI 原理,仅凭现有的函数代码即可瞬间构建出高可靠、易维护的智能 Agent 应用。
运行环境要求
- 未说明
未说明
未说明

快速开始
Agentica,AI 函数调用框架

专注于 AI 函数调用的智能体 AI 框架。
别再害怕开发 AI 智能体了。只需列出以下三种协议中的函数即可。这就是你进行 AI 智能体开发需要做的全部工作。
- TypeScript 类
- Swagger/OpenAPI 文档
- MCP(模型上下文协议)服务器
想打造一个电商智能体吗?引入电商相关功能即可。需要一个新闻智能体吗?从报社获取 API 功能就行了。只要准备好你需要的任何功能,它就能成为一个 AI 智能体。
你是 TypeScript 开发者吗?那你就已经是 AI 开发者了。熟悉后端开发吗?那你已经对 AI 开发非常熟练了。任何能够编写函数的人,都能创建 AI 智能体。
import { Agentica, assertHttpController } from "@agentica/core";
import OpenAI from "openai";
import typia from "typia";
import { MobileFileSystem } from "./services/MobileFileSystem";
const agent = new Agentica({
vendor: {
api: new OpenAI({ apiKey: "********" }),
model: "gpt-4o-mini",
},
controllers: [
// 来自 TypeScript 类的函数
typia.llm.controller<MobileFileSystem>(
"filesystem",
new MobileFileSystem(),
),
// 来自 Swagger/OpenAPI 的函数
assertHttpController({
name: "shopping",
model: "chatgpt",
document: await fetch(
"https://shopping-be.wrtn.ai/editor/swagger.json",
).then(r => r.json()),
connection: {
host: "https://shopping-be.wrtn.ai",
headers: { Authorization: "Bearer ********" },
},
}),
],
});
await agent.conversate("我想买 MacBook Pro");
📦 设置
$ npx agentica start <目录>
----------------------------------------
Agentica 设置向导
----------------------------------------
? 包管理器(使用方向键)
> npm
pnpm
yarn(berry 不支持)
? 项目类型
NodeJS 智能体服务器
> NestJS 智能体服务器
React 客户端应用
独立应用
? 内置控制器(可多选)
(无)
Google 日历
Google 新闻
> Github
Reddit
Slack
...
设置向导可以帮助你根据需求创建一个新项目。
作为参考,在选择项目类型时,除了“独立应用”之外的任何选项都会实现 WebSocket 协议 用于客户端与服务器之间的通信。
有关完整的设置说明,请访问我们的 入门指南。
💻 体验区
在安装之前,可以通过我们的 交互式体验区 亲身体验 Agentica。
我们的演示展示了 Agentica 在不同集成方式下函数调用功能的强大与简单性。

📚 文档资源
您可以在我们的 官方网站 找到全面的资源。
https://github.com/user-attachments/assets/2f2a4cdc-6cf1-4304-b82d-04a8ed0be0dd
🌟 为什么选择 Agentica?
flowchart
subgraph "JSON Schema 规范"
schemav4("JSON Schema v4 ~ v7") --升级--> emended[["OpenAPI v3.1(修订版)"]]
schema2910("JSON Schema 2019-03") --升级--> emended
schema2020("JSON Schema 2020-12") --修订--> emended
end
subgraph "Agentica"
emended --"人工智能"--> fc{{"AI 函数调用"}}
fc --"OpenAI"--> chatgpt("ChatGPT")
fc --"Google"--> gemini("Gemini")
fc --"Anthropic"--> claude("Claude")
fc --"High-Flyer"--> deepseek("DeepSeek")
fc --"Meta"--> llama("Llama")
chatgpt --"3.1"--> custom(["自定义 JSON Schema"])
gemini --"3.0"--> custom(["自定义 JSON Schema"])
claude --"3.1"--> standard(["标准 JSON Schema"])
deepseek --"3.1"--> standard
llama --"3.1"--> standard
end
Agentica 通过以下策略增强了 AI 函数调用的能力:
- 编译器驱动开发:无需手动编写,直接利用编译器技术自动构建函数调用模式。
- JSON Schema 转换:自动处理不同大模型供应商之间的规范差异,确保无论你选择哪种 AI 模型都能无缝集成。
- 验证反馈:检测并纠正 AI 在参数构造中的错误,大幅减少失误、提升可靠性。
- 选择器智能体:筛选候选函数,以最小化上下文使用量、优化性能并降低 token 消耗。
得益于这些创新,Agentica 使 AI 函数调用比以往更加简单、安全和精准。开发者只需准备与特定用例相关的函数,开发过程便更为直观;而扩展智能体的能力也只需增删函数即可,十分简便。
2023 年,当 OpenAI 宣布推出函数调用功能时,许多人预测基于函数调用的 AI 开发将成为主流。然而,实际上由于函数调用的复杂性和不稳定性,AI 开发的趋势却转向了工作流式智能体。这种工作流式智能体虽然灵活度较低,且需针对特定场景定制,却迅速占据了 AI 智能体生态系统的主导地位。
值得一提的是,随着 Agentica 解决了函数调用的复杂性与不稳定性问题,重新拥抱函数驱动型 AI 开发的时机已经到来。
| 类型 | 工作流式 | 原生函数调用 | Agentica 函数调用 |
|---|---|---|---|
| 目的 | ❌ 特定 | 🟢 通用 | 🟢 通用 |
| 难度 | ❌ 困难 | ❌ 困难 | 🟢 简单 |
| 稳定性 | 🟢 稳定 | ❌ 不稳定 | 🟢 稳定 |
| 灵活性 | ❌ 不灵活 | 🟢 灵活 | 🟢 灵活 |
💬 社区与支持
如需支持、提问或提供反馈,请加入我们的 Discord 社区:
⚖️ 许可证
Agentica 是开源项目,采用 MIT 许可证 授权。
版本历史
v0.44.12026/03/15v0.44.02026/03/13v0.43.32026/03/04v0.43.22026/03/04v0.43.12026/03/04v0.43.02026/02/25v0.42.02026/02/25v0.41.42026/02/13v0.41.32026/02/11v0.41.22026/02/09v0.41.12026/01/30v0.41.02026/01/28v0.40.02026/01/26v0.39.02026/01/11v0.38.02026/01/08v0.37.02026/01/07v0.36.42026/01/01v0.36.32026/01/01v0.36.22025/12/31v0.36.12025/12/29常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。