autobe
AutoBE 是一款专为 TypeScript 后端开发打造的 AI 编程助手,旨在帮助用户通过自然语言对话,快速从原型构建出可投入生产环境的后端应用。它主要解决了传统后端开发中需求分析耗时、代码易出错以及测试覆盖不足等痛点,能够根据用户的描述自动生成包含完整规格说明书、数据库设计、API 文档及端到端测试用例在内的全套代码,并确保生成的代码 100% 可通过编译且运行稳定。
这款工具非常适合希望快速验证想法的创业者、需要提升交付效率的资深开发者,以及渴望学习规范后端架构的初级程序员。其独特的技术亮点在于深度融合了“编译器技能”,利用 AI 友好的编译机制在生成阶段即规避语法与逻辑错误,同时内置强大的 E2E 测试功能以保障系统稳定性。用户只需在聊天界面描述需求(如“创建一个电商系统”),AutoBE 便能自动完成从需求分析报告到实体关系图、API 控制器及具体业务逻辑实现的全过程。配合本地部署的 Playground 环境,开发者还能灵活接入各类大模型,轻松实现从概念到落地的高效转化。
使用场景
一位初创公司的技术负责人需要在两天内向投资人演示一个具备完整后端逻辑的“社区电商原型”,但团队目前缺乏专职后端开发人员。
没有 autobe 时
- 架构设计耗时久:从零开始梳理数据库实体关系(ERD)和 API 接口定义需要数天时间,严重压缩开发窗口。
- 代码质量不稳定:匆忙手写的 TypeScript 代码常出现类型错误或运行时崩溃,调试过程占据大量精力。
- 测试覆盖率为零:为确保演示不翻车需手动编写端到端测试,但在工期压力下往往被直接舍弃,导致演示风险极高。
- 文档缺失:缺乏自动生成的 API 文档和数据库说明,前后端协作或后续交接时沟通成本巨大。
使用 autobe 后
- 即时生成架构:只需在对话框输入“构建一个带用户系统和订单管理的社区电商后端”,autobe 即刻输出完整的数据库 Schema 和 API 规范。
- 编译器级代码保障:autobe 利用编译器技能生成 100% 可构建的 TypeScript 代码,彻底消除低级语法错误和类型不匹配问题。
- 内置稳定性测试:工具自动生成全覆盖的 E2E 测试用例,确保核心业务流程在演示中稳定运行,无需人工补写测试。
- 文档代码同步产出:autobe 同步生成详细的 API 文档和数据结构说明,让原型不仅可用,更具备生产级的可维护性。
autobe 将原本需要一周的后端搭建工作压缩至小时级,让非后端背景的开发者也能快速交付高质量、可运行的生产级原型。
运行环境要求
- Linux
- macOS
- Windows
- 非必需(支持本地模型如 qwen3.5,具体显存需求取决于所选模型大小
- 若使用云端 LLM 则无需本地 GPU)
未说明(建议根据运行的本地大模型规模配置,通常大型模型需 16GB+)

快速开始
AutoBE - 从原型到生产的 AI 后端构建工具
通过 AutoBE 的聊天界面,用自然语言描述你的后端需求。
AutoBE 将分析你的需求并为你构建后端应用。生成的后端应用完全兼容 AI 友好的编译器,并通过强大的端到端测试功能确保稳定性。
借助 AutoBE,你可以快速搭建第一个后端应用,随后使用 Claude Code 等 AI 编码助手进行维护和扩展,从而提升开发效率与系统稳定性。
AutoBE 会生成完整的规范说明、详尽的数据库与 API 文档、全面的测试覆盖率以保障稳定性,以及清晰的实现逻辑,既可作为初级开发者的学习基础,又能显著提高资深开发人员的工作效率。
请查看由 AutoBE 生成的这些完整后端应用示例:
https://github.com/user-attachments/assets/b995dd2a-23bd-43c9-96cb-96d5c805f19f
- 待办事项列表:
todo - Reddit 社区:
reddit - 电子商务:
shopping - ERP 系统:
erp- 需求分析:报告
- 数据库设计:实体关系图 / Prisma 模式
- API 设计:API 控制器 / DTO 结构
- 端到端测试函数:
test/features/api - API 实现:
src/providers
快速开始
git clone https://github.com/wrtnlabs/autobe --depth=1
cd autobe
pnpm install
pnpm run playground
要使用 AutoBE,请克隆仓库并在本地运行游乐场应用。这将允许你与 AutoBE 的 AI 代理进行对话、管理多个会话,并使用包括本地模型 qwen3.5-397b-a17b 在内的多种 LLM 提供商。
安装完成后,游乐场将在 http://localhost:5173 上可用。你可以通过聊天界面与 AutoBE 互动——只需简单描述你想构建的内容,AutoBE 就会为你生成后端应用。
以下是一个示例对话脚本,指导 AutoBE 创建一个“经济/政治讨论版”:
- 需求分析:“我想创建一个经济/政治讨论版。由于我对编程不太熟悉,所以请按照你认为合适的方式撰写一份需求分析报告。”
- 数据库设计:“设计数据库模式。”
- API 规范:“创建 API 接口规范。”
- 测试:“编写端到端测试函数。”
- 实现:“实现 API 函数。”

游乐场包含一个回放功能,地址为 http://localhost:5173/replay/index.html,你可以在那里查看 AutoBE 开发团队在测试和基准测试中留下的聊天记录。
文档资源
更多详细资源请访问我们的官方网站。
🏠 首页
📖 功能
- 🤖 代理库
- 📡 WebSocket 协议
- 🛠️ 后端技术栈
🔗 附录
AutoBE 的工作原理
flowchart
subgraph "后端编码代理"
coder("Facade 控制器")
end
subgraph "功能代理"
coder --"需求分析"--> analyze("分析")
coder --"ERD"--> database("数据库")
coder --"API 设计"--> interface("接口")
coder --"测试代码" --> test("测试")
coder --"主程序" --> realize("实现")
end
subgraph "编译器反馈"
database --"验证" --> prismaCompiler("<a href="https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/database/AutoBeDatabase.ts" target="_blank">数据库编译器</a>")
interface --"生成" --> openapiCompiler("<a href="https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/openapi/AutoBeOpenApi.ts" target="_blank">OpenAPI 编译器</a>")
test --"分析" --> testCompiler("<a href="https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/test/AutoBeTest.ts" target="_blank">测试编译器</a>")
realize --"编译" --> realizeCompiler("混合编译器")
end
AutoBE 遵循瀑布式方法论来生成后端应用,由 40 多个专业代理负责处理每个阶段。这些代理在整个开发过程中以协调一致的团队形式协同工作。
每个瀑布阶段都包含对 AI 友好的编译器,以确保生成代码的类型安全性。与直接生成代码不同,AutoBE 的代理首先使用预定义的模式构建语言中立的抽象语法树(AST)。在进行任何代码生成之前,每个 AST 节点都会根据类型规则进行验证,从而在概念层面而非编译阶段捕获结构性错误。
这种方法旨在确保最终生成的 TypeScript 和 Prisma 代码能够 100% 正常构建。根据我们对多个示例项目的测试结果,包括电子商务平台、讨论论坛和任务管理系统,AutoBE 在各种不同类型的应用中均能保持这一编译保证。
为了说明这一过程,以下是我们的“经济/政治讨论论坛”示例的各阶段输出:
- 需求分析:报告
- 数据库设计:实体关系图 / Prisma 模式
- API 规范:API 控制器 / DTO 结构
- 端到端测试函数:
test/features/api - API 实现:
src/providers
基准测试
AutoBE 包含一个自动化评估管道,可对 13 种以上的 LLM 模型和 4 种项目类型生成的后端进行评分。实时结果请访问 autobe.dev/benchmark。
该基准测试会评估编译正确性、文档质量、需求覆盖率、测试覆盖率、逻辑完整性、API 完整性以及 AI 代理分析(安全性、幻觉问题、代码质量)。每个模型的得分范围为 0–100 分,并按 A–F 等级划分。
| 模型 | Todo | 购物 | ERP | 平均 | |
|---|---|---|---|---|---|
| glm-5 | 88 (B) | 87 (B) | 82 (B) | 87 (B) | 86 |
| claude-sonnet-4.6 | 87 (B) | 85 (B) | 72 (C) | 85 (B) | 82 |
| gpt-5.4-mini | 89 (B) | 87 (B) | 74 (C) | 78 (C) | 82 |
| qwen3-coder-next | 86 (B) | 76 (C) | 75 (C) | 88 (B) | 81 |
| qwen3.5-27b | 88 (B) | 81 (B) | 77 (C) | 78 (C) | 81 |
| minimax-m2.7 | 90 (A) | 71 (C) | 77 (C) | 79 (C) | 79 |
| gpt-5.4 | 79 (C) | 78 (C) | 79 (C) | 80 (B) | 79 |
运行基准测试
# 执行所有模型(默认)
corepack pnpm estimate
# 仅运行单个模型
corepack pnpm estimate -- --model kimi-k2.5
# 仅运行单个项目
corepack pnpm estimate -- --project todo
# 同时指定模型和项目
corepack pnpm estimate -- --model glm-5 --project shopping
# 如果已全局安装 pnpm
pnpm estimate
报告将保存至以下路径:
packages/estimate/reports/benchmark/{model}/{project}/estimate-report.json
此外,您无需使用所有阶段——只需根据需求停留在任意阶段即可。无论您只需要需求分析、数据库设计、API 规范,还是端到端测试,AutoBE 都能适应您的工作流程。
另外,如果您因语言偏好而非工作流程需求而跳过完整流程,此功能目前正在开发中——AutoBE 的语言中立 AST 结构很快将支持除 TypeScript 之外的其他编程语言。
类型安全的客户端 SDK
每个由 AutoBE 生成的后端都会自动附带一个类型安全的客户端 SDK,使前端集成无缝且无误。该 SDK 提供:
- 零配置:SDK 与您的后端同时自动生成,无需手动设置
- 100% 类型安全:全面的 TypeScript 支持,具备自动补全和编译时验证功能
- 框架无关:适用于 React、Vue、Angular 或任何 TypeScript/JavaScript 项目
- 端到端测试集成:驱动 AI 生成的测试套件,实现全面的后端测试
import api, { IPost } from "autobe-generated-sdk";
// 类型安全的 API 调用,支持完整自动补全
const connection: api.IConnection = {
host: "http://localhost:1234",
};
await api.functional.users.login(connection, {
body: {
email: "user@example.com",
password: "secure-password",
},
});
// TypeScript 在编译时捕获错误
const post: IPost = await api.functional.posts.create(connection, {
body: {
title: "Hello World",
content: "我的第一篇帖子",
// authorId: "123" <- 如果缺少此字段,TypeScript 会报错!
},
});
该 SDK 消除了传统 API 集成中的痛点——不再需要手动定义类型,不会再出现运行时意外,也无需再查找 API 文档。您的前端开发人员可以专注于构建功能,而不是纠结于 API 协议。
超越前端集成:该 SDK 不仅支持前端开发,还用于生成端到端测试。AutoBE 内部同样使用这个类型安全的 SDK 来生成全面的测试套件,确保每个 API 端点都得到充分测试。这形成了一个强大的反馈回路,进一步提升后端的稳定性——AI 使用 SDK 编写测试,SDK 确保类型安全,而您的后端则随着每次生成的测试不断变得更加可靠。
路线图时间表
gantt
dateFormat YYYY-MM-DD
title AutoBE Delta 路线图时间线(2026年第一季度)
section 本地 LLM 基准测试
Qwen3 数据库阶段 : 已完成, 2026-01-01, 31天
Qwen3 接口阶段 : 已完成, 2026-01-16, 31天
Qwen3 测试阶段 : 已完成, 2026-02-01, 21天
Qwen3 实现阶段 : 已完成, 2026-02-01, 59天
section 验证逻辑增强
动态函数调用模式 : 已完成, 2026-01-01, 7天
验证反馈字符串化 : 已完成, 2026-01-08, 12天
JSON Schema 验证器 : 已完成, 2026-01-08, 12天
模式审查验证逻辑 : 已完成, 2026-01-20, 35天
测试映射计划优化 : 已完成, 2026-02-05, 24天
实现映射计划优化 : 已完成, 2026-02-15, 45天
section RAG 优化
混合搜索(向量 + BM25) : 已完成, 2026-01-01, 14天
动态 K 检索 : 已完成, 2026-01-15, 14天
RAG 初步提示 : 已完成, 2026-01-15, 28天
RAG 基准测试与调优 : 已完成, 2026-02-01, 28天
分析代理重构 : 已完成, 2026-02-01, 28天
section 设计完整性
数据库覆盖率代理 : 已完成, 2026-01-15, 28天
API 端点覆盖率代理 : 已完成, 2026-01-22, 28天
模式关系代理 : 已完成, 2026-02-01, 28天
模式结构代理 : 已完成, 2026-02-01, 28天
模式内容代理 : 已完成, 2026-03-01, 28天
section 多语言支持
Java 编译器 PoC : 已完成, 2026-01-01, 30天
Java 数据库 : 已完成, 2026-01-01, 14天
Java 接口 : 已完成, 2026-01-15, 21天
Java 测试 : 进行中, 2026-02-05, 28天
Java 实现 : 进行中, 2026-03-01, 31天
section 人工修改支持
数据库模式解析器 : 进行中, 2026-02-15, 28天
接口模式解析器 : 进行中, 2026-02-22, 28天
需求同步代理 : 计划中, 2026-03-08, 24天
section 其他事项
系统提示简化 : 已完成, 2026-02-01, 28天
估算代理 : 已完成, 2026-02-01, 28天
Playground 服务增强 : 进行中, 2026-02-15, 28天
PR 文章撰写 : 进行中, 2026-02-15, 30天
AutoBE 已成功完成 Alpha、Beta 和 Gamma 开发阶段,以 100% 的编译成功率 奠定了坚实的基础。当前的 Delta 版本 专注于从横向扩展转向纵向深化。
战略转变:在 Gamma 阶段,我们秉持“尽快发布”的理念,快速实现了 RAG、模块化和补充等功能。而 Delta 版本则通过本地 LLM 基准测试系统性地发现并修复隐藏缺陷,填补了 Gamma 阶段遗留下来的稳定性空白。
重点方向:
- 本地 LLM 基准测试:以 Qwen3 等开源模型为基准,挖掘商业模型掩盖的隐藏缺陷,确保在各类模型上都能更稳健地运行。
- 验证逻辑增强:通过动态函数调用模式、JSON Schema 验证器以及渐进式验证流水线,强化模式和验证逻辑。
- RAG 优化:完成混合搜索系统(向量 + BM25),实现动态 K 检索,并进行全面的基准测试与调优。
- 设计完整性:构建机制,通过覆盖率和模式审查代理,验证并确保数据库与接口阶段之间的设计一致性。
- 多语言支持:推出 Java/Spring 代码生成功能,同时支持 TypeScript/NestJS;语言中立的 AST 结构也为未来添加更多语言奠定了基础。
- 人工修改支持:通过将用户修改后的代码解析回 AutoBE 的内部 AST 表示,确保维护工作的连续性,使 AutoBE 在初次生成后仍具实用性。
该路线图以 Gamma 阶段的实际生产经验为指导,优先考虑稳定性和深度,而非功能广度。
当前局限性
尽管 AutoBE 可实现 100% 的编译成功率,但仍存在以下局限性:
运行时行为:生成的应用程序虽然能够成功编译,但运行时行为可能需要进一步测试和调整。在服务器执行过程中,可能会出现意外的运行时错误,例如数据库连接问题、API 端点故障或编译阶段未捕获的业务逻辑异常。我们强烈建议在部署到生产环境之前,在开发环境中进行充分的测试。我们的 v1.0 版本旨在解决这些问题,实现 100% 的运行成功率。
设计解读:AutoBE 生成的数据库和 API 设计可能与您的预期有所不同。我们建议在继续实施之前,尤其是部署到生产环境之前,仔细审查生成的规范。
Token 消耗:对于复杂项目,AutoBE 需要消耗大量的 AI Token。根据我们的测试,项目通常会消耗 30M 至 250M+ Token,具体取决于复杂程度(简单的待办事项应用大约需要 4M Token,而复杂的电子商务平台可能需要 250M+ Token)。我们正在通过 RAG 优化来降低未来版本中的这一开销。
维护:AutoBE 侧重于初始生成,不提供持续的维护能力。一旦后端生成完毕,您需要手动处理 bug 修复、功能添加、性能优化和安全更新等工作。我们建议建立一种开发工作流,将生成的代码库与 Claude Code 等 AI 编码助手相结合,以高效地完成后续开发和维护任务。

许可证
AutoBE 根据 GNU Affero 通用公共许可证 v3.0 (AGPL-3.0) 授权。如果您对 AutoBE 本身进行修改,或将之作为网络服务提供,则必须以相同许可证公开您的源代码。
然而,由 AutoBE 生成的后端应用程序可以采用您选择的任何许可证进行再授权,例如 MIT 许可证。这意味着您可以自由地在商业项目中使用 AutoBE 生成的代码,而无需承担开源义务,这与其他代码生成工具的使用方式类似。
版本历史
v0.31.12026/04/10v0.31.02026/04/09v0.30.52026/03/31v0.30.42026/03/25v0.30.32026/03/18v0.30.22026/03/15v0.29.22025/11/18v0.29.12025/11/17v0.29.02025/11/17v0.28.12025/11/09v0.28.02025/11/07v0.27.02025/11/04v0.26.02025/10/26v0.25.72025/10/19v0.25.62025/10/17v0.25.52025/10/13v0.25.42025/10/09v0.25.32025/10/08v0.25.22025/10/05v0.25.12025/10/03常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。