gpt-pilot
GPT Pilot 是一款旨在成为“真正 AI 开发者”的开源工具,它超越了传统的代码自动补全或简单的辅助功能,能够独立构建完整的应用程序。与传统 AI 助手不同,GPT Pilot 不仅能编写代码,还能主动调试错误、与你讨论技术难题、请求代码审查,并实现完整的功能模块。
它的核心理念是:在大语言模型能力范围内,AI 可以完成约 95% 的编码工作,而剩余关键的 5% 仍需人类开发者把控,直到通用人工智能(AGI)完全成熟。这种“人机协作”模式让开发者从繁琐的重复劳动中解放出来,专注于架构设计与核心逻辑决策。
GPT Pilot 特别适合希望提升开发效率的软件工程师、全栈开发者以及技术团队。无论是快速原型验证,还是生产级应用开发,它都能作为得力的编程伙伴全程参与。其独特之处在于模拟真实开发流程,具备上下文理解与多轮交互能力,而非单次生成代码片段。
目前,GPT Pilot 已演进为 Pythagora VS Code 插件的核心引擎,用户可直接在熟悉的编辑环境中体验这一创新工作流。虽然原仓库已停止维护,但其技术理念仍在持续迭代中,值得关注与研究。
使用场景
一位初创公司的全栈开发者需要在周末前独立交付一个包含用户认证、数据看板和管理后台的 MVP 产品,时间紧任务重。
没有 gpt-pilot 时
- 开发者需手动搭建项目骨架,逐个配置路由、数据库连接和基础中间件,耗时数小时且易出错。
- 编写重复性高的 CRUD 代码和前端组件时,只能依赖零散的代码片段或手动敲击,效率低下且容易疲劳。
- 遇到复杂的跨文件 Bug 时,需要在多个文件间反复切换排查,缺乏全局视角,调试过程漫长。
- 功能开发中断频繁,每次上下文切换(如从写接口转到修样式)都会打断心流,导致整体进度缓慢。
- 独自面对庞大代码库感到孤立无援,缺乏实时“结对编程”伙伴来讨论架构或审查逻辑漏洞。
使用 gpt-pilot 后
- gpt-pilot 直接生成完整的项目结构和可运行的基础框架,开发者只需确认技术栈,几分钟内即可启动核心业务逻辑开发。
- 针对具体功能需求,gpt-pilot 自动编写包括后端 API、数据库模型及前端页面在内的全套代码,将编码时间缩短 90%。
- 当出现错误时,gpt-pilot 能自主分析堆栈信息,定位跨文件问题并给出修复方案,甚至直接应用补丁,大幅降低调试门槛。
- 开发者全程保持专注,仅需通过自然语言描述需求或审核关键决策,gpt-pilot 负责处理细节实现和上下文衔接。
- gpt-pilot 扮演全天候结对程序员角色,主动询问需求细节、提示潜在风险并请求代码审查,让单人开发拥有团队般的协作感。
gpt-pilot 将开发者从繁琐的编码劳动中解放出来,使其真正专注于产品逻辑与创新,实现了单人团队快速构建生产级应用的可能。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
🧑✈️ GPT PILOT 🧑✈️
GPT Pilot 不仅能生成代码,还能构建应用!
此仓库已不再维护。
欲了解更多信息,请访问 Pythagora.ai
GPT Pilot 是 Pythagora VS Code 扩展 的核心技术,旨在提供 首个真正的 AI 开发者助手。它不仅仅是自动补全工具或 PR 提交信息的辅助工具,而是一位能够编写完整功能、调试代码、与你讨论问题、请求代码评审等的真正 AI 开发者。
📫 如果您希望获取未来版本的更新信息或与我们联系,请加入我们的 Discord 服务器,或者您也可以在此处填写您的电子邮箱地址 (http://eepurl.com/iD6Mpo)。📬
- 🔌 需求
- 🚦 如何开始使用 gpt-pilot?
- 🔎 示例
- 🐳 如何在 Docker 中启动 gpt-pilot?
- 🧑💻 CLI 参数
- 🏗 GPT Pilot 是如何工作的?
- 🕴 GPT Pilot 与 Smol developer 和 GPT engineer 有何不同?
- 🍻 贡献
- 🔗 与我们联系
- 🌟 星标历史
GPT Pilot 的目标是研究大型语言模型在多大程度上可以用于生成完全可用、可投入生产的应用程序,同时由开发者负责监督实施过程。
核心理念是:AI 可以编写应用程序的大部分代码(或许高达 95%),但剩下的 5% 仍需要开发者来完成——在我们实现通用人工智能之前,这一点将一直如此。
如果您对我们在此项目中的学习成果感兴趣,可以查看 我们的最新博客文章。
🔌 需求
- Python 3.9+
🚦如何开始使用 gpt-pilot?
👉 如果您使用 VS Code 作为 IDE,最简单的方式是下载 GPT Pilot VS Code 扩展。👈
否则,您可以使用命令行工具。
如果您是 GPT Pilot 的新用户:
在安装好 Python 和(可选)PostgreSQL 后,请按照以下步骤操作:
git clone https://github.com/Pythagora-io/gpt-pilot.git(克隆仓库)cd gpt-pilot(进入仓库目录)python3 -m venv venv(创建虚拟环境)source venv/bin/activate(或在 Windows 上运行venv\Scripts\activate)(激活虚拟环境)pip install -r requirements.txt(安装依赖项)cp example-config.json config.json(创建config.json文件)- 在
config.json文件中设置您的密钥及其他配置:- LLM 提供商(
openai、anthropic或groq)的密钥和端点(默认值为null)(请注意,Azure 和 OpenRouter 可通过openai设置支持) - 您的 API 密钥(如果为
null,则会从环境变量中读取) - 数据库设置:默认使用 SQLite,PostgreSQL 也应能正常工作
- 您还可以选择更新
fs.ignore_paths,添加不应被 GPT Pilot 追踪的文件或文件夹,例如编译器生成的文件夹
- LLM 提供商(
python main.py(启动 GPT Pilot)
所有生成的代码都将存储在名为“workspace”的文件夹中,该文件夹以您启动 pilot 时输入的应用程序名称命名。
🔎 示例
点击此处 查看所有由 GPT Pilot 创建的应用示例。
PostgreSQL 支持
GPT Pilot 默认使用内置的 SQLite 数据库。如果您想使用 PostgreSQL 数据库,需要额外安装 asyncpg 和 psycopg2 包:
pip install asyncpg psycopg2
然后,您需要更新 config.json 文件,将 db.url 设置为 postgresql+asyncpg://<user>:<password>@<db-host>/<db-name>。
🧑💻️ CLI 参数
列出已创建的项目(应用)
python main.py --list
注意:对于每个项目(应用),此命令也会列出“分支”。目前我们只支持一个分支(称为“main”),未来计划增加对多个项目分支的支持。
加载并从项目的最新步骤继续
python main.py --project <app_id>
加载并从项目的特定步骤继续
python main.py --project <app_id> --step <step>
警告:这将删除指定步骤之后的所有进度!
删除项目(应用)
python main.py --delete <app_id>
删除具有指定 app_id 的项目。警告:此操作不可撤销!
其他命令行选项
还有一些其他命令行选项,主要用于支持从我们的 VSCode 插件调用 GPT Pilot。要查看所有可用选项,请使用 --help 标志:
python main.py --help
🏗 GPT Pilot 是如何工作的?
以下是 GPT Pilot 创建应用程序的步骤:
- 您输入应用名称和描述。
- 产品负责人代理 就像现实生活中一样,什么都不做。:)
- 如果项目描述不够清晰,需求撰写者代理 会提出几个问题,以便更好地理解需求。
- 架构师代理 拟定应用将使用的技术栈,并检查这些技术是否已安装在本地机器上;若未安装,则进行安装。
- 技术负责人代理 列出开发者需要实现的开发任务。
- 开发者代理 针对每项任务,以人类可读的形式详细说明实现该任务所需的步骤。
- 代码猿代理 根据开发者的描述和现有文件,完成代码修改。
- 评审员代理 对任务的每一步进行审查;若发现错误,会将其退回给代码猿代理。
- 故障排除员代理 在出现问题时,帮助您向 GPT Pilot 提供有效的反馈。
- 调试器代理 虽然大家都不太想见到他,但当事情不顺时,他却是您的最佳伙伴。
- 技术文档编写员代理 为项目编写文档。
🕴 GPT Pilot 与 Smol developer 和 GPT engineer 有何不同?
- GPT Pilot 与开发者协作,共同构建一个完全可用且可投入生产的应用。我认为目前(至少在短期内)AI 还无法在没有开发者参与的情况下独立创建应用。因此,GPT Pilot 会像真实开发者一样,逐步编写代码,并在开发过程中及时调试遇到的问题。如果遇到卡壳的情况,作为负责人的您可以直接查看代码并修复问题。而其他类似工具通常会一次性生成整个代码库,这样一来,无论是 AI 还是开发者,都很难定位和修复其中的 bug。
- 支持规模化开发:GPT Pilot 并非仅用于创建简单应用,而是旨在适应任何规模的项目。它内置了代码筛选机制,因此在每次与大语言模型的对话中,无需将整个代码库都纳入上下文,而是只向 LLM 展示当前任务相关的代码片段。当应用开发完成后,您可以通过提供新增功能的指令继续推进项目。
🍻 贡献
如果您有兴趣为 GPT Pilot 做贡献,请加入我们的 Discord 社区,浏览公开的 GitHub 问题,看看是否有您感兴趣的议题。我们非常欢迎您协助解决这些问题。建议您先阅读上述博客文章,了解其架构设计,再深入代码库。
🖥 开发工作
除了研究之外,GPT Pilot 还需要在各种场景下进行调试和优化。例如,我们发现生成代码的质量对开发任务的粒度非常敏感:当任务过于宽泛时,生成的代码往往包含大量难以修复的 bug;而当任务过于细化时,GPT 又似乎难以将新内容融入现有代码中。
📊 数据监控
为了持续改进 GPT Pilot,我们正在收集部分事件数据,您可随时选择退出数据收集。更多详情请参阅 这里。
🔗 与我们联系
🌟 作为一款开源工具,如果您能为 GPT-Pilot 仓库点个赞,对我们来说将是莫大的鼓励 🌟
💬 欢迎加入 Discord 社区,与我们互动交流。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。



