free-ai-coding
free-ai-coding 是一个专注于整理和对比各类 AI 编程工具的开源项目,旨在帮助开发者轻松找到真正能免费使用顶级模型的平台。当前许多工具虽标榜“免费”,但往往在短暂试用后便限制访问或降级至基础模型,且各家的额度计算方式(如积分、令牌数、请求次数)错综复杂,难以横向比较。free-ai-coding 通过详尽的列表,直观展示了包括 Claude Opus/Sonnet、GPT-5、Gemini Pro 等在内的专业级模型在不同工具中的实际免费额度、是否需要绑定信用卡以及具体的使用限制。
该项目特别引入了 SWE-bench Verified 基准测试成绩作为筛选标准,仅收录在真实编码任务中表现优异(得分超过 60%)的“专业级”模型,确保推荐内容的含金量。无论是希望降低研发成本的个人开发者、需要评估不同模型能力的研究人员,还是寻找高效辅助编程方案的技术团队,都能从中快速获取关键信息,避免试错成本。此外,项目支持多语言文档并欢迎社区共同维护更新,确保信息的时效性与准确性,是探索高质量免费 AI 编程资源的重要参考指南。
使用场景
一名独立开发者正在赶工为一个初创公司构建最小可行产品(MVP),需要在极短时间内完成复杂后端逻辑的编写与调试。
没有 free-ai-coding 时
- 高昂的试错成本:想调用 Claude Opus 或 GPT-5 等顶级模型解决复杂架构问题,但免费额度几分钟耗尽,被迫降级到弱模型,导致代码质量下降且反复出错。
- 繁琐的对比调研:为了寻找下一个“免费羊毛”,不得不花费数小时在论坛和文档中逐个核对各平台的代币限制、是否需绑定信用卡等碎片信息。
- 开发流程频繁中断:在不同工具间切换尝试,一旦某个平台的免费配额用完,必须立即停止当前思路去注册新账号或寻找替代方案,严重打断心流。
- 预算不可控风险:部分工具看似免费实则隐含陷阱,稍不注意就触发付费条款,对于资金紧张的独立开发者而言存在意外的账单风险。
使用 free-ai-coding 后
- 精准锁定高配免费资源:直接查阅列表,迅速定位到如 Rovo Dev CLI(每日 500 万 Token)或 Qwen Code(每日 2000 次请求)等真正提供大额免费额度的顶级模型工具。
- 决策效率显著提升:通过清晰的表格对比,一目了然地掌握各工具的模型能力(SWE-bench 评分)、免费上限及是否需要信用卡,将调研时间从数小时压缩至几分钟。
- 持续稳定的编码体验:根据任务量灵活组合使用多个高限额工具,确保在整个开发周期内都能持续获得专业级 AI 辅助,无需因配额耗尽而中断工作。
- 零成本规避财务风险:明确识别出完全无需绑定信用卡即可使用的工具(如 Warp、Jules),彻底消除误扣费的担忧,让开发者专注于代码本身。
free-ai-coding 通过透明化整合全球优质免费 AI 编程资源,让开发者不再受限于昂贵的订阅费用,真正实现用顶级模型零成本加速产品落地。
运行环境要求
- Windows
- macOS
未说明
未说明

快速开始
最后更新:2025年12月5日 • 欢迎提交 PR 或 Issue
语言: Español • Português • 中文 • Français • 日本語 • हिन्दी • Deutsch
AI 编码工具:专业级模型竟然是免费的
许多 AI 编码工具都宣称“免费”,但通常很快就会用完专业级模型的使用额度,随后你就会被降级。每个工具采用的限制条件(积分、token 数量、请求次数)各不相同,导致比较起来非常困难。这份清单将它们并列展示,以便清楚地了解你真正能免费获得什么。
简而言之 — 免费即可使用的专业级 AI 编码工具
(限额较高的工具排在前面)
| 工具 | 专业级模型 | 免费层级限制 | 需要信用卡 |
|---|---|---|---|
| Qwen Code | Qwen3-Coder-480B | 每天 2,000 次请求 | 不需要 |
| Rovo Dev CLI | Claude Sonnet 4 | 每天 500 万 token(测试版) | 不需要 |
| Gemini CLI | Gemini 3 Pro、Gemini 2.5 Pro | Gemini 3 Pro(需等待名单/付费)、Gemini 2.5 Pro 每天 100 次请求 | 不需要 |
| Cursor | GPT-5.1-Codex-Max | 免费至 2025 年 12 月 11 日(SWE-bench 测试得分 77.9%) | 不需要 |
| Kilo Code | Claude Opus/Sonnet、Gemini 2.5 Pro、GPT‑4.1 | 注册时可获得最高 25 美元的积分奖励(一次性) | 需要 |
| Warp | GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro | 前两个月每月 150 积分,之后每月 75 积分 | 不需要 |
| Trae | Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、GPT‑4.1、GPT‑4o、Gemini 2.5 Pro | 每月 10 次快速请求 + 50 次慢速请求 | 不需要 |
| Amazon Q Developer | Claude Sonnet 4 | 每月 50 次智能代理式请求 | 需要 |
| GitHub Copilot | GPT‑4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1 | 每月 50 次聊天请求 + 2,000 次代码补全 | 不需要 |
| Windsurf | OpenAI、Anthropic、Google、xAI | 每月 25 积分 | 需要 |
| Jules | Gemini 2.5 Pro | 每天 15 个任务 | 不需要 |
| AWS Kiro | Claude 4 Sonnet、Claude 3.7 Sonnet | 每月 50 积分 | 不需要 |
| Qoder | Qwen3-Coder-480B、Claude、GPT、Gemini | 免费层级 + 2 周专业版试用(1,000 积分) | 不需要 |
符合标准的专业级模型
只有在 SWE-bench Verified 测试中得分超过 60% 的模型,才被视为适用于实际编码任务的专业级模型。以下是当前列表:
| 模型 | SWE-bench Verified | 提供者 |
|---|---|---|
| Claude Opus 4.5 | 80.9% | Anthropic |
| GPT-5.1-Codex-Max | 77.9% | OpenAI |
| Claude Sonnet 4.5 | 77.2%(并行模式下为 82.0%) | Anthropic |
| Gemini 3 Pro | 76.2% | |
| GPT-5 | 74.9% | OpenAI |
| Claude Opus 4.1 | 74.5% | Anthropic |
| Claude Sonnet 4 | 72.7%(并行模式下为 80.2%) | Anthropic |
| GPT-5 mini | 71.0% | OpenAI |
| Qwen3-Coder-480B | 交互模式下 69.6%,单次模式下 67.0% | Alibaba |
| Gemini 2.5 Pro | 63.2% |
如何贡献
如果你发现任何错误、缺失的来源链接,或者有更新的配额/模型信息,请提交问题或拉取请求,并附上来源。我们也欢迎新的工具贡献!详细指南请参阅 CONTRIBUTING.md 文件。
免责声明
本项目与任何厂商均无关联。所有商标归其各自所有者所有。本信息仅供研究参考;准确性无法保证;各项限制和定价可能会频繁变化。
目录
- 1. 免费即可使用专业级模型的 AI 编码工具
- 2. 用于 AI 编码工具的 API 提供商
- 3. 提供付费层级且包含专业级模型的工具
- 4. 免费即可使用基础模型的工具
- 5. 本地模型
- 比较说明
- 相关资源
1. 免费即可使用专业级模型的 AI 编码工具
按慷慨程度从高到低排列
Qwen Code
Qwen3-Coder-480B 访问权限
- 通过 Qwen OAuth 实现每天 2,000 次请求的免费层级
- 每分钟 60 次请求的速率限制
- 命令行 AI 工作流工具(基于 Gemini CLI 改造)
- 一键浏览器认证
- 无需信用卡
Rovo Dev CLI
测试版期间可使用 Claude Sonnet 4
- 每天 500 万 token 的免费层级(首日仅限 2000 万 token)
- 经过测试确认的 Claude Sonnet 4 模型
- 测试版期间无需信用卡
- UTC 时间午夜重置 token 限额
- 注意:升级至 Jira Standard/Premium/Enterprise 可获得每天 2000 万 token 的额度
Gemini CLI
Gemini 3 Pro 和 Gemini 2.5 Pro 访问权限
- Gemini 3 Pro 现已面向 Google AI Ultra 订阅用户及付费 API 用户开放(2025年12月4日)
- Gemini 3 Pro 在 SWE-bench Verified 测试中得分为 76.2%,是 Google 最佳的编码模型
- Gemini 2.5 Pro 的免费层级限制为每天 100 次请求
- Gemini 2.5 Flash 的每日请求上限为 250 次
- 免费层级无需信用卡
- Google AI Pro、Gemini Code Assist 标准用户以及免费层级用户需加入等待名单才能访问 Gemini 3 Pro
- 可通过
/settings→ 预览功能 → 打开来启用
**** 速率限制 | 定价 | Gemini 3 Pro 发布公告
Kilo Code
Claude Opus/Sonnet、Gemini 2.5 Pro、GPT‑4.1 访问权限
- 注册时可获得最高 25 美元的积分奖励(一次性)
- 开源 VS Code 扩展
- 按使用量付费,不加收任何模型费用
- 需要信用卡才能领取全部奖励积分
- 支持导入自定义的 API 密钥
Warp
GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro 访问权限
- 前两个月每月 150 个 AI 信用点,之后每月 75 个 AI 信用点
- 支持多个提供商(OpenAI GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro)
- 基本注册无需信用卡
- 2025年10月30日宣布了新的定价结构:Single Build 方案(每月 20 美元),包含 1,500 个信用点
**** 定价
Amazon Q Developer
Claude Sonnet 4 使用权限
- 每月 50 次代理请求上限(多轮对话)
- 最新 Claude 模型(由 AWS 托管)
- 需要信用卡
- 必须升级至 Pro 版才能继续使用
- 永久免费层级
**** 定价
GitHub Copilot
代理模式,支持 GPT‑4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1
- 每月 50 次聊天请求 + 2,000 次补全请求上限
- 支持自主多步骤编码的代理模式
- 多种模型提供商(GPT-4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1)
- 不需要信用卡
- 配额用尽后仅限基础功能
Trae
Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、Claude 3.5 Sonnet、GPT‑4.1、GPT‑4o、Gemini 2.5 Pro 使用权限
- 高级模型每月 10 次快速请求 + 50 次慢速请求
- 进阶模型每月 1,000 次慢速请求
- 每月 5,000 次自动补全
- 基于 VS Code 的集成 AI IDE
- 包括 Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、GPT‑4.1 等多种高级模型
- 免费层级无需信用卡
- Pro 计划:每月 $10(600 次快速请求 + 无限次慢速请求)
Windsurf
OpenAI、Anthropic、Google、xAI 模型访问权限
- 每月 25 个提示积分上限
- 多种提供商(OpenAI、Claude、Gemini、xAI)
- 需要信用卡
- 可购买额外积分以继续使用
**** 定价
Jules
Gemini 2.5 Pro 使用权限
- 免费层级每日 15 个任务
- 同时运行 3 个任务
- 使用 Gemini 2.5 Pro 模型
- 需要 Gmail 账号(年满 18 周岁)
- 任务限制每 24 小时滚动重置
- 不需要信用卡
- Pro 层级(每月 $19.99):每日 100 个任务(5 倍限制)
AWS Kiro
Claude 4 Sonnet、Claude 3.7 Sonnet 使用权限
- 每月 50 积分(免费层级)
- 提供 Claude 4 Sonnet 和 Claude 3.7 Sonnet 模型(由 AWS 托管)
- 不需要信用卡
- 14 天欢迎奖励:500 积分
- 付费层级:Pro(每月 $20,1,000 积分)、Pro+(每月 $40,2,000 积分)、Power(每月 $200,10,000 积分)
Qoder
Qwen3-Coder-480B、Claude、GPT、Gemini 模型
- 免费层级:无限补全/编辑 + 有限聊天/代理请求 + 2 周 Pro 试用期(1,000 积分)
- 来自阿里巴巴的 AI 驱动 IDE
- 适用于 Windows 和 macOS
- 主要使用 Qwen3-Coder-480B(阿里巴巴旗舰编码模型)
- 同时支持 Claude、GPT-4、Gemini 模型
- 自主编码的代理模式和任务模式
- 不需要信用卡(免费层级)
- 付费层级:Pro(每月 $20,2,000 积分)、Pro+(每月 $60,6,000 积分)
配额变化迅速。如果您发现错误、更新的配额或模型,或者希望添加新工具,请提交问题或拉取请求,并附上来源。请参阅 CONTRIBUTING.md 获取指南。
2. 用于 AI 编码工具的 API 提供商
(按慷慨程度从高到低排列)
这些服务提供针对编码优化的模型的 API 访问权限,可与 Cursor、Continue.dev、Cline 等流行 AI 编码工具集成。它们不提供独立的编码工具,而是为现有工具提供 AI 后端支持。
OpenRouter
通过 OpenRouter 使用 Qwen3-Coder-480B
- 免费层级每日 50 次请求(购买 $10 以上积分后可达每日 1,000 次)
- 其他免费模型:Qwen3-30B-A3B、Qwen3-235B-A22B、Gemini Flash
- 兼容 OpenAI 的 API,适用于所有主流 IDE
- 免费模型无需信用卡
- 免费层级每分钟 20 次请求限制
- 可与 Continue.dev、Cline、Cursor 等工具配合使用
**** 免费模型 | Qwen3-Coder API
Cerebras
Qwen3-235B 和 Llama 3.1 使用权限
- 免费层级每日 100 万 tokens
- 不需要信用卡
- 请求速率限制:每分钟 30 次,上下文长度 8,192 tokens
- 模型:Qwen3-235B、Llama 3.1 70B(注:Qwen3-Coder-480B 已于 2025 年 11 月 5 日弃用)
- 兼容 OpenAI 的 API(可用于 Cursor、Continue.dev、Cline、RooCode 等工具)
- 超高速推理:每秒 2,000 tokens(比一般提供商快 40 倍)
- 付费层级: 开发者(自助式,$10+)、企业(定制价格)
3. 提供专业级模型且有付费层级的工具
Rovo Dev CLI
Jira Standard(每月 $7.53/用户): 每日 2,000 万 tokens
- Jira Premium(每月 $15.25/用户): 每日 2,000 万 tokens
- Jira Enterprise(定制): 每日 2,000 万 tokens
- 比免费层级增加 4 倍(500 万 → 2,000 万 tokens/天)
- 使用与免费层级相同的 Claude 模型
- Tokens 限制在 UTC 午夜重置
Claude Code
Pro(每月 $20 或每年 $17): 可使用 Sonnet 4,用量高于免费层级
- Max 5x(每月 $100): 约 225 条消息/5 小时 — 每周 140–280 小时 Sonnet 4 + 15–35 小时 Opus 4.5
- Max 20x(每月 $200): 约 900 条消息/5 小时 — 每周 240–480 小时 Sonnet 4 + 24–40 小时 Opus 4.5
- 扩展思考模式:“think”(约 4,000 tokens)、“megathink”(约 10,000)、“ultrathink”(约 32,000)
- Ultrathink 可实现复杂重构、系统架构设计及深度调试
- Opus 4.5 消耗的资源约为 Sonnet 4 的 5 倍
- 使用限制每周重置,以 5 小时为一个滚动窗口
- 支持 Opus 4.5、Sonnet 4.5 和 Haiku 4.5 模型
**** 定价 | Claude Code 指南
Amazon Q Developer
Pro(每月 $19): 提高了代理请求的使用上限
- 使用情况可能会根据地区因素和使用模式进行调整
**** 定价
Warp
Build(每月20美元): 每月1,500个AI积分
- 可续充积分(比旧的超额费率低至50%,可结转12个月)
- 支持自带API密钥(BYOK)选项
- 新定价即日起对新客户生效(2025年10月30日)
- 现有按月订阅用户将于2025年12月1日之后首次续订时过渡到新定价
- 企业级:定制化定价
**** 定价
GitHub Copilot
Pro(每月10美元): 每月300次高级请求 + 无限补全次数
- Pro+(每月39美元): 每月1,500次高级请求 + 无限补全次数
- Business(每位用户每月19美元): 每位用户每月300次高级请求 + 无限补全次数
- Enterprise(每位用户每月39美元): 每位用户每月1,000次高级请求 + 无限补全次数
- GPT-5.1-Codex-Max 现已开放公开预览(2025年12月4日),适用于Pro、Pro+、Business和Enterprise
- 可访问多种模型(GPT-5.1-Codex-Max、GPT-4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1)
- 超额计费为每请求0.04美元
**** 计划详情 | GPT-5.1-Codex-Max预览
Trae
Pro(每月10美元): 每月600次快速请求 + 无限慢速请求(针对高级模型)
- 针对高级模型提供无限慢速请求
- 无速率限制,更快访问高级模型
- 可购买额外套餐:3至12美元,用于增加快速请求次数
- 多种高级模型:Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、Claude 3.5 Sonnet、Gemini 2.5 Pro、GPT‑4.1、GPT‑4o
- 基于VS Code的IDE,全面集成AI功能
- 首月仅需3美元
Windsurf
Pro(每月15美元): 每月500个提示词积分
- Teams(每位用户每月30美元): 每位用户每月500个提示词积分
- Enterprise(每位用户每月60美元起): 每位用户每月1,000个提示词积分
**** 定价
Lovable
Pro(每月25美元): 每月150个积分(每日5个)
- Teams(每月30美元): 更高的使用上限(未披露)
**** 消息限制
Bolt.new
每月20美元: 每月1000万token
- 每月200美元: 每月1.2亿token
**** Token文档
Cursor
Hobby(免费): 有限的Agent请求 + 有限的标签补全 + 1周Pro试用
- Pro(每月20美元或每年16美元): 扩展的Agent使用限制 + 无限标签补全 + 后台Agent + 最大上下文窗口
- Pro+(每月60美元): 在所有OpenAI、Claude、Gemini模型上使用量提升3倍
- Ultra(每月200美元): 在所有OpenAI、Claude、Gemini模型上使用量提升20倍 + 优先访问新功能
- Teams(每位用户每月40美元): Pro功能 + 集中计费 + 使用分析 + SAML/OIDC单点登录
- Enterprise(定制): 包含Teams的所有功能 + 共享使用量 + SCIM + AI代码追踪API + 审计日志
- GPT-5.1-Codex-Max对所有用户免费,直至2025年12月11日(SWE-bench验证通过率为77.9%)
- 提供1周Pro试用(免费层级)
- 免费层级现采用基于token的使用追踪(而非基于请求)
- 免费模型:Cursor Small、Deepseek v3、Gemini 2.5 Flash、GPT-4o mini(每日500次限制)、Grok 3 Mini Beta
- 付费层级:可访问OpenAI、Claude、Gemini等模型,包括GPT-5.1-Codex-Max
- 注意:Claude模型已于约2025年6月从免费层级移除
- AI驱动的代码编辑器,具备自主编码能力
**** 定价 | GPT-5.1-Codex-Max公告
OpenAI Codex CLI
随ChatGPT Plus(每月20美元)免费: 编码任务中每5小时可发送30–150条消息
- ChatGPT Pro(每月200美元): 每5小时可发送300–1,500条消息——最高使用限额
- 按需付费API: GPT-5.1-Codex-Max每百万token收费1.25美元/10美元(输入/输出)
- 免费开源模式: 仅可访问开源模型(通过--oss标志)
- GPT-5.1-Codex-Max(2025年11月19日):SWE-bench验证通过率为77.9%,现为默认模型
- 首个支持“压缩”功能的模型,可用于数百万token会话(超过24小时的任务)
- 思考token数量比之前的GPT-5.1-Codex减少30%
- 同样可在GitHub Copilot中使用(Pro、Pro+、Business、Enterprise)
- 现已支持Windows系统
- 跨平台:macOS 12及以上、Ubuntu 20.04及以上、Windows 11可通过WSL2运行
**** GitHub仓库 | GPT-5.1-Codex-Max公告
Codeium
Pro(每月10美元): 无限使用,具备先进的上下文感知能力
- 可访问Claude 3.5 Sonnet、GPT-4o
- 增强的上下文窗口和个性化设置
- Teams(每位用户每月12美元): Pro功能 + 团队管理
- Enterprise(定制): 支持本地部署及自定义模型
**** 定价
Tabnine
Pro(每月12美元): 增强的AI补全与聊天功能
- Enterprise(每位用户每月39美元): 多种LLM及私有部署选项
- 模型:Claude 3.5 Sonnet、GPT-4o、Llama 3.3 70B以及专有模型
- 支持600多种编程语言
- 提供本地及空气隔离部署选项
- 支持用户自带微调后的模型
**** 定价
JetBrains AI Assistant
AI Pro(每月15美元): 增加云端配额 + 无限本地模型
- AI Ultimate(每月25美元): 最大云端配额 + 高级功能
- 免费层级:无限代码补全 + 本地模型 + 有限云端配额
- 包含30天Pro试用
- All Products Pack包含AI Pro
- 支持离线模式,通过Ollama/LM Studio使用本地模型
**** AI定价
Jules
Pro(通过Google AI Pro每月19.99美元): 每日100个任务
- 使用上限是免费层级的5倍(15个任务/天→100个任务/天)
- 并发任务数也是5倍(3个→15个并发)
- 可访问更多最新模型
- Ultra(通过Google AI Ultra): 每日300个任务
- 使用上限是免费层级的20倍
- 可同时处理60个任务
- 优先访问最新模型
- 需要Gmail账户(年满18岁)
**** 使用限制 | Google AI计划
SuperMaven
Pro(每月10美元): 100万令牌上下文窗口 + 聊天额度
- 替代方案:每年99美元
- 集成了GPT-4o、Claude 3.5 Sonnet和GPT-4的聊天界面
- 团队版(每位用户每月10美元): Pro功能 + 团队管理
- 注:2024年11月与Cursor IDE合并
**** 定价
知道更优的价格或限制吗?请在问题或PR中分享链接,以帮助保持信息更新。有关指南,请参阅CONTRIBUTING.md。
4. 可免费使用基础模型的工具
(未指定/基础模型)
Bolt.new
未指定模型
- 每月100万令牌上限
- 具体模型未公开说明
- 需要信用卡
**** 令牌文档
Lovable
未指定模型
- 每日5个额度,每月最多30个(免费)
- 模型未公开列出
- 需要信用卡
**** 消息限制
v0.dev
专有模型(非前沿模型)
- 访问GPT-5需要v0高级订阅
- 每月5美元额度上限
- 使用具有不同路由机制的专有模型
- 需要信用卡
**** 更新后的定价博客
Codeium
无限量免费使用基础AI编码辅助
- 个人计划:永久免费,提供无限代码补全、AI聊天和命令
- 支持70多种编程语言
- IDE集成:VS Code、JetBrains、Vim/Neovim、Jupyter
- 无需信用卡
- 上下文感知能力有限(付费层级有所扩展)
- 仅使用基础模型(Llama 3.1 70B),专业级模型需订阅
Tabnine
功能受限的免费层级
- 基础AI代码补全和聊天(有限)
- 可进行本地处理
- 免费层级中的上下文严重受限
- 性能被调低以节省资源
- 支持600多种编程语言
**** 定价
JetBrains AI Assistant
IDE自带的AI免费层级
- 无限代码补全及本地模型支持
- 云端功能配额有限
- 30天AI Pro试用期
- 使用本地模型进行聊天、代码生成和提交信息撰写
**** AI功能
SuperMaven
具备基础功能的免费层级
- 基础代码建议
- 数据保留期限为7天
- 注册时需提供信用卡
- 100万令牌上下文窗口(对免费层级而言相当出色)
**** 定价
Continue.dev
免费开源扩展,支持灵活的模型
- 免费的VS Code和JetBrains扩展
- 通过Ollama、LM Studio完全支持本地模型
- 单人层级:可选择私密、团队或公开可见性
- 支持200多种模型(云端模型需自行提供API密钥)
- 社区中心可用于自定义AI助手
- 无供应商锁定,本地模型无使用限制
知道官方的限制或模型吗?请在问题或PR中分享链接以更新信息。有关指南,请参阅CONTRIBUTING.md。
5. 本地模型
在本地运行开放权重的前沿模型,可以提供无限的编码辅助,而无需支付API费用或受使用限制。流行的本地部署工具有**Cline(带有Plan/Act模式和MCP支持的VS Code扩展)、Aider(内置Git集成的命令行助手)以及Continue.dev(支持200多种模型的开源VS Code扩展)。它们均可与Ollama**无缝协作,运行诸如Devstral(240亿参数,专为代理式编码优化)、Qwen3-Coder、DeepSeek Coder V2、Codestral和GLM-4.5等前沿模型。
注:前沿模型需要大量的RAM/VRAM。特别是对于Qwen3‑Coder‑480B,适合Ollama的GGUF文件约为150GB,实际本地推理可能需要约150GB的统一内存(RAM+VRAM),这对普通笔记本电脑来说较为困难;而300亿参数的量化版本通常需要约18GB。详情请参阅Unsloth关于Qwen3‑Coder本地运行的指南(文档),以及Simon Willison关于在其笔记本上运行GLM‑4.5 AIR来制作太空侵略者游戏的文章,作为实际示例。
对比说明
- 目标:比较AI编码工具在访问专业级模型和免费层级限制方面的差异。
- 何为“专业级”模型? 模型必须在SWE-bench Verified测试中达到≥60%,证明其具备真实的软件工程能力。目前符合条件的模型包括:Claude Opus 4.5(80.9%)、GPT-5.1-Codex-Max(77.9%)、Claude Sonnet 4.5(77.2%)、Gemini 3 Pro(76.2%)、GPT-5(74.9%)、Claude Opus 4.1(74.5%)、Claude Sonnet 4(72.7%)、GPT-5 mini(71.0%)、Qwen3-Coder-480B(69.6%)以及Gemini 2.5 Pro(63.2%)。
- 不同的限制类型:各工具采用不同的配额体系——请求、令牌、积分、对话等——这使得直接比较颇具挑战。具体细节请查阅相关文档。
- 实际使用情况:实际消耗会因编码风格、任务复杂度和工具实现方式的不同而产生巨大差异。
相关资源
- Coding with AI - 使用LLM进行编码的实用技巧和资源
- 免费LLM API资源 - 构建自定义集成的全面免费LLM API列表
版本历史
v2025.10.042025/10/04v0.2.02025/09/20v0.1.02025/08/26常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备