free-ai-coding

GitHub
643 80 非常简单 1 次阅读 今天语言模型开发框架Agent图像
AI 解读 由 AI 自动生成,仅供参考

free-ai-coding 是一个专注于整理和对比各类 AI 编程工具的开源项目,旨在帮助开发者轻松找到真正能免费使用顶级模型的平台。当前许多工具虽标榜“免费”,但往往在短暂试用后便限制访问或降级至基础模型,且各家的额度计算方式(如积分、令牌数、请求次数)错综复杂,难以横向比较。free-ai-coding 通过详尽的列表,直观展示了包括 Claude Opus/Sonnet、GPT-5、Gemini Pro 等在内的专业级模型在不同工具中的实际免费额度、是否需要绑定信用卡以及具体的使用限制。

该项目特别引入了 SWE-bench Verified 基准测试成绩作为筛选标准,仅收录在真实编码任务中表现优异(得分超过 60%)的“专业级”模型,确保推荐内容的含金量。无论是希望降低研发成本的个人开发者、需要评估不同模型能力的研究人员,还是寻找高效辅助编程方案的技术团队,都能从中快速获取关键信息,避免试错成本。此外,项目支持多语言文档并欢迎社区共同维护更新,确保信息的时效性与准确性,是探索高质量免费 AI 编程资源的重要参考指南。

使用场景

一名独立开发者正在赶工为一个初创公司构建最小可行产品(MVP),需要在极短时间内完成复杂后端逻辑的编写与调试。

没有 free-ai-coding 时

  • 高昂的试错成本:想调用 Claude Opus 或 GPT-5 等顶级模型解决复杂架构问题,但免费额度几分钟耗尽,被迫降级到弱模型,导致代码质量下降且反复出错。
  • 繁琐的对比调研:为了寻找下一个“免费羊毛”,不得不花费数小时在论坛和文档中逐个核对各平台的代币限制、是否需绑定信用卡等碎片信息。
  • 开发流程频繁中断:在不同工具间切换尝试,一旦某个平台的免费配额用完,必须立即停止当前思路去注册新账号或寻找替代方案,严重打断心流。
  • 预算不可控风险:部分工具看似免费实则隐含陷阱,稍不注意就触发付费条款,对于资金紧张的独立开发者而言存在意外的账单风险。

使用 free-ai-coding 后

  • 精准锁定高配免费资源:直接查阅列表,迅速定位到如 Rovo Dev CLI(每日 500 万 Token)或 Qwen Code(每日 2000 次请求)等真正提供大额免费额度的顶级模型工具。
  • 决策效率显著提升:通过清晰的表格对比,一目了然地掌握各工具的模型能力(SWE-bench 评分)、免费上限及是否需要信用卡,将调研时间从数小时压缩至几分钟。
  • 持续稳定的编码体验:根据任务量灵活组合使用多个高限额工具,确保在整个开发周期内都能持续获得专业级 AI 辅助,无需因配额耗尽而中断工作。
  • 零成本规避财务风险:明确识别出完全无需绑定信用卡即可使用的工具(如 Warp、Jules),彻底消除误扣费的担忧,让开发者专注于代码本身。

free-ai-coding 通过透明化整合全球优质免费 AI 编程资源,让开发者不再受限于昂贵的订阅费用,真正实现用顶级模型零成本加速产品落地。

运行环境要求

操作系统
  • Windows
  • macOS
GPU

未说明

内存

未说明

依赖
notes该工具(free-ai-coding)实际上是一个开源列表/文档项目,用于对比各种 AI 编程工具的免费额度,而非一个需要本地部署运行的 AI 模型或软件。其中列出的具体工具(如 Qwen Code, Gemini CLI, Kilo Code 等)多为命令行工具或 VS Code 扩展,通常依赖云端 API 运行,因此 README 中未提供本地 GPU、显存、Python 版本或特定依赖库的安装需求。部分工具(如 Qoder, Kilo Code, Trae)明确支持 Windows 和 macOS。
python未说明
未说明
free-ai-coding hero image

快速开始

最后更新:2025年12月5日 • 欢迎提交 PR 或 Issue

语言: EspañolPortuguês中文Français日本語हिन्दीDeutsch

AI 编码工具:专业级模型竟然是免费的

许多 AI 编码工具都宣称“免费”,但通常很快就会用完专业级模型的使用额度,随后你就会被降级。每个工具采用的限制条件(积分、token 数量、请求次数)各不相同,导致比较起来非常困难。这份清单将它们并列展示,以便清楚地了解你真正能免费获得什么。

简而言之 — 免费即可使用的专业级 AI 编码工具

(限额较高的工具排在前面)

工具 专业级模型 免费层级限制 需要信用卡
Qwen Code Qwen3-Coder-480B 每天 2,000 次请求 不需要
Rovo Dev CLI Claude Sonnet 4 每天 500 万 token(测试版) 不需要
Gemini CLI Gemini 3 Pro、Gemini 2.5 Pro Gemini 3 Pro(需等待名单/付费)、Gemini 2.5 Pro 每天 100 次请求 不需要
Cursor GPT-5.1-Codex-Max 免费至 2025 年 12 月 11 日(SWE-bench 测试得分 77.9%) 不需要
Kilo Code Claude Opus/Sonnet、Gemini 2.5 Pro、GPT‑4.1 注册时可获得最高 25 美元的积分奖励(一次性) 需要
Warp GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro 前两个月每月 150 积分,之后每月 75 积分 不需要
Trae Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、GPT‑4.1、GPT‑4o、Gemini 2.5 Pro 每月 10 次快速请求 + 50 次慢速请求 不需要
Amazon Q Developer Claude Sonnet 4 每月 50 次智能代理式请求 需要
GitHub Copilot GPT‑4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1 每月 50 次聊天请求 + 2,000 次代码补全 不需要
Windsurf OpenAI、Anthropic、Google、xAI 每月 25 积分 需要
Jules Gemini 2.5 Pro 每天 15 个任务 不需要
AWS Kiro Claude 4 Sonnet、Claude 3.7 Sonnet 每月 50 积分 不需要
Qoder Qwen3-Coder-480B、Claude、GPT、Gemini 免费层级 + 2 周专业版试用(1,000 积分) 不需要

符合标准的专业级模型

只有在 SWE-bench Verified 测试中得分超过 60% 的模型,才被视为适用于实际编码任务的专业级模型。以下是当前列表:

模型 SWE-bench Verified 提供者
Claude Opus 4.5 80.9% Anthropic
GPT-5.1-Codex-Max 77.9% OpenAI
Claude Sonnet 4.5 77.2%(并行模式下为 82.0%) Anthropic
Gemini 3 Pro 76.2% Google
GPT-5 74.9% OpenAI
Claude Opus 4.1 74.5% Anthropic
Claude Sonnet 4 72.7%(并行模式下为 80.2%) Anthropic
GPT-5 mini 71.0% OpenAI
Qwen3-Coder-480B 交互模式下 69.6%,单次模式下 67.0% Alibaba
Gemini 2.5 Pro 63.2% Google

如何贡献

如果你发现任何错误、缺失的来源链接,或者有更新的配额/模型信息,请提交问题或拉取请求,并附上来源。我们也欢迎新的工具贡献!详细指南请参阅 CONTRIBUTING.md 文件。

免责声明

本项目与任何厂商均无关联。所有商标归其各自所有者所有。本信息仅供研究参考;准确性无法保证;各项限制和定价可能会频繁变化。

目录

1. 免费即可使用专业级模型的 AI 编码工具

按慷慨程度从高到低排列

Qwen Code

Qwen3-Coder-480B 访问权限

  • 通过 Qwen OAuth 实现每天 2,000 次请求的免费层级
  • 每分钟 60 次请求的速率限制
  • 命令行 AI 工作流工具(基于 Gemini CLI 改造)
  • 一键浏览器认证
  • 无需信用卡

**** GitHub | 文档


Rovo Dev CLI

测试版期间可使用 Claude Sonnet 4

  • 每天 500 万 token 的免费层级(首日仅限 2000 万 token)
  • 经过测试确认的 Claude Sonnet 4 模型
  • 测试版期间无需信用卡
  • UTC 时间午夜重置 token 限额
  • 注意:升级至 Jira Standard/Premium/Enterprise 可获得每天 2000 万 token 的额度

**** 文档 | Token 限额


Gemini CLI

Gemini 3 Pro 和 Gemini 2.5 Pro 访问权限

  • Gemini 3 Pro 现已面向 Google AI Ultra 订阅用户及付费 API 用户开放(2025年12月4日)
  • Gemini 3 Pro 在 SWE-bench Verified 测试中得分为 76.2%,是 Google 最佳的编码模型
  • Gemini 2.5 Pro 的免费层级限制为每天 100 次请求
  • Gemini 2.5 Flash 的每日请求上限为 250 次
  • 免费层级无需信用卡
  • Google AI Pro、Gemini Code Assist 标准用户以及免费层级用户需加入等待名单才能访问 Gemini 3 Pro
  • 可通过 /settings → 预览功能 → 打开来启用

**** 速率限制 | 定价 | Gemini 3 Pro 发布公告


Kilo Code

Claude Opus/Sonnet、Gemini 2.5 Pro、GPT‑4.1 访问权限

  • 注册时可获得最高 25 美元的积分奖励(一次性)
  • 开源 VS Code 扩展
  • 按使用量付费,不加收任何模型费用
  • 需要信用卡才能领取全部奖励积分
  • 支持导入自定义的 API 密钥

**** GitHub | 文档 | 定价


Warp

GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro 访问权限

  • 前两个月每月 150 个 AI 信用点,之后每月 75 个 AI 信用点
  • 支持多个提供商(OpenAI GPT‑5、Claude Opus 4.1、Claude Sonnet 4、Gemini 2.5 Pro)
  • 基本注册无需信用卡
  • 2025年10月30日宣布了新的定价结构:Single Build 方案(每月 20 美元),包含 1,500 个信用点

**** 定价


Amazon Q Developer

Claude Sonnet 4 使用权限

  • 每月 50 次代理请求上限(多轮对话)
  • 最新 Claude 模型(由 AWS 托管)
  • 需要信用卡
  • 必须升级至 Pro 版才能继续使用
  • 永久免费层级

**** 定价


GitHub Copilot

代理模式,支持 GPT‑4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1

  • 每月 50 次聊天请求 + 2,000 次补全请求上限
  • 支持自主多步骤编码的代理模式
  • 多种模型提供商(GPT-4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1)
  • 不需要信用卡
  • 配额用尽后仅限基础功能

**** 计划详情 | 代理模式


Trae

Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、Claude 3.5 Sonnet、GPT‑4.1、GPT‑4o、Gemini 2.5 Pro 使用权限

  • 高级模型每月 10 次快速请求 + 50 次慢速请求
  • 进阶模型每月 1,000 次慢速请求
  • 每月 5,000 次自动补全
  • 基于 VS Code 的集成 AI IDE
  • 包括 Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、GPT‑4.1 等多种高级模型
  • 免费层级无需信用卡
  • Pro 计划:每月 $10(600 次快速请求 + 无限次慢速请求)

**** 定价 | 文档


Windsurf

OpenAI、Anthropic、Google、xAI 模型访问权限

  • 每月 25 个提示积分上限
  • 多种提供商(OpenAI、Claude、Gemini、xAI)
  • 需要信用卡
  • 可购买额外积分以继续使用

**** 定价


Jules

Gemini 2.5 Pro 使用权限

  • 免费层级每日 15 个任务
  • 同时运行 3 个任务
  • 使用 Gemini 2.5 Pro 模型
  • 需要 Gmail 账号(年满 18 周岁)
  • 任务限制每 24 小时滚动重置
  • 不需要信用卡
  • Pro 层级(每月 $19.99):每日 100 个任务(5 倍限制)

**** 使用限制 | 文档


AWS Kiro

Claude 4 Sonnet、Claude 3.7 Sonnet 使用权限

  • 每月 50 积分(免费层级)
  • 提供 Claude 4 Sonnet 和 Claude 3.7 Sonnet 模型(由 AWS 托管)
  • 不需要信用卡
  • 14 天欢迎奖励:500 积分
  • 付费层级:Pro(每月 $20,1,000 积分)、Pro+(每月 $40,2,000 积分)、Power(每月 $200,10,000 积分)

**** 定价 | 介绍博客


Qoder

Qwen3-Coder-480B、Claude、GPT、Gemini 模型

  • 免费层级:无限补全/编辑 + 有限聊天/代理请求 + 2 周 Pro 试用期(1,000 积分)
  • 来自阿里巴巴的 AI 驱动 IDE
  • 适用于 Windows 和 macOS
  • 主要使用 Qwen3-Coder-480B(阿里巴巴旗舰编码模型)
  • 同时支持 Claude、GPT-4、Gemini 模型
  • 自主编码的代理模式和任务模式
  • 不需要信用卡(免费层级)
  • 付费层级:Pro(每月 $20,2,000 积分)、Pro+(每月 $60,6,000 积分)

**** 首页 | 定价

配额变化迅速。如果您发现错误、更新的配额或模型,或者希望添加新工具,请提交问题或拉取请求,并附上来源。请参阅 CONTRIBUTING.md 获取指南。


2. 用于 AI 编码工具的 API 提供商

(按慷慨程度从高到低排列)

这些服务提供针对编码优化的模型的 API 访问权限,可与 Cursor、Continue.dev、Cline 等流行 AI 编码工具集成。它们不提供独立的编码工具,而是为现有工具提供 AI 后端支持。

OpenRouter

通过 OpenRouter 使用 Qwen3-Coder-480B

  • 免费层级每日 50 次请求(购买 $10 以上积分后可达每日 1,000 次)
  • 其他免费模型:Qwen3-30B-A3B、Qwen3-235B-A22B、Gemini Flash
  • 兼容 OpenAI 的 API,适用于所有主流 IDE
  • 免费模型无需信用卡
  • 免费层级每分钟 20 次请求限制
  • 可与 Continue.dev、Cline、Cursor 等工具配合使用

**** 免费模型 | Qwen3-Coder API


Cerebras

Qwen3-235B 和 Llama 3.1 使用权限

  • 免费层级每日 100 万 tokens
  • 不需要信用卡
  • 请求速率限制:每分钟 30 次,上下文长度 8,192 tokens
  • 模型:Qwen3-235B、Llama 3.1 70B(注:Qwen3-Coder-480B 已于 2025 年 11 月 5 日弃用)
  • 兼容 OpenAI 的 API(可用于 Cursor、Continue.dev、Cline、RooCode 等工具)
  • 超高速推理:每秒 2,000 tokens(比一般提供商快 40 倍)
  • 付费层级: 开发者(自助式,$10+)、企业(定制价格)

**** 定价 | API 文档 | 集成指南


3. 提供专业级模型且有付费层级的工具

Rovo Dev CLI

Jira Standard(每月 $7.53/用户): 每日 2,000 万 tokens

  • Jira Premium(每月 $15.25/用户): 每日 2,000 万 tokens
  • Jira Enterprise(定制): 每日 2,000 万 tokens
  • 比免费层级增加 4 倍(500 万 → 2,000 万 tokens/天)
  • 使用与免费层级相同的 Claude 模型
  • Tokens 限制在 UTC 午夜重置

**** 文档 | Tokens 限制 | Jira 定价


Claude Code

Pro(每月 $20 或每年 $17): 可使用 Sonnet 4,用量高于免费层级

  • Max 5x(每月 $100): 约 225 条消息/5 小时 — 每周 140–280 小时 Sonnet 4 + 15–35 小时 Opus 4.5
  • Max 20x(每月 $200): 约 900 条消息/5 小时 — 每周 240–480 小时 Sonnet 4 + 24–40 小时 Opus 4.5
  • 扩展思考模式:“think”(约 4,000 tokens)、“megathink”(约 10,000)、“ultrathink”(约 32,000)
  • Ultrathink 可实现复杂重构、系统架构设计及深度调试
  • Opus 4.5 消耗的资源约为 Sonnet 4 的 5 倍
  • 使用限制每周重置,以 5 小时为一个滚动窗口
  • 支持 Opus 4.5、Sonnet 4.5 和 Haiku 4.5 模型

**** 定价 | Claude Code 指南


Amazon Q Developer

Pro(每月 $19): 提高了代理请求的使用上限

  • 使用情况可能会根据地区因素和使用模式进行调整

**** 定价


Warp

Build(每月20美元): 每月1,500个AI积分

  • 可续充积分(比旧的超额费率低至50%,可结转12个月)
  • 支持自带API密钥(BYOK)选项
  • 新定价即日起对新客户生效(2025年10月30日)
  • 现有按月订阅用户将于2025年12月1日之后首次续订时过渡到新定价
  • 企业级:定制化定价

**** 定价


GitHub Copilot

Pro(每月10美元): 每月300次高级请求 + 无限补全次数

  • Pro+(每月39美元): 每月1,500次高级请求 + 无限补全次数
  • Business(每位用户每月19美元): 每位用户每月300次高级请求 + 无限补全次数
  • Enterprise(每位用户每月39美元): 每位用户每月1,000次高级请求 + 无限补全次数
  • GPT-5.1-Codex-Max 现已开放公开预览(2025年12月4日),适用于Pro、Pro+、Business和Enterprise
  • 可访问多种模型(GPT-5.1-Codex-Max、GPT-4.1、Claude Opus 3.5、Gemini 2.0 Flash、Grok Code Fast 1)
  • 超额计费为每请求0.04美元

**** 计划详情 | GPT-5.1-Codex-Max预览


Trae

Pro(每月10美元): 每月600次快速请求 + 无限慢速请求(针对高级模型)

  • 针对高级模型提供无限慢速请求
  • 无速率限制,更快访问高级模型
  • 可购买额外套餐:3至12美元,用于增加快速请求次数
  • 多种高级模型:Claude 4 Sonnet(测试版)、Claude 3.7 Sonnet、Claude 3.5 Sonnet、Gemini 2.5 Pro、GPT‑4.1、GPT‑4o
  • 基于VS Code的IDE,全面集成AI功能
  • 首月仅需3美元

**** 定价 | 文档


Windsurf

Pro(每月15美元): 每月500个提示词积分

  • Teams(每位用户每月30美元): 每位用户每月500个提示词积分
  • Enterprise(每位用户每月60美元起): 每位用户每月1,000个提示词积分

**** 定价


Lovable

Pro(每月25美元): 每月150个积分(每日5个)

  • Teams(每月30美元): 更高的使用上限(未披露)

**** 消息限制


Bolt.new

每月20美元: 每月1000万token

  • 每月200美元: 每月1.2亿token

**** Token文档


Cursor

Hobby(免费): 有限的Agent请求 + 有限的标签补全 + 1周Pro试用

  • Pro(每月20美元或每年16美元): 扩展的Agent使用限制 + 无限标签补全 + 后台Agent + 最大上下文窗口
  • Pro+(每月60美元): 在所有OpenAI、Claude、Gemini模型上使用量提升3倍
  • Ultra(每月200美元): 在所有OpenAI、Claude、Gemini模型上使用量提升20倍 + 优先访问新功能
  • Teams(每位用户每月40美元): Pro功能 + 集中计费 + 使用分析 + SAML/OIDC单点登录
  • Enterprise(定制): 包含Teams的所有功能 + 共享使用量 + SCIM + AI代码追踪API + 审计日志
  • GPT-5.1-Codex-Max对所有用户免费,直至2025年12月11日(SWE-bench验证通过率为77.9%)
  • 提供1周Pro试用(免费层级)
  • 免费层级现采用基于token的使用追踪(而非基于请求)
  • 免费模型:Cursor Small、Deepseek v3、Gemini 2.5 Flash、GPT-4o mini(每日500次限制)、Grok 3 Mini Beta
  • 付费层级:可访问OpenAI、Claude、Gemini等模型,包括GPT-5.1-Codex-Max
  • 注意:Claude模型已于约2025年6月从免费层级移除
  • AI驱动的代码编辑器,具备自主编码能力

**** 定价 | GPT-5.1-Codex-Max公告


OpenAI Codex CLI

随ChatGPT Plus(每月20美元)免费: 编码任务中每5小时可发送30–150条消息

  • ChatGPT Pro(每月200美元): 每5小时可发送300–1,500条消息——最高使用限额
  • 按需付费API: GPT-5.1-Codex-Max每百万token收费1.25美元/10美元(输入/输出)
  • 免费开源模式: 仅可访问开源模型(通过--oss标志)
  • GPT-5.1-Codex-Max(2025年11月19日):SWE-bench验证通过率为77.9%,现为默认模型
  • 首个支持“压缩”功能的模型,可用于数百万token会话(超过24小时的任务)
  • 思考token数量比之前的GPT-5.1-Codex减少30%
  • 同样可在GitHub Copilot中使用(Pro、Pro+、Business、Enterprise)
  • 现已支持Windows系统
  • 跨平台:macOS 12及以上、Ubuntu 20.04及以上、Windows 11可通过WSL2运行

**** GitHub仓库 | GPT-5.1-Codex-Max公告


Codeium

Pro(每月10美元): 无限使用,具备先进的上下文感知能力

  • 可访问Claude 3.5 Sonnet、GPT-4o
  • 增强的上下文窗口和个性化设置
  • Teams(每位用户每月12美元): Pro功能 + 团队管理
  • Enterprise(定制): 支持本地部署及自定义模型

**** 定价


Tabnine

Pro(每月12美元): 增强的AI补全与聊天功能

  • Enterprise(每位用户每月39美元): 多种LLM及私有部署选项
  • 模型:Claude 3.5 Sonnet、GPT-4o、Llama 3.3 70B以及专有模型
  • 支持600多种编程语言
  • 提供本地及空气隔离部署选项
  • 支持用户自带微调后的模型

**** 定价


JetBrains AI Assistant

AI Pro(每月15美元): 增加云端配额 + 无限本地模型

  • AI Ultimate(每月25美元): 最大云端配额 + 高级功能
  • 免费层级:无限代码补全 + 本地模型 + 有限云端配额
  • 包含30天Pro试用
  • All Products Pack包含AI Pro
  • 支持离线模式,通过Ollama/LM Studio使用本地模型

**** AI定价


Jules

Pro(通过Google AI Pro每月19.99美元): 每日100个任务

  • 使用上限是免费层级的5倍(15个任务/天→100个任务/天)
  • 并发任务数也是5倍(3个→15个并发)
  • 可访问更多最新模型
  • Ultra(通过Google AI Ultra): 每日300个任务
  • 使用上限是免费层级的20倍
  • 可同时处理60个任务
  • 优先访问最新模型
  • 需要Gmail账户(年满18岁)

**** 使用限制 | Google AI计划


SuperMaven

Pro(每月10美元): 100万令牌上下文窗口 + 聊天额度

  • 替代方案:每年99美元
  • 集成了GPT-4o、Claude 3.5 Sonnet和GPT-4的聊天界面
  • 团队版(每位用户每月10美元): Pro功能 + 团队管理
  • 注:2024年11月与Cursor IDE合并

**** 定价

知道更优的价格或限制吗?请在问题或PR中分享链接,以帮助保持信息更新。有关指南,请参阅CONTRIBUTING.md。


4. 可免费使用基础模型的工具

(未指定/基础模型)

Bolt.new

未指定模型

  • 每月100万令牌上限
  • 具体模型未公开说明
  • 需要信用卡

**** 令牌文档


Lovable

未指定模型

  • 每日5个额度,每月最多30个(免费)
  • 模型未公开列出
  • 需要信用卡

**** 消息限制


v0.dev

专有模型(非前沿模型)

  • 访问GPT-5需要v0高级订阅
  • 每月5美元额度上限
  • 使用具有不同路由机制的专有模型
  • 需要信用卡

**** 更新后的定价博客


Codeium

无限量免费使用基础AI编码辅助

  • 个人计划:永久免费,提供无限代码补全、AI聊天和命令
  • 支持70多种编程语言
  • IDE集成:VS Code、JetBrains、Vim/Neovim、Jupyter
  • 无需信用卡
  • 上下文感知能力有限(付费层级有所扩展)
  • 仅使用基础模型(Llama 3.1 70B),专业级模型需订阅

**** 定价 | 文档


Tabnine

功能受限的免费层级

  • 基础AI代码补全和聊天(有限)
  • 可进行本地处理
  • 免费层级中的上下文严重受限
  • 性能被调低以节省资源
  • 支持600多种编程语言

**** 定价


JetBrains AI Assistant

IDE自带的AI免费层级

  • 无限代码补全及本地模型支持
  • 云端功能配额有限
  • 30天AI Pro试用期
  • 使用本地模型进行聊天、代码生成和提交信息撰写

**** AI功能


SuperMaven

具备基础功能的免费层级

  • 基础代码建议
  • 数据保留期限为7天
  • 注册时需提供信用卡
  • 100万令牌上下文窗口(对免费层级而言相当出色)

**** 定价


Continue.dev

免费开源扩展,支持灵活的模型

  • 免费的VS Code和JetBrains扩展
  • 通过Ollama、LM Studio完全支持本地模型
  • 单人层级:可选择私密、团队或公开可见性
  • 支持200多种模型(云端模型需自行提供API密钥)
  • 社区中心可用于自定义AI助手
  • 无供应商锁定,本地模型无使用限制

**** GitHub | 模型中心

知道官方的限制或模型吗?请在问题或PR中分享链接以更新信息。有关指南,请参阅CONTRIBUTING.md。


5. 本地模型

在本地运行开放权重的前沿模型,可以提供无限的编码辅助,而无需支付API费用或受使用限制。流行的本地部署工具有**Cline(带有Plan/Act模式和MCP支持的VS Code扩展)、Aider(内置Git集成的命令行助手)以及Continue.dev(支持200多种模型的开源VS Code扩展)。它们均可与Ollama**无缝协作,运行诸如Devstral(240亿参数,专为代理式编码优化)、Qwen3-Coder、DeepSeek Coder V2、Codestral和GLM-4.5等前沿模型。

:前沿模型需要大量的RAM/VRAM。特别是对于Qwen3‑Coder‑480B,适合Ollama的GGUF文件约为150GB,实际本地推理可能需要约150GB的统一内存(RAM+VRAM),这对普通笔记本电脑来说较为困难;而300亿参数的量化版本通常需要约18GB。详情请参阅Unsloth关于Qwen3‑Coder本地运行的指南(文档),以及Simon Willison关于在其笔记本上运行GLM‑4.5 AIR来制作太空侵略者游戏的文章,作为实际示例。


对比说明

  • 目标:比较AI编码工具在访问专业级模型和免费层级限制方面的差异。
  • 何为“专业级”模型? 模型必须在SWE-bench Verified测试中达到≥60%,证明其具备真实的软件工程能力。目前符合条件的模型包括:Claude Opus 4.5(80.9%)、GPT-5.1-Codex-Max(77.9%)、Claude Sonnet 4.5(77.2%)、Gemini 3 Pro(76.2%)、GPT-5(74.9%)、Claude Opus 4.1(74.5%)、Claude Sonnet 4(72.7%)、GPT-5 mini(71.0%)、Qwen3-Coder-480B(69.6%)以及Gemini 2.5 Pro(63.2%)。
  • 不同的限制类型:各工具采用不同的配额体系——请求、令牌、积分、对话等——这使得直接比较颇具挑战。具体细节请查阅相关文档。
  • 实际使用情况:实际消耗会因编码风格、任务复杂度和工具实现方式的不同而产生巨大差异。

相关资源


版本历史

v2025.10.042025/10/04
v0.2.02025/09/20
v0.1.02025/08/26

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|昨天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

142.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|今天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|昨天
语言模型图像Agent