GPT_API_free

GitHub
37.3k 2.6k 非常简单 1 次阅读 今天MIT数据工具插件Agent语言模型
AI 解读 由 AI 自动生成,仅供参考

GPT_API_free 是一个面向开发者的开源项目,旨在提供便捷、免费的全球主流大模型 API 接入服务。它有效解决了国内用户直接调用 OpenAI、DeepSeek、Claude、Gemini 及 Grok 等官方接口时面临的网络限制、配置复杂及高昂成本等痛点。

该项目最大的技术亮点在于实现了“国内动态加速”与“协议统一”。用户无需搭建代理或特殊网络环境,即可在国内直连使用;同时,它完全兼容 OpenAI 标准接口协议,开发者只需替换 Host 地址和模型名称,即可在现有代码、插件或软件中无缝切换至不同厂商的大模型,极大降低了集成门槛。

GPT_API_free 特别适合需要进行应用开发原型验证的学生、个人开发者以及从事非营利性科研工作的研究人员。平台提供慷慨的免费额度(如部分模型每日可达 200 次请求),并承诺不收集用户隐私数据。对于有更高稳定性需求或商业用途的场景,项目也提供了透明的付费方案作为补充。通过简化接入流程并打破网络壁垒,GPT_API_free 让每个人都能更轻松地体验和利用前沿人工智能技术。

使用场景

一位国内高校研究生正在开发基于大模型的论文辅助分析系统,需要频繁调用 GPT-4o 和 DeepSeek-R1 进行文献摘要与数据解读。

没有 GPT_API_free 时

  • 网络接入困难:受限于国内网络环境,直连官方 API 经常超时或失败,配置和维护代理服务器不仅繁琐且稳定性差。
  • 高昂试错成本:项目处于早期验证阶段,经费有限,直接使用官方付费接口导致每次调试代码都消耗大量美元额度,不敢大规模测试。
  • 多模型切换复杂:想要对比 DeepSeek 与 GPT 在不同任务上的表现,需要分别申请多家厂商的 Key 并适配不同的接口协议,开发效率极低。
  • 响应速度缓慢:即使连通了官方服务,跨境延迟高达数百毫秒,流式输出卡顿严重,严重影响本地调试体验。

使用 GPT_API_free 后

  • 国内直连加速:利用 GPT_API_free 提供的国内动态加速节点,无需任何代理即可稳定连接,网络延迟显著降低,请求成功率大幅提升。
  • 零成本高频测试:借助其免费额度(如 DeepSeek 每日 30 次、GPT-4o-mini 每日 200 次),研究者可以无压力地进行全天候代码迭代与效果验证。
  • 统一接口便捷集成:通过标准的 OpenAI 协议,仅需修改 Host 地址和模型名称即可在代码中无缝切换 GPT、DeepSeek、Claude 等多种模型,极大简化了架构。
  • 流畅流式体验:得益于优化的中转线路,流式响应速度远优于自行代理,本地终端能实时呈现生成内容,调试过程丝滑顺畅。

GPT_API_free 通过提供免代理、低延迟且兼容多模型的免费接入方案,彻底消除了国内开发者使用顶尖大模型的技术与资金门槛。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该工具并非本地运行的开源模型,而是一个在线 API 转发服务(代理)。用户无需配置本地运行环境、GPU 或安装特定依赖库。使用方式是将请求的 Host 地址修改为提供的域名(如 api.chatanywhere.tech),并配合获取的 API Key 即可在任意支持 HTTP 请求的设备或系统中使用。主要限制在于免费版的调用频率(200 次/天/IP&Key)及仅限个人非商业用途。
python未说明
GPT_API_free hero image

快速开始

icon

GPT-API-free / DeepSeek-API-free

免费使用 gpt-5 | deepseek

支持 gpt | deepseek | claude | gemini | grok

国内动态加速 直连无需代理 协议统一接入便捷

快速开始 / API文档 / 申请内测免费Key / 支持付费Key / 服务可用性

QQ群: 1078874657

隐私声明

该项目高度重视隐私,致力于保护其用户的隐私。该项目不会以任何方式收集、记录或存储用户输入的任何文本或由 OpenAI 服务器返回的任何文本。该项目不会向 OpenAI 或任何第三方提供有关 API 调用者的身份的任何信息,包括但不限于 IP 地址和用户代理字符串。

但OpenAI官方会根据其数据使用政策保留 30 天的数据。

特点

  1. 支持 gpt | deepseek | claude | gemini | grok 等排名靠前的常用大模型。
  2. 免费版支持gpt-5系列, gpt-4o,gpt-4.1一天5次;支持deepseek-r1, deepseek-v3, deepseek-v3-2-exp一天30次,支持gpt-4o-mini,gpt-3.5-turbo,gpt-4.1-mini,gpt-4.1-nano, gpt-5-mini,gpt-5-nano一天200次。
  3. 与官方完全一致的接口标准,兼容各种软件/插件。
  4. 支持流式响应。
  5. 国内线路使用动态加速,体验远优于使用代理连接官方。
  6. 无需科学上网,国内环境直接可用。
  7. 个人完全免费使用。
  8. 协议统一使用openai标准协议,其他厂商模型仅需更换模型名称,接入便捷

🚩注意事项

❗️如果遇到无回复,报错等情况,可以查看 status.chatanywhere.tech,确认服务状态是否正常,以帮助排查问题。

❗️免费API Key gpt-5系列模型的推理能力较弱,若需要更强的推理能力,可以购买付费API

❗️免费API Key仅可用于个人非商业用途,教育,非营利性科研工作中。免费API Key严禁商用,严禁大规模训练商用模型!训练科研用模型请提前加群联系我们。

❗️我们将不定期对被滥用的Key进行封禁,如发现自己的key被误封请通过QQ群联系我们。

❗️我们的系统仅供内部评估测试使用,商用或面向大众使用请自行承担风险。

为了该项目长久发展,免费API Key限制200请求/天/IP&Key调用频率(gpt和embedding分开计算,各200次),也就是说你如果在一个IP下使用多个Key,所有Key的每天请求数总和不能超过200;同理,你如果将一个Key用于多个IP,这个Key的每天请求数也不能超过200。(付费版API没有这个限制)

免费使用

  • 🚀申请领取内测免费API Key
  • 免费版支持deepseek, gpt-3.5-turbo, embedding, gpt-4o系列, gpt-5系列。
  • 转发Host1: https://api.chatanywhere.tech (国内中转,延时更低)
  • 转发Host2: https://api.chatanywhere.org (国外使用)

我们会定期根据使用量进行相应的扩容,只要不被官方制裁我们会一直提供免费API,如果该项目对你有帮助,还请为我们点一个Star。如果遇到问题可以在Issues中反馈,有空会解答。

该API Key用于转发API,需要将Host改为api.chatanywhere.tech(国内首选)或者api.chatanywhere.org(国外使用)。

付费版API

  • 纯公益提供免费Key显然不是能持久运营下去的方案,所以我们引入付费API Key维持项目的日常开销,以促进项目的良性循环,还望大家理解。
  • 购买付费Key
  • 付费版价格表
  1. 支持更稳定更快速的GPT4 API,GPT4体验更好,无限使用,价格低于官方,充值更便捷。
  2. 同官网计费策略,流式问答使用tiktoken库准确计算Tokens,非流式问答直接使用官方返回Tokens用量计费。
  3. 余额不会过期,永久有效。根据用户反馈30块钱个人中度使用gpt-4o-mini估计能用半年。
  4. 所有的接口(包括免费版本)都保证转发自OpenAI或Azure官方接口,非peo、plus等不稳定方案或逆向方案,无水分,不掺假,保证稳定性。

付费版支持模型

模型(Model) 请求(Input) 回答(Output) 是否支持 特点
gpt-5.4 0.0175 / 1K Tokens [7阶梯计价] 0.105 / 1K Tokens 支持 openai最新推出的面向各行各业的编码和智能体任务的旗舰模型
gpt-5.4-mini 0.00525 / 1K Tokens 0.0315 / 1K Tokens 支持 openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型
gpt-5.4-mini-2026-03-17 0.00525 / 1K Tokens 0.0315 / 1K Tokens 支持 openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型
gpt-5.4-nano 0.0014 / 1K Tokens 0.00875 / 1K Tokens 支持 openai最便宜的GPT-5.4级型号,适用于简单的高容量任务
gpt-5.4-nano-2026-03-17 0.0014 / 1K Tokens 0.00875 / 1K Tokens 支持 openai最便宜的GPT-5.4级型号,适用于简单的高容量任务
gpt-5.4-2026-03-05 0.0175 / 1K Tokens 0.105 / 1K Tokens 支持 openai最新推出的面向各行各业的编码和智能体任务的旗舰模型
gpt-5.2 0.01225 / 1K Tokens 0.098 / 1K Tokens 支持 面向各行各业的编码和智能体任务的旗舰模型
gpt-5.2-2025-12-11 0.01225 / 1K Tokens 0.098 / 1K Tokens 支持 面向各行各业的编码和智能体任务的旗舰模型
gpt-5.2-chat-latest 0.01225 / 1K Tokens 0.098 / 1K Tokens 支持 指向 ChatGPT网页版本 当前使用的 GPT-5.2 快照。我们推荐GPT-5.2对于大多数 API 用法,但您可以随意使用此 GPT-5.2 聊天模型来测试我们针对聊天用例的最新改进
gpt-5.2-pro 0.147 / 1K Tokens 1.176 / 1K Tokens 支持 目前仅在响应 API 中可用,用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时。
gpt-5.2-pro-2025-12-11 0.147 / 1K Tokens 1.176 / 1K Tokens 支持 目前仅在响应 API 中可用,用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时
gpt-5.1 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 用于编码和智能体任务的旗舰模型,它具备可配置的推理和非推理能力
gpt-5.1-2025-11-13 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 用于编码和智能体任务的旗舰模型,它具备可配置的推理和非推理能力
gpt-5.1-chat-latest 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 指向 ChatGPT 当前使用的 GPT-5.1 快照。我们推荐GPT-5.1对于大多数 API 用法,但您可以随意使用此 GPT-5.1 聊天模型来测试我们针对聊天用例的最新改进
gpt-5.1-codex 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 GPT-5.1-Codex 是 GPT-5 的一个版本,针对智能编码任务进行了优化。
gpt-5-search-api 0.00875 / 1K Tokens 0.07 / 1K Tokens + 搜索费用[6] 支持 Openai 出的搜索模型,支持网络搜索,指向最新的gpt-5的搜索模型
gpt-5 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 GPT-5 是用于跨领域编码、推理和代理任务的旗舰模型
gpt-5-codex 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 GPT-5-Codex 是针对代理编码任务优化。它可在 Responses API仅限此版本,底层模型快照将定期更新。
gpt-5-pro 0.105 / 1K Tokens 0.84 / 1K Tokens 支持 使用更多的计算来更努力地思考,并始终如一地提供更好的答案。此模型回复较慢比较长的问题不建议使用有可能会超时
gpt-5-mini 0.00175 / 1K Tokens 0.014 / 1K Tokens 支持 GPT-5 mini 是 GPT-5 的一个更快、更经济的版本。它非常适合执行定义明确的任务和精准的提示
gpt-5-nano 0.00035 / 1K Tokens 0.0028 / 1K Tokens 支持 GPT-5 Nano 是速度最快、成本最低的 GPT-5 版本。它非常适合摘要和分类任务
gpt-5-chat-latest 0.00875 / 1K Tokens 0.07 / 1K Tokens 支持 GPT-5 Chat 指的是 ChatGPT 当前使用的 GPT-5 快照
o3 0.014 / 1K Tokens 0.056 / 1K Tokens 支持 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o3-2025-04-16
o3-2025-04-16 0.014 / 1K Tokens 0.056 / 1K Tokens 支持 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。
o4-mini 0.0088 / 1K Tokens 0.0352 / 1K Tokens 支持 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o4-mini-2025-04-16
o4-mini-2025-04-16 0.0088 / 1K Tokens 0.0352 / 1K Tokens 支持 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。
gpt-4.1 0.014 / 1K Tokens 0.056 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-2025-04-14
gpt-4.1-2025-04-14 0.014 / 1K Tokens 0.056 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出
gpt-4.1-mini 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-mini-2025-04-14
gpt-4.1-mini-2025-04-14 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出
gpt-4.1-nano 0.0007 / 1K Tokens 0.0028 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-nano-2025-04-14
gpt-4.1-nano-2025-04-14 0.0007 / 1K Tokens 0.0028 / 1K Tokens 支持 OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出
gpt-oss-20b 0.0008 / 1K Tokens 0.0032 / 1K Tokens 支持 OpenAI最新推出的开源模型
gpt-oss-120b 0.0044 / 1K Tokens 0.0176 / 1K Tokens 支持 OpenAI最新推出的开源模型
gpt-3.5-turbo 0.0035 / 1K Tokens 0.0105 / 1K Tokens 支持 默认模型,等于gpt-3.5-turbo-0125
gpt-3.5-turbo-1106 0.007 / 1K Tokens 0.014 / 1K Tokens 支持 2023年11月6日更新的模型
gpt-3.5-turbo-0125 0.0035 / 1K Tokens 0.0105 / 1K Tokens 支持 2024年1月25日最新模型,数据最新,价格更更低,速度更快,修复了一些1106的bug。
gpt-3.5-turbo-16k 0.021 / 1K Tokens 0.028 / 1K Tokens 支持 适合快速回答简单问题,字数更多
gpt-3.5-turbo-instruct 0.0105 / 1K Tokens 0.014 / 1K Tokens 支持 Completions模型 用于文本生成,提供准确的自然语言处理模型一般人用不上
o3-mini [5] 0.0088 / 1K Tokens 0.0352 / 1K Tokens 支持 针对复杂任务的推理模型
gpt-4o-search-preview 0.0175/1K Tokens 0.07/1K Tokens + 搜索费用[6] 支持 Openai 出的搜索模型,支持网络搜索,指向最新的4o的搜索模型
gpt-4o-search-preview-2025-03-11 0.0175/1K Tokens 0.07/1K Tokens + 搜索费用[6] 支持 Openai 出的搜索模型,支持网络搜索
gpt-4o-mini-search-preview 0.00105/1K Tokens 0.0042/1K Tokens + 搜索费用[6] 支持 Openai 出的搜索模型,支持网络搜索,指向最新的4o-mini的搜索模型
gpt-4o-mini-search-preview-2025-03-11 0.00105/1K Tokens 0.0042/1K Tokens + 搜索费用[6] 支持 Openai 出的搜索模型,支持网络搜索
gpt-4 0.21 / 1K Tokens 0.42 / 1K Tokens 支持 默认模型,等于gpt-4-0613
gpt-4o 0.0175/1K Tokens + 图片费用[2] 0.07/1K Tokens 支持 Openai 价格更低, 速度更快更聪明,指向最新版的4o版本
gpt-4o-2024-11-20 0.0175/1K Tokens + 图片费用[2] 0.07/1K Tokens 支持 Openai 2024-11-20出的gpt-4o模型, 该模型的创意写作能力得到了提升一更自然、更有吸引力、更有针对性的写作
gpt-4o-mini 0.00105/1K Tokens + 图片费用[2] 0.0042/1K Tokens 支持 Openai 最新模型, 价格更低, 输出质量在3.5之上4o之下, 并且支持读图
gpt-4-0613 0.21 / 1K Tokens 0.42 / 1K Tokens 支持 2023年6月13日更新的模型
gpt-5.4-ca 0.01 / 1K Tokens [7阶梯计价] 0.06 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.4-mini-ca 0.003 / 1K Tokens 0.018 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.4-nano-ca 0.0008 / 1K Tokens 0.005 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5-codex-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.1-codex-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.2-codex-ca 0.007 / 1K Tokens 0.056 / 1K Tokens 支持 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.2-ca 0.007 / 1K Tokens 0.056 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.2-chat-latest-ca 0.007 / 1K Tokens 0.056 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.1-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5.1-chat-latest-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5-mini-ca 0.001 / 1K Tokens 0.008 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5-nano-ca 0.0002 / 1K Tokens 0.0016 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-5-chat-latest-ca 0.005 / 1K Tokens 0.04 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-4.1-ca 0.008 / 1K Tokens 0.032 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-4.1-mini-ca 0.0016 / 1K Tokens 0.0064 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-4.1-nano-ca 0.0004 / 1K Tokens 0.003 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-3.5-turbo-ca 0.001 / 1K Tokens 0.0016 / 1K Tokens 不支持 由于Azure openai已经下架gpt-3.5,故-ca版本的3.5以不可以用,请使用gpt-4o-mini或者gpt-4.1-mini或者更高的模型本模型将会重定向至gpt-4o-mini
gpt-4-ca 0.12 / 1K Tokens 0.24 / 1K Tokens 支持 由于Azure openai已经下架gpt-4,故-ca版本的4以不可以用,请使用gpt-4o或者gpt-4.1或者更高的模型
gpt-4o-ca 0.01 / 1K Tokens + 0.0289*图片个数[3] 0.04 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
gpt-4o-mini-ca 0.00075 / 1K Tokens 0.003 / 1K Tokens 支持 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的
deepseek-v3.2 0.0012 / 1K Tokens 0.0018 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-v3.2-thinking 0.0012 / 1K Tokens 0.0018 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-v3-2-exp 0.0012 / 1K Tokens 0.0018 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-v3.1-250821 0.0024 / 1K Tokens 0.0072 / 1K Tokens 支持 deepseek的聊天模型, 此此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-v3.1-think-250821 0.0024 / 1K Tokens 0.0072 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-reasoner 0.0024 / 1K Tokens 0.0096 / 1K Tokens 支持 deepseek的思考R1模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-r1 0.0024 / 1K Tokens 0.0096 / 1K Tokens 支持 deepseek的思考R1模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-r1-250528 0.0024 / 1K Tokens 0.0096 / 1K Tokens 支持 deepseek的思考R1模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-v3 0.0012 / 1K Tokens 0.0048 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
deepseek-chat 0.0012 / 1K Tokens 0.0018 / 1K Tokens 支持 deepseek的聊天模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-sonnet-4-6 0.015 / 1K Tokens 0.075 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,现在使用的为Claude code的逆向或官方逆向的渠道。
claude-sonnet-4-6-thinking 0.015 / 1K Tokens 0.075 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-opus-4-6 0.025 / 1K Tokens 0.125 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-opus-4-6-thinking 0.025 / 1K Tokens 0.125 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-opus-4-5-20251101 0.025 / 1K Tokens 0.125 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-opus-4-5-20251101-thinking 0.025 / 1K Tokens 0.125 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-haiku-4-5-20251001 0.005 / 1K Tokens 0.025 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-haiku-4-5-20251001-thinking 0.005 / 1K Tokens 0.025 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-sonnet-4-5-20250929 0.015 / 1K Tokens 0.075 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,现在使用的为Claude code的逆向或官方逆向的渠道。
claude-sonnet-4-5-20250929-thinking 0.015 / 1K Tokens 0.075 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,现在使用的为Claude code的逆向或官方逆向的渠道。
claude-opus-4-1-20250805 0.075 / 1K Tokens 0.375 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
claude-opus-4-1-20250805-thinking 0.075 / 1K Tokens 0.375 / 1K Tokens 支持 claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-2.5-pro 0.007 / 1K Tokens 0.04 / 1K Tokens 支持 是gemini 最新的旗舰模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-2.5-flash 0.0012 / 1K Tokens 0.01 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-2.5-flash-nothinking 0.0012 / 1K Tokens 0.01 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-2.5-flash-lite 0.0004 / 1K Tokens 0.0016 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-2.5-flash-image-preview 0.0015 / 1K Tokens 0.15 / 1K Tokens 支持 Google Gemini的生图模型也是大家口中所说的nano banana
gemini-3-pro-image-preview 0 / 1K Tokens 0.68一张图 支持 Google Gemini的生图模型也是大家口中所说的nano banana
gemini-3.1-flash-image-preview 0.00125 / 1K Tokens 0.3 / 1K Tokens 支持 Google Gemini的生图模型也是大家口中所说的nano banana
gemini-3-pro-preview 0.008 / 1K Tokens 0.048 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-3-flash-preview 0.002 / 1K Tokens 0.012 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-3-flash-preview-nothinking 0.002 / 1K Tokens 0.012 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-3.1-pro-preview 0.008 / 1K Tokens 0.048 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
gemini-3.1-flash-lite-preview 0.001 / 1K Tokens 0.006 / 1K Tokens 支持 Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
grok-4 0.012 / 1K Tokens 0.06 / 1K Tokens 支持 grok基础模此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
grok-4-fast 0.0008 / 1K Tokens 0.002 / 1K Tokens 支持 grok基础模此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3.5-plus 0.00056 / 1K Tokens[7阶梯计价] 0.00336 / 1K Tokens 支持 qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3.5-397b-a17b 0.00084 / 1K Tokens[7阶梯计价] 0.00504 / 1K Tokens 支持 qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3-max-2026-01-23 0.00175 / 1K Tokens[7阶梯计价] 0.007 / 1K Tokens 支持 qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3-235b-a22b 0.0014 / 1K Tokens 0.0056 / 1K Tokens 支持 qwen的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3-235b-a22b-instruct-2507 0.0014 / 1K Tokens 0.0056 / 1K Tokens 支持 qwen的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3-coder-plus 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 qwen的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
qwen3-coder-480b-a35b-instruct 0.0042 / 1K Tokens 0.0168 / 1K Tokens 支持 qwen的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
kimi-k2.5 0.0028 / 1K Tokens 0.0147 / 1K Tokens 支持 kimi的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
kimi-k2-0711-preview 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 kimi的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
kimi-k2-0905-preview 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 kimi的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
kimi-k2-thinking 0.0028 / 1K Tokens 0.0112 / 1K Tokens 支持 kimi的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
kimi-k2-thinking-turbo 0.0056 / 1K Tokens 0.0406 / 1K Tokens 支持 kimi的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
glm-4.7 0.0024 / 1K Tokens 0.0096 / 1K Tokens 支持 glm的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
glm-5 0.0024 / 1K Tokens [7阶梯计价] 0.0108 / 1K Tokens 支持 glm模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
minimax-m2.1 0.00126 / 1K Tokens 0.00504 / 1K Tokens 支持 minimax的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
minimax-m2.5 0.00126 / 1K Tokens 0.00504 / 1K Tokens 支持 minimax的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。
模型(Model) 价格 是否支持
gpt-image-1.5 文字输入: 0.035CA/1K Tokens, 图片输入: 0.07CA/1K Tokens, 图片输出:0.224 CA/1K Tokens 支持
gpt-image-1 文字输入: 0.04CA/1K Tokens, 图片输入: 0.08CA/1K Tokens, 图片输出:0.32 CA/1K Tokens 支持
gpt-image-1-mini 文字输入: 0.014CA/1K Tokens, 图片输入: 0.0175CA/1K Tokens, 图片输出:0.056 CA/1K Tokens 支持
dall-e-3 1024×1024 0.280 / image 支持
dall-e-3 1024×1792 0.560 / image 支持
dall-e-3-hd 1024×1024 0.560 / image 支持
dall-e-3-hd 1024×1792 0.840 / image 支持
dall-e-2 1024×1024 0.14 / image 支持
dall-e-2 512x512 0.126 / image 支持
dall-e-2 256x256 0.112 / image 支持
tts-1 0.105 / 1K characters 支持
tts-1-hd 0.21 / 1K characters 支持
gpt-4o-mini-tts (0.12 / minute) + (0.012 / 1kToken) 支持
Whisper 0.042 / minute 支持
gpt-4o-mini-transcribe 0.024 / minute 支持
gpt-4o-transcribe 0.048 / minute 支持
text-embedding-ada-002 0.0007 / 1K Tokens 支持
text-embedding-3-small 0.00014 / 1K Tokens 支持
text-embedding-3-large 0.00091 / 1K Tokens 支持
deepseek-ocr 0.08 /一次 支持

OpenAi官方价格文档

[1] Tokens: GPT中指文本数据的最小处理单位。一个token可以是一个字、一个词或者一个字符,这取决于所使用的语言和处理方式。例如,在英文中,一个token可能是一个单词,如"apple";在中文中,一个token可能是一个字符,如"苹"。 1K Tokens = 1000个Token。(根据经验估算:gpt-4o模型 1000Tokens≈1000-1200个中文字符;非gpt-4o模型1000Tokens≈700-800中文字符)

[2] 多模态模型图片如何计算占用tokens请参考OpenAI官方 https://openai.com/api/pricing 。分辨率越高,tokens占用越多,但最高不会超过1445tokens。 以下以1000x150分辨率的图片为例,计算图片占用Tokens数为425。 注意gpt-4o-mini的图片价格并没有降低,与gpt-4o一致。因为mini的token价格为4o的33分之一,所以你应该会看到图片的token计算是4o的33倍,具体参考openai官方的价格页面https://openai.com/api/pricing/

[3] CA系列多模态模型在计算图片价格时,如果使用流式传输(参数stream=true),则按照0.10115每张图计费;如果使用非流式传输(参数stream=false),这时按照OpenAI返回的实际消耗量计费,如果你的图片分辨率较低,通常低于0.10115。因此,我们建议在使用gpt-4-turbo分析图片时,使用非流式传输(参数stream=false)。

[4] 动态更新的版本,持续集成OpenAI最新的研究成果。它为开发人员和研究人员提供了探索最前沿技术的机会。请注意,尽管该模型展示了最新的能力,但对于生产环境的使用,我们仍然建议选择经过优化的旧版GPT模型,以确保更高的稳定性和性能

[5] o1和o3-mini由于这两种模型的可用账号数量较少,资源稳定性可能存在波动,即可能出现时可用、时不可用的情况。建议如在生产环境中使用时做好相应的容错处理。

[6] OpenAI 的搜索模型除了输入输出的 token 费用外,还需要缴纳一个按次收费的 web_search 费用。对于 4o-mini 模型,费用为:low: 0.175,medium: 0.1925,high: 0.21。对于 4o 模型,费用为:low: 0.21,medium: 0.245,high: 0.35。 对于5模型费用为0.07 默认情况下,费用为 medium。请根据您的需求选择合适的搜索级别,以优化成本和性能。 此费用为官方收费,非我们额外收费。

[7] 阶梯计价

gpt-5.4

输入范围 输入价格 输出价格
0 - 272K 0.0175 CA/1K Tokens 0.105 CA/1K Tokens
> 272K 0.035 CA/1K Tokens 0.1575 CA/1K Tokens

gpt-5.4-ca

输入范围 输入价格 输出价格
0 - 272K 0.01 CA/1K Tokens 0.06 CA/1K Tokens
> 272K 0.02 CA/1K Tokens 0.09 CA/1K Tokens

qwen3-max-2026-01-23

输入范围 输入价格 输出价格
0 - 32K 0.00175 CA/1K Tokens 0.007 CA/1K Tokens
32K - 128K 0.0028 CA/1K Tokens 0.0112 CA/1K Tokens
> 128K 0.0049 CA/1K Tokens 0.0196 CA/1K Tokens

qwen3-max-2026-01-23

输入范围 输入价格 输出价格
0 - 128K 0.00056 CA/1K Tokens 0.00336 CA/1K Tokens
128K - 256K 0.0014 CA/1K Tokens 0.0084 CA/1K Tokens
> 256K 0.0028 CA/1K Tokens 0.0168 CA/1K Tokens

qwen3.5-397b-a17b

输入范围 输入价格 输出价格
0 - 128K 0.00084 CA/1K Tokens 0.00504 CA/1K Tokens
> 128K 0.0021 CA/1K Tokens 0.0126 CA/1K Tokens

glm-5

输入范围 输入价格 输出价格
0 - 32K 0.0024 CA/1K Tokens 0.0108 CA/1K Tokens
>32K 0.0036 CA/1K Tokens 0.0132 CA/1K Tokens

如何使用

  • 由于频繁的恶意请求,我们不再直接提供公共的免费Key,现在需要你使用你的Github账号绑定来领取你自己的免费Key。
  • 🚀申请领取内测免费API Key购买内测付费API Key
  • 转发Host1: https://api.chatanywhere.tech (国内中转,延时更低)
  • 转发Host2: https://api.chatanywhere.org (国外使用)
  • 余额和使用记录查询(通知公告也会发在这里): 余额查询及公告
  • 转发API无法直接向官方接口api.openai.com发起请求,需要将请求地址改为api.chatanywhere.tech才可以使用,大部分插件和软件都可以修改。
  • 遇到问题可以前往ChatAnywhere Status查看接口可用性。

常见软件/插件使用方法

python openai官方库(使用langchain等)

示例代码请参考demo.pyOpenAI官方文档

方法一

from openai import OpenAI

client = OpenAI(
    # defaults to os.environ.get("OPENAI_API_KEY")
    api_key="YOUR API KEY",
    base_url="https://api.chatanywhere.tech/v1"
    # base_url="https://api.chatanywhere.org/v1"
)

方法二(方法一不起作用用这个)

修改环境变量OPENAI_API_BASE,各个系统怎么改环境变量请自行搜索,修改环境变量后不起作用请重启系统。

OPENAI_API_BASE=https://api.chatanywhere.tech/v1
或 OPENAI_API_BASE=https://api.chatanywhere.org/v1

开源gpt_academic

找到config.py文件中的API_URL_REDIRECT配置并修改为以下内容:

API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://api.chatanywhere.tech/v1/chat/completions"}
# API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://api.chatanywhere.org/v1/chat/completions"}

Gomoon (支持读文件,构建知识库,推荐使用)

Gomoon 是一款开源的桌面大模型应用,支持mac和Windows平台。额外支持了解析文件、图片,本地知识库等能力。

官网地址:https://gomoon.top

GitHub地址:https://github.com/wizardAEI/Gomoon

使用方法:进入Gomoon设置页面(页面右上角),如图在设置中填入密钥,并将代理设置为https://api.chatanywhere.tech/v1

Zotero插件zotero-gpt

支持AI阅读论文,科研神器。

下载链接:https://github.com/MuiseDestiny/zotero-gpt/releases (下载最新版本的zotero-gpt.xpi文件)

Zotero7使用方法(建议使用Zotero7)

  1. 安装插件

在下载链接下载好插件后(zotero7应该下载1.0以上版本的插件),点击zotero左上角 工具->插件

点击Install Plugin From File

找到你下载的zotero-gpt.xpi安装

  1. 配置插件

点击zotero左上角 编辑->设置

然后如图设置即可

Zotero6使用方法

安装好插件后使用以下命令设置

/api https://api.chatanywhere.tech

/secretKey 购买的转发key 记住别忘记带sk-

# 切换模型命令
/model gpt-3.5-turbo-0125 

Zotero翻译插件zotero-pdf-translate

下载链接:https://github.com/windingwind/zotero-pdf-translate/releases

接口地址填写: https://api.chatanywhere.tech/v1/chat/completions

不用管状态是否显示可用 填上之后就可以了

BotGem(AMA)

ChatGPT桌面应用,支持全平台,支持gpt-4-vision

下载链接:https://bytemyth.com/ama

使用方法:下载安装后在设置中如图设置,并点击更新。

ChatBox

ChatGPT开源桌面应用,支持全部桌面平台。

下载链接:https://github.com/Bin-Huang/chatbox/releases

使用方法:如图在设置中填入购买的密钥,并将代理设置为https://api.chatanywhere.tech即可

浏览器插件ChatGPT Sidebar

官网链接:https://chatgpt-sidebar.com/

安装好插件后进入设置页面,如图所示修改设置,将url修改为 https://api.chatanywhere.tech

JetBrains 插件 ChatGPT - Easycode

安装好插件后,在Settings > Tools > OpenAI > GPT 3.5 Turbo中如图所示配置好插件,重点要将Server Settings 修改为 https://api.chatanywhere.tech/v1/chat/completions 。并勾选Customize Server。

星级历史图表

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

156.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|5天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|5天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架