[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-chatanywhere--GPT_API_free":3,"tool-chatanywhere--GPT_API_free":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":95,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":141},7753,"chatanywhere\u002FGPT_API_free","GPT_API_free","Free ChatGPT&DeepSeek API Key，免费ChatGPT&DeepSeek API。免费接入DeepSeek API和GPT4 API，支持 gpt | deepseek | claude | gemini | grok 等排名靠前的常用大模型。","GPT_API_free 是一个面向开发者的开源项目，旨在提供便捷、免费的全球主流大模型 API 接入服务。它有效解决了国内用户直接调用 OpenAI、DeepSeek、Claude、Gemini 及 Grok 等官方接口时面临的网络限制、配置复杂及高昂成本等痛点。\n\n该项目最大的技术亮点在于实现了“国内动态加速”与“协议统一”。用户无需搭建代理或特殊网络环境，即可在国内直连使用；同时，它完全兼容 OpenAI 标准接口协议，开发者只需替换 Host 地址和模型名称，即可在现有代码、插件或软件中无缝切换至不同厂商的大模型，极大降低了集成门槛。\n\nGPT_API_free 特别适合需要进行应用开发原型验证的学生、个人开发者以及从事非营利性科研工作的研究人员。平台提供慷慨的免费额度（如部分模型每日可达 200 次请求），并承诺不收集用户隐私数据。对于有更高稳定性需求或商业用途的场景，项目也提供了透明的付费方案作为补充。通过简化接入流程并打破网络壁垒，GPT_API_free 让每个人都能更轻松地体验和利用前沿人工智能技术。","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_356e9dfc2d32.png\" alt=\"icon\" width=\"50px\"\u002F>\n\u003Ch1 align=\"center\">GPT-API-free \u002F DeepSeek-API-free\u003C\u002Fh1>\n\n免费使用 gpt-5 | deepseek\n\n支持 gpt | deepseek | claude | gemini | grok\n\n国内动态加速 直连无需代理 协议统一接入便捷\n\n[快速开始](#如何使用) \u002F [API文档](https:\u002F\u002Fchatanywhere.apifox.cn\u002F) \u002F [申请内测免费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender) \u002F [支持付费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F) \u002F [服务可用性](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n[QQ群: 1078874657](https:\u002F\u002Fqm.qq.com\u002Fcgi-bin\u002Fqm\u002Fqr?k=_zvJ_azT-QfxSvbgsag7QHWASA_p7znW&jump_from=webapi&authKey=lNJokVrGWKegX\u002FDLQ7gzEwTixzpoMJiUDg80e74w1uXV9xIhyEuUu2Dx7WkbqWk3)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_02882f14f03c.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_191c63f0a50a.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_e820532ea5ec.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_d7c9b62b263c.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_71cc733ed0f1.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n\n\u003C\u002Fdiv>\n\n## 隐私声明\n\n该项目高度重视隐私，致力于保护其用户的隐私。该项目不会以任何方式收集、记录或存储用户输入的任何文本或由 OpenAI 服务器返回的任何文本。该项目不会向 OpenAI 或任何第三方提供有关 API 调用者的身份的任何信息，包括但不限于 IP 地址和用户代理字符串。\n\n但OpenAI官方会根据其[数据使用政策](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fdata-usage-policies)保留 30 天的数据。\n\n## 特点\n1. 支持 gpt | deepseek | claude | gemini | grok 等排名靠前的常用大模型。\n2. 免费版支持gpt-5系列, gpt-4o，gpt-4.1一天5次；支持deepseek-r1, deepseek-v3, deepseek-v3-2-exp一天30次，支持gpt-4o-mini，gpt-3.5-turbo，gpt-4.1-mini，gpt-4.1-nano, gpt-5-mini，gpt-5-nano一天200次。\n3. 与官方完全一致的接口标准，兼容各种软件\u002F插件。\n4. 支持流式响应。\n5. 国内线路使用动态加速，体验远优于使用代理连接官方。\n6. 无需科学上网，国内环境直接可用。\n7. 个人完全免费使用。\n8. 协议统一使用openai标准协议，其他厂商模型仅需更换模型名称，接入便捷\n\n## 🚩注意事项\n\n❗️*如果遇到无回复，报错等情况，可以查看 [status.chatanywhere.tech](https:\u002F\u002Fstatus.chatanywhere.tech)，确认服务状态是否正常，以帮助排查问题。*\n\n❗️*免费API Key gpt-5系列模型的推理能力较弱，若需要更强的推理能力，可以购买付费API*\n\n❗️**免费API Key仅可用于个人非商业用途，教育，非营利性科研工作中。免费API Key严禁商用，严禁大规模训练商用模型！训练科研用模型请提前加群联系我们。**\n\n❗️我们将不定期对被滥用的Key进行封禁，如发现自己的key被误封请通过QQ群联系我们。\n\n❗️我们的系统仅供内部评估测试使用，商用或面向大众使用请自行承担风险。\n\n为了该项目长久发展，免费API Key限制**200请求\u002F天\u002FIP&Key**调用频率（gpt和embedding分开计算，各200次），也就是说你如果在一个IP下使用多个Key，所有Key的每天请求数总和不能超过200；同理，你如果将一个Key用于多个IP，这个Key的每天请求数也不能超过200。(**付费版API没有这个限制**)\n\n## 免费使用\n\n- **🚀[申请领取内测免费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender)**\n- 免费版支持deepseek, gpt-3.5-turbo, embedding, gpt-4o系列, gpt-5系列。\n- **转发Host1: `https:\u002F\u002Fapi.chatanywhere.tech` (国内中转，延时更低)**\n- **转发Host2: `https:\u002F\u002Fapi.chatanywhere.org` (国外使用)**\n\n\n我们会定期根据使用量进行相应的扩容，只要不被官方制裁我们会一直提供免费API，如果该项目对你有帮助，还请为我们点一个***Star***。如果遇到问题可以在[Issues](https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues)中反馈，有空会解答。\n\n该API Key用于转发API，需要将Host改为`api.chatanywhere.tech`(国内首选)或者`api.chatanywhere.org`(国外使用)。\n\n## 付费版API\n- 纯公益提供免费Key显然不是能持久运营下去的方案，所以我们引入付费API Key维持项目的日常开销，以促进项目的良性循环，还望大家理解。\n- [购买付费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F)\n- [付费版价格表](https:\u002F\u002Fchatanywhere.apifox.cn\u002Fdoc-2694962)\n\n1. 支持**更稳定更快速的GPT4 API**，GPT4体验更好，无限使用，价格低于官方，充值更便捷。\n2. 同官网计费策略，流式问答使用tiktoken库准确计算Tokens，非流式问答直接使用官方返回Tokens用量计费。\n3. 余额不会过期，永久有效。根据用户反馈30块钱个人中度使用gpt-4o-mini估计能用半年。\n4. 所有的接口（包括免费版本）都保证转发自OpenAI或Azure官方接口，非peo、plus等不稳定方案或逆向方案，无水分，不掺假，保证稳定性。\n\n## 付费版支持模型\n\n\n| **模型（Model）** | **请求（Input）** | **回答（Output）** | **是否支持** | **特点** |\n| --- | --- | --- | --- | --- |\n| gpt-5.4 | 0.0175 \u002F 1K Tokens [7阶梯计价]| 0.105 \u002F 1K Tokens | 支持 | openai最新推出的面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.4-mini | 0.00525 \u002F 1K Tokens | 0.0315 \u002F 1K Tokens | 支持 | openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型 |\n| gpt-5.4-mini-2026-03-17 | 0.00525 \u002F 1K Tokens | 0.0315 \u002F 1K Tokens | 支持 | openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型|\n| gpt-5.4-nano | 0.0014 \u002F 1K Tokens | 0.00875 \u002F 1K Tokens | 支持 | openai最便宜的GPT-5.4级型号，适用于简单的高容量任务 |\n| gpt-5.4-nano-2026-03-17 | 0.0014 \u002F 1K Tokens | 0.00875 \u002F 1K Tokens | 支持 | openai最便宜的GPT-5.4级型号，适用于简单的高容量任务 |\n| gpt-5.4-2026-03-05 | 0.0175 \u002F 1K Tokens | 0.105 \u002F 1K Tokens | 支持 | openai最新推出的面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2 | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens | 支持 | 面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2-2025-12-11 | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens |支持| 面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2-chat-latest | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens | 支持 | 指向 ChatGPT网页版本 当前使用的 GPT-5.2 快照。我们推荐GPT-5.2对于大多数 API 用法，但您可以随意使用此 GPT-5.2 聊天模型来测试我们针对聊天用例的最新改进 |\n| gpt-5.2-pro | 0.147 \u002F 1K Tokens | 1.176  \u002F 1K Tokens | 支持 | 目前仅在响应 API 中可用，用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时。|\n| gpt-5.2-pro-2025-12-11 | 0.147 \u002F 1K Tokens | 1.176  \u002F 1K Tokens | 支持 |   目前仅在响应 API 中可用，用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时|\n| gpt-5.1 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型，它具备可配置的推理和非推理能力 |\n| gpt-5.1-2025-11-13 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型，它具备可配置的推理和非推理能力 |\n| gpt-5.1-chat-latest | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 指向 ChatGPT 当前使用的 GPT-5.1 快照。我们推荐GPT-5.1对于大多数 API 用法，但您可以随意使用此 GPT-5.1 聊天模型来测试我们针对聊天用例的最新改进 |\n| gpt-5.1-codex | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5.1-Codex 是 GPT-5 的一个版本，针对智能编码任务进行了优化。|\n| gpt-5-search-api | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的gpt-5的搜索模型|\n| gpt-5 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5 是用于跨领域编码、推理和代理任务的旗舰模型 |\n| gpt-5-codex | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5-Codex 是针对代理编码任务优化。它可在 Responses API仅限此版本，底层模型快照将定期更新。 |\n| gpt-5-pro | 0.105 \u002F 1K Tokens | 0.84  \u002F 1K Tokens | 支持 | 使用更多的计算来更努力地思考，并始终如一地提供更好的答案。此模型回复较慢比较长的问题不建议使用有可能会超时 |\n| gpt-5-mini | 0.00175 \u002F 1K Tokens | 0.014  \u002F 1K Tokens | 支持 |GPT-5 mini 是 GPT-5 的一个更快、更经济的版本。它非常适合执行定义明确的任务和精准的提示 |\n| gpt-5-nano | 0.00035 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 |GPT-5 Nano 是速度最快、成本最低的 GPT-5 版本。它非常适合摘要和分类任务 |\n| gpt-5-chat-latest |0.00875 \u002F 1K Tokens | 0.07 \u002F 1K Tokens | 支持 | GPT-5 Chat 指的是 ChatGPT 当前使用的 GPT-5 快照|\n| o3 | 0.014 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o3-2025-04-16|\n| o3-2025-04-16 | 0.014 \u002F 1K Tokens | 0.056   \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |\n| o4-mini | 0.0088 \u002F 1K Tokens | 0.0352  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o4-mini-2025-04-16|\n| o4-mini-2025-04-16 | 0.0088 \u002F 1K Tokens | 0.0352  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |\n| gpt-4.1 |  0.014 \u002F 1K Tokens | 0.056   \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-2025-04-14 |\n| gpt-4.1-2025-04-14 | 0.014 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-4.1-mini | 0.0028 \u002F 1K Tokens | 0.0112  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-mini-2025-04-14 |\n| gpt-4.1-mini-2025-04-14 | 0.0028 \u002F 1K Tokens | 0.0112  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-4.1-nano | 0.0007 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-nano-2025-04-14 |\n| gpt-4.1-nano-2025-04-14 | 0.0007 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-oss-20b| 0.0008 \u002F 1K Tokens | 0.0032  \u002F 1K Tokens | 支持 | OpenAI最新推出的开源模型|\n| gpt-oss-120b| 0.0044 \u002F 1K Tokens | 0.0176  \u002F 1K Tokens | 支持 | OpenAI最新推出的开源模型|\n| gpt-3.5-turbo | 0.0035 \u002F 1K Tokens | 0.0105 \u002F 1K Tokens | 支持 | 默认模型，等于gpt-3.5-turbo-0125|\n| gpt-3.5-turbo-1106 | 0.007 \u002F 1K Tokens | 0.014 \u002F 1K Tokens | 支持 | 2023年11月6日更新的模型|\n| gpt-3.5-turbo-0125 | 0.0035 \u002F 1K Tokens | 0.0105 \u002F 1K Tokens | 支持 | 2024年1月25日最新模型，数据最新，价格更更低，速度更快，修复了一些1106的bug。|\n| gpt-3.5-turbo-16k | 0.021 \u002F 1K Tokens | 0.028 \u002F 1K Tokens | 支持 | 适合快速回答简单问题,字数更多 |\n| gpt-3.5-turbo-instruct | 0.0105 \u002F 1K Tokens | 0.014 \u002F 1K Tokens | 支持 |Completions模型 用于文本生成，提供准确的自然语言处理模型一般人用不上|\n| o3-mini [5]| 0.0088 \u002F 1K Tokens | 0.0352 \u002F 1K Tokens | 支持 | 针对复杂任务的推理模型 |\n| gpt-4o-search-preview  | 0.0175\u002F1K Tokens| 0.07\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o的搜索模型|\n| gpt-4o-search-preview-2025-03-11| 0.0175\u002F1K Tokens| 0.07\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索|\n| gpt-4o-mini-search-preview | 0.00105\u002F1K Tokens| 0.0042\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o-mini的搜索模型|\n| gpt-4o-mini-search-preview-2025-03-11 |0.00105\u002F1K Tokens| 0.0042\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索|\n| gpt-4 | 0.21 \u002F 1K Tokens | 0.42 \u002F 1K Tokens | 支持 | 默认模型，等于gpt-4-0613 |\n| gpt-4o | 0.0175\u002F1K Tokens + 图片费用[2]| 0.07\u002F1K Tokens| 支持 | Openai 价格更低, 速度更快更聪明,指向最新版的4o版本|\n| gpt-4o-2024-11-20 | 0.0175\u002F1K Tokens + 图片费用[2]| 0.07\u002F1K Tokens | 支持 | Openai 2024-11-20出的gpt-4o模型, 该模型的创意写作能力得到了提升一更自然、更有吸引力、更有针对性的写作|\n| gpt-4o-mini | 0.00105\u002F1K Tokens + 图片费用[2]| 0.0042\u002F1K Tokens| 支持 | Openai 最新模型, 价格更低, 输出质量在3.5之上4o之下, 并且支持读图|\n| gpt-4-0613 | 0.21 \u002F 1K Tokens | 0.42 \u002F 1K Tokens | 支持 | 2023年6月13日更新的模型 |\n| gpt-5.4-ca | 0.01 \u002F 1K Tokens [7阶梯计价]| 0.06 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5.4-mini-ca | 0.003 \u002F 1K Tokens| 0.018 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5.4-nano-ca | 0.0008 \u002F 1K Tokens | 0.005 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5-codex-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-codex-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-codex-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-chat-latest-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-chat-latest-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5-mini-ca | 0.001  \u002F 1K Tokens | 0.008  \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-5-nano-ca | 0.0002 \u002F 1K Tokens | 0.0016  \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-5-chat-latest-ca |0.005 \u002F 1K Tokens | 0.04 \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-ca| 0.008 \u002F 1K Tokens | 0.032 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-mini-ca | 0.0016 \u002F 1K Tokens | 0.0064 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-nano-ca | 0.0004 \u002F 1K Tokens | 0.003 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-3.5-turbo-ca | 0.001 \u002F 1K Tokens | 0.0016  \u002F 1K Tokens | 不支持 | 由于Azure openai已经下架gpt-3.5,故-ca版本的3.5以不可以用,请使用gpt-4o-mini或者gpt-4.1-mini或者更高的模型本模型将会重定向至gpt-4o-mini|\n| gpt-4-ca | 0.12 \u002F 1K Tokens | 0.24 \u002F 1K Tokens | 支持 |由于Azure openai已经下架gpt-4,故-ca版本的4以不可以用,请使用gpt-4o或者gpt-4.1或者更高的模型|\n| gpt-4o-ca | 0.01 \u002F 1K Tokens + 0.0289\\*图片个数[3]| 0.04 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4o-mini-ca | 0.00075 \u002F 1K Tokens| 0.003 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| deepseek-v3.2|  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.2-thinking|  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3-2-exp |  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.1-250821 |  0.0024  \u002F 1K Tokens | 0.0072 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.1-think-250821 | 0.0024  \u002F 1K Tokens | 0.0072 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-reasoner | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-r1 | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方(火山引擎)供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-r1-250528 | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3 | 0.0012  \u002F 1K Tokens | 0.0048 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-chat |  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-sonnet-4-6 | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-sonnet-4-6-thinking | 0.015 \u002F 1K Tokens | 0.075 | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-6 | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-6-thinking | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-5-20251101 | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-5-20251101-thinking | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-haiku-4-5-20251001 | 0.005 \u002F 1K Tokens | 0.025 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-haiku-4-5-20251001-thinking | 0.005 \u002F 1K Tokens | 0.025 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-sonnet-4-5-20250929 | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-sonnet-4-5-20250929-thinking | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-opus-4-1-20250805 | 0.075 \u002F 1K Tokens | 0.375 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-1-20250805-thinking | 0.075 \u002F 1K Tokens | 0.375 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-pro | 0.007 \u002F 1K Tokens | 0.04 \u002F 1K Tokens | 支持 | 是gemini 最新的旗舰模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash | 0.0012 \u002F 1K Tokens | 0.01 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-nothinking | 0.0012 \u002F 1K Tokens | 0.01 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-lite | 0.0004 \u002F 1K Tokens | 0.0016 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-image-preview | 0.0015 \u002F 1K Tokens | 0.15 \u002F 1K Tokens | 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3-pro-image-preview | 0 \u002F 1K Tokens | 0.68一张图| 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3.1-flash-image-preview | 0.00125 \u002F 1K Tokens | 0.3 \u002F 1K Tokens | 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3-pro-preview | 0.008 \u002F 1K Tokens | 0.048 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3-flash-preview | 0.002 \u002F 1K Tokens | 0.012 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3-flash-preview-nothinking | 0.002 \u002F 1K Tokens | 0.012 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3.1-pro-preview | 0.008 \u002F 1K Tokens | 0.048 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3.1-flash-lite-preview | 0.001 \u002F 1K Tokens | 0.006 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| grok-4 | 0.012 \u002F 1K Tokens | 0.06 \u002F 1K Tokens | 支持 |grok基础模此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| grok-4-fast | 0.0008 \u002F 1K Tokens | 0.002 \u002F 1K Tokens | 支持 |grok基础模此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3.5-plus| 0.00056  \u002F 1K Tokens[7阶梯计价]| 0.00336 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3.5-397b-a17b| 0.00084  \u002F 1K Tokens[7阶梯计价]| 0.00504 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-max-2026-01-23 | 0.00175 \u002F 1K Tokens[7阶梯计价]| 0.007 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-235b-a22b | 0.0014 \u002F 1K Tokens | 0.0056 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-235b-a22b-instruct-2507 | 0.0014 \u002F 1K Tokens | 0.0056 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-coder-plus | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-coder-480b-a35b-instruct | 0.0042 \u002F 1K Tokens | 0.0168 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2.5 | 0.0028 \u002F 1K Tokens | 0.0147 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-0711-preview | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-0905-preview | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-thinking | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-thinking-turbo | 0.0056 \u002F 1K Tokens | 0.0406 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| glm-4.7 | 0.0024 \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 | glm的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| glm-5 | 0.0024 \u002F 1K Tokens [7阶梯计价]| 0.0108 \u002F 1K Tokens | 支持 | glm模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| minimax-m2.1 | 0.00126 \u002F 1K Tokens | 0.00504 \u002F 1K Tokens | 支持 | minimax的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| minimax-m2.5 | 0.00126 \u002F 1K Tokens | 0.00504 \u002F 1K Tokens | 支持 | minimax的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n\n\n| **模型（Model）** | **价格** | **是否支持** |\n| --- | --- | --- |\n| gpt-image-1.5 | 文字输入: 0.035CA\u002F1K Tokens, 图片输入: 0.07CA\u002F1K Tokens, 图片输出：0.224 CA\u002F1K Tokens | 支持 |\n| gpt-image-1 | 文字输入: 0.04CA\u002F1K Tokens, 图片输入: 0.08CA\u002F1K Tokens, 图片输出：0.32 CA\u002F1K Tokens | 支持 |\n| gpt-image-1-mini | 文字输入: 0.014CA\u002F1K Tokens, 图片输入: 0.0175CA\u002F1K Tokens, 图片输出：0.056 CA\u002F1K Tokens | 支持 |\n| dall-e-3 1024×1024 | 0.280 \u002F image | 支持 |\n| dall-e-3 1024×1792 | 0.560 \u002F image | 支持 |\n| dall-e-3-hd 1024×1024 | 0.560 \u002F image | 支持 |\n| dall-e-3-hd 1024×1792 | 0.840 \u002F image | 支持 |\n| dall-e-2 1024×1024 | 0.14 \u002F image | 支持 |\n| dall-e-2 512x512 | 0.126 \u002F image | 支持 |\n| dall-e-2 256x256 | 0.112 \u002F image | 支持 |\n| tts-1 | 0.105 \u002F 1K characters | 支持 |\n| tts-1-hd | 0.21 \u002F 1K characters | 支持 |\n| gpt-4o-mini-tts | (0.12 \u002F minute) + (0.012 \u002F 1kToken) | 支持 |\n| Whisper | 0.042 \u002F minute | 支持 |\n| gpt-4o-mini-transcribe | 0.024 \u002F minute | 支持 |\n| gpt-4o-transcribe | 0.048 \u002F minute | 支持 |\n| text-embedding-ada-002 | 0.0007 \u002F 1K Tokens | 支持 |\n| text-embedding-3-small | 0.00014 \u002F 1K Tokens | 支持 |\n| text-embedding-3-large | 0.00091 \u002F 1K Tokens | 支持 |\n| deepseek-ocr | 0.08 \u002F一次 | 支持 |\n\n[OpenAi官方价格文档](https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F)\n\n[1] Tokens: GPT中指文本数据的最小处理单位。一个token可以是一个字、一个词或者一个字符，这取决于所使用的语言和处理方式。例如，在英文中，一个token可能是一个单词，如\"apple\"；在中文中，一个token可能是一个字符，如\"苹\"。 1K Tokens = 1000个Token。（根据经验估算：gpt-4o模型 1000Tokens≈1000-1200个中文字符；非gpt-4o模型1000Tokens≈700-800中文字符）\n\n[2] 多模态模型图片如何计算占用tokens请参考OpenAI官方 https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing 。分辨率越高，tokens占用越多，但最高不会超过1445tokens。\n以下以1000x150分辨率的图片为例，计算图片占用Tokens数为425。\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_75a6a70a3cf5.png\" width=\"400\"\u002F>\n注意gpt-4o-mini的图片价格并没有降低，与gpt-4o一致。因为mini的token价格为4o的33分之一，所以你应该会看到图片的token计算是4o的33倍，具体参考openai官方的价格页面https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F\n\n[3] CA系列多模态模型在计算图片价格时，如果使用流式传输(参数stream=true)，则按照0.10115每张图计费；如果使用非流式传输（参数stream=false），这时按照OpenAI返回的实际消耗量计费，如果你的图片分辨率较低，通常低于0.10115。因此，我们建议在使用gpt-4-turbo分析图片时，使用非流式传输（参数stream=false）。\n\n[4] 动态更新的版本，持续集成OpenAI最新的研究成果。它为开发人员和研究人员提供了探索最前沿技术的机会。请注意，尽管该模型展示了最新的能力，但对于生产环境的使用，我们仍然建议选择经过优化的旧版GPT模型，以确保更高的稳定性和性能\n\n[5] o1和o3-mini由于这两种模型的可用账号数量较少，资源稳定性可能存在波动，即可能出现时可用、时不可用的情况。建议如在生产环境中使用时做好相应的容错处理。\n\n[6] OpenAI 的搜索模型除了输入输出的 token 费用外，还需要缴纳一个按次收费的 web_search 费用。对于 4o-mini 模型，费用为：low: 0.175，medium: 0.1925，high: 0.21。对于 4o 模型，费用为：low: 0.21，medium: 0.245，high: 0.35。\n对于5模型费用为0.07\n默认情况下，费用为 medium。请根据您的需求选择合适的搜索级别，以优化成本和性能。\n此费用为官方收费，非我们额外收费。\n\n[7] 阶梯计价\n> **gpt-5.4**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 272K | 0.0175 CA\u002F1K Tokens | 0.105 CA\u002F1K Tokens |\n> | > 272K | 0.035 CA\u002F1K Tokens | 0.1575 CA\u002F1K Tokens |\n\n> **gpt-5.4-ca**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 272K | 0.01 CA\u002F1K Tokens | 0.06 CA\u002F1K Tokens |\n> | > 272K | 0.02 CA\u002F1K Tokens | 0.09 CA\u002F1K Tokens |\n\n> **qwen3-max-2026-01-23**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 32K | 0.00175 CA\u002F1K Tokens | 0.007 CA\u002F1K Tokens |\n> | 32K - 128K | 0.0028 CA\u002F1K Tokens | 0.0112 CA\u002F1K Tokens |\n> | > 128K | 0.0049 CA\u002F1K Tokens | 0.0196 CA\u002F1K Tokens |\n\n> **qwen3-max-2026-01-23**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 128K | 0.00056 CA\u002F1K Tokens | 0.00336 CA\u002F1K Tokens |\n> | 128K - 256K | 0.0014 CA\u002F1K Tokens | 0.0084 CA\u002F1K Tokens |\n> | > 256K | 0.0028 CA\u002F1K Tokens | 0.0168 CA\u002F1K Tokens |\n\n> **qwen3.5-397b-a17b**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 128K | 0.00084 CA\u002F1K Tokens | 0.00504 CA\u002F1K Tokens |\n> | > 128K | 0.0021 CA\u002F1K Tokens | 0.0126 CA\u002F1K Tokens |\n\n\n> **glm-5**\n>| 输入范围 | 输入价格 | 输出价格 |\n>|---------|---------|---------|\n>| 0 - 32K | 0.0024 CA\u002F1K Tokens | 0.0108 CA\u002F1K Tokens |\n>| >32K| 0.0036 CA\u002F1K Tokens | 0.0132 CA\u002F1K Tokens |\n\n\n## 如何使用\n- 由于频繁的恶意请求，我们不再直接提供公共的免费Key，现在需要你使用你的Github账号绑定来领取你自己的免费Key。\n- 🚀[申请领取内测免费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender) 或 [购买内测付费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F)\n- 转发Host1: `https:\u002F\u002Fapi.chatanywhere.tech` (国内中转，延时更低)\n- 转发Host2: `https:\u002F\u002Fapi.chatanywhere.org` (国外使用)\n- 余额和使用记录查询（通知公告也会发在这里）: [余额查询及公告](https:\u002F\u002Fapi.chatanywhere.tech\u002F)\n- 转发API无法直接向官方接口api.openai.com发起请求，需要将请求地址改为api.chatanywhere.tech才可以使用，大部分插件和软件都可以修改。\n- 遇到问题可以前往[ChatAnywhere Status](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)查看接口可用性。\n\n## 常见软件\u002F插件使用方法\n\n### **python openai官方库（使用langchain等）**\n示例代码请参考[demo.py](.\u002Fdemo.py)或[OpenAI官方文档](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Ftext-generation)\n\n***方法一***\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    # defaults to os.environ.get(\"OPENAI_API_KEY\")\n    api_key=\"YOUR API KEY\",\n    base_url=\"https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\"\n    # base_url=\"https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\"\n)\n```\n\n***方法二（方法一不起作用用这个）***\n\n修改环境变量OPENAI_API_BASE，各个系统怎么改环境变量请自行搜索，修改环境变量后不起作用请重启系统。\n```bash\nOPENAI_API_BASE=https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\n或 OPENAI_API_BASE=https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\n```\n### **开源gpt_academic**\n找到`config.py`文件中的`API_URL_REDIRECT`配置并修改为以下内容：\n```python\nAPI_URL_REDIRECT = {\"https:\u002F\u002Fapi.openai.com\u002Fv1\u002Fchat\u002Fcompletions\": \"https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions\"}\n# API_URL_REDIRECT = {\"https:\u002F\u002Fapi.openai.com\u002Fv1\u002Fchat\u002Fcompletions\": \"https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\u002Fchat\u002Fcompletions\"}\n```\n### **Gomoon （支持读文件，构建知识库，推荐使用）**\nGomoon 是一款开源的桌面大模型应用，支持mac和Windows平台。额外支持了解析文件、图片，本地知识库等能力。\n\n官网地址：https:\u002F\u002Fgomoon.top\n\nGitHub地址：https:\u002F\u002Fgithub.com\u002FwizardAEI\u002FGomoon\n\n使用方法：进入Gomoon设置页面(页面右上角)，如图在设置中填入密钥，并将代理设置为`https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1`\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_08199e7debb4.png)\n\n### **Zotero插件zotero-gpt**\n\n支持AI阅读论文，科研神器。\n\n下载链接：https:\u002F\u002Fgithub.com\u002FMuiseDestiny\u002Fzotero-gpt\u002Freleases (下载最新版本的zotero-gpt.xpi文件)\n\n**Zotero7使用方法（建议使用Zotero7）**\n\n1. 安装插件\n\n在下载链接下载好插件后（zotero7应该下载1.0以上版本的插件），点击zotero左上角 工具->插件\n\n点击Install Plugin From File\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_037992621a78.png)\n\n找到你下载的zotero-gpt.xpi安装\n\n2. 配置插件\n\n点击zotero左上角 编辑->设置\n\n然后如图设置即可\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_b3d643081cdc.png)\n\n**Zotero6使用方法**\n\n安装好插件后使用以下命令设置\n```\n\u002Fapi https:\u002F\u002Fapi.chatanywhere.tech\n\n\u002FsecretKey 购买的转发key 记住别忘记带sk-\n\n# 切换模型命令\n\u002Fmodel gpt-3.5-turbo-0125 \n```\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_a1706358dd5e.png)\n\n\n### **Zotero翻译插件zotero-pdf-translate**\n\n下载链接：https:\u002F\u002Fgithub.com\u002Fwindingwind\u002Fzotero-pdf-translate\u002Freleases\n\n接口地址填写: https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions\n\n不用管状态是否显示可用 填上之后就可以了\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_70814fdc0652.png)\n\n\n### **BotGem(AMA)**\n\nChatGPT桌面应用，支持全平台，***支持gpt-4-vision***。\n\n下载链接：https:\u002F\u002Fbytemyth.com\u002Fama\n\n使用方法：下载安装后在设置中如图设置，并点击更新。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_a2f340510acb.png)\n\n### **ChatBox**\n\nChatGPT开源桌面应用，支持全部桌面平台。\n\n下载链接：https:\u002F\u002Fgithub.com\u002FBin-Huang\u002Fchatbox\u002Freleases\n\n使用方法：如图在设置中填入购买的密钥，并将代理设置为`https:\u002F\u002Fapi.chatanywhere.tech`即可\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_c088ac2f7871.png)\n\n### **浏览器插件ChatGPT Sidebar**\n\n官网链接：https:\u002F\u002Fchatgpt-sidebar.com\u002F\n\n安装好插件后进入设置页面，如图所示修改设置，将url修改为 `https:\u002F\u002Fapi.chatanywhere.tech` 。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_e682edd5f081.png)\n\n### **Jetbrains插件ChatGPT - Easycode**\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_6212a6ceb422.png\" width='200'\u002F>\n\n安装好插件后在Settings > Tools > OpenAI > GPT 3.5 Turbo中如图所示配置好插件，重点要将Server Settings 修改为 `https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions` 。并勾选Customize Server。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_5d1e387a7e2f.png)\n\n\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_98c93bb24f2a.png)](https:\u002F\u002Fwww.star-history.com\u002F#chatanywhere\u002FGPT_API_free&Date)\n","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_356e9dfc2d32.png\" alt=\"icon\" width=\"50px\"\u002F>\n\u003Ch1 align=\"center\">GPT-API-free \u002F DeepSeek-API-free\u003C\u002Fh1>\n\n免费使用 gpt-5 | deepseek\n\n支持 gpt | deepseek | claude | gemini | grok\n\n国内动态加速 直连无需代理 协议统一接入便捷\n\n[快速开始](#如何使用) \u002F [API文档](https:\u002F\u002Fchatanywhere.apifox.cn\u002F) \u002F [申请内测免费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender) \u002F [支持付费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F) \u002F [服务可用性](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n[QQ群: 1078874657](https:\u002F\u002Fqm.qq.com\u002Fcgi-bin\u002Fqm\u002Fqr?k=_zvJ_azT-QfxSvbgsag7QHWASA_p7znW&jump_from=webapi&authKey=lNJokVrGWKegX\u002FDLQ7gzEwTixzpoMJiUDg80e74w1uXV9xIhyEuUu2Dx7WkbqWk3)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_02882f14f03c.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_191c63f0a50a.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_e820532ea5ec.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_d7c9b62b263c.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_71cc733ed0f1.png)](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)\n\n\n\u003C\u002Fdiv>\n\n## 隐私声明\n\n该项目高度重视隐私，致力于保护其用户的隐私。该项目不会以任何方式收集、记录或存储用户输入的任何文本或由 OpenAI 服务器返回的任何文本。该项目不会向 OpenAI 或任何第三方提供有关 API 调用者的身份的任何信息，包括但不限于 IP 地址和用户代理字符串。\n\n但OpenAI官方会根据其[数据使用政策](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fdata-usage-policies)保留 30 天的数据。\n\n## 特点\n1. 支持 gpt | deepseek | claude | gemini | grok 等排名靠前的常用大模型。\n2. 免费版支持gpt-5系列, gpt-4o，gpt-4.1一天5次；支持deepseek-r1, deepseek-v3, deepseek-v3-2-exp一天30次，支持gpt-4o-mini，gpt-3.5-turbo，gpt-4.1-mini，gpt-4.1-nano, gpt-5-mini，gpt-5-nano一天200次。\n3. 与官方完全一致的接口标准，兼容各种软件\u002F插件。\n4. 支持流式响应。\n5. 国内线路使用动态加速，体验远优于使用代理连接官方。\n6. 无需科学上网，国内环境直接可用。\n7. 个人完全免费使用。\n8. 协议统一使用openai标准协议，其他厂商模型仅需更换模型名称，接入便捷\n\n## 🚩注意事项\n\n❗️*如果遇到无回复，报错等情况，可以查看 [status.chatanywhere.tech](https:\u002F\u002Fstatus.chatanywhere.tech)，确认服务状态是否正常，以帮助排查问题。*\n\n❗️*免费API Key gpt-5系列模型的推理能力较弱，若需要更强的推理能力，可以购买付费API*\n\n❗️**免费API Key仅可用于个人非商业用途，教育，非营利性科研工作中。免费API Key严禁商用，严禁大规模训练商用模型！训练科研用模型请提前加群联系我们。**\n\n❗️我们将不定期对被滥用的Key进行封禁，如发现自己的key被误封请通过QQ群联系我们。\n\n❗️我们的系统仅供内部评估测试使用，商用或面向大众使用请自行承担风险。\n\n为了该项目长久发展，免费API Key限制**200请求\u002F天\u002FIP&Key**调用频率（gpt和embedding分开计算，各200次），也就是说你如果在一个IP下使用多个Key，所有Key的每天请求数总和不能超过200；同理，你如果将一个Key用于多个IP，这个Key的每天请求数也不能超过200。(**付费版API没有这个限制**)\n\n## 免费使用\n\n- **🚀[申请领取内测免费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender)**\n- 免费版支持deepseek, gpt-3.5-turbo, embedding, gpt-4o系列, gpt-5系列。\n- **转发Host1: `https:\u002F\u002Fapi.chatanywhere.tech` (国内中转，延时更低)**\n- **转发Host2: `https:\u002F\u002Fapi.chatanywhere.org` (国外使用)**\n\n\n我们会定期根据使用量进行相应的扩容，只要不被官方制裁我们会一直提供免费API，如果该项目对你有帮助，还请为我们点一个***Star***。如果遇到问题可以在[Issues](https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues)中反馈，有空会解答。\n\n该API Key用于转发API，需要将Host改为`api.chatanywhere.tech`(国内首选)或者`api.chatanywhere.org`(国外使用)。\n\n## 付费版API\n- 纯公益提供免费Key显然不是能持久运营下去的方案，所以我们引入付费API Key维持项目的日常开销，以促进项目的良性循环，还望大家理解。\n- [购买付费Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F)\n- [付费版价格表](https:\u002F\u002Fchatanywhere.apifox.cn\u002Fdoc-2694962)\n\n1. 支持**更稳定更快速的GPT4 API**，GPT4体验更好，无限使用，价格低于官方，充值更便捷。\n2. 同官网计费策略，流式问答使用tiktoken库准确计算Tokens，非流式问答直接使用官方返回Tokens用量计费。\n3. 余额不会过期，永久有效。根据用户反馈30块钱个人中度使用gpt-4o-mini估计能用半年。\n4. 所有的接口（包括免费版本）都保证转发自OpenAI或Azure官方接口，非peo、plus等不稳定方案或逆向方案，无水分，不掺假，保证稳定性。\n\n## 付费版支持模型\n\n| **模型（Model）** | **请求（Input）** | **回答（Output）** | **是否支持** | **特点** |\n| --- | --- | --- | --- | --- |\n| gpt-5.4 | 0.0175 \u002F 1K Tokens [7阶梯计价]| 0.105 \u002F 1K Tokens | 支持 | openai最新推出的面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.4-mini | 0.00525 \u002F 1K Tokens | 0.0315 \u002F 1K Tokens | 支持 | openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型 |\n| gpt-5.4-mini-2026-03-17 | 0.00525 \u002F 1K Tokens | 0.0315 \u002F 1K Tokens | 支持 | openai2026年3月17日为止最强大的编码、计算机使用和子代理迷你模型|\n| gpt-5.4-nano | 0.0014 \u002F 1K Tokens | 0.00875 \u002F 1K Tokens | 支持 | openai最便宜的GPT-5.4级型号，适用于简单的高容量任务 |\n| gpt-5.4-nano-2026-03-17 | 0.0014 \u002F 1K Tokens | 0.00875 \u002F 1K Tokens | 支持 | openai最便宜的GPT-5.4级型号，适用于简单的高容量任务 |\n| gpt-5.4-2026-03-05 | 0.0175 \u002F 1K Tokens | 0.105 \u002F 1K Tokens | 支持 | openai最新推出的面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2 | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens | 支持 | 面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2-2025-12-11 | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens |支持| 面向各行各业的编码和智能体任务的旗舰模型 |\n| gpt-5.2-chat-latest | 0.01225 \u002F 1K Tokens | 0.098  \u002F 1K Tokens | 支持 | 指向 ChatGPT网页版本 当前使用的 GPT-5.2 快照。我们推荐GPT-5.2对于大多数 API 用法，但您可以随意使用此 GPT-5.2 聊天模型来测试我们针对聊天用例的最新改进 |\n| gpt-5.2-pro | 0.147 \u002F 1K Tokens | 1.176  \u002F 1K Tokens | 支持 | 目前仅在响应 API 中可用，用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时。|\n| gpt-5.2-pro-2025-12-11 | 0.147 \u002F 1K Tokens | 1.176  \u002F 1K Tokens | 支持 |   目前仅在响应 API 中可用，用于支持在响应 API 请求之前进行多轮模型交互。此模型回复较慢比较长的问题不建议使用有可能会超时|\n| gpt-5.1 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型，它具备可配置的推理和非推理能力 |\n| gpt-5.1-2025-11-13 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型，它具备可配置的推理和非推理能力 |\n| gpt-5.1-chat-latest | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | 指向 ChatGPT 当前使用的 GPT-5.1 快照。我们推荐GPT-5.1对于大多数 API 用法，但您可以随意使用此 GPT-5.1 聊天模型来测试我们针对聊天用例的最新改进 |\n| gpt-5.1-codex | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5.1-Codex 是 GPT-5 的一个版本，针对智能编码任务进行了优化。|\n| gpt-5-search-api | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的gpt-5的搜索模型|\n| gpt-5 | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5 是用于跨领域编码、推理和代理任务的旗舰模型 |\n| gpt-5-codex | 0.00875 \u002F 1K Tokens | 0.07  \u002F 1K Tokens | 支持 | GPT-5-Codex 是针对代理编码任务优化。它可在 Responses API仅限此版本，底层模型快照将定期更新。 |\n| gpt-5-pro | 0.105 \u002F 1K Tokens | 0.84  \u002F 1K Tokens | 支持 | 使用更多的计算来更努力地思考，并始终如一地提供更好的答案。此模型回复较慢比较长的问题不建议使用有可能会超时 |\n| gpt-5-mini | 0.00175 \u002F 1K Tokens | 0.014  \u002F 1K Tokens | 支持 |GPT-5 mini 是 GPT-5 的一个更快、更经济的版本。它非常适合执行定义明确的任务和精准的提示 |\n| gpt-5-nano | 0.00035 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 |GPT-5 Nano 是速度最快、成本最低的 GPT-5 版本。它非常适合摘要和分类任务 |\n| gpt-5-chat-latest |0.00875 \u002F 1K Tokens | 0.07 \u002F 1K Tokens | 支持 | GPT-5 Chat 指的是 ChatGPT 当前使用的 GPT-5 快照|\n| o3 | 0.014 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o3-2025-04-16|\n| o3-2025-04-16 | 0.014 \u002F 1K Tokens | 0.056   \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |\n| o4-mini | 0.0088 \u002F 1K Tokens | 0.0352  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o4-mini-2025-04-16|\n| o4-mini-2025-04-16 | 0.0088 \u002F 1K Tokens | 0.0352  \u002F 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |\n| gpt-4.1 |  0.014 \u002F 1K Tokens | 0.056   \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-2025-04-14 |\n| gpt-4.1-2025-04-14 | 0.014 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-4.1-mini | 0.0028 \u002F 1K Tokens | 0.0112  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-mini-2025-04-14 |\n| gpt-4.1-mini-2025-04-14 | 0.0028 \u002F 1K Tokens | 0.0112  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-4.1-nano | 0.0007 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-nano-2025-04-14 |\n| gpt-4.1-nano-2025-04-14 | 0.0007 \u002F 1K Tokens | 0.0028  \u002F 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出|\n| gpt-oss-20b| 0.0008 \u002F 1K Tokens | 0.0032  \u002F 1K Tokens | 支持 | OpenAI最新推出的开源模型|\n| gpt-oss-120b| 0.0044 \u002F 1K Tokens | 0.0176  \u002F 1K Tokens | 支持 | OpenAI最新推出的开源模型|\n| gpt-3.5-turbo | 0.0035 \u002F 1K Tokens | 0.0105 \u002F 1K Tokens | 支持 | 默认模型，等于gpt-3.5-turbo-0125|\n| gpt-3.5-turbo-1106 | 0.007 \u002F 1K Tokens | 0.014 \u002F 1K Tokens | 支持 | 2023年11月6日更新的模型|\n| gpt-3.5-turbo-0125 | 0.0035 \u002F 1K Tokens | 0.0105 \u002F 1K Tokens | 支持 | 2024年1月25日最新模型，数据最新，价格更更低，速度更快，修复了一些1106的bug。|\n| gpt-3.5-turbo-16k | 0.021 \u002F 1K Tokens | 0.028 \u002F 1K Tokens | 支持 | 适合快速回答简单问题,字数更多 |\n| gpt-3.5-turbo-instruct | 0.0105 \u002F 1K Tokens | 0.014 \u002F 1K Tokens | 支持 |Completions模型 用于文本生成，提供准确的自然语言处理模型一般人用不上|\n| o3-mini [5]| 0.0088 \u002F 1K Tokens | 0.0352 \u002F 1K Tokens | 支持 | 针对复杂任务的推理模型 |\n| gpt-4o-search-preview  | 0.0175\u002F1K Tokens| 0.07\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o的搜索模型|\n| gpt-4o-search-preview-2025-03-11| 0.0175\u002F1K Tokens| 0.07\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索|\n| gpt-4o-mini-search-preview | 0.00105\u002F1K Tokens| 0.0042\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o-mini的搜索模型|\n| gpt-4o-mini-search-preview-2025-03-11 |0.00105\u002F1K Tokens| 0.0042\u002F1K Tokens + 搜索费用[6]| 支持 | Openai 出的搜索模型,支持网络搜索|\n| gpt-4 | 0.21 \u002F 1K Tokens | 0.42 \u002F 1K Tokens | 支持 | 默认模型，等于gpt-4-0613 |\n| gpt-4o | 0.0175\u002F1K Tokens + 图片费用[2]| 0.07\u002F1K Tokens| 支持 | Openai 价格更低, 速度更快更聪明,指向最新版的4o版本|\n| gpt-4o-2024-11-20 | 0.0175\u002F1K Tokens + 图片费用[2]| 0.07\u002F1K Tokens | 支持 | Openai 2024-11-20出的gpt-4o模型, 该模型的创意写作能力得到了提升一更自然、更有吸引力、更有针对性的写作|\n| gpt-4o-mini | 0.00105\u002F1K Tokens + 图片费用[2]| 0.0042\u002F1K Tokens| 支持 | Openai 最新模型, 价格更低, 输出质量在3.5之上4o之下, 并且支持读图|\n| gpt-4-0613 | 0.21 \u002F 1K Tokens | 0.42 \u002F 1K Tokens | 支持 | 2023年6月13日更新的模型 |\n| gpt-5.4-ca | 0.01 \u002F 1K Tokens [7阶梯计价]| 0.06 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5.4-mini-ca | 0.003 \u002F 1K Tokens| 0.018 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5.4-nano-ca | 0.0008 \u002F 1K Tokens | 0.005 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的  |\n| gpt-5-codex-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-codex-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-codex-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 支持在codex中使用第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.2-chat-latest-ca | 0.007 \u002F 1K Tokens | 0.056  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5.1-chat-latest-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5-ca | 0.005 \u002F 1K Tokens | 0.04  \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |\n| gpt-5-mini-ca | 0.001  \u002F 1K Tokens | 0.008  \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-5-nano-ca | 0.0002 \u002F 1K Tokens | 0.0016  \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-5-chat-latest-ca |0.005 \u002F 1K Tokens | 0.04 \u002F 1K Tokens| 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-ca| 0.008 \u002F 1K Tokens | 0.032 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-mini-ca | 0.0016 \u002F 1K Tokens | 0.0064 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4.1-nano-ca | 0.0004 \u002F 1K Tokens | 0.003 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-3.5-turbo-ca | 0.001 \u002F 1K Tokens | 0.0016  \u002F 1K Tokens | 不支持 | 由于Azure openai已经下架gpt-3.5,故-ca版本的3.5以不可以用,请使用gpt-4o-mini或者gpt-4.1-mini或者更高的模型本模型将会重定向至gpt-4o-mini|\n| gpt-4-ca | 0.12 \u002F 1K Tokens | 0.24 \u002F 1K Tokens | 支持 |由于Azure openai已经下架gpt-4,故-ca版本的4以不可以用,请使用gpt-4o或者gpt-4.1或者更高的模型|\n| gpt-4o-ca | 0.01 \u002F 1K Tokens + 0.0289\\*图片个数[3]| 0.04 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| gpt-4o-mini-ca | 0.00075 \u002F 1K Tokens| 0.003 \u002F 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的|\n| deepseek-v3.2|  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.2-thinking|  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3-2-exp |  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.1-250821 |  0.0024  \u002F 1K Tokens | 0.0072 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3.1-think-250821 | 0.0024  \u002F 1K Tokens | 0.0072 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-reasoner | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-r1 | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方(火山引擎)供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-r1-250528 | 0.0024  \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 |deepseek的思考R1模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-v3 | 0.0012  \u002F 1K Tokens | 0.0048 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| deepseek-chat |  0.0012  \u002F 1K Tokens | 0.0018 \u002F 1K Tokens | 支持 |deepseek的聊天模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-sonnet-4-6 | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-sonnet-4-6-thinking | 0.015 \u002F 1K Tokens | 0.075 | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-6 | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-6-thinking | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-5-20251101 | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-5-20251101-thinking | 0.025 \u002F 1K Tokens | 0.125 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-haiku-4-5-20251001 | 0.005 \u002F 1K Tokens | 0.025 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-haiku-4-5-20251001-thinking | 0.005 \u002F 1K Tokens | 0.025 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-sonnet-4-5-20250929 | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-sonnet-4-5-20250929-thinking | 0.015 \u002F 1K Tokens | 0.075 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，现在使用的为Claude code的逆向或官方逆向的渠道。|\n| claude-opus-4-1-20250805 | 0.075 \u002F 1K Tokens | 0.375 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| claude-opus-4-1-20250805-thinking | 0.075 \u002F 1K Tokens | 0.375 \u002F 1K Tokens | 支持 |claude的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-pro | 0.007 \u002F 1K Tokens | 0.04 \u002F 1K Tokens | 支持 | 是gemini 最新的旗舰模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash | 0.0012 \u002F 1K Tokens | 0.01 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-nothinking | 0.0012 \u002F 1K Tokens | 0.01 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-lite | 0.0004 \u002F 1K Tokens | 0.0016 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-2.5-flash-image-preview | 0.0015 \u002F 1K Tokens | 0.15 \u002F 1K Tokens | 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3-pro-image-preview | 0 \u002F 1K Tokens | 0.68一张图| 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3.1-flash-image-preview | 0.00125 \u002F 1K Tokens | 0.3 \u002F 1K Tokens | 支持 | Google Gemini的生图模型也是大家口中所说的nano banana |\n| gemini-3-pro-preview | 0.008 \u002F 1K Tokens | 0.048 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3-flash-preview | 0.002 \u002F 1K Tokens | 0.012 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3-flash-preview-nothinking | 0.002 \u002F 1K Tokens | 0.012 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3.1-pro-preview | 0.008 \u002F 1K Tokens | 0.048 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| gemini-3.1-flash-lite-preview | 0.001 \u002F 1K Tokens | 0.006 \u002F 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| grok-4 | 0.012 \u002F 1K Tokens | 0.06 \u002F 1K Tokens | 支持 |grok基础模此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| grok-4-fast | 0.0008 \u002F 1K Tokens | 0.002 \u002F 1K Tokens | 支持 |grok基础模此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3.5-plus| 0.00056  \u002F 1K Tokens[7阶梯计价]| 0.00336 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3.5-397b-a17b| 0.00084  \u002F 1K Tokens[7阶梯计价]| 0.00504 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-max-2026-01-23 | 0.00175 \u002F 1K Tokens[7阶梯计价]| 0.007 \u002F 1K Tokens | 支持 | qwen的模型, 此模型阶梯定价具体定价请查看文档最后的注释,此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-235b-a22b | 0.0014 \u002F 1K Tokens | 0.0056 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-235b-a22b-instruct-2507 | 0.0014 \u002F 1K Tokens | 0.0056 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-coder-plus | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| qwen3-coder-480b-a35b-instruct | 0.0042 \u002F 1K Tokens | 0.0168 \u002F 1K Tokens | 支持 | qwen的开源模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2.5 | 0.0028 \u002F 1K Tokens | 0.0147 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-0711-preview | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-0905-preview | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-thinking | 0.0028 \u002F 1K Tokens | 0.0112 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| kimi-k2-thinking-turbo | 0.0056 \u002F 1K Tokens | 0.0406 \u002F 1K Tokens | 支持 | kimi的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| glm-4.7 | 0.0024 \u002F 1K Tokens | 0.0096 \u002F 1K Tokens | 支持 | glm的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| glm-5 | 0.0024 \u002F 1K Tokens [7阶梯计价]| 0.0108 \u002F 1K Tokens | 支持 | glm模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| minimax-m2.1 | 0.00126 \u002F 1K Tokens | 0.00504 \u002F 1K Tokens | 支持 | minimax的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n| minimax-m2.5 | 0.00126 \u002F 1K Tokens | 0.00504 \u002F 1K Tokens | 支持 | minimax的模型, 此模型由第三方供应商提供，有小概率可能会出现响应速度较慢或报错的情况。|\n\n| **模型（Model）** | **价格** | **是否支持** |\n| --- | --- | --- |\n| gpt-image-1.5 | 文字输入: 0.035CA\u002F1K Tokens, 图片输入: 0.07CA\u002F1K Tokens, 图片输出：0.224 CA\u002F1K Tokens | 支持 |\n| gpt-image-1 | 文字输入: 0.04CA\u002F1K Tokens, 图片输入: 0.08CA\u002F1K Tokens, 图片输出：0.32 CA\u002F1K Tokens | 支持 |\n| gpt-image-1-mini | 文字输入: 0.014CA\u002F1K Tokens, 图片输入: 0.0175CA\u002F1K Tokens, 图片输出：0.056 CA\u002F1K Tokens | 支持 |\n| dall-e-3 1024×1024 | 0.280 \u002F image | 支持 |\n| dall-e-3 1024×1792 | 0.560 \u002F image | 支持 |\n| dall-e-3-hd 1024×1024 | 0.560 \u002F image | 支持 |\n| dall-e-3-hd 1024×1792 | 0.840 \u002F image | 支持 |\n| dall-e-2 1024×1024 | 0.14 \u002F image | 支持 |\n| dall-e-2 512x512 | 0.126 \u002F image | 支持 |\n| dall-e-2 256x256 | 0.112 \u002F image | 支持 |\n| tts-1 | 0.105 \u002F 1K characters | 支持 |\n| tts-1-hd | 0.21 \u002F 1K characters | 支持 |\n| gpt-4o-mini-tts | (0.12 \u002F minute) + (0.012 \u002F 1kToken) | 支持 |\n| Whisper | 0.042 \u002F minute | 支持 |\n| gpt-4o-mini-transcribe | 0.024 \u002F minute | 支持 |\n| gpt-4o-transcribe | 0.048 \u002F minute | 支持 |\n| text-embedding-ada-002 | 0.0007 \u002F 1K Tokens | 支持 |\n| text-embedding-3-small | 0.00014 \u002F 1K Tokens | 支持 |\n| text-embedding-3-large | 0.00091 \u002F 1K Tokens | 支持 |\n| deepseek-ocr | 0.08 \u002F一次 | 支持 |\n\n[OpenAi官方价格文档](https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F)\n\n[1] Tokens: GPT中指文本数据的最小处理单位。一个token可以是一个字、一个词或者一个字符，这取决于所使用的语言和处理方式。例如，在英文中，一个token可能是一个单词，如\"apple\"；在中文中，一个token可能是一个字符，如\"苹\"。 1K Tokens = 1000个Token。（根据经验估算：gpt-4o模型 1000Tokens≈1000-1200个中文字符；非gpt-4o模型1000Tokens≈700-800中文字符）\n\n[2] 多模态模型图片如何计算占用tokens请参考OpenAI官方 https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing 。分辨率越高，tokens占用越多，但最高不会超过1445tokens。\n以下以1000x150分辨率的图片为例，计算图片占用Tokens数为425。\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_75a6a70a3cf5.png\" width=\"400\"\u002F>\n注意gpt-4o-mini的图片价格并没有降低，与gpt-4o一致。因为mini的token价格为4o的33分之一，所以你应该会看到图片的token计算是4o的33倍，具体参考openai官方的价格页面https:\u002F\u002Fopenai.com\u002Fapi\u002Fpricing\u002F\n\n[3] CA系列多模态模型在计算图片价格时，如果使用流式传输(参数stream=true)，则按照0.10115每张图计费；如果使用非流式传输（参数stream=false），这时按照OpenAI返回的实际消耗量计费，如果你的图片分辨率较低，通常低于0.10115。因此，我们建议在使用gpt-4-turbo分析图片时，使用非流式传输（参数stream=false）。\n\n[4] 动态更新的版本，持续集成OpenAI最新的研究成果。它为开发人员和研究人员提供了探索最前沿技术的机会。请注意，尽管该模型展示了最新的能力，但对于生产环境的使用，我们仍然建议选择经过优化的旧版GPT模型，以确保更高的稳定性和性能\n\n[5] o1和o3-mini由于这两种模型的可用账号数量较少，资源稳定性可能存在波动，即可能出现时可用、时不可用的情况。建议如在生产环境中使用时做好相应的容错处理。\n\n[6] OpenAI 的搜索模型除了输入输出的 token 费用外，还需要缴纳一个按次收费的 web_search 费用。对于 4o-mini 模型，费用为：low: 0.175，medium: 0.1925，high: 0.21。对于 4o 模型，费用为：low: 0.21，medium: 0.245，high: 0.35。\n对于5模型费用为0.07\n默认情况下，费用为 medium。请根据您的需求选择合适的搜索级别，以优化成本和性能。\n此费用为官方收费，非我们额外收费。\n\n[7] 阶梯计价\n> **gpt-5.4**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 272K | 0.0175 CA\u002F1K Tokens | 0.105 CA\u002F1K Tokens |\n> | > 272K | 0.035 CA\u002F1K Tokens | 0.1575 CA\u002F1K Tokens |\n\n> **gpt-5.4-ca**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 272K | 0.01 CA\u002F1K Tokens | 0.06 CA\u002F1K Tokens |\n> | > 272K | 0.02 CA\u002F1K Tokens | 0.09 CA\u002F1K Tokens |\n\n> **qwen3-max-2026-01-23**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 32K | 0.00175 CA\u002F1K Tokens | 0.007 CA\u002F1K Tokens |\n> | 32K - 128K | 0.0028 CA\u002F1K Tokens | 0.0112 CA\u002F1K Tokens |\n> | > 128K | 0.0049 CA\u002F1K Tokens | 0.0196 CA\u002F1K Tokens |\n\n> **qwen3-max-2026-01-23**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 128K | 0.00056 CA\u002F1K Tokens | 0.00336 CA\u002F1K Tokens |\n> | 128K - 256K | 0.0014 CA\u002F1K Tokens | 0.0084 CA\u002F1K Tokens |\n> | > 256K | 0.0028 CA\u002F1K Tokens | 0.0168 CA\u002F1K Tokens |\n\n> **qwen3.5-397b-a17b**\n> | 输入范围 | 输入价格 | 输出价格 |\n> |---------|---------|---------|\n> | 0 - 128K | 0.00084 CA\u002F1K Tokens | 0.00504 CA\u002F1K Tokens |\n> | > 128K | 0.0021 CA\u002F1K Tokens | 0.0126 CA\u002F1K Tokens |\n\n\n> **glm-5**\n>| 输入范围 | 输入价格 | 输出价格 |\n>|---------|---------|---------|\n>| 0 - 32K | 0.0024 CA\u002F1K Tokens | 0.0108 CA\u002F1K Tokens |\n>| >32K| 0.0036 CA\u002F1K Tokens | 0.0132 CA\u002F1K Tokens |\n\n\n\n\n## 如何使用\n- 由于频繁的恶意请求，我们不再直接提供公共的免费Key，现在需要你使用你的Github账号绑定来领取你自己的免费Key。\n- 🚀[申请领取内测免费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender) 或 [购买内测付费API Key](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F)\n- 转发Host1: `https:\u002F\u002Fapi.chatanywhere.tech` (国内中转，延时更低)\n- 转发Host2: `https:\u002F\u002Fapi.chatanywhere.org` (国外使用)\n- 余额和使用记录查询（通知公告也会发在这里）: [余额查询及公告](https:\u002F\u002Fapi.chatanywhere.tech\u002F)\n- 转发API无法直接向官方接口api.openai.com发起请求，需要将请求地址改为api.chatanywhere.tech才可以使用，大部分插件和软件都可以修改。\n- 遇到问题可以前往[ChatAnywhere Status](https:\u002F\u002Fstatus.chatanywhere.tech\u002F)查看接口可用性。\n\n## 常见软件\u002F插件使用方法\n\n### **python openai官方库（使用langchain等）**\n示例代码请参考[demo.py](.\u002Fdemo.py)或[OpenAI官方文档](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Ftext-generation)\n\n***方法一***\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    # defaults to os.environ.get(\"OPENAI_API_KEY\")\n    api_key=\"YOUR API KEY\",\n    base_url=\"https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\"\n    # base_url=\"https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\"\n)\n```\n\n***方法二（方法一不起作用用这个）***\n\n修改环境变量OPENAI_API_BASE，各个系统怎么改环境变量请自行搜索，修改环境变量后不起作用请重启系统。\n```bash\nOPENAI_API_BASE=https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\n或 OPENAI_API_BASE=https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\n```\n### **开源gpt_academic**\n找到`config.py`文件中的`API_URL_REDIRECT`配置并修改为以下内容：\n```python\nAPI_URL_REDIRECT = {\"https:\u002F\u002Fapi.openai.com\u002Fv1\u002Fchat\u002Fcompletions\": \"https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions\"}\n# API_URL_REDIRECT = {\"https:\u002F\u002Fapi.openai.com\u002Fv1\u002Fchat\u002Fcompletions\": \"https:\u002F\u002Fapi.chatanywhere.org\u002Fv1\u002Fchat\u002Fcompletions\"}\n```\n### **Gomoon （支持读文件，构建知识库，推荐使用）**\nGomoon 是一款开源的桌面大模型应用，支持mac和Windows平台。额外支持了解析文件、图片，本地知识库等能力。\n\n官网地址：https:\u002F\u002Fgomoon.top\n\nGitHub地址：https:\u002F\u002Fgithub.com\u002FwizardAEI\u002FGomoon\n\n使用方法：进入Gomoon设置页面(页面右上角)，如图在设置中填入密钥，并将代理设置为`https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1`\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_08199e7debb4.png)\n\n### **Zotero插件zotero-gpt**\n\n支持AI阅读论文，科研神器。\n\n下载链接：https:\u002F\u002Fgithub.com\u002FMuiseDestiny\u002Fzotero-gpt\u002Freleases (下载最新版本的zotero-gpt.xpi文件)\n\n**Zotero7使用方法（建议使用Zotero7）**\n\n1. 安装插件\n\n在下载链接下载好插件后（zotero7应该下载1.0以上版本的插件），点击zotero左上角 工具->插件\n\n点击Install Plugin From File\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_037992621a78.png)\n\n找到你下载的zotero-gpt.xpi安装\n\n2. 配置插件\n\n点击zotero左上角 编辑->设置\n\n然后如图设置即可\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_b3d643081cdc.png)\n\n**Zotero6使用方法**\n\n安装好插件后使用以下命令设置\n```\n\u002Fapi https:\u002F\u002Fapi.chatanywhere.tech\n\n\u002FsecretKey 购买的转发key 记住别忘记带sk-\n\n# 切换模型命令\n\u002Fmodel gpt-3.5-turbo-0125 \n```\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_a1706358dd5e.png)\n\n\n### **Zotero翻译插件zotero-pdf-translate**\n\n下载链接：https:\u002F\u002Fgithub.com\u002Fwindingwind\u002Fzotero-pdf-translate\u002Freleases\n\n接口地址填写: https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions\n\n不用管状态是否显示可用 填上之后就可以了\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_70814fdc0652.png)\n\n\n### **BotGem(AMA)**\n\nChatGPT桌面应用，支持全平台，***支持gpt-4-vision***。\n\n下载链接：https:\u002F\u002Fbytemyth.com\u002Fama\n\n使用方法：下载安装后在设置中如图设置，并点击更新。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_a2f340510acb.png)\n\n### **ChatBox**\n\nChatGPT开源桌面应用，支持全部桌面平台。\n\n下载链接：https:\u002F\u002Fgithub.com\u002FBin-Huang\u002Fchatbox\u002Freleases\n\n使用方法：如图在设置中填入购买的密钥，并将代理设置为`https:\u002F\u002Fapi.chatanywhere.tech`即可\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_c088ac2f7871.png)\n\n### **浏览器插件ChatGPT Sidebar**\n\n官网链接：https:\u002F\u002Fchatgpt-sidebar.com\u002F\n\n安装好插件后进入设置页面，如图所示修改设置，将url修改为 `https:\u002F\u002Fapi.chatanywhere.tech` 。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_e682edd5f081.png)\n\n### **JetBrains 插件 ChatGPT - Easycode**\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_6212a6ceb422.png\" width='200'\u002F>\n\n安装好插件后，在Settings > Tools > OpenAI > GPT 3.5 Turbo中如图所示配置好插件，重点要将Server Settings 修改为 `https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions` 。并勾选Customize Server。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_5d1e387a7e2f.png)\n\n\n\n[![星级历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_readme_98c93bb24f2a.png)](https:\u002F\u002Fwww.star-history.com\u002F#chatanywhere\u002FGPT_API_free&Date)","# GPT_API_free 快速上手指南\n\nGPT_API_free 是一个提供免费及付费大模型 API 转发的开源项目，支持 GPT、DeepSeek、Claude、Gemini 等主流模型。其特点是**国内直连无需代理**、动态加速、兼容 OpenAI 标准协议。\n\n## 环境准备\n\n本项目无需安装特定客户端或复杂依赖，只需满足以下条件即可使用：\n\n*   **系统要求**：任意操作系统（Windows, macOS, Linux）。\n*   **前置依赖**：\n    *   能够访问互联网的终端环境。\n    *   支持发送 HTTP\u002FHTTPS 请求的工具（如 `curl`、Postman）或编程语言环境（Python, Node.js, Java 等）。\n    *   **API Key**：需先申请免费内测 Key 或购买付费 Key。\n        *   免费 Key 申请地址：[点击申请](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender)\n        *   付费 Key 购买地址：[点击购买](https:\u002F\u002Fapi.chatanywhere.tech\u002F#\u002Fshop\u002F)\n\n## 安装步骤\n\n由于本工具是 API 转发服务，**无需下载安装包**。只需在您的代码或工具中配置正确的 **Base URL (Host)** 和 **API Key** 即可。\n\n### 1. 获取 API Key\n访问 [申请页面](https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Foauth\u002Ffree\u002Frender) 获取免费的 API Key。\n\n### 2. 配置请求地址 (Host)\n根据您的网络环境选择以下任一转发地址（推荐国内用户首选 Host1）：\n\n*   **国内加速线路 (推荐)**: `https:\u002F\u002Fapi.chatanywhere.tech`\n*   **海外线路**: `https:\u002F\u002Fapi.chatanywhere.org`\n\n> **注意**：将您原有代码或插件中的 `base_url` 或 `host` 修改为上述地址。\n\n## 基本使用\n\n本服务完全兼容 OpenAI 官方接口标准。以下以 Python 和 cURL 为例展示最简单的调用方式。\n\n### 示例 1：使用 Python (openai 库)\n\n确保已安装 openai 库：\n```bash\npip install openai\n```\n\n编写测试代码 `test.py`：\n\n```python\nfrom openai import OpenAI\n\n# 初始化客户端\nclient = OpenAI(\n    api_key=\"YOUR_FREE_API_KEY\",  # 替换为您申请的 API Key\n    base_url=\"https:\u002F\u002Fapi.chatanywhere.tech\" # 国内加速地址\n)\n\n# 发送请求\nresponse = client.chat.completions.create(\n    model=\"gpt-4o-mini\",  # 可替换为 deepseek-v3, gpt-5-nano 等支持的模型\n    messages=[\n        {\"role\": \"system\", \"content\": \"You are a helpful assistant.\"},\n        {\"role\": \"user\", \"content\": \"你好，请介绍一下你自己。\"}\n    ],\n    stream=False\n)\n\nprint(response.choices[0].message.content)\n```\n\n### 示例 2：使用 cURL 命令\n\n在终端中直接运行以下命令（请替换 `YOUR_FREE_API_KEY`）：\n\n```bash\ncurl https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Authorization: Bearer YOUR_FREE_API_KEY\" \\\n  -d '{\n    \"model\": \"gpt-4o-mini\",\n    \"messages\": [\n      {\n        \"role\": \"user\",\n        \"content\": \"你好，请介绍一下你自己。\"\n      }\n    ]\n  }'\n```\n\n### 常用模型名称参考\n在请求体 `model` 字段中填入以下名称即可切换模型：\n*   **免费额度较高**: `gpt-4o-mini`, `gpt-3.5-turbo`, `gpt-5-nano`\n*   **DeepSeek 系列**: `deepseek-v3`, `deepseek-r1`\n*   **最新旗舰**: `gpt-5`, `gpt-4o`, `gpt-4.1`\n\n> **提示**：免费版有每日调用次数限制（如 gpt-4o-mini 每天 200 次），且严禁商用。如需更高并发或商业用途，请使用付费 Key。","一位国内高校研究生正在开发基于大模型的论文辅助分析系统，需要频繁调用 GPT-4o 和 DeepSeek-R1 进行文献摘要与数据解读。\n\n### 没有 GPT_API_free 时\n- **网络接入困难**：受限于国内网络环境，直连官方 API 经常超时或失败，配置和维护代理服务器不仅繁琐且稳定性差。\n- **高昂试错成本**：项目处于早期验证阶段，经费有限，直接使用官方付费接口导致每次调试代码都消耗大量美元额度，不敢大规模测试。\n- **多模型切换复杂**：想要对比 DeepSeek 与 GPT 在不同任务上的表现，需要分别申请多家厂商的 Key 并适配不同的接口协议，开发效率极低。\n- **响应速度缓慢**：即使连通了官方服务，跨境延迟高达数百毫秒，流式输出卡顿严重，严重影响本地调试体验。\n\n### 使用 GPT_API_free 后\n- **国内直连加速**：利用 GPT_API_free 提供的国内动态加速节点，无需任何代理即可稳定连接，网络延迟显著降低，请求成功率大幅提升。\n- **零成本高频测试**：借助其免费额度（如 DeepSeek 每日 30 次、GPT-4o-mini 每日 200 次），研究者可以无压力地进行全天候代码迭代与效果验证。\n- **统一接口便捷集成**：通过标准的 OpenAI 协议，仅需修改 Host 地址和模型名称即可在代码中无缝切换 GPT、DeepSeek、Claude 等多种模型，极大简化了架构。\n- **流畅流式体验**：得益于优化的中转线路，流式响应速度远优于自行代理，本地终端能实时呈现生成内容，调试过程丝滑顺畅。\n\nGPT_API_free 通过提供免代理、低延迟且兼容多模型的免费接入方案，彻底消除了国内开发者使用顶尖大模型的技术与资金门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchatanywhere_GPT_API_free_08199e7d.png","chatanywhere","ChatAnywhere","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fchatanywhere_fcac5f1e.png","ChatAnywhere官方",null,"api.chatanywhere.tech","https:\u002F\u002Fgithub.com\u002Fchatanywhere",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,37320,2596,"2026-04-15T07:39:47","MIT",1,"","未说明",{"notes":92,"python":90,"dependencies":93},"该工具并非本地运行的开源模型，而是一个在线 API 转发服务（代理）。用户无需配置本地运行环境、GPU 或安装特定依赖库。使用方式是将请求的 Host 地址修改为提供的域名（如 api.chatanywhere.tech），并配合获取的 API Key 即可在任意支持 HTTP 请求的设备或系统中使用。主要限制在于免费版的调用频率（200 次\u002F天\u002FIP&Key）及仅限个人非商业用途。",[],[16,52,13,35],[96,97,98,99,100,101,102],"api","chatgpt","claude","deepseek","gemini","gpt","grok","2026-03-27T02:49:30.150509","2026-04-16T03:35:37.989947",[106,111,116,121,126,131,136],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},34712,"遇到\"403 FORBIDDEN: The number of prompt tokens for free accounts is limited to 4096\"错误怎么办？","这是因为免费账户的输入 Token 数量被限制在 4096 以内。当使用 AskPDF (Full text) 等功能处理长文档时容易超出此限制。解决方法包括：\n1. 减少上下文消息数量（在设置中将上下文窗口调小，例如改为 10）。\n2. 缩短输入的文本长度。\n3. 如果确实需要处理长文本，需购买付费 API Key。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F198",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},34708,"使用 AskPDF 或免费 Key 时提示\"Your secretKey is not configured\"或\"Embeddings Error\"如何解决？","这通常是因为免费 API 不支持 Embeddings 功能导致的。解决方法是在设置中关闭\"using custom embedding\"（使用自定义嵌入）选项。关闭后即可正常使用，无需配置额外的 Secret Key。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F298",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},34709,"付费购买了 Key 但无法使用，或者不知道如何正确配置 Host 地址？","请确保在客户端设置中正确填写了完整的 API 地址。建议依次尝试以下四个地址（直接复制粘贴，不要手动输入）：\n1. https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\u002Fcompletions\n2. https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\u002Fchat\n3. https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1\n4. https:\u002F\u002Fapi.chatanywhere.tech\n注意：部分软件仅在“设置”页面配置可能不生效，需检查聊天页面是否有单独的接口设置，或者该软件是否硬编码了官方接口导致无法修改。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F390",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},34710,"免费 Key 提示\"OpenAI 密钥不正确\"或某些模型（如 16k 版本）无法使用？","免费 API Key 不支持所有模型版本。文档中已说明免费版不支持 16k 上下文长度的模型（如 gpt-3.5-turbo-16k-0613）。解决方法是切换回标准的 gpt-3.5-turbo 模型即可正常使用。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F186",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},34711,"调用 API 返回\"content=None\"且 finish_reason 为\"function_call\"是什么原因？","这是正常现象。当模型触发函数调用（Function Call）时，返回的 content 字段必然为 None，具体参数会在 function_call 字段中。如果你的代码逻辑强制读取 content 而忽略 function_call，就会得到空值。此外，免费版 API 对函数调用的支持有限，偶尔能成功可能是因为服务做了容错处理（逆向失败时回退到官方原生 API），但不保证稳定支持。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F225",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},34713,"能否直接使用 OpenAI 官方的 API Key 接入该项目的接口？","不能。该项目的接口（api.chatanywhere.tech）仅接受项目方提供的 API Key。如果使用 OpenAI 官方 Key 访问该项目接口，会返回\"401 UNAUTHORIZED: wrong api key\"错误。官方 Key 只能用于连接 OpenAI 官方接口，不能混用。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F204",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},34714,"使用免费 Key 时提示\"账户余额过低\"或\"403 限制使用 gpt-3.5-turbo\"？","首先检查代码中的请求路径是否正确。如果使用 Python OpenAI 库，base_url 应包含'\u002Fv1'，且请求路径通常为'\u002Fchat\u002Fcompletions'。示例代码如下：\n```python\nclient = OpenAI(\n    api_key='你的免费 key',\n    base_url='https:\u002F\u002Fapi.chatanywhere.tech\u002Fv1'  # 必须带 v1\n)\n# 确保请求路径正确\nresponse = client.chat.completions.create(...)\n```\n如果路径正确仍报错，可能是免费额度已用完或当前模型受限，免费版对 gpt-3.5-turbo、gpt-4 和 embeddings 模型有特定限制，需查看最新公告或考虑充值。","https:\u002F\u002Fgithub.com\u002Fchatanywhere\u002FGPT_API_free\u002Fissues\u002F213",[]]