chat2api
chat2api 是一款轻量级开源代理工具,旨在将网页版 ChatGPT 的服务能力转换为标准的 OpenAI API 格式。它主要解决了开发者在无法直接使用官方付费 API、或希望整合自有 ChatGPT 账号资源时的接入难题。通过该工具,用户无需拥有官方 API 密钥,即可利用网页版的免费额度或自有账号(支持 AccessToken/RefreshToken)调用 GPT-3.5、GPT-4 系列、O1/O3 推理模型甚至自定义 GPTs。
chat2api 特别适合需要构建 AI 应用的后端开发者、希望低成本测试多模型的研究人员,以及想要搭建私有化 ChatGPT 镜像站点的技术爱好者。其核心技术亮点在于“逆向 API"能力:回复格式与官方 API 完全一致,无缝适配几乎所有现有客户端;支持流式传输、多账号自动轮询与故障重试机制,确保持续稳定的服务输出。此外,它还提供了配套的网关模式,允许用户上传和管理 Token 池,并支持 Team 账号协作及文件上传下载等高级功能。无论是用于个人项目开发还是团队内部部署,chat2api 都能提供灵活且高效的解决方案。
使用场景
某初创团队希望将 ChatGPT 的高级推理能力集成到内部客服系统中,但受限于官方 API 的高昂成本及复杂的账号管理流程。
没有 chat2api 时
- 开发成本高昂:团队需为每个测试账号单独编写爬虫脚本模拟网页登录,且频繁遭遇 Cloudflare 验证码拦截,导致接口极不稳定。
- 模型调用受限:由于预算不足,无法购买昂贵的 GPT-4 或 O1 系列官方 API 额度,只能使用效果较差的旧版模型,严重影响客服回答质量。
- 多账号维护困难:缺乏统一的令牌(Token)轮询机制,单个账号触发频率限制后整个服务即刻瘫痪,需人工手动切换账号,运维效率极低。
- 格式适配繁琐:网页端返回的数据结构与标准 OpenAI API 不一致,后端需编写大量转换代码才能对接现有的聊天框架。
使用 chat2api 后
- 快速接入标准接口:chat2api 直接将网页版 ChatGPT 转换为标准的 OpenAI API 格式,团队无需修改现有代码,仅需调整请求地址即可实现流式对话。
- 低成本享用高端模型:通过传入 AccessToken,团队能直接调用 GPT-4o、O1-Pro 等高级模型进行复杂问题推理,同时利用免费池运行 GPT-3.5 处理简单咨询,大幅降低算力成本。
- 自动化高可用调度:配置多组 Token 后,chat2api 自动执行故障重试与账号轮询,当某个账号受限时无缝切换至下一个,确保客服系统 7x24 小时稳定在线。
- 功能完整镜像支持:不仅支持文本对话,还完美继承了官网的图片上传、代码解释器及联网搜索功能,让客服机器人能直接处理用户发送的文件和实时信息查询。
chat2api 通过“逆向代理 + 标准化输出”的模式,让开发者能以零门槛、低成本的方式将网页版 ChatGPT 的强大能力转化为企业级稳定的 API 服务。
运行环境要求
- Linux
- macOS
- Windows
无 GPU 需求
未说明

快速开始
CHAT2API
🤖 一个简单的 ChatGPT TO API 代理
🌟 无需账号即可使用免费、无限的 GPT-3.5
💥 支持 AccessToken 使用账号,支持 O3-mini/high、O1/mini/Pro、GPT-4/4o/mini、GPTs
🔍 回复格式与真实 API 完全一致,适配几乎所有客户端
👮 配套用户管理端Chat-Share使用前需提前配置好环境变量(ENABLE_GATEWAY设置为True,AUTO_SEED设置为False)
交流群
要提问请先阅读完仓库文档,尤其是常见问题部分。
提问时请提供:
- 启动日志截图(敏感信息打码,包括环境变量和版本号)
- 报错的日志信息(敏感信息打码)
- 接口返回的状态码和响应体
功能
最新版本号存于 version.txt
逆向API 功能
- 流式、非流式传输
- 免登录 GPT-3.5 对话
- GPT-3.5 模型对话(传入模型名不包含 gpt-4,则默认使用 gpt-3.5,也就是 text-davinci-002-render-sha)
- GPT-4 系列模型对话(传入模型名包含: gpt-4,gpt-4o,gpt-4o-mini,gpt-4-moblie 即可使用对应模型,需传入 AccessToken)
- O1 系列模型对话(传入模型名包含 o1-preview,o1-mini 即可使用对应模型,需传入 AccessToken)
- GPT-4 模型画图、代码、联网
- 支持 GPTs(传入模型名:gpt-4-gizmo-g-*)
- 支持 Team Plus 账号(需传入 team account id)
- 上传图片、文件(格式为 API 对应格式,支持 URL 和 base64)
- 可作为网关使用,可多机分布部署
- 多账号轮询,同时支持
AccessToken和RefreshToken- 请求失败重试,自动轮询下一个 Token
- Tokens 管理,支持上传、清除
- 定时使用
RefreshToken刷新AccessToken/ 每次启动将会全部非强制刷新一次,每4天晚上3点全部强制刷新一次。- 支持文件下载,需要开启历史记录
- 支持
O3-mini/high、O1/mini/Pro等模型推理过程输出
官网镜像 功能
- 支持官网原生镜像
- 后台账号池随机抽取,
Seed设置随机账号- 输入
RefreshToken或AccessToken直接登录使用- 支持
O3-mini/high、O1/mini/Pro、GPT-4/4o/mini- 敏感信息接口禁用、部分设置接口禁用
- /login 登录页面,注销后自动跳转到登录页面
- /?token=xxx 直接登录, xxx 为
RefreshToken或AccessToken或SeedToken(随机种子)- 支持不同 SeedToken 会话隔离
- 支持
GPTs商店- 支持
DeepReaserch、Canvas等官网独有功能- 支持切换各国语言
TODO
- 暂无,欢迎提
issue
逆向API
完全 OpenAI 格式的 API ,支持传入 AccessToken 或 RefreshToken,可用 GPT-4, GPT-4o, GPT-4o-Mini, GPTs, O1-Pro, O1, O1-Mini, O3-Mini, O3-Mini-High:
curl --location 'http://127.0.0.1:5005/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {{Token}}' \
--data '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Say this is a test!"}],
"stream": true
}'
将你账号的 AccessToken 或 RefreshToken 作为 {{ Token }} 传入。
也可填写你设置的环境变量 Authorization 的值, 将会随机选择后台账号
如果有team账号,可以传入 ChatGPT-Account-ID,使用 Team 工作区:
传入方式一:
headers中传入ChatGPT-Account-ID值传入方式二:
Authorization: Bearer <AccessToken 或 RefreshToken>,<ChatGPT-Account-ID>
如果设置了 AUTHORIZATION 环境变量,可以将设置的值作为 {{ Token }} 传入进行多 Tokens 轮询。
AccessToken获取: chatgpt官网登录后,再打开 https://chatgpt.com/api/auth/session 获取accessToken这个值。RefreshToken获取: 此处不提供获取方法。- 免登录 gpt-3.5 无需传入 Token。
Tokens 管理
配置环境变量
AUTHORIZATION作为授权码,然后运行程序。访问
/tokens或者/{api_prefix}/tokens可以查看现有 Tokens 数量,也可以上传新的 Tokens ,或者清空 Tokens。请求时传入
AUTHORIZATION中配置的授权码即可使用轮询的Tokens进行对话

官网原生镜像
配置环境变量
ENABLE_GATEWAY为true,然后运行程序, 注意开启后别人也可以直接通过域名访问你的网关。在 Tokens 管理页面上传
RefreshToken或AccessToken访问
/login到登录页面

- 进入官网原生镜像页面使用

环境变量
每个环境变量都有默认值,如果不懂环境变量的含义,请不要设置,更不要传空值,字符串无需引号。
| 分类 | 变量名 | 示例值 | 默认值 | 描述 |
|---|---|---|---|---|
| 安全相关 | API_PREFIX | your_prefix |
None |
API 前缀密码,不设置容易被人访问,设置后需请求 /your_prefix/v1/chat/completions |
| AUTHORIZATION | your_first_authorization,your_second_authorization |
[] |
你自己为使用多账号轮询 Tokens 设置的授权码,英文逗号分隔 | |
| AUTH_KEY | your_auth_key |
None |
私人网关需要加auth_key请求头才设置该项 |
|
| 请求相关 | CHATGPT_BASE_URL | https://chatgpt.com |
https://chatgpt.com |
ChatGPT 网关地址,设置后会改变请求的网站,多个网关用逗号分隔 |
| PROXY_URL | http://ip:port,http://username:password@ip:port |
[] |
全局代理 URL,出 403 时启用,多个代理用逗号分隔 | |
| EXPORT_PROXY_URL | http://ip:port或http://username:password@ip:port |
None |
出口代理 URL,防止请求图片和文件时泄漏源站 ip | |
| 功能相关 | HISTORY_DISABLED | true |
true |
是否不保存聊天记录并返回 conversation_id |
| POW_DIFFICULTY | 00003a |
00003a |
要解决的工作量证明难度,不懂别设置 | |
| RETRY_TIMES | 3 |
3 |
出错重试次数,使用 AUTHORIZATION 会自动随机/轮询下一个账号 |
|
| CONVERSATION_ONLY | false |
false |
是否直接使用对话接口,如果你用的网关支持自动解决 POW 才启用 |
|
| ENABLE_LIMIT | true |
true |
开启后不尝试突破官方次数限制,尽可能防止封号 | |
| UPLOAD_BY_URL | false |
false |
开启后按照 URL+空格+正文 进行对话,自动解析 URL 内容并上传,多个 URL 用空格分隔 |
|
| SCHEDULED_REFRESH | false |
false |
是否定时刷新 AccessToken ,开启后每次启动程序将会全部非强制刷新一次,每4天晚上3点全部强制刷新一次。 |
|
| RANDOM_TOKEN | true |
true |
是否随机选取后台 Token ,开启后随机后台账号,关闭后为顺序轮询 |
|
| 网关功能 | ENABLE_GATEWAY | false |
false |
是否启用网关模式,开启后可以使用镜像站,但也将会不设防 |
| AUTO_SEED | false |
true |
是否启用随机账号模式,默认启用,输入seed后随机匹配后台Token。关闭之后需要手动对接接口,来进行Token管控。 |
部署
Zeabur 部署
直接部署
git clone https://github.com/LanQian528/chat2api
cd chat2api
pip install -r requirements.txt
python app.py
Docker 部署
您需要安装 Docker 和 Docker Compose。
docker run -d \
--name chat2api \
-p 5005:5005 \
lanqian528/chat2api:latest
(推荐,可用 PLUS 账号)Docker Compose 部署
创建一个新的目录,例如 chat2api,并进入该目录:
mkdir chat2api
cd chat2api
在此目录中下载库中的 docker-compose.yml 文件:
wget https://raw.githubusercontent.com/LanQian528/chat2api/main/docker-compose-warp.yml
修改 docker-compose-warp.yml 文件中的环境变量,保存后:
docker-compose up -d
常见问题
- 错误代码:
401:当前 IP 不支持免登录,请尝试更换 IP 地址,或者在环境变量PROXY_URL中设置代理,或者你的身份验证失败。403:请在日志中查看具体报错信息。429:当前 IP 请求1小时内请求超过限制,请稍后再试,或更换 IP。500:服务器内部错误,请求失败。502:服务器网关错误,或网络不可用,请尝试更换网络环境。
- 已知情况:
- 日本 IP 很多不支持免登,免登 GPT-3.5 建议使用美国 IP。
- 99%的账号都支持免费
GPT-4o,但根据 IP 地区开启,目前日本和新加坡 IP 已知开启概率较大。
- 环境变量
AUTHORIZATION是什么?
- 是一个自己给 chat2api 设置的一个身份验证,设置后才可使用已保存的 Tokens 轮询,请求时当作
APIKEY传入。- AccessToken 如何获取?
- chatgpt官网登录后,再打开 https://chatgpt.com/api/auth/session 获取
accessToken这个值。
License
MIT 许可证
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。