chat2api

GitHub
3.4k 677 简单 1 次阅读 今天MIT语言模型插件
AI 解读 由 AI 自动生成,仅供参考

chat2api 是一款轻量级开源代理工具,旨在将网页版 ChatGPT 的服务能力转换为标准的 OpenAI API 格式。它主要解决了开发者在无法直接使用官方付费 API、或希望整合自有 ChatGPT 账号资源时的接入难题。通过该工具,用户无需拥有官方 API 密钥,即可利用网页版的免费额度或自有账号(支持 AccessToken/RefreshToken)调用 GPT-3.5、GPT-4 系列、O1/O3 推理模型甚至自定义 GPTs。

chat2api 特别适合需要构建 AI 应用的后端开发者、希望低成本测试多模型的研究人员,以及想要搭建私有化 ChatGPT 镜像站点的技术爱好者。其核心技术亮点在于“逆向 API"能力:回复格式与官方 API 完全一致,无缝适配几乎所有现有客户端;支持流式传输、多账号自动轮询与故障重试机制,确保持续稳定的服务输出。此外,它还提供了配套的网关模式,允许用户上传和管理 Token 池,并支持 Team 账号协作及文件上传下载等高级功能。无论是用于个人项目开发还是团队内部部署,chat2api 都能提供灵活且高效的解决方案。

使用场景

某初创团队希望将 ChatGPT 的高级推理能力集成到内部客服系统中,但受限于官方 API 的高昂成本及复杂的账号管理流程。

没有 chat2api 时

  • 开发成本高昂:团队需为每个测试账号单独编写爬虫脚本模拟网页登录,且频繁遭遇 Cloudflare 验证码拦截,导致接口极不稳定。
  • 模型调用受限:由于预算不足,无法购买昂贵的 GPT-4 或 O1 系列官方 API 额度,只能使用效果较差的旧版模型,严重影响客服回答质量。
  • 多账号维护困难:缺乏统一的令牌(Token)轮询机制,单个账号触发频率限制后整个服务即刻瘫痪,需人工手动切换账号,运维效率极低。
  • 格式适配繁琐:网页端返回的数据结构与标准 OpenAI API 不一致,后端需编写大量转换代码才能对接现有的聊天框架。

使用 chat2api 后

  • 快速接入标准接口:chat2api 直接将网页版 ChatGPT 转换为标准的 OpenAI API 格式,团队无需修改现有代码,仅需调整请求地址即可实现流式对话。
  • 低成本享用高端模型:通过传入 AccessToken,团队能直接调用 GPT-4o、O1-Pro 等高级模型进行复杂问题推理,同时利用免费池运行 GPT-3.5 处理简单咨询,大幅降低算力成本。
  • 自动化高可用调度:配置多组 Token 后,chat2api 自动执行故障重试与账号轮询,当某个账号受限时无缝切换至下一个,确保客服系统 7x24 小时稳定在线。
  • 功能完整镜像支持:不仅支持文本对话,还完美继承了官网的图片上传、代码解释器及联网搜索功能,让客服机器人能直接处理用户发送的文件和实时信息查询。

chat2api 通过“逆向代理 + 标准化输出”的模式,让开发者能以零门槛、低成本的方式将网页版 ChatGPT 的强大能力转化为企业级稳定的 API 服务。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

无 GPU 需求

内存

未说明

依赖
notes该工具为 ChatGPT 逆向 API 代理,主要依赖网络连接。支持 Docker 及 Docker Compose 部署。若使用免登录 GPT-3.5,建议使用美国 IP;部分功能(如 GPT-4)可能需要特定地区 IP 或有效的 AccessToken/RefreshToken。可通过环境变量配置代理(PROXY_URL)以解决网络限制问题。
python未说明 (需支持 pip install -r requirements.txt)
未说明 (详见 requirements.txt)
chat2api hero image

快速开始

CHAT2API

🤖 一个简单的 ChatGPT TO API 代理

🌟 无需账号即可使用免费、无限的 GPT-3.5

💥 支持 AccessToken 使用账号,支持 O3-mini/highO1/mini/ProGPT-4/4o/miniGPTs

🔍 回复格式与真实 API 完全一致,适配几乎所有客户端

👮 配套用户管理端Chat-Share使用前需提前配置好环境变量(ENABLE_GATEWAY设置为True,AUTO_SEED设置为False)

交流群

https://t.me/chat2api

要提问请先阅读完仓库文档,尤其是常见问题部分。

提问时请提供:

  1. 启动日志截图(敏感信息打码,包括环境变量和版本号)
  2. 报错的日志信息(敏感信息打码)
  3. 接口返回的状态码和响应体

功能

最新版本号存于 version.txt

逆向API 功能

  • 流式、非流式传输
  • 免登录 GPT-3.5 对话
  • GPT-3.5 模型对话(传入模型名不包含 gpt-4,则默认使用 gpt-3.5,也就是 text-davinci-002-render-sha)
  • GPT-4 系列模型对话(传入模型名包含: gpt-4,gpt-4o,gpt-4o-mini,gpt-4-moblie 即可使用对应模型,需传入 AccessToken)
  • O1 系列模型对话(传入模型名包含 o1-preview,o1-mini 即可使用对应模型,需传入 AccessToken)
  • GPT-4 模型画图、代码、联网
  • 支持 GPTs(传入模型名:gpt-4-gizmo-g-*)
  • 支持 Team Plus 账号(需传入 team account id)
  • 上传图片、文件(格式为 API 对应格式,支持 URL 和 base64)
  • 可作为网关使用,可多机分布部署
  • 多账号轮询,同时支持 AccessTokenRefreshToken
  • 请求失败重试,自动轮询下一个 Token
  • Tokens 管理,支持上传、清除
  • 定时使用 RefreshToken 刷新 AccessToken / 每次启动将会全部非强制刷新一次,每4天晚上3点全部强制刷新一次。
  • 支持文件下载,需要开启历史记录
  • 支持 O3-mini/highO1/mini/Pro 等模型推理过程输出

官网镜像 功能

  • 支持官网原生镜像
  • 后台账号池随机抽取,Seed 设置随机账号
  • 输入 RefreshTokenAccessToken 直接登录使用
  • 支持 O3-mini/highO1/mini/ProGPT-4/4o/mini
  • 敏感信息接口禁用、部分设置接口禁用
  • /login 登录页面,注销后自动跳转到登录页面
  • /?token=xxx 直接登录, xxx 为 RefreshTokenAccessTokenSeedToken (随机种子)
  • 支持不同 SeedToken 会话隔离
  • 支持 GPTs 商店
  • 支持 DeepReaserchCanvas 等官网独有功能
  • 支持切换各国语言

TODO

  • 暂无,欢迎提 issue

逆向API

完全 OpenAI 格式的 API ,支持传入 AccessTokenRefreshToken,可用 GPT-4, GPT-4o, GPT-4o-Mini, GPTs, O1-Pro, O1, O1-Mini, O3-Mini, O3-Mini-High:

curl --location 'http://127.0.0.1:5005/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {{Token}}' \
--data '{
     "model": "gpt-3.5-turbo",
     "messages": [{"role": "user", "content": "Say this is a test!"}],
     "stream": true
   }'

将你账号的 AccessTokenRefreshToken 作为 {{ Token }} 传入。 也可填写你设置的环境变量 Authorization 的值, 将会随机选择后台账号

如果有team账号,可以传入 ChatGPT-Account-ID,使用 Team 工作区:

  • 传入方式一: headers 中传入 ChatGPT-Account-ID

  • 传入方式二: Authorization: Bearer <AccessToken 或 RefreshToken>,<ChatGPT-Account-ID>

如果设置了 AUTHORIZATION 环境变量,可以将设置的值作为 {{ Token }} 传入进行多 Tokens 轮询。

  • AccessToken 获取: chatgpt官网登录后,再打开 https://chatgpt.com/api/auth/session 获取 accessToken 这个值。
  • RefreshToken 获取: 此处不提供获取方法。
  • 免登录 gpt-3.5 无需传入 Token。

Tokens 管理

  1. 配置环境变量 AUTHORIZATION 作为 授权码 ,然后运行程序。

  2. 访问 /tokens 或者 /{api_prefix}/tokens 可以查看现有 Tokens 数量,也可以上传新的 Tokens ,或者清空 Tokens。

  3. 请求时传入 AUTHORIZATION 中配置的 授权码 即可使用轮询的Tokens进行对话

tokens.png

官网原生镜像

  1. 配置环境变量 ENABLE_GATEWAYtrue,然后运行程序, 注意开启后别人也可以直接通过域名访问你的网关。

  2. 在 Tokens 管理页面上传 RefreshTokenAccessToken

  3. 访问 /login 到登录页面

login.png

  1. 进入官网原生镜像页面使用

chatgpt.png

环境变量

每个环境变量都有默认值,如果不懂环境变量的含义,请不要设置,更不要传空值,字符串无需引号。

分类 变量名 示例值 默认值 描述
安全相关 API_PREFIX your_prefix None API 前缀密码,不设置容易被人访问,设置后需请求 /your_prefix/v1/chat/completions
AUTHORIZATION your_first_authorization,
your_second_authorization
[] 你自己为使用多账号轮询 Tokens 设置的授权码,英文逗号分隔
AUTH_KEY your_auth_key None 私人网关需要加auth_key请求头才设置该项
请求相关 CHATGPT_BASE_URL https://chatgpt.com https://chatgpt.com ChatGPT 网关地址,设置后会改变请求的网站,多个网关用逗号分隔
PROXY_URL http://ip:port,
http://username:password@ip:port
[] 全局代理 URL,出 403 时启用,多个代理用逗号分隔
EXPORT_PROXY_URL http://ip:port
http://username:password@ip:port
None 出口代理 URL,防止请求图片和文件时泄漏源站 ip
功能相关 HISTORY_DISABLED true true 是否不保存聊天记录并返回 conversation_id
POW_DIFFICULTY 00003a 00003a 要解决的工作量证明难度,不懂别设置
RETRY_TIMES 3 3 出错重试次数,使用 AUTHORIZATION 会自动随机/轮询下一个账号
CONVERSATION_ONLY false false 是否直接使用对话接口,如果你用的网关支持自动解决 POW 才启用
ENABLE_LIMIT true true 开启后不尝试突破官方次数限制,尽可能防止封号
UPLOAD_BY_URL false false 开启后按照 URL+空格+正文 进行对话,自动解析 URL 内容并上传,多个 URL 用空格分隔
SCHEDULED_REFRESH false false 是否定时刷新 AccessToken ,开启后每次启动程序将会全部非强制刷新一次,每4天晚上3点全部强制刷新一次。
RANDOM_TOKEN true true 是否随机选取后台 Token ,开启后随机后台账号,关闭后为顺序轮询
网关功能 ENABLE_GATEWAY false false 是否启用网关模式,开启后可以使用镜像站,但也将会不设防
AUTO_SEED false true 是否启用随机账号模式,默认启用,输入seed后随机匹配后台Token。关闭之后需要手动对接接口,来进行Token管控。

部署

Zeabur 部署

Deploy on Zeabur

直接部署

git clone https://github.com/LanQian528/chat2api
cd chat2api
pip install -r requirements.txt
python app.py

Docker 部署

您需要安装 Docker 和 Docker Compose。

docker run -d \
  --name chat2api \
  -p 5005:5005 \
  lanqian528/chat2api:latest

(推荐,可用 PLUS 账号)Docker Compose 部署

创建一个新的目录,例如 chat2api,并进入该目录:

mkdir chat2api
cd chat2api

在此目录中下载库中的 docker-compose.yml 文件:

wget https://raw.githubusercontent.com/LanQian528/chat2api/main/docker-compose-warp.yml

修改 docker-compose-warp.yml 文件中的环境变量,保存后:

docker-compose up -d

常见问题

  • 错误代码:
    • 401:当前 IP 不支持免登录,请尝试更换 IP 地址,或者在环境变量 PROXY_URL 中设置代理,或者你的身份验证失败。
    • 403:请在日志中查看具体报错信息。
    • 429:当前 IP 请求1小时内请求超过限制,请稍后再试,或更换 IP。
    • 500:服务器内部错误,请求失败。
    • 502:服务器网关错误,或网络不可用,请尝试更换网络环境。
  • 已知情况:
    • 日本 IP 很多不支持免登,免登 GPT-3.5 建议使用美国 IP。
    • 99%的账号都支持免费 GPT-4o ,但根据 IP 地区开启,目前日本和新加坡 IP 已知开启概率较大。
  • 环境变量 AUTHORIZATION 是什么?
    • 是一个自己给 chat2api 设置的一个身份验证,设置后才可使用已保存的 Tokens 轮询,请求时当作 APIKEY 传入。
  • AccessToken 如何获取?

License

MIT 许可证

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|昨天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|3天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|2天前
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|4天前
Agent图像开发框架