AIStudioToAPI
AIStudioToAPI 是一个将 Google AI Studio 网页端封装为兼容 OpenAI、Gemini 和 Anthropic API 风格的工具,让开发者可以像使用其他主流大模型 API 一样调用 Google 的 AI 能力。它通过浏览器自动化技术模拟用户操作,实现与 AI Studio 界面的交互,从而支持模型调用、工具调用以及多账号管理等功能。
这个工具解决了 Google AI Studio 缺乏标准 API 接口的问题,使得开发者无需手动操作网页界面,即可在自己的应用中集成 Gemini 模型,包括文本生成、图像生成和语音合成等能力。同时,它还支持多账号切换、可视化控制台和 VNC 登录,提升了使用的灵活性和便捷性。
适合需要将 Google AI Studio 模型集成到自有系统中的开发者、研究人员或企业用户。对于希望快速测试或部署 AI 功能的用户来说,AIStudioToAPI 提供了低门槛的接入方式。其独特的网页自动化技术和对多种 API 格式的兼容性,是其主要的技术亮点。
使用场景
某科技公司的 AI 研发团队正在开发一个智能客服系统,需要集成多个大模型进行对话理解和生成,但目前他们主要使用的是 Google 的 Gemini 模型。由于现有系统基于 OpenAI API 构建,团队希望在不修改现有代码的前提下接入 Gemini 模型。
没有 AIStudioToAPI 时
- 需要手动将 OpenAI 接口调用逻辑替换为 Google AI Studio 的网页交互方式,导致大量代码重构和测试工作
- 无法直接调用 Gemini 模型的工具接口(如图像生成、语音合成等),限制了功能扩展性
- 多个 Google 账号切换需频繁重新登录 AI Studio,影响开发效率和自动化流程
- 缺乏统一的 API 入口,难以实现与现有系统的无缝对接和负载均衡
- 无法通过标准 API 调用方式访问 AI Studio,增加了部署和维护复杂度
使用 AIStudioToAPI 后
- 直接兼容 OpenAI API 格式,无需改动现有代码即可接入 Gemini 模型,节省大量开发时间
- 支持 Tool Calls 功能,可直接调用 Gemini 模型的图像生成、语音合成功能,提升系统智能化水平
- 支持多账号管理与快速切换,便于团队成员协作和资源分配,提升开发效率
- 提供统一的 API 接口,支持负载均衡和反向代理配置,便于系统扩展和运维管理
- 通过封装浏览器自动化操作,实现对 AI Studio 的无感调用,简化了部署和维护流程
AIStudioToAPI 让团队能够高效、灵活地接入 Google Gemini 模型,同时保持现有系统的稳定性与扩展性。
运行环境要求
- Linux
- macOS
- Windows
未说明
16GB+

快速开始
Google AI Studio 转 API 适配器
中文文档 | English
一个将 Google AI Studio 网页端封装为兼容 OpenAI API、Gemini API 和 Anthropic API 的工具。该服务将充当代理,将 API 请求转换为与 AI Studio 网页界面的浏览器交互。
✨ 功能特性
- 🔄 API 兼容性:同时兼容 OpenAI API、Gemini API 和 Anthropic API 格式
- 🌐 网页自动化:使用浏览器自动化技术与 AI Studio 网页界面交互
- 👥 多账号支持:支持多个 Google 账号同时登录,快速切换无需重新登录
- 🔧 支持工具调用:OpenAI、Gemini 和 Anthropic 接口均支持 Tool Calls (Function Calling)
- 📝 模型支持:通过 AI Studio 访问各种 Gemini 模型,包括生图模型和 TTS 语音合成模型
- 🎨 主页展示控制:提供可视化的 Web 控制台,支持账号管理、VNC 登录等操作
🚀 快速开始
💻 直接运行(Windows / macOS / Linux)
克隆仓库:
git clone https://github.com/iBUHub/AIStudioToAPI.git cd AIStudioToAPI运行快速设置脚本:
npm run setup-auth该脚本将:
- 自动下载 Camoufox 浏览器(一个注重隐私的 Firefox 分支)
- 启动浏览器并自动导航到 AI Studio
- 在本地保存您的身份验证凭据(auth 文件位于
/configs/auth)
💡 提示: 如果下载 Camoufox 浏览器失败或等待太久,可以自行点击 此处 下载,然后设置环境变量
CAMOUFOX_EXECUTABLE_PATH为可执行文件的路径(支持绝对和相对路径)。配置环境变量(可选):
复制根目录下的
.env.example为.env,并在.env中按需修改配置(如端口、API 密钥等)。启动服务:
npm startAPI 服务将在
http://localhost:7860上运行。服务启动后,您可以在浏览器中访问
http://localhost:7860打开 Web 控制台主页,在这里可以查看账号状态和服务状态。更新到最新版本(已有本地部署时):
git pull npm install
⚠ 注意: 直接运行不支持通过 VNC 在线添加账号,需要使用
npm run setup-auth脚本添加账号。当前 VNC 登录功能仅在 Docker 容器中可用。
🐋 Docker 部署
使用 Docker 部署,无需预先提取身份验证凭据。
🚢 步骤 1:部署容器
🎮️ 方式 1:Docker 命令
docker run -d \
--name aistudio-to-api \
-p 7860:7860 \
-v /path/to/auth:/app/configs/auth \
-e API_KEYS=your-api-key-1,your-api-key-2 \
-e TZ=Asia/Shanghai \
--restart unless-stopped \
ghcr.io/ibuhub/aistudio-to-api:latest
💡 提示: 如果
ghcr.io访问速度较慢或不可用,可以使用 Docker Hub 镜像:ibuhub/aistudio-to-api:latest。
参数说明:
-p 7860:7860:API 服务器端口(如果使用反向代理,强烈建议改成 127.0.0.1:7860)-v /path/to/auth:/app/configs/auth:挂载包含认证文件的目录-e API_KEYS:用于身份验证的 API 密钥列表(使用逗号分隔)-e TZ=Asia/Shanghai:时区设置(可选,默认使用系统时区)
📦 方式 2:Docker Compose
创建 docker-compose.yml 文件:
name: aistudio-to-api
services:
app:
image: ghcr.io/ibuhub/aistudio-to-api:latest
container_name: aistudio-to-api
ports:
# API 服务器端口(如果使用反向代理,强烈建议改成 127.0.0.1:7860)
- 7860:7860
restart: unless-stopped
volumes:
# 挂载包含认证文件的目录
- ./auth:/app/configs/auth
environment:
# 用于身份验证的 API 密钥列表(使用逗号分隔)
API_KEYS: your-api-key-1,your-api-key-2
# 时区设置(可选,默认使用系统时区)
TZ: Asia/Shanghai
💡 提示: 如果
ghcr.io访问速度较慢或不可用,可以将image改为ibuhub/aistudio-to-api:latest。
🛠️ 方式 3:从源码构建
如果您希望自己构建 Docker 镜像,可以使用以下命令:
构建镜像:
docker build -t aistudio-to-api .运行容器:
docker run -d \ --name aistudio-to-api \ -p 7860:7860 \ -v /path/to/auth:/app/configs/auth \ -e API_KEYS=your-api-key-1,your-api-key-2 \ -e TZ=Asia/Shanghai \ --restart unless-stopped \ aistudio-to-api
🔑 步骤 2:账号管理
部署后,您需要使用以下方式之一添加 Google 账号:
方法 1:VNC 登录(推荐)
- 在浏览器中访问部署的服务地址(例如
http://your-server:7860)并点击「添加账号」按钮 - 将跳转到 VNC 页面,显示浏览器实例
- 登录您的 Google 账号,登录完成后点击「保存」按钮
- 账号将自动保存为
auth-N.json(N 从 0 开始)
方法 2:上传认证文件
- 在本地机器上运行
npm run setup-auth生成认证文件(参考 直接运行 的 1 和 2),认证文件在/configs/auth - 在网页控制台,点击「上传 Auth」,上传 auth 的 JSON 文件,或手动上传到挂载的
/path/to/auth目录
💡 提示:您也可以从已有的容器下载 auth 文件,然后上传到新的容器。在网页控制台点击对应账号的「下载 Auth」按钮即可下载 auth 文件。
⚠ 目前暂不支持通过环境变量注入认证信息。
🌐 步骤 3(可选):使用 Nginx 反向代理
如果需要通过域名访问或希望在反向代理层统一管理(例如配置 HTTPS、负载均衡等),可以使用 Nginx。
📖 详细的 Nginx 配置说明请参阅:Nginx 反向代理配置文档
🐾 Claw Cloud Run 部署
支持直接部署到 Claw Cloud Run,全托管的容器平台。
📖 详细部署说明请参阅:部署到 Claw Cloud Run
🦓 Zeabur 部署
ℹ Zeabur 公告: 自 2026/03/15 起,Zeabur 已停止在 共享集群 上创建新项目;已经运行在共享集群上的服务不会受到影响。详情请参阅官方变更说明: 公告
📖 旧版部署教程请参阅:部署到 Zeabur
📡 使用 API
🤖 OpenAI 兼容 API
此端点处理后转发到官方 Gemini API 格式端点。
GET /v1/models: 列出模型。POST /v1/chat/completions: 聊天补全和图片生成,支持非流式、真流式和假流式。POST /v1/responses: OpenAI Responses API 兼容接口,用于对话生成,不支持图像生成,支持非流式、真流式和假流式。POST /v1/responses/input_tokens: 计算 OpenAI Responses API 请求的输入 token 数量。
♊ Gemini 原生 API 格式
此端点转发到官方 Gemini API 格式端点。
GET /v1beta/models: 列出可用的 Gemini 模型。POST /v1beta/models/{model_name}:generateContent: 生成内容、图片和语音。POST /v1beta/models/{model_name}:streamGenerateContent: 流式生成内容、图片和语音,支持真流式和假流式。POST /v1beta/models/{model_name}:batchEmbedContents: 批量生成文本嵌入向量。POST /v1beta/models/{model_name}:predict: Imagen 系列模型图像生成。
👤 Anthropic 兼容 API
此端点处理后转发到官方 Gemini API 格式端点。
GET /v1/models: 列出模型。POST /v1/messages: 聊天消息补全,支持非流式、真流式和假流式。POST /v1/messages/count_tokens: 计算消息中的 token 数量。
📖 详细的 API 使用示例请参阅:API 使用示例文档
🧰 相关配置
🔧 环境变量
📱 应用配置
| 变量名 | 描述 | 默认值 |
|---|---|---|
API_KEYS |
用于身份验证的有效 API 密钥列表(使用逗号分隔)。 | 123456 |
WEB_CONSOLE_USERNAME |
网页控制台登录的用户名(可选)。如果同时设置用户名和密码,登录时需要输入两者。 | 无 |
WEB_CONSOLE_PASSWORD |
网页控制台登录的密码(可选)。如果只设置密码,登录页面仅要求输入密码;如果两者都不设置,系统将使用 API_KEYS 进行控制台登录。 |
无 |
PORT |
API 服务器端口。 | 7860 |
HOST |
服务器监听的主机地址。 | 0.0.0.0 |
ICON_URL |
用于自定义控制台的 favicon 图标。支持 ICO, PNG, SVG 等格式。 | /AIStudio_logo.svg |
SECURE_COOKIES |
是否启用安全 Cookie。true 表示仅支持 HTTPS 协议访问控制台。 |
false |
RATE_LIMIT_MAX_ATTEMPTS |
时间窗口内控制台允许的最大失败登录尝试次数(设为 0 禁用)。 |
5 |
RATE_LIMIT_WINDOW_MINUTES |
速率限制的时间窗口长度(分钟)。 | 15 |
CHECK_UPDATE |
是否在页面加载时检查版本更新(设为 false 禁用)。 |
true |
LOG_LEVEL |
日志输出等级。设为 DEBUG 启用详细调试日志。 |
INFO |
TZ |
日志和显示时间使用的时区,例如 Asia/Shanghai。留空时默认使用系统时区。 |
系统时区 |
🌐 代理配置
| 变量名 | 描述 | 默认值 |
|---|---|---|
INITIAL_AUTH_INDEX |
启动时使用的初始身份验证索引。 | 0 |
ENABLE_AUTH_UPDATE |
是否启用自动保存凭证更新。默认为启用状态,将在每次登录/切换账号成功时以及每 24 小时自动更新 auth 文件。设为 false 禁用。 |
true |
MAX_RETRIES |
请求失败后的最大重试次数(仅对假流式和非流式生效)。 | 3 |
RETRY_DELAY |
两次重试之间的间隔(毫秒)。 | 2000 |
SWITCH_ON_USES |
自动切换帐户前允许的请求次数(设为 0 禁用)。 |
40 |
FAILURE_THRESHOLD |
切换帐户前允许的连续失败次数(设为 0 禁用)。 |
3 |
IMMEDIATE_SWITCH_STATUS_CODES |
触发立即切换帐户的 HTTP 状态码(逗号分隔,设为空值以禁用)。 | 429,503 |
MAX_CONTEXTS |
最大同时登录的账号数量。同时登录的账号切换更快,无需重新登录。数值越大内存消耗越高(约:1 个账号 ~700MB,2 个账号 ~950MB,3 个账号 ~1100MB)。设为 0 表示无限制。 |
1 |
HTTP_PROXY |
用于访问 Google 服务的 HTTP 代理地址。 | 无 |
HTTPS_PROXY |
用于访问 Google 服务的 HTTPS 代理地址。 | 无 |
NO_PROXY |
不经过代理的地址列表(逗号分隔)。项目已内置自动绕过本地地址(localhost, 127.0.0.1, 0.0.0.0),通常无需手动配置本地绕过。 | 无 |
🗒️ 其他配置
| 变量名 | 描述 | 默认值 |
|---|---|---|
STREAMING_MODE |
流式传输模式。real 为真流式,fake 为假流式。 |
real |
FORCE_THINKING |
强制为所有请求启用思考模式。 | false |
FORCE_WEB_SEARCH |
强制为所有请求启用网络搜索。 | false |
FORCE_URL_CONTEXT |
强制为所有请求启用 URL 上下文。 | false |
CAMOUFOX_EXECUTABLE_PATH |
Camoufox 浏览器的可执行文件路径(支持绝对或相对路径)。仅在手动下载浏览器时需配置。 | 自动检测 |
⚡ 账号自动填充
为了简化多个账号的登录流程,您可以通过配置 users.csv 文件来实现自动填充:
- 在项目根目录创建
users.csv。 - 格式为:
email,password(每行一个)。 - 运行
npm run setup-auth后按提示选择账号。
📖 详细配置说明请参阅:账号自动填充指南
🧠 模型列表配置
编辑 configs/models.json 以自定义可用模型及其设置。
💡 提示: 思考参数预留了通过模型后缀名来设置的功能,支持在模型名后面通过
-THINKING_LEVEL或(THINKING_LEVEL)来设置(THINKING_LEVEL支持high、low、medium、minimal,不区分大小写)。例如:gemini-3-flash-preview(minimal)或gemini-3-flash-preview-minimal。真假流式也支持通过模型名后缀覆盖,支持在模型名最后追加
-real或-fake。该后缀优先级高于系统的真假流式,但只会在流式请求中生效。例如:gemini-3-flash-preview-fake。若和思考后缀同时使用,真假流后缀必须放在最后,例如:gemini-3-flash-preview-minimal-fake或gemini-3-flash-preview(minimal)-real。
📄 许可证
本项目基于 ais2api(作者:Ellinav)分支开发,并完全沿用上游项目所采用的 CC BY-NC 4.0 许可证,其使用、分发与修改行为均需遵守原有许可证的全部条款,完整许可的内容请参见 LICENSE 文件。
🤝 贡献者
感谢所有为本项目付出汗水与智慧的开发者。
如果你觉得 AIStudioToAPI 对你有帮助,欢迎给项目点一个 ⭐️!
版本历史
v1.1.32026/04/02v1.1.22026/03/22v1.1.12026/03/20v1.1.02026/03/10v1.0.12026/03/03v1.0.02026/02/27v0.7.22026/02/24v0.7.12026/02/21v0.7.02026/02/21v0.6.32026/02/12v0.6.22026/02/10v0.6.12026/02/05v0.6.02026/02/03v0.5.32026/01/30v0.5.22026/01/27v0.5.12026/01/25v0.5.02026/01/24v0.4.02026/01/18v0.3.12026/01/12v0.3.02026/01/10常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。
gpt4free
gpt4free 是一个由社区驱动的开源项目,旨在聚合多种可访问的大型语言模型(LLM)和媒体生成接口,让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点,通过统一的标准将不同提供商的资源整合在一起。 无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员,还是想免费体验最新技术的普通用户,都能从中受益。gpt4free 提供了丰富的使用方式:既包含易于上手的 Python 和 JavaScript 客户端库,也支持部署本地图形界面(GUI),更提供了兼容 OpenAI 标准的 REST API,方便无缝替换现有应用后端。 其技术亮点在于强大的多提供商支持架构,能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源,并支持 Docker 一键部署及本地推理。项目秉持社区优先原则,在降低使用门槛的同时,也为贡献者提供了扩展新接口的便利框架,是探索和利用多样化 AI 资源的实用工具。
scikit-learn
scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最
gstack
gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。
keras
Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。

