AIStudioToAPI

GitHub
857 132 中等 1 次阅读 今天NOASSERTION插件数据工具
AI 解读 由 AI 自动生成,仅供参考

AIStudioToAPI 是一个将 Google AI Studio 网页端封装为兼容 OpenAI、Gemini 和 Anthropic API 风格的工具,让开发者可以像使用其他主流大模型 API 一样调用 Google 的 AI 能力。它通过浏览器自动化技术模拟用户操作,实现与 AI Studio 界面的交互,从而支持模型调用、工具调用以及多账号管理等功能。

这个工具解决了 Google AI Studio 缺乏标准 API 接口的问题,使得开发者无需手动操作网页界面,即可在自己的应用中集成 Gemini 模型,包括文本生成、图像生成和语音合成等能力。同时,它还支持多账号切换、可视化控制台和 VNC 登录,提升了使用的灵活性和便捷性。

适合需要将 Google AI Studio 模型集成到自有系统中的开发者、研究人员或企业用户。对于希望快速测试或部署 AI 功能的用户来说,AIStudioToAPI 提供了低门槛的接入方式。其独特的网页自动化技术和对多种 API 格式的兼容性,是其主要的技术亮点。

使用场景

某科技公司的 AI 研发团队正在开发一个智能客服系统,需要集成多个大模型进行对话理解和生成,但目前他们主要使用的是 Google 的 Gemini 模型。由于现有系统基于 OpenAI API 构建,团队希望在不修改现有代码的前提下接入 Gemini 模型。

没有 AIStudioToAPI 时

  • 需要手动将 OpenAI 接口调用逻辑替换为 Google AI Studio 的网页交互方式,导致大量代码重构和测试工作
  • 无法直接调用 Gemini 模型的工具接口(如图像生成、语音合成等),限制了功能扩展性
  • 多个 Google 账号切换需频繁重新登录 AI Studio,影响开发效率和自动化流程
  • 缺乏统一的 API 入口,难以实现与现有系统的无缝对接和负载均衡
  • 无法通过标准 API 调用方式访问 AI Studio,增加了部署和维护复杂度

使用 AIStudioToAPI 后

  • 直接兼容 OpenAI API 格式,无需改动现有代码即可接入 Gemini 模型,节省大量开发时间
  • 支持 Tool Calls 功能,可直接调用 Gemini 模型的图像生成、语音合成功能,提升系统智能化水平
  • 支持多账号管理与快速切换,便于团队成员协作和资源分配,提升开发效率
  • 提供统一的 API 接口,支持负载均衡和反向代理配置,便于系统扩展和运维管理
  • 通过封装浏览器自动化操作,实现对 AI Studio 的无感调用,简化了部署和维护流程

AIStudioToAPI 让团队能够高效、灵活地接入 Google Gemini 模型,同时保持现有系统的稳定性与扩展性。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

16GB+

依赖
notes工具依赖浏览器自动化技术,需要安装 Camoufox 浏览器;支持通过 Docker 部署,需配置认证文件;使用 Nginx 反向代理时需参考文档配置;不支持通过环境变量注入认证信息。
python未说明
AIStudioToAPI hero image

快速开始

Google AI Studio 转 API 适配器

中文文档 | English

一个将 Google AI Studio 网页端封装为兼容 OpenAI API、Gemini API 和 Anthropic API 的工具。该服务将充当代理,将 API 请求转换为与 AI Studio 网页界面的浏览器交互。

✨ 功能特性

  • 🔄 API 兼容性:同时兼容 OpenAI API、Gemini API 和 Anthropic API 格式
  • 🌐 网页自动化:使用浏览器自动化技术与 AI Studio 网页界面交互
  • 👥 多账号支持:支持多个 Google 账号同时登录,快速切换无需重新登录
  • 🔧 支持工具调用:OpenAI、Gemini 和 Anthropic 接口均支持 Tool Calls (Function Calling)
  • 📝 模型支持:通过 AI Studio 访问各种 Gemini 模型,包括生图模型和 TTS 语音合成模型
  • 🎨 主页展示控制:提供可视化的 Web 控制台,支持账号管理、VNC 登录等操作

🚀 快速开始

💻 直接运行(Windows / macOS / Linux)

  1. 克隆仓库:

    git clone https://github.com/iBUHub/AIStudioToAPI.git
    cd AIStudioToAPI
    
  2. 运行快速设置脚本:

    npm run setup-auth
    

    该脚本将:

    • 自动下载 Camoufox 浏览器(一个注重隐私的 Firefox 分支)
    • 启动浏览器并自动导航到 AI Studio
    • 在本地保存您的身份验证凭据(auth 文件位于 /configs/auth

    💡 提示: 如果下载 Camoufox 浏览器失败或等待太久,可以自行点击 此处 下载,然后设置环境变量 CAMOUFOX_EXECUTABLE_PATH 为可执行文件的路径(支持绝对和相对路径)。

  3. 配置环境变量(可选):

    复制根目录下的 .env.example.env,并在 .env 中按需修改配置(如端口、API 密钥等)。

  4. 启动服务:

    npm start
    

    API 服务将在 http://localhost:7860 上运行。

    服务启动后,您可以在浏览器中访问 http://localhost:7860 打开 Web 控制台主页,在这里可以查看账号状态和服务状态。

  5. 更新到最新版本(已有本地部署时):

    git pull
    npm install
    

注意: 直接运行不支持通过 VNC 在线添加账号,需要使用 npm run setup-auth 脚本添加账号。当前 VNC 登录功能仅在 Docker 容器中可用。

🐋 Docker 部署

使用 Docker 部署,无需预先提取身份验证凭据。

🚢 步骤 1:部署容器

🎮️ 方式 1:Docker 命令
docker run -d \
  --name aistudio-to-api \
  -p 7860:7860 \
  -v /path/to/auth:/app/configs/auth \
  -e API_KEYS=your-api-key-1,your-api-key-2 \
  -e TZ=Asia/Shanghai \
  --restart unless-stopped \
  ghcr.io/ibuhub/aistudio-to-api:latest

💡 提示: 如果 ghcr.io 访问速度较慢或不可用,可以使用 Docker Hub 镜像:ibuhub/aistudio-to-api:latest

参数说明:

  • -p 7860:7860:API 服务器端口(如果使用反向代理,强烈建议改成 127.0.0.1:7860)
  • -v /path/to/auth:/app/configs/auth:挂载包含认证文件的目录
  • -e API_KEYS:用于身份验证的 API 密钥列表(使用逗号分隔)
  • -e TZ=Asia/Shanghai:时区设置(可选,默认使用系统时区)
📦 方式 2:Docker Compose

创建 docker-compose.yml 文件:

name: aistudio-to-api

services:
  app:
    image: ghcr.io/ibuhub/aistudio-to-api:latest
    container_name: aistudio-to-api
    ports:
      # API 服务器端口(如果使用反向代理,强烈建议改成 127.0.0.1:7860)
      - 7860:7860
    restart: unless-stopped
    volumes:
      # 挂载包含认证文件的目录
      - ./auth:/app/configs/auth
    environment:
      # 用于身份验证的 API 密钥列表(使用逗号分隔)
      API_KEYS: your-api-key-1,your-api-key-2
      # 时区设置(可选,默认使用系统时区)
      TZ: Asia/Shanghai

💡 提示: 如果 ghcr.io 访问速度较慢或不可用,可以将 image 改为 ibuhub/aistudio-to-api:latest

🛠️ 方式 3:从源码构建

如果您希望自己构建 Docker 镜像,可以使用以下命令:

  1. 构建镜像:

    docker build -t aistudio-to-api .
    
  2. 运行容器:

    docker run -d \
      --name aistudio-to-api \
      -p 7860:7860 \
      -v /path/to/auth:/app/configs/auth \
      -e API_KEYS=your-api-key-1,your-api-key-2 \
      -e TZ=Asia/Shanghai \
      --restart unless-stopped \
      aistudio-to-api
    

🔑 步骤 2:账号管理

部署后,您需要使用以下方式之一添加 Google 账号:

方法 1:VNC 登录(推荐)

  • 在浏览器中访问部署的服务地址(例如 http://your-server:7860)并点击「添加账号」按钮
  • 将跳转到 VNC 页面,显示浏览器实例
  • 登录您的 Google 账号,登录完成后点击「保存」按钮
  • 账号将自动保存为 auth-N.json(N 从 0 开始)

方法 2:上传认证文件

  • 在本地机器上运行 npm run setup-auth 生成认证文件(参考 直接运行 的 1 和 2),认证文件在 /configs/auth
  • 在网页控制台,点击「上传 Auth」,上传 auth 的 JSON 文件,或手动上传到挂载的 /path/to/auth 目录

💡 提示:您也可以从已有的容器下载 auth 文件,然后上传到新的容器。在网页控制台点击对应账号的「下载 Auth」按钮即可下载 auth 文件。

⚠ 目前暂不支持通过环境变量注入认证信息。

🌐 步骤 3(可选):使用 Nginx 反向代理

如果需要通过域名访问或希望在反向代理层统一管理(例如配置 HTTPS、负载均衡等),可以使用 Nginx。

📖 详细的 Nginx 配置说明请参阅:Nginx 反向代理配置文档

🐾 Claw Cloud Run 部署

支持直接部署到 Claw Cloud Run,全托管的容器平台。

📖 详细部署说明请参阅:部署到 Claw Cloud Run

🦓 Zeabur 部署

Zeabur 公告:2026/03/15 起,Zeabur 已停止在 共享集群 上创建新项目;已经运行在共享集群上的服务不会受到影响。详情请参阅官方变更说明: 公告

📖 旧版部署教程请参阅:部署到 Zeabur

📡 使用 API

🤖 OpenAI 兼容 API

此端点处理后转发到官方 Gemini API 格式端点。

  • GET /v1/models: 列出模型。
  • POST /v1/chat/completions: 聊天补全和图片生成,支持非流式、真流式和假流式。
  • POST /v1/responses: OpenAI Responses API 兼容接口,用于对话生成,不支持图像生成,支持非流式、真流式和假流式。
  • POST /v1/responses/input_tokens: 计算 OpenAI Responses API 请求的输入 token 数量。

♊ Gemini 原生 API 格式

此端点转发到官方 Gemini API 格式端点。

  • GET /v1beta/models: 列出可用的 Gemini 模型。
  • POST /v1beta/models/{model_name}:generateContent: 生成内容、图片和语音。
  • POST /v1beta/models/{model_name}:streamGenerateContent: 流式生成内容、图片和语音,支持真流式和假流式。
  • POST /v1beta/models/{model_name}:batchEmbedContents: 批量生成文本嵌入向量。
  • POST /v1beta/models/{model_name}:predict: Imagen 系列模型图像生成。

👤 Anthropic 兼容 API

此端点处理后转发到官方 Gemini API 格式端点。

  • GET /v1/models: 列出模型。
  • POST /v1/messages: 聊天消息补全,支持非流式、真流式和假流式。
  • POST /v1/messages/count_tokens: 计算消息中的 token 数量。

📖 详细的 API 使用示例请参阅:API 使用示例文档

🧰 相关配置

🔧 环境变量

📱 应用配置

变量名 描述 默认值
API_KEYS 用于身份验证的有效 API 密钥列表(使用逗号分隔)。 123456
WEB_CONSOLE_USERNAME 网页控制台登录的用户名(可选)。如果同时设置用户名和密码,登录时需要输入两者。
WEB_CONSOLE_PASSWORD 网页控制台登录的密码(可选)。如果只设置密码,登录页面仅要求输入密码;如果两者都不设置,系统将使用 API_KEYS 进行控制台登录。
PORT API 服务器端口。 7860
HOST 服务器监听的主机地址。 0.0.0.0
ICON_URL 用于自定义控制台的 favicon 图标。支持 ICO, PNG, SVG 等格式。 /AIStudio_logo.svg
SECURE_COOKIES 是否启用安全 Cookie。true 表示仅支持 HTTPS 协议访问控制台。 false
RATE_LIMIT_MAX_ATTEMPTS 时间窗口内控制台允许的最大失败登录尝试次数(设为 0 禁用)。 5
RATE_LIMIT_WINDOW_MINUTES 速率限制的时间窗口长度(分钟)。 15
CHECK_UPDATE 是否在页面加载时检查版本更新(设为 false 禁用)。 true
LOG_LEVEL 日志输出等级。设为 DEBUG 启用详细调试日志。 INFO
TZ 日志和显示时间使用的时区,例如 Asia/Shanghai。留空时默认使用系统时区。 系统时区

🌐 代理配置

变量名 描述 默认值
INITIAL_AUTH_INDEX 启动时使用的初始身份验证索引。 0
ENABLE_AUTH_UPDATE 是否启用自动保存凭证更新。默认为启用状态,将在每次登录/切换账号成功时以及每 24 小时自动更新 auth 文件。设为 false 禁用。 true
MAX_RETRIES 请求失败后的最大重试次数(仅对假流式和非流式生效)。 3
RETRY_DELAY 两次重试之间的间隔(毫秒)。 2000
SWITCH_ON_USES 自动切换帐户前允许的请求次数(设为 0 禁用)。 40
FAILURE_THRESHOLD 切换帐户前允许的连续失败次数(设为 0 禁用)。 3
IMMEDIATE_SWITCH_STATUS_CODES 触发立即切换帐户的 HTTP 状态码(逗号分隔,设为空值以禁用)。 429,503
MAX_CONTEXTS 最大同时登录的账号数量。同时登录的账号切换更快,无需重新登录。数值越大内存消耗越高(约:1 个账号 ~700MB,2 个账号 ~950MB,3 个账号 ~1100MB)。设为 0 表示无限制。 1
HTTP_PROXY 用于访问 Google 服务的 HTTP 代理地址。
HTTPS_PROXY 用于访问 Google 服务的 HTTPS 代理地址。
NO_PROXY 不经过代理的地址列表(逗号分隔)。项目已内置自动绕过本地地址(localhost, 127.0.0.1, 0.0.0.0),通常无需手动配置本地绕过。

🗒️ 其他配置

变量名 描述 默认值
STREAMING_MODE 流式传输模式。real 为真流式,fake 为假流式。 real
FORCE_THINKING 强制为所有请求启用思考模式。 false
FORCE_WEB_SEARCH 强制为所有请求启用网络搜索。 false
FORCE_URL_CONTEXT 强制为所有请求启用 URL 上下文。 false
CAMOUFOX_EXECUTABLE_PATH Camoufox 浏览器的可执行文件路径(支持绝对或相对路径)。仅在手动下载浏览器时需配置。 自动检测

⚡ 账号自动填充

为了简化多个账号的登录流程,您可以通过配置 users.csv 文件来实现自动填充:

  1. 在项目根目录创建 users.csv
  2. 格式为:email,password(每行一个)。
  3. 运行 npm run setup-auth 后按提示选择账号。

📖 详细配置说明请参阅:账号自动填充指南

🧠 模型列表配置

编辑 configs/models.json 以自定义可用模型及其设置。

💡 提示: 思考参数预留了通过模型后缀名来设置的功能,支持在模型名后面通过 -THINKING_LEVEL(THINKING_LEVEL) 来设置(THINKING_LEVEL 支持 highlowmediumminimal,不区分大小写)。例如:gemini-3-flash-preview(minimal)gemini-3-flash-preview-minimal

真假流式也支持通过模型名后缀覆盖,支持在模型名最后追加 -real-fake。该后缀优先级高于系统的真假流式,但只会在流式请求中生效。例如:gemini-3-flash-preview-fake。若和思考后缀同时使用,真假流后缀必须放在最后,例如:gemini-3-flash-preview-minimal-fakegemini-3-flash-preview(minimal)-real

📄 许可证

本项目基于 ais2api(作者:Ellinav)分支开发,并完全沿用上游项目所采用的 CC BY-NC 4.0 许可证,其使用、分发与修改行为均需遵守原有许可证的全部条款,完整许可的内容请参见 LICENSE 文件。

🤝 贡献者

Contributors

感谢所有为本项目付出汗水与智慧的开发者。


如果你觉得 AIStudioToAPI 对你有帮助,欢迎给项目点一个 ⭐️!

Star History Chart

版本历史

v1.1.32026/04/02
v1.1.22026/03/22
v1.1.12026/03/20
v1.1.02026/03/10
v1.0.12026/03/03
v1.0.02026/02/27
v0.7.22026/02/24
v0.7.12026/02/21
v0.7.02026/02/21
v0.6.32026/02/12
v0.6.22026/02/10
v0.6.12026/02/05
v0.6.02026/02/03
v0.5.32026/01/30
v0.5.22026/01/27
v0.5.12026/01/25
v0.5.02026/01/24
v0.4.02026/01/18
v0.3.12026/01/12
v0.3.02026/01/10

常见问题

相似工具推荐

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架

gpt4free

gpt4free 是一个由社区驱动的开源项目,旨在聚合多种可访问的大型语言模型(LLM)和媒体生成接口,让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点,通过统一的标准将不同提供商的资源整合在一起。 无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员,还是想免费体验最新技术的普通用户,都能从中受益。gpt4free 提供了丰富的使用方式:既包含易于上手的 Python 和 JavaScript 客户端库,也支持部署本地图形界面(GUI),更提供了兼容 OpenAI 标准的 REST API,方便无缝替换现有应用后端。 其技术亮点在于强大的多提供商支持架构,能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源,并支持 Docker 一键部署及本地推理。项目秉持社区优先原则,在降低使用门槛的同时,也为贡献者提供了扩展新接口的便利框架,是探索和利用多样化 AI 资源的实用工具。

66k|★★☆☆☆|2天前
插件语言模型Agent

scikit-learn

scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最

65.6k|★☆☆☆☆|今天
开发框架其他数据工具

gstack

gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置,旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战,gstack 提供了一套标准化解决方案,帮助开发者实现堪比二十人团队的高效产出。 这套配置特别适合希望提升交付效率的创始人、技术负责人,以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具,涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令(如 `/review` 进行代码审查、`/qa` 执行测试、`/plan-ceo-review` 规划功能),即可自动化处理从需求分析到部署上线的全链路任务。 所有操作基于 Markdown 和斜杠命令,无需复杂配置,完全免费且遵循 MIT 协议。gstack 不仅是一套工具集,更是一种现代化的软件工厂实践,让单人开发者也能拥有严谨的工程流程。

64.3k|★★☆☆☆|今天
Agent插件

keras

Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。

63.9k|★★☆☆☆|昨天
开发框架数据工具其他