openai-gemini

GitHub
3.5k 5.9k 简单 1 次阅读 今天MIT插件语言模型
AI 解读 由 AI 自动生成,仅供参考

openai-gemini 是一个轻量级的 API 代理工具,旨在将谷歌 Gemini 模型的免费服务能力转换为兼容 OpenAI 接口格式的服务端点。它主要解决了当前许多 AI 应用和开发工具仅支持 OpenAI 协议,而无法直接利用 Gemini generous 免费额度的痛点。通过部署此工具,用户可以让原本只认 OpenAI 的软件无缝调用 Gemini 模型,从而免费享受其强大的生成能力。

这款工具非常适合开发者、技术研究人员以及希望低成本体验大模型能力的普通用户。其核心亮点在于“无服务器”(Serverless)架构,无需维护传统后端服务器,即可一键免费部署到 Vercel、Netlify 或 Cloudflare 等主流云平台,同时也支持在本地通过 Node.js、Deno 或 Bun 运行。这种设计不仅大幅降低了使用门槛和维护成本,还确保了服务的高可用性与灵活性。只需配置好个人的 Google API 密钥,即可快速搭建专属的 AI 推理通道,让各类兼容 OpenAI 标准的客户端工具轻松接入 Gemini 生态。

使用场景

一位独立开发者希望利用本地支持的 OpenAI 兼容客户端(如 LM Studio 或特定 IDE 插件)来构建应用,但受限于预算无法承担高昂的 API 费用,同时看中了 Google Gemini 免费且额度 generous 的模型能力。

没有 openai-gemini 时

  • 工具兼容性受阻:常用的本地 AI 客户端仅支持 OpenAI 接口格式,无法直接调用功能强大的 Gemini 模型,导致开发者被迫放弃免费资源。
  • 开发成本高昂:若要使用兼容接口的模型,必须付费订阅 OpenAI 服务,对于个人项目或高频测试场景,Token 消耗带来的经济压力巨大。
  • 运维部署复杂:若尝试自行编写转换脚本,需搭建并维护独立的服务器环境,处理请求转发与格式适配,耗费大量精力在基础设施而非业务逻辑上。
  • 地域访问限制:身处非支持地区的开发者,即便拥有 Google API Key,也常因网络区域限制而无法直接在标准客户端中稳定使用服务。

使用 openai-gemini 后

  • 无缝接入生态:openai-gemini 将 Gemini API 实时转换为 OpenAI 标准格式,让原本只认 OpenAI 的本地客户端能直接“无感”调用 Gemini 模型。
  • 零成本高效开发:开发者只需配置一个免费的 Google API Key,即可通过 Vercel 或 Cloudflare 等 Serverless 平台免费部署代理,彻底消除 Token 费用顾虑。
  • 免运维快速上线:借助“一键部署”按钮,几分钟内即可在云端运行稳定的代理服务,无需关心服务器维护、扩容或底层代码逻辑。
  • 突破区域壁垒:配合简单的网络设置,该方案能有效规避区域限制,让全球开发者都能稳定地将 Gemini 作为后端大脑集成到现有工作流中。

openai-gemini 的核心价值在于打破了模型供应商与客户端工具之间的协议壁垒,让开发者能以零成本、零运维的方式自由组合最佳 AI 资源。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

不需要本地 GPU(基于云端 Serverless 架构,如 Vercel, Netlify, Cloudflare Workers)

内存

取决于部署平台,本地运行仅需常规开发内存(未说明具体数值)

依赖
notes该工具是一个代理服务器,用于将 OpenAI API 请求转发至 Google Gemini API。它无需本地维护服务器,可部署在 Vercel、Netlify 或 Cloudflare 等免费云端平台,也支持使用 Node.js、Deno 或 Bun 在本地运行。使用前需要获取 Google AI Studio 的 API Key。不支持直接通过浏览器访问,需配置客户端软件指向部署后的 API 地址。
python不需要 Python(主要基于 Node.js, Deno, Bun 运行时)
Node.js
Deno
Bun
openai-gemini hero image

快速开始

为什么

Gemini API 提供一个免费层级,具有慷慨的配额限制,但仍然有许多工具仅支持 OpenAI API。

本项目提供了一个免费的、兼容 OpenAI 的个人代理端点。

无服务器?

尽管它运行在云端,但无需进行服务器维护。它可以轻松部署到各种云服务商,且完全免费 (配额足够满足个人使用需求)。

[!TIP] 你也可以选择在本地运行代理端点!(详见下文:本地运行 — 使用 Node、Deno 或 Bun

如何开始

你需要一个属于自己的 Google API 密钥

[!IMPORTANT] 即使你位于支持的地区之外, 仍然可以通过 VPN 获取一个 API 密钥。

按照以下说明将项目部署到任意一家云服务商。你需要先在该平台上注册一个账号。

如果你选择“一键部署”按钮,系统会引导你先 fork 该项目仓库,这是实现持续集成(CI)所必需的步骤。

使用 Vercel 部署

使用 Vercel 部署

  • 或者也可以通过 Vercel CLI 进行部署: vercel deploy
  • 本地运行:vercel dev
  • Vercel Functions 存在限制(使用 Edge 运行时)。

使用 Netlify 部署

使用 Netlify 部署

  • 或者也可以通过 Netlify CLI 这样部署: netlify deploy
  • 本地运行:netlify dev
  • 提供两种不同的 API 基础路径:
    • /v1(例如 /v1/chat/completions 端点) Functions 存在限制
    • /edge/v1 Edge functions 存在限制

使用 Cloudflare Workers 部署

使用 Cloudflare Workers 部署

使用 Deno 部署

详情请参见 此处

本地运行 — 使用 Node、Deno 或 Bun

仅适用于 Node.js:npm install

然后执行:npm run start / npm run start:deno / npm run start:bun

开发模式(监听源码变化)

仅适用于 Node.js:npm install --include=dev

然后执行:npm run dev / npm run dev:deno / npm run dev:bun

如何使用

如果你在浏览器中打开新部署的站点,只会看到一条 404 Not Found 的提示信息。这是正常的,因为该 API 并非设计用于直接通过浏览器访问。要使用它,你需要在你的软件设置中填入 API 地址和 Gemini API 密钥。

[!NOTE] 并非所有软件工具都允许覆盖 OpenAI 的端点,但许多工具是支持的 (不过这些设置有时可能隐藏得很深)。

通常,你需要以如下格式指定 API 基础路径: https://my-super-proxy.vercel.app/v1

相关的字段可能会被标记为“OpenAI 代理”。你可能需要在“高级设置”或其他类似部分中查找。或者,它也可能位于某个配置文件中(请参考相关文档获取详细信息)。

对于一些命令行工具,你可能需要设置环境变量,例如:

OPENAI_BASE_URL="https://my-super-proxy.vercel.app/v1"

或者:

OPENAI_API_BASE="https://my-super-proxy.vercel.app/v1"

模型

请求会优先使用名称以 “gemini-”、“gemma-” 或 “models/” 开头的模型。否则,将采用以下默认值:

  • chat/completionsgemini-flash-latest
  • embeddingsgemini-embedding-001

内置工具

要使用网页搜索工具,可以在模型名称后加上 :search(例如:“gemini-2.5-flash:search”)。

注意:annotations 消息属性尚未实现。

多媒体

根据 OpenAI 的[规范],支持[Vision]和[音频]输入。通过 inlineData 实现。

[Vision]:https://platform.openai.com/docs/guides/images-vision?api-mode=chat&format=url#giving-a-model-images-as-input
[音频]:https://platform.openai.com/docs/guides/audio?example=audio-in&lang=curl#add-audio-to-your-existing-application
[规范]:https://platform.openai.com/docs/api-reference/chat/create

Gemini 特有的功能

Gemini 支持一些 OpenAI 模型不具备的功能,但可以通过 extra_body 字段启用。其中最值得注意的是 thinking_config

更多细节请参阅 Gemini API 文档


支持的 API 端点及适用参数

  • chat/completions

    目前,大多数同时适用于两个 API 的参数都已经实现。

    • messages
      • content
      • role
        • "system"(=>system_instruction
        • "user"
        • "assistant"
        • "tool"
      • tool_calls
    • model
    • frequency_penalty
    • logit_bias
    • logprobs
    • top_logprobs
    • max_tokensmax_completion_tokens
    • ncandidateCount <8,不支持流式输出)
    • presence_penalty
    • reasoning_effort
    • response_format
      • "json_object"
      • "json_schema"(仅支持 OpenAPI 3.0 规范中的部分结构)
      • "text"
    • seed
    • stop:字符串或数组(stopSequences [1,5])
    • stream
    • stream_options
      • include_usage
    • temperature(OpenAI 范围为 0.0–2.0,而 Gemini 支持至无穷大)
    • top_p
    • tools
    • tool_choice
    • parallel_tool_calls(在 Gemini 中始终启用)
    • extra_body
  • completions

  • embeddings

    • dimensions
  • models

版本历史

gemini-32025/12/22
gemini-2.5-flash2025/07/03
gemini-2.0-flash-thinking-exp2024/12/26
learnlm-1.5-pro-experimental2024/11/26
gemini-1.5-x-0022024/09/25
gemini-1.5-flash2024/07/25
gemini-1.5-pro2024/04/10

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

147.9k|★★☆☆☆|今天
开发框架Agent语言模型

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|3天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|3天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|4天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|昨天
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|昨天
语言模型数据工具其他