[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PublicAffairs--openai-gemini":3,"tool-PublicAffairs--openai-gemini":65},[4,17,26,36,44,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[25,13],"插件",{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,"2026-04-08T11:03:08",[35,52,53,25,14,54,15,13,55],"数据工具","视频","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,52,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":99,"github_topics":100,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":155},5951,"PublicAffairs\u002Fopenai-gemini","openai-gemini","Gemini ➜ OpenAI API proxy. Serverless!","openai-gemini 是一个轻量级的 API 代理工具，旨在将谷歌 Gemini 模型的免费服务能力转换为兼容 OpenAI 接口格式的服务端点。它主要解决了当前许多 AI 应用和开发工具仅支持 OpenAI 协议，而无法直接利用 Gemini  generous 免费额度的痛点。通过部署此工具，用户可以让原本只认 OpenAI 的软件无缝调用 Gemini 模型，从而免费享受其强大的生成能力。\n\n这款工具非常适合开发者、技术研究人员以及希望低成本体验大模型能力的普通用户。其核心亮点在于“无服务器”（Serverless）架构，无需维护传统后端服务器，即可一键免费部署到 Vercel、Netlify 或 Cloudflare 等主流云平台，同时也支持在本地通过 Node.js、Deno 或 Bun 运行。这种设计不仅大幅降低了使用门槛和维护成本，还确保了服务的高可用性与灵活性。只需配置好个人的 Google API 密钥，即可快速搭建专属的 AI 推理通道，让各类兼容 OpenAI 标准的客户端工具轻松接入 Gemini 生态。","## Why\n\nThe Gemini API has [Free](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fpricing#free) Tier\nwith *generous limits*, but there are still many tools that work exclusively with the OpenAI API.\n\nThis project provides a personal OpenAI-compatible endpoint for free.\n\n\n## Serverless?\n\nAlthough it runs in the cloud, it does not require server maintenance.\nIt can be easily deployed to various providers for free\n(with generous limits suitable for personal use).\n\n> [!TIP]\n> Running the proxy endpoint locally is also an [option](#serve-locally---with-node-deno-bun)!\n\n\n## How to start\n\nYou will need a personal Google [API key](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapi-keys).\n\n> [!IMPORTANT]\n> Even if you are located outside of the [supported regions](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Favailable-regions#available_regions),\n> it is still possible to acquire one using a VPN.\n\nDeploy the project to one of the providers, using the instructions below.\nYou will need to set up an account there.\n\nIf you opt for “button-deploy”, you'll be guided through the process of forking the repository first,\nwhich is necessary for continuous integration (CI).\n\n\n### Deploy with Vercel\n\n [![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPublicAffairs_openai-gemini_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini&repository-name=my-openai-gemini)\n- Alternatively can be deployed with [cli](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fcli):\n  `vercel deploy`\n- Serve locally: `vercel dev`\n- Vercel _Functions_ [limitations](https:\u002F\u002Fvercel.com\u002Fdocs\u002Ffunctions\u002Flimitations) (with _Edge_ runtime)\n\n\n### Deploy to Netlify\n\n[![Deploy to Netlify](https:\u002F\u002Fwww.netlify.com\u002Fimg\u002Fdeploy\u002Fbutton.svg)](https:\u002F\u002Fapp.netlify.com\u002Fstart\u002Fdeploy?repository=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini&integrationName=integrationName&integrationSlug=integrationSlug&integrationDescription=integrationDescription)\n- Alternatively can be deployed with [cli](https:\u002F\u002Fdocs.netlify.com\u002Fcli\u002Fget-started\u002F):\n  `netlify deploy`\n- Serve locally: `netlify dev`\n- Two different api bases provided:\n  - `\u002Fv1` (e.g. `\u002Fv1\u002Fchat\u002Fcompletions` endpoint)  \n    _Functions_ [limits](https:\u002F\u002Fdocs.netlify.com\u002Fbuild\u002Ffunctions\u002Fget-started\u002F#synchronous-function)\n  - `\u002Fedge\u002Fv1`  \n    _Edge functions_ [limits](https:\u002F\u002Fdocs.netlify.com\u002Fbuild\u002Fedge-functions\u002Flimits\u002F)\n\n\n### Deploy to Cloudflare\n\n[![Deploy to Cloudflare Workers](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPublicAffairs_openai-gemini_readme_588fab17561f.png)](https:\u002F\u002Fdeploy.workers.cloudflare.com\u002F?url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini)\n- Alternatively can be deployed manually pasting content of [`src\u002Fworker.mjs`](src\u002Fworker.mjs)\n  to https:\u002F\u002Fworkers.cloudflare.com\u002Fplayground (see there `Deploy` button).\n- Alternatively can be deployed with [cli](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers\u002Fwrangler\u002F):\n  `wrangler deploy`\n- Serve locally: `wrangler dev`\n- _Worker_ [limits](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers\u002Fplatform\u002Flimits\u002F#worker-limits)\n\n\n### Deploy to Deno\n\nSee details [here](https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fdiscussions\u002F19).\n\n\n### Serve locally - with Node, Deno, Bun\n\nOnly for Node: `npm install`.\n\nThen `npm run start` \u002F `npm run start:deno` \u002F `npm run start:bun`.\n\n\n#### Dev mode (watch source changes)\n\nOnly for Node: `npm install --include=dev`\n\nThen: `npm run dev` \u002F `npm run dev:deno` \u002F `npm run dev:bun`.\n\n\n## How to use\nIf you open your newly-deployed site in a browser, you will only see a `404 Not Found` message. This is expected, as the API is not designed for direct browser access.\nTo utilize it, you should enter your API address and your Gemini API key into the corresponding fields in your software settings.\n\n> [!NOTE]\n> Not all software tools allow overriding the OpenAI endpoint, but many do\n> (however these settings can sometimes be deeply hidden).\n\nTypically, you should specify the API base in this format:  \n`https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1`\n\nThe relevant field may be labeled as \"_OpenAI proxy_\".\nYou might need to look under \"_Advanced settings_\" or similar sections.\nAlternatively, it could be in some config file (check the relevant documentation for details).\n\nFor some command-line tools, you may need to set an environment variable, _e.g._:\n```sh\nOPENAI_BASE_URL=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n```\n_..or_:\n```sh\nOPENAI_API_BASE=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n```\n\n\n## Models\n\nRequests use the specified [model] if its name starts with \"gemini-\", \"gemma-\", or \"models\u002F\".\nOtherwise, these defaults apply:\n\n- `chat\u002Fcompletions`: `gemini-flash-latest`\n- `embeddings`: `gemini-embedding-001`\n\n[model]: https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\n\n\n## Built-in tools\n\nTo use the **web search** tool, append \":search\" to the model name\n(e.g., \"gemini-2.5-flash:search\").\n\nNote: The `annotations` message property is not implemented.\n\n\n## Media\n\n[Vision] and [audio] input supported as per OpenAI [specs].\nImplemented via [`inlineData`](https:\u002F\u002Fai.google.dev\u002Fapi\u002Fcaching#Part).\n\n[vision]: https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fimages-vision?api-mode=chat&format=url#giving-a-model-images-as-input\n[audio]: https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Faudio?example=audio-in&lang=curl#add-audio-to-your-existing-application\n[specs]: https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fchat\u002Fcreate\n\n\n## Gemini-specific functions\n\nThere are several features supported by Gemini that are not available in OpenAI models\nbut can be enabled using the `extra_body` field.\nThe most notable of these is [`thinking_config`](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fopenai#thinking).\n\nFor more details, refer to the [Gemini API docs](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fopenai#extra-body).\n\n---\n\n## Supported API endpoints and applicable parameters\n\n- [x] `chat\u002Fcompletions`\n\n  Currently, most of the parameters that are applicable to both APIs have been implemented.\n  \u003Cdetails>\n\n  - [x] `messages`\n      - [x] `content`\n      - [x] `role`\n          - [x] \"system\" (=>`system_instruction`)\n          - [x] \"user\"\n          - [x] \"assistant\"\n          - [x] \"tool\"\n      - [x] `tool_calls`\n  - [x] `model`\n  - [x] `frequency_penalty`\n  - [ ] `logit_bias`\n  - [ ] `logprobs`\n  - [ ] `top_logprobs`\n  - [x] `max_tokens`, `max_completion_tokens`\n  - [x] `n` (`candidateCount` \u003C8, not for streaming)\n  - [x] `presence_penalty`\n  - [x] `reasoning_effort`\n  - [x] `response_format`\n      - [x] \"json_object\"\n      - [x] \"json_schema\" (a select subset of an OpenAPI 3.0 schema object)\n      - [x] \"text\"\n  - [x] `seed`\n  - [x] `stop`: string|array (`stopSequences` [1,5])\n  - [x] `stream`\n  - [x] `stream_options`\n      - [x] `include_usage`\n  - [x] `temperature` (0.0..2.0 for OpenAI, but Gemini supports up to infinity)\n  - [x] `top_p`\n  - [x] `tools`\n  - [x] `tool_choice`\n  - [ ] `parallel_tool_calls` (is always active in Gemini)\n  - [x] [`extra_body`](#gemini-specific-functions)\n\n  \u003C\u002Fdetails>\n- [ ] `completions`\n- [x] `embeddings`\n  - [x] `dimensions`\n- [x] `models`\n","## 为什么\n\nGemini API 提供一个[免费](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fpricing#free)层级，具有*慷慨的配额限制*，但仍然有许多工具仅支持 OpenAI API。\n\n本项目提供了一个免费的、兼容 OpenAI 的个人代理端点。\n\n\n## 无服务器？\n\n尽管它运行在云端，但无需进行服务器维护。它可以轻松部署到各种云服务商，且完全免费\n（配额足够满足个人使用需求）。\n\n> [!TIP]\n> 你也可以选择在本地运行代理端点！（详见下文：[本地运行 — 使用 Node、Deno 或 Bun](#serve-locally---with-node-deno-bun)）\n\n\n## 如何开始\n\n你需要一个属于自己的 Google [API 密钥](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapi-keys)。\n\n> [!IMPORTANT]\n> 即使你位于[支持的地区](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Favailable-regions#available_regions)之外，\n> 仍然可以通过 VPN 获取一个 API 密钥。\n\n按照以下说明将项目部署到任意一家云服务商。你需要先在该平台上注册一个账号。\n\n如果你选择“一键部署”按钮，系统会引导你先 fork 该项目仓库，这是实现持续集成（CI）所必需的步骤。\n\n\n### 使用 Vercel 部署\n\n[![使用 Vercel 部署](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPublicAffairs_openai-gemini_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini&repository-name=my-openai-gemini)\n- 或者也可以通过 [Vercel CLI](https:\u002F\u002Fvercel.com\u002Fdocs\u002Fcli) 进行部署：\n  `vercel deploy`\n- 本地运行：`vercel dev`\n- Vercel _Functions_ 存在[限制](https:\u002F\u002Fvercel.com\u002Fdocs\u002Ffunctions\u002Flimitations)（使用 _Edge_ 运行时）。\n\n\n### 使用 Netlify 部署\n\n[![使用 Netlify 部署](https:\u002F\u002Fwww.netlify.com\u002Fimg\u002Fdeploy\u002Fbutton.svg)](https:\u002F\u002Fapp.netlify.com\u002Fstart\u002Fdeploy?repository=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini&integrationName=integrationName&integrationSlug=integrationSlug&integrationDescription=integrationDescription)\n- 或者也可以通过 [Netlify CLI](https:\u002F\u002Fdocs.netlify.com\u002Fcli\u002Fget-started\u002F) 这样部署：\n  `netlify deploy`\n- 本地运行：`netlify dev`\n- 提供两种不同的 API 基础路径：\n  - `\u002Fv1`（例如 `\u002Fv1\u002Fchat\u002Fcompletions` 端点）\n    _Functions_ 存在[限制](https:\u002F\u002Fdocs.netlify.com\u002Fbuild\u002Ffunctions\u002Fget-started\u002F#synchronous-function)\n  - `\u002Fedge\u002Fv1`\n    _Edge functions_ 存在[限制](https:\u002F\u002Fdocs.netlify.com\u002Fbuild\u002Fedge-functions\u002Flimits\u002F)\n\n\n### 使用 Cloudflare Workers 部署\n\n[![使用 Cloudflare Workers 部署](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPublicAffairs_openai-gemini_readme_588fab17561f.png)](https:\u002F\u002Fdeploy.workers.cloudflare.com\u002F?url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini)\n- 或者也可以手动将 [`src\u002Fworker.mjs`](src\u002Fworker.mjs) 文件的内容粘贴到 https:\u002F\u002Fworkers.cloudflare.com\u002Fplayground（点击“Deploy”按钮）。\n- 或者还可以通过 [Cloudflare Wrangler CLI](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers\u002Fwrangler\u002F) 进行部署：\n  `wrangler deploy`\n- 本地运行：`wrangler dev`\n- _Worker_ 存在[限制](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers\u002Fplatform\u002Flimits\u002F#worker-limits)。\n\n\n### 使用 Deno 部署\n\n详情请参见 [此处](https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fdiscussions\u002F19)。\n\n\n### 本地运行 — 使用 Node、Deno 或 Bun\n\n仅适用于 Node.js：`npm install`。\n\n然后执行：`npm run start` \u002F `npm run start:deno` \u002F `npm run start:bun`。\n\n\n#### 开发模式（监听源码变化）\n\n仅适用于 Node.js：`npm install --include=dev`\n\n然后执行：`npm run dev` \u002F `npm run dev:deno` \u002F `npm run dev:bun`。\n\n\n## 如何使用\n如果你在浏览器中打开新部署的站点，只会看到一条 `404 Not Found` 的提示信息。这是正常的，因为该 API 并非设计用于直接通过浏览器访问。要使用它，你需要在你的软件设置中填入 API 地址和 Gemini API 密钥。\n\n> [!NOTE]\n> 并非所有软件工具都允许覆盖 OpenAI 的端点，但许多工具是支持的\n> （不过这些设置有时可能隐藏得很深）。\n\n通常，你需要以如下格式指定 API 基础路径：\n`https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1`\n\n相关的字段可能会被标记为“OpenAI 代理”。你可能需要在“高级设置”或其他类似部分中查找。或者，它也可能位于某个配置文件中（请参考相关文档获取详细信息）。\n\n对于一些命令行工具，你可能需要设置环境变量，例如：\n```sh\nOPENAI_BASE_URL=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n```\n或者：\n```sh\nOPENAI_API_BASE=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n```\n\n\n## 模型\n\n请求会优先使用名称以 “gemini-”、“gemma-” 或 “models\u002F” 开头的模型。否则，将采用以下默认值：\n\n- `chat\u002Fcompletions`：`gemini-flash-latest`\n- `embeddings`：`gemini-embedding-001`\n\n\n## 内置工具\n\n要使用**网页搜索**工具，可以在模型名称后加上 `:search`（例如：“gemini-2.5-flash:search”）。\n\n注意：`annotations` 消息属性尚未实现。\n\n\n## 多媒体\n\n根据 OpenAI 的[规范]，支持[Vision]和[音频]输入。通过 [`inlineData`](https:\u002F\u002Fai.google.dev\u002Fapi\u002Fcaching#Part) 实现。\n\n[Vision]：https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fimages-vision?api-mode=chat&format=url#giving-a-model-images-as-input  \n[音频]：https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Faudio?example=audio-in&lang=curl#add-audio-to-your-existing-application  \n[规范]：https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fapi-reference\u002Fchat\u002Fcreate\n\n\n## Gemini 特有的功能\n\nGemini 支持一些 OpenAI 模型不具备的功能，但可以通过 `extra_body` 字段启用。其中最值得注意的是 [`thinking_config`](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fopenai#thinking)。\n\n更多细节请参阅 [Gemini API 文档](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fopenai#extra-body)。\n\n---\n\n## 支持的 API 端点及适用参数\n\n- [x] `chat\u002Fcompletions`\n\n  目前，大多数同时适用于两个 API 的参数都已经实现。  \n  \u003Cdetails>\n\n  - [x] `messages`\n      - [x] `content`\n      - [x] `role`\n          - [x] \"system\"（=>`system_instruction`）\n          - [x] \"user\"\n          - [x] \"assistant\"\n          - [x] \"tool\"\n      - [x] `tool_calls`\n  - [x] `model`\n  - [x] `frequency_penalty`\n  - [ ] `logit_bias`\n  - [ ] `logprobs`\n  - [ ] `top_logprobs`\n  - [x] `max_tokens`、`max_completion_tokens`\n  - [x] `n`（`candidateCount` \u003C8，不支持流式输出）\n  - [x] `presence_penalty`\n  - [x] `reasoning_effort`\n  - [x] `response_format`\n      - [x] \"json_object\"\n      - [x] \"json_schema\"（仅支持 OpenAPI 3.0 规范中的部分结构）\n      - [x] \"text\"\n  - [x] `seed`\n  - [x] `stop`：字符串或数组（`stopSequences` [1,5]）\n  - [x] `stream`\n  - [x] `stream_options`\n      - [x] `include_usage`\n  - [x] `temperature`（OpenAI 范围为 0.0–2.0，而 Gemini 支持至无穷大）\n  - [x] `top_p`\n  - [x] `tools`\n  - [x] `tool_choice`\n  - [ ] `parallel_tool_calls`（在 Gemini 中始终启用）\n  - [x] [`extra_body`](#gemini-specific-functions)\n\n  \u003C\u002Fdetails>\n- [ ] `completions`\n- [x] `embeddings`\n  - [x] `dimensions`\n- [x] `models`","# openai-gemini 快速上手指南\n\n`openai-gemini` 是一个开源代理工具，可将 Google Gemini API 转换为 OpenAI 兼容的接口。利用 Gemini API  generous 的免费额度，让仅支持 OpenAI 格式的工具也能免费使用强大的 Gemini 模型。\n\n## 环境准备\n\n在开始之前，请确保满足以下条件：\n\n1.  **Google API Key**\n    *   访问 [Google AI Studio](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapi-keys) 获取个人 API Key。\n    *   **注意**：如果您位于不支持的地区，可能需要使用网络工具（如 VPN）才能成功获取 Key。\n2.  **部署平台账号**\n    *   选择一个无服务器部署平台（推荐 Vercel、Netlify 或 Cloudflare），并注册账号。\n    *   这些平台提供免费层级，适合个人使用且无需维护服务器。\n3.  **本地开发环境（可选）**\n    *   如果选择本地运行，需安装 **Node.js**、**Deno** 或 **Bun** 其中之一。\n    *   若使用 Node.js 进行开发模式运行，需确保 `npm` 可用。\n\n## 安装与部署\n\n本项目主要通过云端无服务器平台部署，也可本地运行。\n\n### 方案一：一键部署到 Vercel（推荐）\n\n这是最简便的方式，适合大多数用户。\n\n1.  点击以下按钮克隆仓库并部署：\n    [![Deploy with Vercel](https:\u002F\u002Fvercel.com\u002Fbutton)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini&repository-name=my-openai-gemini)\n2.  按照引导完成仓库 Fork 和部署流程（Fork 是持续集成所必需的）。\n3.  部署完成后，记下生成的域名（例如 `https:\u002F\u002Fmy-super-proxy.vercel.app`）。\n\n*其他部署方式：*\n*   **Netlify**: 点击 [Deploy to Netlify](https:\u002F\u002Fapp.netlify.com\u002Fstart\u002Fdeploy?repository=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini) 按钮。\n*   **Cloudflare Workers**: 点击 [Deploy to Cloudflare Workers](https:\u002F\u002Fdeploy.workers.cloudflare.com\u002F?url=https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini) 按钮。\n*   **命令行部署 (以 Vercel 为例)**:\n    ```bash\n    vercel deploy\n    ```\n\n### 方案二：本地运行\n\n如果您希望在本地测试或作为本地服务运行：\n\n1.  克隆项目代码。\n2.  安装依赖（仅 Node 环境需要）：\n    ```bash\n    npm install\n    ```\n3.  启动服务：\n    ```bash\n    # Node.js\n    npm run start\n    \n    # Deno\n    npm run start:deno\n    \n    # Bun\n    npm run start:bun\n    ```\n4.  **开发模式**（监听文件变化）：\n    ```bash\n    # 先安装开发依赖\n    npm install --include=dev\n    \n    # 启动开发服务\n    npm run dev\n    # 或 npm run dev:deno \u002F npm run dev:bun\n    ```\n\n## 基本使用\n\n部署成功后，直接在浏览器访问域名会显示 `404 Not Found`，这是正常现象，因为该服务专为 API 调用设计。\n\n### 1. 配置客户端\n\n在您使用的 AI 工具（如 Chatbox, NextChat, 或各类 CLI 工具）中，找到设置页面，修改以下两项：\n\n*   **API Base URL (接口地址)**:\n    填入您的部署域名加上 `\u002Fv1` 后缀。\n    格式：`https:\u002F\u002F\u003C您的部署域名>\u002Fv1`\n    示例：`https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1`\n\n*   **API Key**:\n    填入您在“环境准备”阶段获取的 **Google API Key**。\n\n> **提示**：部分软件中该选项可能标记为 \"OpenAI proxy\"、\"Custom Endpoint\" 或在 \"Advanced settings\" 中。\n\n### 2. 环境变量配置（命令行工具）\n\n对于某些命令行工具，您可以通过设置环境变量来指定代理地址：\n\n```sh\nexport OPENAI_BASE_URL=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n# 或者\nexport OPENAI_API_BASE=\"https:\u002F\u002Fmy-super-proxy.vercel.app\u002Fv1\"\n```\n\n### 3. 模型使用规则\n\n*   **自动识别**：如果请求中的模型名称以 `gemini-`, `gemma-`, 或 `models\u002F` 开头，将直接使用指定模型。\n*   **默认映射**：\n    *   聊天补全 (`chat\u002Fcompletions`) 默认使用：`gemini-flash-latest`\n    *   嵌入向量 (`embeddings`) 默认使用：`gemini-embedding-001`\n\n### 4. 高级功能示例\n\n*   **启用联网搜索**：在模型名称后添加 `:search`。\n    *   示例模型名：`gemini-2.5-flash:search`\n*   **使用 Gemini 特有功能**：通过 `extra_body` 参数传递，例如开启思考模式 (`thinking_config`)。\n*   **多模态支持**：支持传入图片和音频数据，符合 OpenAI 规范。","一位独立开发者希望利用本地支持的 OpenAI 兼容客户端（如 LM Studio 或特定 IDE 插件）来构建应用，但受限于预算无法承担高昂的 API 费用，同时看中了 Google Gemini 免费且额度 generous 的模型能力。\n\n### 没有 openai-gemini 时\n- **工具兼容性受阻**：常用的本地 AI 客户端仅支持 OpenAI 接口格式，无法直接调用功能强大的 Gemini 模型，导致开发者被迫放弃免费资源。\n- **开发成本高昂**：若要使用兼容接口的模型，必须付费订阅 OpenAI 服务，对于个人项目或高频测试场景，Token 消耗带来的经济压力巨大。\n- **运维部署复杂**：若尝试自行编写转换脚本，需搭建并维护独立的服务器环境，处理请求转发与格式适配，耗费大量精力在基础设施而非业务逻辑上。\n- **地域访问限制**：身处非支持地区的开发者，即便拥有 Google API Key，也常因网络区域限制而无法直接在标准客户端中稳定使用服务。\n\n### 使用 openai-gemini 后\n- **无缝接入生态**：openai-gemini 将 Gemini API 实时转换为 OpenAI 标准格式，让原本只认 OpenAI 的本地客户端能直接“无感”调用 Gemini 模型。\n- **零成本高效开发**：开发者只需配置一个免费的 Google API Key，即可通过 Vercel 或 Cloudflare 等 Serverless 平台免费部署代理，彻底消除 Token 费用顾虑。\n- **免运维快速上线**：借助“一键部署”按钮，几分钟内即可在云端运行稳定的代理服务，无需关心服务器维护、扩容或底层代码逻辑。\n- **突破区域壁垒**：配合简单的网络设置，该方案能有效规避区域限制，让全球开发者都能稳定地将 Gemini 作为后端大脑集成到现有工作流中。\n\nopenai-gemini 的核心价值在于打破了模型供应商与客户端工具之间的协议壁垒，让开发者能以零成本、零运维的方式自由组合最佳 AI 资源。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPublicAffairs_openai-gemini_0b8efa21.png","PublicAffairs","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPublicAffairs_d65b4697.png",null,"https:\u002F\u002Fgithub.com\u002FPublicAffairs",[81],{"name":82,"color":83,"percentage":84},"JavaScript","#f1e05a",100,3459,5934,"2026-04-09T12:06:50","MIT","Linux, macOS, Windows","不需要本地 GPU（基于云端 Serverless 架构，如 Vercel, Netlify, Cloudflare Workers）","取决于部署平台，本地运行仅需常规开发内存（未说明具体数值）",{"notes":93,"python":94,"dependencies":95},"该工具是一个代理服务器，用于将 OpenAI API 请求转发至 Google Gemini API。它无需本地维护服务器，可部署在 Vercel、Netlify 或 Cloudflare 等免费云端平台，也支持使用 Node.js、Deno 或 Bun 在本地运行。使用前需要获取 Google AI Studio 的 API Key。不支持直接通过浏览器访问，需配置客户端软件指向部署后的 API 地址。","不需要 Python（主要基于 Node.js, Deno, Bun 运行时）",[96,97,98],"Node.js","Deno","Bun",[25,15],[101,102,103,104,105,106],"chatgpt-api","gemini-ai","openai","proxy","serverless","gemini","2026-03-27T02:49:30.150509","2026-04-10T02:43:47.516906",[110,115,120,125,130,135,140,145,150],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},27000,"在 Cloudflare Workers 部署时遇到 'No such module node:buffer' 错误怎么办？","这是因为当前版本依赖 `wrangler.toml` 配置选项，不能直接复制代码到 Playground。解决方法是使用专门适配的分支代码，或者确保在本地部署时正确配置了 `wrangler.toml` 文件中的兼容性设置。维护者提供了一个可用的分支链接：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fblob\u002Fresize-images\u002Fsrc\u002Fworker.mjs","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F1",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},27001,"使用 OpenAI-Translator 等客户端时报 '400 INVALID_ARGUMENT' 错误的原因是什么？","该错误通常是因为客户端（如旧版 OpenAI-Translator）发送了 Gemini API 不支持的特殊 Prompt 格式（例如将最后一条消息伪装成模型回复）。Gemini API 严格要求请求中必须包含文本参数且格式符合规范。建议检查客户端版本，或确认该软件是否已原生支持 Gemini。如果软件更新了 Prompt 逻辑导致不兼容，可能需要回退到旧版本（如 v0.3.30）或等待软件更新。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F3",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},27002,"部署后在国内访问失败，但在 VPN 下正常，如何解决？","这通常是因为部署区域不在 Google Gemini API 的支持列表中。Google AI 服务仅在特定地区可用。建议将项目部署在支持的区域内。对于 Vercel 用户，可以在部署设置中选择支持的地区；对于 Cloudflare Workers，需确保账户区域合规。如果无法更改区域，可以尝试使用 Deno Deploy 或其他支持所需区域的平台。参考支持地区列表：https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Favailable-regions","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F56",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},27003,"如何在使用 gemini-openai 接口时避免 'must have a text parameter' 错误？","当请求体中包含图片（image_url）但缺少纯文本内容时，Gemini API 会报错。即使系统提示词（system prompt）存在，某些情况下仍需显式包含文本参数。确保在 user 或 system 的消息内容数组中，除了图片对象外，至少包含一个类型为 'text' 的对象，或者确保整体请求结构符合 Gemini 对多模态输入的严格校验要求。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F31",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},27004,"该项目是否支持 Function Calling（工具调用）功能？","是的，维护者已经实现了 Function Calling 支持。用户可以拉取最新代码进行测试。如果有自定义需求，也可以参考社区成员基于源码修改的版本，例如：https:\u002F\u002Fgithub.com\u002Ffeng569208766\u002Fmy-openai-gemini","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F48",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},27005,"是否支持 Gemini 的内置工具（如 googleSearch）？","支持。维护者已经实现了 Google Search 等内置工具的功能。用户可以查看项目 README 中的 'Built-in tools' 章节了解使用方法并进行测试。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F33",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},27006,"一键部署到 Vercel 后出现 404 错误且找不到输入 API Key 的地方？","这是预期行为。部署后的端点是供个人使用的私有代理，为了安全起见，默认首页不会显示配置信息或 API Key 输入框，防止被搜索引擎索引或被他人滥用。部署成功后，您应该直接在您的客户端软件（如 Chatbox、OpenAI-Translator 等）中配置该部署地址和您的 Google API Key，而不是访问部署的 URL 网页。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F2",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},27007,"如何指定使用 gemini-1.5-flash 模型？","项目默认可能使用其他模型，但你可以通过修改源代码来指定。只需在源码中找到定义模型常量的地方（例如 `const MODEL = \"gemini-1.5-pro-latest\"`），将其修改为 `const MODEL = \"gemini-1.5-flash\"` 即可。维护者也确认已添加对该模型的支持。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F9",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},27008,"为什么指定 'gpt-4o' 时实际使用的是 Gemini 模型，且偶尔遇到 429 错误？","这是一个转换代理，当你指定 'gpt-4o' 时，底层实际调用的是 'gemini-1.5-pro-latest' 模型。遇到 429 错误（请求过多）是由于 Google API 的速率限制，这超出了代理的控制范围。解决方法是等待一段时间后重试，或者在客户端切换到其他模型（如 flash 版本）以规避限制。","https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fissues\u002F32",[156,161,166,171,176,181,186],{"id":157,"version":158,"summary_zh":159,"released_at":160},180124,"gemini-3","现已支持 Gemini 3 模型！\r\n\r\n参考文献：\n- https:\u002F\u002Fblog.google\u002Fproducts\u002Fgemini\u002Fgemini-3\u002F\n- https:\u002F\u002Fblog.google\u002Fproducts\u002Fgemini\u002Fgemini-3-flash\u002F\n\n改进的思考支持：\n  - 当 `includeThoughts: true` 时，模型的内部推理输出现在被包裹在 `\u003Cthought>` 标签中。\n  - 处理 `thoughtSignature`（通过 `.extra_content`）。\n    这是 Gemini 3 模型支持工具功能的关键！\n  - 更好的 `reasoning_effort` 支持，因为它应直接映射到 Gemini 3 模型的 `thinkingLevel`。\n\n此外：\n  - 默认模型已更新为 `gemini-flash-latest` 和 `gemini-embedding-001`。\n  - 其他一些增强。\n\n![gemini-3_model-blog_header-dark width-1200 format-webp](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fdf3e904b-14aa-457c-a8f3-0684e38ddbac)\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Fgemini-2.5-flash...gemini-3","2025-12-22T19:25:28",{"id":162,"version":163,"summary_zh":164,"released_at":165},180125,"gemini-2.5-flash","`gemini-2.5-flash` 现在已作为默认模型使用！\n\n参考：https:\u002F\u002Fblog.google\u002Fproducts\u002Fgemini\u002Fgemini-2-5-model-family-expands\u002F\n\n其他改进：\n\n- 支持 `extra_body`、`reasoning_effort` 和 `seed` 参数\n- 实现了对 `tools` 的处理\n- 支持网络搜索\n- 支持 `gemma-...` 模型\n- 支持 `gemini-...` 嵌入模型\n- 其他各项优化\n\n![2 5_bundle_keyword_blog_header_2 width-1200 format-webp](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fbb4398c7-8a6a-40be-9864-7c5e92bbdf74)\n\n**完整更新日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Fgemini-2.0-flash-thinking-exp...gemini-2.5-flash","2025-07-03T21:10:29",{"id":167,"version":168,"summary_zh":169,"released_at":170},180126,"gemini-2.0-flash-thinking-exp","`gemini-2.0-flash-thinking-exp` 已支持！\n\n参考：https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fthinking-mode\n\n其他改进：\n\n- 支持 `frequency_penalty`、`presence_penalty` 和 `max_completion_tokens`\n- 改进了 `response_format` 的处理，支持 `\"json_schema\"`\n- 支持 `responseMimeType`: `\"text\u002Fx.enum\"`\n- 其他重要的修复\n\n![Gemini2 0_1 原图](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F1090724a-6ed1-444d-97c7-74f74f008ebf)\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Flearnlm-1.5-pro-experimental...gemini-2.0-flash-thinking-exp","2024-12-26T23:04:35",{"id":172,"version":173,"summary_zh":174,"released_at":175},180127,"learnlm-1.5-pro-experimental","`learnlm-1.5-pro-experimental` 模型现已支持！\n\n参考：\n\n- https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Flearnlm\n- https:\u002F\u002Fblog.google\u002Foutreach-initiatives\u002Feducation\u002Fgoogle-learnlm-gemini-generative-ai\u002F\n\n其他改进：\n\n- 支持 `embeddings` 和 `models` API 端点。\n- 可在本地使用 Node、Deno、Bun 进行部署和运行。\n- 支持部署到 Deno 平台。\n- 支持音频输入。\n\n![image](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd515c7a2-1079-46b3-8950-656da5325ef0)\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Fgemini-1.5-x-002...learnlm-1.5-pro-experimental","2024-11-26T21:19:01",{"id":177,"version":178,"summary_zh":179,"released_at":180},180128,"gemini-1.5-x-002","已准备好使用更新后的[模型](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini)：\n\n- `gemini-1.5-pro-002`\n- `gemini-1.5-flash-002`\n- `gemini-1.5-flash-8b-exp-0924`\n\nhttps:\u002F\u002Fdevelopers.googleblog.com\u002Fen\u002Fupdated-production-ready-gemini-models-reduced-15-pro-pricing-increased-rate-limits-and-more\u002F\n\n![模型基准对比图](https:\u002F\u002Fstorage.googleapis.com\u002Fgweb-developer-goog-blog-assets\u002Fimages\u002Fimage1_jBYRI1Z.original.png)\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Fgemini-1.5-flash...gemini-1.5-x-002","2024-09-25T14:38:29",{"id":182,"version":183,"summary_zh":184,"released_at":185},180129,"gemini-1.5-flash","使用 `gemini-1.5-flash-latest`（以及其他[模型]），并在请求中指定它。\n\nhttps:\u002F\u002Fdevelopers.googleblog.com\u002Fen\u002Fgemini-15-pro-and-15-flash-now-available\u002F\n\n此外：响应对象现在包含 `usage` 信息。\n\n[模型]: https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcompare\u002Fgemini-1.5-pro...gemini-1.5-flash","2024-07-25T22:09:39",{"id":187,"version":188,"summary_zh":189,"released_at":190},180130,"gemini-1.5-pro","请使用 `gemini-1.5-pro-latest` 模型！\n\nhttps:\u002F\u002Fdevelopers.googleblog.com\u002F2024\u002F04\u002Fgemini-15-pro-in-public-preview-with-new-features.html\n\n**完整更新日志**：https:\u002F\u002Fgithub.com\u002FPublicAffairs\u002Fopenai-gemini\u002Fcommits\u002Fgemini-1.5-pro","2024-04-10T22:58:24"]