[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-geekai-pub--openai-proxy":3,"tool-geekai-pub--openai-proxy":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70626,3,"2026-04-05T22:51:36",[19,17,20,16],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":10,"last_commit_at":38,"category_tags":39,"status":22},3074,"gpt4free","xtekky\u002Fgpt4free","gpt4free 是一个由社区驱动的开源项目，旨在聚合多种可访问的大型语言模型（LLM）和媒体生成接口，让用户能更灵活、便捷地使用前沿 AI 能力。它解决了直接调用各类模型时面临的接口分散、门槛高或成本昂贵等痛点，通过统一的标准将不同提供商的资源整合在一起。\n\n无论是希望快速集成 AI 功能的开发者、需要多模型对比测试的研究人员，还是想免费体验最新技术的普通用户，都能从中受益。gpt4free 提供了丰富的使用方式：既包含易于上手的 Python 和 JavaScript 客户端库，也支持部署本地图形界面（GUI），更提供了兼容 OpenAI 标准的 REST API，方便无缝替换现有应用后端。\n\n其技术亮点在于强大的多提供商支持架构，能够动态调度包括 Opus、Gemini、DeepSeek 等多种主流模型资源，并支持 Docker 一键部署及本地推理。项目秉持社区优先原则，在降低使用门槛的同时，也为贡献者提供了扩展新接口的便利框架，是探索和利用多样化 AI 资源的实用工具。",65970,"2026-04-04T01:02:03",[16,19,17],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":22},51,"gstack","garrytan\u002Fgstack","gstack 是 Y Combinator CEO Garry Tan 亲自开源的一套 AI 工程化配置，旨在将 Claude Code 升级为你的虚拟工程团队。面对单人开发难以兼顾产品战略、架构设计、代码审查及质量测试的挑战，gstack 提供了一套标准化解决方案，帮助开发者实现堪比二十人团队的高效产出。\n\n这套配置特别适合希望提升交付效率的创始人、技术负责人，以及初次尝试 Claude Code 的开发者。gstack 的核心亮点在于内置了 15 个具有明确职责的 AI 角色工具，涵盖 CEO、设计师、工程经理、QA 等职能。用户只需通过简单的斜杠命令（如 `\u002Freview` 进行代码审查、`\u002Fqa` 执行测试、`\u002Fplan-ceo-review` 规划功能），即可自动化处理从需求分析到部署上线的全链路任务。\n\n所有操作基于 Markdown 和斜杠命令，无需复杂配置，完全免费且遵循 MIT 协议。gstack 不仅是一套工具集，更是一种现代化的软件工厂实践，让单人开发者也能拥有严谨的工程流程。",64604,"2026-04-05T23:10:16",[17,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":22},193,"meilisearch","meilisearch\u002Fmeilisearch","Meilisearch 是一个开源的极速搜索服务，专为现代应用和网站打造，开箱即用。它能帮助开发者快速集成高质量的搜索功能，无需复杂的配置或额外的数据预处理。传统搜索方案往往需要大量调优才能实现准确结果，而 Meilisearch 内置了拼写容错、同义词识别、即时响应等实用特性，并支持 AI 驱动的混合搜索（结合关键词与语义理解），显著提升用户查找信息的体验。\n\nMeilisearch 特别适合 Web 开发者、产品团队或初创公司使用，尤其适用于需要快速上线搜索功能的场景，如电商网站、内容平台或 SaaS 应用。它提供简洁的 RESTful API 和多种语言 SDK，部署简单，资源占用低，本地开发或生产环境均可轻松运行。对于希望在不依赖大型云服务的前提下，为用户提供流畅、智能搜索体验的团队来说，Meilisearch 是一个高效且友好的选择。",56972,"2026-04-05T22:34:33",[13,17,14,20,16,18],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":22},4022,"awesome-claude-skills","ComposioHQ\u002Fawesome-claude-skills","awesome-claude-skills 是一个精心整理的开源资源库，旨在帮助用户挖掘和扩展 Claude AI 的潜力。它不仅仅是一份列表，更提供了实用的“技能（Skills）”模块，让 Claude 从单纯的文本生成助手，进化为能执行复杂工作流的智能代理。\n\n许多用户在使用 AI 时，常受限于其无法直接操作外部软件或处理特定格式文件的痛点。awesome-claude-skills 通过预设的工作流解决了这一问题：它不仅能教会 Claude 专业地处理 Word、PDF 等文档，进行代码开发与数据分析，还能借助 Composio 插件连接 Slack、邮箱及数百种常用应用，实现发送邮件、创建任务等自动化操作。这使得重复性任务变得标准化且可复用，极大提升了工作效率。\n\n无论是希望优化日常办公流程的普通用户、需要处理复杂文档的研究人员，还是寻求将 AI 深度集成到开发管线中的开发者，都能从中找到适合的解决方案。其独特的技术亮点在于“技能”的可定制性与强大的应用连接能力，让用户无需编写复杂代码，即可通过简单的配置让 Claude 具备跨平台执行真实任务的能力。如果你希望让 Claude",51312,"2026-04-05T19:04:23",[17,16],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":79,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":109,"updated_at":110,"faqs":111,"releases":147},4284,"geekai-pub\u002Fopenai-proxy","openai-proxy","基于 Go 实现的 OpenAI HTTP 代理（云函数、lambda 函数、自己部署均可）","openai-proxy 是一款基于 Go 语言开发的轻量级 HTTP 代理工具，旨在帮助用户更灵活地调用 OpenAI API。它主要解决了因网络环境限制导致无法直接访问 `api.openai.com` 的痛点，同时也支持将请求无缝切换至 Azure OpenAI 或其他全球任意域名服务。\n\n这款工具特别适合开发者、研究人员以及需要部署 AI 应用的技术团队使用。无论是希望在本地快速调试，还是需要将服务部署到腾讯云函数、AWS Lambda 或自有云服务器上，openai-proxy 都能提供稳定的中转支持。其核心亮点在于极高的灵活性：不仅支持通过简单的域名替换快速接入，还允许通过请求头动态指定目标宿主，实现“一个入口代理全网”。此外，虽然部分云函数环境对流式传输有限制，但 openai-proxy 原生支持 Stream 流式响应，只需部署在海外服务器即可完美复现实时对话效果。对于希望自建可控 API 通道或学习反向代理原理的用户来说，这是一个开源免费且易于扩展的理想选择。","# GO-OPENAI-PROXY\n\n基于 Go 实现的 OpenAI API HTTP 代理\n\n> 想要快速体验，将 OpenAI API 调用域名从默认的 `api.openai.com` 调整为 `proxy.geekai.co` 即可。你可以在这里预览演示效果：[演示应用](https:\u002F\u002Fgeekai.co\u002Fdati?invite_code=S564yq)。\n\n### 切换到 Azure OpenAI\n\n默认在 9000 端口代理 OpenAI API，要想切换到 Azure OpenAI API，可以在 `scf_bootstrap` 的启动命令中添加域名参数来指定你的 Azure OpenAI API Endpoint:\n\n```bash\n.\u002Fmain -domain=your-azure-openai-endpoint\n```\n\n如果 9000 端口被占用，可以通过 `-post=9001` 指定其他端口。\n\n### 代理任意全球域名\n\n这个工具最早是为 OpenAI 代理而生，但实际上现在已经可以支持通过一个入口代理任意域名，只需要在发起发起代理请求的时候通过 `X-Target-Host` 设置你想要代理的域名（不带 `http(s):\u002F\u002F` 前缀）即可，优先级是`请求头>命令行参数>默认值`：\n\n```go\nreq.Header.Set(\"x-target-host\", \"api.open.ai\")\n```\n\n### 编译打包\n\n你可以修改源代码调整代理逻辑，然后编译打包进行部署：\n\n```bash\n.\u002Fbuild.sh\n```\n\n此命令需要本地安装[go开发环境](https:\u002F\u002Fgo.dev\u002F)，如果不想本地安装 go 环境进行编译打包，可以直接下载根据最新源代码编译打包好的 `main.zip`：[Releases](https:\u002F\u002Fgithub.com\u002Fgeekr-dev\u002Fopenai-proxy\u002Freleases)\n\n### 部署测试\n\n> 支持部署到腾讯\u002F阿里云函数、AWS lambda 函数以及任意云服务器，以下以腾讯云函数为例进行演示。\n\n然后在腾讯云云函数代码管理界面上传打包好 zip 包即可完成部署：\n\n![](https:\u002F\u002Fimage.gstatics.cn\u002F2023\u002F03\u002F06\u002Fimage-20230306171340547.png)\n\n你可以通过腾讯云云函数提供的测试工具进行测试，也可以本地通过 curl\u002Fpostman 进行测试，使用的时候只需要将 `api.openai.com` 替换成代理域名 `proxy.geekai.co` 即可：\n \n![](https:\u002F\u002Fgeekr.gstatics.cn\u002Fwp-content\u002Fuploads\u002F2023\u002F03\u002Fimage-38.png)\n\n你可以选择自己搭建，也可以直接使用我提供的代理域名 `proxy.geekai.co`，反正是免费的。关于代理背后的原理，可以看我在极客书房发布的这篇教程：[国内无法调用 OpenAI 接口的解决办法](https:\u002F\u002Fgeekr.dev\u002Fposts\u002Fchatgpt-website-by-laravel-10#toc-5)。\n\n本地调试走VPN的话可以设置环境变量 `ENV=local`，然后直连 `api.openai.com`：\n\n```go\n\u002F\u002F 本地测试通过代理请求 OpenAI 接口\nif os.Getenv(\"ENV\") == \"local\" {\n    proxyURL, _ := url.Parse(\"http:\u002F\u002F127.0.0.1:10809\")\n    client.Transport = &http.Transport{\n        Proxy:           http.ProxyURL(proxyURL),\n        TLSClientConfig: &tls.Config{InsecureSkipVerify: true},\n    }\n}\n```\n### 流式响应支持\n\n这个源代码本身是支持 stream 流式响应代理的，但目前很多云函数并不支持分块流式传输。所以，如果你需要实现流式响应，可以把编译后的二进制文件 `main` 丢到任意海外云服务器运行，这样就变成支持流式响应的 OpenAI HTTP 代理了，如果你不想折腾，可以使用我这边提供的 `proxy.geekai.co` 作为代理进行测试：\n\n\u003Cimg width=\"965\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeekai-pub_openai-proxy_readme_565751cf7160.png\">\n\n如果你是通过 Nginx 这种反向代理对外提供服务，记得通过如下配置项将默认缓冲和缓存关掉才会生效：\n\n```\nproxy_buffering off;\nproxy_cache off;\n```\n","# GO-OPENAI-PROXY\n\n基于 Go 实现的 OpenAI API HTTP 代理\n\n> 想要快速体验，将 OpenAI API 调用域名从默认的 `api.openai.com` 调整为 `proxy.geekai.co` 即可。你可以在这里预览演示效果：[演示应用](https:\u002F\u002Fgeekai.co\u002Fdati?invite_code=S564yq)。\n\n### 切换到 Azure OpenAI\n\n默认在 9000 端口代理 OpenAI API，要想切换到 Azure OpenAI API，可以在 `scf_bootstrap` 的启动命令中添加域名参数来指定你的 Azure OpenAI API Endpoint:\n\n```bash\n.\u002Fmain -domain=your-azure-openai-endpoint\n```\n\n如果 9000 端口被占用，可以通过 `-post=9001` 指定其他端口。\n\n### 代理任意全球域名\n\n这个工具最早是为 OpenAI 代理而生，但实际上现在已经可以支持通过一个入口代理任意域名，只需要在发起发起代理请求的时候通过 `X-Target-Host` 设置你想要代理的域名（不带 `http(s):\u002F\u002F` 前缀）即可，优先级是`请求头>命令行参数>默认值`：\n\n```go\nreq.Header.Set(\"x-target-host\", \"api.open.ai\")\n```\n\n### 编译打包\n\n你可以修改源代码调整代理逻辑，然后编译打包进行部署：\n\n```bash\n.\u002Fbuild.sh\n```\n\n此命令需要本地安装[go开发环境](https:\u002F\u002Fgo.dev\u002F)，如果不想本地安装 go 环境进行编译打包，可以直接下载根据最新源代码编译打包好的 `main.zip`：[Releases](https:\u002F\u002Fgithub.com\u002Fgeekr-dev\u002Fopenai-proxy\u002Freleases)\n\n### 部署测试\n\n> 支持部署到腾讯\u002F阿里云函数、AWS lambda 函数以及任意云服务器，以下以腾讯云函数为例进行演示。\n\n然后在腾讯云云函数代码管理界面上传打包好 zip 包即可完成部署：\n\n![](https:\u002F\u002Fimage.gstatics.cn\u002F2023\u002F03\u002F06\u002Fimage-20230306171340547.png)\n\n你可以通过腾讯云云函数提供的测试工具进行测试，也可以本地通过 curl\u002Fpostman 进行测试，使用的时候只需要将 `api.openai.com` 替换成代理域名 `proxy.geekai.co` 即可：\n \n![](https:\u002F\u002Fgeekr.gstatics.cn\u002Fwp-content\u002Fuploads\u002F2023\u002F03\u002Fimage-38.png)\n\n你可以选择自己搭建，也可以直接使用我提供的代理域名 `proxy.geekai.co`，反正是免费的。关于代理背后的原理，可以看我在极客书房发布的这篇教程：[国内无法调用 OpenAI 接口的解决办法](https:\u002F\u002Fgeekr.dev\u002Fposts\u002Fchatgpt-website-by-laravel-10#toc-5)。\n\n本地调试走VPN的话可以设置环境变量 `ENV=local`，然后直连 `api.openai.com`：\n\n```go\n\u002F\u002F 本地测试通过代理请求 OpenAI 接口\nif os.Getenv(\"ENV\") == \"local\" {\n    proxyURL, _ := url.Parse(\"http:\u002F\u002F127.0.0.1:10809\")\n    client.Transport = &http.Transport{\n        Proxy:           http.ProxyURL(proxyURL),\n        TLSClientConfig: &tls.Config{InsecureSkipVerify: true},\n    }\n}\n```\n### 流式响应支持\n\n这个源代码本身是支持 stream 流式响应代理的，但目前很多云函数并不支持分块流式传输。所以，如果你需要实现流式响应，可以把编译后的二进制文件 `main` 丢到任意海外云服务器运行，这样就变成支持流式响应的 OpenAI HTTP 代理了，如果你不想折腾，可以使用我这边提供的 `proxy.geekai.co` 作为代理进行测试：\n\n\u003Cimg width=\"965\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeekai-pub_openai-proxy_readme_565751cf7160.png\">\n\n如果你是通过 Nginx 这种反向代理对外提供服务，记得通过如下配置项将默认缓冲和缓存关掉才会生效：\n\n```\nproxy_buffering off;\nproxy_cache off;\n```","# openai-proxy 快速上手指南\n\n## 环境准备\n\n- **操作系统**：支持 Linux、macOS、Windows（推荐在 Linux 服务器或云函数环境部署）\n- **前置依赖**：\n  - 若需自行编译：需安装 [Go 开发环境](https:\u002F\u002Fgo.dev\u002F) (建议版本 1.18+)\n  - 若直接部署：无需本地环境，直接下载预编译包即可\n- **网络要求**：部署服务器需能访问目标 API 域名（如 `api.openai.com` 或 Azure Endpoint）\n\n## 安装步骤\n\n你可以选择**直接下载预编译包**（推荐）或**源码编译**。\n\n### 方式一：下载预编译包（推荐）\n直接从 GitHub Releases 下载最新构建好的 `main.zip` 文件：\n[下载地址](https:\u002F\u002Fgithub.com\u002Fgeekr-dev\u002Fopenai-proxy\u002Freleases)\n\n解压后即可得到可执行文件 `main`。\n\n### 方式二：源码编译\n如果你需要修改代理逻辑，可以克隆源码并编译：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgeekr-dev\u002Fopenai-proxy.git\ncd openai-proxy\n.\u002Fbuild.sh\n```\n*注：执行 `.\u002Fbuild.sh` 前请确保本地已正确安装 Go 环境。*\n\n## 基本使用\n\n### 1. 启动代理服务\n默认情况下，服务将在 **9000** 端口启动，代理 `api.openai.com`。\n\n```bash\n.\u002Fmain\n```\n\n**自定义配置示例：**\n- **切换至 Azure OpenAI**：指定 Azure 终结点\n  ```bash\n  .\u002Fmain -domain=your-azure-openai-endpoint\n  ```\n- **修改端口**：如果 9000 端口被占用\n  ```bash\n  .\u002Fmain -port=9001\n  ```\n\n### 2. 调用测试\n启动后，将你的代码或请求中的 OpenAI 域名替换为代理地址（例如 `http:\u002F\u002F127.0.0.1:9000` 或部署后的公网域名）。\n\n**curl 测试示例：**\n```bash\ncurl http:\u002F\u002F127.0.0.1:9000\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-3.5-turbo\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"Hello\"}]\n  }'\n```\n\n### 3. 高级用法：代理任意域名\n该工具支持通过请求头动态指定目标域名。在发起请求时设置 `X-Target-Host`（无需带 `http(s):\u002F\u002F` 前缀）：\n\n```go\nreq.Header.Set(\"x-target-host\", \"api.example.com\")\n```\n*优先级规则：请求头 > 命令行参数 > 默认值*\n\n### 4. 部署建议\n- **云函数部署**：支持腾讯云、阿里云及 AWS Lambda。将编译好的 `main` 打包为 zip 上传至云函数即可。\n- **流式响应 (Stream)**：部分云函数不支持流式传输。如需完整支持 Stream，建议将二进制文件部署在**海外云服务器**上运行。\n- **Nginx 反向代理**：若前方有 Nginx，务必关闭缓冲以支持流式输出：\n  ```nginx\n  proxy_buffering off;\n  proxy_cache off;\n  ```\n\n> **提示**：本地调试若需走 VPN 代理，可设置环境变量 `ENV=local` 启用内置的本地代理逻辑。","某国内初创团队正在开发一款集成 ChatGPT 能力的智能客服系统，急需稳定调用 OpenAI API 以支撑核心业务。\n\n### 没有 openai-proxy 时\n- 服务器直连 `api.openai.com` 频繁超时或连接重置，导致客服响应中断，用户体验极差。\n- 为了解决网络问题，开发人员不得不在每台服务器上配置复杂的 VPN 或代理软件，运维成本高昂且难以管理。\n- 无法利用腾讯云函数等 Serverless 架构降低成本，因为云函数环境难以部署和维护全局代理工具。\n- 若需切换至 Azure OpenAI 或其他全球服务，必须修改大量底层代码中的请求域名，重构风险大。\n\n### 使用 openai-proxy 后\n- 只需将代码中的请求域名改为 `proxy.geekai.co` 或自建的代理地址，即可在国内服务器稳定调用接口，零延迟中断。\n- 无需在业务服务器安装任何代理软件，直接部署 openai-proxy 到云函数或海外单机，实现集中式流量转发，运维极简。\n- 轻松适配 Serverless 架构，利用按量付费的云函数承载高并发请求，大幅降低基础设施成本。\n- 通过设置 `X-Target-Host` 请求头或启动参数，无需改动业务代码即可灵活切换 OpenAI、Azure 或其他任意全球 API 端点。\n\nopenai-proxy 通过轻量级的协议转发，彻底屏蔽了网络环境差异，让开发者能像访问本地服务一样稳定、灵活地调用全球 AI 能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeekai-pub_openai-proxy_f6a4201e.png","geekai-pub","GeekAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgeekai-pub_d45f8977.png","企业级统一 AI 模型智能调度平台",null,"https:\u002F\u002Fgeekai.dev","https:\u002F\u002Fgithub.com\u002Fgeekai-pub",[83,87],{"name":84,"color":85,"percentage":86},"Go","#00ADD8",95.1,{"name":88,"color":89,"percentage":90},"Shell","#89e051",4.9,534,132,"2026-04-05T00:13:22","Linux, macOS, Windows","无 GPU 需求","未说明",{"notes":98,"python":99,"dependencies":100},"该工具基于 Go 语言开发，无需 Python 环境。若需自行编译，需本地安装 Go 环境；也可直接下载预编译的二进制文件。支持部署在云服务器（如腾讯\u002F阿里云、AWS Lambda）或本地运行。若需支持流式响应（Stream），建议部署在海外云服务器而非部分云函数环境。若通过 Nginx 反向代理，需关闭缓冲和缓存配置（proxy_buffering off; proxy_cache off;）。本地调试可通过设置环境变量 ENV=local 配合代理使用。","不需要",[101],"Go 开发环境 (用于编译)",[16],[104,105,106,107,108],"go","openai-api","proxy","tencent-cloud","stream","2026-03-27T02:49:30.150509","2026-04-06T15:54:49.470725",[112,117,122,127,132,137,142],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},19497,"为什么 API 请求响应时间长达 20 多秒？","这是因为使用了非 streaming（非流式）模式，服务端会等待答案完全生成后才一次性回传，导致等待时间较长。如果开启 streaming 模式，首字返回时间通常平均在 6 秒左右，具体取决于语义分析的复杂性，提示词越明确响应越快。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F1",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},19498,"编译后部署到云函数出现 HTTP 405 错误怎么办？","这通常是由于 Go 语言版本不兼容导致的。如果使用最新的 Go 1.20 编译可能会出现此问题，建议降级使用 Go 1.17.5 版本在 Ubuntu 22.04 环境下进行编译，或者直接使用项目提供的已编译好的 release 文件。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F20",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},19499,"接口突然一直返回 HTTP 400 Bad Request 错误是什么原因？","如果之前正常突然报错 400 且提示 JSON 解析失败，大概率是您的 OpenAI 账号被封禁了（可能因频繁裸连或使用免费节点触发限制）。此外，需确认您连接的免费节点部署位置（例如日本节点），排除网络区域限制问题。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F5",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19500,"运行 build.sh 脚本报错，提示找不到命令或环境缺失如何解决？","本地编译该项目必须先安装 Go 语言环境。请访问 Go 官方文档 (https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall) 下载并安装对应系统的 Go 版本，安装完成后确保环境变量配置正确，再重新执行编译脚本。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F13",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19501,"该代理是否支持 Stream 流式输出以及音视频、文件传递？","支持。该程序本质是一个 HTTP 请求代理，对请求和响应的具体格式无感知（Transparent Proxy），因此原生支持 OpenAI API 的 stream 流式传输、音频、视频及文件上传等所有功能，无需额外配置。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F4",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19502,"部署后报错 'http2: invalid Connection request header' 是怎么回事？","此错误通常发生在反向代理配置不当或直接运行二进制文件时。在宝塔面板等环境中，不能直接运行解压后的 main 文件作为 Web 服务，需要将其配置为后台守护进程，并确保上游服务器正确透传 HTTP\u002F2 头部信息，或者检查是否错误地通过不支持 Upgrade 头部的网关进行了转发。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F21",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},19503,"调用 \u002Fv1\u002Fmodels 接口报错 'no api match uri' 怎么办？","该错误表明当前访问的域名或路径未正确映射到后端的 API 路由。请检查您请求的 URL 是否正确（例如确认域名 open.aiproxy.xyz 是否可用），或者如果您是自部署，请检查配置文件中的路由规则是否包含了 models 接口的转发设置。","https:\u002F\u002Fgithub.com\u002Fgeekai-pub\u002Fopenai-proxy\u002Fissues\u002F14",[148,152,156],{"id":149,"version":150,"summary_zh":79,"released_at":151},117565,"v1.1.1","2023-09-22T08:40:23",{"id":153,"version":154,"summary_zh":79,"released_at":155},117566,"v1.1.0","2023-09-22T07:35:06",{"id":157,"version":158,"summary_zh":159,"released_at":160},117567,"v1.0.0","- 默认支持 OpenAI API\n- 支持 Azure OpenAI API 以及其他任意域名的代理\n- 支持自定义代理端口","2023-09-14T06:25:35"]