[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fruitbars--simple-one-api":3,"tool-fruitbars--simple-one-api":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[25,14,26,13],"插件","图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[25,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":41,"last_commit_at":42,"category_tags":43,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,60,61,25,14,62,15,13,63],"数据工具","视频","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":77,"owner_url":79,"languages":80,"stars":112,"forks":113,"last_commit_at":114,"license":115,"difficulty_score":10,"env_os":116,"env_gpu":117,"env_ram":117,"env_deps":118,"category_tags":122,"github_topics":77,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":123,"updated_at":124,"faqs":125,"releases":165},7172,"fruitbars\u002Fsimple-one-api","simple-one-api","OpenAI 接口接入适配，支持千帆大模型平台、讯飞星火大模型、腾讯混元以及MiniMax、Deep-Seek，等兼容OpenAI接口，仅单可执行文件，配置超级简单，一键部署，开箱即用.  Seamlessly integrate with OpenAI and compatible APIs using a single executable for quick setup and deployment.","simple-one-api 是一款专为简化大模型接入而设计的轻量级适配工具。它能够将讯飞星火、百度千帆、腾讯混元、MiniMax、DeepSeek 等众多国产及国际大模型接口，统一转换为标准的 OpenAI API 格式。\n\n当前市场上虽然免费的大模型资源丰富，但各厂商接口标准不一，即便宣称兼容 OpenAI，实际调用时仍存在细节差异；同时，现有的聚合方案往往功能过于复杂，包含计费、流量统计等对个人用户冗余的功能。simple-one-api 正是为了解决这些痛点而生：它屏蔽了不同平台间的接口差异，去除了复杂的运营功能，让用户只需关注模型调用本身。\n\n该工具特别适合开发者、研究人员以及希望快速体验多种大模型能力的技术爱好者。其核心亮点在于极致的简洁与高效：整个程序仅由一个可执行文件构成，无需复杂的环境依赖，配置简单，支持一键部署与开箱即用。通过 simple-one-api，用户可以轻松构建统一的应用后端，灵活切换底层模型，大幅降低了多模型集成的开发成本与维护难度。","\u003Cp align=\"right\">\n   \u003Cstrong>中文\u003C\u002Fstrong> | \u003Ca href=\".\u002FREADME.EN.md\">English\u003C\u002Fa> \n\u003C\u002Fp>\n\n[![Powered by DartNode](https:\u002F\u002Fdartnode.com\u002Fbranding\u002FDN-Open-Source-sm.png)](https:\u002F\u002Fdartnode.com \"Powered by DartNode - Free VPS for Open Source\")\n\n# simple-one-api:通过标准的 OpenAI API 格式访问的各种国产大模型，开箱即用\n\n## 简介\n\n目前市面上免费的使用国产的免费大模型越来越多，one-api对于个人用起来还是有点麻烦，就想要一个不要统计、流量、计费等等的适配程序即可。\n\n还有一点是：即使有些厂商说兼容openai的接口，但是实际上还是存在些许差异的！！！\n\n**simple-one-api**主要是解决以上2点，旨在兼容多种大模型接口，并统一对外提供 OpenAI 接口。通过该项目，用户可以方便地集成和调用多种大模型，简化了不同平台接口差异带来的复杂性。\n\n### 免费大模型列表\n\n| 大模型                   | 免费版本                                                                                                              | 免费限制                                                                                               | 控制台（api_key等）                                                                            | 文档地址                                                                                      |\n|-----------------------|-------------------------------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------|\n| 讯飞星火大模型               | `spark-lite`                                                                                                      | tokens：总量无限\u003Cbr\u002F>QPS：2\u003Cbr\u002F>有效期：不限                                                                   | [访问链接](https:\u002F\u002Fconsole.xfyun.cn\u002Fservices\u002Fcbm)                                            | [文档查看](https:\u002F\u002Fwww.xfyun.cn\u002Fdoc\u002Fspark\u002FWeb.html)                                           |\n| 百度千帆大模型平台             | `yi_34b_chat`, `ERNIE-Speed-8K`, `ERNIE-Speed-128K`, `ERNIE-Lite-8K`, `ERNIE-Lite-8K-0922`, `ERNIE-Tiny-8K`       | Lite、Speed-8K：RPM = 300，TPM = 300000\u003Cbr\u002F>Speed-128K：RPM = 60，TPM = 300000                          | [访问链接](https:\u002F\u002Fconsole.bce.baidu.com\u002Fqianfan\u002Fais\u002Fconsole\u002FapplicationConsole\u002Fapplication) | [文档查看](https:\u002F\u002Fcloud.baidu.com\u002Fdoc\u002FWENXINWORKSHOP\u002Fs\u002Fklqx7b1xf)                            |\n| 腾讯混元大模型               | `hunyuan-lite`                                                                                                    | 限制并发数为 5 路                                                                                         | [访问链接](https:\u002F\u002Fconsole.cloud.tencent.com\u002Fcam\u002Fcapi)                                       | [链接](https:\u002F\u002Fcloud.tencent.com\u002Fdocument\u002Fapi\u002F1729\u002F105701)                                  |\n| Cloudflare Workers AI | `所有模型`                                                                                                            | 免费可以每天使用1万次，一个月可以30万次；测试版本本的模型无限制                                                                  | [访问链接](https:\u002F\u002Fdash.cloudflare.com\u002F)                                                     | [文档查看](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fconfiguration\u002Fopen-ai-compatibility\u002F) |\n| 字节扣子(coze.cn)         | 豆包·Function call模型(32K)、通义千问-Max(8K)、MiniMax 6.5s(245K)、Moonshot（8K）、Moonshot（32K）、Moonshot（128K）                 | 当前扣子 API 免费供开发者使用，每个空间的 API 请求限额如下：QPS (每秒发送的请求数)：2\u003Cbr\u002F>QPM (每分钟发送的请求数)：60\u003Cbr\u002F>QPD (每天发送的请求数)：3000 | [访问链接](https:\u002F\u002Fwww.coze.cn\u002Fspace)                                                        | [文档查看](https:\u002F\u002Fwww.coze.cn\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)                       |\n| 字节火山方舟                | doubao系列、Moonshot系列等                                                                                              | 2024年5月15日至8月30日期间，为您提供一次独特的机会，即高达5亿tokens的免费权益。                                                   | [访问链接](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263512)                                    | [文档查看](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263512)                                     |\n| Llama Family          | \"Atom-13B-Chat\",\"Atom-7B-Chat\",\"Atom-1B-Chat\",\"Llama3-Chinese-8B-Instruct\"                                        | 1.每天 8-22 点：接口限速每分钟 20 次并发\u003Cbr\u002F>2.每天 22-次日 8 点：接口限速每分钟 50 次并发                                       | [访问链接](https:\u002F\u002Fllama.family\u002Fdocs\u002Fsecret)                                                 | [文档查看](https:\u002F\u002Fllama.family\u002Fdocs\u002Fchat-completion-v1)                                      |\n| groq                  | gemma-7b-it、mixtral-8x7b-32768、llama3-70b-8192、llama3-8b-8192                                                     | rpm为30，rpd为14400，TOKENS PER MINUTE也有限制                                                             | [访问链接](https:\u002F\u002Fconsole.groq.com\u002Fkeys)                                                    | [文档查看](https:\u002F\u002Fconsole.groq.com\u002Fdocs\u002Ftext-chat)                                           |\n| Google Gemini         | gemini-1.5-pro、gemini-1.5-flash、gemini-1.0-pro、gemini-pro-vision                                                  | 15RPM（每分钟请求数）;100万 TPM（每分钟令牌）;1500 RPD（每天请求数）                                                      | [访问链接](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)                                           | [文档查看](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini)                               |\n| 硅基流动                  | Qwen2-7B-Instruct，Qwen2-1.5B-Instruct，Qwen1.5-7B-Chat，glm-4-9b-chat，chatglm3-6b，Yi-1.5-9B-Chat-16K，Yi-1.5-6B-Chat | RPM限制为100，QPS限制为3，更多可以进行申请                                                                         | [访问链接](https:\u002F\u002Fcloud.siliconflow.cn\u002Faccount\u002Fexpensebill)                                 | [文档查看](https:\u002F\u002Fdocs.siliconflow.cn\u002Freference\u002Fchat-completions-1)                          | \n\n#### 各个模型详细的申请和接入流程\n为了更加方便申请和接入，也整理了各个模型的接入指南，可以查阅：\n\n- **讯飞星火大模型**:[docs\u002F讯飞星火spark-lite模型申请流程](docs\u002F讯飞星火spark-lite模型申请流程.md)\n- **百度千帆大模型平台**:[docs\u002F百度千帆speed和lite模型申请流程](docs\u002F百度千帆speed和lite模型申请流程.md)\n- **腾讯混元大模型**:：[docs\u002F腾讯混元hunyuan-lite模型申请流程](docs\u002F腾讯混元hunyuan-lite模型申请流程.md)\n- **Cloudflare_Workers_AI**：[docs\u002FCloudflare_Workers_AI申请使用流程.md](docs\u002FCloudflare_Workers_AI申请使用流程.md)\n- **字节扣子(coze.cn)**：[docs\u002Fcoze.cn申请API使用流程.md](docs\u002Fcoze.cn申请API使用流程.md)\n- **字节火山方舟**：[docs\u002F火山方舟大模型接入指南.md](docs\u002F火山方舟大模型接入指南.md)\n- **Llama Family**：[docs\u002FLlama Family接入指南.md](docs\u002Fllama_family接入指南.md)\n- **groq**: [docs\u002Fgroq接入指南.md](docs\u002Fgroq接入指南.md)\n- **Gemini**：[docs\u002FGemini接入指南.md](docs\u002FGemini接入指南.md)\n\n### 接入使用\n\n社群小伙伴反馈验证可用的客户端\n\n- [Next Chat](https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web)\n- [Lobe chat](https:\u002F\u002Fgithub.com\u002Flobehub\u002Flobe-chat)\n- [gpt_academic](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic)\n- [Chat x](https:\u002F\u002Fapps.apple.com\u002Fus\u002Fapp\u002Fchatx-ai-chat-client-top\u002Fid6446304087)\n\n\n## 功能\n\n### 文本生成\n\n支持多种大模型：\n- [x] [百度智能云千帆大模型平台](https:\u002F\u002Fqianfan.cloud.baidu.com\u002F)\n- [x] [讯飞星火大模型](https:\u002F\u002Fxinghuo.xfyun.cn\u002Fsparkapi)\n- [x] [腾讯混元大模型](https:\u002F\u002Fcloud.tencent.com\u002Fproduct\u002Fhunyuan)\n- [x] [Google Gemini](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini)\n- [x] [Claude.ai](https:\u002F\u002Fdocs.anthropic.com\u002Fen\u002Fapi\u002Fmessages)\n- [x] OpenAI ChatGPT 系列模型\n    - [x] [OpenAI](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fgpt\u002Fchat-completions-api)\n    - [x] [Deep-Seek](https:\u002F\u002Fplatform.deepseek.com\u002Fapi-docs\u002Fzh-cn\u002F)\n    - [x] [Cloudflare Workers AI](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fconfiguration\u002Fopen-ai-compatibility\u002F)\n    - [x] [智谱清言语](https:\u002F\u002Fopen.bigmodel.cn\u002Fdev\u002Fapi#language)\n    - [x] [阿里通义DashScope](https:\u002F\u002Fhelp.aliyun.com\u002Fzh\u002Fdashscope\u002Fdeveloper-reference\u002Fcompatibility-of-openai-with-dashscope)\n    - [x] [Azure OpenAI](https:\u002F\u002Flearn.microsoft.com\u002Fzh-cn\u002Fazure\u002Fai-services\u002Fopenai\u002Freference)\n    - [x] [Llama Family](https:\u002F\u002Fllama.family\u002Fdocs\u002Fchat-completion-v1)\n    - [x] [groq](https:\u002F\u002Fconsole.groq.com\u002Fdocs\u002Ftext-chat)\n    - [x] [零一万物](https:\u002F\u002Fplatform.lingyiwanwu.com\u002Fdocs)\n- [x] [MiniMax](https:\u002F\u002Fplatform.minimaxi.com\u002Fdocument\u002Fguides\u002Fchat-model\u002Fpro)\n- [x] 字节coze\n    - [x] [扣子(coze.cn)](https:\u002F\u002Fwww.coze.cn\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)\n    - [x] [扣子(coze.com)](https:\u002F\u002Fwww.coze.com\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)\n- [x] [字节火山方舟](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263482)\n- [x] [ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama\u002Fblob\u002Fmain\u002Fdocs\u002Fapi.md)\n\n如果兼容某个参加已经支持OpenAI的接口，那么可以在simple-one-api中直接使用。参考文档[docs\u002F兼容OpenAI模型协议接入指南.md](docs\u002F兼容OpenAI模型协议接入指南.md)\n\n### 支持的功能\n- 支持配置多个模型，可以随机负载均衡\n- 支持一个模型可配置多个`api_key`，并且可以随机负载均衡\n- 支持设置一个对外总`api_key`\n- 支持`random`模型，后台自动寻找配置的可用的模型\n- 支持模型名称重定向设置模型设置别名\n- 支持全局设置模型名称重定向，并且支持all模式全部重定向\n- 支持每一种模型服务设置服务的地址\n- 兼容支持OpenAI的接口，同时支持\u002Fv1和\u002Fv1\u002Fchat\u002Fcompletions两种路径\n- 对于不支持system的模型，simple-one-api会放到第一个prompt中直接兼容（更加统一，例如沉浸式翻译中如果system，不支持system的模型也能正常调用）\n- 支持全局代理模式\n- 支持每个service设置qps或qpm或者concurrency\n- 支持`\u002Fv1\u002Fmodels`和`\u002Fv1\u002Fmodels\u002F:model`接口\n\n### 更新日志\n\n查看 [CHANGELOG.md](docs\u002FCHANGELOG.md) 获取本项目的详细更新历史。\n\n### 交流群\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffruitbars_simple-one-api_readme_f74f05925d1e.jpg\" alt=\"交流群\" style=\"zoom: 50%;\" \u002F>\n\n## 安装\n\n### 源码安装\n\n1. 克隆本仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api.git\n```\n\n#### 快速编译使用\n\n首先得确保你已经安装了go，版本需要是1.21以上，具体安装教程参考官网地址：[https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall](https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall)\n可以通过`go version`查看go的版本。\n\n**linux\u002FmacOS**\n\n```shell\nchmod +x quick_build.sh\n.\u002Fquick_build.sh\n```\n\n将会在当前目录生成`simple-one-api`\n\n**Windows**\n双击`quick_build.bat`执行\n```bat\nquick_build.bat\n```\n\n将会在当前目录生成`simple-one-api.exe`\n\n**交叉编译不同平台版本**\n\n有时需要编译不同平台的版本，比如windows、linux、macOS； 确保安装好go之后，执行`build.sh`\n\n ```shell\n chmod +x build.sh\n .\u002Fbuild.sh\n ```\n会自动编译出对于以上3中平台不同架构的可执行文件，生成在`build`目录中。\n\n\n\n**接下来配置你的模型服务和凭证：**\n在 `config.json` 文件中添加你的模型服务和凭证信息，参考下文的配置文件说明。\n\n### 直接下载\n\n[前往Releases页面](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Freleases)\n\n## 使用方法\n\n### 直接启动\n默认读取和`simple-one-api`相同目录下的`config.json`启动\n   ```bash\n   .\u002Fsimple-one-api\n   ```\n如果想指定`config.json`的路径，可以这样启动\n   ```bash\n   .\u002Fsimple-one-api \u002Fpath\u002Fto\u002Fconfig.json\n   ```\n\n### Docker 启动\n\n以下是如何使用 Docker 部署 `simple-one-api` 的步骤：\n**运行**\n使用以下命令运行 Docker 容器，同时挂载你的配置文件 `config.json`：\n```sh\ndocker run -d --name simple-one-api -p 9090:9090 -v \u002Fpath\u002Fto\u002Fconfig.json:\u002Fapp\u002Fconfig.json fruitbars\u002Fsimple-one-api\n```\n**注意：** 请确保将 \u002Fpath\u002Fto\u002Fconfig.json 替换为 config.json 文件在你主机上的绝对路径。\n\n**查看容器日志**\n你可以使用以下命令查看容器的日志输出：\n\n```sh\ndocker logs -f simple-one-api\n```\n或\n```sh\ndocker logs -f \u003Ccontainer_id>\n```\n其中，\u003Ccontainer_id> 是容器的 ID，可以通过 docker ps 命令查看。\n\n#### Docker Compose 启动步骤\n\n1. **配置文件**：在`docker-compose.yml`中首先确保你已经将你的 `config.json` 文件的路径替换成了正确的绝对路径。\n2. **启动容器**：\n   使用 Docker Compose 启动服务，你可以在包含 `docker-compose.yml` 文件的目录下运行以下命令：\n   ```sh\n   docker-compose up -d\n   ```\n   这个命令会在后台启动 `simple-one-api` 服务。\n\n其他查看命令参考docker-compose的文档。\n\n### 其他启动方式\n其他启动方式:\n- [nohup启动](docs\u002Fstartup\u002Fnohup_startup.md)\n- [systemd启动](docs\u002Fstartup\u002Fsystemd_startup.md)\n\n\n### 调用 API\n\n 现在，你可以通过 OpenAI 兼容的接口调用你配置的各大模型服务。服务地址: `http:\u002F\u002Fhost:port\u002Fv1`,`api-key`可以任意设置\n\n 支持模型名称设置为`random`，后台会自动找一个`\"enabled\": true`的模型来使用。\n\n## 配置文件示例（以讯飞星火spark-lite为例）\n\n\n```json\n{\n    \"load_balancing\": \"random\",\n    \"services\": {\n      \"xinghuo\": [\n        {\n          \"models\": [\"spark-lite\"],\n          \"enabled\": true,\n          \"credentials\": {\n            \"appid\": \"xxx\",\n            \"api_key\": \"xxx\",\n            \"api_secret\": \"xxx\"\n          }\n        }\n      ]\n    }\n}\n```\n\n其他模型的配置文件示例可以参考:[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples)\n\n\n\n**配置文件在线生成**\n\n感谢来自社群小伙伴提供在线生成配置\n\n[https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F](https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F)\n\n## 配置文件说明\n\n参考文档：[config.json详细说明](docs\u002Fconfig.json详细说明.md)\n\n各个厂商详细的配置说明：[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fdocs](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fdocs)\n\n各个厂商详细的示例config：[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples)\n\n### 比较完整的配置文件示例\n\n具体文档查看[config.json详细说明.md](docs\u002Fconfig.json详细说明.md),以下是一个完整的配置示例，涵盖了多个大模型平台和不同模型：\n\n```json\n{\n  \"server_port\":\":9090\",\n  \"load_balancing\": \"random\",\n  \"services\": {\n    \"qianfan\": [\n      {\n        \"models\": [\"yi_34b_chat\", \"ERNIE-Speed-8K\", \"ERNIE-Speed-128K\", \"ERNIE-Lite-8K\", \"ERNIE-Lite-8K-0922\", \"ERNIE-Tiny-8K\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"api_key\": \"xxx\",\n          \"secret_key\": \"xxx\"\n        }\n      }\n    ],\n    \"xinghuo\": [\n      {\n        \"models\": [\"spark-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"appid\": \"xxx\",\n          \"api_key\": \"xxx\",\n          \"api_secret\": \"xxx\"\n        },\n        \"server_url\": \"ws:\u002F\u002Fspark-api.xf-yun.com\u002Fv1.1\u002Fchat\"\n      }\n    ],\n    \"hunyuan\": [\n      {\n        \"models\": [\"hunyuan-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"secret_id\": \"xxx\",\n          \"secret_key\": \"xxx\"\n        }\n      }\n    ],\n    \"openai\": [\n      {\n        \"models\": [\"deepseek-chat\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"api_key\": \"xxx\"\n        },\n        \"server_url\": \"https:\u002F\u002Fapi.deepseek.com\u002Fv1\"\n      }\n    ],\n    \"minimax\": [\n      {\n        \"models\": [\"abab6-chat\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"group_id\": \"xxx\",\n          \"api_key\": \"xxx\"\n        },\n        \"server_url\": \"https:\u002F\u002Fapi.minimax.chat\u002Fv1\u002Ftext\u002Fchatcompletion_pro\"\n      }\n    ]\n  }\n}\n```\n## FAQ\n### 在沉浸式翻译当中怎么使用？\n\n参考[docs\u002F在沉浸式翻译中使用simple-one-api](docs\u002F在沉浸式翻译中使用simple-one-api.md)\n\n### 是否支持并发限制？\n\n具体文档查看[config.json详细说明.md](docs\u002Fconfig.json详细说明.md)\n\n参考如下配置，免费的讯飞星火spark-lite模型，有2qps限制，因此可以这么设置：\n\n```json\n{\n  \"server_port\": \":9090\",\n  \"debug\": false,\n  \"load_balancing\": \"random\",\n  \"services\": {\n    \"xinghuo\": [\n      {\n        \"models\": [\"spark-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"appid\": \"xxx\",\n          \"api_key\": \"xxx\",\n          \"api_secret\": \"xxx\"\n        },\n        \"limit\": {\n          \"qps\":2,\n          \"timeout\": 10\n        }\n      }\n    ]\n  }\n}\n```\n\n### 如何设置代理\n\n从v0.9.1开始，更新了代理方式，每个service支持独立代理\n参考文档《[simple‐one‐api代理配置说明](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fwiki\u002Fsimple%E2%80%90one%E2%80%90api%E4%BB%A3%E7%90%86%E9%85%8D%E7%BD%AE%E8%AF%B4%E6%98%8E )》\n\n\n\n### 如何设置一个对外的apikey？\n\n可以通过`api_key`字段来设置\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n### 单个模型如何配置多个credentials自动负载？\n 以客户端选择spark-lite为例，可以按照下面这样配置，会随机credentials\n\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         },\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n### 如何让后台随机选择模型使用？\n`load_balancing`就是为自动选择模型来配置的，支持`random`，自动随机选一个`enabled`为`true`的模型\n\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffruitbars_simple-one-api_readme_b63910455a8a.png)](https:\u002F\u002Fstar-history.com\u002F#fruitbars\u002Fsimple-one-api&Date)\n\n## 贡献\n\n我们欢迎任何形式的贡献。如果你有任何建议或发现了问题，请通过提交 issue 或 pull request 的方式与我们联系。","\u003Cp align=\"right\">\n   \u003Cstrong>中文\u003C\u002Fstrong> | \u003Ca href=\".\u002FREADME.EN.md\">English\u003C\u002Fa> \n\u003C\u002Fp>\n\n[![Powered by DartNode](https:\u002F\u002Fdartnode.com\u002Fbranding\u002FDN-Open-Source-sm.png)](https:\u002F\u002Fdartnode.com \"Powered by DartNode - Free VPS for Open Source\")\n\n# simple-one-api:通过标准的 OpenAI API 格式访问的各种国产大模型，开箱即用\n\n## 简介\n\n目前市面上免费的使用国产的免费大模型越来越多，one-api对于个人用起来还是有点麻烦，就想要一个不要统计、流量、计费等等的适配程序即可。\n\n还有一点是：即使有些厂商说兼容openai的接口，但是实际上还是存在些许差异的！！！\n\n**simple-one-api**主要是解决以上2点，旨在兼容多种大模型接口，并统一对外提供 OpenAI 接口。通过该项目，用户可以方便地集成和调用多种大模型，简化了不同平台接口差异带来的复杂性。\n\n### 免费大模型列表\n\n| 大模型                   | 免费版本                                                                                                              | 免费限制                                                                                               | 控制台（api_key等）                                                                            | 文档地址                                                                                      |\n|-----------------------|-------------------------------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------|\n| 讯飞星火大模型               | `spark-lite`                                                                                                      | tokens：总量无限\u003Cbr\u002F>QPS：2\u003Cbr\u002F>有效期：不限                                                                   | [访问链接](https:\u002F\u002Fconsole.xfyun.cn\u002Fservices\u002Fcbm)                                            | [文档查看](https:\u002F\u002Fwww.xfyun.cn\u002Fdoc\u002Fspark\u002FWeb.html)                                           |\n| 百度千帆大模型平台             | `yi_34b_chat`, `ERNIE-Speed-8K`, `ERNIE-Speed-128K`, `ERNIE-Lite-8K`, `ERNIE-Lite-8K-0922`, `ERNIE-Tiny-8K`       | Lite、Speed-8K：RPM = 300，TPM = 300000\u003Cbr\u002F>Speed-128K：RPM = 60，TPM = 300000                          | [访问链接](https:\u002F\u002Fconsole.bce.baidu.com\u002Fqianfan\u002Fais\u002Fconsole\u002FapplicationConsole\u002Fapplication) | [文档查看](https:\u002F\u002Fcloud.baidu.com\u002Fdoc\u002FWENXINWORKSHOP\u002Fs\u002Fklqx7b1xf)                            |\n| 腾讯混元大模型               | `hunyuan-lite`                                                                                                    | 限制并发数为 5 路                                                                                         | [访问链接](https:\u002F\u002Fconsole.cloud.tencent.com\u002Fcam\u002Fcapi)                                       | [链接](https:\u002F\u002Fcloud.tencent.com\u002Fdocument\u002Fapi\u002F1729\u002F105701)                                  |\n| Cloudflare Workers AI | `所有模型`                                                                                                            | 免费可以每天使用1万次，一个月可以30万次；测试版本本的模型无限制                                                                  | [访问链接](https:\u002F\u002Fdash.cloudflare.com\u002F)                                                     | [文档查看](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fconfiguration\u002Fopen-ai-compatibility\u002F) |\n| 字节扣子(coze.cn)         | 豆包·Function call模型(32K)、通义千问-Max(8K)、MiniMax 6.5s(245K)、Moonshot（8K）、Moonshot（32K）、Moonshot（128K）                 | 当前扣子 API 免费供开发者使用，每个空间的 API 请求限额如下：QPS (每秒发送的请求数)：2\u003Cbr\u002F>QPM (每分钟发送的请求数)：60\u003Cbr\u002F>QPD (每天发送的请求数)：3000 | [访问链接](https:\u002F\u002Fwww.coze.cn\u002Fspace)                                                        | [文档查看](https:\u002F\u002Fwww.coze.cn\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)                       |\n| 字节火山方舟                | doubao系列、Moonshot系列等                                                                                              | 2024年5月15日至8月30日期间，为您提供一次独特的机会，即高达5亿tokens的免费权益。                                                   | [访问链接](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263512)                                    | [文档查看](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263512)                                     |\n| Llama Family          | \"Atom-13B-Chat\",\"Atom-7B-Chat\",\"Atom-1B-Chat\",\"Llama3-Chinese-8B-Instruct\"                                        | 1.每天 8-22 点：接口限速每分钟 20 次并发\u003Cbr\u002F>2.每天 22-次日 8 点：接口限速每分钟 50 次并发                                       | [访问链接](https:\u002F\u002Fllama.family\u002Fdocs\u002Fsecret)                                                 | [文档查看](https:\u002F\u002Fllama.family\u002Fdocs\u002Fchat-completion-v1)                                      |\n| groq                  | gemma-7b-it、mixtral-8x7b-32768、llama3-70b-8192、llama3-8b-8192                                                     | rpm为30，rpd为14400，TOKENS PER MINUTE也有限制                                                             | [访问链接](https:\u002F\u002Fconsole.groq.com\u002Fkeys)                                                    | [文档查看](https:\u002F\u002Fconsole.groq.com\u002Fdocs\u002Ftext-chat)                                           |\n| Google Gemini         | gemini-1.5-pro、gemini-1.5-flash、gemini-1.0-pro、gemini-pro-vision                                                  | 15RPM（每分钟请求数）;100万 TPM（每分钟令牌）;1500 RPD（每天请求数）                                                      | [访问链接](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey)                                           | [文档查看](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini)                               |\n| 硅基流动                  | Qwen2-7B-Instruct，Qwen2-1.5B-Instruct，Qwen1.5-7B-Chat，glm-4-9b-chat，chatglm3-6b，Yi-1.5-9B-Chat-16K，Yi-1.5-6B-Chat | RPM限制为100，QPS限制为3，更多可以进行申请                                                                         | [访问链接](https:\u002F\u002Fcloud.siliconflow.cn\u002Faccount\u002Fexpensebill)                                 | [文档查看](https:\u002F\u002Fdocs.siliconflow.cn\u002Freference\u002Fchat-completions-1)                          | \n\n#### 各个模型详细的申请和接入流程\n为了更加方便申请和接入，也整理了各个模型的接入指南，可以查阅：\n\n- **讯飞星火大模型**:[docs\u002F讯飞星火spark-lite模型申请流程](docs\u002F讯飞星火spark-lite模型申请流程.md)\n- **百度千帆大模型平台**:[docs\u002F百度千帆speed和lite模型申请流程](docs\u002F百度千帆speed和lite模型申请流程.md)\n- **腾讯混元大模型**:：[docs\u002F腾讯混元hunyuan-lite模型申请流程](docs\u002F腾讯混元hunyuan-lite模型申请流程.md)\n- **Cloudflare_Workers_AI**：[docs\u002FCloudflare_Workers_AI申请使用流程.md](docs\u002FCloudflare_Workers_AI申请使用流程.md)\n- **字节扣子(coze.cn)**：[docs\u002Fcoze.cn申请API使用流程.md](docs\u002Fcoze.cn申请API使用流程.md)\n- **字节火山方舟**：[docs\u002F火山方舟大模型接入指南.md](docs\u002F火山方舟大模型接入指南.md)\n- **Llama Family**：[docs\u002FLlama Family接入指南.md](docs\u002Fllama_family接入指南.md)\n- **groq**: [docs\u002Fgroq接入指南.md](docs\u002Fgroq接入指南.md)\n- **Gemini**：[docs\u002FGemini接入指南.md](docs\u002FGemini接入指南.md)\n\n### 接入使用\n\n社群小伙伴反馈验证可用的客户端\n\n- [Next Chat](https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web)\n- [Lobe chat](https:\u002F\u002Fgithub.com\u002Flobehub\u002Flobe-chat)\n- [gpt_academic](https:\u002F\u002Fgithub.com\u002Fbinary-husky\u002Fgpt_academic)\n- [Chat x](https:\u002F\u002Fapps.apple.com\u002Fus\u002Fapp\u002Fchatx-ai-chat-client-top\u002Fid6446304087)\n\n\n## 功能\n\n### 文本生成\n\n支持多种大模型：\n- [x] [百度智能云千帆大模型平台](https:\u002F\u002Fqianfan.cloud.baidu.com\u002F)\n- [x] [讯飞星火大模型](https:\u002F\u002Fxinghuo.xfyun.cn\u002Fsparkapi)\n- [x] [腾讯混元大模型](https:\u002F\u002Fcloud.tencent.com\u002Fproduct\u002Fhunyuan)\n- [x] [Google Gemini](https:\u002F\u002Fai.google.dev\u002Fgemini-api\u002Fdocs\u002Fmodels\u002Fgemini)\n- [x] [Claude.ai](https:\u002F\u002Fdocs.anthropic.com\u002Fen\u002Fapi\u002Fmessages)\n- [x] OpenAI ChatGPT 系列模型\n    - [x] [OpenAI](https:\u002F\u002Fplatform.openai.com\u002Fdocs\u002Fguides\u002Fgpt\u002Fchat-completions-api)\n    - [x] [Deep-Seek](https:\u002F\u002Fplatform.deepseek.com\u002Fapi-docs\u002Fzh-cn\u002F)\n    - [x] [Cloudflare Workers AI](https:\u002F\u002Fdevelopers.cloudflare.com\u002Fworkers-ai\u002Fconfiguration\u002Fopen-ai-compatibility\u002F)\n    - [x] [智谱清言语](https:\u002F\u002Fopen.bigmodel.cn\u002Fdev\u002Fapi#language)\n    - [x] [阿里通义DashScope](https:\u002F\u002Fhelp.aliyun.com\u002Fzh\u002Fdashscope\u002Fdeveloper-reference\u002Fcompatibility-of-openai-with-dashscope)\n    - [x] [Azure OpenAI](https:\u002F\u002Flearn.microsoft.com\u002Fzh-cn\u002Fazure\u002Fai-services\u002Fopenai\u002Freference)\n    - [x] [Llama Family](https:\u002F\u002Fllama.family\u002Fdocs\u002Fchat-completion-v1)\n    - [x] [groq](https:\u002F\u002Fconsole.groq.com\u002Fdocs\u002Ftext-chat)\n    - [x] [零一万物](https:\u002F\u002Fplatform.lingyiwanwu.com\u002Fdocs)\n- [x] [MiniMax](https:\u002F\u002Fplatform.minimaxi.com\u002Fdocument\u002Fguides\u002Fchat-model\u002Fpro)\n- [x] 字节coze\n    - [x] [扣子(coze.cn)](https:\u002F\u002Fwww.coze.cn\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)\n    - [x] [扣子(coze.com)](https:\u002F\u002Fwww.coze.com\u002Fdocs\u002Fdeveloper_guides\u002Fcoze_api_overview)\n- [x] [字节火山方舟](https:\u002F\u002Fwww.volcengine.com\u002Fdocs\u002F82379\u002F1263482)\n- [x] [ollama](https:\u002F\u002Fgithub.com\u002Follama\u002Follama\u002Fblob\u002Fmain\u002Fdocs\u002Fapi.md)\n\n如果兼容某个参加已经支持OpenAI的接口，那么可以在simple-one-api中直接使用。参考文档[docs\u002F兼容OpenAI模型协议接入指南.md](docs\u002F兼容OpenAI模型协议接入指南.md)\n\n### 支持的功能\n- 支持配置多个模型，可以随机负载均衡\n- 支持一个模型可配置多个`api_key`，并且可以随机负载均衡\n- 支持设置一个对外总`api_key`\n- 支持`random`模型，后台自动寻找配置的可用的模型\n- 支持模型名称重定向设置模型设置别名\n- 支持全局设置模型名称重定向，并且支持all模式全部重定向\n- 支持每一种模型服务设置服务的地址\n- 兼容支持OpenAI的接口，同时支持\u002Fv1和\u002Fv1\u002Fchat\u002Fcompletions两种路径\n- 对于不支持system的模型，simple-one-api会放到第一个prompt中直接兼容（更加统一，例如沉浸式翻译中如果system，不支持system的模型也能正常调用）\n- 支持全局代理模式\n- 支持每个service设置qps或qpm或者concurrency\n- 支持`\u002Fv1\u002Fmodels`和`\u002Fv1\u002Fmodels\u002F:model`接口\n\n### 更新日志\n\n查看 [CHANGELOG.md](docs\u002FCHANGELOG.md) 获取本项目的详细更新历史。\n\n### 交流群\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffruitbars_simple-one-api_readme_f74f05925d1e.jpg\" alt=\"交流群\" style=\"zoom: 50%;\" \u002F>\n\n## 安装\n\n### 源码安装\n\n1. 克隆本仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api.git\n```\n\n#### 快速编译使用\n\n首先得确保你已经安装了go，版本需要是1.21以上，具体安装教程参考官网地址：[https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall](https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall)\n可以通过`go version`查看go的版本。\n\n**linux\u002FmacOS**\n\n```shell\nchmod +x quick_build.sh\n.\u002Fquick_build.sh\n```\n\n将会在当前目录生成`simple-one-api`\n\n**Windows**\n双击`quick_build.bat`执行\n```bat\nquick_build.bat\n```\n\n将会在当前目录生成`simple-one-api.exe`\n\n**交叉编译不同平台版本**\n\n有时需要编译不同平台的版本，比如windows、linux、macOS； 确保安装好go之后，执行`build.sh`\n\n ```shell\n chmod +x build.sh\n .\u002Fbuild.sh\n ```\n会自动编译出对于以上3中平台不同架构的可执行文件，生成在`build`目录中。\n\n\n\n**接下来配置你的模型服务和凭证：**\n在 `config.json` 文件中添加你的模型服务和凭证信息，参考下文的配置文件说明。\n\n### 直接下载\n\n[前往Releases页面](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Freleases)\n\n## 使用方法\n\n### 直接启动\n默认读取和`simple-one-api`相同目录下的`config.json`启动\n   ```bash\n   .\u002Fsimple-one-api\n   ```\n如果想指定`config.json`的路径，可以这样启动\n   ```bash\n   .\u002Fsimple-one-api \u002Fpath\u002Fto\u002Fconfig.json\n   ```\n\n### Docker 启动\n\n以下是如何使用 Docker 部署 `simple-one-api` 的步骤：\n**运行**\n使用以下命令运行 Docker 容器，同时挂载你的配置文件 `config.json`：\n```sh\ndocker run -d --name simple-one-api -p 9090:9090 -v \u002Fpath\u002Fto\u002Fconfig.json:\u002Fapp\u002Fconfig.json fruitbars\u002Fsimple-one-api\n```\n**注意：** 请确保将 \u002Fpath\u002Fto\u002Fconfig.json 替换为 config.json 文件在你主机上的绝对路径。\n\n**查看容器日志**\n你可以使用以下命令查看容器的日志输出：\n\n```sh\ndocker logs -f simple-one-api\n```\n或\n```sh\ndocker logs -f \u003Ccontainer_id>\n```\n其中，\u003Ccontainer_id> 是容器的 ID，可以通过 docker ps 命令查看。\n\n#### Docker Compose 启动步骤\n\n1. **配置文件**：在`docker-compose.yml`中首先确保你已经将你的 `config.json` 文件的路径替换成了正确的绝对路径。\n2. **启动容器**：\n   使用 Docker Compose 启动服务，你可以在包含 `docker-compose.yml` 文件的目录下运行以下命令：\n   ```sh\n   docker-compose up -d\n   ```\n   这个命令会在后台启动 `simple-one-api` 服务。\n\n其他查看命令参考docker-compose的文档。\n\n### 其他启动方式\n其他启动方式:\n- [nohup启动](docs\u002Fstartup\u002Fnohup_startup.md)\n- [systemd启动](docs\u002Fstartup\u002Fsystemd_startup.md)\n\n\n### 调用 API\n\n 现在，你可以通过 OpenAI 兼容的接口调用你配置的各大模型服务。服务地址: `http:\u002F\u002Fhost:port\u002Fv1`,`api-key`可以任意设置\n\n 支持模型名称设置为`random`，后台会自动找一个`\"enabled\": true`的模型来使用。\n\n## 配置文件示例（以讯飞星火spark-lite为例）\n\n\n```json\n{\n    \"load_balancing\": \"random\",\n    \"services\": {\n      \"xinghuo\": [\n        {\n          \"models\": [\"spark-lite\"],\n          \"enabled\": true,\n          \"credentials\": {\n            \"appid\": \"xxx\",\n            \"api_key\": \"xxx\",\n            \"api_secret\": \"xxx\"\n          }\n        }\n      ]\n    }\n}\n```\n\n其他模型的配置文件示例可以参考:[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples)\n\n\n\n**配置文件在线生成**\n\n感谢来自社群小伙伴提供在线生成配置\n\n[https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F](https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F)\n\n## 配置文件说明\n\n参考文档：[config.json详细说明](docs\u002Fconfig.json详细说明.md)\n\n各个厂商详细的配置说明：[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fdocs](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fdocs)\n\n各个厂商详细的示例config：[https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Ftree\u002Fmain\u002Fsamples)\n\n### 比较完整的配置文件示例\n\n具体文档查看[config.json详细说明.md](docs\u002Fconfig.json详细说明.md),以下是一个完整的配置示例，涵盖了多个大模型平台和不同模型：\n\n```json\n{\n  \"server_port\":\":9090\",\n  \"load_balancing\": \"random\",\n  \"services\": {\n    \"qianfan\": [\n      {\n        \"models\": [\"yi_34b_chat\", \"ERNIE-Speed-8K\", \"ERNIE-Speed-128K\", \"ERNIE-Lite-8K\", \"ERNIE-Lite-8K-0922\", \"ERNIE-Tiny-8K\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"api_key\": \"xxx\",\n          \"secret_key\": \"xxx\"\n        }\n      }\n    ],\n    \"xinghuo\": [\n      {\n        \"models\": [\"spark-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"appid\": \"xxx\",\n          \"api_key\": \"xxx\",\n          \"api_secret\": \"xxx\"\n        },\n        \"server_url\": \"ws:\u002F\u002Fspark-api.xf-yun.com\u002Fv1.1\u002Fchat\"\n      }\n    ],\n    \"hunyuan\": [\n      {\n        \"models\": [\"hunyuan-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"secret_id\": \"xxx\",\n          \"secret_key\": \"xxx\"\n        }\n      }\n    ],\n    \"openai\": [\n      {\n        \"models\": [\"deepseek-chat\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"api_key\": \"xxx\"\n        },\n        \"server_url\": \"https:\u002F\u002Fapi.deepseek.com\u002Fv1\"\n      }\n    ],\n    \"minimax\": [\n      {\n        \"models\": [\"abab6-chat\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"group_id\": \"xxx\",\n          \"api_key\": \"xxx\"\n        },\n        \"server_url\": \"https:\u002F\u002Fapi.minimax.chat\u002Fv1\u002Ftext\u002Fchatcompletion_pro\"\n      }\n    ]\n  }\n}\n```\n## FAQ\n### 在沉浸式翻译当中怎么使用？\n\n参考[docs\u002F在沉浸式翻译中使用simple-one-api](docs\u002F在沉浸式翻译中使用simple-one-api.md)\n\n### 是否支持并发限制？\n\n具体文档查看[config.json详细说明.md](docs\u002Fconfig.json详细说明.md)\n\n参考如下配置，免费的讯飞星火spark-lite模型，有2qps限制，因此可以这么设置：\n\n```json\n{\n  \"server_port\": \":9090\",\n  \"debug\": false,\n  \"load_balancing\": \"random\",\n  \"services\": {\n    \"xinghuo\": [\n      {\n        \"models\": [\"spark-lite\"],\n        \"enabled\": true,\n        \"credentials\": {\n          \"appid\": \"xxx\",\n          \"api_key\": \"xxx\",\n          \"api_secret\": \"xxx\"\n        },\n        \"limit\": {\n          \"qps\":2,\n          \"timeout\": 10\n        }\n      }\n    ]\n  }\n}\n```\n\n### 如何设置代理\n\n从v0.9.1开始，更新了代理方式，每个service支持独立代理\n参考文档《[simple‐one‐api代理配置说明](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fwiki\u002Fsimple%E2%80%90one%E2%80%90api%E4%BB%A3%E7%90%86%E9%85%8D%E7%BD%AE%E8%AF%B4%E6%98%8E )》\n\n\n\n### 如何设置一个对外的apikey？\n\n可以通过`api_key`字段来设置\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n### 单个模型如何配置多个credentials自动负载？\n 以客户端选择spark-lite为例，可以按照下面这样配置，会随机credentials\n\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         },\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n### 如何让后台随机选择模型使用？\n`load_balancing`就是为自动选择模型来配置的，支持`random`，自动随机选一个`enabled`为`true`的模型\n\n```json\n{\n    \"api_key\":\"123456\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n       \"xinghuo\": [\n         {\n           \"models\": [\"spark-lite\"],\n           \"enabled\": true,\n           \"credentials\": {\n             \"appid\": \"xxx\",\n             \"api_key\": \"xxx\",\n             \"api_secret\": \"xxx\"\n           }\n         }\n       ]\n   }\n}\n```\n\n\n## 星级历史\n\n[![星级历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffruitbars_simple-one-api_readme_b63910455a8a.png)](https:\u002F\u002Fstar-history.com\u002F#fruitbars\u002Fsimple-one-api&Date)\n\n## 贡献\n\n我们欢迎任何形式的贡献。如果你有任何建议或发现了问题，请通过提交 issue 或 pull request 的方式与我们联系。","# simple-one-api 快速上手指南\n\n`simple-one-api` 是一个轻量级适配层，旨在将各类国产及国际大模型（如讯飞星火、百度千帆、腾讯混元、Coze 等）统一转换为标准的 OpenAI API 格式。它无需复杂的计费和流量统计功能，专注于解决接口差异问题，实现开箱即用。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS, 或 Windows\n*   **Go 语言环境**：版本需为 **Go 1.21** 或以上。\n    *   安装指南：[https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall](https:\u002F\u002Fgo.dev\u002Fdoc\u002Finstall)\n    *   验证安装：在终端运行 `go version` 查看版本号。\n*   **模型凭证**：已申请目标大模型平台的 API Key 或相关凭证（如 AppID, Secret 等）。\n\n## 安装步骤\n\n您可以选择源码编译或直接下载预编译包。\n\n### 方式一：源码编译（推荐）\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api.git\n    cd simple-one-api\n    ```\n\n2.  **执行编译脚本**\n\n    *   **Linux \u002F macOS**:\n        ```bash\n        chmod +x quick_build.sh\n        .\u002Fquick_build.sh\n        ```\n        编译完成后，当前目录将生成 `simple-one-api` 可执行文件。\n\n    *   **Windows**:\n        双击运行 `quick_build.bat` 脚本。\n        编译完成后，当前目录将生成 `simple-one-api.exe` 可执行文件。\n\n    *   **交叉编译（可选）**:\n        如需生成多平台版本，运行 `build.sh` (Linux\u002FmacOS) 或对应脚本，产物将在 `build` 目录中。\n\n### 方式二：直接下载\n\n访问项目的 [Releases 页面](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Freleases) 下载对应您操作系统的最新预编译二进制文件。\n\n## 基本使用\n\n### 1. 配置模型服务\n\n在项目根目录下创建或编辑 `config.json` 文件。您需要在此填入大模型的凭证信息。\n\n以下以**讯飞星火 (spark-lite)** 为例的最小化配置：\n\n```json\n{\n    \"server_port\": \":9090\",\n    \"load_balancing\": \"random\",\n    \"services\": {\n      \"xinghuo\": [\n        {\n          \"models\": [\"spark-lite\"],\n          \"enabled\": true,\n          \"credentials\": {\n            \"appid\": \"您的 APPID\",\n            \"api_key\": \"您的 API_KEY\",\n            \"api_secret\": \"您的 API_SECRET\"\n          }\n        }\n      ]\n    }\n}\n```\n\n> **提示**：更多模型（如百度千帆、腾讯混元、Coze 等）的配置示例请参考项目 `samples` 目录或官方文档。也可使用社区提供的在线配置生成工具：[https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F](https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F)\n\n### 2. 启动服务\n\n**本地直接启动：**\n\n默认读取当前目录下的 `config.json`：\n```bash\n.\u002Fsimple-one-api\n```\n\n指定配置文件路径启动：\n```bash\n.\u002Fsimple-one-api \u002Fpath\u002Fto\u002Fconfig.json\n```\n\n**Docker 启动：**\n\n挂载配置文件并运行容器（请替换 `\u002Fpath\u002Fto\u002Fconfig.json` 为实际绝对路径）：\n```sh\ndocker run -d --name simple-one-api -p 9090:9090 -v \u002Fpath\u002Fto\u002Fconfig.json:\u002Fapp\u002Fconfig.json fruitbars\u002Fsimple-one-api\n```\n\n### 3. 调用 API\n\n服务启动后，即可通过标准的 OpenAI API 格式进行调用。\n\n*   **服务地址**: `http:\u002F\u002Flocalhost:9090\u002Fv1` (Docker 或远程部署请替换 localhost 为对应 IP)\n*   **API Key**: 可任意填写（除非在配置文件中设置了全局校验）\n*   **模型名称**: 填写配置中定义的模型名（如 `spark-lite`），或填写 `random` 让系统自动选择一个可用模型。\n\n**调用示例 (curl):**\n\n```bash\ncurl http:\u002F\u002Flocalhost:9090\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -H \"Authorization: Bearer any_key_will_work\" \\\n  -d '{\n    \"model\": \"spark-lite\",\n    \"messages\": [\n      {\"role\": \"user\", \"content\": \"你好，请介绍一下你自己\"}\n    ]\n  }'\n```\n\n**客户端集成：**\n该服务兼容所有支持 OpenAI 协议的客户端，如 **Next Chat**, **Lobe chat**, **gpt_academic** 等。只需将客户端的 API Base URL 修改为 `http:\u002F\u002Fyour-host:9090\u002Fv1` 即可。","一位独立开发者正在构建一个面向国内用户的智能客服机器人，需要同时利用百度、讯飞和腾讯等多家厂商的免费大模型能力以降低成本并提高响应稳定性。\n\n### 没有 simple-one-api 时\n- **接口适配繁琐**：每家厂商（如千帆、星火、混元）的 API 鉴权方式、请求参数格式各不相同，开发者需编写多套适配代码，维护成本极高。\n- **隐藏兼容陷阱**：即使部分厂商宣称“兼容 OpenAI 接口”，实际调用中仍存在细微差异，导致程序频繁报错，调试耗时耗力。\n- **功能过度冗余**：现有的聚合方案（如 one-api）包含复杂的计费、流量统计等功能，对于仅需调用免费接口的个人开发者而言过于笨重且配置复杂。\n- **部署门槛高**：通常需要依赖 Docker 或复杂的环境配置才能运行，难以在本地或小型服务器上快速启动验证。\n\n### 使用 simple-one-api 后\n- **统一标准接入**：simple-one-api 将各家异构接口统一转换为标准的 OpenAI 格式，开发者只需编写一套代码即可无缝切换百度、讯飞、腾讯等后端模型。\n- **抹平差异细节**：工具内部自动处理了各厂商特有的参数差异和鉴权逻辑，彻底消除了因“伪兼容”导致的运行时错误，让调用稳如磐石。\n- **轻量化零负担**：摒弃了计费和统计等冗余功能，仅提供纯粹的接口转发，单个可执行文件即可运行，完美契合个人项目对轻量级的需求。\n- **一键开箱即用**：无需安装 Docker 或配置复杂环境，下载二进制文件修改简单配置即可启动，几分钟内即可完成从本地测试到服务部署的全流程。\n\nsimple-one-api 通过极简的单文件架构抹平了国产大模型的接口鸿沟，让开发者能专注于业务逻辑而非繁琐的底层适配。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffruitbars_simple-one-api_758be028.png","fruitbars","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffruitbars_40a073eb.jpg",null,"huiyanghu@gmail.com","https:\u002F\u002Fgithub.com\u002Ffruitbars",[81,85,89,93,97,101,105,109],{"name":82,"color":83,"percentage":84},"Go","#00ADD8",80.4,{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",11,{"name":90,"color":91,"percentage":92},"HTML","#e34c26",5.1,{"name":94,"color":95,"percentage":96},"Shell","#89e051",1.3,{"name":98,"color":99,"percentage":100},"Makefile","#427819",1.2,{"name":102,"color":103,"percentage":104},"CSS","#663399",0.9,{"name":106,"color":107,"percentage":108},"Dockerfile","#384d54",0.1,{"name":110,"color":111,"percentage":108},"Batchfile","#C1F12E",2307,194,"2026-04-13T09:27:21","MIT","Linux, macOS, Windows","未说明",{"notes":119,"python":117,"dependencies":120},"本项目基于 Go 语言开发，无需 GPU 或 Python 环境。主要依赖为 Go 1.21 及以上版本。支持直接下载预编译的可执行文件或通过源码编译（提供 quick_build.sh\u002Fbat 和 build.sh 脚本）。运行时需要配置 config.json 文件以接入各大模型厂商的 API Key。支持 Docker 部署。",[121],"Go 1.21+",[15,25],"2026-03-27T02:49:30.150509","2026-04-14T00:10:32.289907",[126,131,136,141,146,150,155,160],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},32195,"调用 Groq 接口时返回 403 错误且提示 'invalid character '\u003C' looking for beginning of value' 怎么办？","这通常是因为网络代理问题导致请求被拦截，服务器返回了 HTML 页面而非 JSON 数据，从而引发解析错误。解决方案是检查并关闭系统代理，或者配置正确的代理设置后再试。如果在国内访问，大概率是被阻断，建议挂代理后重试。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F28",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},32196,"如何保留原始的 messages 结构，避免 system 角色被自动清理或移动？","从 v0.9.5 版本开始，项目已支持关闭消息规范化功能。如果您需要保持 messages 原样传递（例如在某些模型中需要在对话中间插入 system 提示），请升级到最新版本。维护者正在努力兼容各家模型对 system 角色的不同要求（如 Moonshot 支持中间穿插 system）。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F51",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},32197,"如何配置和使用 API Key 以及限制特定 Key 可访问的模型？","支持配置单个 api_key 或多个 api_keys（可设定每个 Key 能调用的具体模型）。请在配置文件中参考以下格式：\n\"api_keys\": [\n  {\n    \"api_key\": \"key1\",\n    \"supported_models\": {\n      \"service1\": [\"model1\", \"model2\"],\n      \"service2\": [\"*\"]\n    }\n  }\n]\n详细用法请参考文档《2.7 api_keys 和 api_key 字段详解》。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F61",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},32198,"是否支持 Azure OpenAI 服务？","是的，从 v0.8.0 版本开始已正式支持 Azure OpenAI。您可以通过 Docker 更新镜像或下载预编译文件来获取该功能。具体配置可参考 Azure 官方文档进行设置。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F6",{"id":147,"question_zh":148,"answer_zh":149,"source_url":135},32199,"为什么直接调用 API 和通过 simple-one-api 调用大模型返回的结果不同？","这是因为默认情况下程序会对 messages 进行 Normalize（规范化）处理，可能会清理或调整 prompt 中的内容（如过滤 system 角色）。如果您希望原样透传请求，请确保使用支持关闭此功能的版本（v0.9.5+），或者检查是否因模型兼容性（如 SpringAI 发送的 content 格式差异）导致的数据结构变化。",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},32200,"Docker 部署后启动成功但访问没有日志变化或无法连接怎么办？","如果容器显示已启动但无日志输出，请首先确认客户端或自带的 WebUI 调用时具体的报错信息。检查端口映射是否正确，以及防火墙是否阻止了访问。有时看似启动成功实则进程未正常监听端口，需结合客户端报错进一步排查。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F57",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},32201,"调用火山方舟模型时程序崩溃（panic: nil pointer dereference）如何解决？","该问题是由于流式响应处理中的空指针引用导致的。请尝试更新到最新版本，因为维护者已在后续版本中修复了相关配置兼容性问题并增加了新的配置项。如果问题依旧，请检查配置文件格式是否符合最新文档要求。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F45",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},32202,"Xunfei Spark-lite 模型调用时 user content 为空是怎么回事？","这是由于协议差异导致的。GPT Vision 协议的 content 字段变为数组，而非 Vision 模式通常为字符串。而 SpringAI 在默认模式下发送的请求结构与该项目预期不完全兼容（SpringAI 即使是纯文本也会带有 text 字段）。需要等待项目更新以支持更灵活的内容格式解析。","https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fissues\u002F23",[166,171,176,181,186,191,196,201,206,211,216,221,226,231,236,241,246],{"id":167,"version":168,"summary_zh":169,"released_at":170},245044,"v0.9.6","1. 支持通过 OpenAI 接口调用 Dify 的 \u002Fchat-messages 接口  \n2. 修复了对星火的 spark-lite 模型调用的支持（因官方更改了参数）  \n3. 支持百度千帆的 embedding 模型以及 OpenAI 的 embedding 模型","2024-11-11T09:31:49",{"id":172,"version":173,"summary_zh":174,"released_at":175},245045,"v0.9.5","准备发布 v0.9.5 版本  \n1、Moonshot 支持在对话中间穿插 system 消息【支持】  \n2、JSON 配置文件出错时，可以提示详细的错误信息【支持】  \n3、支持火山 Bot【支持】  \n4、阿里云 DashScope【支持】  \n5、支持文心智能体【支持】","2024-08-19T10:10:33",{"id":177,"version":178,"summary_zh":179,"released_at":180},245046,"v0.9.4","1、响应消息的模型定义与客户端模型完全一致，与实际调用的模型名称无关。  \n2、修复了Ollama连接中断的问题。  \n3、实现了更细粒度的QPM滑动窗口机制，能够更精准地控制QPM，感谢@xiaotianxt。  \n4、支持视觉模型Yi-Vision和GPT-4o-mini。","2024-08-09T02:26:40",{"id":182,"version":183,"summary_zh":184,"released_at":185},245047,"v0.9.3","1、支持 API Keys，可根据 API Key 配置允许使用哪些模型。  \n2、支持科大讯飞星火的 spark-pro-128k 模型。  \n3、默认关闭 WebUI，可通过配置开启。  \n4、修复了火山方舟 WebUI 的崩溃问题。","2024-07-31T16:49:40",{"id":187,"version":188,"summary_zh":189,"released_at":190},245048,"v0.9.2","1. [增加对异常消息 content 为 object 类型时的兼容](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fcommit\u002F4cbfa33ddcededa3b40ff971343a46c928f98ae4)\n2. [增加 v1 结尾路径的支持](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fcommit\u002F3f6d4652beed971999fc65e2b4805355eeb059e8)\n3. [在响应消息缺少 role 字段时自动添加](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fcommit\u002Fa336b5ef5b662c2fc2f196e0d2c287e96ff72b8c)","2024-07-13T23:53:34",{"id":192,"version":193,"summary_zh":194,"released_at":195},245049,"v0.9.2-beta","1. 增加简洁版对话页面，支持多个模型同时输出结果，方便确认服务是否正常。  \n2. 支持将DeepL协议转换为大模型接口调用，并提供测试页面。  \n3. 增加对claude.ai的支持。  \n4. Gemini支持设置自定义地址。  \n5. 新增针对FreeBSD的编译构建。  \n6. 客户端配置的地址兼容性增强，只要是以\u002Fv1\u002Fchat\u002Fcompletions结尾的地址均可提供服务。  \n7. 群友贡献的在线配置文件生成器：https:\u002F\u002Fsimple-one-api-ui.vercel.app\u002F。","2024-07-12T10:23:20",{"id":197,"version":198,"summary_zh":199,"released_at":200},245050,"v0.9.1","1. 每个服务支持独立代理，参考文档《[simple‑one‑api代理配置说明](https:\u002F\u002Fgithub.com\u002Ffruitbars\u002Fsimple-one-api\u002Fwiki\u002Fsimple%E2%80%90one%E2%80%90api%E4%BB%A3%E7%90%86%E9%85%8D%E7%BD%AE%E8%AF%B4%E6%98%8E )》\r\n2. 修复某些情况下Gemini不可用的问题\r\n3. 在出错时输出模型厂商的实际错误消息体，便于定位问题\r\n4. 修复调用Coze时处理包含system消息异常的问题","2024-07-04T16:47:36",{"id":202,"version":203,"summary_zh":204,"released_at":205},245051,"0.9.0","更新如下：\n1. 支持GPT-4o、GLM-4v模型。\n2. 支持全局model_redirect。\n3. 支持负载均衡（random、rr、hash），并可设置权重。\n4. 支持同时配置多个授权信息，且可设置QPS或并发限制。\n5. Geimi确保客户端正常处理，去除\"finishReason\": \"STOP\"。以及Gemini图片支持。\n6. 支持JSON、YAML配置文件格式。\n7. 可将客户端的某个模型指定为random模式。\n8. 设置topp等参数范围。\n9. 支持讯飞星火ultra4.0，以及讯飞星火的openai API格式协议，文档地址：[spark HTTP调用文档](https:\u002F\u002Fwww.xfyun.cn\u002Fdoc\u002Fspark\u002FHTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html)","2024-07-01T17:28:17",{"id":207,"version":208,"summary_zh":209,"released_at":210},245052,"v0.8.2","1、修复 model_redirect 部分问题  \n2、内置默认支持千帆、文心一言、通义千问等模型名称，无需单独配置","2024-06-24T09:46:18",{"id":212,"version":213,"summary_zh":214,"released_at":215},245053,"v0.8.1","1、支持 `\u002Fv1\u002Fmodels` 和 `\u002Fv1\u002Fmodels\u002F:model` 接口 2、修复部分日志问题","2024-06-23T16:44:32",{"id":217,"version":218,"summary_zh":219,"released_at":220},245054,"v0.8","\r\n1. 去除 `.env` 文件的警告\r\n2. 兼容 Azure OpenAI 的配置 `server_url` 的各种形式\r\n   - 例如：`https:\u002F\u002Fjianyu-use-gpt4.openai.azure.com\u002F`\r\n   - 例如：`https:\u002F\u002FYOUR_RESOURCE_NAME.openai.azure.com\u002Fopenai\u002Fdeployments\u002FYOUR_DEPLOYMENT_NAME\u002Fcompletions?api-version=2024-02-01`\r\n4. 修复有时候配置文件获取的不是 `simple-one-api` 同目录下的 `config.json` 问题\r\n5. 并发控制，QPS 或者并发限制\r\n6. 增加日志控制\r\n7. 增加代理支持\r\n","2024-06-19T16:12:20",{"id":222,"version":223,"summary_zh":224,"released_at":225},245055,"v0.7","1. 支持ollma和火山方舟\r\n2. 支持模型设置别名\r\n3. 支持azure openai","2024-06-13T07:02:48",{"id":227,"version":228,"summary_zh":229,"released_at":230},245056,"v0.5","1、新增coze.cn的API支持；\r\n2、没有找到配置文件情况下，输出配置文件信息再退出","2024-06-09T16:43:33",{"id":232,"version":233,"summary_zh":234,"released_at":235},245057,"v0.4","1. 修复兼容cloudflare workers ai的问题\r\n2. 兼容配置 https:\u002F\u002Fapi.openai.com\u002Fv1\u002Fchat\u002Fcompletions 和 https:\u002F\u002Fapi.openai.com\u002Fv1  两种格式的server_url","2024-06-06T01:58:38",{"id":237,"version":238,"summary_zh":239,"released_at":240},245058,"v0.3","1. 程序调整默认gin为release模型\r\n2. 支持了星火的function call\r\n3. 修复了abab6-chat的默认maxtokens太小的导致断流的问题（自动调整为最大）\r\n4. 千帆的模型maxtokens超出时，自动调整为区间范围内","2024-06-03T17:04:12",{"id":242,"version":243,"summary_zh":244,"released_at":245},245059,"v0.2","1、支持设置api_key，客户端传入一致时才允许使用。\r\n2、修复random不够随机的问题\r\n3、单个模型，是支持配置多个credentials；后台会自动选择一个；这样可以做到自动负载均衡","2024-05-29T09:17:11",{"id":247,"version":248,"summary_zh":249,"released_at":250},245060,"v0.1","# v0.1\r\n1. 支持非stream模型和stream模式\r\n2. 支持国内的讯飞星火、百度千帆、腾讯混元、deep-seek、minimax\r\n3. 支持成模型为random，自动从配置中选一个模型使用","2024-05-28T05:56:47"]