[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fatwang2--coze2openai":3,"tool-fatwang2--coze2openai":61},[4,17,27,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[14,26],"插件",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[26,14,35,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[26,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":50,"last_commit_at":51,"category_tags":52,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,35,14,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":99,"github_topics":77,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":100,"updated_at":101,"faqs":102,"releases":103},9226,"fatwang2\u002Fcoze2openai","coze2openai","Turn Coze API into OpenAI","coze2openai 是一款轻量级桥梁工具，旨在将字节跳动的 Coze API 无缝转换为标准的 OpenAI API 格式。它的核心作用是解决生态兼容性问题：让用户能够在任何支持 OpenAI 协议的客户端（如 Chatbox、NextChat 等）或代码项目中，直接调用 Coze 平台强大的大模型、知识库、插件及工作流能力，无需修改原有集成逻辑。\n\n这款工具特别适合开发者和技术爱好者使用。如果你已经习惯了 OpenAI 的开发体验，却又想利用 Coze 丰富的 Bot 生态和低成本优势，coze2openai 能帮你免去重复开发的麻烦。其技术亮点在于完美支持流式（Streaming）与非流式响应，并允许通过环境变量配置实现多 Bot 快速切换，极大提升了调试和部署的灵活性。\n\n在部署方面，coze2openai 提供了极高的自由度，既支持通过 Docker 进行本地私有化部署，也一键兼容 Zeabur、Vercel、Railway 等主流 Serverless 云平台。只需简单配置 Bot ID 和 API Token，即可让原本局限于 Coze 网页端的智能助手，瞬间变成你本地","coze2openai 是一款轻量级桥梁工具，旨在将字节跳动的 Coze API 无缝转换为标准的 OpenAI API 格式。它的核心作用是解决生态兼容性问题：让用户能够在任何支持 OpenAI 协议的客户端（如 Chatbox、NextChat 等）或代码项目中，直接调用 Coze 平台强大的大模型、知识库、插件及工作流能力，无需修改原有集成逻辑。\n\n这款工具特别适合开发者和技术爱好者使用。如果你已经习惯了 OpenAI 的开发体验，却又想利用 Coze 丰富的 Bot 生态和低成本优势，coze2openai 能帮你免去重复开发的麻烦。其技术亮点在于完美支持流式（Streaming）与非流式响应，并允许通过环境变量配置实现多 Bot 快速切换，极大提升了调试和部署的灵活性。\n\n在部署方面，coze2openai 提供了极高的自由度，既支持通过 Docker 进行本地私有化部署，也一键兼容 Zeabur、Vercel、Railway 等主流 Serverless 云平台。只需简单配置 Bot ID 和 API Token，即可让原本局限于 Coze 网页端的智能助手，瞬间变成你本地开发环境或常用软件中的得力伙伴，真正实现了“一次接入，随处可用”。","## C2O\n**English** · [中文](README_CN.md) \n\n**Use Coze on your favorite OpenAI client.**\n\nThis project converts the Coze API to the OpenAI API format, giving you access to [Coze](https:\u002F\u002Fwww.coze.com) LLMs, knowledge base, plugins, and workflows within your preferred OpenAI clients. \n\n## Features\n- Convert Coze API into an OpenAI API\n- Support streaming and blocking\n- Supports multi-bot switching\n\n## Preparation\n1. Register with [coze.com](https:\u002F\u002Fwww.coze.com) or [coze.cn](https:\u002F\u002Fwww.coze.cn)and obtain your API token\n![cozeapitoken](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_46e8c8a8d6c1.png)\n\n2. Create your bot and publish it to the API\n![cozeapi](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_091ec484c0b6.png)\n\n3. Obtain the bot's ID,the number after the bot parameter, and configure it as an environment variable\n```bash\nhttps:\u002F\u002Fwww.coze.com\u002Fspace\u002F73428668341****\u002Fbot\u002F73428668*****\n```\n\n## Deployment\n### Zeabur\n[![Deploy on Zeabur](https:\u002F\u002Fzeabur.com\u002Fbutton.svg)](https:\u002F\u002Fzeabur.com\u002Ftemplates\u002FBZ515Z?referralCode=fatwang2)\n\n### Vercel\n[![Deploy with Vercel](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https:\u002F\u002Fgithub.com\u002Ffatwang2\u002Fcoze2openai&env=BOT_ID&envDescription=COZE_BOT_ID)\n\n**Note:** Vercel's serverless functions have a 10-second timeout limit.\n\n### Railway\n[![Deploy on Railway](https:\u002F\u002Frailway.app\u002Fbutton.svg)](https:\u002F\u002Frailway.app\u002Ftemplate\u002FyM5tQL?referralCode=mDim7U)\n\n### Docker Deployment\n\n1. Ensure Docker and Docker Compose are installed on your machine.\n\n2. Clone the project repository:\n   ```\n   git clone https:\u002F\u002Fgithub.com\u002Fyour-username\u002Fcoze2openai.git\n   cd coze2openai\n   ```\n\n3. Create and configure the `.env` file:\n   ```\n   cp .env.template .env\n   ```\n   Edit the `.env` file and fill in your BOT_ID and other necessary configurations.\n\n4. Build and start the Docker container:\n   ```\n   docker-compose up -d\n   ```\n\n5. Visit `http:\u002F\u002Flocalhost:3000` to confirm that the service is running correctly.\n\nTo stop the service, run:\n```\ndocker-compose down\n```\n\nNote: The Dockerfile uses Taobao NPM mirror, you can comment out or replace other different mirror:\n```Dockerfile\nENV NPM_CONFIG_REGISTRY=https:\u002F\u002Fregistry.npmmirror.com\u002F\nENV PNPM_REGISTRY=https:\u002F\u002Fregistry.npmmirror.com\u002F\n```\n\n### Local Deployment\n1. Set the environment variable on `.env` file\n```bash\nBOT_ID=xxxx\n```\n\n2. Install dependencies \n```bash\npnpm install\n```\n\n3. Run the project\n```bash\npnpm start\n```\n\n## Usage\n1. OpenAI Clients\n\n![botgem](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_bd7e0f5a684a.png)\n\n2. Code\n\n```JavaScript\nconst response = await fetch('http:\u002F\u002Flocalhost:3000\u002Fv1\u002Fchat\u002Fcompletions', {\n  method: 'POST',\n  headers: {\n    'Content-Type': 'application\u002Fjson',\n    'Authorization': 'Bearer YOUR_COZE_API_KEY',\n  },\n  body: JSON.stringify({\n    model: 'model_name',\n    messages: [\n      { role: 'system', content: 'You are a helpful assistant.' },\n      { role: 'user', content: 'Hello, how are you?' },\n    ],\n  }),\n});\n\nconst data = await response.json();\nconsole.log(data);\n```\n## Environment Variable\nThis project provides some additional configuration items set with environment variables:\n\n| Environment Variable | Required | Description                                                                                                                                                               | Example                                                                                                              |\n| -------------------- | -------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------- |\n| `BOT_ID`     | Yes      | The ID of the bot. Obtain it from the Develop page URL of your bot in Coze. The number after the bot parameter is the bot ID.| `73428668*****`|\n| `BOT_CONFIG`     | No      | Configure different models to correspond to different bot ids to enable fast bot switching on the client side. Models that are not included will request the default BOT_ID | `{\"model_name_1\": \"bot_id_1\", \"model_name_2\": \"bot_id_2\", \"model_name_3\": \"bot_id_3\"}`|\n| `COZE_API_BASE`     | No      | Choose coze.com or coze.cn | `api.coze.com, api.coze.cn`|\n\n## Roadmap\n**Coming Soon**\n*   Image support\n*   Audio-to-text\n*   Text-to-audio\n\n**Available Now**\n*   Coze.cn\n*   Multi-bot switching\n*   Workflow, Plugins, Knowledge base\n*   Continuous dialogue with the history of chat\n*   Zeabur & Vercel & Railway deployment\n*   Streaming & Blocking\n*   Docker deployment\n\n## Contact\nFeel free to reach out for any questions or feedback\n\n[X](https:\u002F\u002Fsum4all.site\u002Ftwitter)\\\n[telegram](https:\u002F\u002Fsum4all.site\u002Ftelegram)\n\n\u003Ca href=\"https:\u002F\u002Fwww.buymeacoffee.com\u002Ffatwang2\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fcdn.buymeacoffee.com\u002Fbuttons\u002Fv2\u002Fdefault-yellow.png\" alt=\"Buy Me A Coffee\" style=\"height: 60px !important;width: 217px !important;\" >\u003C\u002Fa>\n\n## License\nThis project is licensed under the MIT License.\n","## C2O\n**English** · [中文](README_CN.md) \n\n**在您喜爱的 OpenAI 客户端上使用 Coze。**\n\n本项目将 Coze API 转换为 OpenAI API 格式，让您能够在首选的 OpenAI 客户端中访问 [Coze](https:\u002F\u002Fwww.coze.com) 的大模型、知识库、插件和工作流。\n\n## 特性\n- 将 Coze API 转换为 OpenAI API\n- 支持流式传输和阻塞模式\n- 支持多机器人切换\n\n## 准备工作\n1. 在 [coze.com](https:\u002F\u002Fwww.coze.com) 或 [coze.cn](https:\u002F\u002Fwww.coze.cn) 注册并获取您的 API 令牌\n![cozeapitoken](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_46e8c8a8d6c1.png)\n\n2. 创建您的机器人并将其发布到 API\n![cozeapi](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_091ec484c0b6.png)\n\n3. 获取机器人的 ID，即 bot 参数后面的数字，并将其配置为环境变量：\n```bash\nhttps:\u002F\u002Fwww.coze.com\u002Fspace\u002F73428668341****\u002Fbot\u002F73428668*****\n```\n\n## 部署方式\n### Zeabur\n[![在 Zeabur 上部署](https:\u002F\u002Fzeabur.com\u002Fbutton.svg)](https:\u002F\u002Fzeabur.com\u002Ftemplates\u002FBZ515Z?referralCode=fatwang2)\n\n### Vercel\n[![使用 Vercel 部署](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_a4c0f8073a9c.png)](https:\u002F\u002Fvercel.com\u002Fnew\u002Fclone?repository-url=https:\u002F\u002Fgithub.com\u002Ffatwang2\u002Fcoze2openai&env=BOT_ID&envDescription=COZE_BOT_ID)\n\n**注意：** Vercel 的无服务器函数有 10 秒的超时限制。\n\n### Railway\n[![在 Railway 上部署](https:\u002F\u002Frailway.app\u002Fbutton.svg)](https:\u002F\u002Frailway.app\u002Ftemplate\u002FyM5tQL?referralCode=mDim7U)\n\n### Docker 部署\n\n1. 确保您的机器上已安装 Docker 和 Docker Compose。\n\n2. 克隆项目仓库：\n   ```\n   git clone https:\u002F\u002Fgithub.com\u002Fyour-username\u002Fcoze2openai.git\n   cd coze2openai\n   ```\n\n3. 创建并配置 `.env` 文件：\n   ```\n   cp .env.template .env\n   ```\n   编辑 `.env` 文件，填写您的 BOT_ID 及其他必要配置。\n\n4. 构建并启动 Docker 容器：\n   ```\n   docker-compose up -d\n   ```\n\n5. 访问 `http:\u002F\u002Flocalhost:3000`，确认服务正常运行。\n\n要停止服务，请运行：\n```\ndocker-compose down\n```\n\n注意：Dockerfile 使用了淘宝 NPM 镜像，您可以注释掉或替换为其他镜像：\n```Dockerfile\nENV NPM_CONFIG_REGISTRY=https:\u002F\u002Fregistry.npmmirror.com\u002F\nENV PNPM_REGISTRY=https:\u002F\u002Fregistry.npmmirror.com\u002F\n```\n\n### 本地部署\n1. 在 `.env` 文件中设置环境变量：\n```bash\nBOT_ID=xxxx\n```\n\n2. 安装依赖：\n```bash\npnpm install\n```\n\n3. 运行项目：\n```bash\npnpm start\n```\n\n## 使用方法\n1. OpenAI 客户端\n\n![botgem](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_readme_bd7e0f5a684a.png)\n\n2. 代码示例：\n\n```JavaScript\nconst response = await fetch('http:\u002F\u002Flocalhost:3000\u002Fv1\u002Fchat\u002Fcompletions', {\n  method: 'POST',\n  headers: {\n    'Content-Type': 'application\u002Fjson',\n    'Authorization': 'Bearer YOUR_COZE_API_KEY',\n  },\n  body: JSON.stringify({\n    model: 'model_name',\n    messages: [\n      { role: 'system', content: 'You are a helpful assistant.' },\n      { role: 'user', content: 'Hello, how are you?' },\n    ],\n  }),\n});\n\nconst data = await response.json();\nconsole.log(data);\n```\n\n## 环境变量\n本项目提供了一些通过环境变量设置的额外配置项：\n\n| 环境变量 | 是否必填 | 描述                                                                                                                                                               | 示例                                                                                                              |\n| -------- | -------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------- |\n| `BOT_ID`     | 是      | 机器人的 ID。从 Coze 中您机器人的开发页面 URL 获取。bot 参数后面的数字即为机器人 ID。| `73428668*****`|\n| `BOT_CONFIG`     | 否      | 配置不同模型对应的机器人 ID，以便在客户端快速切换机器人。未包含的模型将请求默认的 BOT_ID | `{\"model_name_1\": \"bot_id_1\", \"model_name_2\": \"bot_id_2\", \"model_name_3\": \"bot_id_3\"}`|\n| `COZE_API_BASE`     | 否      | 选择 coze.com 或 coze.cn | `api.coze.com, api.coze.cn`|\n\n## 路线图\n**即将推出**\n* 图像支持\n* 音频转文本\n* 文本转音频\n\n**现已可用**\n* Coze.cn 支持\n* 多机器人切换\n* 工作流、插件、知识库功能\n* 基于聊天历史的连续对话\n* Zeabur、Vercel 和 Railway 部署\n* 流式传输与阻塞模式\n* Docker 部署\n\n## 联系方式\n如有任何问题或反馈，欢迎随时联系。\n\n[X](https:\u002F\u002Fsum4all.site\u002Ftwitter)\\\n[telegram](https:\u002F\u002Fsum4all.site\u002Ftelegram)\n\n\u003Ca href=\"https:\u002F\u002Fwww.buymeacoffee.com\u002Ffatwang2\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fcdn.buymeacoffee.com\u002Fbuttons\u002Fv2\u002Fdefault-yellow.png\" alt=\"Buy Me A Coffee\" style=\"height: 60px !important;width: 217px !important;\" >\u003C\u002Fa>\n\n## 许可证\n本项目采用 MIT 许可证授权。","# coze2openai 快速上手指南\n\ncoze2openai 是一个将 Coze API 转换为 OpenAI API 格式的开源工具，让你能在任意支持 OpenAI 协议的客户端（如 Chatbox、NextChat 等）或代码中直接使用 Coze 的机器人、知识库、插件和工作流。\n\n## 环境准备\n\n*   **系统要求**：支持 Docker 的环境，或安装了 Node.js (推荐 v18+) 的操作系统。\n*   **前置依赖**：\n    *   已注册 [Coze (扣子)](https:\u002F\u002Fwww.coze.cn) 账号。\n    *   已创建并发布一个 Bot 到 API。\n    *   获取 **API Token** 和 **Bot ID**：\n        1.  在 Coze 开发页面获取 API Token。\n        2.  从浏览器地址栏获取 Bot ID（URL 中 `bot\u002F` 后面的数字，例如 `...\u002Fbot\u002F73428668*****`）。\n\n## 安装步骤\n\n你可以选择 **Docker 部署**（推荐，配置简单且自动使用国内镜像源）或 **本地源码部署**。\n\n### 方案一：Docker 部署（推荐）\n\n1.  克隆项目并进入目录：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffatwang2\u002Fcoze2openai.git\n    cd coze2openai\n    ```\n\n2.  复制环境变量模板并编辑配置：\n    ```bash\n    cp .env.template .env\n    ```\n    使用编辑器打开 `.env` 文件，填入你的 Bot ID：\n    ```bash\n    BOT_ID=你的 Bot_ID_数字\n    # 如果使用的是国内版扣子，建议添加以下配置\n    COZE_API_BASE=api.coze.cn\n    ```\n\n3.  启动服务：\n    ```bash\n    docker-compose up -d\n    ```\n    *注：Dockerfile 默认已配置淘宝 NPM 镜像源 (`registry.npmmirror.com`)，国内下载依赖更快。*\n\n4.  验证服务：访问 `http:\u002F\u002Flocalhost:3000` 确认服务运行正常。\n\n### 方案二：本地源码部署\n\n1.  克隆项目并进入目录：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffatwang2\u002Fcoze2openai.git\n    cd coze2openai\n    ```\n\n2.  配置环境变量：\n    ```bash\n    cp .env.template .env\n    # 编辑 .env 文件，设置 BOT_ID 和 COZE_API_BASE\n    ```\n\n3.  安装依赖（推荐使用 pnpm）：\n    ```bash\n    pnpm install\n    ```\n\n4.  启动项目：\n    ```bash\n    pnpm start\n    ```\n\n## 基本使用\n\n部署完成后，该服务会暴露一个兼容 OpenAI 格式的接口 `http:\u002F\u002Flocalhost:3000\u002Fv1\u002Fchat\u002Fcompletions`。\n\n### 1. 在第三方客户端中使用\n配置你的 AI 客户端（如 Chatbox, Lore, NextChat 等）：\n*   **API 地址 (Base URL)**: `http:\u002F\u002Flocalhost:3000\u002Fv1` (本地部署) 或你的服务器地址。\n*   **API 密钥 (API Key)**: 填写你在 Coze 获取的 **API Token**。\n*   **模型名称 (Model)**: 填写任意字符串（若未配置多 Bot 映射，将默认使用环境变量中的 `BOT_ID`），或根据 `BOT_CONFIG` 配置特定的模型名来切换 Bot。\n\n### 2. 代码调用示例\n以下是一个标准的 JavaScript 调用示例：\n\n```JavaScript\nconst response = await fetch('http:\u002F\u002Flocalhost:3000\u002Fv1\u002Fchat\u002Fcompletions', {\n  method: 'POST',\n  headers: {\n    'Content-Type': 'application\u002Fjson',\n    'Authorization': 'Bearer YOUR_COZE_API_KEY', \u002F\u002F 替换为你的 Coze API Token\n  },\n  body: JSON.stringify({\n    model: 'model_name', \u002F\u002F 可随意填写，或通过 BOT_CONFIG 映射特定 Bot\n    messages: [\n      { role: 'system', content: 'You are a helpful assistant.' },\n      { role: 'user', content: 'Hello, how are you?' },\n    ],\n  }),\n});\n\nconst data = await response.json();\nconsole.log(data);\n```\n\n### 高级配置：多 Bot 切换\n如需在客户端通过切换“模型名”来调用不同的 Coze Bot，可在 `.env` 中配置 `BOT_CONFIG`：\n```bash\nBOT_CONFIG={\"my_bot_1\": \"Bot_ID_1\", \"my_bot_2\": \"Bot_ID_2\"}\n```\n配置后，在客户端选择模型 `my_bot_1` 即可自动路由到对应的 Bot。","某初创团队希望将自研的 Coze 智能客服机器人（集成了专属知识库和插件）快速接入公司现有的基于 OpenAI 标准协议开发的内部办公助手应用中。\n\n### 没有 coze2openai 时\n- **协议不兼容导致开发受阻**：现有代码库完全依赖 OpenAI SDK，无法直接调用 Coze 特有的 API 接口，迫使团队重写大量底层通信逻辑。\n- **多模型切换成本高昂**：若想在不同业务线测试多个 Coze Bot，需要为每个机器人单独维护一套连接配置，代码耦合度极高且难以管理。\n- **实时交互体验差**：Coze 原生的流式输出（Streaming）功能无法直接映射到前端界面，用户只能等待完整回复生成，感觉响应迟钝。\n- **生态资源浪费**：团队在 Coze 平台上精心配置的知识库检索和插件工具链，因接口格式差异而无法在熟悉的 OpenAI 客户端中直接使用。\n\n### 使用 coze2openai 后\n- **无缝对接现有架构**：coze2openai 将 Coze API 实时转换为标准的 OpenAI 格式，团队无需修改任何业务代码，仅需更改 Base URL 即可立即调用 Coze 机器人。\n- **灵活的多机器人调度**：通过简单配置环境变量，coze2openai 支持在同一个客户端内通过切换模型名称来调用不同的 Coze Bot，极大提升了测试和部署效率。\n- **原生流式响应支持**：借助 coze2openai 的流式转换能力，前端立刻恢复了打字机效果的实时反馈，显著提升了人机交互的流畅度。\n- **全功能即时可用**：原本孤立的 Coze 知识库、插件和工作流能力，现在能直接在任意支持 OpenAI 协议的第三方客户端或代码中完美运行。\n\ncoze2openai 的核心价值在于打破平台壁垒，让开发者能以零代码改造成本，将 Coze 强大的定制化 AI 能力无缝融入成熟的 OpenAI 生态体系中。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffatwang2_coze2openai_bd7e0f5a.png","fatwang2","wang2","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffatwang2_ccbe7df4.jpg","A creator",null,"https:\u002F\u002Fgithub.com\u002Ffatwang2",[80,84],{"name":81,"color":82,"percentage":83},"JavaScript","#f1e05a",94.4,{"name":85,"color":86,"percentage":87},"Dockerfile","#384d54",5.6,653,154,"2026-04-16T03:51:48","MIT","Linux, macOS, Windows","未说明",{"notes":95,"python":93,"dependencies":96},"该项目为 API 转换中间件（将 Coze API 转为 OpenAI 格式），非本地大模型推理工具，因此无 GPU 和显存需求。支持通过 Docker、Vercel、Zeabur、Railway 部署或本地运行。本地运行需安装 pnpm 并配置 BOT_ID 等环境变量。默认使用淘宝 NPM 镜像加速依赖安装。",[97,98],"Node.js (隐含，因使用 pnpm)","pnpm",[15,26],"2026-03-27T02:49:30.150509","2026-04-19T03:03:46.853676",[],[104,109,114,119],{"id":105,"version":106,"summary_zh":107,"released_at":108},333418,"V0.0.4","- 免费支持 coze.cn","2024-05-23T16:14:58",{"id":110,"version":111,"summary_zh":112,"released_at":113},333419,"V0.0.3","- 修复了 CORS 问题，现已支持 NextChat\n\n![CleanShot 2024-04-24 at 23 54 38@2x](https:\u002F\u002Fgithub.com\u002Ffatwang2\u002Fcoze2openai\u002Fassets\u002F134143178\u002F1ff0f1da-530a-4c44-95c9-260b27c8b943)","2024-04-24T15:55:15",{"id":115,"version":116,"summary_zh":117,"released_at":118},333420,"V0.0.2","- 支持多机器人切换","2024-04-18T16:49:02",{"id":120,"version":121,"summary_zh":122,"released_at":123},333421,"V0.0.1","- 将 Coze API 转换为 OpenAI API\n- 支持流式传输和阻塞模式\n- 支持 Coze 上的聊天机器人 API\n- 支持连续对话\n- 支持 Zeabur 和 Vercel 部署\n- 支持流式传输与阻塞模式\n- 支持 Coze 上的插件","2024-04-15T17:24:39"]