[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ErlichLiu--DeepClaude":3,"tool-ErlichLiu--DeepClaude":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161692,"2026-04-20T11:33:57",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":24,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":114,"github_topics":115,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":158},10217,"ErlichLiu\u002FDeepClaude","DeepClaude","Unleash Next-Level AI! 🚀  💻 Code Generation: DeepSeek r1 + Claude 3.7 Sonnet - Unparalleled Performance! 📝 Content Creation: DeepSeek r1 + Gemini 2.5 Pro - Superior Quality! 🔌 OpenAI-Compatible. 🌊 Streaming & Non-Streaming Support.  ✨ Experience the Future of AI – Today! Click to Try Now! ✨","DeepClaude 是一款开源的 AI 模型编排工具，旨在通过组合不同大模型的优势，实现\"1+1>2\"的效果。它巧妙地将擅长逻辑推理的 DeepSeek R1 作为“架构师”，负责深度思考与规划；再衔接擅长代码生成或内容创作的 Claude 3.7 Sonnet、Gemini 2.5 Pro 等模型作为“执行者”，输出高质量结果。这种架构不仅解决了单一模型在复杂任务中推理能力或表达能力不足的问题，还显著降低了使用顶级模型的成本，部分组合甚至可实现免费高效运行。\n\nDeepClaude 特别适合开发者、技术研究人员及需要处理复杂编程或创意内容的用户。其核心亮点在于完全兼容 OpenAI 接口标准，这意味着用户无需修改现有代码或应用配置，即可无缝接入这一强大的模型组合。此外，工具支持流式与非流式输出，提供便捷的图形化配置界面和 Docker 一键部署方案，让技术门槛大幅降低。无论是构建智能编程助手，还是打造高性能内容创作平台，DeepClaude 都能让用户以更低成本体验到当前业界领先的 AI 综合能力。","\u003Cdiv>\n\u003Ch1>DeepClaude 🐬🧠 - OpenAI Compatible（deepclaude & deepgemini）\u003C\u002Fh1>\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgetasterisk\u002Fdeepclaude\"> Inspiration from getasterisk\u002Fdeepclaude\u003C\u002Fa>\n\n[![GitHub license](https:\u002F\u002Fimg.erlich.fun\u002Fpersonal-blog\u002FuPic\u002Fdeepclaude.svg)](#)\n[![Compatible with](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_aafaef09ebad.jpg)](https:\u002F\u002Fopenai.com)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv>\n\u003Ch4 style=\"color: #FF9909\"> 特别说明：\n\u003Cbr \u002F>\n在最新的 1.0 版本，我们已经实现了配置界面，部署更简单。\n1.编程：推荐 DeepSeek r1 + Claude Sonnet 4 组合，效果最好；\n2.内容创作：推荐 DeepSeek r1 + Gemini 2.5 Flash 或 Gemini 2.5 Pro 组合，效果最好，并且可以完全免费使用。\n\u003Cbr \u002F>\n对于不太会部署，只是希望使用上最强组合模型的朋友，可以直接访问 Erlich 个人网站自助购买按量付费的 API：https:\u002F\u002Ferlich.fun\u002Fdeepclaude-pricing\n也可以直接联系 Erlich（微信号：geekthings）\u003C\u002Fh4>\n\u003C\u002Fdiv>\n\n\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong> 赞助商：问小白 https:\u002F\u002Fwww.wenxiaobai.com （丝滑使用 DeepSeek r1 满血版， 支持联网、上传文件、图片、AI 创作 PPT 等）\u003C\u002Fstrong>\u003C\u002Fsummary>\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_161c375248a4.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_347859416e03.png\" \u002F>\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong> 友情链接：Ten Agent: https:\u002F\u002Fgithub.com\u002FTEN-framework\u002FTEN-Agent \u003C\u002Fstrong>\u003C\u002Fsummary>\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>更新日志：\u003C\u002Fstrong>\u003C\u002Fsummary> \n2025-05-29.2：更新 Docker Image 运行平台支持，可以通过 `docker pull erlichliu\u002Fdeepclaude ` 拉取到本地运行，自动选择合适的平台版本。\n\n2025-05-29.1：feat: 系统配置添加 deepseek r1 的 max_tokens 设置，降低成本。\n\n\n2025-05-27.2: 支持配置文件的导入导出模式，方便升级或部署后反复进行配置。\n\n2025-05-27.1: 适配 Gemini API 流式响应上的结束标记处理顺序问题。\n\n2025-05-22.3: 优化 openai 兼容格式返回结束标志，改善近期 deepgeminipro 中断回复的问题。\n\n2025-05-22.2: 优化组合模型之间的衔接 Prompt，提高不同模型本身的能力表达。\n\n2025-05-22.1: 支持可关闭 gemini 2.5 flash 的思考，节省 tokens 消耗，针对 gemini 2.5 pro 采用提示词优化的方式也可以平均每次降低 30% 的成本消耗。\n\n2025-05-16.1: 支持更友好的多段落报错返回，尤其是针对超过上下文长度的报错返回，可以更好的适配前端界面的报错。\n\n2025-03-22.1: 支持根据不同模型设置是否开启代理，提高运行效率。\n\n2025-03-10.1: deepseek r1 推理部分 max_token 改为 5，节省输出 Tokens 消耗；非流式输出部分增加 reasoning_content 数据字段的返回；将非流式输出设置为缺省值，方便 dify 等工具使用。\n\n2025-03-05.1: 更改docker compose配置, 使用volume将容器配置文件绑定至本地, 避免重启容器时丢失配置. 同时设置失败自动重启.\n\n2025-03-02.1: 更新 1.0 版本，支持图形化配置界面，取消 .env 配置，预配置模板，配置更方便\n\n2025-02-25.1: 添加 system message 对于 Claude 3.5 Sonnet 的支持\n\n2025-02-23.1: 重构代码，支持 OpenAI 兼容模型，deepgeminiflash 和 deepgeminipro 配置更方便（请详细查看 READEME 和 .env.example 内的说明）。\n\n2025-02-21.1: 添加 Claude 这段的详细数据结构安全检查。\n\n2025-02-16.1: 支持 claude 侧采用请求体中的自定义模型名称。（如果你采用 oneapi 等中转方，那么现在可以通过配置环境变量或在 API 请求中采用任何 Gemini 等模型完成后半部分。接下来将重构代码，更清晰地支持不同的思考模型组合。）\n\n2025-02-08.2: 支持非流式请求，支持 OpenAI 兼容的 models 接口返回。（⚠️ 当前暂未实现正确的 tokens 消耗统计，稍后更新）\n\n2025-02-08.1: 添加 Github Actions，支持 fork 自动同步、支持自动构建 Docker 最新镜像、支持 docker-compose 部署\n\n2025-02-07.2: 修复 Claude temperature 参数可能会超过范围导致的请求失败的 bug\n\n2025-02-07.1: 支持 Claude temputerature 等参数；添加更详细的 .env.example 说明\n\n2025-02-06.1：修复非原生推理模型无法获得到推理内容的 bug\n\n2025-02-05.1: 支持通过环境变量配置是否是原生支持推理字段的模型，满血版本通常支持\n\n2025-02-04.2: 支持跨域配置，可在 .env 中配置\n\n2025-02-04.1: 支持 Openrouter 以及 OneAPI 等中转服务商作为 Claude 部分的供应商\n\n2025-02-03.3: 支持 OpenRouter 作为 Claude 的供应商，详见 .env.example 说明\n\n2025-02-03.2: 由于 deepseek r1 在某种程度上已经开启了一个规范，所以我们也遵循推理标注的这种规范，更好适配支持的更好的 Cherry Studio 等软件。\n\n2025-02-03.1: Siliconflow 的 DeepSeek R1 返回结构变更，支持新的返回结构\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n# 简介\n最近 DeepSeek 推出了 [DeepSeek R1 模型](https:\u002F\u002Fplatform.deepseek.com)，在推理能力上已经达到了第一梯队。但是 DeepSeek R1 在一些日常任务的输出上可能仍然无法匹敌 Claude 3.5 Sonnet。Aider 团队最近有一篇研究，表示通过[采用 DeepSeek R1 + Claude 3.5 Sonnet 可以实现最好的效果](https:\u002F\u002Faider.chat\u002F2025\u002F01\u002F24\u002Fr1-sonnet.html)。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_deb14e100270.png\" alt=\"deepseek r1 and sonnet benchmark\" style=\"width=400px;\"\u002F>\n\n> **R1 as architect with Sonnet as editor has set a new SOTA of 64.0%** on the [aider polyglot benchmark](https:\u002F\u002Faider.chat\u002F2024\u002F12\u002F21\u002Fpolyglot.html). They achieve this at **14X less cost** compared to the previous o1 SOTA result.\n\n本项目受到该项目的启发，通过 fastAPI 完全重写，经过 15 天大量社区用户的真实测试，我们创作了一些新的组合使用方案。\n\n**1.编程：推荐使用 deepclaude = deepseek r1 + claude 3.7 sonnet;\n2.内容创作：推荐使用 deepgeminipro = deepseek r1 + gemini 2.0 pro (该方案可以完全免费使用);\n3.日常实验：推荐 deepgeminiflash = deepseek r1 + gemini 2.0 flash (该方案可以完全免费使用)。**\n\n项目**支持 OpenAI 兼容格式的输入输出**，支持 DeepSeek 官方 API 以及第三方托管的 API、生成部分也支持 Claude 官方 API 以及中转 API，并对 OpenAI 兼容格式的其他 Model 做了特别支持。\n\n**🔥推荐使用方法：**\n1.用户可以自行运行在自己的服务器，并对外提供开放 API 接口，接入 [OneAPI](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api) 等实现统一分发。\n\n2.接入你的日常大语言模型对话聊天使用。\n\n# Implementation\n\n![image-20250201212456050](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_9731172c650f.png)\n\n# How to run\n\n> 项目支持本地运行和服务器运行，推荐使用服务器部署，实现随时随处可访问的最强大语言模型服务，甚至可以完全免费使用。\n\n## 1. 获得运行所需的 API\n\n1. 获取 DeepSeek API，推荐采用 PPIO（派欧云）最新的 DeepSeek R1 0528，点击链接注册，新用户可以获得 15 元免费额度，再邀请人还可以获得 30 元：https:\u002F\u002Fppio.cn\u002Fuser\u002Fregister?invited_by=TXTPQF\n2. 获取 Claude 的 API KEY：https:\u002F\u002Fconsole.anthropic.com。(也可采用其他中转服务，如 DMXapi、Openrouter 以及其他服务商的 API KEY)\n3. 获取 Gemini 的 API KEY：https:\u002F\u002Faistudio.google.com\u002Fapikey (有免费的额度，日常够用)\n\n\n\n## 2. 开始运行（使用 Docker）\n\n** 极其推荐 Zeabur，然后通过 Zeabur 来购买新加坡或日本的服务器是最划算的，只要 2 美金就足够，如果你是新用户，可以点击：https:\u002F\u002Fzeabur.com\u002Freferral?referralCode=ErlichLiu 我们一起获得奖励额度 **\n\n✅ Step 1. 安装 Docker\n\n请确保你已经安装了 Docker Desktop（适用于 macOS 和 Windows），或 Docker Engine（适用于 Linux）。\n\nWindows 下载安装地址：https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Fsetup\u002Finstall\u002Fwindows-install\u002F\nmacOS 下载安装地址：https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Fsetup\u002Finstall\u002Fmac-install\u002F\n\n安装完成后，确保在终端中运行以下命令没有报错：\n\n`docker --version`\n\n\n\n🚀 Step 2. 拉取镜像并运行项目\n\n打开终端或命令行，输入以下命令：\n\n`docker run -p 8000:8000 erlichliu\u002Fdeepclaude:latest`\n\n运行后你可以访问：\n\n`http:\u002F\u002Flocalhost:8000\u002Fconfig`\n\n即可使用该服务。\n\n⸻\n\n📦 可选：后台运行 + 自动重启（建议部署时使用）\n\n`docker run -d --restart unless-stopped -p 8000:8000 erlichliu\u002Fdeepclaude:latest`\n\n\n⸻\n\n🧪 开发者：如果你想构建自己的镜像（而不是用已有镜像）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude.git\ncd DeepClaude\ndocker build -t deepclaude:dev .\ndocker run -p 8000:8000 deepclaude:dev\n```\n\n⸻\n\nStep 4. 开始配置：打开浏览器访问 http:\u002F\u002Flocalhost:8000\u002Fconfig 输入默认 api key：123456 （如果你运行在云端，请尽快登录后在系统设置内更改，避免被其他人盗用，本地登录则无需更改）\n![配置授权页面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_b7d2a1f08b22.png)\n\n按照提示在“推理模型这一栏”配置一个火山云引擎的 api key，点击编辑，粘贴进去 api key 后点击保存即可\n![配置火山云引擎的 api key](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_a55bb23e04c2.png)\n\n`是否支持原生推理`选项控制了两套针对推理模型返回思考内容.\n\n- 支持原生推理: 推理模型在返回体`reasoning_content`字段返回推理内容, 在`content`字段返回回答内容. 例如:\n  - DeepSeek官方 `deepseek-reasoner`\n  - Siliconflow `deepseek-ai\u002Fdeepseek-r1`\n- 不支持原生推理: 推理模型在`content`字段中以`\u003Cthink>\u003C\u002Fthink>`标签包裹推理内容返回. 例如:\n  - 派欧算力云 `deepseek\u002Fdeepseek-r1`, `deepseek\u002Fdeepseek-r1\u002Fcommunity`, `deepseek\u002Fdeepseek-r1-turbo`\n  - AiHubMix `aihubmix-DeepSeek-R1`\n  - Cluade 3.7 Sonnet Thinking\n\n大多数服务商提供的deepseek-r1均支持原生推理, 所以推荐默认开启. 如果不确定可以在外部使用聊天框架(Chatbox)测试模型响应内容. 如果出现`\u003Cthink>\u003C\u002Fthink>`标签则需要关闭`支持原生推理`选项.\n\n不支持原生推理的deepseek-r1可能需要prompt来触发思考, 若日志中收集到推理内容长度一直为0, 而且出现`\u003Cthink>`字样, 则考虑检查此因素:\n\n![image](https:\u002F\u002Fimg.erlich.fun\u002Fpersonal-blog\u002FuPic\u002F63bf0a9f-19cf-49d4-aa28-e916b2a62138.png)\n\n\n按照提示在“目标模型”配置一个 Claude 3.7 Sonnet 的 api key 以及一个 Gmeini 的 api key，Gemini 的 api key 可以在：https:\u002F\u002Faistudio.google.com\u002Fapikey 获取\n![配置 Claude 3.7 Sonnet 的 api key](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_6affff585a9a.png)\n同理，也可以配置一个 Gemini 的 api key 分别到 deepgeminiflash 和 deepgeminipro\n![配置 Gemini api key](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_2fcb16526791.png)\n\nStep 5. 配置程序到你的 Chatbox（推荐 [Cherry Studio](https:\u002F\u002Fcherry-ai.com) [NextChat](https:\u002F\u002Fnextchat.dev\u002F)、[ChatBox](https:\u002F\u002Fchatboxai.app\u002Fzh)、[LobeChat](https:\u002F\u002Flobechat.com\u002F)）\n\n**如果你的客户端是 Cherry Studio、Chatbox（选择 OpenAI API 模式，注意不是 OpenAI 兼容模式）**\nAPI 地址为 http:\u002F\u002F127.0.0.1:8000\nAPI 密钥为默认的 123456，如果你在系统设置内进行修改，则改为你修改过的即可\n需要手动配置三个模型，分别为 deepclaude、deepgeminiflash 和 deepgeminipro 模型\n\n**如果你的客户端是 LobeChat**\nAPI 地址为：http:\u002F\u002F127.0.0.1:8000\u002Fv1\nAPI 密钥为默认的 123456，如果你在系统设置内进行修改，则改为你修改过的即可\n支持获取模型列表，可以同时获取到 deepclaude、deepgeminiflash 和 deepgeminipro 模型\n\n\n**注：本项目采用 uv 作为包管理器，这是一个更快速更现代的管理方式，用于替代 pip，你可以[在此了解更多](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F)**\n\n   # Automatic fork sync\n项目已经支持 Github Actions 自动更新 fork 项目的代码，保持你的 fork 版本与当前 main 分支保持一致。如需开启，请 frok 后在 Settings 中开启 Actions 权限即可。\n\n\n# Technology Stack\n- [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F)\n- [UV as package manager](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F#project-management)\n- [Docker](https:\u002F\u002Fwww.docker.com\u002F)\n\n# Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_f41a21de093a.jpg)](https:\u002F\u002Fstar-history.com\u002F#ErlichLiu\u002FDeepClaude&Date)\n\n# Buy me a coffee\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_ba525aa8817e.jpeg\" alt=\"微信赞赏码\" style=\"width: 400px;\"\u002F>\n\n# About Me\n- Email: erlichliu@gmail.com\n- Website: [Erlichliu](https:\u002F\u002Ferlich.fun)","\u003Cdiv>\n\u003Ch1>DeepClaude 🐬🧠 - 与 OpenAI 兼容（deepclaude & deepgemini）\u003C\u002Fh1>\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgetasterisk\u002Fdeepclaude\"> 灵感源自 getasterisk\u002Fdeepclaude\u003C\u002Fa>\n\n[![GitHub 许可证](https:\u002F\u002Fimg.erlich.fun\u002Fpersonal-blog\u002FuPic\u002Fdeepclaude.svg)](#)\n[![兼容](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_aafaef09ebad.jpg)](https:\u002F\u002Fopenai.com)\n\n\u003C\u002Fdiv>\n\n\u003Cdiv>\n\u003Ch4 style=\"color: #FF9909\"> 特别说明：\n\u003Cbr \u002F>\n在最新的 1.0 版本，我们已经实现了配置界面，部署更简单。\n1.编程：推荐 DeepSeek r1 + Claude Sonnet 4 组合，效果最好；\n2.内容创作：推荐 DeepSeek r1 + Gemini 2.5 Flash 或 Gemini 2.5 Pro 组合，效果最好，并且可以完全免费使用。\n\u003Cbr \u002F>\n对于不太会部署，只是希望使用上最强组合模型的朋友，可以直接访问 Erlich 个人网站自助购买按量付费的 API：https:\u002F\u002Ferlich.fun\u002Fdeepclaude-pricing\n也可以直接联系 Erlich（微信号：geekthings）\u003C\u002Fh4>\n\u003C\u002Fdiv>\n\n\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong> 赞助商：问小白 https:\u002F\u002Fwww.wenxiaobai.com （丝滑使用 DeepSeek r1 满血版， 支持联网、上传文件、图片、AI 创作 PPT 等）\u003C\u002Fstrong>\u003C\u002Fsummary>\n\u003Cdiv>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_161c375248a4.png\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_347859416e03.png\" \u002F>\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong> 友情链接：Ten Agent: https:\u002F\u002Fgithub.com\u002FTEN-framework\u002FTEN-Agent \u003C\u002Fstrong>\u003C\u002Fsummary>\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>更新日志：\u003C\u002Fstrong>\u003C\u002Fsummary> \n2025-05-29.2：更新 Docker Image 运行平台支持，可以通过 `docker pull erlichliu\u002Fdeepclaude ` 拉取到本地运行，自动选择合适的平台版本。\n\n2025-05-29.1：feat：系统配置添加 deepseek r1 的 max_tokens 设置，降低成本。\n\n\n2025-05-27.2：支持配置文件的导入导出模式，方便升级或部署后反复进行配置。\n\n2025-05-27.1：适配 Gemini API 流式响应上的结束标记处理顺序问题。\n\n2025-05-22.3：优化 openai 兼容格式返回结束标志，改善近期 deepgeminipro 中断回复的问题。\n\n2025-05-22.2：优化组合模型之间的衔接 Prompt，提高不同模型本身的能力表达。\n\n2025-05-22.1：支持可关闭 gemini 2.5 flash 的思考，节省 tokens 消耗，针对 gemini 2.5 pro 采用提示词优化的方式也可以平均每次降低 30% 的成本消耗。\n\n2025-05-16.1：支持更友好的多段落报错返回，尤其是针对超过上下文长度的报错返回，可以更好的适配前端界面的报错。\n\n2025-03-22.1：支持根据不同模型设置是否开启代理，提高运行效率。\n\n2025-03-10.1：deepseek r1 推理部分 max_token 改为 5，节省输出 Tokens 消耗；非流式输出部分增加 reasoning_content 数据字段的返回；将非流式输出设置为缺省值，方便 dify 等工具使用。\n\n2025-03-05.1：更改docker compose配置，使用volume将容器配置文件绑定至本地，避免重启容器时丢失配置。同时设置失败自动重启。\n\n2025-03-02.1：更新 1.0 版本，支持图形化配置界面，取消 .env 配置，预配置模板，配置更方便\n\n2025-02-25.1：添加 system message 对于 Claude 3.5 Sonnet 的支持\n\n2025-02-23.1：重构代码，支持 OpenAI 兼容模型，deepgeminiflash 和 deepgeminipro 配置更方便（请详细查看 READEME 和 .env.example 内的说明）。\n\n2025-02-21.1：添加 Claude 这段的详细数据结构安全检查。\n\n2025-02-16.1：支持 claude 侧采用请求体中的自定义模型名称。（如果你采用 oneapi 等中转方，那么现在可以通过配置环境变量或在 API 请求中采用任何 Gemini 等模型完成后半部分。接下来将重构代码，更清晰地支持不同的思考模型组合。）\n\n2025-02-08.2：支持非流式请求，支持 OpenAI 兼容的 models 接口返回。（⚠️ 当前暂未实现正确的 tokens 消耗统计，稍后更新）\n\n2025-02-08.1：添加 Github Actions，支持 fork 自动同步、支持自动构建 Docker 最新镜像、支持 docker-compose 部署\n\n2025-02-07.2：修复 Claude temperature 参数可能会超过范围导致的请求失败的 bug\n\n2025-02-07.1：支持 Claude temputerature 等参数；添加更详细的 .env.example 说明\n\n2025-02-06.1：修复非原生推理模型无法获得到推理内容的 bug\n\n2025-02-05.1：支持通过环境变量配置是否是原生支持推理字段的模型，满血版本通常支持\n\n2025-02-04.2：支持跨域配置，可在 .env 中配置\n\n2025-02-04.1：支持 Openrouter 以及 OneAPI 等中转服务商作为 Claude 部分的供应商\n\n2025-02-03.3：支持 OpenRouter 作为 Claude 的供应商，详见 .env.example 说明\n\n2025-02-03.2：由于 deepseek r1 在某种程度上已经开启了一个规范，所以我们也遵循推理标注的这种规范，更好适配支持的更好的 Cherry Studio 等软件。\n\n2025-02-03.1：Siliconflow 的 DeepSeek R1 返回结构变更，支持新的返回结构\n\n\u003C\u002Fdiv>\n\u003C\u002Fdetails>\n\n# 简介\n最近 DeepSeek 推出了 [DeepSeek R1 模型](https:\u002F\u002Fplatform.deepseek.com)，在推理能力上已经达到了第一梯队。但是 DeepSeek R1 在一些日常任务的输出上可能仍然无法匹敌 Claude 3.5 Sonnet。Aider 团队最近有一篇研究，表示通过[采用 DeepSeek R1 + Claude 3.5 Sonnet 可以实现最好的效果](https:\u002F\u002Faider.chat\u002F2025\u002F01\u002F24\u002Fr1-sonnet.html)。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_deb14e100270.png\" alt=\"deepseek r1 and sonnet benchmark\" style=\"width=400px;\"\u002F>\n\n> **R1 as architect with Sonnet as editor has set a new SOTA of 64.0%** on the [aider polyglot benchmark](https:\u002F\u002Faider.chat\u002F2024\u002F12\u002F21\u002Fpolyglot.html). They achieve this at **14X less cost** compared to the previous o1 SOTA result。\n\n本项目受到该项目的启发，通过 fastAPI 完全重写，经过 15 天大量社区用户的真实测试，我们创作了一些新的组合使用方案。\n\n**1.编程：推荐使用 deepclaude = deepseek r1 + claude 3.7 sonnet;\n2.内容创作：推荐使用 deepgeminipro = deepseek r1 + gemini 2.0 pro (该方案可以完全免费使用);\n3.日常实验：推荐 deepgeminiflash = deepseek r1 + gemini 2.0 flash (该方案可以完全免费使用)。**\n\n项目**支持 OpenAI 兼容格式的输入输出**，支持 DeepSeek 官方 API 以及第三方托管的 API、生成部分也支持 Claude 官方 API 以及中转 API，并对 OpenAI 兼容格式的其他 Model 做了特别支持。\n\n**🔥推荐使用方法：**\n1.用户可以自行运行在自己的服务器，并对外提供开放 API 接口，接入 [OneAPI](https:\u002F\u002Fgithub.com\u002Fsongquanpeng\u002Fone-api) 等实现统一分发。\n\n2.接入你的日常大语言模型对话聊天使用。\n\n# 实施\n\n![image-20250201212456050](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_9731172c650f.png)\n\n# 如何运行\n\n> 项目支持本地运行和服务器运行，推荐使用服务器部署，实现随时随处可访问的最强大语言模型服务，甚至可以完全免费使用。\n\n## 1. 获得运行所需的 API\n\n1. 获取 DeepSeek API，推荐采用 PPIO（派欧云）最新的 DeepSeek R1 0528，点击链接注册，新用户可以获得 15 元免费额度，再邀请人还可以获得 30 元：https:\u002F\u002Fppio.cn\u002Fuser\u002Fregister?invited_by=TXTPQF\n2. 获取 Claude 的 API KEY：https:\u002F\u002Fconsole.anthropic.com。(也可采用其他中转服务，如 DMXapi、Openrouter 以及其他服务商的 API KEY)\n3. 获取 Gemini 的 API KEY：https:\u002F\u002Faistudio.google.com\u002Fapikey (有免费的额度，日常够用)\n\n## 2. 开始运行（使用 Docker）\n\n** 强烈推荐 Zeabur，通过 Zeabur 购买新加坡或日本的服务器最为划算，仅需 2 美元即可。如果你是新用户，可以点击：https:\u002F\u002Fzeabur.com\u002Freferral?referralCode=ErlichLiu，我们都能获得奖励额度 **\n\n✅ 第一步：安装 Docker\n\n请确保你已经安装了 Docker Desktop（适用于 macOS 和 Windows），或 Docker Engine（适用于 Linux）。\n\nWindows 下载安装地址：https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Fsetup\u002Finstall\u002Fwindows-install\u002F\nmacOS 下载安装地址：https:\u002F\u002Fdocs.docker.com\u002Fdesktop\u002Fsetup\u002Finstall\u002Fmac-install\u002F\n\n安装完成后，确保在终端中运行以下命令没有报错：\n\n`docker --version`\n\n\n\n🚀 第二步：拉取镜像并运行项目\n\n打开终端或命令行，输入以下命令：\n\n`docker run -p 8000:8000 erlichliu\u002Fdeepclaude:latest`\n\n运行后你可以访问：\n\n`http:\u002F\u002Flocalhost:8000\u002Fconfig`\n\n即可使用该服务。\n\n⸻\n\n📦 可选：后台运行 + 自动重启（建议部署时使用）\n\n`docker run -d --restart unless-stopped -p 8000:8000 erlichliu\u002Fdeepclaude:latest`\n\n\n⸻\n\n🧪 开发者：如果你想构建自己的镜像（而不是用已有镜像）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude.git\ncd DeepClaude\ndocker build -t deepclaude:dev .\ndocker run -p 8000:8000 deepclaude:dev\n```\n\n⸻\n\n第四步：开始配置——打开浏览器访问 http:\u002F\u002Flocalhost:8000\u002Fconfig，输入默认 API 密钥：123456。如果你是在云端运行，请尽快登录并在系统设置中更改密钥，以避免被他人盗用；如果是本地运行，则无需更改。\n![配置授权页面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_b7d2a1f08b22.png)\n\n按照提示，在“推理模型”一栏配置一个火山云引擎的 API 密钥，点击编辑，粘贴 API 密钥后保存即可。\n![配置火山云引擎的 API 密钥](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_a55bb23e04c2.png)\n\n“是否支持原生推理”选项控制着两种针对推理模型返回思考内容的方式：\n\n- 支持原生推理：推理模型会在 `reasoning_content` 字段中返回推理内容，在 `content` 字段中返回回答内容。例如：\n  - DeepSeek 官方的 `deepseek-reasoner`\n  - Siliconflow 的 `deepseek-ai\u002Fdeepseek-r1`\n- 不支持原生推理：推理模型会将推理内容以 `\u003Cthink>...\u003C\u002Fthink>` 标签包裹后，直接放在 `content` 字段中返回。例如：\n  - 派欧算力云的 `deepseek\u002Fdeepseek-r1`、`deepseek\u002Fdeepseek-r1\u002Fcommunity`、`deepseek\u002Fdeepseek-r1-turbo`\n  - AiHubMix 的 `aihubmix-DeepSeek-R1`\n  - Cluade 3.7 Sonnet Thinking\n\n大多数服务商提供的 DeepSeek R1 都支持原生推理，因此建议默认开启。如果不确定，可以在外部使用聊天框架（Chatbox）测试模型响应内容。若出现 `\u003Cthink>...\u003C\u002Fthink>` 标签，则需要关闭“支持原生推理”选项。\n\n不支持原生推理的 DeepSeek R1 可能需要特定的 prompt 来触发思考。如果日志中显示推理内容长度一直为 0，且出现了 `\u003Cthink>` 字样，则应考虑检查这一因素：\n\n![image](https:\u002F\u002Fimg.erlich.fun\u002Fpersonal-blog\u002FuPic\u002F63bf0a9f-19cf-49d4-aa28-e916b2a62138.png)\n\n\n按照提示，在“目标模型”中配置一个 Claude 3.7 Sonnet 的 API 密钥以及一个 Gemini 的 API 密钥。Gemini 的 API 密钥可在：https:\u002F\u002Faistudio.google.com\u002Fapikey 获取。\n![配置 Claude 3.7 Sonnet 的 API 密钥](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_6affff585a9a.png)\n同样地，也可以分别为 DeepGeminiflash 和 DeepGeminipro 配置 Gemini 的 API 密钥。\n![配置 Gemini API 密钥](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_2fcb16526791.png)\n\n第五步：将程序配置到你的 Chatbox 中（推荐 [Cherry Studio](https:\u002F\u002Fcherry-ai.com)、[NextChat](https:\u002F\u002Fnextchat.dev\u002F)、[ChatBox](https:\u002F\u002Fchatboxai.app\u002Fzh)、[LobeChat](https:\u002F\u002Flobechat.com\u002F)）\n\n**如果你的客户端是 Cherry Studio 或 Chatbox（选择 OpenAI API 模式，注意不是 OpenAI 兼容模式）**\nAPI 地址为 http:\u002F\u002F127.0.0.1:8000\nAPI 密钥为默认的 123456，如果你在系统设置内进行了修改，则使用你修改后的密钥即可。\n需要手动配置三个模型，分别为 DeepClaude、DeepGeminiflash 和 DeepGeminipro。\n\n**如果你的客户端是 LobeChat**\nAPI 地址为：http:\u002F\u002F127.0.0.1:8000\u002Fv1\nAPI 密钥为默认的 123456，如果你在系统设置内进行了修改，则使用你修改后的密钥即可。\n支持获取模型列表，可以同时获取到 DeepClaude、DeepGeminiflash 和 DeepGeminipro 模型。\n\n\n**注：本项目采用 uv 作为包管理器，这是一种更快速、更现代的管理方式，用于替代 pip。你可以[在此了解更多](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F)**\n\n   # 自动分叉同步\n项目已支持 Github Actions 自动更新分叉项目的代码，使你的分叉版本与当前 main 分支保持一致。如需开启，请先分叉，然后在 Settings 中启用 Actions 权限即可。\n\n\n# 技术栈\n- [FastAPI](https:\u002F\u002Ffastapi.tiangolo.com\u002F)\n- [UV 作为包管理器](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F#project-management)\n- [Docker](https:\u002F\u002Fwww.docker.com\u002F)\n\n# 星标历史\n\n[![星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_f41a21de093a.jpg)](https:\u002F\u002Fstar-history.com\u002F#ErlichLiu\u002FDeepClaude&Date)\n\n# 请我喝杯咖啡\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_readme_ba525aa8817e.jpeg\" alt=\"微信赞赏码\" style=\"width: 400px;\"\u002F>\n\n# 关于我\n- 邮箱：erlichliu@gmail.com\n- 网站：[Erlichliu](https:\u002F\u002Ferlich.fun)","# DeepClaude 快速上手指南\n\nDeepClaude 是一个开源工具，旨在将 **DeepSeek R1** 强大的推理能力与 **Claude** 或 **Gemini** 优秀的表达能力相结合。它提供 OpenAI 兼容的 API 接口，让你能在 Cherry Studio、LobeChat 等主流客户端中直接使用“最强组合模型”。\n\n## 环境准备\n\n在开始之前，请确保你的环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux。\n*   **核心依赖**：已安装 **Docker**。\n    *   Windows\u002FmacOS: 安装 [Docker Desktop](https:\u002F\u002Fwww.docker.com\u002Fproducts\u002Fdocker-desktop\u002F)\n    *   Linux: 安装 [Docker Engine](https:\u002F\u002Fdocs.docker.com\u002Fengine\u002Finstall\u002F)\n*   **验证安装**：在终端运行 `docker --version`，确保无报错。\n*   **API Keys**：你需要准备以下至少一种组合的密钥：\n    1.  **推理模型**：DeepSeek R1 API Key（推荐国内使用 PPIO 派欧云、硅基流动等；海外可用 DeepSeek 官方）。\n    2.  **生成模型**：\n        *   Claude 3.5\u002F3.7 Sonnet API Key (Anthropic 官方或中转商如 OpenRouter)。\n        *   Gemini 2.0 Flash\u002FPro API Key (Google AI Studio，有免费额度)。\n\n## 安装步骤\n\n本项目推荐使用 Docker 部署，无需配置复杂的 Python 环境。\n\n### 1. 拉取并运行镜像\n\n打开终端或命令行，执行以下命令启动服务（默认映射端口为 8000）：\n\n```bash\ndocker run -d --restart unless-stopped -p 8000:8000 erlichliu\u002Fdeepclaude:latest\n```\n\n> **提示**：\n> *   `-d`: 后台运行。\n> *   `--restart unless-stopped`: 容器意外退出或重启服务器时自动恢复。\n> *   如果你希望手动构建镜像，可克隆仓库后运行 `docker build -t deepclaude:dev .`。\n\n### 2. 访问配置界面\n\n服务启动后，在浏览器中访问配置页面：\n\n*   **本地访问**：`http:\u002F\u002Flocalhost:8000\u002Fconfig`\n*   **服务器访问**：`http:\u002F\u002F\u003C你的服务器 IP>:8000\u002Fconfig`\n\n**默认登录密钥**：`123456`\n*(⚠️ 重要：首次登录后，请务必在系统设置中修改此密钥，以防未授权访问)*\n\n## 基本使用\n\n### 第一步：配置模型密钥\n\n进入配置页面后，你需要分别配置“推理模型”和“目标模型”：\n\n1.  **配置推理模型 (DeepSeek R1)**：\n    *   填入你的 DeepSeek R1 API Key。\n    *   **关键设置**：根据服务商不同，切换 `是否支持原生推理` 选项。\n        *   **开启**：适用于 DeepSeek 官方、Siliconflow 等直接返回 `reasoning_content` 字段的服务商。\n        *   **关闭**：适用于 PPIO、AiHubMix 等在 `content` 中返回 `\u003Cthink>` 标签的服务商。\n        *   *判断方法：若日志中推理内容为空且看到 `\u003Cthink>` 标签，请关闭此选项。*\n\n2.  **配置目标模型 (Claude \u002F Gemini)**：\n    *   **编程场景**：填入 Claude 3.5\u002F3.7 Sonnet API Key，启用 `deepclaude` 组合。\n    *   **创作\u002F免费场景**：填入 Gemini API Key，启用 `deepgeminiflash` 或 `deepgeminipro` 组合。\n\n点击保存后，服务即可就绪。\n\n### 第二步：接入聊天客户端\n\nDeepClaude 模拟了 OpenAI 的 API 格式，你可以将其添加到任何支持 OpenAI 协议的客户端中。\n\n#### 方案 A：Cherry Studio \u002F ChatBox (推荐)\n*   **API 地址**：`http:\u002F\u002F127.0.0.1:8000` (服务器部署则填服务器 IP)\n*   **API 密钥**：你在系统设置中配置的密钥（默认为 `123456`）\n*   **模型名称**：需手动添加以下三个模型名之一：\n    *   `deepclaude` (R1 + Claude)\n    *   `deepgeminiflash` (R1 + Gemini Flash)\n    *   `deepgeminipro` (R1 + Gemini Pro)\n*   **注意**：请选择 \"OpenAI\" 模式，而非 \"OpenAI Compatible\" 模式（视具体客户端版本而定，若无法获取列表请手动输入模型名）。\n\n#### 方案 B：LobeChat \u002F NextChat\n*   **API 地址**：`http:\u002F\u002F127.0.0.1:8000\u002Fv1` (**注意末尾多了 `\u002Fv1`**)\n*   **API 密钥**：同上。\n*   **模型列表**：支持自动同步，可直接在列表中看到 `deepclaude`, `deepgeminiflash`, `deepgeminipro`。\n\n### 第三步：开始对话\n\n在客户端中选择配置好的模型（例如 `deepclaude`），发送消息。你将体验到 DeepSeek R1 的深度思考过程，以及 Claude\u002FGemini 流畅自然的最终回答。","某全栈开发团队正在紧急重构一个遗留的电商后台系统，需要在极短时间内完成复杂业务逻辑的代码迁移与新功能开发。\n\n### 没有 DeepClaude 时\n- **推理与表达割裂**：单独使用 DeepSeek R1 虽能理清复杂算法逻辑，但生成的代码注释晦涩、变量命名不规范，后续维护成本高；而单用 Claude 3.7 Sonnet 处理深层数学运算或复杂架构设计时，偶尔会出现逻辑幻觉。\n- **成本与性能难以平衡**：为了兼顾逻辑深度和代码质量，团队不得不分别调用两个模型的 API 并手动拼接结果，导致开发流程断裂，且双重计费使单次任务成本飙升。\n- **工作流繁琐低效**：开发者需要在不同聊天窗口间切换，手动复制“思考过程”和“最终代码”，不仅容易出错，还无法利用现有 IDE 插件（如 Cursor、Aider）的自动化能力。\n\n### 使用 DeepClaude 后\n- **强强联合的无缝体验**：DeepClaude 自动让 DeepSeek R1 担任“架构师”进行深度推理，再交由 Claude 3.7 Sonnet 作为“编辑”输出高质量、符合规范的代码，一次性获得逻辑严密且易读的完整方案。\n- **极致性价比**：通过内部优化调度，该组合在达到超越 o1 模型基准测试效果的同时，成本仅为之前的 1\u002F14，让团队能无压力地大规模运行自动化重构任务。\n- **原生兼容现有工具**：凭借 OpenAI 兼容接口，团队无需修改任何配置，直接在熟悉的编程助手插件中调用 `deepclaude` 模型，实现了从“思考”到“落地”的流式极速响应。\n\nDeepClaude 通过将顶级推理模型与最强代码模型深度融合，以极低门槛和成本为开发者提供了当前业界最优的“思考 + 执行”一体化解决方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FErlichLiu_DeepClaude_31f40999.png","ErlichLiu","Erlich","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FErlichLiu_45b0a056.png",null,"China \u002F Chongqing","https:\u002F\u002Fgithub.com\u002FErlichLiu",[80,84,88,92,96],{"name":81,"color":82,"percentage":83},"Python","#3572A5",54.1,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",22.8,{"name":89,"color":90,"percentage":91},"HTML","#e34c26",20.1,{"name":93,"color":94,"percentage":95},"CSS","#663399",2.8,{"name":97,"color":98,"percentage":99},"Dockerfile","#384d54",0.3,2795,498,"2026-04-19T09:00:25","MIT","Linux, macOS, Windows","未说明 (本项目为 API 代理\u002F编排服务，非本地模型推理，通常无需 GPU)","未说明 (取决于 Docker 容器基础运行需求，通常 512MB-1GB 即可)",{"notes":108,"python":109,"dependencies":110},"1. 推荐使用 Docker 部署（支持 docker run 或 docker-compose），无需在宿主机手动安装 Python 环境。\n2. 核心功能是组合不同模型的 API（如 DeepSeek R1 + Claude\u002FGemini），自身不运行大模型，因此对本地硬件无特殊要求。\n3. 需自行准备第三方 API Key（DeepSeek、Anthropic\u002FClaude、Google\u002FGemini）。\n4. 默认访问地址为 http:\u002F\u002Flocalhost:8000，配置界面位于 \u002Fconfig，默认 API 密钥为 123456（云端部署建议修改）。\n5. 客户端对接时需注意：Cherry Studio\u002FChatBox 直接连接根路径，LobeChat 需连接 \u002Fv1 路径。","未说明 (通过 Docker 镜像部署，内部使用 uv 管理，具体版本对宿主透明)",[111,112,113],"FastAPI","uv","Docker",[15,14,13],[116,117,118,119],"ai","gemini","claude-3-7-sonnet","deepseek","2026-03-27T02:49:30.150509","2026-04-20T22:36:16.627503",[123,128,133,138,143,148,153],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},45842,"为什么在使用派欧算力云（PPIO）或其他社区模型时无法获取推理内容？","这是因为不同提供商返回推理内容的格式不同。DeepSeek 官方和硅基流动通常使用 `reasoning_content` 字段，而派欧云（PPIO）的 Community 模型将思考过程包裹在 `\u003Cthink>\u003C\u002Fthink>` 标签中返回。\n解决方案：\n1. 如果使用派欧云等将思考过程放在 `\u003Cthink>` 标签中的模型，请在配置页面或配置文件中设置 `is_origin_reasoning=false`。\n2. 如果使用原生支持 `reasoning_content` 字段的模型（如 DeepSeek 官方、硅基流动），则保持 `is_origin_reasoning=true`（默认）。\n注意：该配置项在 Web UI 中可能未明确说明，需手动调整。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F60",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},45843,"配置 Gemini 模型时出现连接超时（Connection timeout）错误怎么办？","这通常是因为本地代理配置不正确，导致无法访问 Google API。请按以下步骤排查：\n1. 检查本地梯子（代理软件）的监听端口（例如 monocloud 默认为 8118）。\n2. 修改 `model_configs.json` 文件或在 Web UI 配置界面中，将代理地址设置为与本地一致（例如 `127.0.0.1:8118`）。\n3. 修改后重启服务：`uvicorn app.main:app --port 8000`。\n4. 如果直接代理仍有问题，可以部署一个中转服务（如使用 vercel 部署 openai-gemini 桥接），然后将 `api_base_url` 填写为中转服务的域名，`api_request_address` 填写为 `\u002Fv1\u002Fchat\u002Fcompletions`。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F68",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},45844,"如何将 DeepClaude 与 Gemini 模型结合使用？","DeepClaude 主要设计用于 DeepSeek R1 + Claude 组合，但可以通过以下方式兼容 Gemini：\n1. 由于 Google Gemini 的原生 API 格式可能与 DeepClaude 不完全兼容，建议通过支持 OneAPI 格式的国内中转服务商来接入 Gemini。\n2. 如果使用原生 Gemini API，需要将配置中的 `CLAUDE_API_URL` 替换为 Gemini 的实际接口 URL，但需注意参数格式可能需要额外适配。\n3. 最简便的方法是寻找已支持 Gemini 的 OneAPI 中转服务，将其作为 Provider 接入即可。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F14",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},45845,"使用 Docker Compose 部署后无法访问配置页面怎么办？","如果遇到此问题，可以尝试以下解决方法：\n1. 查看 Docker Compose 的实时日志以排查启动错误：`docker compose logs -f`。\n2. 尝试不使用 docker-compose，直接使用 docker 命令启动容器，以便更直观地观察输出：`docker run ...`。\n3. 确保重新拉取了最新的镜像，因为旧版本可能存在配置页面路由问题。\n4. 检查端口映射是否正确，确保宿主机的端口已正确映射到容器的 8000 端口。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F69",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},45846,"为什么 DeepSeek R1 的回答会被截断，或者程序没有处理请求中断？","目前 DeepSeek 官方及 SiliconFlow 等提供商的 API 文档中并未公开标准的“停止生成”请求格式，且各家 Provider（如 Azure, OpenRouter, 豆包等）的实现差异巨大，难以统一处理。\n现状说明：\n1. 当客户端主动终止对话时，DeepClaude 后端可能仍在等待上游模型的响应，导致资源占用。\n2. 由于缺乏统一的取消流式请求的标准 API，项目暂时无法完美实现主动中止上游请求的功能。\n3. 建议用户尽量等待推理完成，或关注后续 Provider 是否提供标准的中止接口。对于恶意刷量风险，目前主要依赖应用层的频率限制而非底层的请求中断。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F17",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},45847,"思维链（Reasoning Content）在客户端显示不正常或消失是怎么回事？","DeepClaude 支持两种推理内容返回模式，具体表现取决于模型类型和客户端支持情况：\n1. **原生字段模式**：对于 DeepSeek R1 满血版（671b）及部分蒸馏模型，上游直接返回 `reasoning_content` 字段。只要客户端（如 LibreChat 最新版）支持解析该字段，即可正常显示思维链。\n2. **兼容模式**：如果客户端不支持 `reasoning_content` 字段，DeepClaude 可以将思考过程包裹在 Markdown 代码块中，合并到 `content` 字段返回。\n注意：DeepClaude 作为 API 层，默认假设活跃客户端会支持标准字段解析，因此优先采用第一种模式。如果客户端显示异常，请确认客户端是否已更新以支持推理字段的渲染。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F10",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},45848,"遇到 'Constructor parameter should be str' 报错如何处理？","该错误通常发生在 DeepSeek 推理完成后，处理返回数据时类型不匹配。虽然具体复现场景各异，但常见原因包括：\n1. 上游模型返回的某些字段（如 token 数或特定元数据）不是字符串类型，而代码期望是字符串。\n2. 某些特殊字符或空值导致解析失败。\n建议操作：\n1. 更新 DeepClaude 到最新版本，维护者通常会修复此类类型断言问题。\n2. 检查使用的模型版本是否为官方稳定版，避免使用测试版模型导致的返回格式变更。\n3. 如果问题持续，请提供完整的报错堆栈信息给维护者，以便定位具体是哪个参数字段类型错误。","https:\u002F\u002Fgithub.com\u002FErlichLiu\u002FDeepClaude\u002Fissues\u002F47",[]]