cc-mirror
cc-mirror 是一款专为 Claude Code 打造的增强型管理工具,旨在帮助用户轻松创建多个完全隔离的 Claude Code 实例。它解决了原生 Claude Code 配置单一、难以灵活切换不同 AI 模型提供商(如 Z.ai、MiniMax、OpenRouter 等)以及自定义环境受限的痛点。
通过 cc-mirror,用户可以一键生成独立的变体版本,每个实例拥有专属的配置文件、会话记录、MCP 服务器连接及 API 密钥,确保在尝试不同模型或提示词包时,主程序环境不受任何干扰。其核心技术亮点在于“隔离化部署”与“预配置集成”,不仅支持自由锁定稳定版或最新版内核,还内置了经过验证的主题优化和技能扩展包。
这款工具特别适合需要频繁测试不同大模型能力的开发者、AI 研究人员以及希望深度定制编码助手的高级用户。无论是想体验国产大模型在编程场景的表现,还是构建多套并行的开发工作流,cc-mirror 都能通过简单的命令让配置过程变得高效且安全,让用户专注于代码创作而非环境调试。
使用场景
某全栈开发团队需要在同一台机器上并行测试 Claude Code 原生版、国内 Z.ai 模型以及 MiniMax 模型,以评估不同大模型在代码生成任务上的表现差异。
没有 cc-mirror 时
- 环境配置繁琐:每次切换模型都需要手动修改全局环境变量和 API Key,极易因配置遗漏导致运行报错。
- 会话数据冲突:不同模型的对话历史、MCP 服务器配置和凭证混在一起,难以区分哪些上下文属于哪个模型。
- 版本管理困难:无法同时保留稳定版和最新版的 Claude Code,升级测试往往需要覆盖原有安装,风险较高。
- 隔离性差:尝试为不同模型创建独立配置时,容易误改主程序文件,导致原本正常的开发流程中断。
使用 cc-mirror 后
- 一键生成实例:通过
npx cc-mirror quick命令即可瞬间创建名为zai或minimax的独立变体,自动完成所有端点和密钥配置。 - 完全物理隔离:每个变体拥有独立的配置文件、会话记录和 MCP 服务目录,彻底杜绝了上下文混淆问题。
- 灵活版本控制:支持将某个变体锁定在特定版本(如 2.1.37),同时让另一个变体追踪最新渠道,满足灰度测试需求。
- 命令即开即用:直接在终端输入
zai或mclaude即可启动对应环境的专属实例,无需任何前置切换操作。
cc-mirror 通过“克隆即隔离”的机制,让开发者能在零干扰的前提下,自由组合并并行运行多个定制化的 AI 编程助手实例。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
CC-MIRROR
Claude Code,无拘无束
预配置的 Claude Code 变体,配备自定义提供商、提示词包和久经考验的增强功能。
一条命令,即刻获得强大功能。
快速入门
# 配置 Claude Code 变体的最快方式
npx cc-mirror quick --provider mirror --name mclaude
# 运行它
mclaude
就是这样。你现在就拥有了一个可以立即运行的 Claude Code 变体。
Claude Code 版本(稳定版/最新版/固定版本)
默认情况下,CC-MIRROR 会安装 最新 的 Claude Code 原生版本。你可以锁定某个渠道或版本:
# 跟踪上游稳定渠道
npx cc-mirror quick --provider mirror --name mclaude --claude-version stable
# 跟踪上游最新渠道
npx cc-mirror update mclaude --claude-version latest
# 锁定特定版本
npx cc-mirror update mclaude --claude-version 2.1.37
注意事项:
stable和latest是上游渠道。stable可能会落后于latest(这是正常的)。- cc-mirror 在安装或更新时会将渠道解析为具体版本,并将其存储在
variant.json中。
或者使用交互式向导
npx cc-mirror
什么是 CC-MIRROR?
CC-MIRROR 是一个 有明确立场的 Claude Code 发行版。我们完成了底层工作,你只需享受这些强大的功能。
从本质上讲,CC-MIRROR:
- 克隆 Claude Code 到隔离的实例中
- 配置 提供商端点、模型映射和环境默认值
- 应用 提示词包和 tweakcc 主题
- 安装 可选技能(开发浏览器等)
- 打包 所有内容到一个命令中
每个变体都是完全隔离的——拥有独立的配置、会话、MCP 服务器和凭据。你的主 Claude Code 安装不会受到影响。
┌─────────────────────────────────────────────────────────────────────────┐
│ ~/.cc-mirror/ │
│ │
│ ├── mclaude/ ← Mirror Claude │
│ │ ├── native/ Claude Code 安装 │
│ │ ├── config/ API 密钥、会话、MCP 服务器 │
│ │ ├── tweakcc/ 主题定制 │
│ │ └── variant.json 元数据 │
│ │ │
│ ├── zai/ ← Z.ai 变体(GLM 模型) │
│ ├── minimax/ ← MiniMax 变体(M2.5) │
│ └── kimi/ ← Kimi Code 变体(kimi-for-coding) │
│ │
│ 包装器:<bin-dir>/mclaude, <bin-dir>/zai, ... │
└─────────────────────────────────────────────────────────────────────────┘
默认的 <bin-dir> 在 macOS/Linux 上是 ~/.local/bin,而在 Windows 上则是 ~/.cc-mirror/bin。
Windows 小贴士: 将 %USERPROFILE%\.cc-mirror\bin 添加到你的 PATH 中,或者直接运行 <variant>.cmd 包装器。每个包装器都有一个同名的 <variant>.mjs 启动脚本。
提供商
Mirror Claude(推荐)
通往原汁原味 Claude Code 的最纯净路径。无需代理,不更改模型——只有纯粹的隔离。
npx cc-mirror quick --provider mirror --name mclaude
- 直接 Anthropic API — 无需代理,正常认证(OAuth 或 API 密钥)
- 隔离配置 — 可以自由实验,而不影响你的主设置
- 提供商预设 — 干净的默认设置,没有隐藏补丁
其他提供商
想使用不同的模型吗?CC-MIRROR 支持多种提供商:
| 提供商 | 模型 | 认证 | 最适合场景 |
|---|---|---|---|
| Kimi | kimi-for-coding | API Key | 长上下文编码(Kimi Code) |
| MiniMax | MiniMax-M2.5 | API Key | 统一的模型体验 |
| Z.ai | GLM-5, 4.7, 4.5-Air | API Key | 大量编码与 GLM 推理 |
| OpenRouter | 100+ 模型 | 认证令牌 | 模型灵活性,按使用付费 |
| Vercel | 多提供商网关 | 认证令牌 | Vercel AI 网关 |
| Ollama | 本地 + 云上模型 | 认证令牌 | 本地优先 + 混合部署 |
| NanoGPT | Claude Code 端点 | 认证令牌 | 简单的端点设置 |
| CCRouter | Ollama、DeepSeek 等 | 可选 | 本地优先开发 |
| GatewayZ | 多提供商网关 | 认证令牌 | 集中式路由 |
供应商设置链接
# Kimi Code (kimi-for-coding)
npx cc-mirror quick --provider kimi --api-key "$KIMI_API_KEY"
# MiniMax (MiniMax-M2.5)
npx cc-mirror quick --provider minimax --api-key "$MINIMAX_API_KEY"
# Z.ai (GLM-5/4.7/4.5-Air)
npx cc-mirror quick --provider zai --api-key "$Z_AI_API_KEY"
# OpenRouter (100+ models)
npx cc-mirror quick --provider openrouter --api-key "$OPENROUTER_API_KEY" \
--model-sonnet "anthropic/claude-sonnet-4-20250514"
# Vercel AI Gateway
npx cc-mirror quick --provider vercel --api-key "$VERCEL_AI_GATEWAY_KEY" \
--model-sonnet "anthropic/claude-3-5-sonnet-20241022"
# Ollama
npx cc-mirror quick --provider ollama --api-key "ollama" \
--model-sonnet "qwen3-coder" --model-opus "qwen3-coder" --model-haiku "qwen3-coder"
# NanoGPT
npx cc-mirror quick --provider nanogpt --api-key "$NANOGPT_API_KEY"
# CC Router (local LLMs)
npx cc-mirror quick --provider ccrouter
# GatewayZ
npx cc-mirror quick --provider gatewayz --api-key "$GATEWAYZ_API_KEY" \
--model-sonnet "claude-3-5-sonnet-20241022"
所有命令
# 创建与管理变体
npx cc-mirror # 交互式 TUI
npx cc-mirror quick [options] # 快速设置,默认配置
npx cc-mirror create [options] # 完整配置向导
npx cc-mirror list # 列出所有变体
npx cc-mirror update [name] # 更新单个或所有变体
npx cc-mirror apply <name> # 重新应用 tweakcc 补丁(无需重新安装)
npx cc-mirror remove <name> # 删除一个变体
npx cc-mirror doctor # 检查所有变体的健康状况
npx cc-mirror tweak <name> # 启动 tweakcc 自定义
# 启动你的变体
mclaude # 运行 Mirror Claude
zai # 运行 Z.ai 变体
minimax # 运行 MiniMax 变体
kimi # 运行 Kimi Code 变体
CLI 选项
--provider <name> kimi | minimax | zai | openrouter | vercel | ollama | nanogpt | ccrouter | mirror | gatewayz | custom
--name <name> 变体名称(成为 CLI 命令)
--api-key <key> 供应商 API 密钥
--base-url <url> 自定义 API 端点
--model-sonnet <name> 映射到 sonnet 模型
--model-opus <name> 映射到 opus 模型
--model-haiku <name> 映射到 haiku 模型
--brand <preset> 主题:auto | kimi | minimax | zai | openrouter | vercel | ollama | nanogpt | ccrouter | mirror | gatewayz
--no-tweak 跳过 tweakcc 主题
--no-prompt-pack 跳过供应商提示包
--verbose 更新时显示完整的 tweakcc 输出
品牌主题
每个供应商都通过 tweakcc 提供自定义颜色主题:
| 品牌 | 风格 |
|---|---|
| kimi | 绿松石/青色渐变 |
| minimax | 珊瑚色/红色/橙色光谱 |
| zai | 深碳色配金色点缀 |
| openrouter | 银色/铬色搭配电蓝色 |
| vercel | 单色配绿色点缀 |
| ollama | 温暖砂岩色配大地色调 |
| nanogpt | 极光绿加青色点缀 |
| ccrouter | 天蓝色点缀 |
| gatewayz | 紫色渐变 |
文档
| 文档 | 描述 |
|---|---|
| Mirror Claude | 纯 Claude Code,干净默认配置 |
| 架构 | CC-MIRROR 的工作原理 |
| 完整文档 | 完整文档索引 |
相关项目
- tweakcc — 为 Claude Code 定制主题
- Claude Code Router — 将 Claude Code 路由到任何 LLM
- n-skills — 适用于 AI 代理的通用技能
贡献
欢迎贡献!请参阅 CONTRIBUTING.md 了解开发设置。
想添加一个供应商吗? 请查看 供应商指南。
许可证
MIT — 详见 LICENSE
由 Numman Ali 创建
@nummanali
版本历史
v2.1.02026/03/06v2.0.12026/02/15v2.0.02026/02/14v1.6.62026/01/18v1.5.02026/01/06v1.4.22026/01/05v1.4.12026/01/05v1.4.02026/01/05v1.0.42026/01/04v1.0.32026/01/03v1.0.02026/01/03常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。