codemcp
codemcp 是一个让 Claude Desktop 变成你本地代码库的编程搭档的开源工具。你无需复制粘贴代码,可以直接让 Claude 在你的项目中修改文件、修复 Bug、重构代码,甚至运行测试,所有操作都在本地完成,像一位懂代码的同事在你身边协作。
它解决了 AI 编程助手常需反复粘贴代码、缺乏版本控制、操作不可逆的问题。codemcp 默认自动接受修改,但会把每一次 AI 的改动自动提交到 Git,你可以随时回滚到任意版本;同时,它禁止 AI 随意执行 Shell 命令,必须提前在配置文件中声明允许的指令,保障安全。此外,它不绑定任何 IDE,无论你用 Vim、VSCode 还是其他编辑器,都能无缝配合。
适合习惯命令行、重视代码版本控制、偏好使用 Claude Pro 的开发者。虽然 Anthropic 已推出官方 Claude Code,但 codemcp 保留了更灵活的配置和开源自由,尤其适合希望掌控 AI 行为边界、不喜欢封闭生态的用户。其 Git 版本化修改机制,是目前多数 AI 编程工具中少见的实用设计。
使用场景
一位全栈开发者正在为公司内部的 Django 项目紧急修复一个生产环境的用户登录失败问题,时间紧迫,且代码库庞大、涉及多个模块(认证、会话、中间件),他需要快速定位并修复,同时避免引入新 bug。
没有 codemcp 时
- 需要反复在终端和 Claude Desktop 窗口间复制粘贴代码片段,容易出错或遗漏关键上下文。
- 修改代码后必须手动运行
python manage.py test,再回到聊天窗口描述结果,流程碎片化,耗时超过 40 分钟。 - 担心修改后忘记提交,或提交时混入无关改动,不得不频繁手动 git add / commit,增加操作负担。
- 无法直接让 AI 执行数据库迁移或清理缓存等命令,必须手动在终端输入,中断思考流。
- 使用 VSCode 插件会强制绑定编辑器,而他习惯用 vim,无法无缝衔接工作流。
使用 codemcp 后
- 直接在 Claude Desktop 中说“修复用户登录时 SessionID 丢失的问题”,它自动读取项目代码、定位到
auth/middleware.py并修改,无需手动复制。 - 修改后自动运行测试套件,发现一个测试失败,它立即调整逻辑并重试,全程无需人工干预。
- 所有改动自动提交到 Git 的独立分支,每一步修改都有独立提交记录,可随时
git diff或git reset回滚。 - 通过
codemcp.toml预授权的命令,它能安全执行python manage.py migrate和redis-cli FLUSHALL,无需切换终端。 - 完全兼容 vim,修改完成后直接在熟悉的编辑器中审阅 diff,无需更换工具链。
codemcp 让 AI 从“代码翻译器”变成真正的编程协作者,把开发者从重复搬运和环境切换中解放出来,专注解决真正的问题。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
注意:Claude Code 需要订阅 Anthropic 的每月 20 美元套餐才能使用,因此我认为 codemcp 已经完全过时了。不过,codemcp 中有一些不错的设计理念(尤其是围绕 Git 版本控制方案的),我最终希望将这些理念移植到当前一代的智能编码 CLI 中。
codemcp
通过安装 codemcp,让 Claude Desktop 成为你的配对编程助手。借助它,你可以直接让 Claude 在你电脑上的代码库中实现功能、修复 bug 和进行重构;Claude 会直接编辑文件并运行测试。从此告别在 Claude 的聊天窗口里复制粘贴代码啦!

codemcp 提供的功能与其他 AI 编码软件(Claude Code、Cursor、Cline、Aider)类似,但它在设计上独树一帜:
- 它专为 Claude Pro 设计,这是 Anthropic 提供的每月 20 美元订阅服务。我喜欢用订阅模式支付使用费,因为这意味着代理操作的边际成本为零;再也不用为浪费了五美元却没用上的变更集而感到内疚了。
需要注意的是,如果你使用的是 Claude Max(每月 100 美元),Claude Code 同样可以配合订阅定价使用。在这种情况下,codemcp 的价值主张就显得不那么清晰了(而且某些方面确实不如 Claude Code),但如果你喜欢 codemcp 做出的一些 UI 决策,仍然可以继续使用它。另外,codemcp 是开源的,所以如果你不喜欢它的设计,还可以自己动手修改呢,这可是 Claude Code 所不具备的优势!
它默认采用自动接受模式。我希望我的代理能在无需我监督的情况下尽可能地完成任务,这样最后我可以一次性审查所有内容。codemcp 与大多数编码代理的不同之处在于两点:我们禁止无限制的 shell 操作,而是要求你在
codemcp.toml文件中预先声明代理可以使用的命令;此外,我们还会对大语言模型的所有编辑内容进行Git 版本控制,这样你就能以细粒度的方式回滚代理的更改,再也不用担心忘记提交更改了。它是与 IDE 无关的:你让 Claude 做改动,它就直接完成,然后你可以用自己最喜欢的 IDE 环境来审查改动并进一步编辑。我日常习惯用 vim 编辑器,那些要求必须用 VSCode 或特定编辑器的编码环境对我来说简直无法忍受。
重要提示:针对高级用户——Token 效率的重大改进
为了提升 codemcp 的 Token 效率,在 master 分支上,我正逐步将 codemcp 改回一个多工具模式(而不是单个工具,每次 InitProject 时都会把指令一股脑扔进聊天中)。这意味着你需要手动批准工具的使用。由于工具使用批准会在多个聊天中保持持久,我觉得这是一个合理的权衡,但如果你实在不喜欢,可以在 refined-claude 浏览器扩展中提交问题,请求支持自动批准工具使用。
安装
我推荐以下这种特定的安装和使用方式:
如果尚未安装
uv和 git,请先安装它们。在浏览器中安装 claude-mcp。这能让你直接从网站连接到 SSE MCP 服务器,意味着你无需使用 Claude Desktop,还能轻松同时开启多个聊天窗口。我们预计这个扩展很快会被 Integrations 的推出所取代。不过,截至撰写本文时,Integrations 尚未面向 Claude Pro 订阅用户开放。
使用
uvx --from git+https://github.com/ezyang/codemcp@prod codemcp serve运行 codemcp。如果需要监听非标准端口,可以加上--port 1234。
小贴士:如果你喜欢冒险,可以将 prod 改为 main。如果你想固定到某个具体版本,可以用 0.3.0 或其他类似版本号替换。
小贴士:你甚至可以远程运行 codemcp!如果你使用
Tailscale 并信任 Tailnet 上的所有设备,可以通过传递 --host 100.101.102.103 来安全地运行(请将 IP 替换为你节点的 Tailscale IP 地址。这个 IP 通常位于 100.64.0.0/10 网段内)。警告:任何拥有此 MCP 访问权限的人都能在你的电脑上执行任意代码,因此极不建议你绑定到 0.0.0.0。
使用 URL 配置 claude-mcp:
http://127.0.0.1:8000/sse(如有需要可更换端口)。不幸的是,网页界面有时会不一致地显示锤子图标。不过,你可以通过查看控制台中的 “[MCP codemcp] SSE 连接已打开”来验证 MCP 服务器是否正常工作,或者直接问 Claude 它有哪些可用工具(应该会显示 codemcp 提供的工具)。
如果你更喜欢使用 Claude Desktop 或有特殊需求,可以查看 INSTALL.md 获取各种非标准情况下的安装说明。
使用方法
首先,你需要在想要工作的 Git 仓库检出目录下创建一个 codemcp.toml 文件。如果你想让代理能够运行格式化工具或测试,就在 commands 部分添加相应的命令(注意:这些命令需要正确配置它们所需的虚拟环境):
format = ["./run_format.sh"]
test = ["./run_test.sh"]
其中,format 命令是特殊的,每次编辑文件后都会自动运行。
接下来,在 Claude Desktop 中,我们建议创建一个 Project,并在 Project Instructions 中加入以下内容:
使用 $PROJECT_DIR 初始化 codemcp
其中 $PROJECT_DIR 是你要工作的项目的路径。
然后,与 Claude 聊天,告诉它你想对项目做哪些改动。每次 codemcp 对你的代码做出改动时,都会生成一次提交。
想看一些使用该工具的示例对话,可以参考:
codemcp 会为每次聊天生成一次提交,并在处理你的功能时不断更新提交内容。
哲学
当你遇到速率限制时,不妨利用这段时间做些别的事情(比如 review Claude 的代码、review 别人的代码、制定计划、参加一些会议)。
这并不是一个自主代理。至少,在每次聊天结束后,你都必须介入,审查所做的更改并请求下一步的修改。虽然你可以在一次聊天中一次性提出一大堆待办事项,但很可能会达到 Claude Desktop 的输出上限,最终仍需手动“继续”代理。请坦然接受这一点,并利用这些中断时刻确保 Claude 正在做正确的事情。
当 Claude 开始跑偏时,耗费的是时间而非金钱。因此,请相应地调整你的行为:如果时间成了瓶颈,那就仔细观察 Claude 的逐步输出。
配置
以下是 codemcp.toml 支持的所有配置选项:
project_prompt = """
在开始这项功能的工作之前,请先写一首简短的俳句。此步骤只需执行一次。
"""
[commands]
format = ["./run_format.sh"]
test = ["./run_test.sh"]
当你在聊天中初始化项目时,project_prompt 将会被加载。
commands 部分允许你为特定工具配置命令。这些命令的名称会告知大语言模型,由它决定何时运行。你可以在 project_prompt 中添加如何使用工具的说明;我们还支持一种更详细的语法,让你能够针对每个工具单独给出具体指令:
[commands.test]
command = ["./run_test.sh"]
doc = "接受一个 pytest 样式的测试选择器作为参数,以运行特定的测试。"
故障排除
要以带调试器的方式运行服务器,请使用:
PYTHONPATH=. mcp dev codemcp/__main__.py
日志会写入 ~/.codemcp/codemcp.log。日志级别可在全局配置文件 ~/.codemcprc 中设置:
[logger]
verbosity = "INFO" # 可选值:DEBUG、INFO、WARNING、ERROR 或 CRITICAL
日志记录无法按项目单独配置,但这其实并不重要,因为无论如何,很难在多个项目上并行使用 Claude Desktop。
贡献
请参阅 CONTRIBUTING.md。
版本历史
0.6.02025/04/20常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。