workers-mcp
workers-mcp 是一款连接工具,旨在让开发者能够直接在 Claude Desktop、Cursor 等支持 MCP 协议的 AI 客户端中调用部署在 Cloudflare 上的 Worker 函数。它解决了本地 AI 助手无法直接访问云端自定义业务逻辑或 Cloudflare 平台服务的痛点,打破了本地环境与云端能力之间的壁垒。
该工具特别适合熟悉 TypeScript 的云开发者和全栈工程师使用。其核心亮点在于自动化转换机制:开发者只需在 Worker 代码中编写标准的 TypeScript 类方法并添加注释,workers-mcp 即可通过构建步骤将这些方法自动转化为 AI 可识别和调用的“工具”。运行时,它启动一个本地 Node.js 代理服务器,负责在本地 AI 客户端与云端 Worker 之间建立通信桥梁,处理标准输入输出传输。这意味着你可以轻松地将随机数生成、数据库查询或任何自定义 API 暴露给 AI,让其协助你完成更复杂的云端任务,极大地扩展了编程助手的能力边界。
使用场景
某全栈开发者正在构建一个基于 Cloudflare 的全球天气数据聚合应用,需要让 AI 助手直接操作部署在边缘的实时数据接口。
没有 workers-mcp 时
- 上下文割裂:开发者必须在 Claude Desktop 中编写代码,然后手动切换到终端执行
npm run deploy,无法在对话流中直接触发更新。 - 调试效率低:验证 Worker 中的新函数(如
getWeatherData)时,需反复复制粘贴 API 响应结果到对话框,AI 无法直接“感知”运行时的真实返回。 - 工具链繁琐:若要让 AI 调用自定义的边缘逻辑,需手动配置复杂的 HTTP 请求模板或编写额外的本地代理脚本,增加了维护负担。
- 迭代周期长:每次修改 Worker 方法签名后,开发者需人工通知 AI 更新上下文,否则 AI 会持续调用旧参数导致报错。
使用 workers-mcp 后
- 无缝交互:开发者直接在 Claude 对话框中输入“部署并测试新的天气接口”,workers-mcp 自动将 TypeScript 方法转换为 MCP 工具并完成部署。
- 实时感知:AI 能直接调用 Worker 中暴露的
getWeatherData等方法,获取来自全球边缘节点的真实数据,无需中间人转发。 - 原生集成:只需在 Worker 类中添加带注释的方法,workers-mcp 即可自动将其注册为 AI 可用工具,彻底省去了手动配置代理的步骤。
- 自动同步:当开发者重构代码或新增方法后,仅需重新部署,重启 Claude 即可自动识别最新的函数签名和参数,确保持续集成流畅。
workers-mcp 通过将云边端能力转化为 AI 原生工具,消除了本地大模型与云端无服务器函数之间的最后一道隔阂。
运行环境要求
- 未说明 (基于 Node.js,通常支持 Linux
- macOS
- Windows)
不需要
未说明

快速开始
workers-mcp
从 Claude Desktop 与 Cloudflare Worker 对话!
[!WARNING]
您应该先从这里开始——构建一个远程 MCP 服务器您可以使用 mcp-remote,从 Claude Desktop、Cursor 和其他客户端连接到远程 MCP 服务器参见测试远程 MCP 服务器的指南。
什么是 workers-mcp?
该包提供了 CLI 工具和 Worker 内逻辑,用于将 Claude Desktop(或任何 MCP 客户端)连接到您账户上的 Cloudflare Worker,以便您可以根据自身需求进行自定义。它通过一个构建步骤实现,可以将 Worker 的 TypeScript 方法转换成如下形式:
export class ExampleWorkerMCP extends WorkerEntrypoint<Env> {
/**
* 生成一个随机数。这个随机数特别“随机”,因为它必须先传输到您最近的 Cloudflare PoP 进行计算,然后……嗯,好像跟熔岩灯有关?
*
* @return {string} 包含超级随机数字的消息
* */
async getRandomNumber() {
return `您的随机数是 ${Math.random()}`
}
// ...等
}
……最终转化为 MCP 工具,供本地 Node.js 服务器暴露给 MCP 客户端使用。Node.js 服务器充当代理,在本地处理标准输入输出传输,并调用在 Cloudflare 上运行的 Worker 中的相关方法。这样一来,您就可以将应用中的任意函数或 API,或者 Cloudflare 开发者平台 中的任何服务,暴露给编码助手中的 LLM、Claude Desktop 或其他 MCP 客户端。

是的,我知道
Math.random()在 Worker 上和在您的本地机器上表现是一样的,但别告诉 Claude 🤫
使用方法
第一步:生成一个新的 Worker
使用 create-cloudflare 生成一个新的 Worker。
npx create-cloudflare@latest my-new-worker
建议选择一个“Hello World”类型的 Worker。
第二步:安装 workers-mcp
cd my-new-worker # 我总是忘记这一步
npm install workers-mcp
第三步:运行 setup 命令
npx workers-mcp setup
注意:如果出现问题,请运行 npx workers-mcp help。
第四步..♾️:迭代开发
更改 Worker 代码后,只需运行 npm run deploy 即可同时更新 Claude 关于您函数的元数据以及您正在运行的 Worker 实例。
然而,如果您更改了方法名称、参数,或者增删了方法,Claude 将不会看到这些更新,直到您重新启动它。
您通常不需要再次运行 npx workers-mcp install:claude,但如果想排除 Claude 配置作为错误来源,也可以安全地执行此操作。
与其他 MCP 客户端配合使用
Cursor
要让您的 Cloudflare MCP 服务器在 Cursor 中正常工作,您需要将配置文件中的“command”和“args”合并为一个字符串,并将其类型设置为“command”。
例如,如果您的配置文件如下:
{
"mcpServers": {
"your-mcp-server-name": {
"command": "/path/to/workers-mcp",
"args": [
"run",
"your-mcp-server-name",
"https://your-server-url.workers.dev",
"/path/to/your/project"
],
"env": {}
}
}
}
那么在 Cursor 中,创建一个 MCP 服务器条目时:
- 类型设置为
command - 命令设置为
/path/to/workers-mcp run your-mcp-server-name https://your-server-url.workers.dev /path/to/your/project
其他 MCP 客户端
对于 Windsurf 和其他 MCP 客户端,请更新您的配置文件以包含您的 Worker,这样您就可以直接从客户端使用这些工具:
{
"mcpServers": {
"your-mcp-server-name": {
"command": "/path/to/workers-mcp",
"args": [
"run",
"your-mcp-server-name",
"https://your-server-url.workers.dev",
"/path/to/your/project"
],
"env": {}
}
}
}
请务必用您实际的服务器名称、URL 和项目路径替换占位符。
示例
请参阅 examples 目录,了解一些使用此工具的示例:
examples/01-hello-world是按照上述安装说明完成后的快照。examples/02-image-generation使用 Workers AI 运行 Flux 图像生成模型。Claude 非常擅长提出提示词,并且能够解读生成结果,进而决定尝试哪些新的提示词来达到您期望的效果。- 待办:浏览器渲染
- 待办:持久化对象
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备