n8n-mcp-server
n8n-mcp-server 是一款基于模型上下文协议(MCP)构建的开源服务,旨在让人工智能助手能够直接通过自然语言与流行的工作流自动化工具 n8n 进行交互。它充当了 AI 与 n8n API 之间的智能桥梁,让用户无需编写复杂代码或手动调用接口,只需使用日常语言指令,即可让 AI 助手自动管理、触发和监控 n8n 中的自动化工作流及执行任务。
这一工具主要解决了传统自动化流程中“人机交互门槛高”的痛点。过去,调整或运行自动化脚本通常需要开发者介入,而 n8n-mcp-server 赋予了非技术背景用户直接指挥自动化系统的能力,大幅提升了工作流管理的灵活性与效率。其核心技术亮点在于深度集成 MCP 标准,将 n8n 的编程能力转化为 AI 可理解的工具集,支持通过 npm、源码编译或 Docker 等多种方式灵活部署,并能无缝接入各类兼容 MCP 的 AI 客户端。
n8n-mcp-server 特别适合希望利用 AI 增强自动化能力的开发者、运维人员以及业务分析师使用。对于已经在使用 n8n 搭建业务流程的团队,它能进一步释放 AI 潜力,实现更智能化的流程控制;对于探索 AI Agent 应用场景的研究者,它也是一个极佳的实践案例。无论是想快速原型验证,还是构建生产级智能自动化系统,n8n-mcp-server 都提供了稳定且易于扩展的基础设施支持。
使用场景
某电商运营团队需要频繁调整自动化订单处理流程,以应对促销期间的突发流量和规则变更。
没有 n8n-mcp-server 时
- 运营人员发现促销规则变动后,必须联系开发人员手动登录 n8n 后台查找并修改工作流,响应滞后。
- 排查故障时需在不同系统间切换,人工核对日志与执行记录,耗时且容易遗漏关键错误信息。
- 临时启用或暂停特定流程需等待开发排期,无法通过自然语言指令即时控制,错失营销良机。
- 非技术人员因缺乏 API 操作能力,完全依赖开发团队进行日常运维,沟通成本极高。
使用 n8n-mcp-server 后
- 运营主管直接在 AI 助手对话框输入“将大促订单流程的库存阈值改为 50",n8n-mcp-server 即刻调用 API 完成更新。
- 遇到异常时,只需询问 AI“昨天失败的订单处理任务有哪些”,n8n-mcp-server 自动检索并汇总执行日志返回结果。
- 突发流量下,管理员语音指令“暂时暂停邮件通知节点”,n8n-mcp-server 实时定位并禁用对应工作流部分,秒级生效。
- 业务人员无需学习代码或 API 文档,通过自然语言即可指挥 n8n-mcp-server 完成复杂的流程管理与监控任务。
n8n-mcp-server 将原本割裂的自动化平台与人类意图无缝连接,让业务流程管理像对话一样简单高效。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
n8n MCP 服务器
一个模型上下文协议(MCP)服务器,允许 AI 助手通过自然语言与 n8n 工作流进行交互。
概述
本项目提供了一个模型上下文协议(MCP)服务器,使 AI 助手能够无缝地与流行的工作流自动化工具 n8n 进行交互。它充当桥梁,使 AI 助手能够使用自然语言命令以编程方式管理和控制 n8n 工作流及执行。
安装
先决条件
- Node.js 20 或更高版本
- 已启用 API 访问的 n8n 实例
从 npm 安装
npm install -g @leonardsellem/n8n-mcp-server
从源代码安装
# 克隆仓库
git clone https://github.com/leonardsellem/n8n-mcp-server.git
cd n8n-mcp-server
# 安装依赖
npm install
# 构建项目
npm run build
# 可选:全局安装
npm install -g .
Docker 安装
您也可以使用 Docker 运行服务器:
# 拉取镜像
docker pull leonardsellem/n8n-mcp-server
# 使用您的 n8n API 配置运行容器
docker run -e N8N_API_URL=http://your-n8n:5678/api/v1 \
-e N8N_API_KEY=your_n8n_api_key \
-e N8N_WEBHOOK_USERNAME=username \
-e N8N_WEBHOOK_PASSWORD=password \
leonardsellem/n8n-mcp-server
更新服务器
更新服务器的方式取决于您最初安装的方式。
1. 通过 npm 全局安装
如果您使用 npm install -g @leonardsellem/n8n-mcp-server 安装了服务器:
- 打开终端或命令提示符。
- 运行以下命令以获取最新版本:
npm install -g @leonardsellem/n8n-mcp-server@latest - 如果服务器当前正在运行(例如作为后台进程或服务),则需要重新启动它才能使更改生效。
2. 从源代码安装
如果您克隆了仓库并从源代码安装:
- 打开终端或命令提示符。
- 导航到您克隆项目的目录:
cd path/to/n8n-mcp-server - 如果您对代码进行了本地修改并希望保留这些更改,可以考虑暂存它们(可选):
您稍后可以使用git stashgit stash pop将其恢复。 - 从仓库拉取最新更改(假设您在
main分支上):
如果您在其他分支上,请将git pull origin mainmain替换为您的分支名称。 - 安装或更新任何已更改的依赖项:
npm install - 重新构建项目以包含最新更新:
npm run build - 如果您之前曾使用
npm install -g .从该源文件夹全局安装过,可能需要再次运行此命令以更新全局链接:npm install -g . - 重启服务器。
- 如果您直接使用类似
node build/index.js的命令在 AI 助手的 MCP 配置中运行服务器,请确保路径仍然正确。使用npm install -g .然后以n8n-mcp-server作为命令应该能保持一致性。
- 如果您直接使用类似
3. 使用 Docker
如果您使用 Docker 运行服务器:
- 从 Docker Hub 拉取最新镜像:
docker pull leonardsellem/n8n-mcp-server:latest - 停止并移除旧容器。您需要容器的名称或 ID(可以使用
docker ps查看):docker stop <your_container_name_or_id> docker rm <your_container_name_or_id> - 使用更新后的镜像启动新容器。请使用您之前使用的相同
docker run命令,并包含所有必要的环境变量(参考“Docker 安装”部分中的示例命令)。例如:
请确保使用docker run -e N8N_API_URL=http://your-n8n:5678/api/v1 \ -e N8N_API_KEY=your_n8n_api_key \ -e N8N_WEBHOOK_USERNAME=username \ -e N8N_WEBHOOK_PASSWORD=password \ leonardsellem/n8n-mcp-server:latest:latest或您打算运行的特定版本标签。
配置
在您将运行服务器的目录中创建一个 .env 文件,以 .env.example 为模板:
cp .env.example .env
配置以下环境变量:
| 变量 | 描述 | 示例 |
|---|---|---|
N8N_API_URL |
n8n API 的完整 URL,包括 /api/v1 |
http://localhost:5678/api/v1 |
N8N_API_KEY |
用于与 n8n 身份验证的 API 密钥 | n8n_api_... |
N8N_WEBHOOK_USERNAME |
Webhook 身份验证的用户名(如果使用 Webhook) | username |
N8N_WEBHOOK_PASSWORD |
Webhook 身份验证的密码 | password |
DEBUG |
启用调试日志记录(可选) | true 或 false |
生成 n8n API 密钥
- 在浏览器中打开您的 n8n 实例。
- 转到设置 > API > API 密钥。
- 创建具有适当权限的新 API 密钥。
- 将密钥复制到您的
.env文件中。
使用
运行服务器
从安装目录运行:
n8n-mcp-server
或者如果已全局安装:
n8n-mcp-server
与 AI 助手集成
在构建服务器(npm run build)之后,您需要配置您的 AI 助手(例如带有 Claude 扩展的 VS Code 或 Claude Desktop 应用程序)以运行该服务器。这通常涉及编辑一个 JSON 配置文件。
配置示例(例如,在 VS Code 的 settings.json 或 Claude Desktop 的 claude_desktop_config.json 中):
{
"mcpServers": {
// 为您的服务器指定一个唯一名称
"n8n-local": {
// 使用 'node' 来执行构建后的 JavaScript 文件
"command": "node",
// 提供构建后 `index.js` 文件的 *绝对路径*
"args": [
"/path/to/your/cloned/n8n-mcp-server/build/index.js"
// 在 Windows 上,请使用双反斜杠:
// "C:\\path\\to\\your\\cloned\\n8n-mcp-server\\build\\index.js"
],
// 服务器所需的环境变量
"env": {
"N8N_API_URL": "http://your-n8n-instance:5678/api/v1", // 替换为您的 n8n 实例 URL
"N8N_API_KEY": "YOUR_N8N_API_KEY", // 替换为您的 API 密钥
// 仅当您计划使用 webhook 工具时才添加 webhook 凭据
// "N8N_WEBHOOK_USERNAME": "your_webhook_user",
// "N8N_WEBHOOK_PASSWORD": "your_webhook_password"
},
// 确保服务器已启用
"disabled": false,
// 默认自动批准设置
"autoApprove": []
}
// ... 其他服务器也可以在此处配置
}
}
关键点:
- 将
/path/to/your/cloned/n8n-mcp-server/替换为您克隆并构建仓库的实际绝对路径。 - 根据您的操作系统使用正确的路径分隔符(macOS/Linux 使用正斜杠
/,Windows 使用双反斜杠\\)。 - 确保提供正确的
N8N_API_URL(包括/api/v1)和N8N_API_KEY。 - 必须先构建服务器(
npm run build),然后助手才能运行build/index.js文件。
可用工具
该服务器提供了以下工具:
使用 Webhook
此 MCP 服务器支持通过 n8n webhook 执行工作流。要使用此功能:
- 在 n8n 中创建一个由 webhook 触发的工作流。
- 在您的 webhook 节点上设置基本身份验证。
- 使用
run_webhook工具触发工作流,只需传递工作流名称即可。
示例:
const result = await useRunWebhook({
workflowName: "hello-world", // 将调用 <n8n-url>/webhook/hello-world
data: {
prompt: "来自 AI 助手的问候!"
}
});
Webhook 身份验证会使用 N8N_WEBHOOK_USERNAME 和 N8N_WEBHOOK_PASSWORD 环境变量自动处理。
工作流管理
workflow_list: 列出所有工作流workflow_get: 获取特定工作流的详细信息workflow_create: 创建新工作流workflow_update: 更新现有工作流workflow_delete: 删除工作流workflow_activate: 激活工作流workflow_deactivate: 停用工作流
执行管理
execution_run: 通过 API 执行工作流run_webhook: 通过 webhook 执行工作流execution_get: 获取特定执行的详细信息execution_list: 列出某个工作流的所有执行记录execution_stop: 停止正在运行的执行
资源
该服务器提供了以下资源:
n8n://workflows/list: 所有工作流列表n8n://workflow/{id}: 特定工作流的详细信息n8n://executions/{workflowId}: 某个工作流的所有执行记录n8n://execution/{id}: 特定执行的详细信息
路线图
n8n MCP 服务器是一个社区驱动的项目,其未来发展方向将由您的反馈和贡献决定!
目前,我们的路线图是灵活且持续开发中的。我们相信会根据用户的需求和想法不断改进服务器。
我们鼓励您参与塑造这款工具的未来:
- 提出功能建议: 您是否有关于新工具、资源或改进的想法?
- 讨论优先级: 您想就我们接下来应该关注什么发表意见吗?
请通过在我们的 GitHub Issues 页面 上提交问题来分享您的想法、功能请求和创意。让我们一起打造一款强大的 AI 助手工具吧!
开发
构建
npm run build
以开发模式运行
npm run dev
测试
npm test
代码检查
npm run lint
贡献
我们欢迎社区的贡献,并期待看到您如何帮助改进 n8n MCP 服务器!无论您是在修复 bug、提出新功能,还是改进文档,您的帮助都备受珍视。
报告 Bug
如果您遇到任何 bug,请通过在我们的 GitHub Issues 页面 上提交问题来报告。
提交 bug 报告时,请包含以下内容:
- 清晰且描述性的标题。
- 对问题的详细描述,包括重现 bug 的步骤。
- 您的环境信息(例如 Node.js 版本、n8n MCP 服务器版本、操作系统)。
- 任何相关的错误消息或截图。
提出改进建议
我们一直在寻找让服务器变得更好的方法。如果您对某项改进或新功能有想法,请在我们的 GitHub Issues 页面 上提交问题。
请提供:
- 清晰且描述性的建议标题。
- 对拟议改进的详细说明,以及它为何有益。
- 任何潜在的使用场景或示例。
提交 Pull Request
如果您想贡献代码,请按照以下步骤操作:
- Fork 仓库: 创建您自己的 n8n-mcp-server 仓库 分支。
- 创建分支: 在您的分支中为您的更改创建一个新分支(例如
git checkout -b feature/your-feature-name或bugfix/issue-number)。 - 进行更改: 实现您的功能或修复 bug。
- 确保您的代码符合现有的编码风格。(我们使用 Prettier 进行格式化,可以通过
npm run lint运行)。 - 如果适用,请为您的更改添加测试。您可以使用
npm test运行测试。
- 确保您的代码符合现有的编码风格。(我们使用 Prettier 进行格式化,可以通过
- 提交更改: 编写清晰简洁的提交信息。
- 推送到您的分支: 将您的更改推送到您分叉的仓库。
- 打开 Pull Request (PR): 向官方
n8n-mcp-server仓库的main分支提交 PR。- 为您的 PR 提供清晰的标题和描述,解释您所做的更改,并引用任何相关问题。
我们会尽快审查您的 PR 并提供反馈。感谢您的贡献!
许可证
🚀 加入我们的团队:诚招联合维护者!
本项目是一个充满活力、由社区驱动的工具,深受AI爱好者和开发者的喜爱。目前,该项目由一位充满热情但并非资深工程师的个人以兼职方式维护,他致力于将AI与工作流自动化相结合。为了推动项目的蓬勃发展、确保其长期健康运行,并满足不断增长的用户需求,我们正在寻找热情洋溢的联合维护者加入团队!
为什么参与贡献?
- 学习与成长: 在TypeScript、Node.js、API集成以及AI工具开发等领域提升你的技能。
- 协作共赢: 与其他积极进取的开发者和AI用户并肩合作。
- 产生影响: 直接塑造项目的未来,帮助打造一款对AI社区极具价值的工具。
- 开源经验: 获得参与开源项目的经验。
你可以如何贡献力量?
我们欢迎多种形式的贡献!以下是一些你可以大展身手的领域:
- 修复Bug: 帮助我们识别并解决各类问题,提升系统稳定性。
- 功能开发: 根据用户需求和你的创意,实现新的工具和功能。
- 文档编写: 完善指南、示例和API参考,让项目更加易用。
- 测试: 优化我们的测试套件(单元测试、集成测试),确保代码质量和可靠性。
- CI/CD: 协助优化我们的开发与部署流程。
- 代码评审: 对拉取请求提供反馈,帮助维护代码规范。
- 社区支持: 回答用户问题,协助管理社区讨论。
立即行动吧!
如果你对AI与工作流自动化结合的应用充满兴趣,并希望获得一次有意义的开源贡献机会,我们非常期待你的加入!
准备好贡献了吗?
- 访问我们的GitHub Issues页面,查找现有任务、提出新想法,或表达你成为联合维护者的意愿。
- 你可以创建一个标题为“联合维护者申请”的议题来正式提交申请,或者直接从现有议题开始贡献。
- 如果有任何疑问,也欢迎随时联系现有的维护者。
让我们携手共建AI驱动的工作流自动化未来!🙌
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
