n8n-install
n8n-install 是一个强大的开源脚本,旨在帮助用户一键部署自托管的 AI 自动化平台。它能够将 n8n、Ollama、Flowise、Supabase 等 30 多种主流工具整合到一个 Docker Compose 环境中,极大简化了复杂系统的搭建过程。
对于希望掌控数据隐私且不愿受限于商业云服务的用户来说,n8n-install 解决了手动配置多个服务、处理依赖冲突以及设置安全证书等繁琐问题。它让搭建私有化 AI 工作流变得像安装普通软件一样简单,同时确保了数据的本地化存储和安全传输。
这款方案特别适合开发者、运维人员以及热衷于家庭实验室的技术爱好者。无论你是想利用 n8n 自动化日常任务,还是希望通过 Ollama 运行本地大模型,n8n-install 都能提供坚实的基础设施。技术上,n8n-install 支持交互式安装向导,自动配置 Let's Encrypt HTTPS 证书,并默认启用 n8n 的队列模式以优化性能。此外,内置的 Grafana 监控栈和可选的社区工作流导入功能,进一步提升了生产环境的可用性和扩展性。作为一个完全免费且遵循 Apache 2.0 协议的解决方案,n8n-install 为用户提供了灵活、可控且高效的 AI 基础设施选择。
使用场景
某初创公司的技术负责人计划搭建一套私有化智能客服系统,利用本地大模型分析客户工单并自动归档,同时确保敏感数据完全不出内网,避免云厂商泄露风险。
没有 n8n-install 时
- 需手动编写 Docker Compose 文件,逐个配置 n8n、Ollama、Postgres 等组件,环境搭建耗时数天。
- 每个服务需单独申请和配置 SSL 证书,HTTPS 设置繁琐,容易因配置错误导致服务不可用。
- 各容器间网络隔离复杂,调试 n8n 调用本地模型时的连接问题耗费大量精力。
- 缺乏统一的监控方案,系统运行状态全靠人工检查,故障发现滞后影响业务连续性。
使用 n8n-install 后
- 通过一条命令启动交互式向导,一键部署全套 AI 自动化栈,环境准备时间从几天缩短至几分钟。
- Caddy 反向代理自动签发 Let's Encrypt 证书,所有服务统一域名访问,安全配置实现零门槛。
- 预配置好服务依赖与内部网络,n8n 可直接无缝调用本地 Ollama 模型,无需手动调试连通性。
- 内置 Grafana + Prometheus 监控栈,实时可视化工作流执行效率与资源占用,运维更加省心。
n8n-install 让私有化 AI 自动化部署变得像搭积木一样简单,不仅解决了多组件集成的技术难题,更彻底释放了团队在基础设施上的维护成本。
运行环境要求
- Ubuntu 24.04 LTS
未说明
最低 4GB / 全服务推荐 20GB

快速开始
自托管(Self-Hosted)AI 自动化平台
通过一条命令部署 30+ AI 和自动化工具。 这个开源的 Docker Compose 模板创建了一个完整的自托管(Self-Hosted)环境,包含 n8n(工作流自动化)、Flowise(AI 代理)、Ollama(本地大语言模型 / Local LLMs)、向量数据库(Vector Databases)(Qdrant、Weaviate)、RAG 引擎、Supabase、监控栈(Monitoring Stack)等——所有服务均预配置在 Caddy 反向代理(Reverse Proxy)之后,并支持自动 HTTPS。此外,安装过程中还可选择导入 300+ 社区工作流!
Table of Contents
主要功能
- 私有 AI 家庭实验室(Private AI Homelab) —— 使用 Ollama 本地运行大语言模型(LLMs),将数据保留在自己的服务器上
- ChatGPT 替代品 —— Open WebUI 为本地 AI 模型提供熟悉的聊天界面
- 工作流自动化 —— n8n 拥有 400+ 集成,可扩展的基于队列的架构
- AI 代理与 RAG —— Flowise, Dify, LangChain, 向量数据库(Qdrant, Weaviate)
- 一键安装 —— 交互式向导,自动生成密钥,零手动配置
- 自动 HTTPS —— Caddy 反向代理,配备自动 Let's Encrypt 证书
- 内置监控 —— 包含 Grafana + Prometheus 栈
- 生产就绪 —— 可扩展的工作者(Workers),健康检查,正确的服务依赖
- 免费且开源 —— 无供应商锁定,Apache 2.0 许可证
为什么选择此方案?
此安装程序帮助您创建自己强大、私有的 AI 工作室。想象一下,您手边有一套工具可以:
- 自动化重复性任务。
- 构建量身定制的智能助手。
- 分析信息并获得洞察。
- 生成创意内容。
此设置提供了一套全面的尖端服务,所有服务均预配置为协同工作。主要优势包括:
- 丰富的工具集: 获取精选的强大开源工具集合,用于 AI 开发、自动化和监控,全部集中在一个地方。
- 可扩展的 n8n 性能: n8n 默认以
`queue`模式运行,利用 Redis 进行任务管理,Postgres 进行数据存储。您可以在安装期间动态指定 n8n 工作者(Workers)和任务运行器的数量,从而实现对工作流的稳健并行处理,以应对高负载需求。 - 完全控制: 所有内容均由您托管,让您完全掌控数据、操作以及资源分配方式。
包含内容
✅ Caddy, Postgres 和 Redis - Web 代理、数据库和缓存的核心服务,始终包含在内。
安装程序还允许您通过设置过程中的交互式向导选择并部署以下强大的开源工具:
✅ Appsmith - 一个开源低代码平台,用于构建内部工具、仪表板和 Admin 面板,配备拖拽式 UI(用户界面)构建器。
✅ n8n - 一个拥有超过 400 种集成和高级 AI 组件的低代码平台,用于自动化工作流。
✅ ComfyUI - 一个功能强大、基于节点的 Stable Diffusion 工作流 UI。可视化构建和运行图像生成管道,支持自定义节点和扩展。
✅ Crawl4ai - 专为 AI 设计的灵活网络爬虫,使您能够从网站提取数据以用于项目。
✅ Docling - 通用文档转换器,可将 PDF、DOCX、PPTX、XLSX、HTML 和图像转换为干净的 Markdown 或 JSON。具备高级 PDF 解析、OCR(光学字符识别)支持和带有可选 Web UI 的 REST API(接口)。非常适合 n8n 工作流中的文档处理。
✅ Dify - 一个开源 AI 应用开发平台,提供全面的 LLMOps(大语言模型运维)能力,包括工作流管理、提示词工程、RAG(检索增强生成)管道和 AI Agent(智能体)编排。非常适合构建生产级 AI 应用。
✅ Flowise - 一个无代码/低代码 AI Agent 构建器,与 n8n 完美互补,让您轻松创建复杂的 AI 应用。
✅ Gost - 多功能 HTTP/HTTPS 代理,用于将 AI 服务的出站流量路由到中央代理点。
✅ Gotenberg - 一个无状态 API(接口),用于将 HTML、Markdown、Word、Excel 和其他文档转换为 PDF、PNG 或 JPEG。仅在 Docker(容器平台)网络内可用,供 n8n 工作流和其他服务内部使用。
✅ Grafana - 一个开源平台,用于可视化监控数据,帮助您一目了然地了解系统性能。
✅ Langfuse - 一个开源平台,帮助您观察和理解 AI Agent 的性能表现,使其更易于调试和改进。
✅ Letta - 一个开源 Agent 服务器和 SDK(软件开发工具包),可连接到各种 LLM(大语言模型)API 后端(OpenAI、Anthropic、Ollama 等),使您能够构建和管理 AI Agent。
✅ LightRAG - 一个简单快速的基于图的 RAG(检索增强生成)系统,具有自动知识图谱提取、双层检索机制和增量更新功能。支持多种存储后端(PostgreSQL、Neo4j、JSON)和嵌入模型。
✅ LibreTranslate - 自托管翻译 API(支持 50+ 种语言)。
✅ Neo4j - 一个图数据库管理系统,允许您将数据建模、存储和查询为节点和关系组成的网络。
✅ NocoDB - 一个开源的 Airtable 替代品,可将任何数据库转变为智能电子表格,并提供无代码界面以构建协作应用。
✅ Ollama - 在本地运行 Llama 3、Mistral、Gemma 和其他大语言模型。
✅ Open WebUI - 一个用户友好、类似 ChatGPT 的界面,用于私密地与您的 AI 模型和 n8n Agent 交互。
✅ PaddleOCR - 由 PaddleX Basic Serving 驱动的 CPU 就绪型 OCR API。
✅ Portainer - 一个轻量级、安全的 Web UI,用于轻松管理您的 Docker 环境(容器、镜像、卷、网络)。
✅ Databasus - 带有自托管 UI 的数据库备份和监控。
✅ Postiz - 一个开源社交媒体排期和发布平台。
✅ Prometheus - 一个开源监控和告警工具包,用于关注系统健康状态。
✅ Qdrant - 一个高性能开源向量存储库,专为 AI 设计。虽然 Supabase 也提供向量功能,但 Qdrant 因其速度而被包含在内,是要求苛刻的 AI 任务的理想选择。
✅ RAGApp - 开源应用程序,用于基于您的数据构建 RAG(检索增强生成)助手。提供用于聊天的 Web UI 和用于与工作流集成的 HTTP API。
✅ RAGFlow - 一个基于深度文档理解的开源 RAG 引擎,采用 Elasticsearch 后端,提供基于复杂格式化数据的可靠引用和真实问答能力。
✅ SearXNG - 一个免费、开源的互联网元搜索引擎。它聚合来自众多搜索服务的结果,不跟踪或分析您,确保您的隐私。
✅ Supabase - 一个开源的 Firebase 替代品,提供数据库存储、用户认证等功能。它是 AI 应用的热门选择。
✅ Uptime Kuma - 带有通知功能的自托管正常运行时间监控工具。
✅ WAHA - 可一键配置的 WhatsApp HTTP API(REST API 接口)!3 个引擎:WEBJS(基于浏览器)、NOWEB(websocket nodejs)、GOWS(websocket go)。
✅ Weaviate - 一个开源的 AI 原生向量数据库,专注于可扩展性和易用性。可用于 RAG、混合搜索等。
包含的社区工作流
利用庞大的预构建自动化库快速上手(设置期间可选择导入)!此集合包含超过 300 个工作流,涵盖广泛的使用场景:
🚦 包含什么?
- AI Agent 和聊天机器人: RAG、LLM、LangChain、Ollama、OpenAI、Claude、Gemini 等
- Gmail 和 Outlook: 智能标签、自动回复、PDF 处理和邮件转 Notion
- HR、电子商务、IT、安全、研究等!
- Notion、Airtable、Google Sheets: 数据同步、AI 摘要、知识库
- PDF、图像、音频、视频: 提取、摘要、字幕、语音转文字
- Slack、Mattermost: 工单、反馈分析、通知
- 社交媒体: LinkedIn、Pinterest、Instagram、Twitter/X、YouTube、TikTok 自动化
- Telegram、WhatsApp、Discord: 机器人、通知、语音和图像工作流
- WordPress、WooCommerce: AI 内容、聊天机器人、自动标签
安装
安装前的准备工作
- 域名: 您需要一个已注册的域名(例如
yourdomain.com)。 - DNS 配置(域名系统): 在运行安装脚本之前,您必须为您的域名配置 DNS A 记录,指向您将安装此系统的服务器的公网 IP 地址。将
yourdomain.com替换为您实际的域名:- 泛解析记录:
A *.yourdomain.com->YOUR_SERVER_IP
- 泛解析记录:
- VPS(虚拟专用服务器): 需要一台带有公网 IP 地址的专用 VPS。不支持家庭服务器、共享主机或本地主机(localhost)设置。
- 操作系统: Ubuntu 24.04 LTS(长期支持版),64 位
- 对于包含 n8n、监控、Databasus 和 Portainer 的最小化设置:4 GB 内存 / 2 核 CPU / 40 GB 磁盘空间
- 用于运行 所有可用服务:至少需要 20 GB 内存 / 4 核 CPU / 60 GB 磁盘空间
运行安装
推荐的安装方式是使用提供的主安装脚本。
通过 SSH(安全外壳协议)连接到您的服务器。
运行以下命令:
git clone https://github.com/kossakovsky/n8n-install && cd n8n-install && sudo bash ./scripts/install.sh
此单一命令可自动化整个设置过程,包括:
- 准备您的系统(更新、防火墙配置以及基本的安全增强措施,如暴力破解防护)。
- 安装 Docker 和 Docker Compose(用于在隔离环境中运行应用程序的工具)。
- 生成包含必要密钥和您域名设置的配置文件(
.env)。 - 启动所有服务。
在安装过程中,脚本将提示您输入:
- 您的 主域名(必需,例如
yourdomain.com)。这是您已配置泛解析记录的域名。 - 您的 电子邮件地址(必需,用于 Flowise、Supabase 仪表板、Grafana 等服务登录,以及用于 Let's Encrypt 的 SSL(安全套接层)证书注册)。
- 可选的 OpenAI API(应用程序接口)密钥(非必需。如果提供,可用于 Supabase AI 功能和 Crawl4ai。按 Enter 键跳过)。
- 您是否要 导入约 300 个现成的 n8n 社区工作流(y/n,可选。根据服务器和网络速度,这可能需要 20-30 分钟)。
- 您想要运行的 n8n Worker 数量(必需,例如 1, 2, 3, 4。这决定了可以并行处理多少个工作流。每个 Worker 会自动获得其专用的任务运行器侧边车 (sidecar) 以执行 Code 节点。如果未指定,默认为 1)。
- 随后将出现 服务选择向导,允许您选择要部署的可用服务(如 Flowise、Supabase、Qdrant、Open WebUI 等)。核心服务(Caddy、Postgres、Redis)将为您所选的服务进行设置。
安装成功完成后,脚本将显示一份摘要报告。该报告包含已部署服务的访问 URL(统一资源定位符)和凭据。请将此信息保存在安全的地方!
快速开始与使用
安装成功后,您的服务即可正常运行!以下是入门指南:
访问您的服务: 安装脚本提供了一份包含所有访问 URL 和凭据的摘要报告。请参考该报告。主要服务将在以下地址可用(将
yourdomain.com替换为您实际的域名):- n8n:
n8n.yourdomain.com(使用您在安装期间提供的电子邮件地址和摘要报告中的初始密码登录。首次登录时可能会被要求更改此密码。) - Appsmith:
appsmith.yourdomain.com(低代码应用构建器) - ComfyUI:
comfyui.yourdomain.com(基于节点的 Stable Diffusion UI(用户界面)) - Databasus:
databasus.yourdomain.com - Dify:
dify.yourdomain.com(具有全面 LLMOps 能力的 AI 应用程序开发平台) - Docling:
docling.yourdomain.com(带有 REST API 的通用文档转换器;Web UI 位于/ui) - Flowise:
flowise.yourdomain.com(使用您在安装期间提供的电子邮件地址和摘要报告中的初始密码登录。) - Grafana:
grafana.yourdomain.com - Langfuse:
langfuse.yourdomain.com - Letta:
letta.yourdomain.com - LibreTranslate:
translate.yourdomain.com - LightRAG:
lightrag.yourdomain.com - Neo4j:
neo4j.yourdomain.com - NocoDB:
nocodb.yourdomain.com - Open WebUI:
webui.yourdomain.com - PaddleOCR:
paddleocr.yourdomain.com - Portainer:
portainer.yourdomain.com(受 Caddy 基本认证保护;首次登录时,完成 Portainer 管理员设置) - Postiz:
postiz.yourdomain.com - Prometheus:
prometheus.yourdomain.com(通常用作 Grafana 的数据源) - Qdrant:
qdrant.yourdomain.com - RAGApp:
ragapp.yourdomain.com - RAGFlow:
ragflow.yourdomain.com - SearXNG:
searxng.yourdomain.com - Supabase(仪表板):
supabase.yourdomain.com - Uptime Kuma:
uptime-kuma.yourdomain.com(在线监控仪表板) - WAHA:
waha.yourdomain.com(WhatsApp HTTP API;引擎:WEBJS, NOWEB, GOWS) - Weaviate:
weaviate.yourdomain.com
- n8n:
可选内部工具:Python Runner
- 它是什么:一个仅限内部使用的服务,用于在与您的其他服务(n8n、Postgres、Qdrant 等)相同的 Docker 网络内运行您的自定义 Python 代码。不暴露任何外部端口,也不由 Caddy 代理。
- 如何启用:在安装/更新期间的“服务选择向导”中选择"Python Runner",或手动添加配置文件:
COMPOSE_PROFILES=...,python-runner。 - 代码存放位置:将您的 Python 文件放置在
python-runner/目录中。默认入口点是python-runner/main.py。 - 依赖项:将它们添加到
python-runner/requirements.txt;它们将在容器启动时自动安装。
探索 n8n:
- 登录您的 n8n 实例。这是您工作流自动化的中心枢纽。
- 如果您在安装期间选择导入社区工作流,您将在“工作流”部分找到超过 300 个示例。这些是学习和获取灵感的好方法。
- 开始构建您的第一个工作流!您可以访问超过 400 种集成和强大的 AI 工具。
利用集成的 AI 工具:
- 将 n8n 与向量存储(Vector Stores)连接:使用 n8n 连接到 Qdrant(如有需要可通过其自有端点访问,通常是
qdrant.yourdomain.com)、Supabase 或 Weaviate(weaviate.yourdomain.com),以存储和检索信息用于您的 AI 任务,如检索增强生成(RAG)。 - 使用 Flowise 构建:在
flowise.yourdomain.com访问 Flowise 以创建 AI 代理(Agents)和应用。您可以从 n8n 触发 Flowise 代理,反之亦然。 - 与 Open WebUI 交互:在
webui.yourdomain.com使用 Open WebUI 作为您本地 AI 模型或 n8n 代理的聊天界面(例如,如果已配置,可使用 n8n_pipe 集成)。 - 配置大语言模型(LLMs):如果您希望使用来自 OpenAI、Anthropic 等提供商的大型语言模型(LLMs),或通过 Ollama(如果已安装)本地使用,您可以在 n8n 节点内或在 Flowise 和 Open WebUI 等服务中轻松配置凭证和连接。
- 将 n8n 与向量存储(Vector Stores)连接:使用 n8n 连接到 Qdrant(如有需要可通过其自有端点访问,通常是
检查监控(可选):
- 访问 Grafana(
grafana.yourdomain.com)查看监控系统性能的仪表板(数据源自 Prometheus)。
- 访问 Grafana(
使用 Cloudflare Tunnel 进行安全访问(可选)
Cloudflare Tunnel 提供对您服务的零信任(Zero-trust)访问,而无需在服务器上暴露任何端口。所有流量都通过 Cloudflare 的安全网络路由,提供分布式拒绝服务(DDoS)防护并隐藏服务器的 IP 地址。
优势
- 无暴露端口 - 80/443 端口可以完全关闭
- DDoS 防护 - 内置 Cloudflare 保护
- IP 隐藏 - 服务器的真实 IP 永远不会暴露
- 零信任安全 - 可选的 Cloudflare Access 集成
- 无需公网 IP - 适用于私有网络
设置说明
请参阅 Cloudflare Tunnel 指南:cloudflare-instructions.md
在 n8n 代码节点中使用库 (v2.0+)
n8n v2.0 使用外部任务运行器在代码节点中执行 JavaScript 和 Python 代码。此设置通过 n8n/Dockerfile.runner 和 n8n/n8n-task-runners.json 预配置了以下库:
JavaScript 库:
cheerio:用于解析和操作 HTML/XML(例如网页抓取)。axios:基于 Promise 的 HTTP 客户端,用于向外部 API 发起请求。moment:用于解析、验证、操作和显示日期/时间。lodash:用于常见编程任务(数组、对象、字符串等)的工具库。
n8n 中预安装的系统工具
自定义 n8n Docker 镜像(n8n/Dockerfile.n8n)包含以下系统级工具:
ffmpeg:强大的多媒体框架,用于转换、录制和流式传输音频和视频。通过 n8n 工作流中的 Execute Command 节点使用它来执行任务,例如:- 转换视频/音频格式(例如 MP4 转 MP3)
- 从视频文件中提取音频
- 调整媒体文件大小或压缩
- 从视频中生成缩略图
升级
要将所有组件(n8n、Open WebUI 等)更新到最新版本并纳入此安装程序项目的最新更改:
make update
对于 Fork:如果您维护带有自定义更改的 Fork 并希望合并来自上游的更新而不是重置:
make git-pull
此脚本将:
- 从 Git 仓库获取安装程序的最新更新。
- 暂时停止当前运行的服务。
- 下载所有服务的 Docker 镜像最新版本。
- 询问您是否要重新运行 n8n 工作流导入(如果您在初始安装时跳过了此步骤或想刷新社区工作流,这很有用)。
- 使用新更新重启所有服务。
清理 Docker
如果您需要释放磁盘空间,可以运行 Docker 清理命令。这将移除所有未使用的 Docker 容器、镜像和卷。
make clean
这对于移除旧镜像和释放空间很有用,但请注意它将移除所有未使用的数据。
快速命令 (Makefile)
该项目包含一个用于简化命令执行的 Makefile:
安装与更新
| 命令 | 描述 |
|---|---|
make install |
完整安装 |
make update |
更新系统和服 务(重置为原始版本) |
make update-preview |
预览可用更新而不应用(试运行) |
make git-pull |
针对 Fork 的更新(从 upstream/main 合并) |
make clean |
移除未使用的 Docker 资源 |
监控与日志
| 命令 | 描述 |
|---|---|
make logs |
查看日志(所有服务) |
make logs s=<service> |
查看特定服务的日志(例如 make logs s=n8n) |
make status |
显示容器状态 |
make monitor |
实时 CPU/内存监控 |
make restart |
重启所有服务 |
make stop |
停止所有服务 |
make start |
启动所有服务 |
make show-restarts |
显示每个容器的重启次数 |
make import |
从备份导入 n8n 工作流 |
make import n=10 |
仅导入前 N 个工作流 |
诊断与配置
| 命令 | 描述 |
|---|---|
make doctor |
运行系统诊断(检查 DNS(域名系统)、SSL(安全套接层)、容器、磁盘、内存) |
make setup-tls |
为企业/内部使用配置自定义 TLS(传输层安全)证书 |
运行 make help 以获取所有可用命令的完整列表。
社区移植版本
- n8n-installer-arch 由 @ndrewpj 提供 - 适用于基于 Arch 的 Linux 发行版(Arch Linux, CachyOS, Manjaro)
重要链接
故障排除
以下是您可能遇到的一些常见问题的解决方案:
即使遵循说明后网站仍无法加载
- 症状: 尽管您已完成所有安装步骤,但您的域名/网站仍无法打开或返回错误。
- 可能原因: 您的 VPS(虚拟专用服务器)资源不足以支持您选择的服务集。
- 尝试方法:
- 检查当前的 CPU 和 RAM 使用情况(例如使用
top/htop,free -h, 和docker stats)。如果资源已饱和,请升级服务器或减少运行的服务数量。 - 尝试最小化配置 —— 仅启动
n8n并验证其是否正常运行。如果在此最小设置下工作正常,请在监控负载的同时逐步启用其他服务。
- 检查当前的 CPU 和 RAM 使用情况(例如使用
浏览器中临时的“危险网站”警告
- 症状: 部署服务后立即,当您尝试访问服务时,浏览器(如 Chrome)可能会显示“危险网站”或类似的安全警告。此警告通常在一段时间后消失(例如几小时内或第二天)。
- 原因: 这可能由以下几个原因导致:
- 短暂使用自签名证书: 当 Caddy(管理您 SSL 证书的 Web 服务器)为新域名启动时,在向 Let's Encrypt(证书颁发机构)请求并获得有效 SSL 证书的过程中,它可能会短暂使用临时的自签名证书。
- 应用新证书的延迟: 从 Let's Encrypt 获得的新证书完全应用并被所有系统识别之前,可能会有短暂的延迟。
- 解决方案: 这通常是一个临时问题,会自动解决。请耐心等待。如果警告持续超过 24 小时,请检查您的 Caddy 日志是否有与证书获取相关的错误,并确保您的 DNS(域名系统)设置正确地将域名指向服务器的 IP 地址。您也可以尝试清除浏览器缓存或使用无痕/隐私窗口重新检查。
一般问题
- VPN 冲突: 使用 VPN 可能会干扰 Docker(容器引擎)镜像的下载。如果您在拉取镜像时遇到问题,请尝试暂时禁用 VPN。
- 服务器要求: 如果您遇到意外问题,请确保您的服务器满足“安装前先决条件”部分中指定的最低硬件和操作系统要求(包括版本)。
更新脚本无法工作
症状:
make update命令失败、显示错误或未应用最新更改。原因: 如果您的本地仓库与上游分支出现分歧、存在未提交的更改或处于不一致状态,可能会发生这种情况。
解决方案: 运行以下命令强制将本地安装与最新版本同步:
git config pull.rebase true && git fetch origin && git checkout main && git reset --hard "origin/main" && make update警告: 这将丢弃您对安装程序文件所做的任何本地更改。如果您已自定义任何脚本或配置,请先备份它们。
推荐阅读
n8n 提供了出色的资源以帮助初学者掌握其 AI 功能:
- 面向开发者的 AI 代理:从理论到实践与 n8n
- 教程:在 n8n 中构建 AI 工作流
- n8n 中的 Langchain 概念(Langchain 是 n8n 用于某些 AI 功能的框架)
- 代理与工作链关键差异演示
- 什么是向量数据库(Vector Databases)?(更详细地解释了 Supabase 和 Qdrant 等工具)
更多 AI 模板
如需更多 AI 工作流创意,请访问 官方 n8n AI 模板画廊。在每个工作流中,选择 Use workflow 按钮即可自动将其导入到您的 n8n 实例中。
AI 模板(来自 n8n.io 的示例)
- AI 代理聊天
- 使用任意数据源进行 AI 聊天(使用 n8n 工作流工具)
- 与 OpenAI Assistant 聊天(通过添加记忆功能)
- 使用开源 LLM(大语言模型)(通过 HuggingFace)
- 使用 AI 与 PDF 文档聊天(引用来源)
- 可抓取网页的 AI 代理
- 税法代码助手
- 使用 MistralAI 和 Qdrant 将文档分解为学习笔记
- 使用 Qdrant 和 MistralAI 的财务文档助手
- 使用 Qdrant 和 Mistral 的食谱推荐
技巧与窍门
访问服务器上的文件
安装程序 (installer) 会创建一个 shared 文件夹(默认位于您运行安装脚本的同一目录中)。此文件夹可供 n8n 应用程序访问。
当您在 n8n 中构建需要读取或写入服务器上文件的自动化流程时,请在您的 n8n 工作流 (workflows) 中使用路径 /data/shared。n8n 中的此路径指向服务器上的 shared 文件夹。
与服务器文件系统 (filesystem) 交互的 n8n 组件:
贡献者
想看看谁为这个项目做出了贡献?查看 GitHub 贡献者页面!
遥测 (Telemetry)
此安装程序通过 Scarf 收集匿名使用统计数据,以帮助改进项目。不收集任何个人数据。
收集的数据:
- 事件类型(安装/更新开始/完成)
- 安装程序版本
- 选定的服务
- 操作系统类型(例如:ubuntu-24.04)
- 随机安装 ID(用于关联开始/完成事件)
- 国家(由 Scarf 根据 IP 确定,我们不会存储)
要退出,请在安装后将以下内容添加到您的 .env 文件中:
SCARF_ANALYTICS=false
许可证 (License)
本项目(最初由 n8n 团队创建,后续由贡献者开发 - 参见“重要链接”)根据 Apache License 2.0(Apache 许可证 2.0)许可。详见 LICENSE 文件。
版本历史
v1.4.22026/03/28v1.4.12026/03/23v1.4.02026/03/16v1.3.32026/02/28v1.3.22026/02/28v1.3.12026/02/28v1.3.02026/02/28v1.2.82026/02/28v1.2.72026/02/27v1.2.62026/02/11v1.2.52026/02/04v1.2.42026/01/30v1.2.32026/01/29v1.2.22026/01/27v1.2.12026/01/18v1.2.02026/01/12v1.1.02026/01/11v1.0.02026/01/07常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。