self-hosted-ai-starter-kit
self-hosted-ai-starter-kit 是由 n8n 团队精心打造的一站式开源模板,旨在帮助用户快速在本地搭建安全、私有的 AI 开发环境。它通过 Docker Compose 技术,将低代码自动化平台 n8n、本地大模型运行工具 Ollama、高性能向量数据库 Qdrant 以及 PostgreSQL 数据库无缝集成,让用户无需繁琐配置即可启动完整的 AI 工作流。
这套方案主要解决了企业在引入 AI 时面临的数据隐私顾虑和高昂部署门槛问题。所有数据均在本地处理,有效避免了敏感信息泄露风险,同时大幅降低了构建智能代理、私有文档分析及企业内部自动化机器人的成本与技术复杂度。
该工具特别适合希望掌握数据主权的开发者、技术研究人员以及需要构建安全内部工具的 IT 运维人员。即使是不具备深厚底层架构知识的用户,也能借助其低代码特性轻松上手。其独特亮点在于预置了针对 NVIDIA、AMD 显卡及 Apple Silicon 芯片的优化配置,并实现了本地大模型与自动化流程的深度打通,让创建如“自动预约助手”或“私密财务分析”等复杂应用变得像搭积木一样简单高效。
使用场景
某中型律所的合规团队需要每日处理大量包含敏感客户信息的合同 PDF,并从中提取关键条款生成摘要报告。
没有 self-hosted-ai-starter-kit 时
- 数据泄露风险高:使用公有云 AI 服务处理合同,必须将机密法律文档上传至第三方服务器,违反律所严格的数据隐私合规要求。
- 环境搭建繁琐:开发人员需手动配置 Ollama、向量数据库 Qdrant 和工作流引擎 n8n,耗时数天解决依赖冲突和网络配置问题。
- 成本不可控:按 Token 计费的公有云大模型在处理长篇法律文档时费用高昂,且难以预测月度支出。
- 集成难度大:缺乏统一的低代码编排工具,难以将本地运行的模型与律所现有的文件存储系统灵活对接。
使用 self-hosted-ai-starter-kit 后
- 数据完全私有化:通过 Docker Compose 一键部署本地环境,所有文档分析均在内部服务器完成,彻底杜绝数据外泄风险。
- 分钟级启动开发:预配置的模板整合了 n8n、Ollama 和 Qdrant,开发人员只需几条命令即可在本地构建完整的 AI 工作流。
- 运营成本极低:利用现有硬件资源运行开源大模型,无需支付昂贵的 API 调用费,仅需承担电力与维护成本。
- 流程自动化闭环:借助 n8n 的可视化编排能力,轻松实现“上传 PDF->本地模型提取->向量库检索->生成报告”的全自动链路。
self-hosted-ai-starter-kit 让敏感行业团队能以最低门槛构建安全、可控且高效的本地 AI 自动化流水线。
运行环境要求
- Linux
- macOS
- 非必需
- 支持 NVIDIA GPU (需配置 Docker GPU 支持) 或 Linux 下的 AMD GPU
- Mac (Apple Silicon) 无法将 GPU 暴露给 Docker,可选择纯 CPU 运行或在宿主机运行 Ollama
- 具体型号和显存未说明,取决于所选本地 LLM 模型的需求
未说明 (取决于运行的本地大语言模型规模)

快速开始
自托管 AI 入门套件
自托管 AI 入门套件 是一个开源的 Docker Compose 模板,旨在快速初始化一个全面的本地 AI 和低代码开发环境。

由 https://github.com/n8n-io 精心打造,它将自托管的 n8n 平台与精选的兼容 AI 产品和组件相结合,帮助您迅速开始构建自托管的 AI 工作流。
[!TIP] 阅读公告
包含的内容
✅ 自托管 n8n - 拥有超过 400 种集成和高级 AI 组件的低代码平台
✅ Ollama - 跨平台的 LLM 平台,用于安装和运行最新的本地 LLM
✅ Qdrant - 开源、高性能的向量数据库,提供全面的 API
✅ PostgreSQL - 数据工程领域的主力,安全地处理大量数据。
您可以构建的内容
⭐️ 用于安排预约的 AI 代理
⭐️ 安全地总结公司 PDF 文件,避免数据泄露
⭐️ 更智能的 Slack 机器人,提升公司沟通和 IT 运营效率
⭐️ 以最低成本进行私有金融文档分析
安装
克隆仓库
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 您应更新其中的密钥和密码
使用 Docker Compose 运行 n8n
对于 NVIDIA GPU 用户
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 您应更新其中的密钥和密码
docker compose --profile gpu-nvidia up
[!NOTE] 如果您之前从未在 Docker 中使用过 NVIDIA GPU,请遵循 Ollama 的 Docker 指南。
对于 Linux 上的 AMD GPU 用户
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 您应更新其中的密钥和密码
docker compose --profile gpu-amd up
对于 Mac / Apple Silicon 用户
如果您使用的是搭载 M1 或更高版本处理器的 Mac,则很遗憾无法将您的 GPU 暴露给 Docker 容器。在这种情况下,有两种选择:
- 完全在 CPU 上运行入门套件,如下面的“对于其他所有人”部分所述。
- 在您的 Mac 上运行 Ollama 以获得更快的推理速度,并从 n8n 实例连接到它。
如果您希望在 Mac 上运行 Ollama,请查看 Ollama 官网 获取安装说明,然后按照以下步骤运行入门套件:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 您应更新其中的密钥和密码
docker compose up
对于在本地运行 OLLAMA 的 Mac 用户
如果您在本地(而非在 Docker 中)运行 OLLAMA,需要修改 OLLAMA_HOST 环境变量:
将 .env 文件中的 OLLAMA_HOST 设置为
host.docker.internal:11434。此外,在看到“编辑器现在可通过以下地址访问:http://localhost:5678/”之后:
- 前往 http://localhost:5678/home/credentials
- 点击“Local Ollama service”
- 将基础 URL 更改为 “http://host.docker.internal:11434/”
对于其他所有人
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 您应更新其中的密钥和密码
docker compose --profile cpu up
⚡️ 快速开始与使用
自托管 AI 入门套件的核心是一个预配置了网络和存储设置的 Docker Compose 文件,从而最大限度地减少了额外安装的需求。完成上述安装步骤后,只需按照以下步骤即可开始使用。
- 在浏览器中打开 http://localhost:5678/ 来设置 n8n。您只需执行此操作一次。
- 打开附带的工作流: http://localhost:5678/workflow/srOnR8PAY3u4RSwb
- 点击画布底部的 Chat 按钮,开始运行工作流。
- 如果这是您首次运行该工作流,可能需要等待 Ollama 完成下载 Llama3.2。您可以查看 Docker 控制台日志来跟踪进度。
要随时打开 n8n,请在浏览器中访问 http://localhost:5678/。
通过您的 n8n 实例,您将可以访问超过 400 种集成以及一系列基础和高级 AI 节点,例如 AI Agent、Text classifier 和 Information Extractor 节点。为了保持所有内容本地化,只需记住使用 Ollama 节点作为您的语言模型,并将 Qdrant 用作您的向量数据库。
[!NOTE] 本入门套件旨在帮助您快速上手自托管的 AI 工作流。虽然它并未完全针对生产环境进行优化,但其强大的组件能够很好地协同工作,适合概念验证项目。您可以根据自身需求对其进行定制。
升级
对于 NVIDIA GPU 配置:
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
对于 Mac / Apple Silicon 用户
docker compose pull
docker compose create && docker compose up
对于非 GPU 配置:
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
👓 推荐阅读
n8n 提供了大量有用的内容,帮助您快速掌握其 AI 概念和节点。如果您遇到任何问题,请前往 支持。
🎥 视频教程
🛍️ 更多 AI 模板
如需更多 AI 工作流创意,请访问 n8n 官方 AI 模板库。从每个工作流中,选择 Use workflow 按钮,即可自动将工作流导入您的本地 n8n 实例。
学习 AI 核心概念
- AI 代理聊天
- 与任意数据源进行 AI 聊天(使用 n8n 工作流)
- 通过添加记忆与 OpenAI 助手聊天
- 使用开源大模型(通过 Hugging Face)
- 使用 AI 与 PDF 文档聊天(引用来源)
- 能够抓取网页的 AI 代理
本地 AI 模板
- 税法代码助手
- 利用 MistralAI 和 Qdrant 将文档拆解为学习笔记
- 使用 Qdrant 和 Mistral.ai 的财务文档助手 Mistral.ai
- 使用 Qdrant 和 Mistral 提供建议食谱
小贴士与技巧
访问本地文件
自托管的 AI 入门套件会创建一个共享文件夹(默认位于同一目录下),该文件夹会被挂载到 n8n 容器中,从而使 n8n 能够访问磁盘上的文件。在 n8n 容器内,此文件夹的路径为 /data/shared —— 在与本地文件系统交互的节点中,您需要使用此路径。
与本地文件系统交互的节点
📜 许可证
本项目采用 Apache License 2.0 许可证授权——详情请参阅 LICENSE 文件。
💬 支持
加入 n8n 论坛 的讨论,您可以在其中:
- 分享您的作品:展示您使用 n8n 构建的内容,激励社区中的其他成员。
- 提问:无论您是初学者还是资深用户,社区和我们的团队都随时准备为您提供帮助,解决任何问题。
- 提出建议:如果您有功能或改进的想法,请告诉我们!我们始终期待听到您希望看到的新功能。
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备