Pulse
Pulse 是一款专为 Proxmox、Docker 和 Kubernetes 基础设施打造的现代化实时监控工具。它将分散在不同系统中的运行指标、警报信息和智能洞察整合到一个统一且美观的仪表板中,让用户能够轻松掌握整体架构的健康状态。
对于需要同时管理虚拟化节点、容器集群和云原生环境的用户而言,Pulse 有效解决了传统监控方案配置复杂、数据孤岛严重以及缺乏智能分析的痛点。它支持自动发现网络中的 Proxmox 节点,提供持久的历史数据存储,并能通过 Discord、Slack 等多种渠道发送智能警报,帮助用户快速响应潜在故障。
这款工具特别适合家庭实验室爱好者、系统管理员以及中小型服务提供商使用。无论是想要“一站式”查看自家服务器状态的个人玩家,还是追求高效运维的专业团队,都能从中受益。
Pulse 的独特亮点在于其深度集成的 AI 能力。用户可以通过自然语言与内置的聊天助手对话,直接询问基础设施状况;后台运行的"Patrol"功能还能定期执行健康检查并生成分析报告。此外,Pulse 坚持隐私优先原则,所有数据均保留在本地服务器,不上传任何遥测信息,同时支持 OIDC 单点登录和凭证加密存储,确保了企业级的安全性与易用性的完美平衡。
使用场景
某家庭实验室管理员同时维护着运行在 Proxmox 上的多个虚拟机、Docker 容器服务以及一个小型 Kubernetes 集群,日常需要确保这些异构基础设施的稳定运行。
没有 Pulse 时
- 监控分散割裂:必须分别登录 Proxmox Web 界面、Docker 命令行和 K8s 仪表盘查看状态,缺乏统一视角,排查问题效率极低。
- 告警滞后且噪音大:依赖简单的脚本监控,无法智能区分波动与故障,常在深夜收到大量无效邮件,或因漏报导致服务长时间中断。
- 数据洞察困难:面对海量的历史指标数据,难以快速定位资源瓶颈根源,更无法通过自然语言询问“为什么昨晚数据库延迟升高”这类具体问题。
- 备份管理盲目:无法直观可视化各节点的备份任务执行情况和存储占用,往往等到磁盘爆满才发现备份失败。
使用 Pulse 后
- 全景统一视图:Pulse 将 Proxmox、Docker 和 Kubernetes 的健康指标整合在一个美观的仪表盘中,实现真正的“单屏掌控”,状态一目了然。
- 智能精准告警:借助 AI 驱动的警报分析,Pulse 能过滤噪音并通过 Discord 或 Telegram 发送包含根因建议的通知,仅在真正需要时打扰管理员。
- AI 交互式诊断:内置的聊天助手支持自然语言查询,管理员可直接询问基础设施状况,Pulse 即时分析数据并给出解释,大幅降低排查门槛。
- 可视化备份追踪:通过备份探索器清晰展示作业历史与存储趋势,提前预警容量风险,确保数据安全可追溯。
Pulse 通过统一的 AI 增强型监控平台,将复杂的多环境运维转化为简单、直观且主动的智能管理体验。
运行环境要求
- Linux
未说明 (AI 功能支持 BYOK - 自带密钥,调用外部 API,无需本地 GPU)
未说明 (描述为轻量级 LXC 容器)

快速开始
Pulse
🚀 概述
Pulse 是一款现代化的统一仪表板,用于监控您在 Proxmox、Docker 和 Kubernetes 环境中的基础设施。它将来自所有系统的指标、告警以及 AI 驱动的洞察整合到一个简洁美观的界面中。
Pulse 专为家庭实验室用户、系统管理员和 MSP 设计,旨在提供“单一视图”的管理体验,而无需复杂的企业级监控堆栈。

✨ 功能
核心监控
- 统一监控:在一个地方查看 PVE、PBS、PMG、Docker 和 Kubernetes 的健康状态和指标
- 智能告警:通过 Discord、Slack、Telegram、电子邮件等多种方式接收通知
- 自动发现:自动检测网络中的 Proxmox 节点
- 指标历史:持久化存储,可配置保留策略
- 备份浏览器:可视化备份任务和存储使用情况
AI 驱动
- 聊天助手(BYOK):用自然语言提问关于您的基础设施的问题
- 巡检(BYOK):按计划执行的后台健康检查,生成检查结果
- 告警分析(Pro 版):告警触发时的可选 AI 分析
- 成本跟踪:按提供商和型号跟踪使用情况和成本
多平台支持
- Proxmox VE/PBS/PMG:全面的监控与管理
- Kubernetes:通过代理实现完整的 K8s 集群监控
- Docker/Podman:容器及 Swarm 服务监控
- OCI 容器:Proxmox 9.1 及以上版本原生容器支持
安全与运维
- 设计安全:凭据静态加密,严格的 API 权限控制
- 一键更新:支持部署的轻松升级
- OIDC/SSO:单点登录认证
- 注重隐私:无遥测数据,所有数据均保留在您的服务器上
⚡ 快速入门
方法 1:Proxmox LXC(推荐)
在您的 Proxmox 主机上运行以下命令,即可创建一个轻量级 LXC 容器:
curl -fsSL https://github.com/rcourtman/Pulse/releases/latest/download/install.sh | bash
注意:此命令会安装 Pulse 服务器。代理的安装则使用在 设置 → 代理 → 安装命令 中生成的命令(该命令由您的 Pulse 服务器上的 /install.sh 提供)。
方法 2:Docker
docker run -d \
--name pulse \
-p 7655:7655 \
-v pulse_data:/data \
--restart unless-stopped \
rcourtman/pulse:latest
访问仪表板地址:http://<your-ip>:7655。
📚 文档
- 安装指南:Docker、Kubernetes 和裸机环境的详细安装说明。
- 配置:设置身份验证、通知及高级选项。
- 安全:了解 Pulse 的安全模型及最佳实践。
- API 参考:将 Pulse 与您自己的工具集成。
- 架构:系统高层设计与数据流。
- 故障排除:常见问题解决方案。
- 代理安全:关于校验和验证更新及验证的详细信息。
- Docker 监控:Docker 代理的设置与管理。
🌐 社区集成
社区维护的集成与插件:
- Home Assistant 插件:将 Pulse Agent 和 Pulse 服务器作为 Home Assistant 插件运行。
🚀 Pulse Pro
Pulse Pro 解锁了 自动修复和高级 AI 分析 —— Pulse Patrol 对所有人开放,需使用自有大模型(BYOK)。
| 功能 | 免费版 | Pro 版 |
|---|---|---|
| 实时仪表板 | ✅ | ✅ |
| 阈值告警 | ✅ | ✅ |
| AI 聊天(BYOK) | ✅ | ✅ |
| Pulse Patrol(BYOK) | ✅ | ✅ |
| 告警触发的 AI 分析 | — | ✅ |
| Kubernetes AI 分析 | — | ✅ |
| 自动修复 + 自主模式 | — | ✅ |
| 集中式代理配置文件 | — | ✅ |
| 高级报表(PDF/CSV) | — | ✅ |
| 审计 Webhook(SIEM 集成) | — | ✅ |
| 优先支持 | — | ✅ |
Pulse Patrol 按照您的计划运行(每 10 分钟至每 7 天不等,默认 6 小时),能够发现:
- 接近容量上限的 ZFS 池
- 默默失败的备份任务
- 卡在重启循环中的虚拟机
- 集群节点间的时间漂移
- 容器健康检查失败的情况
Pulse Patrol 使用您配置的自有大模型(BYOK),完全在您的服务器上运行。
技术亮点:
- 跨系统上下文(节点、虚拟机、备份、容器及指标历史)
- 结合您提供的大模型进行的 LLM 分析,以及告警触发的深度分析(Pro 版)
- 可选的自动修复功能,配备命令安全策略和审计追踪
- 集中式代理配置文件,确保集群设置的一致性
试用在线演示 → 或 了解更多请访问 pulserelay.pro
Pulse Pro 技术细节:docs/PULSE_PRO.md
❤️ 支持 Pulse 开发
Pulse 由一个人维护。赞助有助于支付演示服务器、开发工具和域名的费用。如果 Pulse 为您节省了时间,请考虑支持该项目!
📄 许可证
MIT © Richard Courtman。Pulse Pro 的使用受 服务条款 约束。
版本历史
v5.1.272026/04/09helm-chart-5.1.272026/04/09helm-chart-5.1.27-rc.32026/04/07v5.1.27-rc.32026/04/07helm-chart-5.1.27-rc.22026/04/05v6.0.0-rc.22026/04/16helm-chart-5.1.282026/04/14v5.1.282026/04/14v6.0.0-rc.12026/04/12v5.1.27-rc.22026/04/05helm-chart-5.1.27-rc.12026/04/01v5.1.27-rc.12026/04/01helm-chart-5.1.262026/03/31v5.1.262026/03/31helm-chart-5.1.26-rc.22026/03/28v5.1.26-rc.22026/03/28helm-chart-5.1.26-rc.12026/03/27v5.1.26-rc.12026/03/27helm-chart-5.1.252026/03/27v5.1.252026/03/27常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。