desktop
ComfyUI Desktop 是一款专为 Windows 和 macOS 用户打造的官方桌面应用,旨在让 ComfyUI 的使用变得像普通软件一样简单便捷。它解决了传统部署中需要手动配置 Python 环境、安装依赖库以及管理复杂命令行参数的痛点,让用户无需具备深厚的技术背景即可快速上手。
这款应用非常适合希望专注于创意工作流的设计师、AI 艺术爱好者,以及想要节省环境搭建时间的研究人员。对于开发者而言,它也提供了清晰的日志管理和版本更新机制,便于调试与维护。
其核心亮点在于“开箱即用”的集成体验:内置了稳定的 ComfyUI 核心、前端界面、插件管理器(ComfyUI-Manager)以及高效的 uv 包管理工具。启动时,它会自动完成所有必要依赖的安装与更新,确保始终运行最新稳定版。此外,应用采用 Electron 架构,将模型路径、配置文件和日志统一规范化管理,支持自动升级,极大降低了维护成本。无论是生成图像还是构建复杂节点工作流,ComfyUI Desktop 都能提供一个稳定、整洁且高效的操作环境。
使用场景
一位自由职业设计师需要在 Windows 笔记本上频繁切换不同版本的 ComfyUI 工作流,为客户生成高质量的营销海报。
没有 desktop 时
- 环境配置繁琐:每次更新或切换项目都需手动安装 Python、Git 及各类依赖库,常因版本冲突导致启动失败。
- 节点管理混乱:缺少可视化的管理器,安装自定义节点需手动克隆仓库并处理依赖,极易出错且难以维护。
- 文件路径分散:模型、输入输出文件散落在各个项目文件夹中,缺乏统一配置,查找和迁移数据耗时耗力。
- 更新风险高:手动拉取最新代码容易遇到不稳定的开发版,导致生产环境中工作流突然崩溃。
使用 desktop 后
- 一键开箱即用:desktop 自动捆绑稳定版 ComfyUI、前端界面及 uv 包管理器,启动即自动配置好所有 Python 依赖。
- 内置智能管理:集成 ComfyUI-Manager,设计师可在图形界面内轻松搜索、安装和更新自定义节点,无需触碰命令行。
- 统一数据存储:自动将模型、工作流和用户文件集中存储在标准应用目录(如
%APPDATA%\ComfyUI),并通过配置文件统一管理路径。 - 稳定自动升级:应用后台自动检测并平滑更新至官方稳定 release 版本,确保生产环境始终稳定可靠,同时保留旧版回退能力。
desktop 将复杂的本地部署转化为类似原生应用的流畅体验,让创作者能专注于设计本身而非环境运维。
运行环境要求
- Windows
- macOS
- Linux
未说明(预打包版本针对 Windows NVIDIA 用户,但应用本身作为 ComfyUI 封装,具体 GPU 需求取决于用户加载的模型)
未说明

快速开始
ComfyUI 桌面版
用户指南
请阅读用户指南
下载
Windows (NVIDIA) NSIS x64:下载
macOS ARM:下载
概述
这款桌面应用是以打包形式使用ComfyUI的便捷方式,并附带以下内容:
- 来自发布页面的稳定版 ComfyUI
- ComfyUI_frontend
- ComfyUI-Manager(当设置
--enable-manager时通过 pip 安装;旧版自定义节点仅针对较旧的 ComfyUI 版本进行克隆) - uv
启动时,它将使用 uv 安装所有必要的 Python 依赖项,并启动 ComfyUI 服务器。该应用还会自动更新至 ComfyUI、ComfyUI-Manager(pip)和 uv 可执行文件的稳定版本,以及一些桌面专用功能。
开发者请继续阅读。
已安装文件
Electron
桌面应用程序捆绑了以下内容:
- ComfyUI 源代码
- ComfyUI-Manager(pip 包或旧版自定义节点,取决于所捆绑的 ComfyUI 版本)
- Electron、Chromium 二进制文件以及 Node.js 模块
Windows
我们使用 NSIS 安装程序 进行 Windows 安装,文件将被安装到以下位置:
捆绑资源:%LOCALAPPDATA%\Programs\ComfyUI

用户文件存储于此:%APPDATA%\ComfyUI
自动更新:%LOCALAPPDATA%\comfyui-electron-updater 或 %LOCALAPPDATA%\@comfyorgcomfyui-electron-updater
macOS
macOS 应用程序以 DMG 格式分发,文件将被安装到:
~/Library/Application Support/ComfyUI
应用程序将被拖放到 /Applications 目录下。
Linux
~/.config/ComfyUI
ComfyUI
系统还会要求您选择一个用于存储 ComfyUI 文件的位置,例如模型、输入、输出、custom_nodes 和已保存的工作流。此目录存储在 config.json 的 basePath 键中。
Windows:%APPDATA%\ComfyUI\config.json
macOS:~/Library/Application Support/ComfyUI\config.json
Linux:~/.config/ComfyUI\config.json
模型路径
此目录也会写入 extra_models_config.yaml 中的 base_path。桌面应用默认会在此处查找模型检查点,但您可以通过编辑此文件来添加额外的模型搜索路径。
Windows:%APPDATA%\ComfyUI\extra_models_config.yaml
macOS:~/Library/Application Support/ComfyUI\extra_models_config.yaml
Linux:~/.config/ComfyUI\extra_models_config.yaml
日志
我们使用 electron-log 记录所有内容。Electron 主进程日志位于 main.log,ComfyUI 服务器日志则位于 comfyui_<date>.log。
Linux:~/.config/{应用名}/logs
macOS:~/Library/Logs/{应用名}
Windows:%AppData%/{应用名}/logs
开发
设置 Python
请确保已安装 Python 3.12 或更高版本。建议创建虚拟环境。
Linux/MacOS:
python -m venv venv
source venv/bin/activate
Windows:
py -3.12 -m venv venv
.\venv\Scripts\Activate.ps1
Windows
Visual Studio
运行 node-gyp 需要 Visual Studio 2019 或更高版本,并安装“桌面 C++”工作负载。请参阅 node-gyp 的Windows 安装说明。此外还需要“缓解幽灵漏洞”的库,可在 VS 安装程序的“单个组件”部分找到。
确认可用的版本:
- Visual Studio Community 2022 - 17.12.1
- 桌面开发与 C++ 工作负载
- MSVC v143 x64 缓解幽灵漏洞的库(最新 / v14.42-17.12)
- 打开 Visual Studio 安装程序
- 点击您的 Visual Studio 2022 Community 安装中的“修改”
- 转到“单个组件”选项卡
- 搜索“幽灵”
- 勾选与您项目架构匹配的缓解幽灵漏洞的库(x86 和/或 x64)

寻找“MSVC v143 - VS 2022 C++ x64/x86 缓解幽灵漏洞的库”。如果您使用其他工具集,可能还需要相应的缓解幽灵漏洞的库。
NPM 依赖
Node
我们建议使用 nvm 来管理 Node.js 版本。本项目使用 Node v20.x。
Windows
微软在其Node.js on Windows 页面上推荐使用 nvm-windows。
nvm install 20
nvm use 20
Yarn
本项目使用 yarn 作为包管理器。如果您尚未在 PATH 中拥有 yarn 可执行文件,请运行:
# corepack 是包含在所有最新 Node.js 发行版中的实用工具集
corepack enable
yarn set version 4.5.0 # 请查看 package.json 中的 packageManager 键以获取确切版本。
这将安装一个可用的 yarn 可执行文件。然后,在本仓库的根目录下(即顶级 package.json 文件旁边),运行:
yarn install
ComfyUI 资源
在启动 Electron 应用程序之前,您需要下载 ComfyUI 源代码以及其他通常随应用捆绑的内容。
ComfyUI 和其他依赖项
首先,通过运行 yarn make:assets 初始化应用资源:
此命令会将 ComfyUI 安装到 assets/ 目录下。如果所捆绑的 ComfyUI 版本包含 manager_requirements.txt,ComfyUI-Manager 将在运行时通过 pip 安装;否则将克隆旧版自定义节点以保持兼容性。每个包的具体版本在 package.json 中定义。
随后您可以运行 start 来构建并启动应用。同时会启动一个监视器,当源文件发生更改时,它会自动重新构建应用:
deactivate # 关闭现有 Python 环境,以免影响
yarn start
您还可以使用 make 命令构建软件包和/或可分发文件:
# 构建平台特定的软件包及任何可分发文件
yarn make
# 构建跨平台版本,例如从 Linux 构建 Windows 版本
yarn make --windows
编译后的依赖项
关于如何生成编译后依赖项的权威信息,位于 .compiled 文件的头部注释中。请参阅 assets/requirements/*.compiled,了解实际使用的具体命令和覆盖设置。
故障排除
如果你遇到类似以下的错误:
模块 '/electron/node_modules/node-pty/build/Release/pty.node' 是使用 NODE_MODULE_VERSION 115 编译的,而当前 Node.js 版本需要 NODE_MODULE_VERSION 125。请尝试重新编译或重新安装该模块(例如使用 `npm rebuild` 或 `npm install`)。
你需要使用 electron-rebuild 重新构建 node-pty,例如:
npx electron-rebuild
如果上述方法失败,可以尝试:
yarn add -D @electron/rebuild
rm -rf node_modules
rm yarn.lock
yarn install
npx electron-rebuild
缺少库文件
如果你的发行版未包含 Electron 的先决条件,可能会出现无法找到 libnss3.so 等库文件的错误。请查找适合你发行版的正确软件包并进行安装。
以 apt 为例:
apt-get install libnss3
调试器
在 .vscode/launch.json 中提供了适用于 VSCode 和 Cursor 的调试启动脚本。默认的启动脚本会运行项目根目录下的 Electron 启动脚本,并附加调试器。默认情况下,使用此脚本时不会构建应用。
在 VSCode 或其衍生编辑器中按下 F5 键即可运行默认的启动脚本。按 Ctrl + Shift + F5 可以在附加调试器的情况下重启应用。按 Shift + F5 则会终止调试器及其所附加的进程树。
为了在修改代码时保持应用始终处于最新状态并持续构建,可以运行定义在 .vscode/tasks.json 中的 Start Vite Build Watchers 构建任务。该任务会启动两个监视任务:一个用于主应用,另一个用于预加载脚本。当源文件发生更改时,这些监视器将自动重新构建应用。
启动环境可以自定义,例如,在 Linux 环境下调试时,添加 "linux" 部分以加载 ~/.profile(以及其他交互式配置):
{
"version": "2.0.0",
"tasks": [
{
"linux": { "options": { "shell": { "args": ["-ci"] } } }
}
]
}
打包后应用的故障排除
当应用被打包为生产版本时,它会忽略用于配置开发环境的环境变量。若希望在打包状态下强制读取环境变量,可以在启动应用时使用 --dev-mode 命令行参数。
发布
我们使用 Todesktop 来构建和对分发包进行代码签名。要发布新版本,请按照以下步骤操作:
- 创建一个 PR,将
package.json更新到下一个版本。 - 在 GitHub 上创建一个语义版本标签的发布,例如 “v1.0.0”。
- 确保将其标记为预发布版本。
- 检查名为 “Publish All” 的 GitHub Actions 是否已成功运行。完成后,该动作应更新发布说明中的下载链接。
- 测试构建结果,确认无误后在 Todesktop 上正式发布,并将该版本标记为 “Latest”。
如果构建因故失败,可以通过手动触发 “Publish All” GH Action,并传入发布标签来重试。
使用 Claude Code 进行发布
Claude Code 提供了一个名为 “bump-stable” 的命令,可用于自动化发布流程。
更新已编译依赖项
向开放的 PR 添加 “Update Compiled Requirements” 标签,即可自动更新已编译的依赖项。如果有更改,该动作会将更新后的文件提交到 PR 中。
工具脚本
package.json 的 scripts 字段中定义了许多实用脚本。例如,清理构建产物时可以运行以下命令:
yarn clean
# 移除由 yarn make:assets 创建的文件
yarn clean:assets
# clean:slate 还会移除 node_modules 目录
yarn clean:slate
崩溃报告与指标
在首次使用时,你可以选择加入使用情况数据收集计划。这有助于我们更好地优先处理问题,并合理分配有限的开发资源。有关隐私政策的详细信息,请参阅 此处。
你也可以随时通过设置菜单退出数据收集,退出后将不再发送任何数据。
无论是否参与数据收集,都不会发送任何个人数据、工作流或日志信息。
版本历史
v0.8.312026/04/15v0.8.302026/04/13v0.8.292026/04/13v0.8.282026/04/03v0.8.272026/03/26v0.8.262026/03/24v0.8.252026/03/23v0.8.242026/03/21v0.8.232026/03/17v0.8.222026/03/15v0.8.212026/03/14v0.8.192026/03/13v0.8.182026/03/07v0.8.162026/03/06v0.8.152026/03/05v0.8.142026/03/05v0.8.132026/03/05v0.8.122026/03/05v0.8.112026/02/27v0.8.102026/02/26常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器