comfy-cli
comfy-cli 是一款专为 ComfyUI 设计的命令行管理工具,旨在让用户通过终端轻松完成 ComfyUI 的安装、配置与日常维护。它主要解决了手动部署 ComfyUI 时环境配置繁琐、依赖包管理困难以及自定义节点更新不便等痛点,将复杂的操作流程简化为几条简洁的指令。
无论是希望快速搭建工作流的 AI 艺术家、需要频繁测试新节点的研究人员,还是习惯使用终端进行高效开发的工程师,都能从 comfy-cli 中受益。其核心亮点在于“一键安装”能力,不仅能自动下载最新版本的 ComfyUI 和管理器,还能智能处理 Python 虚拟环境,避免依赖冲突。此外,它支持跨平台运行(Windows、macOS、Linux),内置模型检查点下载与哈希保存功能,并创新性地引入 uv 解析器以大幅提升依赖安装速度,甚至能自动识别并适配特定的 GPU 驱动版本。对于需要高度定制的用户,它还支持灵活跳过默认组件安装,以便集成自定义的管理器分支或特定版本库。通过 comfy-cli,用户可以更专注于创意实现与技术探索,而非耗费时间在环境调试上。
使用场景
一位 AI 艺术家需要在多台不同操作系统的设备上快速部署最新的 ComfyUI 环境,并频繁测试各类自定义节点以创作复杂工作流。
没有 comfy-cli 时
- 环境配置繁琐:每次换新电脑或重置系统,都需手动克隆仓库、创建虚拟环境并逐个安装依赖,耗时且容易因路径错误导致失败。
- 节点管理混乱:更新或卸载自定义节点时,需深入文件夹手动操作,常因版本冲突引发界面报错,排查问题极其困难。
- 模型下载低效:寻找和下载大体积检查点(Checkpoints)需手动浏览网页,缺乏统一的哈希值校验机制,文件完整性难以保证。
- 跨平台兼容性差:在 Windows、macOS 和 Linux 之间切换时,需反复查阅不同的安装文档,脚本不通用导致维护成本高昂。
使用 comfy-cli 后
- 一键极速部署:仅需运行
comfy install,工具自动完成环境搭建、依赖解析及 ComfyUI-Manager 配置,将数小时的准备工作缩短至几分钟。 - 智能节点管控:通过终端命令即可轻松安装、更新或移除自定义节点,自动处理依赖冲突,确保工作流稳定运行。
- 模型资产管理:内置模型下载与哈希保存功能,直接从命令行获取验证过的模型文件,杜绝损坏文件导致的运行崩溃。
- 全平台统一体验:无论底层系统是 Win、Mac 还是 Linux,均使用相同的命令逻辑,彻底消除平台差异带来的学习负担。
comfy-cli 将原本碎片化、高门槛的环境运维工作转化为标准化的命令行操作,让创作者能专注于算法创意而非配置调试。
运行环境要求
- Windows
- macOS
- Linux
未说明(工具本身为管理脚本,具体 GPU 需求取决于安装的 ComfyUI 及模型)
未说明

快速开始
comfy-cli:ComfyUI 的命令行工具
comfy-cli 是一款命令行工具,可帮助用户轻松安装和管理 ComfyUI,这是一个功能强大的开源机器学习框架。借助 comfy-cli,您可以通过终端便捷地快速搭建 ComfyUI、安装软件包以及管理自定义节点。
演示
功能特性
- 🚀 通过一条命令即可轻松安装 ComfyUI
- 📦 无缝管理 ComfyUI 扩展及依赖包
- 🔧 管理自定义节点,扩展 ComfyUI 功能
- 🗄️ 下载检查点并保存模型哈希值
- 💻 跨平台兼容性(Windows、macOS、Linux)
- 📖 详尽的文档与示例
- 🎉 自动为 ComfyUI 安装拉取请求
安装
要安装 comfy-cli,请确保您的系统已安装 Python 3.9 或更高版本。然后运行以下命令:
pip install comfy-cli
Shell 自动补全
要在您的 shell 中安装自动补全提示,请运行:
comfy --install-completion
这将使您能够输入 comfy [TAB] 来自动完成命令和选项。
使用方法
安装 ComfyUI
要使用 comfy 安装 ComfyUI,只需运行:
comfy install
此命令将在您的系统上下载并设置最新版本的 ComfyUI 和 ComfyUI-Manager。如果您在已经设置好的 ComfyUI 仓库中运行该命令,则只会更新 comfy.yaml 文件以反映本地设置。
comfy install --skip-manager:不安装 ComfyUI-Manager 直接安装 ComfyUI。若要使用自定义 Manager 分支或特定版本,请跳过默认安装,并将您自己的安装到工作区的 venv 中:comfy install --skip-manager # 然后安装您的自定义 Manager: pip install -e /path/to/your-manager-fork # 可编辑安装 # 或 pip install comfyui-manager==4.1b8 # 特定版本comfy --workspace=<path> install:将 ComfyUI 安装到<path>/ComfyUI。comfy install --fast-deps:在首次安装 ComfyUI 时,使用uv替代pip以加快依赖项解析速度。comfy-cli 内置的解析器会将所有需求(核心 + 自定义节点)编译成一个单独的锁定文件,并从中进行安装。同时还会自动处理 GPU 特定的 PyTorch wheel 选择。- 对于
comfy install,如果没有提供如--workspace、--recent或--here等路径指定,则会默认安装在<HOME>/comfy。
Python 环境处理
当您运行 comfy install 时,comfy-cli 会按照以下优先级为 ComfyUI 依赖项选择 Python 环境:
- 如果存在活动的 virtualenv 或 conda 环境(
VIRTUAL_ENV/CONDA_PREFIX),则直接使用该环境。 - 如果工作区内已存在
.venv或venv目录,则复用该目录。 - 否则,选择取决于 comfy-cli 的安装方式:
pip install comfy-cli(全局 / 系统 Python):依赖项将直接安装到同一 Python 环境中。这通常是 Docker 设置中的常见做法。pipx install comfy-cli或uv tool install comfy-cli(隔离的工具环境):会在 ComfyUI 工作区内部创建一个.venv。请使用comfy launch来启动具有正确 Python 环境的 ComfyUI。
指定执行路径
您可以通过以下路径指示符来指定命令将作用于的 ComfyUI 路径:
comfy --workspace=<path>:从指定工作区中安装的 ComfyUI 运行。comfy --recent:从最近执行或安装的 ComfyUI 运行。comfy --here:从当前目录下的 ComfyUI 运行。
--workspace、--recent和--here选项不能同时使用。如果没有路径指示符,则按以下优先级执行:
- 从由
comfy set-default <path>指定的默认 ComfyUI 路径运行。 - 从最近执行或安装的 ComfyUI 运行。
- 从当前目录下的 ComfyUI 运行。
- 从由
示例 1:运行最近执行的 ComfyUI:
comfy --recent launch
示例 2:在当前目录下的 ComfyUI 上安装一个包:
comfy --here node install comfyui-impact-pack
示例 3:根据优先级更新自动选择的 ComfyUI 和自定义节点路径:
comfy node update all
您可以使用
comfy which命令来检查目标工作区的路径。- 例如
comfy --recent which、comfy --here which、comfy which等。
- 例如
默认设置
默认设置是指在未为命令指定特定工作区的 ComfyUI 时,将默认执行的选项。
comfy set-default <workspace path> ?[--launch-extras="<extra args>"]
--launch-extras选项指定了仅在默认启动时应用的额外参数。然而,如果在启动时指定了额外参数,则此设置将被忽略。
启动 ComfyUI
Comfy 提供了一些命令,方便您轻松运行已安装的 ComfyUI。
comfy launch
使用默认 ComfyUI 选项运行:
comfy launch -- <extra args...>comfy launch -- --cpu --listen 0.0.0.0- 当您手动配置额外选项时,通过
set-default设置的额外选项将被覆盖。
- 当您手动配置额外选项时,通过
后台运行:
comfy launch --backgroundcomfy --workspace=~/comfy launch --background -- --listen 10.0.0.10 --port 8000- 使用
--background启动的实例会显示在comfy env的“后台 ComfyUI”部分,仅提供对单个后台实例的管理功能。 - 由于
comfy env中的“Comfy Server Running”只显示默认端口 8188,因此不会显示在其他端口上运行的 ComfyUI。 - 可以使用
comfy stop停止后台运行的 ComfyUI。
- 使用
使用特定的 Pull Request 运行 ComfyUI:
comfy install --pr "#1234"comfy install --pr "jtydhr88:load-3d-nodes"comfy install --pr "https://github.com/comfyanonymous/ComfyUI/pull/1234"- 如果您想使用特定的 Pull Request 运行 ComfyUI,可以使用
--pr选项。这将自动安装指定的 Pull Request 并使用它来运行 ComfyUI。 - 注意:
--pr选项不能与--version或--commit同时使用,否则会被拒绝。
- 如果您想使用特定的 Pull Request 运行 ComfyUI,可以使用
测试前端 Pull Request:
comfy launch --frontend-pr "#456" comfy launch --frontend-pr "username:branch-name" comfy launch --frontend-pr "https://github.com/Comfy-Org/ComfyUI_frontend/pull/456"--frontend-pr选项允许您通过自动克隆、构建并在此会话中使用该前端来测试前端 PR。- 要求:必须安装 Node.js 和 npm 才能构建前端。
- 构建结果会被缓存,以便快速切换 PR——后续再次使用同一 PR 时会立即生效。
- 每个 PR 只用于当前的启动会话。正常启动时仍使用默认前端。
管理 PR 缓存:
comfy pr-cache list # 列出缓存的 PR 构建 comfy pr-cache clean # 清除所有缓存的构建 comfy pr-cache clean 456 # 清除特定 PR 的缓存- 缓存会在 7 天后自动过期。
- 最多保留 10 个 PR 构建(最旧的会自动移除)。
- 缓存限制有助于管理磁盘空间,同时保持最近的构建可用。
管理自定义节点
comfy 提供了一种便捷的方式来管理自定义节点,以扩展 ComfyUI 的功能。以下是一些示例:
- 显示自定义节点的信息:
comfy node [show|simple-show] [installed|enabled|not-installed|disabled|all|snapshot|snapshot-list]
?[--channel <channel name>]
?[--mode [remote|local|cache]]
comfy node show all --channel recentcomfy node simple-show installedcomfy node update allcomfy node install comfyui-impact-pack管理快照:
comfy node save-snapshotcomfy node restore-snapshot <snapshot name>安装依赖:
comfy node install-deps --deps=<deps .json file>comfy node install-deps --workflow=<workflow .json/.png file>生成依赖:
comfy node deps-in-workflow --workflow=<workflow .json/.png file> --output=<output deps .json file>
统一依赖解析 (--uv-compile)
需要 ComfyUI-Manager v4.1+。与其为每个节点单独使用 pip install 安装依赖,不如使用 --uv-compile 将任务交给 ComfyUI-Manager 的统一解析器,通过 uv pip compile 批量解析所有自定义节点的依赖,并具备跨节点冲突检测功能——它可以识别哪些节点包存在不兼容的依赖及其原因。
使用统一解析安装:
comfy node install comfyui-impact-pack --uv-compile适用于:
install、reinstall、update、fix、restore-snapshot、restore-dependencies、install-deps单独运行(解析所有现有自定义节点的依赖):
comfy node uv-sync--uv-compile与--fast-deps和--no-deps互斥。若要将
--uv-compile设为所有命令的默认设置,请参阅下方的 [uv-compile 默认设置]。使用
--no-uv-compile可以覆盖单个命令的默认设置:comfy node install comfyui-impact-pack --no-uv-compile
--fast-deps 与 --uv-compile
这两个标志都使用 uv 来加速依赖解析,但它们的工作方式有所不同:
--fast-deps |
--uv-compile |
|
|---|---|---|
| 解析器 | comfy-cli 内置的 (DependencyCompiler) |
ComfyUI-Manager (UnifiedDepResolver) |
| 适用范围 | comfy install、comfy node install/reinstall |
仅限自定义节点相关命令 |
| 冲突处理 | 交互式提示选择版本 | 自动检测并标注导致冲突的节点 |
| 默认配置 | 无 | 是(comfy manager uv-compile-default true) |
| 所需条件 | 仅需 uv |
需要 ComfyUI-Manager v4.1+ |
何时使用哪个:
- 对于初次安装 ComfyUI 并希望使用 uv 时:
comfy install --fast-deps - 对于使用 Manager v4.1+ 管理自定义节点时:
--uv-compile(推荐) - 对于使用较旧版本 Manager 管理自定义节点时:
--fast-deps
自定义节点二分法
如果您遇到的问题仅在启用自定义节点时出现,并且想找出是哪个或哪些自定义节点导致了问题,那么二分法工具可以帮助您定位具体问题节点。
comfy node bisect start:开始一个新的二分法会话,可选传入 ComfyUI 启动参数。执行命令时会自动将起始状态标记为“坏”,并将当时启用的所有节点作为测试集。comfy node bisect good:将当前活动节点集合标记为“好”,表示问题不在该测试集中。comfy node bisect bad:将当前活动节点集合标记为“坏”,表示问题在该测试集中。comfy node bisect reset:重置当前的二分法会话。
管理模型
模型下载
comfy model download --url <URL> ?[--relative-path <PATH>] ?[--set-civitai-api-token <TOKEN>] ?[--set-hf-api-token <TOKEN>]- URL:CivitAI 页面、Hugging Face 文件 URL 等...
- 您也可以通过
CIVITAI_API_TOKEN和HF_API_TOKEN环境变量指定您的 API 令牌。优先级顺序为:--set-X-token(始终最高)、环境变量(如果存在),最后是您配置文件中之前使用--set-X-token时保存的令牌(会记住您最近设置的令牌值)。 - 通过环境变量提供的令牌绝不会持久化存储在您的配置文件中。它们旨在以安全且便捷的方式提供临时密钥。
删除模型
comfy model remove ?[--relative-path <PATH>] --model-names <模型名称>列出模型
comfy model list ?[--relative-path <PATH>]
管理 ComfyUI-Manager
完全禁用 ComfyUI-Manager(不向 ComfyUI 传递管理器标志):
comfy manager disable启用带有新 GUI 的 ComfyUI-Manager:
comfy manager enable-gui启用不带 GUI 的 ComfyUI-Manager(管理器运行但 UI 隐藏):
comfy manager disable-gui启用带有旧版 GUI 的 ComfyUI-Manager:
comfy manager enable-legacy-gui清除预留的启动操作:
comfy manager clear将旧版通过 Git 克隆的 ComfyUI-Manager 迁移到 pip 包:
comfy manager migrate-legacy
默认启用 uv-compile
将 --uv-compile 设置为所有自定义节点操作的默认行为:
comfy manager uv-compile-default true
启用后,所有节点命令(install、reinstall、update、fix、restore-snapshot、restore-dependencies、install-deps)都会自动使用 --uv-compile。如需覆盖此设置,可在单个命令中使用 --no-uv-compile。
要禁用:
comfy manager uv-compile-default false
测试功能:comfy-lock.yaml 的格式(开发中)
basic:
models:
- model: [模型名称]
url: [来源网址,例如 https://huggingface.co/...]
paths: [模型路径列表]
- path: [模型路径]
- path: [模型路径]
hashes: [模型哈希值]
- hash: [哈希值]
type: [AutoV1、AutoV2、SHA256、CRC32 和 Blake3]
type: [模型类型,例如 diffuser、lora 等]
- model:
...
# 与 ComfyUI-Manager 的 .yaml 快照兼容
custom_nodes:
comfyui: [提交哈希]
file_custom_nodes:
- disabled: [布尔值]
filename: [.py 文件名]
...
git_custom_nodes:
[git URL]:
disabled: [布尔值]
hash: [提交哈希]
...
分析数据
我们使用 Mixpanel 跟踪分析数据,以帮助我们了解使用模式并确定工作重点。首次下载 CLI 时,系统会请求您同意收集数据。如果您希望随时退出:
comfy tracking disable
您可以在此处查看使用情况:Mixpanel 板
贡献
我们欢迎对 comfy-cli 的贡献!如果您有任何想法、建议或错误报告,请在我们的 GitHub 仓库 中提交问题。如果您想贡献代码,请先 fork 该仓库,然后提交 pull request。
更多详情请参阅 开发指南。
许可证
comfy 采用 GNU 通用公共许可证 v3.0 发布。
支持
如果您在使用 comfy-cli 时遇到任何问题或有疑问,请在我们的 GitHub 仓库中 提交问题,或通过 Discord 联系我们。我们将竭诚为您提供帮助!
祝您使用 ComfyUI 和 comfy-cli 体验愉快!🎉
版本历史
v1.7.22026/04/12v1.7.12026/04/01v1.7.02026/03/28v1.6.12026/03/26v1.6.02026/03/13v1.5.42026/01/11v1.5.32025/11/08v1.5.22025/09/30v1.5.12025/09/04v1.5.02025/08/12v1.4.12025/06/09v1.4.02025/05/29v1.3.92025/05/13v1.3.82025/02/25v1.3.72025/02/11v1.3.62025/02/01v1.3.52025/01/03v1.3.42025/01/03v1.3.32024/12/31v1.3.22024/12/27常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
