ComfyUI-Distributed
ComfyUI-Distributed 是一款专为 ComfyUI 设计的强大扩展插件,旨在打破单台设备的算力瓶颈。它能够将图像和视频的生成任务智能分发到本地多张显卡、局域网内的其他电脑,甚至是云端服务器(如 RunPod)上并行处理。
对于需要批量出图、制作视频或进行高分辨率放大的用户而言,等待时间往往是最头疼的问题。ComfyUI-Distributed 通过“分布式计算”完美解决了这一痛点:它能将一张大图切割成多个部分由不同 GPU 同时渲染,或在同一时间内利用多台设备生成大量不同种子的图片,从而显著缩短工作流耗时,成倍提升产出效率。
这款工具非常适合拥有多显卡工作站的专业设计师、需要大规模实验的研究人员,以及希望利用闲置旧电脑或低成本云端算力来加速创作的进阶玩家。其独特亮点在于极高的易用性——本地多卡可自动配置,远程节点添加简便,且只需在工作流中插入两个专用节点即可将普通流程转化为分布式任务,无需复杂的代码编写或网络配置。无论是追求极致速度的创作者,还是希望最大化硬件利用率的技术爱好者,ComfyUI-Distributed 都能让手中的算力资源发挥最大价值。
使用场景
某独立游戏开发团队需要为即将上线的项目快速生成 500 张不同风格的高清角色立绘,且每张图都需要经过高分辨率放大处理以满足美术需求。
没有 ComfyUI-Distributed 时
- 单卡算力瓶颈:仅靠本地单张显卡串行生成,完成全部 500 张图的底图预计耗时超过 20 小时,严重拖慢迭代进度。
- 高清放大极慢:使用 Ultimate SD Upscale 对单张图片进行分块放大时,所有计算压力集中在一张卡上,单图处理往往需要数分钟。
- 资源闲置浪费:团队成员其他电脑上的空闲显卡以及租用的云端 GPU 无法被利用,只能眼睁睁看着主机器满载而其他设备空转。
- 人工操作繁琐:为了加速,不得不手动拆分任务到不同机器运行,再人工收集整理结果,极易出错且管理混乱。
使用 ComfyUI-Distributed 后
- 多卡并行爆发:通过添加"Distributed Seed"和"Distributed Collector"两个节点,自动将任务分发至本地多卡、局域网同事电脑及云端 Runpod 实例,500 张图在同等时间内并行产出,总耗时缩短至 1 小时内。
- 分布式智能分片:在进行高清放大时,ComfyUI-Distributed 自动将图片切片任务智能分配给网络中所有可用 GPU,大幅加速单张大图的渲染过程。
- 异构资源统一调度:无需复杂配置,即可将本地额外显卡、远程工作站和云端算力池化为一个逻辑集群,最大化利用每一分算力资源。
- 工作流无缝切换:原有生成流程无需重写,仅需简单接入分布式节点并开启负载均衡,即可实现从“单机模式”到“集群模式”的平滑升级。
ComfyUI-Distributed 通过将分散的 GPU 资源整合为强大的并行计算集群,让大规模图像生成与高清处理效率实现了数量级的飞跃。
运行环境要求
- 未说明
- 必需多张 NVIDIA GPU(支持本地多卡、局域网远程机器或云端 GPU)
- 不支持显存合并
- 不同型号 GPU 可混用但性能可能受限于最慢设备
未说明

快速开始
一款功能强大的 ComfyUI 扩展,可在多张 GPU 和多台机器之间实现分布式并行处理。通过充分利用您网络和云端的所有可用 GPU 资源,生成更多图像和视频,并加速您的超分辨率工作流程。

核心特性
并行工作流处理
- 在多张 GPU 上同时运行带有不同随机种子的工作流,并将结果汇总到主节点上
- 通过增加更多工作节点来扩展输出规模
- 支持图像和视频
分布式超分辨率
- 通过在各 GPU 之间分配图像块,加速 Ultimate SD 超分辨率
- 智能化的任务分配
- 可处理单张图像和视频
易用性
- 自动配置本地工作节点;轻松添加远程/云工作节点
- 仅需两个节点即可将任何工作流转换为分布式模式
- 基于 JSON 的配置,并配有 UI 控制界面
工作节点类型
ComfyUI Distributed 支持三种类型的工作节点:
- 本地工作节点 - 同一台机器上的额外 GPU(首次启动时自动配置)
- 远程工作节点 - 您网络中其他计算机上的 GPU
- 云工作节点 - 托管在 Runpod 等云服务上的 GPU,可通过安全隧道访问
有关详细设置说明,请参阅设置指南
系统要求
- ComfyUI
- 多张 NVIDIA GPU
如果没有额外的 GPU?请使用云工作节点
- 就这些
安装步骤
克隆本仓库 到您的 ComfyUI 自定义节点目录中:
git clone https://github.com/robertvoy/ComfyUI-Distributed.git重启 ComfyUI
- 如果您将使用远程/云工作节点,请在主节点的启动参数中添加
--enable-cors-header
- 如果您将使用远程/云工作节点,请在主节点的启动参数中添加
请阅读设置指南,了解如何添加工作节点
官方赞助商
使用此链接加入 Runpod,即可解锁特别奖励。
工作流示例
基础并行生成
在生成一张图像的时间内,生成多张图像。每个工作节点使用不同的随机种子。

- 打开您的 ComfyUI 工作流
- 添加 分布式种子 → 连接到采样器的种子输入
- 添加 分布式收集器 → 在 VAE 解码之后
- 可选:在分布式收集器上启用
load_balance功能,以让任务分配给当前负载最低的参与者 - 在 UI 中启用工作节点
- 运行工作流!
并行视频生成
在生成一段视频的时间内,生成多段视频。每个工作节点使用不同的随机种子。

- 打开您的 WAN ComfyUI 工作流
- 添加 分布式种子 → 连接到采样器的种子输入
- 添加 分布式收集器 → 在 VAE 解码之后
- 添加 图像批次分割器 → 在分布式收集器之后
- 将
divide_by设置为您拥有的 GPU 数量
例如:如果您有一台主节点和两台工作节点,则将其设置为 3
- 在 UI 中启用工作节点
- 运行工作流!
分布式图像超分辨率
通过在多个工作节点之间分配图像块,加速 Ultimate SD 超分辨率,并随着 GPU 数量的增加而提升处理速度。

- 加载您的图像
- 使用 ESRGAN 或类似模型进行初步超分辨率
- 连接到 Ultimate SD 超分辨率分布式 节点
- 配置图像块分割参数
- 启用工作节点以加快处理速度
分布式视频超分辨率
通过在多个工作节点之间分配视频帧块,加速 Ultimate SD 超分辨率,并随着 GPU 数量的增加而提升处理速度。

- 加载您的视频
- 可选:使用 ESRGAN 或类似模型进行初步超分辨率
- 连接到 Ultimate SD 超分辨率分布式 节点
- 配置图像块分割参数
- 使用 RES4LYF (bong/res2) 以获得更好的效果
- 启用工作节点以加快处理速度
您可以仅在 Runpod 上运行此工作流,且只需极少的设置。请查看此处的指南。
开发者 API
无需打开浏览器,即可通过编程方式控制您的分布式集群。
- 端点:
POST /distributed/queue - 功能: 接受标准的 ComfyUI 工作流 JSON,自动将其分发到可用的工作节点,并返回执行 ID。
- 文档: 查看 API 示例与脚本
⚠️ 安全提示: 请勿将您的 ComfyUI 端口暴露于公共互联网。如需远程访问,请将 ComfyUI 部署在安全代理后方(如 Cloudflare 或 VPN)。
分布式值
当您需要为每个工作节点设置覆盖值时(例如,为每个工作节点使用不同的提示、模型或设置),请使用 分布式值。
- 输出类型会尽可能适应连接的输入(
STRING、INT、FLOAT、COMBO)。 - 该节点仅显示当前启用的工作节点。
- 如果工作节点的启用状态发生变化,相关字段会自动更新。
- 当断开连接时,它会重置为默认字符串模式,并清除每个工作节点的覆盖值。
- 执行时,主节点使用
default_value;工作节点则使用其映射的覆盖值,并在类型不匹配时回退到默认值。
节点
| 节点 | 描述 |
|---|---|
| 分布式种子 | 为每个工作节点生成唯一的随机种子 |
| 分布式收集器 | 将工作节点的结果(图像/视频帧,可选音频)收集回主节点;load_balance 可以将任务路由到最空闲的参与者 |
| 分布式值 | 输出每个工作节点的覆盖值,并回退到默认值 |
| 终极 SD 分布式放大 | 将放大任务的分块分配给各个工作节点 |
| 图像批次分割器 | 将图像批次拆分为多 GPU 输出 |
| 音频批次分割器 | 将音频批次拆分为多 GPU 输出 |
| 分布式模型名称 | 将模型路径传递给工作节点,使工作流能够在仅作为编排器的模式下使用主节点上未安装的模型 |
| 分布式空白图像 | 生成一个空白 IMAGE 批次,用于主节点完全委派所有工作的情况 |
常见问题解答
它会合并多个 GPU 的显存吗?
不会,它不会合并多个 GPU 的显存。它能加快单个图像或视频的生成速度吗?
不能,它并不能加快单个图像或视频的生成速度。相反,它可以让您同时生成更多的图像或视频。不过,在使用“终极 SD 分布式放大”功能时,它可以加快单个图像的放大速度。它能在 ComfyUI 桌面应用中运行吗?
是的,现在可以了。我可以将我的 RTX 5090 与 GTX 980 组合起来以获得更快的结果吗?
可以组合不同型号的 GPU,但性能优化的最佳方式是使用相似的 GPU。如果 GPU 之间的性能差异过大,可能会导致瓶颈。它是否适用于云服务提供商?
是的,它兼容云服务提供商。请参阅设置指南以获取详细说明。我能否只用我的主机器来协调工作节点而不进行渲染?
可以。打开“分布式”面板并取消勾选主节点切换开关,即可进入仅作为编排器的模式。此时,主节点会将任务分配给工作节点,但不会在本地进行渲染。如果所有工作节点都不可用,主节点会自动重新启用,以确保您的工作流能够继续运行。我能否在我的 Docker 环境中使用它?
是的,它兼容 Docker 环境,但您需要自行配置 Docker 环境。很遗憾,我们无法提供 Docker 配置方面的协助。免责声明
本软件按“原样”提供,不提供任何明示或暗示的保证,包括适销性、特定用途适用性或非侵权性。开发者和版权所有者对因使用、修改或分发本软件而引起的任何索赔、损害或责任概不负责。用户应自行负责确保遵守适用的法律法规,并保护其网络免受未经授权的访问、黑客攻击、数据泄露或丢失。对于因误用、配置不当或外部威胁而导致的任何损害或事件,开发者不承担任何责任。
支持本项目
如果我的自定义节点为您的工作流带来了价值,请通过一杯咖啡来支持未来的开发吧!
您的支持将帮助本项目持续发展。
请在以下链接购买一杯咖啡:https://buymeacoffee.com/robertvoy
版本历史
v1.1.02025/09/15v1.0.52025/08/01v.1.4.02026/02/28相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
tesseract
Tesseract 是一款历史悠久且备受推崇的开源光学字符识别(OCR)引擎,最初由惠普实验室开发,后由 Google 维护,目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据,有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题,是数字化归档和信息自动化的重要基础工具。 在技术层面,Tesseract 展现了强大的适应能力。从版本 4 开始,它引入了基于长短期记忆网络(LSTM)的神经网络 OCR 引擎,显著提升了行识别的准确率;同时,为了兼顾旧有需求,它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码,开箱即用即可识别超过 100 种语言,并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面,它灵活支持纯文本、hOCR、PDF、TSV 等多种格式,方便后续数据处理。 Tesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库(libtesseract),不包含图形用户界面(GUI),因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中
