ComfyUI-BrushNet
ComfyUI-BrushNet 是一款基于 ComfyUI 的图像修复扩展包,它将 BrushNet、PowerPaint 及 HiDiffusion 等前沿论文成果转化为可视化的工作流节点。对于需要精细控制图像局部内容的创作者来说,这大大降低了使用高级扩散模型修复图片的技术门槛。
以往在 ComfyUI 中集成这类模型往往需要修改底层代码或依赖特定环境,而 ComfyUI-BrushNet 实现了原生适配,用户只需下载节点和模型文件即可运行。它不仅支持 Stable Diffusion 1.5 和 SDXL 架构,还能与 IPAdapter Plus 等流行插件协同工作,甚至支持图像批处理和视频工作流。
适合 AI 设计师、数字艺术家以及 ComfyUI 的高级用户使用。无论是进行物体移除、背景替换还是创意重绘,它都能提供灵活的任务提示词支持和多种掩码策略。通过直观的界面操作,用户能够更高效地完成高质量的内容生成任务,让创意落地变得更加简单直接。
使用场景
电商设计师小李负责更新季度服装目录,需要快速移除背景中的路人。他还需要统一更换模特身上的衬衫款式,同时保持画面光影真实。
没有 ComfyUI-BrushNet 时
- 传统修图软件操作繁琐,需手动精细绘制蒙版且边缘过渡生硬,难以完美融合。
- 多次尝试不同生成参数才能匹配原图光影,效率低下且效果不稳定,经常需要返工。
- 更换衣物纹理时容易破坏人物轮廓,导致肢体穿模或关键细节丢失,影响商品展示质量。
- 无法批量处理多张相似图片,重复劳动耗时严重,难以应对大批量商品图的紧急交付需求。
使用 ComfyUI-BrushNet 后
- 支持智能掩码涂抹,基于分解双分支扩散模型自动识别物体边界,生成的填充区域更自然。
- 结合任务提示词精准控制生成内容,无需反复调试参数即可匹配原有画风和色彩倾向。
- 内置 IPAdapter Plus 兼容性,确保新生成衣物与原有光影质感高度一致,避免违和感。
- 内置批处理功能,一次设置即可批量完成整套商品图的精细化修改,大幅提升工作效率。
它将复杂的图像重绘流程简化为直观的节点操作,显著提升了商业修图的生产力与可控性。
运行环境要求
- 未说明
需要 NVIDIA GPU (提及 16 系列兼容),显存视情况而定,支持 float16/float32
未说明

快速开始
ComfyUI-BrushNet
这些是用于 ComfyUI 原生实现的自定义节点,支持:
- Brushnet: "BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed Dual-Branch Diffusion"
- PowerPaint: A Task is Worth One Word: Learning with Task Prompts for High-Quality Versatile Image Inpainting
- HiDiffusion: HiDiffusion: Unlocking Higher-Resolution Creativity and Efficiency in Pretrained Diffusion Models
我的贡献仅限于 ComfyUI 的适配工作,所有荣誉归于论文作者。
Updates
2024 年 5 月 16 日。内部重构以提高与其他节点的兼容性。已实现 RAUNet。
2024 年 5 月 12 日。CutForInpaint 节点,参见 示例。
2024 年 5 月 11 日。实现了图像批处理(Image batch)。你甚至可以将 BrushNet 添加到 AnimateDiff 视频转视频(vid2vid)工作流(Workflow)中,但它们无法协同工作——它们是不同的模型,且都试图修补 UNet。添加了一些更多示例。
2024 年 5 月 6 日。实现了 PowerPaint v2 模型。更新后你的工作流可能无法运行。别慌!检查 BrushNode 的 end_at 参数,如果它等于 1,请将其更改为某个较大的数字。请在下方的使用说明部分查阅关于参数的信息。
2024 年 5 月 2 日。BrushNet SDXL 已上线。不过它需要正向和负向条件控制,因此工作流略有变化,参见示例。
2024 年 4 月 28 日。另一次重构,抱歉造成不便。但现在 BrushNet 已原生集成到 ComfyUI。著名的 cubiq 的 IPAdapter Plus 现在可以与 BrushNet 配合使用!希望如此... :) 请报告任何发现的 Bug。
2024 年 4 月 18 日。完全重构,不再需要自定义 diffusers 库。可以使用 LoRA 模型。
2024 年 4 月 11 日。初始提交。
Plans
- BrushNet SDXL
- PowerPaint v2
- Image batch
Installation
将仓库克隆到 custom_nodes 目录并安装依赖项:
git clone https://github.com/nullquant/ComfyUI-BrushNet.git
pip install -r requirements.txt
BrushNet 的检查点(Checkpoint)可以从 这里 下载。
segmentation_mask_brushnet_ckpt 中的检查点提供了在 BrushData 上训练的模型,该数据具有分割先验(掩码 (Mask) 与对象形状相同)。random_mask_brushnet_ckpt 提供了一个更通用的 Checkpoint,适用于随机掩码形状。
segmentation_mask_brushnet_ckpt 和 random_mask_brushnet_ckpt 包含用于 SD 1.5 模型的 BrushNet,而 segmentation_mask_brushnet_ckpt_sdxl_v0 和 random_mask_brushnet_ckpt_sdxl_v0 用于 SDXL。
你应该将 diffusion_pytorch_model.safetensors 文件放置到你的 models/inpaint 文件夹中。你也可以在 extra_model_paths.yaml 中指定 inpaint 文件夹。
对于 PowerPaint,你需要下载三个文件。来自 这里 的 diffusion_pytorch_model.safetensors 和 pytorch_model.bin 都应放置在你的 models/inpaint 文件夹中。
此外,你还需要 SD1.5 文本编码器(Text Encoder)模型 model.safetensors。你可以从 这里 或其他地方获取。你也可以使用 fp16 版本。它应放置在你的 models/clip 文件夹中。
这是在我的 models/inpaint 文件夹的结构:

你的可能不同。
用法
以下是预期工作流 (Workflow) 的示例。该示例的 工作流 可以在 'example' 目录中找到。

混合修复 (Blending inpaint)

有时推理和变分自编码器 (VAE) 会破坏图像,因此你需要将修复后的图像与原始图像进行混合:工作流。你可以在第一张图中看到修复后模糊和损坏的文字,以及我打算如何修复它。
放大 (Upscale)

若要放大,应使用基础模型 (Base Model),而不是 BrushNet。条件 (Conditioning) 也是如此。在 BrushNet 和 KSampler 之间的潜在 (Latent) 空间放大将无法工作或会产生奇怪的结果。这些限制是由于 BrushNet 的结构及其对 UNet 计算的影响造成的。
图像批处理 (Image batch)

如果你有显存溢出 (OOM) 问题,可以使用来自 AnimateDiff-Evolved 的进化采样:

在上下文选项中,将 context_length 设置为可以加载到显存 (VRAM) 中的图像数量。图像将以该大小的块进行处理。
大图修复 (Big image inpaint)

当你处理大图像且修复蒙版 (Mask) 较小时,最好裁剪部分图像,对其进行处理,然后再将其混合回去。我为此类工作流创建了一个节点 (Node),请参见示例。
PowerPaint 物体移除 (PowerPaint object removal)

完全移除物体通常很难,尤其是当它位于前景时:

你应该尝试将物体描述添加到负面提示词 (Negative Prompt) 中,并描述空白场景,如下所示:

参数
Brushnet Loader
dtype,默认为torch.float16。BrushNet 的 torch.dtype。如果你使用的是旧显卡 (GPU) 或 NVIDIA 16 系列卡,尝试切换到torch.float32。
Brushnet
scale,默认为 1.0:BrushNet 的“强度”。BrushNet 的输出在添加到原始 UNet 的残差 (Residual) 之前乘以scale。start_at,默认为 0:BrushNet 开始应用的步骤。end_at,默认为 10000:BrushNet 停止应用的步骤。
此处 有使用最后这两个参数的示例。
PowerPaint
CLIP:应从 PowerPaintCLIPLoader 节点传递的 PowerPaint CLIP。fitting:PowerPaint 拟合程度。function:PowerPaint 功能,详情见其 页面。save_memory:如果设置此选项,注意力 (Attention) 模块会将输入张量 (Tensor) 分割成切片以分步计算注意力。这有助于节省一些内存,但会牺牲速度。如果你在 Mac 上遇到显存 (VRAM) 耗尽或Error: total bytes of NDArray > 2**32错误,尝试将此选项设置为max。
在使用某些网络功能时,PowerPaint 的作者建议在提示词 (Prompt) 中添加短语:
- 物体移除:
empty scene blur - 上下文感知:
empty scene - 外绘:
empty scene
许多 ComfyUI 用户使用自定义文本生成节点 (Node)、CLIP 节点和其他大量条件 (Conditioning)。我不想破坏所有这些节点,所以我没有添加提示词更新功能,而是依赖用户自行操作。此外,我自己的实验表明,这些提示词的添加并非绝对必要。
潜在 (Latent) 图像可以来自 BrushNet 节点或其他来源,但其大小应与原始图像相同(在潜在空间中除以 8)。
BrushNet 和 PowerPaint 节点中的正负条件 (Conditioning) 均用于内部计算,然后简单复制到输出。
请注意,由于其结构,并非所有工作流和节点都能与 BrushNet 配合使用。此外,请将模型更改放在 BrushNet 节点之前,而不是之后。如果你需要在 BrushNet 推理后让模型处理图像,请使用基础模型(见下方的放大示例)。
RAUNet
du_start,默认为 0:下采样/上采样 (Downsample/Upsample) 调整大小开始应用的步骤。du_end,默认为 4:下采样/上采样 (Downsample/Upsample) 调整大小停止应用的步骤。xa_start,默认为 4:交叉注意力 (CrossAttention) 调整大小开始应用的步骤。xa_end,默认为 10:交叉注意力 (CrossAttention) 调整大小停止应用的步骤。
关于示例和解释,请查看 此处。
局限性
BrushNet 存在一些局限性(来自 论文):
- 模型生成的质量和内容高度依赖于所选的基础模型 (Base Model)。例如,如果给定的图像是自然图像,而基础模型主要关注动漫,结果可能会表现出不连贯性。
- 即使使用 BrushNet,在给定蒙版 (Mask) 具有异常形状或不规则形式,或者给定文本与蒙版图像对齐不佳的情况下,我们仍然观察到生成结果较差。
注意事项
很遗憾,由于 BrushNet 代码的特性,部分节点与这些不兼容,因为我们需要修补相同的 ComfyUI 功能。
已知不兼容的节点列表。
致谢
本代码基于以下项目:
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
tesseract
Tesseract 是一款历史悠久且备受推崇的开源光学字符识别(OCR)引擎,最初由惠普实验室开发,后由 Google 维护,目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据,有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题,是数字化归档和信息自动化的重要基础工具。 在技术层面,Tesseract 展现了强大的适应能力。从版本 4 开始,它引入了基于长短期记忆网络(LSTM)的神经网络 OCR 引擎,显著提升了行识别的准确率;同时,为了兼顾旧有需求,它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码,开箱即用即可识别超过 100 种语言,并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面,它灵活支持纯文本、hOCR、PDF、TSV 等多种格式,方便后续数据处理。 Tesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库(libtesseract),不包含图形用户界面(GUI),因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中





