[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nullquant--ComfyUI-BrushNet":3,"tool-nullquant--ComfyUI-BrushNet":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":23,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":96,"github_topics":76,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":97,"updated_at":98,"faqs":99,"releases":130},370,"nullquant\u002FComfyUI-BrushNet","ComfyUI-BrushNet","ComfyUI BrushNet nodes","ComfyUI-BrushNet 是一款基于 ComfyUI 的图像修复扩展包，它将 BrushNet、PowerPaint 及 HiDiffusion 等前沿论文成果转化为可视化的工作流节点。对于需要精细控制图像局部内容的创作者来说，这大大降低了使用高级扩散模型修复图片的技术门槛。\n\n以往在 ComfyUI 中集成这类模型往往需要修改底层代码或依赖特定环境，而 ComfyUI-BrushNet 实现了原生适配，用户只需下载节点和模型文件即可运行。它不仅支持 Stable Diffusion 1.5 和 SDXL 架构，还能与 IPAdapter Plus 等流行插件协同工作，甚至支持图像批处理和视频工作流。\n\n适合 AI 设计师、数字艺术家以及 ComfyUI 的高级用户使用。无论是进行物体移除、背景替换还是创意重绘，它都能提供灵活的任务提示词支持和多种掩码策略。通过直观的界面操作，用户能够更高效地完成高质量的内容生成任务，让创意落地变得更加简单直接。","## ComfyUI-BrushNet\n\nThese are custom nodes for ComfyUI native implementation of \n\n- Brushnet:  [\"BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed Dual-Branch Diffusion\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.06976) \n- PowerPaint: [A Task is Worth One Word: Learning with Task Prompts for High-Quality Versatile Image Inpainting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.03594) \n- HiDiffusion: [HiDiffusion: Unlocking Higher-Resolution Creativity and Efficiency in Pretrained Diffusion Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17528)\n\nMy contribution is limited to the ComfyUI adaptation, and all credit goes to the authors of the papers.\n\n## Updates\n\nMay 16, 2024. Internal rework to improve compatibility with other nodes. [RAUNet](RAUNET.md) is implemented.\n\nMay 12, 2024. CutForInpaint node, see [example](BIG_IMAGE.md).\n\nMay 11, 2024. Image batch is implemented. You can even add BrushNet to AnimateDiff vid2vid workflow, but they don't work together - they are different models and both try to patch UNet. Added some more examples.\n\nMay 6, 2024. PowerPaint v2 model is implemented. After update your workflow probably will not work. Don't panic! Check `end_at` parameter of BrushNode, if it equals 1, change it to some big number. Read about parameters in Usage section below.\n\nMay 2, 2024. BrushNet SDXL is live. It needs positive and negative conditioning though, so workflow changes a little, see example.\n\nApr 28, 2024. Another rework, sorry for inconvenience. But now BrushNet is native to ComfyUI. Famous cubiq's [IPAdapter Plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) is now working with BrushNet! I hope... :) Please, report any bugs you found.\n\nApr 18, 2024. Complete rework, no more custom `diffusers` library. It is possible to use LoRA models.\n\nApr 11, 2024. Initial commit.\n\n## Plans\n\n- [x] BrushNet SDXL\n- [x] PowerPaint v2\n- [x] Image batch\n\n## Installation\n\nClone the repo into the `custom_nodes` directory and install the requirements:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet.git\npip install -r requirements.txt\n```\n\nCheckpoints of BrushNet can be downloaded from [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1fqmS1CEOvXCxNWFrsSYd_jHYXxrydh1n?usp=drive_link). \n\nThe checkpoint in `segmentation_mask_brushnet_ckpt` provides checkpoints trained on BrushData, which has segmentation prior (mask are with the same shape of objects). The `random_mask_brushnet_ckpt` provides a more general ckpt for random mask shape.\n\n`segmentation_mask_brushnet_ckpt` and `random_mask_brushnet_ckpt` contains BrushNet for SD 1.5 models while \n`segmentation_mask_brushnet_ckpt_sdxl_v0` and `random_mask_brushnet_ckpt_sdxl_v0` for SDXL.\n\nYou should place `diffusion_pytorch_model.safetensors` files to your `models\u002Finpaint` folder. You can also specify `inpaint` folder in your `extra_model_paths.yaml`.\n\nFor PowerPaint you should download three files. Both `diffusion_pytorch_model.safetensors` and `pytorch_model.bin` from [here](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FPowerPaint-v2-1\u002Ftree\u002Fmain\u002FPowerPaint_Brushnet) should be placed in your `models\u002Finpaint` folder.\n\nAlso you need SD1.5 text encoder model `model.safetensors`. You can take it from [here](https:\u002F\u002Fhuggingface.co\u002Fashllay\u002Fstable-diffusion-v1-5-archive\u002Ftree\u002Fmain\u002Ftext_encoder) or from another place. You can also use fp16 [version](https:\u002F\u002Fhuggingface.co\u002Fnmkd\u002Fstable-diffusion-1.5-fp16\u002Ftree\u002Fmain\u002Ftext_encoder). It should be placed in your `models\u002Fclip` folder.\n\nThis is a structure of my `models\u002Finpaint` folder:\n\n![inpaint folder](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_af45c1f764a0.png)\n\nYours can be different.\n\n## Usage\n\nBelow is an example for the intended workflow. The [workflow](example\u002FBrushNet_basic.json) for the example can be found inside the 'example' directory.\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_b74b9499d0bd.png)\n\n\u003Cdetails>\n  \u003Csummary>SDXL\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_c36f15c7c9d7.png)\n\n[workflow](example\u002FBrushNet_SDXL_basic.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>IPAdapter plus\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_5f154ee9f0b5.png)\n\n[workflow](example\u002FBrushNet_with_IPA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>LoRA\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_7e2dc3676ebd.png)\n\n[workflow](example\u002FBrushNet_with_LoRA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Blending inpaint\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_c887c539643b.png)\n\nSometimes inference and VAE broke image, so you need to blend inpaint image with the original: [workflow](example\u002FBrushNet_inpaint.json). You can see blurred and broken text after inpainting in the first image and how I suppose to repair it.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>ControlNet\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_faef4a43d099.png)\n\n[workflow](example\u002FBrushNet_with_CN.json)\n\n[ControlNet canny edge](CN.md)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>ELLA outpaint\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_87082566540b.png)\n\n[workflow](example\u002FBrushNet_with_ELLA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Upscale\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_14a9ee79071b.png)\n\n[workflow](example\u002FBrushNet_SDXL_upscale.json)\n\nTo upscale you should use base model, not BrushNet. The same is true for conditioning. Latent upscaling between BrushNet and KSampler will not work or will give you wierd results. These limitations are due to structure of BrushNet and its influence on UNet calculations.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Image batch\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_52814acc9b70.png)\n\n[workflow](example\u002FBrushNet_image_batch.json)\n\nIf you have OOM problems, you can use Evolved Sampling from [AnimateDiff-Evolved](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved):\n    \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_f76c965db7b4.png)\n\n[workflow](example\u002FBrushNet_image_big_batch.json)\n\nIn Context Options set context_length to number of images which can be loaded into VRAM. Images will be processed in chunks of this size.\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n  \u003Csummary>Big image inpaint\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_e337fce0d71e.png)\n\n[workflow](example\u002FBrushNet_cut_for_inpaint.json)\n\nWhen you work with big image and your inpaint mask is small it is better to cut part of the image, work with it and then blend it back. \nI created a node for such workflow, see example.\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n  \u003Csummary>PowerPaint outpaint\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_ea2f8215b3cc.png)\n\n[workflow](example\u002FPowerPaint_outpaint.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>PowerPaint object removal\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_e70d42a569bc.png)\n\n[workflow](example\u002FPowerPaint_object_removal.json)\n\nIt is often hard to completely remove the object, especially if it is at the front:\n\n![object removal example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_f636702c44aa.png)\n\nYou should try to add object description to negative prompt and describe empty scene, like here:\n\n![object removal example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_dcb8131e353e.png)\n\n\u003C\u002Fdetails>\n\n### Parameters\n\n#### Brushnet Loader\n\n- `dtype`, defaults to `torch.float16`. The torch.dtype of BrushNet. If you have old GPU or NVIDIA 16 series card try to switch to `torch.float32`.\n\n#### Brushnet\n\n- `scale`, defaults to 1.0: The \"strength\" of BrushNet. The outputs of the BrushNet are multiplied by `scale` before they are added to the residual in the original unet.\n- `start_at`, defaults to 0: step at which the BrushNet starts applying.\n- `end_at`, defaults to 10000: step at which the BrushNet stops applying.\n\n[Here](PARAMS.md) are examples of use these two last parameters.\n\n#### PowerPaint\n\n- `CLIP`: PowerPaint CLIP that should be passed from PowerPaintCLIPLoader node.\n- `fitting`: PowerPaint fitting degree.\n- `function`: PowerPaint function, see its [page](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FPowerPaint) for details.\n- `save_memory`: If this option is set, the attention module splits the input tensor in slices to compute attention in several steps. This is useful for saving some memory in exchange for a decrease in speed. If you run out of VRAM or get `Error: total bytes of NDArray > 2**32` on Mac try to set this option to `max`.\n\nWhen using certain network functions, the authors of PowerPaint recommend adding phrases to the prompt:\n\n- object removal: `empty scene blur`\n- context aware: `empty scene`\n- outpainting: `empty scene`\n\nMany of ComfyUI users use custom text generation nodes, CLIP nodes and a lot of other conditioning. I don't want to break all of these nodes, so I didn't add prompt updating and instead rely on users. Also my own experiments show that these additions to prompt are not strictly necessary.\n\nThe latent image can be from BrushNet node or not, but it should be the same size as original image (divided by 8 in latent space). \n\nThe both conditioning `positive` and `negative` in BrushNet and PowerPaint nodes are used for calculation inside, but then simply copied to output.\n\nBe advised, not all workflows and nodes will work with BrushNet due to its structure. Also put model changes before BrushNet nodes, not after. If you need model to work with image after BrushNet inference use base one (see Upscale example below).\n\n#### RAUNet\n\n- `du_start`, defaults to 0: step at which the Downsample\u002FUpsample resize starts applying.\n- `du_end`, defaults to 4: step at which the Downsample\u002FUpsample resize stops applying.\n- `xa_start`, defaults to 4: step at which the CrossAttention resize starts applying.\n- `xa_end`, defaults to 10: step at which the CrossAttention resize stops applying.\n\nFor an examples and explanation, please look [here](RAUNET.md).\n\n## Limitations \n\nBrushNet has some limitations (from the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.06976)): \n\n- The quality and content generated by the model are heavily dependent on the chosen base model. \nThe results can exhibit incoherence if, for example, the given image is a natural image while the base model primarily focuses on anime. \n- Even with BrushNet, we still observe poor generation results in cases where the given mask has an unusually shaped\nor irregular form, or when the given text does not align well with the masked image.\n\n## Notes\n\nUnfortunately, due to the nature of BrushNet code some nodes are not compatible with these, since we are trying to patch the same ComfyUI's functions. \n\nList of known uncompartible nodes.\n\n- [WASasquatch's FreeU_Advanced](https:\u002F\u002Fgithub.com\u002FWASasquatch\u002FFreeU_Advanced\u002Ftree\u002Fmain)\n- [blepping's jank HiDiffusion](https:\u002F\u002Fgithub.com\u002Fblepping\u002Fcomfyui_jankhidiffusion)\n\n## Credits\n\nThe code is based on \n\n- [BrushNet](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FBrushNet)\n- [PowerPaint](https:\u002F\u002Fgithub.com\u002Fzhuang2002\u002FPowerPaint)\n- [HiDiffusion](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FHiDiffusion)\n- [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)\n","## ComfyUI-BrushNet\n\n这些是用于 ComfyUI 原生实现的自定义节点，支持：\n\n- Brushnet: [\"BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed Dual-Branch Diffusion\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.06976) \n- PowerPaint: [A Task is Worth One Word: Learning with Task Prompts for High-Quality Versatile Image Inpainting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.03594) \n- HiDiffusion: [HiDiffusion: Unlocking Higher-Resolution Creativity and Efficiency in Pretrained Diffusion Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17528)\n\n我的贡献仅限于 ComfyUI 的适配工作，所有荣誉归于论文作者。\n\n## Updates\n\n2024 年 5 月 16 日。内部重构以提高与其他节点的兼容性。已实现 [RAUNet](RAUNET.md)。\n\n2024 年 5 月 12 日。CutForInpaint 节点，参见 [示例](BIG_IMAGE.md)。\n\n2024 年 5 月 11 日。实现了图像批处理（Image batch）。你甚至可以将 BrushNet 添加到 AnimateDiff 视频转视频（vid2vid）工作流（Workflow）中，但它们无法协同工作——它们是不同的模型，且都试图修补 UNet。添加了一些更多示例。\n\n2024 年 5 月 6 日。实现了 PowerPaint v2 模型。更新后你的工作流可能无法运行。别慌！检查 BrushNode 的 `end_at` 参数，如果它等于 1，请将其更改为某个较大的数字。请在下方的使用说明部分查阅关于参数的信息。\n\n2024 年 5 月 2 日。BrushNet SDXL 已上线。不过它需要正向和负向条件控制，因此工作流略有变化，参见示例。\n\n2024 年 4 月 28 日。另一次重构，抱歉造成不便。但现在 BrushNet 已原生集成到 ComfyUI。著名的 cubiq 的 [IPAdapter Plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) 现在可以与 BrushNet 配合使用！希望如此... :) 请报告任何发现的 Bug。\n\n2024 年 4 月 18 日。完全重构，不再需要自定义 `diffusers` 库。可以使用 LoRA 模型。\n\n2024 年 4 月 11 日。初始提交。\n\n## Plans\n\n- [x] BrushNet SDXL\n- [x] PowerPaint v2\n- [x] Image batch\n\n## Installation\n\n将仓库克隆到 `custom_nodes` 目录并安装依赖项：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet.git\npip install -r requirements.txt\n```\n\nBrushNet 的检查点（Checkpoint）可以从 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1fqmS1CEOvXCxNWFrsSYd_jHYXxrydh1n?usp=drive_link) 下载。 \n\n`segmentation_mask_brushnet_ckpt` 中的检查点提供了在 BrushData 上训练的模型，该数据具有分割先验（掩码 (Mask) 与对象形状相同）。`random_mask_brushnet_ckpt` 提供了一个更通用的 Checkpoint，适用于随机掩码形状。\n\n`segmentation_mask_brushnet_ckpt` 和 `random_mask_brushnet_ckpt` 包含用于 SD 1.5 模型的 BrushNet，而 `segmentation_mask_brushnet_ckpt_sdxl_v0` 和 `random_mask_brushnet_ckpt_sdxl_v0` 用于 SDXL。\n\n你应该将 `diffusion_pytorch_model.safetensors` 文件放置到你的 `models\u002Finpaint` 文件夹中。你也可以在 `extra_model_paths.yaml` 中指定 `inpaint` 文件夹。\n\n对于 PowerPaint，你需要下载三个文件。来自 [这里](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FPowerPaint-v2-1\u002Ftree\u002Fmain\u002FPowerPaint_Brushnet) 的 `diffusion_pytorch_model.safetensors` 和 `pytorch_model.bin` 都应放置在你的 `models\u002Finpaint` 文件夹中。\n\n此外，你还需要 SD1.5 文本编码器（Text Encoder）模型 `model.safetensors`。你可以从 [这里](https:\u002F\u002Fhuggingface.co\u002Fashllay\u002Fstable-diffusion-v1-5-archive\u002Ftree\u002Fmain\u002Ftext_encoder) 或其他地方获取。你也可以使用 fp16 [版本](https:\u002F\u002Fhuggingface.co\u002Fnmkd\u002Fstable-diffusion-1.5-fp16\u002Ftree\u002Fmain\u002Ftext_encoder)。它应放置在你的 `models\u002Fclip` 文件夹中。\n\n这是在我的 `models\u002Finpaint` 文件夹的结构：\n\n![inpaint folder](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_af45c1f764a0.png)\n\n你的可能不同。\n\n## 用法\n\n以下是预期工作流 (Workflow) 的示例。该示例的 [工作流](example\u002FBrushNet_basic.json) 可以在 'example' 目录中找到。\n\n![example workflow](example\u002FBrushNet_basic.png?raw=true)\n\n\u003Cdetails>\n  \u003Csummary>SDXL\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_c36f15c7c9d7.png)\n\n[工作流](example\u002FBrushNet_SDXL_basic.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>IPAdapter plus\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_5f154ee9f0b5.png)\n\n[工作流](example\u002FBrushNet_with_IPA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>LoRA\u003C\u002Fsummary>\n  \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_7e2dc3676ebd.png)\n\n[工作流](example\u002FBrushNet_with_LoRA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>混合修复 (Blending inpaint)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_c887c539643b.png)\n\n有时推理和变分自编码器 (VAE) 会破坏图像，因此你需要将修复后的图像与原始图像进行混合：[工作流](example\u002FBrushNet_inpaint.json)。你可以在第一张图中看到修复后模糊和损坏的文字，以及我打算如何修复它。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>ControlNet\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_faef4a43d099.png)\n\n[工作流](example\u002FBrushNet_with_CN.json)\n\n[ControlNet canny edge](CN.md)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>ELLA 外绘 (ELLA outpaint)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_87082566540b.png)\n\n[工作流](example\u002FBrushNet_with_ELLA.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>放大 (Upscale)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_14a9ee79071b.png)\n\n[工作流](example\u002FBrushNet_SDXL_upscale.json)\n\n若要放大，应使用基础模型 (Base Model)，而不是 BrushNet。条件 (Conditioning) 也是如此。在 BrushNet 和 KSampler 之间的潜在 (Latent) 空间放大将无法工作或会产生奇怪的结果。这些限制是由于 BrushNet 的结构及其对 UNet 计算的影响造成的。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>图像批处理 (Image batch)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_52814acc9b70.png)\n\n[工作流](example\u002FBrushNet_image_batch.json)\n\n如果你有显存溢出 (OOM) 问题，可以使用来自 [AnimateDiff-Evolved](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-AnimateDiff-Evolved) 的进化采样：\n    \n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_f76c965db7b4.png)\n\n[工作流](example\u002FBrushNet_image_big_batch.json)\n\n在上下文选项中，将 `context_length` 设置为可以加载到显存 (VRAM) 中的图像数量。图像将以该大小的块进行处理。\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n  \u003Csummary>大图修复 (Big image inpaint)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_e337fce0d71e.png)\n\n[工作流](example\u002FBrushNet_cut_for_inpaint.json)\n\n当你处理大图像且修复蒙版 (Mask) 较小时，最好裁剪部分图像，对其进行处理，然后再将其混合回去。我为此类工作流创建了一个节点 (Node)，请参见示例。\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n  \u003Csummary>PowerPaint 外绘 (PowerPaint outpaint)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_ea2f8215b3cc.png)\n\n[工作流](example\u002FPowerPaint_outpaint.json)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>PowerPaint 物体移除 (PowerPaint object removal)\u003C\u002Fsummary>\n\n![example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_e70d42a569bc.png)\n\n[工作流](example\u002FPowerPaint_object_removal.json)\n\n完全移除物体通常很难，尤其是当它位于前景时：\n\n![object removal example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_readme_f636702c44aa.png)\n\n你应该尝试将物体描述添加到负面提示词 (Negative Prompt) 中，并描述空白场景，如下所示：\n\n![object removal example](example\u002Fobject_removal.png?raw=true)\n\n\u003C\u002Fdetails>\n\n### 参数\n\n#### Brushnet Loader\n\n- `dtype`，默认为 `torch.float16`。BrushNet 的 torch.dtype。如果你使用的是旧显卡 (GPU) 或 NVIDIA 16 系列卡，尝试切换到 `torch.float32`。\n\n#### Brushnet\n\n- `scale`，默认为 1.0：BrushNet 的“强度”。BrushNet 的输出在添加到原始 UNet 的残差 (Residual) 之前乘以 `scale`。\n- `start_at`，默认为 0：BrushNet 开始应用的步骤。\n- `end_at`，默认为 10000：BrushNet 停止应用的步骤。\n\n[此处](PARAMS.md) 有使用最后这两个参数的示例。\n\n#### PowerPaint\n\n- `CLIP`：应从 PowerPaintCLIPLoader 节点传递的 PowerPaint CLIP。\n- `fitting`：PowerPaint 拟合程度。\n- `function`：PowerPaint 功能，详情见其 [页面](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FPowerPaint)。\n- `save_memory`：如果设置此选项，注意力 (Attention) 模块会将输入张量 (Tensor) 分割成切片以分步计算注意力。这有助于节省一些内存，但会牺牲速度。如果你在 Mac 上遇到显存 (VRAM) 耗尽或 `Error: total bytes of NDArray > 2**32` 错误，尝试将此选项设置为 `max`。\n\n在使用某些网络功能时，PowerPaint 的作者建议在提示词 (Prompt) 中添加短语：\n\n- 物体移除：`empty scene blur`\n- 上下文感知：`empty scene`\n- 外绘：`empty scene`\n\n许多 ComfyUI 用户使用自定义文本生成节点 (Node)、CLIP 节点和其他大量条件 (Conditioning)。我不想破坏所有这些节点，所以我没有添加提示词更新功能，而是依赖用户自行操作。此外，我自己的实验表明，这些提示词的添加并非绝对必要。\n\n潜在 (Latent) 图像可以来自 BrushNet 节点或其他来源，但其大小应与原始图像相同（在潜在空间中除以 8）。 \n\nBrushNet 和 PowerPaint 节点中的正负条件 (Conditioning) 均用于内部计算，然后简单复制到输出。\n\n请注意，由于其结构，并非所有工作流和节点都能与 BrushNet 配合使用。此外，请将模型更改放在 BrushNet 节点之前，而不是之后。如果你需要在 BrushNet 推理后让模型处理图像，请使用基础模型（见下方的放大示例）。\n\n#### RAUNet\n\n- `du_start`，默认为 0：下采样\u002F上采样 (Downsample\u002FUpsample) 调整大小开始应用的步骤。\n- `du_end`，默认为 4：下采样\u002F上采样 (Downsample\u002FUpsample) 调整大小停止应用的步骤。\n- `xa_start`，默认为 4：交叉注意力 (CrossAttention) 调整大小开始应用的步骤。\n- `xa_end`，默认为 10：交叉注意力 (CrossAttention) 调整大小停止应用的步骤。\n\n关于示例和解释，请查看 [此处](RAUNET.md)。\n\n## 局限性 \n\nBrushNet 存在一些局限性（来自 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.06976)）： \n\n- 模型生成的质量和内容高度依赖于所选的基础模型 (Base Model)。例如，如果给定的图像是自然图像，而基础模型主要关注动漫，结果可能会表现出不连贯性。 \n- 即使使用 BrushNet，在给定蒙版 (Mask) 具有异常形状或不规则形式，或者给定文本与蒙版图像对齐不佳的情况下，我们仍然观察到生成结果较差。\n\n## 注意事项\n\n很遗憾，由于 BrushNet 代码的特性，部分节点与这些不兼容，因为我们需要修补相同的 ComfyUI 功能。\n\n已知不兼容的节点列表。\n\n- [WASasquatch's FreeU_Advanced](https:\u002F\u002Fgithub.com\u002FWASasquatch\u002FFreeU_Advanced\u002Ftree\u002Fmain)\n- [blepping's jank HiDiffusion](https:\u002F\u002Fgithub.com\u002Fblepping\u002Fcomfyui_jankhidiffusion)\n\n## 致谢\n\n本代码基于以下项目：\n\n- [BrushNet](https:\u002F\u002Fgithub.com\u002FTencentARC\u002FBrushNet)\n- [PowerPaint](https:\u002F\u002Fgithub.com\u002Fzhuang2002\u002FPowerPaint)\n- [HiDiffusion](https:\u002F\u002Fgithub.com\u002Fmegvii-research\u002FHiDiffusion)\n- [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)","# ComfyUI-BrushNet 快速上手指南\n\nComfyUI-BrushNet 是一套专为 ComfyUI 设计的自定义节点，原生实现了 BrushNet、PowerPaint 和 HiDiffusion 等图像修复（Inpainting）与扩展（Outpainting）模型。它允许用户通过简单的节点连接实现高质量的图像重绘功能。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下基础要求：\n\n- **ComfyUI**: 已安装并正常运行最新的 ComfyUI 版本。\n- **Python 环境**: 建议直接使用 ComfyUI 自带的 Python 环境或虚拟环境。\n- **GPU**: 推荐使用 NVIDIA 显卡以获得最佳性能。\n- **依赖库**: 大部分依赖将通过安装脚本自动处理，但需确保网络连接正常以拉取 PyTorch 相关包。\n\n## 安装步骤\n\n### 1. 安装插件节点\n\n将仓库克隆到 ComfyUI 的 `custom_nodes` 目录下，并安装所需依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet.git\ncd ComfyUI-BrushNet\npip install -r requirements.txt\n```\n\n### 2. 下载模型文件\n\n您需要下载对应的模型检查点（Checkpoints）并放置到指定文件夹中。\n\n**BrushNet 模型：**\n从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1fqmS1CEOvXCxNWFrsSYd_jHYXxrydh1n?usp=drive_link) 下载模型文件。\n- **SD 1.5 模型**: `segmentation_mask_brushnet_ckpt` 或 `random_mask_brushnet_ckpt`\n- **SDXL 模型**: `segmentation_mask_brushnet_ckpt_sdxl_v0` 或 `random_mask_brushnet_ckpt_sdxl_v0`\n\n请将下载的 `diffusion_pytorch_model.safetensors` 文件放入 `models\u002Finpaint` 目录。如果您配置了 `extra_model_paths.yaml`，也可以将其放在指定的 `inpaint` 文件夹中。\n\n**PowerPaint 模型：**\n从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FJunhaoZhuang\u002FPowerPaint-v2-1\u002Ftree\u002Fmain\u002FPowerPaint_Brushnet) 下载以下两个文件，均放入 `models\u002Finpaint` 目录：\n- `diffusion_pytorch_model.safetensors`\n- `pytorch_model.bin`\n\n**文本编码器 (Text Encoder)：**\n对于 PowerPaint，还需要下载 SD1.5 的文本编码器模型 `model.safetensors`（例如从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fashllay\u002Fstable-diffusion-v1-5-archive\u002Ftree\u002Fmain\u002Ftext_encoder)），并将其放入 `models\u002Fclip` 目录。\n\n> **提示**: 国内用户若下载困难，可尝试使用 HuggingFace 镜像站加速。\n\n## 基本使用\n\n### 1. 加载工作流\n\n启动 ComfyUI 后，您可以直接在浏览器中打开示例工作流文件来测试功能。示例文件位于仓库的 `example` 目录中：\n\n- **基础修复**: [BrushNet_basic.json](example\u002FBrushNet_basic.json)\n- **SDXL 支持**: [BrushNet_SDXL_basic.json](example\u002FBrushNet_SDXL_basic.json)\n- **其他场景**: 包含 IPAdapter、LoRA、ControlNet 等组合示例。\n\n### 2. 核心节点操作\n\n在工作流中，主要涉及以下节点：\n\n- **Brushnet Loader**: 用于加载 BrushNet 模型。\n  - `dtype`: 默认为 `torch.float16`。如果是旧款显卡（如 GTX 16 系列），建议改为 `torch.float32`。\n- **Brushnet**: 执行修复的核心节点。\n  - `scale`: 控制修复强度，默认 1.0。\n  - `start_at` \u002F `end_at`: 控制修复在生成步骤中的起始和结束位置，默认分别为 0 和 10000。\n\n### 3. 注意事项\n\n- **SDXL 兼容性**: 使用 SDXL 模型时，必须同时提供正向（positive）和负向（negative）条件输入。\n- **模型顺序**: 如果需要在使用 BrushNet 后的图像上进行后续操作（如放大 Upscale），请使用基础底模（Base Model），而不是 BrushNet 模型本身。\n- **兼容性限制**: 由于底层实现机制，部分节点可能与 BrushNet 冲突，已知不兼容的节点包括 `WASasquatch's FreeU_Advanced` 和 `blepping's jank HiDiffusion`。","电商设计师小李负责更新季度服装目录，需要快速移除背景中的路人。他还需要统一更换模特身上的衬衫款式，同时保持画面光影真实。\n\n### 没有 ComfyUI-BrushNet 时\n- 传统修图软件操作繁琐，需手动精细绘制蒙版且边缘过渡生硬，难以完美融合。\n- 多次尝试不同生成参数才能匹配原图光影，效率低下且效果不稳定，经常需要返工。\n- 更换衣物纹理时容易破坏人物轮廓，导致肢体穿模或关键细节丢失，影响商品展示质量。\n- 无法批量处理多张相似图片，重复劳动耗时严重，难以应对大批量商品图的紧急交付需求。\n\n### 使用 ComfyUI-BrushNet 后\n- 支持智能掩码涂抹，基于分解双分支扩散模型自动识别物体边界，生成的填充区域更自然。\n- 结合任务提示词精准控制生成内容，无需反复调试参数即可匹配原有画风和色彩倾向。\n- 内置 IPAdapter Plus 兼容性，确保新生成衣物与原有光影质感高度一致，避免违和感。\n- 内置批处理功能，一次设置即可批量完成整套商品图的精细化修改，大幅提升工作效率。\n\n它将复杂的图像重绘流程简化为直观的节点操作，显著提升了商业修图的生产力与可控性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnullquant_ComfyUI-BrushNet_51542c85.png","nullquant",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnullquant_cc8ffb48.png","https:\u002F\u002Fgithub.com\u002Fnullquant",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,942,51,"2026-04-04T09:25:04","Apache-2.0","未说明","需要 NVIDIA GPU (提及 16 系列兼容)，显存视情况而定，支持 float16\u002Ffloat32",{"notes":91,"python":88,"dependencies":92},"需手动下载模型文件至指定文件夹 (models\u002Finpaint, models\u002Fclip)；部分节点不兼容 (如 FreeU_Advanced)；显存不足可使用分批处理；PowerPaint 特定任务需调整提示词；支持 SD1.5 和 SDXL 模型",[93,94,95],"torch","diffusers","comfyui",[14,36],"2026-03-27T02:49:30.150509","2026-04-06T06:44:07.535851",[100,105,110,115,120,125],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},1334,"在 M1 Max 64G Mac 上运行 BrushNet 对象移除时环境崩溃怎么办？","遇到 `[MPSNDArray ... Error: total bytes of NDArray > 2**32]` 内存断言错误时，可以尝试回退到旧版本。若需使用新版本，可在配置中将 `save_memory` 选项设为 `none` 以启用旧类型优化。注意模型类型通常为 `float16`，强制改为 `float32` 可能导致运行异常。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F110",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},1335,"为什么整个图像都被重绘了？如何控制 BrushNet 的生成步骤？","这是因为 `end_at` 参数控制了 BrushNet 应用到的结束步数。建议将其设置为略小于 KSampler 中的 `steps` 值，这样 BrushNet 仅在前几步迭代中生效，避免影响后续生成或导致全图重绘。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F67",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},1336,"`segmentation_mask_brushnet_ckpt` 和 `random_mask_brushnet_ckpt` 有什么区别，该如何选择？","`segmentation_mask_brushnet_ckpt` 基于 BrushData 训练，具有分割先验（掩码形状与物体一致），适合分割物体的场景。`random_mask_brushnet_ckpt` 是针对随机掩码形状的通用检查点，适合用户自行绘制掩码的场景。虽然实际效果差异可能不大，但建议根据用途选择。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F56",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},1337,"使用新版 SDXL BrushNet 时出现 `unexpected keyword argument 'positive'` 错误怎么办？","请查阅 README 文件中的放大（upscale）示例工作流。该错误通常是因为工作流配置不符合当前版本的节点输入要求，直接加载官方提供的 SDXL 演示 json 工作流可以解决此兼容性问题。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F39",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},1338,"通过 ComfyUI Manager 安装后找不到 BrushNetLoader 节点怎么办？","首先确保已通过 git pull 更新到最新版本（维护者已修复安装时的异常）。如果仍无法识别，请在 `models` 文件夹下手动创建一个名为 `inpaint` 的文件夹，这有助于节点正确加载。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F87",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},1339,"运行时出现 `Sizes of tensors must match` 张量尺寸不匹配错误如何解决？","这是已知 Bug，代码作者已在最新版本中修复。请确保将插件更新至最新版，并在连接时使用 BrushNet 节点的 latent 输出，避免使用旧版 latent 格式导致尺寸冲突。","https:\u002F\u002Fgithub.com\u002Fnullquant\u002FComfyUI-BrushNet\u002Fissues\u002F33",[]]