[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huchenlei--ComfyUI-layerdiffuse":3,"tool-huchenlei--ComfyUI-layerdiffuse":61},[4,18,26,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[43,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[60,15,13,14],"语言模型",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":96,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":128},6311,"huchenlei\u002FComfyUI-layerdiffuse","ComfyUI-layerdiffuse","Layer Diffuse custom nodes","ComfyUI-layerdiffuse 是将前沿的 Layer Diffusion 技术引入 ComfyUI 生态的自定义节点插件。它核心解决了传统 AI 绘图难以精准控制图像“图层”与“透明度”的痛点，让用户能够直接生成带有独立 Alpha 通道的透明前景图，或在指定背景下无缝融合新元素。\n\n不同于简单的抠图工具，该插件利用扩散模型的特性，支持从合成图中智能分离前景或背景、根据背景生成匹配的前景物体，甚至模拟专业工作流中的“停止步数”参数以优化背景生成质量。这意味着设计师可以轻松实现无白边的素材创作、复杂的图像合成以及非破坏性的编辑流程。\n\n这款工具特别适合需要在 ComfyUI 中进行精细化创作的设计师、数字艺术家以及熟悉节点工作流的进阶用户。虽然安装时需注意 Python 依赖环境（如 diffusers 版本冲突），但其提供的丰富预设工作流（如前景生成、背景提取、混合渲染等）极大地拓展了可控生成的边界。对于追求高质量分层输出和复杂合成效果的用户而言，ComfyUI-layerdiffuse 是一个强大且不可或缺的效率利器。","# ComfyUI-layerdiffuse\nComfyUI implementation of https:\u002F\u002Fgithub.com\u002Flayerdiffusion\u002FLayerDiffuse.\n\n## Installation\nDownload the repository and unpack it into the custom_nodes folder in the ComfyUI installation directory.\n\nOr clone via GIT, starting from ComfyUI installation directory:\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-layerdiffuse.git\n```\n\nRun `pip install -r requirements.txt` to install python dependencies. You might experience version conflict on diffusers if you have other extensions that depend on other versions of diffusers. In this case, it is recommended to set up separate Python venvs.\n\n## Workflows\n### [Generate foreground](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_fg_example_rgba.json)\n![rgba](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_e92f25322530.png)\n\n### [Generate foreground (RGB + alpha)](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_fg_example.json)\nIf you want more control of getting RGB images and alpha channel mask separately, you can use this workflow.\n![readme1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_d64b1a3ae9f8.png)\n\n### [Blending (FG\u002FBG)](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_example.json)\nBlending given FG\n![fg_cond](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_de7c05f452be.png)\n\nBlending given BG\n![bg_cond](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_5d9780a8e79e.png)\n\n### [Extract FG from Blended + BG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_fg.json)\n![diff_bg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_1f0d0d1fd006.png)\n\n### [Extract BG from Blended + FG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_bg.json)\n[Forge impl's sanity check](https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse#sanity-check) sets `Stop at` to 0.5 to get better quality BG.\nThis workflow might be inferior compared to other object removal workflows.\n![diff_fg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_9c101b9f7e99.png)\n\n### [Extract BG from Blended + FG (Stop at 0.5)](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_bg_stop_at.json)\nIn [SD Forge impl](https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse), there is a `stop at` param that determines when\nlayer diffuse should stop in the denoising process. In the background, what this param does is unapply the LoRA and c_concat cond after a certain step\nthreshold. This is hard\u002Frisky to implement directly in ComfyUI as it requires manually loading a model that has every change except the layer diffusion\nchange applied. A workaround in ComfyUI is to have another img2img pass on the layer diffuse result to simulate the effect of `stop at` param.\n![diff_fg_stop_at](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_c164e8191e6e.png)\n\n\n### [Generate FG from BG combined](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_fg_all.json)\nCombines previous workflows to generate blended and FG given BG. We found that there are some color variations in the extracted FG. Need to confirm\nwith layer diffusion authors whether this is expected.\n![fg_all](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_9d3107d47750.png)\n\n### [2024-3-9] [Generate FG + Blended given BG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_joint_bg.json)\nNeed batch size = 2N. Currently only for SD15.\n![sd15_cond_joint_bg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_77aa62fa1ebc.png)\n\n### [2024-3-9] [Generate BG + Blended given FG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_joint_fg.json)\nNeed batch size = 2N. Currently only for SD15.\n![sd15_cond_joint_fg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_7c1325500a99.png)\n\n### [2024-3-9] [Generate BG + FG + Blended together](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_joint.json)\nNeed batch size = 3N. Currently only for SD15.\n![sd15_joint](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_95ed45a64ecd.png)\n\n## Note\n- Currently only SDXL\u002FSD15 are supported. See https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse#model-notes for more details.\n- To decode RGBA result, the generation dimension must be multiple of 64. Otherwise, you will get decode error: ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_5094a2e274cb.png)\n","# ComfyUI-layerdiffuse\nComfyUI 对 https:\u002F\u002Fgithub.com\u002Flayerdiffusion\u002FLayerDiffuse 的实现。\n\n## 安装\n下载仓库并解压到 ComfyUI 安装目录下的 `custom_nodes` 文件夹中。\n\n或者从 ComfyUI 安装目录使用 GIT 克隆：\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-layerdiffuse.git\n```\n\n运行 `pip install -r requirements.txt` 来安装 Python 依赖。如果你有其他依赖不同版本 diffusers 的扩展，可能会遇到版本冲突。在这种情况下，建议设置独立的 Python 虚拟环境。\n\n## 工作流\n### [生成前景](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_fg_example_rgba.json)\n![rgba](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_e92f25322530.png)\n\n### [生成前景（RGB + alpha）](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_fg_example.json)\n如果你想更精细地分别获取 RGB 图像和 alpha 通道掩码，可以使用这个工作流。\n![readme1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_d64b1a3ae9f8.png)\n\n### [混合（FG\u002FBG）](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_example.json)\n混合给定的 FG\n![fg_cond](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_de7c05f452be.png)\n\n混合给定的 BG\n![bg_cond](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_5d9780a8e79e.png)\n\n### [从混合 + BG 中提取 FG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_fg.json)\n![diff_bg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_1f0d0d1fd006.png)\n\n### [从混合 + FG 中提取 BG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_bg.json)\n[Forge 实现的自检](https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse#sanity-check) 将 `Stop at` 设置为 0.5，以获得更高质量的 BG。此工作流可能不如其他物体移除工作流效果好。\n![diff_fg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_9c101b9f7e99.png)\n\n### [从混合 + FG 中提取 BG（Stop at 0.5）](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_diff_bg_stop_at.json)\n在 [SD Forge 实现](https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse) 中，有一个 `stop at` 参数，用于决定层扩散在去噪过程中何时停止。在后台，该参数的作用是在达到一定步骤阈值后取消应用 LoRA 和 c_concat cond。这在 ComfyUI 中直接实现较为困难或有风险，因为它需要手动加载一个仅应用了除层扩散之外所有更改的模型。在 ComfyUI 中的一个变通方法是再进行一次 img2img 处理，以模拟 `stop at` 参数的效果。\n![diff_fg_stop_at](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_c164e8191e6e.png)\n\n\n### [从 BG 组合中生成 FG](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_fg_all.json)\n结合之前的流程，在给定 BG 的情况下生成混合图像和 FG。我们发现提取出的 FG 存在一些颜色差异。需要向 Layer Diffusion 的作者确认这是否属于预期现象。\n![fg_all](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_9d3107d47750.png)\n\n### [2024-3-9] [给定 BG 生成 FG + 混合图像](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_joint_bg.json)\n需要批量大小 = 2N。目前仅适用于 SD15。\n![sd15_cond_joint_bg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_77aa62fa1ebc.png)\n\n### [2024-3-9] [给定 FG 生成 BG + 混合图像](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_cond_joint_fg.json)\n需要批量大小 = 2N。目前仅适用于 SD15。\n![sd15_cond_joint_fg](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_7c1325500a99.png)\n\n### [2024-3-9] [同时生成 BG + FG + 混合图像](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fblob\u002Fmain\u002Fexample_workflows\u002Flayer_diffusion_joint.json)\n需要批量大小 = 3N。目前仅适用于 SD15。\n![sd15_joint](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_95ed45a64ecd.png)\n\n## 注意事项\n- 目前仅支持 SDXL\u002FSD15。更多详情请参阅 https:\u002F\u002Fgithub.com\u002Flayerdiffuse\u002Fsd-forge-layerdiffuse#model-notes。\n- 若要解码 RGBA 结果，生成尺寸必须是 64 的倍数。否则会收到解码错误：![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_readme_5094a2e274cb.png)","# ComfyUI-layerdiffuse 快速上手指南\n\nComfyUI-layerdiffuse 是 LayerDiffusion 技术在 ComfyUI 中的实现，支持生成带透明通道的图像（前景）、背景合成与分离等高级图层操作。\n\n## 环境准备\n\n*   **系统要求**：已安装 ComfyUI 的环境。\n*   **模型支持**：目前仅支持 **SDXL** 和 **SD1.5** 模型。\n*   **前置依赖**：\n    *   Python 环境（建议为 ComfyUI 配置独立的虚拟环境 `venv`，以避免 `diffusers` 库的版本冲突）。\n    *   Git（用于克隆仓库）。\n*   **注意**：若需解码 RGBA 结果，生成图像的分辨率宽高必须是 **64 的倍数**，否则会导致解码错误。\n\n## 安装步骤\n\n### 方法一：手动安装\n1.  下载本项目的代码压缩包。\n2.  将其解压至 ComfyUI 安装目录下的 `custom_nodes` 文件夹中。\n\n### 方法二：Git 克隆（推荐）\n在终端中进入 ComfyUI 安装目录，执行以下命令：\n\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-layerdiffuse.git\n```\n\n### 安装依赖\n进入插件目录并安装 Python 依赖：\n\n```bash\ncd ComfyUI-layerdiffuse\npip install -r requirements.txt\n```\n\n> **提示**：如果系统中其他扩展依赖不同版本的 `diffusers` 导致冲突，请务必使用独立的 Python 虚拟环境运行 ComfyUI。\n\n## 基本使用\n\n安装完成后重启 ComfyUI，即可在节点列表中找到 LayerDiffuse 相关节点。以下是几种核心工作流的使用方式：\n\n### 1. 生成带透明通道的前景 (Generate Foreground)\n这是最基础的用法，直接生成带有 Alpha 通道的 PNG 图像。\n*   **工作流示例**：加载 `layer_diffusion_fg_example_rgba.json`。\n*   **效果**：输入提示词，直接输出背景透明的主体图像。\n\n### 2. 前景与背景合成 (Blending)\n将生成的前景（FG）与指定背景（BG）进行自然融合。\n*   **工作流示例**：加载 `layer_diffusion_cond_example.json`。\n*   **操作**：\n    *   **给定前景**：上传前景图，让 AI 生成匹配的背景并融合。\n    *   **给定背景**：上传背景图，让 AI 生成匹配的前景并融合。\n\n### 3. 从合成图中分离图层 (Extract FG\u002FBG)\n从一张已有的合成图中，分离出独立的前景或背景。\n*   **提取前景**：使用 `layer_diffusion_diff_fg.json`。\n*   **提取背景**：使用 `layer_diffusion_diff_bg.json`。\n    *   *进阶技巧*：为了获得更高质量的背景，可参考 SD Forge 的实现，通过二次 img2img 流程模拟 `Stop at 0.5` 参数效果（见工作流 `layer_diffusion_diff_bg_stop_at.json`）。\n\n### 4. 联合生成 (Joint Generation)\n*针对 SD1.5 模型*，支持一次性生成前景、背景及合成图。\n*   **要求**：Batch Size 必须设置为偶数（如 2N 或 3N，具体视工作流而定）。\n*   **工作流示例**：\n    *   给定背景生成前景 + 合成图：`layer_diffusion_cond_joint_bg.json` (Batch Size = 2N)\n    *   给定前景生成背景 + 合成图：`layer_diffusion_cond_joint_fg.json` (Batch Size = 2N)\n    *   同时生成三者：`layer_diffusion_joint.json` (Batch Size = 3N)\n\n建议直接从项目仓库的 `example_workflows` 文件夹导入对应的 `.json` 工作流文件，以获得最佳实践配置。","某电商设计团队需要为数百款新品快速制作带有透明背景的合成海报，以便灵活替换不同营销场景的背景图。\n\n### 没有 ComfyUI-layerdiffuse 时\n- **抠图边缘生硬**：传统抠图工具难以处理半透明物体（如玻璃杯、薄纱），边缘常出现锯齿或白边，需人工逐张精修。\n- **光影融合困难**：手动将前景商品放入新背景时，缺乏原生的光照和阴影信息，导致合成效果虚假，像“贴纸”一样浮在表面。\n- **工作流割裂**：生成主体、去除背景、重新合成需要在多个软件间切换，流程繁琐且无法通过参数统一调整，批量生产效率极低。\n- **修改成本高昂**：一旦背景方案变更，必须重新进行复杂的蒙版绘制和光影重绘，难以实现敏捷迭代。\n\n### 使用 ComfyUI-layerdiffuse 后\n- **原生透明通道生成**：直接利用 Layer Diffuse 节点生成带 Alpha 通道的前景图像，完美保留烟雾、玻璃等半透明细节，无需后期抠图。\n- **智能光影一致性**：在生成阶段即可指定背景条件，让 AI 自动计算并渲染出与背景光照、色调完全匹配的前景，合成效果自然逼真。\n- **全链路自动化**：在 ComfyUI 中构建从“前景生成”到“背景融合”的一站式工作流，支持批量处理，大幅缩短单张海报制作时间。\n- **灵活逆向编辑**：利用其独特的“从合成图中提取前景\u002F背景”功能，可轻松分离已合并的图层，随时更换背景而无需重新生成主体。\n\nComfyUI-layerdiffuse 通过将图层意识融入扩散模型，彻底解决了 AI 绘图在透明通道生成与光影融合上的痛点，实现了专业级合成素材的自动化生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-layerdiffuse_e92f2532.png","huchenlei","Chenlei Hu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuchenlei_88a3044f.jpg","Build better opensource AI tooling.",null,"New York","HclHno3","https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fchenlei-hu-53aa8aa2\u002F","https:\u002F\u002Fgithub.com\u002Fhuchenlei",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1766,169,"2026-04-09T10:36:59","Apache-2.0","未说明","未说明（作为 ComfyUI 插件，通常依赖宿主环境的 GPU 配置以运行 SDXL\u002FSD1.5 模型）",{"notes":93,"python":90,"dependencies":94},"1. 仅支持 SDXL 和 SD1.5 模型。2. 若要解码 RGBA 结果，生成图像的分辨率必须是 64 的倍数，否则会出现解码错误。3. 安装时若与其他扩展存在 diffusers 库的版本冲突，建议设置独立的 Python 虚拟环境。4. 部分工作流（如联合生成背景\u002F前景）需要批处理大小（batch size）为 2N 或 3N，且目前仅适用于 SD1.5。",[95],"diffusers",[15,43],"2026-03-27T02:49:30.150509","2026-04-11T00:41:54.361463",[100,105,110,115,120,124],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},28565,"在使用 SD1.5 模型配合 KSampler 时出现 'KeyError: sigmas' 或相关采样错误怎么办？","如果在 SD1.5 工作流中使用 Layer Diffuse 节点时报错，且怀疑与 CUDA 或 xformers 有关，可以尝试禁用 xformers。\n\n解决方法：\n参考 ComfyUI 官方 Issue #2836 中的评论，通过设置环境变量或启动参数禁用 xformers。例如在启动命令中添加相关参数，或者检查是否安装了不兼容的 xformers 版本并暂时卸载\u002F禁用它。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fissues\u002F51",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},28563,"在 Mac M1\u002FM2 (Apple Silicon) 上运行时发生崩溃怎么办？","这是由于 Apple Silicon 设备在处理高维张量时调用 `torch.median()` 导致的崩溃。解决方法是修改 `lib_layerdiffusion\u002Fmodels.py` 文件，将相关计算移至 CPU 执行后再移回 GPU。\n\n具体修改步骤：\n1. 找到代码：`median = torch.median(result, dim=0).values`\n2. 替换为以下代码块：\n```python\nif self.load_device == torch.device(\"mps\"):\n    # 防止 Apple Silicon 设备在显存中处理高维张量时崩溃\n    median = torch.median(result.cpu(), dim=0).values\n    median = median.to(device=self.load_device, dtype=self.dtype)\nelse:\n    median = torch.median(result, dim=0).values\n```\n或者尝试使用社区提供的修复版 `models.py` 文件覆盖原文件。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fissues\u002F1",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},28564,"遇到报错 'module 'comfy.model_management' has no attribute 'unload_model_clones'' 如何解决？","该错误通常是因为 ComfyUI 主程序版本过旧，缺少 `unload_model_clones` 属性。请更新 ComfyUI 到最新版本即可解决此问题。不要仅更新插件，必须确保宿主程序也是最新的。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fissues\u002F115",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},28566,"运行 SD1.5 工作流时报错 'BaseModel object has no attribute ... attn1' 是什么原因？","此错误表明当前的模型架构与节点配置不匹配。通常发生在选择了错误的模型类型（如用 SDXL 的配置去跑 SD1.5 模型，或反之）。\n\n解决方法：\n1. 确保在 Layer Diffuse 节点中正确选择了配置文件（Config），例如使用 SD1.5 模型时必须选择 `SD15` 配置。\n2. 检查解码器（Decoder）设置是否与模型版本一致。\n3. 确保加载的 Checkpoint 模型确实是 SD1.5 架构（如 RealisticVision V5.1），而不是 SDXL 或其他架构。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-layerdiffuse\u002Fissues\u002F49",{"id":121,"question_zh":122,"answer_zh":123,"source_url":109},28567,"diffusers 库版本过低导致插件无法运行怎么办？","插件运行需要特定版本的 diffusers 库。如果启动时报错提示版本不满足，请确保安装 `diffusers>=0.25.0`。\n\n可以通过以下命令升级：\n```bash\npip install --upgrade diffusers\n```\n或者在 ComfyUI 的嵌入式 Python 环境中执行上述命令。",{"id":125,"question_zh":126,"answer_zh":127,"source_url":114},28568,"为什么工作流在修改提示词（Prompt）后会报错或无法运行？","部分用户反馈在已生成的工作流中直接修改提示词会导致潜在的错误（如模型卸载问题）。虽然更新 ComfyUI 后通常能解决根本的兼容性报错，但如果遇到奇怪的行为：\n1. 尝试完全重启 ComfyUI 服务器。\n2. 如果问题依旧，建议基于新提示词重新构建工作流，而不是直接在旧工作流上修改关键节点参数，以避开可能的状态缓存问题。",[]]