[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huchenlei--ComfyUI-IC-Light-Native":3,"tool-huchenlei--ComfyUI-IC-Light-Native":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":98,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":99,"updated_at":100,"faqs":101,"releases":131},8530,"huchenlei\u002FComfyUI-IC-Light-Native","ComfyUI-IC-Light-Native","ComfyUI native implementation of IC-Light","ComfyUI-IC-Light-Native 是 IC-Light 项目在 ComfyUI 平台上的原生实现，旨在为图像生成带来革命性的光影控制能力。它核心解决了合成图像中前景与背景光照不一致的难题，能够根据用户指定的光源方向或光照图，自动重新打光并生成协调的背景，让合成效果如同实拍般自然真实。\n\n这款工具特别适合视觉设计师、数字艺术家以及熟悉 ComfyUI 工作流的进阶用户。无论是需要将独立物体无缝融入新场景，还是想为现有图片重塑氛围光影，它都能提供强大的支持。其技术亮点在于提供了两种专用模型：一种专注于仅给定前景时生成背景并重绘光照，另一种则支持在已知背景和光照图的情况下进行精细合成。此外，它还具备独特的高频细节迁移功能，能有效保留原图中的文字、纹理等细微特征，避免重绘过程中的细节丢失。配合遮罩灰度处理机制，ComfyUI-IC-Light-Native 确保了输出结果的色彩准确与光影逻辑自洽，是提升图像合成质量的得力助手。","# ComfyUI-IC-Light-Native\nComfyUI native implementation of [IC-Light](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FIC-Light).\n\n## Install\nDownload the repository and unpack into the custom_nodes folder in the ComfyUI installation directory.\n\nOr clone via GIT, starting from ComfyUI installation directory:\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-IC-Light-Native.git\n```\n\n### Download models\nIC-Light main repo is based on diffusers. In order to load it with UnetLoader in ComfyUI, state_dict keys need to convert to ldm format. You can download models with ldm keys here: https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002FIC-Light-ldm\u002Ftree\u002Fmain\n\nThere are 2 models:\n- iclight_sd15_fc_unet_ldm: Use this in FG workflows\n- iclight_sd15_fbc_unet_ldm: Use this in BG workflows\n\nAfter you download these models, please put them under `ComfyUI\u002Fmodels\u002Funet` and load them with `UNETLoader` node.\n\n### Recommended nodes\n\n- [ComfyUI-KJNodes](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes): Provides various mask nodes to create light map.\n- [ComfyUI-Easy-Use](https:\u002F\u002Fgithub.com\u002Fyolain\u002FComfyUI-Easy-Use): A giant node pack of everything. The remove bg node used in workflow comes from this pack.\n- [ComfyUI_essentials](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_essentials): Many useful tooling nodes. Image resize node used in the workflow comes from this pack.\n- [ComfyUI-IC-Light](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-IC-Light): The IC-Light impl from kijai. It includes a very useful `DetailTransfer` node to help preverse high frequency details from input fg image.\n\n## Workflows\nPlease make sure the fg image's masked\u002Ftransparent area are grey before you pass it to the VAE. Otherwise, you will get background obscured in FC workflows or\ndarkened background in FBC workflows. You can use `IC Light Apply Mask Grey` to make sure the masked area's color is correct. See following examples:\n![12 05 2024_16 22 48_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_95e292410d05.png)\n![12 05 2024_16 19 02_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_0b16a4ab86af.png)\n\n### [Given FG, Generate BG and relight](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_082ef491a1ae.png)\nIf you want to keep the original color of the fg object, you can put the fg object in the latent space to further guide the generation. [workflow](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fblob\u002Fmain\u002Fexamples\u002Fic_light_preserve_color.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_52e4b9a0b05d.png)\n\n### [Given FG and light map, Genereate BG and relight](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg_lightmap.json)\nLight from right\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_68759d10689c.png)\n\nLight from left\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_fb1fd41ca62a.png)\n\n### [Given FG and BG, Put FG on BG and relight](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg_bg_combine.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_bcbe070ad9b6.png)\n\n### [Recover high frequency detail (Text, etc) from original input image](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fblob\u002Fmain\u002Fexamples\u002Fic_light_detail_transfer.json)\n![06 06 2024_12 19 35_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_51aced64f7af.png)\n- Input image:\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_4ac5a10f3fea.png)\n- Raw generation:\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_4c3cb34f31d8.png)\n- After detail transfer:\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_f8000ba8bcc7.png)\n\n## Common Issues\nIC-Light's unet is accepting extra inputs on top of the common noise input. FG model accepts extra 1 input (4 channels). BG model accepts 2 extra input (8 channels).\nThe original unet's input is 4 channels as well.\n\nIf you see following error, it means you are using FG workflow but loaded the BG model.\n```\nRuntimeError: Given groups=1, weight of size [320, 8, 3, 3], expected input[2, 12, 64, 64] to have 8 channels, but got 12 channels instead\n```\n\nIf you see following error, it means you are using FG workflow but loaded the BG model.\n```\nRuntimeError: Given groups=1, weight of size [320, 12, 3, 3], expected input[2, 8, 64, 64] to have 12 channels, but got 8 channels instead\n```\n","# ComfyUI-IC-Light-Native\nIC-Light 的 ComfyUI 原生实现，基于 [IC-Light](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FIC-Light)。\n\n## 安装\n下载仓库并解压到 ComfyUI 安装目录下的 `custom_nodes` 文件夹中。\n\n或者从 ComfyUI 安装目录使用 GIT 克隆：\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-IC-Light-Native.git\n```\n\n### 下载模型\nIC-Light 的主仓库基于 diffusers。为了在 ComfyUI 中使用 UnetLoader 加载它，需要将 state_dict 的键转换为 ldm 格式。你可以在这里下载带有 ldm 键的模型：https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002FIC-Light-ldm\u002Ftree\u002Fmain\n\n共有两种模型：\n- iclight_sd15_fc_unet_ldm：用于前景工作流。\n- iclight_sd15_fbc_unet_ldm：用于背景工作流。\n\n下载这些模型后，请将其放置在 `ComfyUI\u002Fmodels\u002Funet` 目录下，并使用 `UNETLoader` 节点加载它们。\n\n### 推荐节点\n- [ComfyUI-KJNodes](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-KJNodes)：提供多种掩码节点来创建光照贴图。\n- [ComfyUI-Easy-Use](https:\u002F\u002Fgithub.com\u002Fyolain\u002FComfyUI-Easy-Use)：一个包含各种功能的巨大节点包。工作流中使用的移除背景节点来自该包。\n- [ComfyUI_essentials](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_essentials)：许多实用的工具节点。工作流中使用的图像缩放节点来自该包。\n- [ComfyUI-IC-Light](https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-IC-Light)：kijai 实现的 IC-Light，其中包含一个非常有用的 `DetailTransfer` 节点，可以帮助保留输入前景图像中的高频细节。\n\n## 工作流\n请确保在将前景图像传递给 VAE 之前，其遮罩或透明区域为灰色。否则，在 FC 工作流中可能会出现背景被遮挡的情况，而在 FBC 工作流中则可能出现背景变暗的问题。可以使用 `IC Light Apply Mask Grey` 节点来确保遮罩区域的颜色正确。请参阅以下示例：\n![12 05 2024_16 22 48_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_95e292410d05.png)\n![12 05 2024_16 19 02_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_0b16a4ab86af.png)\n\n### [给定前景，生成背景并重新打光](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_082ef491a1ae.png)\n如果你想保留前景物体的原始颜色，可以将前景物体放入潜在空间中，以进一步引导生成过程。[工作流](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fblob\u002Fmain\u002Fexamples\u002Fic_light_preserve_color.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_52e4b9a0b05d.png)\n\n### [给定前景和光照贴图，生成背景并重新打光](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg_lightmap.json)\n右侧光源\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_68759d10689c.png)\n\n左侧光源\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_fb1fd41ca62a.png)\n\n### [给定前景和背景，将前景合成到背景上并重新打光](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light\u002Fblob\u002Fmain\u002Fexamples\u002Ffg_bg_combine.json)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_bcbe070ad9b6.png)\n\n### [从原始输入图像中恢复高频细节（文字等）](https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fblob\u002Fmain\u002Fexamples\u002Fic_light_detail_transfer.json)\n![06 06 2024_12 19 35_REC](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_51aced64f7af.png)\n- 输入图像：\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_4ac5a10f3fea.png)\n- 原始生成结果：\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_4c3cb34f31d8.png)\n- 细节转移后：\n  ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_readme_f8000ba8bcc7.png)\n\n## 常见问题\nIC-Light 的 UNET 在常规噪声输入的基础上还接受额外的输入。前景模型接受 1 个额外的输入（4 个通道），而背景模型则接受 2 个额外的输入（8 个通道）。原始 UNET 的输入也是 4 个通道。\n\n如果你看到以下错误，说明你正在使用前景工作流，但却加载了背景模型：\n```\nRuntimeError: Given groups=1, weight of size [320, 8, 3, 3], expected input[2, 12, 64, 64] to have 8 channels, but got 12 channels instead\n```\n\n如果你看到以下错误，说明你正在使用前景工作流，但却加载了背景模型：\n```\nRuntimeError: Given groups=1, weight of size [320, 12, 3, 3], expected input[2, 8, 64, 64] to have 12 channels, but got 8 channels instead\n```","# ComfyUI-IC-Light-Native 快速上手指南\n\nComfyUI-IC-Light-Native 是 [IC-Light](https:\u002F\u002Fgithub.com\u002Flllyasviel\u002FIC-Light) 项目的 ComfyUI 原生实现，用于在生成图像时灵活控制光照条件（如给定前景生成背景并重新打光，或融合前景与背景）。\n\n## 环境准备\n\n*   **系统要求**：Windows \u002F Linux \u002F macOS\n*   **前置依赖**：\n    *   已安装并配置好 **ComfyUI**。\n    *   具备基础的 Python 环境和 Git 工具。\n    *   推荐显存：8GB 及以上（取决于生成的分辨率和模型版本）。\n\n## 安装步骤\n\n### 1. 安装插件节点\n\n进入 ComfyUI 安装目录下的 `custom_nodes` 文件夹，使用 Git 克隆本仓库：\n\n```bash\ncd custom_nodes\ngit clone git@github.com:huchenlei\u002FComfyUI-IC-Light-Native.git\n```\n\n*注：若网络访问 GitHub 较慢，可尝试使用国内镜像源或代理加速。*\n\n重启 ComfyUI 以加载新节点。\n\n### 2. 下载模型文件\n\n由于 IC-Light 原生基于 diffusers，为了在 ComfyUI 中通过 `UNETLoader` 加载，必须使用转换为 **ldm 格式** 的模型权重。\n\n请从 HuggingFace 下载以下模型（建议检查是否有国内镜像加速）：\n*   下载地址：https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002FIC-Light-ldm\u002Ftree\u002Fmain\n\n根据工作流需求选择模型：\n*   **前景工作流 (FG workflows)**：下载 `iclight_sd15_fc_unet_ldm.safetensors`\n*   **背景工作流 (BG workflows)**：下载 `iclight_sd15_fbc_unet_ldm.safetensors`\n\n将下载好的模型文件放入 ComfyUI 的模型目录：\n`ComfyUI\u002Fmodels\u002Funet\u002F`\n\n## 基本使用\n\n### 核心逻辑\nIC-Light 的核心在于通过额外的输入通道来控制光照。使用前请确保理解两种主要模式：\n1.  **FC (Foreground Conditioned)**：给定前景，生成背景并重新打光。\n2.  **FBC (Foreground & Background Conditioned)**：给定前景和背景（或光照图），进行融合重绘。\n\n### 最简单的工作流示例：给定前景生成背景\n\n1.  **加载模型**：使用 `UNETLoader` 节点加载 `iclight_sd15_fc_unet_ldm` 模型。\n2.  **准备前景图**：\n    *   导入一张带有透明通道（Alpha）或掩码的前景图片。\n    *   **关键步骤**：必须确保前景图中被掩码（透明）的区域填充为**灰色**（RGB 值约为 128, 128, 128）。如果直接传入黑色或白色背景，会导致生成结果异常（背景被遮挡或变暗）。\n    *   推荐使用 `IC Light Apply Mask Grey` 节点自动处理此步骤。\n3.  **构建流程**：\n    *   连接 `CheckpointLoaderSimple` (加载基础 SD1.5 大模型)。\n    *   连接 `CLIPTextEncode` (输入提示词)。\n    *   连接 `KSampler`，将处理好的前景图作为条件输入到 IC-Light 相关的 Conditioning 节点中（具体连接方式可参考官方提供的 `fg.json` 工作流）。\n4.  **运行生成**：点击 Queue Prompt，系统将基于前景物体生成匹配光照的新背景。\n\n### 推荐辅助节点包\n为了更便捷地制作光照图（Light Map）或处理遮罩，建议安装以下互补插件：\n*   **ComfyUI-KJNodes**：提供多种创建光照图的 Mask 节点。\n*   **ComfyUI-Easy-Use**：包含便捷的去背（Remove BG）节点。\n*   **ComfyUI_essentials**：提供实用的图像缩放等工具节点。\n*   **ComfyUI-IC-Light (by kijai)**：若需保留高频细节（如文字纹理），可使用其提供的 `DetailTransfer` 节点。\n\n> **提示**：初次使用时，强烈建议直接导入项目 `examples` 文件夹中提供的预设工作流（如 `fg.json` 或 `fg_lightmap.json`），观察节点连接方式后再进行修改。","一位电商设计师正在为一款新发布的智能手表制作宣传图，需要将产品从白底照片中抠出，并合成到充满光影质感的户外场景中。\n\n### 没有 ComfyUI-IC-Light-Native 时\n- **光影割裂感强**：手动调整产品层的亮度与背景不匹配，导致手表看起来像“贴”在背景上，缺乏真实的环境光遮蔽（AO）效果。\n- **细节丢失严重**：在使用重绘或生成背景时，手表表盘上的微小文字和金属高光纹理容易被 AI 模糊化，失去产品质感。\n- **调试成本高昂**：为了模拟不同角度的光源（如左侧光或右侧光），需要反复在 Photoshop 中绘制遮罩并尝试多种混合模式，耗时且难以精准控制。\n- **背景融合生硬**：透明通道处理不当常导致边缘出现黑边或灰边，使得前景物体与新生成的背景之间界限分明，无法自然过渡。\n\n### 使用 ComfyUI-IC-Light-Native 后\n- **自动全局光照统一**：利用 `iclight_sd15_fbc_unet_ldm` 模型，仅需输入前景和背景，工具即可自动计算并生成符合物理规律的环境光，让手表完美“融入”场景。\n- **高频细节无损保留**：结合 `DetailTransfer` 节点，能从原图中提取并恢复表盘文字及金属纹理等高频细节，确保生成后的产品图依然清晰锐利。\n- **灵活的光源控制**：通过简单的灰度掩码（Light Map）节点，即可精确指定光线从左或右射入，实时预览不同布光下的产品立体感，无需手动修图。\n- **智能遮罩预处理**：内置的 `IC Light Apply Mask Grey` 节点自动校正透明区域颜色，彻底消除了合成时的边缘黑边问题，实现无缝衔接。\n\nComfyUI-IC-Light-Native 通过将复杂的光照物理计算自动化，让设计师能在几分钟内产出电影级质感的商品合成图，极大提升了视觉创作的真实度与效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuchenlei_ComfyUI-IC-Light-Native_11f82563.png","huchenlei","Chenlei Hu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuchenlei_88a3044f.jpg","Build better opensource AI tooling.",null,"New York","HclHno3","https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fchenlei-hu-53aa8aa2\u002F","https:\u002F\u002Fgithub.com\u002Fhuchenlei",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,644,35,"2026-04-09T10:37:06","Apache-2.0","未说明","未说明（基于 ComfyUI 和 IC-Light 特性，通常建议 NVIDIA GPU 以支持 CUDA 加速，具体显存需求取决于工作流复杂度）",{"notes":94,"python":91,"dependencies":95},"该工具是 ComfyUI 的自定义节点，需安装到 ComfyUI 的 custom_nodes 目录。必须手动下载转换为 ldm 格式的特定模型文件（iclight_sd15_fc_unet_ldm 用于前景工作流，iclight_sd15_fbc_unet_ldm 用于背景工作流）并放置于 models\u002Funet 目录。强烈建议安装 ComfyUI-KJNodes、ComfyUI-Easy-Use、ComfyUI_essentials 等辅助节点包以完整运行示例工作流。使用前需注意前景图像的遮罩\u002F透明区域必须处理为灰色，否则会导致生成错误。加载模型时需严格区分前景（FG）和背景（BG）模型，混用会导致通道数不匹配的运行时错误。",[28,96,97],"diffusers","torch",[15],"2026-03-27T02:49:30.150509","2026-04-18T00:45:43.953232",[102,107,112,117,122,127],{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},38203,"遇到通道数不匹配错误（expected input to have 4 channels, but got 8 channels）或权重形状不匹配警告怎么办？","这通常是因为模型更新或节点冲突导致的。解决方案如下：\n1. 尝试删除当前的 ComfyUI-IC-Light-Native 插件，改用 ComfyUI-IC-Light。\n2. 进入插件目录（例如 ComfyUI_windows_portable\\ComfyUI\\custom_nodes\\ComfyUI-IC-Light），在命令行运行 `git pull` 强制更新代码。\n3. 如果问题依旧，检查是否与其他插件（如 FreeU_Advanced）冲突，尝试禁用其他自定义节点排查。\n4. 确保工作流中的输入图像通道数与模型预期一致，有时重新加载模型或重启 ComfyUI 可解决缓存导致的维度错误。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fissues\u002F46",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},38204,"更新 PyTorch 到 2.4.0 或 ComfyUI 后报错 'IC-Light: Could not patch calculate_weight' 导致插件失效如何解决？","这是由于版本更新导致补丁失败。请执行以下操作：\n1. 确认作者已发布修复版本，务必将插件更新到最新版。\n2. 如果通过 ComfyUI Manager 更新后仍无效，请手动进入插件目录运行 `git pull` 获取最新代码。\n3. 注意区分不同的 IC-Light 实现（如 kijai 的版本与本仓库不同），确保使用的是 huchenlei 维护的 ComfyUI-IC-Light-Native 或其对应的修复分支。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fissues\u002F44",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},38205,"执行 KSampler 时报错 'UNetModel object has no attribute default_image_only_indicator' 是什么原因？","该错误通常是由节点冲突引起的，特别是与 FreeU_Advanced 节点不兼容。\n解决方法：\n1. 在工作流中移除或禁用 FreeU_Advanced 节点，再次尝试运行。\n2. 如果必须使用该节点，请检查其版本是否与当前 ComfyUI 及 IC-Light 插件兼容，或等待相关插件更新修复。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fissues\u002F18",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},38206,"合并前景（FG）和背景（BG）进行重光照时，前景正常但背景没有显示出来怎么办？","这是因为传递给 VAE 的遮罩区域颜色不正确。IC-Light 期望遮罩的非目标区域为灰色而不是黑色。\n解决方法：\n1. 在将图像传递给 VAE 之前，确保遮罩区域的像素值为灰色（例如 RGB 128, 128, 128），而非纯黑。\n2. 作者已添加了一个新节点专门用于将前景图像转换为 IC-Light 预期的格式，建议在工作流中使用该节点处理前景图后再进行合成。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fissues\u002F7",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},38207,"安装了 layerdiffuse 等依赖后仍然报错且无法运行，常见原因有哪些？","即使安装了所有必要的自定义节点（如 layerdiffuse），如果工作流配置不当或模型权重未正确合并，仍会报错。\n建议步骤：\n1. 查阅项目 README 中的 'Common Issues' 章节获取官方排查指南。\n2. 检查控制台日志中是否有 'WEIGHT NOT MERGED' 警告，这表明模型权重加载失败，可能需要重新下载模型或检查模型文件完整性。\n3. 确认工作流 JSON 文件是否适用于当前版本的插件，旧版工作流可能因节点变更而失效，建议重新构建工作流或使用官方提供的示例文件。","https:\u002F\u002Fgithub.com\u002Fhuchenlei\u002FComfyUI-IC-Light-Native\u002Fissues\u002F15",{"id":128,"question_zh":129,"answer_zh":130,"source_url":106},38208,"ComfyUI-IC-Light-Native 和 ComfyUI-IC-Light (kijai 版) 有什么区别？应该用哪个？","这是两个不同的项目，由不同的作者维护，彼此之间没有直接关系。\n1. ComfyUI-IC-Light-Native (本仓库)：由 huchenlei 维护，旨在提供更原生的集成体验。\n2. ComfyUI-IC-Light (kijai 版)：由 kijai 维护，是另一个独立的实现。\n如果遇到错误或功能缺失，可以尝试切换到另一个版本看是否解决问题，但不要混用两者的节点或配置。",[]]