[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shiimizu--ComfyUI-TiledDiffusion":3,"tool-shiimizu--ComfyUI-TiledDiffusion":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,2,"2026-04-08T11:23:26",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":77,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":77,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":91,"env_deps":92,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":139},6129,"shiimizu\u002FComfyUI-TiledDiffusion","ComfyUI-TiledDiffusion","Tiled Diffusion, MultiDiffusion, Mixture of Diffusers, and optimized VAE","ComfyUI-TiledDiffusion 是一款专为 ComfyUI 设计的扩展插件，旨在突破显存限制，让用户能够在普通显卡上生成或放大超高分辨率的图像。它通过引入先进的“分块扩散”（Tiled Diffusion）技术，将巨大的画布分割成多个小块分别处理再无缝融合，从而有效解决了大尺寸绘图时常见的显存溢出（OOM）问题。\n\n该工具复现了 MultiDiffusion 和 Mixture of Diffusers 等前沿算法，并集成了优化的分块 VAE 解码方案。其独特亮点在于支持包括 SD1.x、SDXL、FLUX 在内的多种主流模型，同时兼容 ControlNet 和图生图放大流程。此外，它还提供了实验性的 SpotDiffusion 模式，通过随机偏移去噪窗口来进一步消除拼接痕迹，提升推理速度。\n\n无论是需要制作大幅海报的设计师、追求极致画质的 AI 艺术创作者，还是希望在不升级硬件的前提下探索超大分辨率生成的普通用户，ComfyUI-TiledDiffusion 都能提供稳定高效的解决方案。它让高分辨率创作不再受限于昂贵的硬件配置，只需简单调整分块大小与重叠率等参数，即可轻","ComfyUI-TiledDiffusion 是一款专为 ComfyUI 设计的扩展插件，旨在突破显存限制，让用户能够在普通显卡上生成或放大超高分辨率的图像。它通过引入先进的“分块扩散”（Tiled Diffusion）技术，将巨大的画布分割成多个小块分别处理再无缝融合，从而有效解决了大尺寸绘图时常见的显存溢出（OOM）问题。\n\n该工具复现了 MultiDiffusion 和 Mixture of Diffusers 等前沿算法，并集成了优化的分块 VAE 解码方案。其独特亮点在于支持包括 SD1.x、SDXL、FLUX 在内的多种主流模型，同时兼容 ControlNet 和图生图放大流程。此外，它还提供了实验性的 SpotDiffusion 模式，通过随机偏移去噪窗口来进一步消除拼接痕迹，提升推理速度。\n\n无论是需要制作大幅海报的设计师、追求极致画质的 AI 艺术创作者，还是希望在不升级硬件的前提下探索超大分辨率生成的普通用户，ComfyUI-TiledDiffusion 都能提供稳定高效的解决方案。它让高分辨率创作不再受限于昂贵的硬件配置，只需简单调整分块大小与重叠率等参数，即可轻松获得细节丰富且无拼接瑕疵的精美图像。","# Tiled Diffusion & VAE for ComfyUI\r\n\r\nCheck out the [SD-WebUI extension](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002F) for more information.\r\n\r\nThis extension enables **large image drawing & upscaling with limited VRAM** via the following techniques:\r\n\r\n- Reproduced SOTA Tiled Diffusion methods\r\n    - [MultiDiffusion](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FMultiDiffusion) \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08113\">\u003Cimg width=\"32\" alt=\"MultiDiffusion Paper\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_e180918a92b2.png\">\u003C\u002Fa>\r\n    - [Mixture of Diffusers](https:\u002F\u002Fgithub.com\u002Falbarji\u002Fmixture-of-diffusers) \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02412\">\u003Cimg width=\"32\" alt=\"Mixture of Diffusers Paper\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_e180918a92b2.png\">\u003C\u002Fa>\r\n- pkuliyi2015 & Kahsolt's Tiled VAE algorithm\r\n- ~~pkuliyi2015 & Kahsolt's TIled Noise Inversion method~~\r\n\r\n> [!NOTE]  \r\n> Sizes\u002Fdimensions are in pixels and then converted to latent-space sizes.\r\n\r\n\r\n## Features\r\n\r\n- [x] Supported models\r\n    - [x] SD1.x, SD2.x, SDXL, SD3\r\n    - [x] FLUX\r\n- [x] ControlNet support\r\n- [ ] ~~StableSR support~~\r\n- [ ] ~~Tiled Noise Inversion~~\r\n- [x] Tiled VAE\r\n- [ ] Regional Prompt Control\r\n- [x] Img2img upscale\r\n- [x] Ultra-Large image generation\r\n\r\n## Tiled Diffusion\r\n\r\n\u003Cdiv align=\"center\">\r\n  \u003Cimg width=\"500\" alt=\"Tiled_Diffusion\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_9b43b6d325be.png\">\r\n\u003C\u002Fdiv>\r\n\r\n> [!TIP]  \r\n> * Set `tile_overlap` to 0 and `denoise` to 1 to see the tile seams and then adjust the options to your needs.\r\n> * Increase `tile_batch_size` to increase speed (if your machine can handle it).\r\n> * Use the [colorfix node](https:\u002F\u002Fgithub.com\u002Fgameltb\u002FComfyui-StableSR) if your colors look off.\r\n\r\n### Options\r\n\r\n| Name              | Description                                                  |\r\n|-------------------|--------------------------------------------------------------|\r\n| `method`          | Tiling [strategy](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002Fblob\u002Ffbb24736c9bc374c7f098f82b575fcd14a73936a\u002Fscripts\u002Ftilediffusion.py#L39-L46).  |\r\n| `tile_width`      | Tile's width                                                 |\r\n| `tile_height`     | Tile's height                                                |\r\n| `tile_overlap`    | Tile's overlap                                               |\r\n| `tile_batch_size` | The number of tiles to process in a batch                    |\r\n\r\n### How can I specify the tiles' arrangement?\r\n\r\nIf you have the [Math Expression](https:\u002F\u002Fgithub.com\u002Fpythongosssss\u002FComfyUI-Custom-Scripts#math-expression) node (or something similar), you can use that to pass in the latent that's passed in your KSampler and divide the `tile_height`\u002F`tile_width` by the number of rows\u002Fcolumns you want.\r\n\r\n`C` = number of columns you want  \r\n`R` = number of rows you want\r\n\r\n`pixel width of input image or latent \u002F\u002F C` = `tile_width`  \r\n`pixel height of input image or latent \u002F\u002F R` = `tile_height`\r\n\r\n\u003Cimg width=\"800\" alt=\"Tile_arrangement\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_47586c22593a.png\">\r\n\r\n### SpotDiffusion\r\n\r\n[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.15507)\r\n\r\nA tiling algorithm that attempts to eliminate seams by randomly shifting the denoise window per timestep. It is mainly used for fast inferences by setting `tile_overlap` to 0; otherwise, it's better to stick with the other tiling strategies as they produce better outputs.\r\n\r\nThis additional feature is experimental, in testing,  and subject to change.\r\n\r\n## Tiled VAE\r\n\r\n\u003Cdiv align=\"center\">\r\n  \u003Cimg width=\"900\" alt=\"Tiled_VAE\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_b3dc1cc8a123.png\">\r\n\u003C\u002Fdiv>\r\n\r\n\u003Cbr>\r\n\r\nThe recommended tile sizes are given upon the creation of the node based on the available VRAM.   \r\n\r\n> [!NOTE]  \r\n> Enabling `fast` for the decoder may produce images with slightly higher contrast and brightness.\r\n\r\n### Options\r\n\r\n| Name        | Description                                                                                                                                  |\r\n|-------------|----------------------------------------------------------------------------------------------------------------------------------------------|\r\n| `tile_size` |  \u003Cblockquote>The image is split into tiles, which are then padded with 11\u002F32 pixels' in the decoder\u002Fencoder.\u003C\u002Fblockquote>                                 |\r\n| `fast`      |  \u003Cblockquote>\u003Cp>When Fast Mode is disabled:\u003C\u002Fp> \u003Col> \u003Cli>The original VAE forward is decomposed into a task queue and a task worker, which starts to process each tile.\u003C\u002Fli> \u003Cli>When GroupNorm is needed, it suspends, stores current GroupNorm mean and var, send everything to RAM, and turns to the next tile.\u003C\u002Fli> \u003Cli>After all GroupNorm means and vars are summarized, it applies group norm to tiles and continues. \u003C\u002Fli> \u003Cli>A zigzag execution order is used to reduce unnecessary data transfer.\u003C\u002Fli> \u003C\u002Fol> \u003Cp>When Fast Mode is enabled:\u003C\u002Fp> \u003Col> \u003Cli>The original input is downsampled and passed to a separate task queue.\u003C\u002Fli> \u003Cli>Its group norm parameters are recorded and used by all tiles&#39; task queues.\u003C\u002Fli> \u003Cli>Each tile is separately processed without any RAM-VRAM data transfer.\u003C\u002Fli> \u003C\u002Fol> \u003Cp>After all tiles are processed, tiles are written to a result buffer and returned.\u003C\u002Fp>\u003C\u002Fblockquote> |\r\n| `color_fix` | \u003Cblockquote>Only estimate GroupNorm before downsampling, i.e., run in a semi-fast mode.\u003C\u002Fblockquote>\u003Cp>Only for the encoder. Can restore colors if tiles are too small.\u003C\u002Fp>  |\r\n\r\n\r\n\r\n## Workflows\r\n\r\nThe following images can be loaded in ComfyUI.\r\n\r\n\r\n\u003Cdiv align=\"center\">\r\n  \u003Cimg alt=\"ComfyUI_07501_\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_15b7b516dbd3.png\">\r\n  \u003Cp>Simple upscale.\u003C\u002Fp>\r\n\u003C\u002Fdiv>\r\n\r\n\u003Cbr>\r\n\r\n\u003Cdiv align=\"center\">\r\n\r\n  \u003Cimg alt=\"ComfyUI_07503_\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_9b58a77feb67.png\">\r\n  \u003Cp>4x upscale. 3 passes.\u003C\u002Fp>\r\n\u003C\u002Fdiv>\r\n\r\n## License\r\nGreat thanks to all the contributors! 🎉🎉🎉   \r\nThe implementation of MultiDiffusion, Mixture of Diffusers, and Tiled VAE code is currently under [Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F) since it was borrowed from the wonderful [SD-WebUI extension](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002F). Anything else GPLv3.\r\n\r\n## Citation\r\n\r\n```bibtex\r\n@article{jimenez2023mixtureofdiffusers,\r\n  title={Mixture of Diffusers for scene composition and high resolution image generation},\r\n  author={Álvaro Barbero Jiménez},\r\n  journal={arXiv preprint arXiv:2302.02412},\r\n  year={2023}\r\n}\r\n```\r\n\r\n```bibtex\r\n@article{bar2023multidiffusion,\r\n  title={MultiDiffusion: Fusing Diffusion Paths for Controlled Image Generation},\r\n  author={Bar-Tal, Omer and Yariv, Lior and Lipman, Yaron and Dekel, Tali},\r\n  journal={arXiv preprint arXiv:2302.08113},\r\n  year={2023}\r\n}\r\n```\r\n","# ComfyUI 的分块扩散与 VAE\n\n更多信息请查看 [SD-WebUI 扩展](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002F)。\n\n此扩展通过以下技术实现 **在有限显存下绘制和放大超大图像**：\n\n- 复现了当前最优的分块扩散方法\n  - [MultiDiffusion](https:\u002F\u002Fgithub.com\u002Fomerbt\u002FMultiDiffusion) \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08113\">\u003Cimg width=\"32\" alt=\"MultiDiffusion 论文\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_e180918a92b2.png\">\u003C\u002Fa>\n  - [Mixture of Diffusers](https:\u002F\u002Fgithub.com\u002Falbarji\u002Fmixture-of-diffusers) \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.02412\">\u003Cimg width=\"32\" alt=\"Mixture of Diffusers 论文\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_e180918a92b2.png\">\u003C\u002Fa>\n- pkuliyi2015 和 Kahsolt 的分块 VAE 算法\n- ~~pkuliyi2015 和 Kahsolt 的分块噪声反演方法~~\n\n> [!NOTE]  \n> 尺寸\u002F维度以像素为单位，随后转换为潜在空间尺寸。\n\n\n## 特性\n\n- [x] 支持的模型\n  - [x] SD1.x、SD2.x、SDXL、SD3\n  - [x] FLUX\n- [x] ControlNet 支持\n- [ ] ~~StableSR 支持~~\n- [ ] ~~分块噪声反演~~\n- [x] 分块 VAE\n- [ ] 区域提示控制\n- [x] 图像到图像的放大\n- [x] 超大图像生成\n\n## 分块扩散\n\n\u003Cdiv align=\"center\">\n  \u003Cimg width=\"500\" alt=\"Tiled_Diffusion\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_9b43b6d325be.png\">\n\u003C\u002Fdiv>\n\n> [!TIP]  \n> * 将 `tile_overlap` 设置为 0，`denoise` 设置为 1，即可看到分块接缝，然后根据需求调整选项。\n> * 增加 `tile_batch_size` 可提高速度（如果您的机器能够承受）。\n> * 如果颜色看起来不对，请使用 [colorfix 节点](https:\u002F\u002Fgithub.com\u002Fgameltb\u002FComfyui-StableSR)。\n\n### 选项\n\n| 名称              | 描述                                                  |\n|-------------------|--------------------------------------------------------------|\n| `method`          | 分块[策略](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002Fblob\u002Ffbb24736c9bc374c7f098f82b575fcd14a73936a\u002Fscripts\u002Ftilediffusion.py#L39-L46)。  |\n| `tile_width`      | 分块的宽度                                                 |\n| `tile_height`     | 分块的高度                                                |\n| `tile_overlap`    | 分块的重叠部分                                               |\n| `tile_batch_size` | 每批处理的分块数量                    |\n\n### 如何指定分块的排列方式？\n\n如果您有 [Math Expression](https:\u002F\u002Fgithub.com\u002Fpythongosssss\u002FComfyUI-Custom-Scripts#math-expression) 节点（或类似工具），可以使用它来接收传入 KSampler 的潜在变量，并将 `tile_height`\u002F`tile_width` 除以您希望的行数\u002F列数。\n\n`C` = 您希望的列数  \n`R` = 您希望的行数\n\n`输入图像或潜在变量的像素宽度 \u002F\u002F C` = `tile_width`  \n`输入图像或潜在变量的像素高度 \u002F\u002F R` = `tile_height`  \n\n\u003Cimg width=\"800\" alt=\"Tile_arrangement\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_47586c22593a.png\">\n\n### SpotDiffusion\n\n[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.15507)\n\n一种分块算法，通过在每个时间步随机移动去噪窗口来尝试消除接缝。它主要用于快速推理，此时可将 `tile_overlap` 设置为 0；否则，建议使用其他分块策略，因为它们能产生更好的结果。\n\n此附加功能目前处于实验阶段，正在测试中，并可能随时更改。\n\n## 分块 VAE\n\n\u003Cdiv align=\"center\">\n  \u003Cimg width=\"900\" alt=\"Tiled_VAE\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_b3dc1cc8a123.png\">\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n推荐的分块尺寸会在创建节点时根据可用显存给出。\n\n> [!NOTE]  \n> 启用解码器的 `fast` 模式可能会使图像对比度和亮度略微提高。\n\n### 选项\n\n| 名称        | 描述                                                                                                                                  |\n|-------------|----------------------------------------------------------------------------------------------------------------------------------------------|\n| `tile_size` |  \u003Cblockquote>图像会被分割成若干分块，随后在解码器\u002F编码器中对每一块填充 11\u002F32 像素。\u003C\u002Fblockquote>                                 |\n| `fast`      |  \u003Cblockquote>\u003Cp>当禁用快速模式时：\u003C\u002Fp> \u003Col> \u003Cli>原始 VAE 前向传播会被分解为任务队列和任务工作者，后者开始逐块处理。\u003C\u002Fli> \u003Cli>当需要 GroupNorm 时，会暂停执行，保存当前的 GroupNorm 均值和方差，将所有数据移至 RAM，然后转到下一组块。\u003C\u002Fli> \u003Cli>汇总所有 GroupNorm 的均值和方差后，再对各组块应用 GroupNorm 并继续处理。\u003C\u002Fli> \u003Cli>采用之字形执行顺序以减少不必要的数据传输。\u003C\u002Fli> \u003C\u002Fol> \u003Cp>当启用快速模式时：\u003C\u002Fp> \u003Col> \u003Cli>原始输入会被下采样并传递给一个独立的任务队列。\u003C\u002Fli> \u003Cli>其 GroupNorm 参数会被记录下来，并由所有分块的任务队列共享。\u003C\u002Fli> \u003Cli>每一块都会被单独处理，无需进行 RAM-显存之间的数据传输。\u003C\u002Fli> \u003C\u002Fol> \u003Cp>所有分块处理完成后，结果会被写入一个缓冲区并返回。\u003C\u002Fp>\u003C\u002Fblockquote> |\n| `color_fix` | \u003Cblockquote>仅在下采样前估算 GroupNorm，即以半快速模式运行。\u003C\u002Fblockquote>\u003Cp>仅适用于编码器。若分块过小，可恢复颜色。\u003C\u002Fp>  |\n\n\n\n## 工作流\n\n以下图像可以直接在 ComfyUI 中加载。\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg alt=\"ComfyUI_07501_\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_15b7b516dbd3.png\">\n  \u003Cp>简单放大。\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n\u003Cdiv align=\"center\">\n\n  \u003Cimg alt=\"ComfyUI_07503_\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_readme_9b58a77feb67.png\">\n  \u003Cp>4倍放大。3次迭代。\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n## 许可证\n非常感谢所有贡献者！🎉🎉🎉   \nMultiDiffusion、Mixture of Diffusers 和分块 VAE 代码的实现目前采用 [知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F)，因为它们借用了优秀的 [SD-WebUI 扩展](https:\u002F\u002Fgithub.com\u002Fpkuliyi2015\u002Fmultidiffusion-upscaler-for-automatic1111\u002F)。其余部分则采用 GPLv3 许可协议。\n\n## 引用\r\n\r\n```bibtex\r\n@article{jimenez2023mixtureofdiffusers,\r\n  title={用于场景构图和高分辨率图像生成的扩散模型混合},\r\n  author={阿尔瓦罗·巴贝罗·希门尼斯},\r\n  journal={arXiv 预印本 arXiv:2302.02412},\r\n  year={2023}\r\n}\r\n```\r\n\r\n```bibtex\r\n@article{bar2023multidiffusion,\r\n  title={多扩散：融合扩散路径以实现可控图像生成},\r\n  author={巴尔-塔尔，奥默；亚里夫，利奥尔；利普曼，亚伦；德克尔，塔莉},\r\n  journal={arXiv 预印本 arXiv:2302.08113},\r\n  year={2023}\r\n}\r\n```","# ComfyUI-TiledDiffusion 快速上手指南\n\nComfyUI-TiledDiffusion 是一个专为 ComfyUI 设计的扩展节点，旨在通过分块扩散（Tiled Diffusion）和分块 VAE（Tiled VAE）技术，在有限的显存（VRAM）下实现超大分辨率图像的生成与高清放大。它支持 SD1.x\u002F2.x、SDXL、SD3 及 FLUX 等主流模型。\n\n## 环境准备\n\n*   **系统要求**：\n    *   已安装并正常运行的 **ComfyUI**。\n    *   操作系统：Windows \u002F Linux \u002F macOS。\n    *   显卡：推荐 NVIDIA GPU（支持 CUDA），显存大小决定了可生成的最大分辨率，但该插件能显著降低显存需求。\n*   **前置依赖**：\n    *   Python 3.10+ (ComfyUI 默认环境)。\n    *   无需额外安装复杂的系统级依赖，插件管理器会自动处理 Python 包。\n\n## 安装步骤\n\n推荐使用 ComfyUI 自带的管理器进行安装，这是最稳定且适合国内网络环境的方式（若管理器配置了国内镜像源）。\n\n### 方法一：通过 ComfyUI Manager 安装（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  在搜索框中输入 `TiledDiffusion`。\n4.  找到 `ComfyUI-TiledDiffusion` (作者通常为 `shiimizu`)，点击 **Install**。\n5.  安装完成后，**重启 ComfyUI** 以加载节点。\n\n### 方法二：手动命令行安装\n\n如果无法使用管理器，可进入 ComfyUI 的 `custom_nodes` 目录手动克隆：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion.git\n```\n\n安装完成后，请重启 ComfyUI。\n\n## 基本使用\n\n本插件主要提供两类核心功能：**分块扩散生成\u002F放大** 和 **分块 VAE 编解码**。\n\n### 1. 基础工作流构建\n\n在 ComfyUI 画布右键搜索并添加以下核心节点：\n\n*   **生成分块放大**：搜索 `Tiled Diffusion` 或 `Multidiffusion Upscale`。\n*   **显存优化解码**：搜索 `Tiled VAE`。\n\n### 2. 简单放大示例 (Img2img Upscale)\n\n这是一个最基础的 4 倍放大流程，适用于显存不足以直接生成大图的情况：\n\n1.  **加载图像**：使用 `Load Image` 节点加载一张低分辨率图片。\n2.  **连接分块扩散节点**：\n    *   将 `Load Image` 的输出连接到 `Tiled Diffusion` 节点的 `image` 输入。\n    *   连接 `Checkpoint Loader` (模型)、`CLIP Text Encode` (提示词) 到对应接口。\n    *   **关键参数设置**：\n        *   `method`: 选择 `MultiDiffusion` (质量较好) 或 `Mixture of Diffusers`。\n        *   `tile_width` \u002F `tile_height`: 设置为 512 或 768 (根据显存调整)。\n        *   `tile_overlap`: 设置为 64 或更高以减少拼接痕迹。\n        *   `denoise`: 设为 1.0 (完全重绘) 或 0.4-0.6 (保留原图细节进行放大)。\n3.  **连接分块 VAE 节点**：\n    *   将 `Tiled Diffusion` 输出的 `latent` 连接到 `Tiled VAE` 节点的 `samples` 输入。\n    *   将 `VAE Loader` 连接到 `Tiled VAE` 的 `vae` 输入。\n    *   **作用**：防止大分辨率图像在解码时发生 OOM (显存溢出)。\n4.  **保存图像**：将 `Tiled VAE` 的输出连接到 `Save Image`。\n\n### 3. 参数调优建议\n\n*   **消除拼接痕迹**：如果生成的图像有明显的网格接缝，请增加 `tile_overlap` 的值，或尝试将 `denoise` 略微调低。\n*   **提升速度**：若显存充裕，可增加 `tile_batch_size` 以并行处理更多图块。\n*   **色彩修正**：如果发现分块导致颜色不一致，可在工作流中加入 `Color Fix` 相关节点（如 `StableSR Color Fix`），或在 `Tiled VAE` 中启用 `color_fix` 选项（仅针对编码器）。\n*   **指定行列布局**：若需精确控制分块数量，可结合 `Math Expression` 节点计算 `tile_width` 和 `tile_height`：\n    *   `tile_width` = 输入图像宽度 \u002F\u002F 期望列数\n    *   `tile_height` = 输入图像高度 \u002F\u002F 期望行数\n\n> **注意**：所有尺寸参数单位为像素，插件内部会自动转换为潜空间（Latent）尺寸。","一位数字艺术家试图在仅有 8GB 显存的消费级显卡上，生成一张用于户外广告牌打印的 8K 分辨率超高清奇幻风景图。\n\n### 没有 ComfyUI-TiledDiffusion 时\n- **显存直接爆满**：尝试直接生成或放大至 8K 分辨率时，GPU 显存瞬间耗尽，导致程序崩溃报错（OOM），任务根本无法启动。\n- **被迫降低画质**：为了能让程序跑通，只能将分辨率压缩至 1024x1024 再勉强放大，导致画面细节模糊、纹理丢失，完全无法满足印刷需求。\n- **拼接痕迹严重**：若手动分块生成再后期拼接，图像交界处会出现明显的断裂和色调不一致，后期修复耗时极长且效果生硬。\n- **硬件升级成本高**：面对大尺寸创作需求，唯一可行的方案是租用昂贵的云端高配显卡或购买专业级硬件，增加了创作门槛。\n\n### 使用 ComfyUI-TiledDiffusion 后\n- **低显存生成大图**：利用 MultiDiffusion 和 Mixture of Diffusers 技术，将大图像分割为小块并行处理，成功在 8GB 显存下流畅生成 8K 甚至更高分辨率的图像。\n- **细节完美保留**：通过智能重叠采样（Tile Overlap）算法，自动融合块间边界，生成的图像纹理清晰锐利，无可见拼接缝隙，直接达到印刷级标准。\n- **工作流高效整合**：支持在 ComfyUI 中一键集成 ControlNet 进行局部控制，无需手动分块或后期修图，大幅缩短了从构思到成图的时间。\n- **硬件利用率最大化**：通过调整 `tile_batch_size` 灵活平衡速度与显存占用，让普通游戏显卡也能胜任专业级的大规模图像创作任务。\n\nComfyUI-TiledDiffusion 通过分块扩散与优化 VAE 技术，彻底打破了显存容量对图像分辨率的限制，让普通用户也能轻松实现超大规模的高质量图像生成。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshiimizu_ComfyUI-TiledDiffusion_9b43b6d3.png","shiimizu","Shiimizu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshiimizu_484ed61f.jpg",null,"ʟᴇᴀғ","shiimizu@protonmail.com","https:\u002F\u002Fgithub.com\u002Fshiimizu",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,519,53,"2026-04-09T10:36:53","未说明","必需（基于 ComfyUI\u002FStable Diffusion），具体型号未说明。显存需求取决于图像大小，该工具旨在通过分块技术（Tiled Diffusion\u002FVAE）在有限显存下生成超大图像或进行高清放大。节点会根据可用显存自动推荐分块大小。","未说明（处理大图时建议较大内存以配合分块算法的数据交换）",{"notes":93,"python":89,"dependencies":94},"1. 本工具是 ComfyUI 的扩展插件，需先安装 ComfyUI 运行环境。\n2. 支持模型包括 SD1.x, SD2.x, SDXL, SD3 及 FLUX，并支持 ControlNet。\n3. 核心功能是通过分块扩散（Tiled Diffusion）和分块 VAE（Tiled VAE）技术，解决显存不足无法生成大图的问题。\n4. Tiled VAE 节点会根据当前可用显存自动推荐最佳的分块尺寸（tile_size）。\n5. 提供“快速模式”（Fast Mode）选项，可避免显存与内存间的数据传输以提升速度，但可能导致对比度和亮度略有变化。\n6. 若发现颜色异常，建议配合使用 colorfix 节点。",[28,95,96,97],"torch","MultiDiffusion (算法实现)","Mixture of Diffusers (算法实现)",[15],[100,101,102,103,104,105],"comfyui","image-generation","large-image","multidiffusion","stable-diffusion","vramsaving","2026-03-27T02:49:30.150509","2026-04-10T15:53:48.337685",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},27753,"同时使用 Tiled Diffusion 和 ControlNet 时出现 'ControlNet' object has no attribute 'device' 错误怎么办？","该问题通常由 ComfyUI 的特定更新引起，导致设备属性丢失。维护者已发布官方修复。请更新插件到最新版本即可解决。如果更新后仍有问题，可能是代码未完全适配，建议检查是否使用了最新的提交版本（commit）。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F49",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},27754,"运行 Tiled VAE 节点时报错 'Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!' 如何解决？","这是张量设备不一致导致的错误（部分在 GPU，部分在 CPU）。该问题已在后续提交中修复。请将插件更新至包含修复提交的版本（如 commit d9c046d52084a3ccfe7fcaa92cb96ad9bbf7e325 或更新版本）。如果在更新后仍报错，请尝试再次更新以确保获取了最新的修复补丁（如 commit 18b68bb828337a6439247c140e6aaf7ace0a662c）。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F18",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},27755,"遇到 'Input type (float) and bias type (c10::BFloat16) should be the same' 数据类型不匹配错误如何处理？","这是由于模型权重数据类型与计算数据类型不一致引起的。维护者已通过代码更新修复此问题，请更新插件至最新版本。如果无法立即更新，高级用户可以手动修改 `tiled_vae.py` 文件：找到返回结果的代码行，将硬编码的 dtype 改为动态获取网络权重的数据类型。例如，将相关行修改为：`desired_dtype = self.net.conv_in.weight.dtype`，并在返回时使用 `to(dtype=desired_dtype, device=device)`。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F58",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},27756,"更新 ComfyUI 后插件无法使用或报错 'NoneType' object has no attribute 'module_name' 怎么办？","这通常是因为 ComfyUI 核心更新导致插件挂钩函数（hook_all）失效。解决方法是更新 Tiled Diffusion 插件到最新版本。如果自动更新无效，可以手动下载修复后的 `utils.py` 文件（参考 PR #26 或相关修复提交），并替换本地 `custom_nodes\u002FComfyUI-TiledDiffusion\u002F` 目录下的同名文件。替换后重启 ComfyUI 即可恢复正常。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F29",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},27757,"启动 ComfyUI 时提示 'Import failed' 且报错 'SyntaxError: invalid decimal literal' 是什么原因？","这个错误通常是因为插件文件中的 Git 合并冲突标记（如 `>>>>>>>`）未被清理，导致 Python 无法解析代码。这常发生在手动更新或更新过程中断时。解决方法是进入 `custom_nodes\u002FComfyUI-TiledDiffusion\u002F` 目录，重新拉取最新的干净代码（git pull --force 或直接删除该文件夹后重新克隆\u002F下载），确保 `tiled_diffusion.py` 等文件中没有残留的冲突标记符号。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F11",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},27758,"加载 ControlNet 节点后工作流完全无法运行或报通用异常怎么处理？","如果在未加载 ControlNet 节点时工作流正常，而加载后报错，这通常是 Tiled Diffusion 与 ControlNet 兼容性问题的表现（类似于 Issue #49 的情况）。首先确保两个插件都更新到了最新版本。如果问题依旧，尝试暂时绕过（Bypass）其中一个节点以确认冲突源。大多数情况下，等待或应用针对 ControlNet 设备属性丢失的修复补丁能解决此问题。","https:\u002F\u002Fgithub.com\u002Fshiimizu\u002FComfyUI-TiledDiffusion\u002Fissues\u002F19",[]]