[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ltdrdata--ComfyUI-Inspire-Pack":3,"tool-ltdrdata--ComfyUI-Inspire-Pack":61},[4,18,26,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,35],"插件",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":42,"last_commit_at":51,"category_tags":52,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[35,13,15,14],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":42,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[35,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":42,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":103,"github_topics":75,"view_count":42,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":137},8752,"ltdrdata\u002FComfyUI-Inspire-Pack","ComfyUI-Inspire-Pack","This repository offers various extension nodes for ComfyUI. Nodes here have different characteristics compared to those in the ComfyUI Impact Pack. The Impact Pack has become too large now...","ComfyUI-Inspire-Pack 是专为 ComfyUI 设计的扩展节点集合，旨在提供与庞大的 Impact Pack 差异化且更轻量化的功能补充。它主要解决了用户在复杂工作流中对精细化控制的需求，特别是填补了区域提示（Regional Prompt）、高级 LoRA 调控以及特定预处理流程中的功能空白。\n\n该工具非常适合希望突破基础生成限制的设计师、进阶玩家及工作流开发者。其核心技术亮点包括：强大的\"LoRA 块权重”功能，允许用户通过数值或随机种子精细调节 LoRA 在不同网络层的影响，甚至支持保存和复用权重配置；丰富的\"SEGS 支持”节点，让 OpenPose、Canny、深度图等多种 ControlNet 预处理器能精准应用于图像的局部区域；此外，它还提供了兼容 A1111 的节点以确保工作流迁移的一致性，并集成了变体种子等创新特性。需要注意的是，ComfyUI-Inspire-Pack 高度依赖 Impact Pack 环境，使用时请确保相关组件已更新至兼容版本，以获得最佳体验。","# ComfyUI-Inspire-Pack\nThis repository offers various extension nodes for ComfyUI. Nodes here have different characteristics compared to those in the ComfyUI Impact Pack. The Impact Pack has become too large now...\n\n## Notice:\n* V1.18: To use the 'OSS' Scheduler, please update to ComfyUI version 0.3.28 or later (April 13th or newer) and Impact Pack version V8.11 or higher.\n* V1.9.1 To avoid confusion with the `NOISE` type in core, the type name has been changed to `NOISE_IMAGE`.\n* V0.73 The Variation Seed feature is added to Regional Prompt nodes, and it is only compatible with versions Impact Pack V5.10 and above.\n* V0.69 incompatible with the outdated **ComfyUI IPAdapter Plus**. (A version dated March 24th or later is required.)\n* V0.64 add sigma_factor to RegionalPrompt... nodes required Impact Pack V4.76 or later.\n* V0.62 support faceid in Regional IPAdapter\n* V0.48 optimized wildcard node. This update requires Impact Pack V4.39.2 or later.\n* V0.13.2 isn't compatible with old ControlNet Auxiliary Preprocessor. If you will use `MediaPipeFaceMeshDetectorProvider` update to latest version(Sep. 17th).\n* WARN: If you use version **0.12 to 0.12.2** without a GlobalSeed node, your workflow's seed may have been erased. Please update immediately.\n\n## Nodes\n### Lora Block Weight - This is a node that provides functionality related to Lora block weight.\n  * This provides similar functionality to [sd-webui-lora-block-weight](https:\u002F\u002Fgithub.com\u002Fhako-mikan\u002Fsd-webui-lora-block-weight)\n  * `LoRA Loader (Block Weight)`: When loading Lora, the block weight vector is applied.\n      * In the block vector, you can use numbers, R, A, a, B, and b.\n      * R is determined sequentially based on a random seed, while A and B represent the values of the A and B parameters, respectively. a and b are half of the values of A and B, respectively.\n  * `XY Input: LoRA Block Weight`: This is a node in the [Efficiency Nodes](https:\u002F\u002Fgithub.com\u002FLucianoCirino\u002Fefficiency-nodes-comfyui)' XY Plot that allows you to use Lora block weight.\n      * You must ensure that X and Y connections are made, and dependencies should be connected to the XY Plot.\n      * Note: To use this feature, update `Efficient Nodes` to a version released after September 3rd.\n  * Make LoRA Block Weight: Instead of directly applying the LoRA Block Weight to the MODEL, it is generated in a separate LBW_MODEL form\n  * Apply LoRA Block Weight: Apply LBW_MODEL to MODEL and CLIP\n  * Save LoRA Block Weight: Save LBW_MODEL as a .lbw.safetensors file\n  * Load LoRA Block Weight: Load LBW_MODEL from .lbw.safetensors file\n\n\n### SEGS Supports nodes - This is a node that supports ApplyControlNet (SEGS) from the Impact Pack.\n  * `OpenPose Preprocessor Provider (SEGS)`: OpenPose preprocessor is applied for the purpose of using OpenPose ControlNet in SEGS.\n      * You need to install [ControlNet Auxiliary Preprocessors](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux) to use this.\n  * `Canny Preprocessor Provider (SEGS)`: Canny preprocessor is applied for the purpose of using Canny ControlNet in SEGS.\n  * `DW Preprocessor Provider (SEGS)`, `MiDaS Depth Map Preprocessor Provider (SEGS)`, `LeReS Depth Map Preprocessor Provider (SEGS)`, \n    `MediaPipe FaceMesh Preprocessor Provider (SEGS)`, `HED Preprocessor Provider (SEGS)`, `Fake Scribble Preprocessor (SEGS)`, \n    `AnimeLineArt Preprocessor Provider (SEGS)`, `Manga2Anime LineArt Preprocessor Provider (SEGS)`, `LineArt Preprocessor Provider (SEGS)`,\n    `Color Preprocessor Provider (SEGS)`, `Inpaint Preprocessor Provider (SEGS)`, `Tile Preprocessor Provider (SEGS)`, `MeshGraphormer Depth Map Preprocessor Provider (SEGS)`  \n  * `MediaPipeFaceMeshDetectorProvider`: This node provides `BBOX_DETECTOR` and `SEGM_DETECTOR` that can be used in Impact Pack's Detector using the `MediaPipe-FaceMesh Preprocessor` of ControlNet Auxiliary Preprocessors.\n\n\n### A1111 Compatibility support - These nodes assists in replicating the creation of A1111 in ComfyUI exactly.\n  * `KSampler (Inspire)`: ComfyUI uses the CPU for generating random noise, while A1111 uses the GPU. One of the three factors that significantly impact reproducing A1111's results in ComfyUI can be addressed using `KSampler (Inspire)`.\n      * Other point #1 : Please make sure you haven't forgotten to include 'embedding:' in the embedding used in the prompt, like 'embedding:easynegative.'\n      * Other point #2 : ComfyUI and A1111 have different interpretations of weighting. To align them, you need to use [BlenderNeko\u002FAdvanced CLIP Text Encode](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb).\n  * `KSamplerAdvanced (Inspire)`: Inspire Pack version of `KSampler (Advanced)`.\n  * `RandomNoise (inspire)`: Inspire Pack version of `RandomNoise`.\n  * Common Parameters\n    * `batch_seed_mode` determines how seeds are applied to batch latents:\n      * `comfy`: This method applies the noise to batch latents all at once. This is advantageous to prevent duplicate images from being generated due to seed duplication when creating images.\n      * `incremental`: Similar to the A1111 case, this method incrementally increases the seed and applies noise sequentially for each batch. This approach is beneficial for straightforward reproduction using only the seed.\n      * `variation_strength`: In each batch, the variation strength starts from the set `variation_strength` and increases by `xxx`.\n    * `variation_seed` and `variation_strength` - Initial noise generated by the seed is transformed to the shape of `variation_seed` by `variation_strength`. If `variation_strength` is 0, it only relies on the influence of the seed, and if `variation_strength` is 1.0, it is solely influenced by `variation_seed`.\n      * These parameters are used when you want to maintain the composition of an image generated by the seed but wish to introduce slight changes.\n\n\n### Sampler nodes\n  * `KSampler Progress (Inspire)` - In KSampler, the sampling process generates latent batches. By using `Video Combine` node from [ComfyUI-VideoHelperSuite](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-VideoHelperSuite), you can create a video from the progress.\n  * `Scheduled CFGGuider (Inspire)` - This is a CFGGuider that adjusts the schedule from from_cfg to to_cfg using linear, log, and exp methods.\n  * `Scheduled PerpNeg CFGGuider (Inspire)` - This is a PerpNeg CFGGuider that adjusts the schedule from from_cfg to to_cfg using linear, log, and exp methods.\n\n\n### Prompt Support - These are nodes for supporting prompt processing.\n  * `Load Prompts From Dir (Inspire)`: It sequentially reads prompts files from the specified directory. The output it returns is ZIPPED_PROMPT.\n    * Specify the directories located under `ComfyUI-Inspire-Pack\u002Fprompts\u002F`\n    * One prompts file can have multiple prompts separated by `---`. \n    * e.g. `prompts\u002Fexample`\n    * **NOTE**: This node provides advanced option via `Show advanced`\n      * load_cap, start_index\n\n    * `Load Prompts From File (Inspire)`: It sequentially reads prompts from the specified file. The output it returns is ZIPPED_PROMPT.\n    * Specify the file located under `ComfyUI-Inspire-Pack\u002Fprompts\u002F`\n    * e.g. `prompts\u002Fexample\u002Fprompt2.txt`\n    * **NOTE**: This node provides advanced option via `Show advanced`\n      * load_cap, start_index\n\n  * `Load Single Prompt From File (Inspire)`: Loads a single prompt from a file containing multiple prompts by using an index.\n  * The prompts file directory can be specified as `inspire_prompts` in `extra_model_paths.yaml`\n  * `Unzip Prompt (Inspire)`: Separate ZIPPED_PROMPT into `positive`, `negative`, and name components. \n    * `positive` and `negative` represent text prompts, while `name` represents the name of the prompt. When loaded from a file using `Load Prompts From File (Inspire)`, the name corresponds to the file name.\n  * `Zip Prompt (Inspire)`: Create ZIPPED_PROMPT from positive, negative, and name_opt.\n    * If name_opt is omitted, it will be considered as an empty name.\n  * `Prompt Extractor (Inspire)`: This node reads prompt information from the image's metadata. Since it retrieves all the text, you need to directly specify the prompts to be used for `positive` and `negative` as indicated in the info.\n  * `Global Seed (Inspire)`: This is a node that controls the global seed without a separate connection line. It only controls when the widget's name is 'seed' or 'noise_seed'. Additionally, if 'control_before_generate' is checked, it controls the seed before executing the prompt.\n    * Seeds that have been converted into inputs are excluded from the target. If you want to control the seed separately, convert it into an input and control it separately.\n  * `Global Sampler (Inspire)`: This node is similar to GlobalSeed and can simultaneously set the sampler_name and scheduler for all nodes in the workflow.\n    * It applies only to nodes that have both sampler_name and scheduler, and it won't be effective if `GlobalSampler` is muted.\n    * If some of the `sampler_name` and `scheduler` have been converted to input and connected to Primitive node, it will not apply only to the converted widget. The widget that has not been converted to input will still be affected.\n  * `Bind [ImageList, PromptList] (Inspire)`: Bind Image list and zipped prompt list to export `image`, `positive`, `negative`, and `prompt_label` in a list format. If there are more prompts than images, the excess prompts are ignored, and if there are not enough, the remainder is filled with default input based on the images.\n  * `Wildcard Encode (Inspire)`: The combination node of [ImpactWildcardEncode](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fblob\u002FMain\u002FComfyUI-Impact-Pack\u002Ftutorial\u002FImpactWildcard.md) and BlenderNeko's [CLIP Text Encode (Advanced)](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb).\n    * To use this node, you need both the [Impact Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Impact-Pack) and the [Advanced CLIP Text Encode]((https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb)) extensions.\n    * This node is identical to `ImpactWildcardEncode`, but it encodes using `CLIP Text Encode (Advanced)` instead of the default CLIP Text Encode from ComfyUI for CLIP Text Encode.\n    * Requirement: Impact Pack V4.18.6 or above\n  * `Prompt Builder (Inspire)`: This node is a convenience node that allows you to easily assemble prompts by selecting categories and presets. To modify the presets, edit the `ComfyUI-InspirePack\u002Fresources\u002Fprompt-builder.yaml` file.\n  * `Seed Explorer (Inspire)`: This node helps explore seeds by allowing you to adjust the variation seed gradually in a prompt-like form.\n    * This feature is designed for utilizing a seed that you like, adding slight variations, and then further modifying from there when exploring.\n    * In the `seed_prompt`, the first seed is considered the initial seed, and the reflection rate is omitted, always defaulting to 1.0.\n    * Each prompt is separated by a comma, and from the second seed onwards, it should follow the format `seed:strength`.\n    * Pressing the \"Add to prompt\" button will append `additional_seed:additional_strength` to the prompt.\n  * `Composite Noise (Inspire)`: This node overwrites a specific area on top of the destination noise with the source noise.\n  * `Random Generator for List (Inspire)`: When connecting the list output to the signal input, this node generates random values for all items in the list.\n  * `Make Basic Pipe (Inspire)`: This is a node that creates a BASIC_PIPE using Wildcard Encode. The `Add select to` determines whether the selected item from the `Select to...` combo will be input as positive wildcard text or negative wildcard text.\n  * `Remove ControlNet (Inspire)`, `Remove ControlNet [RegionalPrompts] (Inspire)`: Remove ControlNet from CONDITIONING or REGIONAL_PROMPTS.\n    * `Remove ControlNet [RegionalPrompts] (Inspire)` requires Impact Pack V4.73.1 or above.\n\n### Regional Nodes - These node simplifies the application of prompts by region.\n  * Regional Sampler - These nodes assists in the easy utilization of the regional sampler in the `Impact Pack`.\n    * `Regional Prompt Simple (Inspire)`: This node takes `mask` and `basic_pipe` as inputs and simplifies the creation of `REGIONAL_PROMPTS`.\n    * `Regional Prompt By Color Mask (Inspire)`: Similar to `Regional Prompt Simple (Inspire)`, this function accepts a color mask image as input and defines the region using the color value that will be used as the mask, instead of directly receiving the mask.\n      * The color value can only be in the form of a hex code like #FFFF00 or a decimal number.\n  * Regional Conditioning - These nodes provides assistance for simplifying the use of `Conditioning (Set Mask)`.\n    * `Regional Conditioning Simple (Inspire)`\n    * `Regional Conditioning By Color Mask (Inspire)`\n  * Regional IPAdapter - These nodes facilitates the convenient use of the attn_mask feature in `ComfyUI IPAdapter Plus` custom nodes.\n    * To use this node, you need to install the [ComfyUI IPAdapter Plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) extension.\n    * `Regional IPAdapter Mask (Inspire)`, `Regional IPAdapter By Color Mask (Inspire)`\n    * `Regional IPAdapter Encoded Mask (Inspire)`, `Regional IPAdapter Encoded By Color Mask (Inspire)`: accept `embeds` instead of `image`\n  * Regional Seed Explorer - These nodes restrict the variation through a seed prompt, applying it only to the masked areas.\n    * `Regional Seed Explorer By Mask (Inspire)` \n    * `Regional Seed Explorer By Color Mask (Inspire)`\n  * `Regional CFG (Inspire)` - By applying a mask as a multiplier to the configured cfg, it allows different areas to have different cfg settings.\n  * `Color Mask To Depth Mask (Inspire)` - Convert the color map from the spec text into a mask with depth values ranging from 0.0 to 1.0.\n    * The range of the mask value is limited to 0.0 to 1.0.\n    * base_value: Sets the value of the base mask.\n    * dilation: Dilation applied to each mask layer before flattening.\n    * flatten_method: The method of flattening the mask layers.\n      * The layers are flattened including the base layer set by base_value.\n      * override: Each pixel is overwritten by the non-zero value of the upper layer.\n      * sum: Each pixel is flattened by summing the values of all layers.\n      * max: Each pixel is flattened by taking the maximum value from all layers.\n\n### Image Util\n  * `Load Image Batch From Dir (Inspire)`: This is almost same as `LoadImagesFromDirectory` of [ComfyUI-Advanced-Controlnet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet). This is just a modified version. Just note that this node forcibly normalizes the size of the loaded image to match the size of the first image, even if they are not the same size, to create a batch image.  \n  * `Load Image List From Dir (Inspire)`: This is almost same as `Load Image Batch From Dir (Inspire)`. However, note that this node loads data in a list format, not as a batch, so it returns images at their original size without normalizing the size.\n  * `Load Image (Inspire)`: This node is similar to LoadImage, but the loaded image information is stored in the workflow. The image itself is stored in the workflow, making it easier to reproduce image generation on other computers.\n  * `Change Image Batch Size (Inspire)`: Change Image Batch Size\n    * `simple`: if the `batch_size` is larger than the batch size of the input image, the last frame will be duplicated. If it is smaller, it will be simply cropped.\n  * `Change Latent Batch Size (Inspire)`: Change Latent Batch Size\n  * `ImageBatchSplitter \u002F\u002FInspire`, `LatentBatchSplitter \u002F\u002FInspire`: The script divides a batch of images\u002Flatents into individual images\u002Flatents, each with a quantity equal to the specified `split_count`. An additional output slot is added for each `split_count`. If the number of images\u002Flatents exceeds the `split_count`, the remaining ones are returned as the \"remained\" output.\n  * `Color Map To Masks (Inspire)`: From the color_map, it extracts the top max_count number of colors and creates masks. min_pixels represents the minimum number of pixels for each color.\n  * `Select Nth Mask (Inspire)`: Extracts the nth mask from the mask batch.\n\n### Backend Cache - Nodes for storing arbitrary data from the backend in a cache and sharing it across multiple workflows.\n  * `Cache Backend Data (Inspire)`: Stores any backend data in the cache using a string key. Tags are for quick reference.\n  * `Retrieve Backend Data (Inspire)`: Retrieves cached backend data using a string key.\n  * `Remove Backend Data (Inspire)`: Removes cached backend data. \n    * Deletion in this node only removes it from the cache managed by Inspire, and if it's still in use elsewhere, it won't be completely removed from memory.\n    * `signal_opt` is used to control the order of execution for this node; it will still run without a `signal_opt` input.\n    * When using '*' as the key, it clears all data.\n  * `Show Cached Info (Inspire)`: Displays information about cached data.\n    * Default tag cache size is 5. You can edit the default size of each tag in `cache_settings.json`.\n    * Runtime tag cache size can be modified on the `Show Cached Info (Inspire)` node. For example: `ckpt: 10`.\n  * `Cache Backend Data [NumberKey] (Inspire)`, `Retrieve Backend Data [NumberKey] (Inspire)`, `Remove Backend Data [NumberKey] (Inspire)`: These nodes are provided for convenience in the automation process, allowing the use of numbers as keys.\n  * `Cache Backend Data List (Inspire)`, `Cache Backend Data List [NumberKey] (Inspire)`: This node allows list input for backend cache. Conversely, nodes like `Cache Backend Data [NumberKey] (Inspire)` that do not accept list input will attempt to cache redundantly and overwrite existing data if provided with a list input. Therefore, it is necessary to use a unique key for each element to prevent this. This node caches the combined list. When retrieving cached backend data through this node, the output is in the form of a list.\n  * `Shared Checkpoint Loader (Inspire)`: When loading a checkpoint through this loader, it is automatically cached in the backend cache. Additionally, if it is already cached, it retrieves it from the cache instead of loading it anew.\n    * When `key_opt` is empty, the `ckpt_name` is set as the cache key. The cache key output can be used for deletion purposes with Remove Back End.\n    * This node resolves the issue of reloading checkpoints during workflow switching.\n  * `Shared Diffusion Model Loader (Inspire)`: Similar to the `Shared Checkpoint Loader (Inspire)` but used for loading Diffusion models instead of Checkpoints.\n  * `Shared Text Encoder Loader (Inspire)`: Similar to the `Shared Checkpoint Loader (Inspire)` but used for loading Text Encoder models instead of Checkpoints.\n    * This node also functions as a unified node for `CLIPLoader`, `DualCLIPLoader`, and `TripleCLIPLoader`. \n  * `Stable Cascade Checkpoint Loader (Inspire)`: This node provides a feature that allows you to load the `stage_b` and `stage_c` checkpoints of Stable Cascade at once, and it also provides a backend caching feature, optionally.\n  * `Is Cached (Inspire)`: Returns whether the cache exists.\n\n### Conditioning - Nodes for conditionings\n  * `Concat Conditionings with Multiplier (Inspire)`: Concatenating an arbitrary number of Conditionings while applying a multiplier for each Conditioning. The multiplier depends on `comfy_PoP`, so [comfy_PoP](https:\u002F\u002Fgithub.com\u002Fpicturesonpictures\u002Fcomfy_PoP) must be installed.\n  * `Conditioning Upscale (Inspire)`: When upscaling an image, it helps to expand the conditioning area according to the upscale factor. Taken from [ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode)\n  * `Conditioning Stretch (Inspire)`: When upscaling an image, it helps to expand the conditioning area by specifying the original resolution and the new resolution to be applied. Taken from [ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode)\n\n### Models - Nodes for models\n  * `IPAdapter Model Helper (Inspire)`: This provides presets that allow for easy loading of the IPAdapter related models. However, it is essential for the model's name to be accurate.\n    * You can download the appropriate model through ComfyUI-Manager.\n\n### List - Nodes for List processing\n  * `Float Range (Inspire)`: Create a float list that increases the value by `step` from `start` to `stop`. A list as large as the maximum limit is created, and when `ensure_end` is enabled, the last value of the list becomes the stop value.\n  * `Worklist To Item List (Inspire)`: The list in ComfyUI allows for repeated execution of a sub-workflow. This groups these repetitions (a.k.a. list) into a single ITEM_LIST output. ITEM_LIST can then be used in ForeachList.\n  * `▶Foreach List (Inspire)`: A starting node for performing iterative tasks by retrieving items one by one from the ITEM_LIST.\\nGenerate a new intermediate_output using item and intermediate_output as inputs, then connect it to ForeachListEnd.\\nNOTE:If initial_input is omitted, the first item in item_list is used as the initial value, and the processing starts from the second item in item_list.\n  * `Foreach List◀ (Inspire)`: An end node for performing iterative tasks by retrieving items one by one from the ITEM_LIST.\\nNOTE:Directly connect the outputs of ForeachListBegin to 'flow_control' and 'remained_list'.\n  * `Drop List (Inspire)`: Removes all items from the ITEM_LIST. If the ITEM_LIST generated through this node is passed to ForeachListEnd, the process is immediately terminated.\n\n### Util - Utilities\n  * `ToIPAdapterPipe (Inspire)`, `FromIPAdapterPipe (Inspire)`: These nodes assists in conveniently using the bundled ipadapter_model, clip_vision, and model required for applying IPAdapter.\n  * `List Counter (Inspire)`: When each item in the list traverses through this node, it increments a counter by one, generating an integer value.\n  * `RGB Hex To HSV (Inspire)`: Convert an RGB hex string like `#FFD500` to HSV:\n   \n## Credits\n\nComfyUI\u002F[ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) - A powerful and modular stable diffusion GUI.\n\nComfyUI\u002F[sd-webui-lora-block-weight](https:\u002F\u002Fgithub.com\u002Fhako-mikan\u002Fsd-webui-lora-block-weight) - The original idea for LoraBlockWeight came from here, and it is based on the syntax of this extension.\n\njags111\u002F[efficiency-nodes-comfyui](https:\u002F\u002Fgithub.com\u002Fjags111\u002FComfyUI-Jags-workflows) - The `XY Input` provided by the Inspire Pack supports the `XY Plot` of this node.\n\nFannovel16\u002F[comfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux) - The wrapper for the controlnet preprocessor in the Inspire Pack depends on these nodes.\n\nKosinkadink\u002F[ComfyUI-Advanced-Controlnet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) - `Load Images From Dir (Inspire)` code is came from here. \n\nTrung0246\u002F[ComfyUI-0246](https:\u002F\u002Fgithub.com\u002FTrung0246\u002FComfyUI-0246) - Nice bypass hack!\n\ncubiq\u002F[ComfyUI_IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) - IPAdapter related nodes depend on this extension.\n\nDavemane42\u002F[ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode) - Original author of ConditioningStretch, ConditioningUpscale\n\nBlenderNeko\u002F[ComfyUI_Noise](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_Noise) - slerp code for noise variation\n\nBadCafeCode\u002F[execution-inversion-demo-comfyui](https:\u002F\u002Fgithub.com\u002FBadCafeCode\u002Fexecution-inversion-demo-comfyui) - reference loop implementation for ComfyUI\n","# ComfyUI-Inspire-Pack\n此仓库为 ComfyUI 提供了多种扩展节点。这里的节点与 ComfyUI Impact Pack 中的节点相比，具有不同的特性。目前 Impact Pack 已经变得过于庞大……\n\n## 注意事项：\n* V1.18：若要使用 ‘OSS’ 调度器，请将 ComfyUI 更新至 0.3.28 或更高版本（4月13日或之后），并确保 Impact Pack 版本为 V8.11 或更高。\n* V1.9.1 为了避免与核心中的 `NOISE` 类型混淆，已将类型名称更改为 `NOISE_IMAGE`。\n* V0.73 Regional Prompt 节点新增了 Variation Seed 功能，该功能仅兼容 Impact Pack V5.10 及以上版本。\n* V0.69 不再兼容过时的 **ComfyUI IPAdapter Plus**。（需使用3月24日或之后发布的版本。）\n* V0.64 在 RegionalPrompt… 节点中添加了 sigma_factor 参数，要求 Impact Pack 版本不低于 V4.76。\n* V0.62 支持在 Regional IPAdapter 中使用 faceid。\n* V0.48 优化了通配符节点。此更新需要 Impact Pack V4.39.2 或更高版本。\n* V0.13.2 不兼容旧版 ControlNet 辅助预处理器。若要使用 `MediaPipeFaceMeshDetectorProvider`，请更新至最新版本（9月17日）。\n* 警告：如果您使用的是 **0.12 至 0.12.2** 版本且未使用 GlobalSeed 节点，您的工作流种子可能会被清除。请立即更新。\n\n## 节点\n### Lora 块权重 - 这是一个提供 Lora 块权重相关功能的节点。\n  * 此节点的功能类似于 [sd-webui-lora-block-weight](https:\u002F\u002Fgithub.com\u002Fhako-mikan\u002Fsd-webui-lora-block-weight)。\n  * `LoRA 加载器（块权重）`：加载 LoRA 时，会应用块权重向量。\n      * 在块向量中，可以使用数字、R、A、a、B 和 b。\n      * R 是根据随机种子按顺序确定的，而 A 和 B 分别代表 A 和 B 参数的值。a 和 b 则分别是 A 和 B 的一半。\n  * `XY 输入：LoRA 块权重`：这是 [Efficiency Nodes](https:\u002F\u002Fgithub.com\u002FLucianoCirino\u002Fefficiency-nodes-comfyui) XY Plot 中的一个节点，允许您使用 LoRA 块权重。\n      * 必须确保 X 和 Y 连接正确，并将依赖项连接到 XY Plot。\n      * 注意：要使用此功能，需将 `Efficient Nodes` 更新至9月3日之后发布的版本。\n  * 生成 LoRA 块权重：不直接将 LoRA 块权重应用于 MODEL，而是以单独的 LBW_MODEL 形式生成。\n  * 应用 LoRA 块权重：将 LBW_MODEL 应用于 MODEL 和 CLIP。\n  * 保存 LoRA 块权重：将 LBW_MODEL 保存为 .lbw.safetensors 文件。\n  * 加载 LoRA 块权重：从 .lbw.safetensors 文件加载 LBW_MODEL。\n\n\n### SEGS 支持节点 - 这是支持 Impact Pack 中 ApplyControlNet (SEGS) 的节点。\n  * `OpenPose 预处理器提供商（SEGS）`：为在 SEGS 中使用 OpenPose ControlNet，应用 OpenPose 预处理器。\n      * 使用此功能需要安装 [ControlNet 辅助预处理器](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux)。\n  * `Canny 预处理器提供商（SEGS）`：为在 SEGS 中使用 Canny ControlNet，应用 Canny 预处理器。\n  * `DW 预处理器提供商（SEGS）`、`MiDaS 深度图预处理器提供商（SEGS）`、`LeReS 深度图预处理器提供商（SEGS）`、\n    `MediaPipe 面部网格预处理器提供商（SEGS）`、`HED 预处理器提供商（SEGS）`、`假涂鸦预处理器（SEGS）`、\n    `动漫线稿预处理器提供商（SEGS）`、`漫画转动漫线稿预处理器提供商（SEGS）`、`线稿预处理器提供商（SEGS）`、\n    `颜色预处理器提供商（SEGS）`、`修复预处理器提供商（SEGS）`、`平铺预处理器提供商（SEGS）`、`MeshGraphormer 深度图预处理器提供商（SEGS）`\n  * `MediaPipeFaceMeshDetectorProvider`：此节点提供可用于 Impact Pack 检测器的 `BBOX_DETECTOR` 和 `SEGM_DETECTOR`，它们使用 ControlNet 辅助预处理器中的 `MediaPipe-FaceMesh 预处理器`。\n\n\n### A1111 兼容性支持 - 这些节点有助于在 ComfyUI 中精确复现 A1111 的生成效果。\n  * `KSampler (Inspire)`：ComfyUI 使用 CPU 生成随机噪声，而 A1111 使用 GPU。影响在 ComfyUI 中复现 A1111 结果的三个重要因素之一，可以通过 `KSampler (Inspire)` 来解决。\n      * 其他要点 #1：请确保在提示词中使用的嵌入没有遗漏 ‘embedding:’，例如 ‘embedding:easynegative.’。\n      * 其他要点 #2：ComfyUI 和 A1111 对权重的解释不同。为了使两者一致，需要使用 [BlenderNeko\u002FAdvanced CLIP Text Encode](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb)。\n  * `KSamplerAdvanced (Inspire)`：Inspire Pack 版本的 `KSampler (Advanced)`。\n  * `RandomNoise (inspire)`：Inspire Pack 版本的 `RandomNoise`。\n  * 共同参数\n    * `batch_seed_mode` 决定如何将种子应用于批量潜变量：\n      * `comfy`：此方法会一次性将噪声应用于所有批量潜变量。这有利于防止在生成图像时因种子重复而导致重复图像的出现。\n      * `incremental`：类似于 A1111 的情况，此方法会逐步增加种子，并依次为每个批次应用噪声。这种方法有利于仅通过种子实现直观的复现。\n      * `variation_strength`：在每个批次中，变化强度从设定的 `variation_strength` 开始，每次增加 `xxx`。\n    * `variation_seed` 和 `variation_strength`：由种子生成的初始噪声会通过 `variation_strength` 转化为 `variation_seed` 的形状。如果 `variation_strength` 为 0，则完全依赖于种子的影响；若为 1.0，则完全受 `variation_seed` 的影响。\n      * 这些参数适用于希望保持由种子生成的图像构图，同时引入轻微变化的情况。\n\n\n### 采样器节点\n  * `KSampler 进度（Inspire）`：在 KSampler 中，采样过程会生成潜变量批次。通过使用来自 [ComfyUI-VideoHelperSuite](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-VideoHelperSuite) 的 `Video Combine` 节点，可以将进度制作成视频。\n  * `Scheduled CFGGuider (Inspire)`：这是一个使用线性、对数和指数方法调整 from_cfg 到 to_cfg 调度的 CFGGuider。\n  * `Scheduled PerpNeg CFGGuider (Inspire)`：这是一个使用线性、对数和指数方法调整 from_cfg 到 to_cfg 调度的 PerpNeg CFGGuider。\n\n### 提示支持 - 这些节点用于支持提示处理。\n  * `从目录加载提示 (Inspire)`: 它会按顺序从指定目录中读取提示文件。输出为 ZIPPED_PROMPT。\n    * 指定位于 `ComfyUI-Inspire-Pack\u002Fprompts\u002F` 下的目录\n    * 一个提示文件可以包含多个提示，用 `---` 分隔。\n    * 示例：`prompts\u002Fexample`\n    * **注意**: 此节点通过 `显示高级` 提供高级选项\n      * load_cap, start_index\n\n    * `从文件加载提示 (Inspire)`: 它会按顺序从指定文件中读取提示。输出为 ZIPPED_PROMPT。\n    * 指定位于 `ComfyUI-Inspire-Pack\u002Fprompts\u002F` 下的文件\n    * 示例：`prompts\u002Fexample\u002Fprompt2.txt`\n    * **注意**: 此节点通过 `显示高级` 提供高级选项\n      * load_cap, start_index\n\n  * `从文件加载单个提示 (Inspire)`: 通过索引从包含多个提示的文件中加载单个提示。\n  * 提示文件目录可以在 `extra_model_paths.yaml` 中指定为 `inspire_prompts`\n  * `解压提示 (Inspire)`: 将 ZIPPED_PROMPT 分离为 `positive`、`negative` 和名称组件。\n    * `positive` 和 `negative` 表示文本提示，而 `name` 表示提示的名称。当使用 `从文件加载提示 (Inspire)` 从文件加载时，名称对应于文件名。\n  * `压缩提示 (Inspire)`: 由 positive、negative 和 name_opt 创建 ZIPPED_PROMPT。\n    * 如果省略 name_opt，则视为空名称。\n  * `提示提取器 (Inspire)`: 此节点从图像的元数据中读取提示信息。由于它会提取所有文本，因此需要根据信息直接指定用于 `positive` 和 `negative` 的提示。\n  * `全局种子 (Inspire)`: 这是一个无需单独连接线即可控制全局种子的节点。它仅在小部件名称为 'seed' 或 'noise_seed' 时起作用。此外，如果勾选了 'control_before_generate'，则会在执行提示之前控制种子。\n    * 已转换为输入的种子不在此范围内。若需单独控制种子，请将其转换为输入并单独控制。\n  * `全局采样器 (Inspire)`: 此节点类似于 GlobalSeed，可同时为工作流中的所有节点设置 sampler_name 和 scheduler。\n    * 它仅适用于同时具有 sampler_name 和 scheduler 的节点，如果 `GlobalSampler` 被静音，则无效。\n    * 如果部分 `sampler_name` 和 `scheduler` 已转换为输入并连接到 Primitive 节点，则仅对已转换的小部件无效。未转换为输入的小部件仍会受到影响。\n  * `绑定 [ImageList, PromptList] (Inspire)`: 将图像列表和压缩提示列表绑定，以列表形式导出 `image`、`positive`、`negative` 和 `prompt_label`。如果提示数量多于图像数量，则忽略多余的提示；如果提示不足，则根据图像数量用默认输入填充剩余部分。\n  * `通配符编码 (Inspire)`: 是 [ImpactWildcardEncode](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fblob\u002FMain\u002FComfyUI-Impact-Pack\u002Ftutorial\u002FImpactWildcard.md) 与 BlenderNeko 的 [CLIP 文本编码（高级）](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb) 的组合节点。\n    * 使用此节点需要同时安装 [Impact Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Impact-Pack) 和 [高级 CLIP 文本编码]((https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb)) 扩展。\n    * 此节点与 `ImpactWildcardEncode` 相同，但使用的是 ComfyUI 默认 CLIP 文本编码之外的 `CLIP 文本编码（高级）` 进行编码。\n    * 要求：Impact Pack V4.18.6 或更高版本\n  * `提示构建器 (Inspire)`: 此节点是一个便捷节点，允许您通过选择类别和预设轻松组装提示。要修改预设，请编辑 `ComfyUI-InspirePack\u002Fresources\u002Fprompt-builder.yaml` 文件。\n  * `种子探索器 (Inspire)`: 此节点通过类似提示的形式逐步调整变异种子，帮助探索种子。\n    * 该功能旨在让您找到喜欢的种子后，在此基础上进行微小变化，并进一步调整。\n    * 在 `seed_prompt` 中，第一个种子被视为初始种子，反射率被忽略，默认始终为 1.0。\n    * 每个提示之间用逗号分隔，从第二个种子开始，应采用 `seed:strength` 格式。\n    * 点击“添加到提示”按钮会将 `additional_seed:additional_strength` 追加到提示中。\n  * `复合噪声 (Inspire)`: 此节点会将源噪声覆盖到目标噪声的特定区域之上。\n  * `列表随机生成器 (Inspire)`: 当将列表输出连接到信号输入时，此节点会为列表中的所有项目生成随机值。\n  * `制作基础管道 (Inspire)`: 这是一个使用通配符编码创建 BASIC_PIPE 的节点。`Add select to` 决定从 `Select to...` 组合框中选择的项是作为正面通配符文本还是负面通配符文本输入。\n  * `移除 ControlNet (Inspire)`、`移除 ControlNet [RegionalPrompts] (Inspire)`: 从 CONDITIONING 或 REGIONAL_PROMPTS 中移除 ControlNet。\n    * `移除 ControlNet [RegionalPrompts] (Inspire)` 需要 Impact Pack V4.73.1 或更高版本。\n\n### 区域节点 - 这些节点简化了按区域应用提示词的操作。\n  * 区域采样器 - 这些节点有助于在 `Impact Pack` 中轻松使用区域采样器。\n    * `区域提示简单版 (Inspire)`: 此节点以 `mask` 和 `basic_pipe` 作为输入，简化了 `REGIONAL_PROMPTS` 的创建。\n    * `按颜色掩码的区域提示 (Inspire)`: 与 `区域提示简单版 (Inspire)` 类似，此功能接受一张颜色掩码图像作为输入，并通过颜色值来定义区域，该颜色值将用作掩码，而不是直接接收掩码。\n      * 颜色值只能是十六进制代码（如 #FFFF00）或十进制数字的形式。\n  * 区域条件化 - 这些节点帮助简化 `Conditioning (Set Mask)` 的使用。\n    * `区域条件化简单版 (Inspire)`\n    * `按颜色掩码的区域条件化 (Inspire)`\n  * 区域 IPAdapter - 这些节点便于在 `ComfyUI IPAdapter Plus` 自定义节点中使用 attn_mask 功能。\n    * 要使用此节点，您需要安装 [ComfyUI IPAdapter Plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) 扩展。\n    * `区域IPAdapter掩码版 (Inspire)`、`按颜色掩码的区域IPAdapter版 (Inspire)`\n    * `区域IPAdapter编码掩码版 (Inspire)`、`按颜色掩码的区域IPAdapter编码版 (Inspire)`: 接受 `embeds` 而不是 `image`\n  * 区域种子探索器 - 这些节点通过种子提示限制变化范围，仅将其应用于被掩码覆盖的区域。\n    * `按掩码的区域种子探索器 (Inspire)`\n    * `按颜色掩码的区域种子探索器 (Inspire)`\n  * `区域CFG (Inspire)` - 通过将掩码作为乘数应用于配置的 CFG，允许不同区域拥有不同的 CFG 设置。\n  * `颜色掩码转深度掩码 (Inspire)` - 将规格文本中的颜色图转换为深度值介于 0.0 至 1.0 之间的掩码。\n    * 掩码值的范围限定在 0.0 至 1.0。\n    * base_value: 设置基础掩码的值。\n    * dilation: 在扁平化之前对每一层掩码进行膨胀处理。\n    * flatten_method: 扁平化掩码层的方法。\n      * 包括由 base_value 设置的基础层在内的各层都会被扁平化。\n      * override: 每个像素都会被上一层的非零值覆盖。\n      * sum: 每个像素通过叠加所有层的值来进行扁平化。\n      * max: 每个像素取所有层中的最大值进行扁平化。\n\n### 图像工具\n  * `从目录批量加载图像 (Inspire)`: 这几乎与 [ComfyUI-Advanced-Controlnet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) 的 `LoadImagesFromDirectory` 相同。这只是经过修改的版本。需要注意的是，即使输入图像尺寸不一致，此节点也会强制将加载的图像尺寸归一化为与第一张图像相同的大小，从而生成一批图像。\n  * `从目录加载图像列表 (Inspire)`: 这几乎与 `从目录批量加载图像 (Inspire)` 相同。然而，需要注意的是，此节点以列表形式加载数据，而非批量加载，因此会以原始尺寸返回图像，不会进行尺寸归一化。\n  * `加载图像 (Inspire)`: 此节点类似于 LoadImage，但加载的图像信息会被存储在工作流中。图像本身会保存在工作流中，从而更方便在其他计算机上重现图像生成过程。\n  * `更改图像批次大小 (Inspire)`: 更改图像批次大小\n    * `simple`: 如果 `batch_size` 大于输入图像的批次大小，则会复制最后一帧；如果小于，则会简单地进行裁剪。\n  * `更改潜在变量批次大小 (Inspire)`: 更改潜在变量批次大小\n  * `图像批次拆分器 \u002F\u002FInspire`、`潜在变量批次拆分器 \u002F\u002FInspire`: 该脚本会将一批图像\u002F潜在变量拆分为多个单独的图像\u002F潜在变量，每个数量等于指定的 `split_count`。每增加一个 `split_count`，就会多出一个输出槽。如果图像\u002F潜在变量的数量超过 `split_count`，剩余的部分将以“remained”输出返回。\n  * `颜色图转掩码 (Inspire)`: 根据 color_map 提取前 max_count 种颜色并创建掩码。min_pixels 表示每种颜色的最小像素数。\n  * `选择第 N 个掩码 (Inspire)`: 从掩码批次中提取第 N 个掩码。\n\n### 后端缓存 - 用于将后端的任意数据存储在缓存中，并在多个工作流之间共享的节点。\n  * `缓存后端数据 (Inspire)`: 使用字符串键将任何后端数据存储到缓存中。标签用于快速引用。\n  * `获取后端数据 (Inspire)`: 使用字符串键从缓存中检索后端数据。\n  * `移除后端数据 (Inspire)`: 移除缓存中的后端数据。\n    * 此节点中的删除操作仅将其从 Inspire 管理的缓存中移除，如果该数据仍在其他地方被使用，则不会完全从内存中清除。\n    * `signal_opt` 用于控制此节点的执行顺序；即使没有 `signal_opt` 输入，它仍然会运行。\n    * 当使用 `*` 作为键时，会清空所有数据。\n  * `显示缓存信息 (Inspire)`: 显示缓存数据的相关信息。\n    * 默认标签缓存大小为 5。您可以在 `cache_settings.json` 中编辑每个标签的默认大小。\n    * 运行时标签缓存大小可以在 `显示缓存信息 (Inspire)` 节点上修改。例如：`ckpt: 10`。\n  * `缓存后端数据 [数字键] (Inspire)`、`获取后端数据 [数字键] (Inspire)`、`移除后端数据 [数字键] (Inspire)`: 这些节点为自动化流程提供便利，允许使用数字作为键。\n  * `缓存后端数据列表 (Inspire)`、`缓存后端数据列表 [数字键] (Inspire)`: 此节点允许输入列表形式的后端缓存数据。相反，像 `缓存后端数据 [数字键] (Inspire)` 这样的节点如果不接受列表输入，一旦接收到列表输入，就会尝试重复缓存并覆盖现有数据。因此，为了避免这种情况，必须为每个元素使用唯一的键。此节点会将整个列表一起缓存。通过此节点检索后端数据时，输出将以列表形式呈现。\n  * `共享检查点加载器 (Inspire)`: 通过此加载器加载检查点时，它会自动缓存在后端缓存中。此外，如果该检查点已缓存，则会直接从缓存中获取，而无需重新加载。\n    * 当 `key_opt` 为空时，`ckpt_name` 将被设置为缓存键。缓存键输出可用于与“移除后端”节点配合进行删除操作。\n    * 该节点解决了在工作流切换过程中重复加载检查点的问题。\n  * `共享扩散模型加载器 (Inspire)`: 类似于“共享检查点加载器 (Inspire)”，但用于加载扩散模型而非检查点。\n  * `共享文本编码器加载器 (Inspire)`: 类似于“共享检查点加载器 (Inspire)”，但用于加载文本编码器模型而非检查点。\n    * 此节点同时充当 `CLIPLoader`、`DualCLIPLoader` 和 `TripleCLIPLoader` 的统一节点。\n  * `Stable Cascade 检查点加载器 (Inspire)`: 此节点提供了一次性加载 Stable Cascade 的 `stage_b` 和 `stage_c` 检查点的功能，并可选地提供后端缓存功能。\n  * `是否已缓存 (Inspire)`: 返回缓存是否存在。\n\n### 条件处理 - 用于条件处理的节点\n  * `带倍数的条件拼接 (Inspire)`: 将任意数量的条件拼接在一起，同时为每个条件应用一个倍数。倍数依赖于 `comfy_PoP`，因此必须安装 [comfy_PoP](https:\u002F\u002Fgithub.com\u002Fpicturesonpictures\u002Fcomfy_PoP)。\n  * `条件放大 (Inspire)`: 在图像放大时，根据放大倍数扩展条件区域。源自 [ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode)。\n  * `条件拉伸 (Inspire)`: 在图像放大时，通过指定原始分辨率和目标新分辨率来扩展条件区域。源自 [ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode)。\n\n### 模型 - 用于模型的节点\n  * `IPAdapter 模型助手 (Inspire)`: 提供预设，方便加载 IPAdapter 相关模型。但模型名称必须准确。\n    * 您可以通过 ComfyUI-Manager 下载合适的模型。\n\n### 列表 - 用于列表处理的节点\n  * `浮点范围 (Inspire)`: 创建一个从 `start` 到 `stop`、每次增加 `step` 值的浮点列表。会生成一个接近最大限制的列表；当启用 `ensure_end` 时，列表的最后一个值将等于停止值。\n  * `工作列表转项目列表 (Inspire)`: ComfyUI 中的列表可以重复执行子工作流。此节点将这些重复（即列表）分组为一个单独的 ITEM_LIST 输出。ITEM_LIST 随后可用于 ForeachList。\n  * `▶Foreach List (Inspire)`: 从 ITEM_LIST 中逐项提取项目以执行迭代任务的起始节点。\\n使用项目和中间输出作为输入生成新的中间_output，然后将其连接到 ForeachListEnd。\\n注意：如果省略 initial_input，item_list 中的第一个项目将作为初始值，处理将从 item_list 的第二个项目开始。\n  * `Foreach List◀ (Inspire)`: 从 ITEM_LIST 中逐项提取项目以执行迭代任务的结束节点。\\n注意：直接将 ForeachListBegin 的输出连接到 'flow_control' 和 'remained_list'。\n  * `丢弃列表 (Inspire)`: 从 ITEM_LIST 中移除所有项目。如果通过此节点生成的 ITEM_LIST 被传递给 ForeachListEnd，处理将立即终止。\n\n### 工具 - 实用工具\n  * `转 IPAdapter 管道 (Inspire)`、`从 IPAdapter 管道 (Inspire)`: 这些节点有助于方便地使用捆绑的 ipadapter_model、clip_vision 以及应用 IPAdapter 所需的模型。\n  * `列表计数器 (Inspire)`: 当列表中的每个项目经过此节点时，计数器会递增 1，生成一个整数值。\n  * `RGB 十六进制转 HSV (Inspire)`: 将类似 `#FFD500` 的 RGB 十六进制字符串转换为 HSV：\n\n## 致谢\n\nComfyUI\u002F[ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) - 一个功能强大且模块化的稳定扩散图形界面。\n\nComfyUI\u002F[sd-webui-lora-block-weight](https:\u002F\u002Fgithub.com\u002Fhako-mikan\u002Fsd-webui-lora-block-weight) - LoraBlockWeight 的最初灵感来源于此，并且其语法也基于该扩展。\n\njags111\u002F[efficiency-nodes-comfyui](https:\u002F\u002Fgithub.com\u002Fjags111\u002FComfyUI-Jags-workflows) - Inspire Pack 提供的 `XY Input` 支持该节点的 `XY Plot` 功能。\n\nFannovel16\u002F[comfyui_controlnet_aux](https:\u002F\u002Fgithub.com\u002FFannovel16\u002Fcomfyui_controlnet_aux) - Inspire Pack 中的 ControlNet 预处理程序封装依赖于这些节点。\n\nKosinkadink\u002F[ComfyUI-Advanced-Controlnet](https:\u002F\u002Fgithub.com\u002FKosinkadink\u002FComfyUI-Advanced-ControlNet) - `从目录加载图片 (Inspire)` 的代码源自此处。\n\nTrung0246\u002F[ComfyUI-0246](https:\u002F\u002Fgithub.com\u002FTrung0246\u002FComfyUI-0246) - 精妙的绕过技巧！\n\ncubiq\u002F[ComfyUI_IPAdapter_plus](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus) - IPAdapter 相关节点依赖于该扩展。\n\nDavemane42\u002F[ComfyUI_Dave_CustomNode](https:\u002F\u002Fgithub.com\u002FDavemane42\u002FComfyUI_Dave_CustomNode) - ConditioningStretch 和 ConditioningUpscale 的原作者。\n\nBlenderNeko\u002F[ComfyUI_Noise](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_Noise) - 用于噪声变化的 slerp 代码。\n\nBadCafeCode\u002F[execution-inversion-demo-comfyui](https:\u002F\u002Fgithub.com\u002FBadCafeCode\u002Fexecution-inversion-demo-comfyui) - ComfyUI 的参考循环实现。","# ComfyUI-Inspire-Pack 快速上手指南\n\nComfyUI-Inspire-Pack 是 ComfyUI 的一款功能扩展插件，提供了与 Impact Pack 互补的节点，专注于 LoRA 块权重控制、A1111 工作流复现、区域提示词（Regional Prompt）处理以及高级种子管理等功能。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统和依赖要求：\n\n*   **操作系统**: Windows, Linux, macOS\n*   **核心依赖**:\n    *   **ComfyUI**: 建议更新至最新版本（部分功能如 'OSS' Scheduler 需要 v0.3.28+）。\n    *   **ComfyUI-Impact-Pack**: 必须安装。根据使用的具体节点，版本要求不同（建议更新至 **v8.11+** 以获得最佳兼容性）。\n    *   **ComfyUI ControlNet Auxiliary Preprocessors**: 若使用 SEGS 相关的预处理节点（如 OpenPose, Canny 等），必须安装此插件。\n    *   **Advanced CLIP Text Encode** (可选): 若需完美复现 A1111 的权重解析或使用 `Wildcard Encode` 节点，建议安装 [BlenderNeko\u002FComfyUI_ADV_CLIP_emb](https:\u002F\u002Fgithub.com\u002FBlenderNeko\u002FComfyUI_ADV_CLIP_emb)。\n    *   **Efficiency Nodes** (可选): 若使用 `XY Input: LoRA Block Weight`，需安装并更新至 9 月 3 日之后的版本。\n\n> **注意**：本插件部分节点对依赖包版本敏感，如遇报错，请优先检查 Impact Pack 是否为最新版。\n\n## 安装步骤\n\n推荐使用 **ComfyUI Manager** 进行安装，这是最简便且能自动处理依赖的方式。\n\n### 方法一：通过 ComfyUI Manager 安装（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **\"Manager\"** 按钮。\n2.  选择 **\"Install Custom Nodes\"**。\n3.  在搜索框中输入 `Inspire`。\n4.  找到 **`ComfyUI-Inspire-Pack`** (作者通常为 `cubiq` 或相关维护者)，点击 **\"Install\"**。\n5.  安装完成后，**重启 ComfyUI** 以加载新节点。\n\n### 方法二：手动 Git 安装\n\n如果无法使用 Manager，可在终端执行以下命令：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI-Inspire-Pack.git\n```\n\n*国内用户若下载缓慢，可尝试使用镜像源（如有可用）或在克隆后手动安装 Python 依赖：*\n\n```bash\ncd ComfyUI-Inspire-Pack\npip install -r requirements.txt\n```\n\n*安装完毕后务必重启 ComfyUI。*\n\n## 基本使用\n\n安装重启后，您可以在节点搜索栏中输入 `Inspire` 找到相关节点。以下是三个最核心的使用场景：\n\n### 1. 精确复现 A1111 生成结果 (KSampler Inspire)\n\nStable Diffusion WebUI (A1111) 与原生 ComfyUI 在噪声生成机制上存在差异。若要完全复现 A1111 的出图效果：\n\n*   **节点**: `KSampler (Inspire)`\n*   **用法**: 替换工作流中原生的 `KSampler`。\n*   **关键设置**:\n    *   确保 Prompt 中的 Embedding 格式正确（例如使用 `embedding:easynegative` 而非仅文件名）。\n    *   配合 `Advanced CLIP Text Encode` 节点处理提示词权重，以对齐两者的权重解析逻辑。\n    *   调整 `batch_seed_mode`:\n        *   `comfy`: 批量一次性生成噪声（避免种子重复导致的图像重复）。\n        *   `incremental`: 类似 A1111，每个批次种子递增（便于通过种子复现）。\n\n### 2. 使用 LoRA 块权重 (LoRA Block Weight)\n\n该功能允许您对 LoRA 模型的不同层（Block）应用不同的权重，实现更精细的控制。\n\n*   **核心节点**: `LoRA Loader (Block Weight)`\n*   **用法**:\n    1.  加载此节点代替普通 LoRA 加载器。\n    2.  在 `block_vector` 输入字符串，支持数字、`R` (随机), `A`\u002F`a` (参数值), `B`\u002F`b` (半参数值)。\n    3.  例如：输入 `1.0, R, 0.8` 将对不同层应用不同策略。\n*   **进阶**: 使用 `Make LoRA Block Weight` 和 `Save LoRA Block Weight` 可将配置保存为 `.lbw.safetensors` 文件供后续直接加载。\n\n### 3. 全局种子与采样器控制 (Global Seed\u002FSampler)\n\n无需连线即可统一管理整个工作流的种子和采样器设置，非常适合批量测试。\n\n*   **节点**: `Global Seed (Inspire)` 和 `Global Sampler (Inspire)`\n*   **用法**:\n    1.  将节点放置在画布任意位置（无需连接线缆）。\n    2.  **Global Seed**: 设置一个全局种子，它会自动接管所有名为 `seed` 或 `noise_seed` 的控件。勾选 `control_before_generate` 可在生成前强制更新种子。\n    3.  **Global Sampler**: 统一设置所有节点的 `sampler_name` 和 `scheduler`。\n    4.  **例外**: 如果某个节点的参数已被转换为输入（Input）并连接了其他节点，则全局设置对该特定参数不生效。\n\n### 4. 区域提示词与通配符 (Regional & Wildcard)\n\n*   **区域提示词**: 使用 `Regional Prompt` 系列节点（需配合新版 Impact Pack），可在图像不同区域应用不同的提示词和控制网。\n*   **通配符增强**: 使用 `Wildcard Encode (Inspire)` 节点，结合了 Impact Pack 的通配符功能和 Advanced CLIP 的权重解析，支持在通配符中使用 `(word:1.2)` 等权重语法。\n\n---\n*提示：首次使用时，建议在 `ComfyUI-Inspire-Pack\u002Fprompts\u002F` 目录下放置测试用的提示词文件，以便体验 `Load Prompts From Dir` 等批量处理功能。*","一位角色设计师需要在 ComfyUI 中为游戏角色生成多套服装变体，同时精确控制不同部位的细节风格。\n\n### 没有 ComfyUI-Inspire-Pack 时\n- 调整 LoRA 对模型各层的影响力度极其困难，只能整体开关，无法实现“上半身强风格化、下半身保留原貌”的精细控制。\n- 想要对人物面部、手部或特定衣物区域单独应用 ControlNet（如 OpenPose 或深度图），必须手动切割蒙版并搭建复杂的节点组，流程繁琐且易出错。\n- 从 WebUI A1111 迁移工作流时，因参数逻辑差异导致生成结果不一致，需要反复试错才能还原预期效果。\n- 缺乏便捷的种子变异功能，在区域性提示词（Regional Prompt）中难以快速生成同一构图下的细微表情或姿态变化。\n\n### 使用 ComfyUI-Inspire-Pack 后\n- 利用 `LoRA Loader (Block Weight)` 节点，通过简单的字符代码（如 R, A, B）即可动态调整 LoRA 在不同网络层的权重，轻松实现局部风格融合。\n- 直接调用 `OpenPose Preprocessor Provider (SEGS)` 等专用节点，无需手动分割，即可让 ControlNet 自动识别并仅作用于检测到的特定人体分段（SEGS）。\n- 借助 A1111 兼容性支持节点，完美复刻 WebUI 的生成逻辑，确保跨平台工作流的效果高度一致，大幅降低迁移成本。\n- 在区域性提示词中启用\"Variation Seed\"功能，一键固定构图的同时，快速批量产出表情和微动作丰富的角色变体图。\n\nComfyUI-Inspire-Pack 通过提供细粒度的控制权与自动化分段处理能力，将原本需要数小时调试的复杂局部控制工作流缩短至分钟级。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-Inspire-Pack_17e34e73.png","ltdrdata","Dr.Lt.Data","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fltdrdata_ac2c4d3d.jpg",null,"@Comfy-Org","https:\u002F\u002Fgithub.com\u002Fltdrdata",[79,83],{"name":80,"color":81,"percentage":82},"Python","#3572A5",89,{"name":84,"color":85,"percentage":86},"JavaScript","#f1e05a",11,778,88,"2026-04-16T11:27:04","GPL-3.0","未说明","未说明 (作为 ComfyUI 插件，依赖宿主环境的 GPU 配置)",{"notes":94,"python":91,"dependencies":95},"本工具是 ComfyUI 的扩展包，并非独立运行程序，因此其环境需求完全取决于主程序 ComfyUI 及其核心依赖（如 PyTorch）。关键要求包括：1. 必须安装 ComfyUI-Impact-Pack 且版本需高于 V8.11（若使用 OSS Scheduler）；2. 部分功能依赖其他特定插件（如 ControlNet Auxiliary Preprocessors, Efficiency Nodes 等），需确保这些插件已更新到指定日期或版本之后；3. 警告：版本 0.12 至 0.12.2 存在种子丢失风险，请立即更新；4. 若要完美复现 A1111 的效果，建议配合安装 Advanced CLIP Text Encode 插件。",[96,97,98,99,100,101,102],"ComfyUI >= 0.3.28","ComfyUI-Impact-Pack >= V8.11","ComfyUI-ControlNet-Aux (可选，用于 SEGS 预处理)","Efficiency Nodes (>= 9 月 3 日版本，用于 XY Plot)","ComfyUI-VideoHelperSuite (可选，用于视频生成)","ComfyUI_ADV_CLIP_emb (推荐，用于 A1111 兼容性)","ComfyUI IPAdapter Plus (>= 3 月 24 日版本)",[15,35],"2026-03-27T02:49:30.150509","2026-04-18T09:19:33.398355",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},39243,"执行 UnzipPrompt 节点时出现错误：缺少必需的位置参数 'zipped_prompt'，如何解决？","该错误通常与输入的文本文件格式有关。请检查您的提示词文本文件（.txt）格式是否正确。如果问题依旧，可以尝试将正向和负向提示词直接复制到示例文件（如 example prompt2 file）中测试，或者重新安装自定义节点包以修复可能的文件损坏。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F124",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},39244,"更新 ComfyUI 或其他主要节点（如 IPAdapter, Impact）后，KSamplerAdvancedProgress 节点报错无法渲染怎么办？","这通常是由于依赖包版本不兼容导致的。首先尝试更新 Impact Pack 节点包。如果问题仍未解决，建议暂时用官方的 KSampler Advanced Efficient 节点或普通 KSampler 节点替换报错的节点，这些节点通常能正常工作且支持长时渲染而不出现显存溢出（OOM）错误。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F135",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},39245,"更新后 Mediapipe 人脸检测器（SEGs）无法正确检测人脸部分，之前的设置失效了怎么办？","更新后可能需要调整检测参数。请尝试增加 `guide_size` 的值，或者勾选 `force_inpaint` 选项。如果仍然无效，建议参考工作流示例图重新配置节点连接和参数设置。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F9",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},39246,"缓存后端数据节点数量有限制吗？为什么工作流节点过多会导致缓存损坏或加载失败？","是的，TagCache 设置会限制节点数量，默认标签限制为 20 个。如果节点未分配特定标签，它们会被归类为 \"N\u002FA\" 并计入该限制，导致超出上限而失败。解决方法有两种：1. 在 \"Show Cached Info\" 中增加空标签的配置数量限制；2. 为每个需要缓存的节点（如 birefnet）分配独立的标签，避免全部堆积在 \"N\u002FA\" 类别中。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F186",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},39247,"使用 ConcatConditioningsWithMultiplier 节点时出现 KeyError: 'multiplier2' 错误，原因是什么？","这是一个已知的代码缺陷，已在后续版本中修复。如果您遇到此错误，请务必更新 ComfyUI-Inspire-Pack 到最新版本。如果更新后问题依旧，尝试完全重新安装 ComfyUI 及自定义节点，确保没有旧版本文件残留。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F160",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},39248,"执行 KSampler \u002F\u002FInspire 节点时出现关于 Tensor 布尔值的歧义错误（Boolean value of Tensor...）如何处理？","此类错误通常源于代码逻辑中对多值张量进行了直接的布尔判断。请确保您使用的 Inspire Pack 是最新版本，因为维护者通常会在此类常见报错发生后迅速修复。同时检查输入到 KSampler 的条件张量形状是否符合预期，避免传入多维数据导致判断失败。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack\u002Fissues\u002F137",[]]