[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lrzjason--Comfyui-QwenEditUtils":3,"tool-lrzjason--Comfyui-QwenEditUtils":61},[4,18,26,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,35],"插件",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":42,"last_commit_at":51,"category_tags":52,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[35,13,15,14],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":42,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[35,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":65,"owner_avatar_url":74,"owner_bio":65,"owner_company":65,"owner_location":65,"owner_email":65,"owner_twitter":65,"owner_website":65,"owner_url":75,"languages":76,"stars":81,"forks":82,"last_commit_at":83,"license":84,"difficulty_score":42,"env_os":85,"env_gpu":86,"env_ram":85,"env_deps":87,"category_tags":93,"github_topics":65,"view_count":42,"oss_zip_url":65,"oss_zip_packed_at":65,"status":17,"created_at":94,"updated_at":95,"faqs":96,"releases":132},8384,"lrzjason\u002FComfyui-QwenEditUtils","Comfyui-QwenEditUtils",null,"Comfyui-QwenEditUtils 是一套专为 ComfyUI 设计的实用节点集合，旨在简化基于 Qwen 模型的图像编辑工作流。它主要解决了用户在利用多参考图进行复杂图像修改时，面临的提示词编码繁琐、图片尺寸适配困难以及配置流程不灵活等痛点。\n\n该工具特别适合熟悉 ComfyUI 操作的设计师、AI 创作者及希望深入探索多模态编辑的技术爱好者使用。其核心亮点在于强大的多参考图支持能力：通过 TextEncodeQwenImageEditPlus 等节点，用户可同时引入最多 5 张参考图像，并结合文本提示词实现高度可控的图像生成与编辑。此外，它能自动将参考图调整为适合 VAE 和视觉语言模型（VL）编码的最佳尺寸，无需手动预处理。工具还提供了灵活的配置解析器、输出提取器以及自定义 Llama 模板支持，让用户能精细调整编辑指令。\n\n值得注意的是，虽然本仓库功能完善，但官方已推出升级版 ComfyUI-EditUtils，支持包括 Flux2Klein 在内的更多模型。对于新项目，建议优先考虑新版工具，而 Comfyui-QwenEditUtils 仍可作为理解 Qwen 编辑逻","Comfyui-QwenEditUtils 是一套专为 ComfyUI 设计的实用节点集合，旨在简化基于 Qwen 模型的图像编辑工作流。它主要解决了用户在利用多参考图进行复杂图像修改时，面临的提示词编码繁琐、图片尺寸适配困难以及配置流程不灵活等痛点。\n\n该工具特别适合熟悉 ComfyUI 操作的设计师、AI 创作者及希望深入探索多模态编辑的技术爱好者使用。其核心亮点在于强大的多参考图支持能力：通过 TextEncodeQwenImageEditPlus 等节点，用户可同时引入最多 5 张参考图像，并结合文本提示词实现高度可控的图像生成与编辑。此外，它能自动将参考图调整为适合 VAE 和视觉语言模型（VL）编码的最佳尺寸，无需手动预处理。工具还提供了灵活的配置解析器、输出提取器以及自定义 Llama 模板支持，让用户能精细调整编辑指令。\n\n值得注意的是，虽然本仓库功能完善，但官方已推出升级版 ComfyUI-EditUtils，支持包括 Flux2Klein 在内的更多模型。对于新项目，建议优先考虑新版工具，而 Comfyui-QwenEditUtils 仍可作为理解 Qwen 编辑逻辑或维护旧工作流的宝贵资源。","# Comfyui-QwenEditUtils\n\nA collection of utility nodes for Qwen-based image editing in ComfyUI.\n\n**Note**: This repository has been succeeded by [ComfyUI-EditUtils](https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyUI-EditUtils), which provides enhanced capabilities with support for multiple AI models including Qwen and Flux2Klein. We recommend using the new repository for future projects.\n\n## Example\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_9b751c49700b.png\" alt=\"Example Workflow\" width=\"45%\" \u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_e2b56d27e563.png\" alt=\"Result Image\" width=\"45%\" \u002F>\n\u003C\u002Fp>\n\nYou can find complete ComfyUI workflow examples in the following files:\n- [`qwen edit custom.json`](qwen edit custom.json) - demonstrates advanced usage with full configuration options\n- [`qwen edit custom mask.json`](qwen edit custom mask.json) - demonstrates mask usage with full configuration options\n\n## Update Log\n### v2.0.5\n- Added mask option to configs nodes and custom node for improved image editing.\n### v2.0.3\n- Added QwenEditAdaptiveLongestEdge for easier to get the best longest edge of the image.\n### v2.0.0\n- Added TextEncodeQwenImageEditPlusCustom_lrzjason for highly customized image editing.\n- Added QwenEditConfigPreparer, QwenEditConfigJsonParser for creating image configurations.\n- Added QwenEditOutputExtractor for extracting outputs from the custom node.\n- Added QwenEditListExtractor for extracting items from lists.\n- Added CropWithPadInfo for cropping images with pad information.\n\n## Node\n\n### TextEncodeQwenImageEditPlus lrzjason\n\nThis node provides text encoding functionality with reference image support for Qwen-based image editing workflows. It allows you to encode prompts while incorporating up to 5 reference images for more controlled image generation.\n\n#### Inputs\n\n- **clip**: The CLIP model to use for encoding\n- **prompt**: The text prompt to encode\n- **vae** (optional): The VAE model for image encoding\n- **image1** (optional): First reference image for image editing\n- **image2** (optional): Second reference image for image editing\n- **image3** (optional): Third reference image for image editing\n- **image4** (optional): Fourth reference image for image editing\n- **image5** (optional): Fifth reference image for image editing\n- **enable_resize** (optional): Enable automatic resizing of the reference image for VAE encoding\n- **enable_vl_resize** (optional): Enable automatic resizing of the reference image for VL encoding\n- **llama_template** (optional): Custom Llama template for image description and editing instructions\n\n#### Outputs\n\n- **CONDITIONING**: The encoded conditioning tensor\n- **image1**: The processed first reference image\n- **image2**: The processed second reference image\n- **image3**: The processed third reference image\n- **image4**: The processed fourth reference image\n- **image5**: The processed fifth reference image\n- **LATENT**: The encoded latent representation of the first reference image\n\n#### Behavior\n\n- Encodes text prompts using CLIP with optional reference image guidance\n- Supports up to 5 reference images for complex editing tasks\n- Automatically resizes reference images to optimal dimensions for both VAE and VL encoding\n- Integrates with VAE models to encode reference images into latent space\n- Supports custom Llama templates for more precise image editing instructions\n- Processes images separately for VAE encoding (1024x1024) and VL encoding (384x384)\n- Returns individual processed images for more flexible workflow connections\n\n### TextEncodeQwenImageEditPlusAdvance lrzjason\n\nThis advanced node provides enhanced text encoding functionality with reference image support for Qwen-based image editing workflows. It offers more precise control over image resizing and supports flexible image input configurations with separate processing for VAE and VL encoding.\n\n#### Inputs\n\n- **clip**: The CLIP model to use for encoding\n- **prompt**: The text prompt to encode\n- **vae** (optional): The VAE model for image encoding\n- **vl_resize_image1** (optional): First reference image for VL encoding with resizing\n- **vl_resize_image2** (optional): Second reference image for VL encoding with resizing\n- **vl_resize_image3** (optional): Third reference image for VL encoding with resizing\n- **not_resize_image1** (optional): First reference image without VL resizing\n- **not_resize_image2** (optional): Second reference image without VL resizing\n- **not_resize_image3** (optional): Third reference image without VL resizing\n- **target_size** (optional): Target size for VAE encoding (options: 1024, 1344, 1536, 2048, 768, 512)\n- **target_vl_size** (optional): Target size for VL encoding (default: 384)\n- **upscale_method** (optional): Method for upscaling images (options: \"lanczos\", \"bicubic\", \"area\")\n- **crop** (optional): Cropping method (options: \"center\", \"disabled\")\n- **instruction** (optional): Custom instruction for image editing\n\n#### Outputs\n\n- **CONDITIONING**: The encoded conditioning tensor\n- **LATENT**: The encoded latent representation of the first reference image\n- **target_image1**: The processed first target reference image\n- **target_image2**: The processed second target reference image\n- **target_image3**: The processed third target reference image\n- **vl_resized_image1**: The first VL-resized reference image\n- **vl_resized_image2**: The second VL-resized reference image\n- **vl_resized_image3**: The third VL-resized reference image\n\n#### Behavior\n\n- Provides advanced text encoding with separate control over VAE and VL image processing\n- Supports 3 reference images with different resize behaviors\n- Offers multiple target size options for more flexible image processing\n- Maintains separate image outputs for VAE-encoded and VL-resized images\n- Provides enhanced upscale and crop controls for optimal image processing\n- Integrates with custom instructions for tailored image editing\n\n### TextEncodeQwenImageEditPlusPro lrzjason\n\nThis professional node provides the most flexible text encoding functionality with reference image support for Qwen-based image editing workflows. It offers fine-grained control over which images are VL-resized and includes a main image designation for focused conditioning.\n\n#### Inputs\n\n- **clip**: The CLIP model to use for encoding\n- **prompt**: The text prompt to encode\n- **vae** (optional): The VAE model for image encoding\n- **image1** (optional): First reference image for image editing\n- **image2** (optional): Second reference image for image editing\n- **image3** (optional): Third reference image for image editing\n- **image4** (optional): Fourth reference image for image editing\n- **image5** (optional): Fifth reference image for image editing\n- **vl_resize_indexs** (optional): Comma-separated indexes of images to apply VL resizing (default: \"0,1,2\")\n- **main_image_index** (optional): Index of the main reference image for focused conditioning (default: 0)\n- **target_size** (optional): Target size for VAE encoding (options: 1024, 1344, 1536, 2048, 768, 512)\n- **target_vl_size** (optional): Target size for VL encoding (options: 384, 392)\n- **upscale_method** (optional): Method for upscaling images (options: \"lanczos\", \"bicubic\", \"area\")\n- **crop_method** (optional): Cropping method (options: \"pad\", \"center\", \"disabled\")\n- **instruction** (optional): Custom instruction for image editing\n\n#### Outputs\n\n- **CONDITIONING**: The encoded conditioning tensor with all reference latents\n- **LATENT**: The encoded latent representation of the main reference image\n- **image1**: The processed first reference image\n- **image2**: The processed second reference image\n- **image3**: The processed third reference image\n- **image4**: The processed fourth reference image\n- **image5**: The processed fifth reference image\n- **CONDITIONING**: The encoded conditioning tensor with only the main reference latent\n- **ANY**: The pad information dictionary containing scaling and padding details\n\n#### Behavior\n\n- Provides professional-level text encoding with maximum flexibility for image processing\n- Supports up to 5 reference images with configurable VL-resizing per image\n- Allows designation of a main reference image for focused conditioning\n- Offers separate conditioning outputs for full reference and main reference conditioning\n- Provides multiple target size options for more flexible image processing\n- Includes pad information for potential image cropping and scaling operations\n- Provides enhanced upscale and crop controls, including padding for image preservation\n\n### TextEncodeQwenImageEditPlusCustom_lrzjason\n\nThis node provides maximum flexibility for image editing workflows by allowing custom configurations for each reference image. Each image can have its own specific settings for both reference (VAE) and vision-language (VL) processing, enabling highly customized image editing scenarios.\n\n#### Inputs\n\n- **clip**: The CLIP model to use for encoding\n- **vae**: The VAE model for image encoding\n- **prompt**: The text prompt to encode\n- **configs**: A list of configuration dictionaries for each image, containing:\n  - **image**: The reference image for image editing\n  - **to_ref**: Whether to include image in reference processing (VAE encoding)\n  - **ref_main_image**: Whether this image is the main reference image for focused conditioning\n  - **ref_longest_edge**: Target longest edge size for reference processing (default: 1024)\n  - **ref_crop**: Cropping method for reference processing (options: \"pad\", \"center\", \"disabled\")\n  - **ref_upscale**: Upscaling method for reference processing (options: \"lanczos\", \"bicubic\", \"area\")\n  - **to_vl**: Whether to include image in vision-language processing\n  - **vl_resize**: Whether to resize image for VL processing (default: True)\n  - **vl_target_size**: Target size for VL processing (default: 384)\n  - **vl_crop**: Cropping method for VL processing (options: \"center\", \"disabled\")\n  - **vl_upscale**: Upscaling method for VL processing (options: \"bicubic\", \"area\", \"lanczos\")\n  - **mask**: Optional mask for the image to define region of interest for editing\n- **return_full_refs_cond** (optional): Whether to return conditioning with all reference images or only with the main reference (default: True)\n- **instruction** (optional): Custom instruction for image editing\n\n#### Outputs\n\n- **CONDITIONING**: The encoded conditioning tensor (with all or only main reference based on return_full_refs_cond)\n- **LATENT**: The encoded latent representation of the main reference image\n- **custom_output**: A dictionary containing:\n  - **pad_info**: Padding information dictionary containing scaling and padding details\n  - **full_refs_cond**: Conditioning with all reference latents\n  - **main_ref_cond**: Conditioning with only the main reference latent\n  - **main_image**: The processed main reference image\n  - **vae_images**: List of all processed VAE images\n  - **ref_latents**: List of all reference latents\n  - **vl_images**: List of all processed VL images\n  - **full_prompt**: The complete prompt with image descriptions\n  - **llama_template**: The applied system prompt template\n  - **mask**: The processed mask used for region of interest\n\n#### Behavior\n\n- Provides maximum flexibility by allowing per-image configurations for both reference and VL processing\n- Supports multiple reference images with different processing requirements simultaneously\n- Allows fine-grained control over scaling, cropping, and resizing for each image\n- Returns comprehensive output dictionary with all intermediate results\n- Integrates with custom instructions for tailored image editing\n- Provides both full reference and main reference conditioning outputs\n\n### QwenEditConfigPreparer\n\nThis helper node creates configuration objects for use with the TextEncodeQwenImageEditPlusCustom_lrzjason node. It allows you to define custom processing parameters for individual images.\n\n#### Inputs\n\n- **image**: The reference image to configure\n- **configs** (optional): An existing list of configuration objects to append to\n- **to_ref** (optional): Whether to include image in reference processing (default: True)\n- **ref_main_image** (optional): Whether this image is the main reference image (default: True)\n- **ref_longest_edge** (optional): Target longest edge size for reference processing (default: 1024)\n- **ref_crop** (optional): Cropping method for reference processing (options: \"pad\", \"center\", \"disabled\", default: \"center\")\n- **ref_upscale** (optional): Upscaling method for reference processing (options: \"lanczos\", \"bicubic\", \"area\", default: \"lanczos\")\n- **to_vl** (optional): Whether to include image in vision-language processing (default: True)\n- **vl_resize** (optional): Whether to resize image for VL processing (default: True)\n- **vl_target_size** (optional): Target size for VL processing (default: 384)\n- **vl_crop** (optional): Cropping method for VL processing (options: \"center\", \"disabled\", default: \"center\")\n- **vl_upscale** (optional): Upscaling method for VL processing (options: \"bicubic\", \"area\", \"lanczos\", default: \"bicubic\")\n- **mask** (optional): Optional mask for the image to define region of interest for editing\n\n#### Outputs\n\n- **configs**: The updated list of configuration objects\n- **config**: The configuration object for the current image\n\n#### Behavior\n\n- Creates configuration objects that define how each image should be processed\n- Allows appending to existing configuration lists\n- Provides default values for all configuration parameters\n- Output config list can be connected directly to TextEncodeQwenImageEditPlusCustom_lrzjason\n\n### QwenEditConfigJsonParser\n\nThis helper node creates configuration objects from JSON strings for use with the TextEncodeQwenImageEditPlusCustom_lrzjason node. It provides an alternative method to define configuration parameters.\n\n#### Inputs\n\n- **image**: The reference image to configure\n- **configs** (optional): An existing list of configuration objects to append to\n- **config_json** (optional): JSON string containing configuration parameters\n- **mask** (optional): Optional mask for the image to define region of interest for editing\n\n#### Outputs\n\n- **configs**: The updated list of configuration objects\n- **config**: The configuration object for the current image\n\n#### Behavior\n\n- Creates configuration objects from JSON strings\n- Allows appending to existing configuration lists\n- Provides a default JSON configuration template\n- Output config list can be connected directly to TextEncodeQwenImageEditPlusCustom_lrzjason\n\n### QwenEditOutputExtractor\n\nThis helper node extracts specific outputs from the custom_output dictionary produced by the TextEncodeQwenImageEditPlusCustom_lrzjason node.\n\n#### Inputs\n\n- **custom_output**: The custom output dictionary from the custom node\n\n#### Outputs\n\n- **pad_info**: Padding information dictionary\n- **full_refs_cond**: Conditioning with all reference latents\n- **main_ref_cond**: Conditioning with only the main reference latent\n- **main_image**: The main reference image\n- **vae_images**: List of all processed VAE images\n- **ref_latents**: List of all reference latents\n- **vl_images**: List of all processed VL images\n- **full_prompt**: The complete prompt with image descriptions\n- **llama_template**: The applied system prompt template\n- **no_refs_cond**: Conditioning without any reference latents\n- **mask**: The processed mask used for region of interest\n\n#### Behavior\n\n- Extracts individual components from the complex output dictionary\n- Provides access to all intermediate results from the custom node\n- Enables modular processing of different output components\n\n### QwenEditListExtractor\n\nThis helper node extracts a specific item from a list based on its index position.\n\n#### Inputs\n\n- **items**: The input list\n- **index**: The index of the item to extract (default: 0)\n\n#### Outputs\n\n- **item**: The extracted item from the list\n\n#### Behavior\n\n- Extracts a single item from a list based on index\n- Useful for extracting specific images from the vae_images list or other collections\n- Supports any list items regardless of type\n\n### QwenEditAdaptiveLongestEdge\n\nThis utility node calculates an appropriate longest edge size for an image, ensuring it doesn't exceed a specified maximum size. This is particularly useful when you want to automatically determine the best longest edge for image processing based on image dimensions, especially when working with large images that need to be downscaled for processing.\n\n#### Inputs\n\n- **image**: The input image to analyze\n- **max_size**: The maximum allowed size for the longest edge (default: 2048, range: 512-4096)\n\n#### Outputs\n\n- **longest_edge**: The calculated longest edge size for the image that respects the max_size constraint\n\n#### Behavior\n\n- Calculates the longest edge of the input image\n- If the longest edge exceeds max_size, it calculates a reduced size that fits within the constraint\n- Returns the appropriate longest edge size that can be used in other nodes like TextEncodeQwenImageEditPlusCustom_lrzjason for dynamic image processing\n- Useful for workflows where you want to prevent oversized images from causing memory or processing issues\n\n### CropWithPadInfo\n\nThis utility node crops an image using pad information generated by other nodes, allowing precise cropping back to the original content area after padding operations.\n\n#### Inputs\n\n- **image**: The image to crop\n- **pad_info**: The pad information dictionary containing x, y, width, height and scale values\n\n#### Outputs\n\n- **cropped_image**: The cropped image with original content dimensions\n- **scale_by**: The scale factor used in the original processing\n\n#### Behavior\n\n- Uses pad information to crop images to their original content area\n- Removes padding that was added during processing\n- Returns the scale factor for potential additional operations\n\n## Key Features\n\n- **Multi-Image Support**: Incorporate up to 3 reference images into your text-to-image generation workflow\n- **Dual Resize Options**: Separate resizing controls for VAE encoding (1024px) and VL encoding (384px)\n- **Individual Image Outputs**: Each processed reference image is provided as a separate output for flexible connections\n- **Latent Space Integration**: Encode reference images into latent space for efficient processing\n- **Qwen Model Compatibility**: Specifically designed for Qwen-based image editing models\n- **Customizable Templates**: Use custom Llama templates for tailored image editing instructions\n\n## Installation\n\n1. Clone or download this repository into your ComfyUI's `custom_nodes` directory.\n2. Restart ComfyUI.\n3. The node will be available in the \"advanced\u002Fconditioning\" category.\n\n**Note**: This repository has been succeeded by [ComfyUI-EditUtils](https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyUI-EditUtils), which provides enhanced capabilities with support for multiple AI models including Qwen and Flux2Klein. We recommend checking out the new repository for future projects.\n\n## Contact\n- **Twitter**: [@Lrzjason](https:\u002F\u002Ftwitter.com\u002FLrzjason)  \n- **Email**: lrzjason@gmail.com  \n- **QQ Group**: 866612947  \n- **Wechatid**: fkdeai\n- **Civitai**: [xiaozhijason](https:\u002F\u002Fcivitai.com\u002Fuser\u002Fxiaozhijason)\n\n## Sponsors me for more open source projects:\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Cp>Buy me a coffee:\u003C\u002Fp>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_1744620b9d61.png\" alt=\"Buy Me a Coffee QR\" width=\"200\" \u002F>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Cp>WeChat:\u003C\u002Fp>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_a38597c5ada2.jpg\" alt=\"WeChat QR\" width=\"200\" \u002F>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n","# Comfyui-QwenEditUtils\n\nComfyUI 中基于通义千问的图像编辑工具节点集合。\n\n**注意**：此仓库已被 [ComfyUI-EditUtils](https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyUI-EditUtils) 取代，后者提供了更强大的功能，并支持包括通义千问和 Flux2Klein 在内的多种 AI 模型。我们建议在未来的项目中使用新的仓库。\n\n## 示例\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_9b751c49700b.png\" alt=\"示例工作流\" width=\"45%\" \u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_e2b56d27e563.png\" alt=\"结果图像\" width=\"45%\" \u002F>\n\u003C\u002Fp>\n\n您可以在以下文件中找到完整的 ComfyUI 工作流示例：\n- [`qwen edit custom.json`](qwen edit custom.json) - 展示了包含完整配置选项的高级用法\n- [`qwen edit custom mask.json`](qwen edit custom mask.json) - 展示了包含完整配置选项的掩码用法\n\n## 更新日志\n### v2.0.5\n- 在配置节点和自定义节点中添加了掩码选项，以提升图像编辑效果。\n### v2.0.3\n- 添加了 QwenEditAdaptiveLongestEdge 节点，便于获取图像的最佳最长边。\n### v2.0.0\n- 添加了 TextEncodeQwenImageEditPlusCustom_lrzjason 节点，用于高度定制化的图像编辑。\n- 添加了 QwenEditConfigPreparer 和 QwenEditConfigJsonParser 节点，用于创建图像配置。\n- 添加了 QwenEditOutputExtractor 节点，用于从自定义节点中提取输出。\n- 添加了 QwenEditListExtractor 节点，用于从列表中提取项目。\n- 添加了 CropWithPadInfo 节点，用于带填充信息的裁剪操作。\n\n## 节点\n\n### TextEncodeQwenImageEditPlus lrzjason\n\n该节点为基于通义千问的图像编辑工作流提供文本编码功能，并支持参考图像。它允许您在编码提示时结合最多 5 张参考图像，从而实现更受控的图像生成。\n\n#### 输入\n\n- **clip**: 用于编码的 CLIP 模型\n- **prompt**: 要编码的文本提示\n- **vae**（可选）: 用于图像编码的 VAE 模型\n- **image1**（可选）: 第一张用于图像编辑的参考图像\n- **image2**（可选）: 第二张用于图像编辑的参考图像\n- **image3**（可选）: 第三张用于图像编辑的参考图像\n- **image4**（可选）: 第四张用于图像编辑的参考图像\n- **image5**（可选）: 第五张用于图像编辑的参考图像\n- **enable_resize**（可选）: 启用参考图像的自动调整大小以进行 VAE 编码\n- **enable_vl_resize**（可选）: 启用参考图像的自动调整大小以进行 VL 编码\n- **llama_template**（可选）: 自定义 Llama 模板，用于图像描述和编辑指令\n\n#### 输出\n\n- **CONDITIONING**: 编码后的条件张量\n- **image1**: 处理后的第一张参考图像\n- **image2**: 处理后的第二张参考图像\n- **image3**: 处理后的第三张参考图像\n- **image4**: 处理后的第四张参考图像\n- **image5**: 处理后的第五张参考图像\n- **LATENT**: 第一张参考图像的编码后潜在表示\n\n#### 行为\n\n- 使用 CLIP 对文本提示进行编码，并可选择性地引入参考图像引导\n- 支持最多 5 张参考图像，适用于复杂的编辑任务\n- 自动将参考图像调整至适合 VAE 和 VL 编码的最佳尺寸\n- 与 VAE 模型集成，将参考图像编码到潜在空间\n- 支持自定义 Llama 模板，以提供更精确的图像编辑指令\n- 分别对图像进行 VAE 编码（1024x1024）和 VL 编码（384x384）\n- 返回单独处理过的图像，以便更灵活的工作流连接\n\n### TextEncodeQwenImageEditPlusAdvance lrzjason\n\n此高级节点为基于通义千问的图像编辑工作流提供增强的文本编码功能，并支持参考图像。它对图像缩放具有更精确的控制，并支持灵活的图像输入配置，分别针对 VAE 和 VL 编码进行处理。\n\n#### 输入\n\n- **clip**: 用于编码的 CLIP 模型\n- **prompt**: 要编码的文本提示\n- **vae**（可选）: 用于图像编码的 VAE 模型\n- **vl_resize_image1**（可选）: 第一张经过缩放后用于 VL 编码的参考图像\n- **vl_resize_image2**（可选）: 第二张经过缩放后用于 VL 编码的参考图像\n- **vl_resize_image3**（可选）: 第三张经过缩放后用于 VL 编码的参考图像\n- **not_resize_image1**（可选）: 第一张不进行 VL 缩放的参考图像\n- **not_resize_image2**（可选）: 第二张不进行 VL 缩放的参考图像\n- **not_resize_image3**（可选）: 第三张不进行 VL 缩放的参考图像\n- **target_size**（可选）: VAE 编码的目标尺寸（选项：1024、1344、1536、2048、768、512）\n- **target_vl_size**（可选）: VL 编码的目标尺寸（默认：384）\n- **upscale_method**（可选）: 图像上采样的方法（选项：lanczos、bicubic、area）\n- **crop**（可选）: 裁剪方式（选项：center、disabled）\n- **instruction**（可选）: 自定义的图像编辑指令\n\n#### 输出\n\n- **CONDITIONING**: 编码后的条件张量\n- **LATENT**: 第一张参考图像的编码后潜在表示\n- **target_image1**: 处理后的第一张目标参考图像\n- **target_image2**: 处理后的第二张目标参考图像\n- **target_image3**: 处理后的第三张目标参考图像\n- **vl_resized_image1**: 第一张经过 VL 缩放的参考图像\n- **vl_resized_image2**: 第二张经过 VL 缩放的参考图像\n- **vl_resized_image3**: 第三张经过 VL 缩放的参考图像\n\n#### 行为\n\n- 提供高级文本编码功能，可分别控制 VAE 和 VL 的图像处理\n- 支持 3 张具有不同缩放行为的参考图像\n- 提供多种目标尺寸选项，以实现更灵活的图像处理\n- 分别保留 VAE 编码和 VL 缩放后的图像输出\n- 提供增强的上采样和裁剪控制，以实现最佳的图像处理效果\n- 结合自定义指令，实现量身定制的图像编辑\n\n### TextEncodeQwenImageEditPlusPro lrzjason\n\n此专业节点为基于Qwen的图像编辑工作流提供最具灵活性的文本编码功能，并支持参考图像。它可精细控制哪些图像进行VL重缩放，同时指定主图像以实现聚焦式条件设置。\n\n#### 输入\n\n- **clip**: 用于编码的CLIP模型\n- **prompt**: 要编码的文本提示\n- **vae**（可选）: 用于图像编码的VAE模型\n- **image1**（可选）: 第一张用于图像编辑的参考图像\n- **image2**（可选）: 第二张用于图像编辑的参考图像\n- **image3**（可选）: 第三张用于图像编辑的参考图像\n- **image4**（可选）: 第四张用于图像编辑的参考图像\n- **image5**（可选）: 第五张用于图像编辑的参考图像\n- **vl_resize_indexs**（可选）: 需要应用VL重缩放的图像索引，用逗号分隔（默认值：“0,1,2”）\n- **main_image_index**（可选）: 用于聚焦式条件设置的主参考图像索引（默认值：0）\n- **target_size**（可选）: VAE编码的目标尺寸（选项：1024、1344、1536、2048、768、512）\n- **target_vl_size**（可选）: VL编码的目标尺寸（选项：384、392）\n- **upscale_method**（可选）: 图像上采样方法（选项：“lanczos”、“bicubic”、“area”）\n- **crop_method**（可选）: 裁剪方法（选项：“pad”、“center”、“disabled”）\n- **instruction**（可选）: 自定义图像编辑指令\n\n#### 输出\n\n- **CONDITIONING**: 包含所有参考潜变量的编码条件张量\n- **LATENT**: 主参考图像的编码潜变量表示\n- **image1**: 处理后的第一张参考图像\n- **image2**: 处理后的第二张参考图像\n- **image3**: 处理后的第三张参考图像\n- **image4**: 处理后的第四张参考图像\n- **image5**: 处理后的第五张参考图像\n- **CONDITIONING**: 仅包含主参考潜变量的编码条件张量\n- **ANY**: 包含缩放和填充信息的垫片信息字典\n\n#### 行为\n\n- 提供专业级别的文本编码，具有最大的图像处理灵活性\n- 支持最多5张参考图像，每张图像均可配置VL重缩放\n- 允许指定主参考图像以实现聚焦式条件设置\n- 提供完整参考和主参考条件的独立输出\n- 提供多种目标尺寸选项，以实现更灵活的图像处理\n- 包括垫片信息，可用于潜在的图像裁剪和缩放操作\n- 提供增强的上采样和裁剪控制，包括用于保护图像的填充功能\n\n### TextEncodeQwenImageEditPlusCustom_lrzjason\n\n此节点通过允许对每张参考图像进行自定义配置，为图像编辑工作流提供了最大的灵活性。每张图像都可以拥有自己特定的参考（VAE）和视觉语言（VL）处理设置，从而实现高度定制化的图像编辑场景。\n\n#### 输入\n\n- **clip**: 用于编码的CLIP模型\n- **vae**: 用于图像编码的VAE模型\n- **prompt**: 要编码的文本提示\n- **configs**: 每张图像的配置字典列表，包含：\n  - **image**: 用于图像编辑的参考图像\n  - **to_ref**: 是否将该图像纳入参考处理（VAE编码）\n  - **ref_main_image**: 该图像是否为主参考图像，用于聚焦式条件设置\n  - **ref_longest_edge**: 参考处理的目标最长边尺寸（默认值：1024）\n  - **ref_crop**: 参考处理的裁剪方法（选项：“pad”、“center”、“disabled”）\n  - **ref_upscale**: 参考处理的上采样方法（选项：“lanczos”、“bicubic”、“area”）\n  - **to_vl**: 是否将该图像纳入视觉语言处理\n  - **vl_resize**: 是否对该图像进行VL处理前的重缩放（默认值：是）\n  - **vl_target_size**: VL处理的目标尺寸（默认值：384）\n  - **vl_crop**: VL处理的裁剪方法（选项：“center”、“disabled”）\n  - **vl_upscale**: VL处理的上采样方法（选项：“bicubic”、“area”、“lanczos”）\n  - **mask**: 该图像的可选遮罩，用于定义编辑的兴趣区域\n- **return_full_refs_cond**（可选）: 是否返回包含所有参考图像的条件，还是仅返回主参考的条件（默认值：是）\n- **instruction**（可选）: 自定义图像编辑指令\n\n#### 输出\n\n- **CONDITIONING**: 编码后的条件张量（根据return_full_refs_cond参数，包含全部或仅主参考）\n- **LATENT**: 主参考图像的编码潜变量表示\n- **custom_output**: 包含以下内容的字典：\n  - **pad_info**: 包含缩放和填充信息的垫片信息字典\n  - **full_refs_cond**: 包含所有参考潜变量的条件\n  - **main_ref_cond**: 仅包含主参考潜变量的条件\n  - **main_image**: 处理后的主参考图像\n  - **vae_images**: 所有已处理的VAE图像列表\n  - **ref_latents**: 所有参考潜变量列表\n  - **vl_images**: 所有已处理的VL图像列表\n  - **full_prompt**: 包含图像描述的完整提示\n  - **llama_template**: 应用的系统提示模板\n  - **mask**: 用于兴趣区域的已处理遮罩\n\n#### 行为\n\n- 通过允许对每张图像分别进行参考和VL处理的配置，提供最大的灵活性\n- 同时支持多张具有不同处理要求的参考图像\n- 可对每张图像的缩放、裁剪和重缩放进行精细控制\n- 返回包含所有中间结果的综合输出字典\n- 可与自定义指令集成，实现量身定制的图像编辑\n- 提供完整参考和主参考条件的输出\n\n### QwenEditConfigPreparer\n\n此辅助节点用于创建与 TextEncodeQwenImageEditPlusCustom_lrzjason 节点配合使用的配置对象。它允许您为单个图像定义自定义处理参数。\n\n#### 输入\n\n- **image**: 用于配置的参考图像\n- **configs**（可选）：要追加到的现有配置对象列表\n- **to_ref**（可选）：是否将图像纳入参考处理（默认：True）\n- **ref_main_image**（可选）：该图像是否为主要参考图像（默认：True）\n- **ref_longest_edge**（可选）：参考处理的目标最长边尺寸（默认：1024）\n- **ref_crop**（可选）：参考处理的裁剪方法（选项：“pad”、“center”、“disabled”，默认：“center”）\n- **ref_upscale**（可选）：参考处理的放大方法（选项：“lanczos”、“bicubic”、“area”，默认：“lanczos”）\n- **to_vl**（可选）：是否将图像纳入视觉语言处理（默认：True）\n- **vl_resize**（可选）：是否对图像进行 VL 处理前的缩放（默认：True）\n- **vl_target_size**（可选）：VL 处理的目标尺寸（默认：384）\n- **vl_crop**（可选）：VL 处理的裁剪方法（选项：“center”、“disabled”，默认：“center”）\n- **vl_upscale**（可选）：VL 处理的放大方法（选项：“bicubic”、“area”、“lanczos”，默认：“bicubic”）\n- **mask**（可选）：图像的可选掩码，用于定义编辑的兴趣区域\n\n#### 输出\n\n- **configs**: 更新后的配置对象列表\n- **config**: 当前图像的配置对象\n\n#### 行为\n\n- 创建定义每张图像处理方式的配置对象\n- 允许追加到现有配置列表\n- 为所有配置参数提供默认值\n- 输出的配置列表可直接连接到 TextEncodeQwenImageEditPlusCustom_lrzjason\n\n### QwenEditConfigJsonParser\n\n此辅助节点从 JSON 字符串中创建配置对象，供 TextEncodeQwenImageEditPlusCustom_lrzjason 节点使用。它提供了一种替代方法来定义配置参数。\n\n#### 输入\n\n- **image**: 用于配置的参考图像\n- **configs**（可选）：要追加到的现有配置对象列表\n- **config_json**（可选）：包含配置参数的 JSON 字符串\n- **mask**（可选）：图像的可选掩码，用于定义编辑的兴趣区域\n\n#### 输出\n\n- **configs**: 更新后的配置对象列表\n- **config**: 当前图像的配置对象\n\n#### 行为\n\n- 从 JSON 字符串中创建配置对象\n- 允许追加到现有配置列表\n- 提供默认的 JSON 配置模板\n- 输出的配置列表可直接连接到 TextEncodeQwenImageEditPlusCustom_lrzjason\n\n### QwenEditOutputExtractor\n\n此辅助节点从 TextEncodeQwenImageEditPlusCustom_lrzjason 节点生成的 custom_output 字典中提取特定输出。\n\n#### 输入\n\n- **custom_output**: 自定义节点生成的 custom_output 字典\n\n#### 输出\n\n- **pad_info**: 填充信息字典\n- **full_refs_cond**: 使用所有参考潜变量的条件\n- **main_ref_cond**: 仅使用主要参考潜变量的条件\n- **main_image**: 主要参考图像\n- **vae_images**: 所有经过 VAE 处理的图像列表\n- **ref_latents**: 所有参考潜变量列表\n- **vl_images**: 所有经过 VL 处理的图像列表\n- **full_prompt**: 包含图像描述的完整提示\n- **llama_template**: 应用的系统提示模板\n- **no_refs_cond**: 不使用任何参考潜变量的条件\n- **mask**: 用于兴趣区域的已处理掩码\n\n#### 行为\n\n- 从复杂的输出字典中提取各个组件\n- 提供对自定义节点所有中间结果的访问\n- 支持对不同输出组件的模块化处理\n\n### QwenEditListExtractor\n\n此辅助节点根据索引位置从列表中提取特定项目。\n\n#### 输入\n\n- **items**: 输入列表\n- **index**: 要提取项目的索引（默认：0）\n\n#### 输出\n\n- **item**: 从列表中提取的项目\n\n#### 行为\n\n- 根据索引从列表中提取单个项目\n- 适用于从 vae_images 列表或其他集合中提取特定图像\n- 支持任何类型的列表项\n\n### QwenEditAdaptiveLongestEdge\n\n此实用节点计算图像的适当最长边尺寸，确保不超过指定的最大尺寸。这在需要根据图像尺寸自动确定最佳最长边以进行图像处理时特别有用，尤其是在处理需要缩小以供处理的大图像时。\n\n#### 输入\n\n- **image**: 要分析的输入图像\n- **max_size**: 最长边允许的最大尺寸（默认：2048，范围：512–4096）\n\n#### 输出\n\n- **longest_edge**: 计算出的满足 max_size 约束的图像最长边尺寸\n\n#### 行为\n\n- 计算输入图像的最长边\n- 如果最长边超过 max_size，则计算一个符合约束的减小尺寸\n- 返回可用于其他节点（如 TextEncodeQwenImageEditPlusCustom_lrzjason）进行动态图像处理的适当最长边尺寸\n- 对于希望防止过大的图像导致内存或处理问题的工作流非常有用\n\n### CropWithPadInfo\n\n此实用节点使用由其他节点生成的填充信息裁剪图像，从而在填充操作后精确地裁剪回原始内容区域。\n\n#### 输入\n\n- **image**: 要裁剪的图像\n- **pad_info**: 包含 x、y、宽度、高度和缩放值的填充信息字典\n\n#### 输出\n\n- **cropped_image**: 恢复原始内容尺寸的裁剪图像\n- **scale_by**: 原始处理中使用的缩放因子\n\n#### 行为\n\n- 使用填充信息将图像裁剪回原始内容区域\n- 移除处理过程中添加的填充\n- 返回缩放因子，以便进行可能的进一步操作\n\n## 关键特性\n\n- **多图像支持**：可在文本到图像生成工作流中引入最多 3 张参考图像\n- **双重缩放选项**：分别为 VAE 编码（1024px）和 VL 编码（384px）提供独立的缩放控制\n- **单独的图像输出**：每张经过处理的参考图像都会作为单独的输出提供，便于灵活连接\n- **潜空间集成**：将参考图像编码到潜空间，以实现高效处理\n- **Qwen 模型兼容性**：专为基于 Qwen 的图像编辑模型设计\n- **可定制模板**：使用自定义 Llama 模板，提供量身定制的图像编辑指令\n\n## 安装\n\n1. 将本仓库克隆或下载到您的 ComfyUI 的 `custom_nodes` 目录中。\n2. 重启 ComfyUI。\n3. 该节点将出现在“advanced\u002Fconditioning”分类中。\n\n**注意**: 本仓库已被 [ComfyUI-EditUtils](https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyUI-EditUtils) 取代，后者提供了更强大的功能，并支持包括 Qwen 和 Flux2Klein 在内的多种 AI 模型。我们建议您在未来的项目中使用新的仓库。\n\n## 联系方式\n- **Twitter**: [@Lrzjason](https:\u002F\u002Ftwitter.com\u002FLrzjason)  \n- **邮箱**: lrzjason@gmail.com  \n- **QQ 群**: 866612947  \n- **微信号**: fkdeai\n- **Civitai**: [xiaozhijason](https:\u002F\u002Fcivitai.com\u002Fuser\u002Fxiaozhijason)\n\n## 欢迎赞助我以支持更多开源项目：\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Cp>请我喝杯咖啡：\u003C\u002Fp>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_1744620b9d61.png\" alt=\"请我喝杯咖啡二维码\" width=\"200\" \u002F>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Cp>微信支付：\u003C\u002Fp>\n        \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_readme_a38597c5ada2.jpg\" alt=\"微信二维码\" width=\"200\" \u002F>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>","# ComfyUI-QwenEditUtils 快速上手指南\n\n> **重要提示**：本仓库已由 [ComfyUI-EditUtils](https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyUI-EditUtils) 继承。新版本支持 Qwen、Flux2Klein 等多种模型，功能更强大。**强烈建议新项目直接使用新版仓库**，本文档仅作为旧版工具的参考或迁移指引。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Windows, Linux 或 macOS\n*   **Python**: 3.10 或更高版本（推荐与 ComfyUI 环境一致）\n*   **核心依赖**:\n    *   已安装并配置好的 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n    *   `torch` (PyTorch)\n    *   `transformers` (用于加载 Qwen 相关模型)\n    *   `Pillow` (图像处理)\n*   **模型文件**: 需预先下载对应的 Qwen 编辑模型权重及 CLIP\u002FVAE 模型，并放置在 ComfyUI 的 `models` 目录下。\n\n## 安装步骤\n\n推荐使用 Git 将插件安装到 ComfyUI 的自定义节点目录中。\n\n1.  进入 ComfyUI 的 `custom_nodes` 目录：\n    ```bash\n    cd path\u002Fto\u002FComfyUI\u002Fcustom_nodes\n    ```\n\n2.  克隆仓库（国内用户如遇网络问题，可尝试使用镜像源或代理）：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils.git\n    ```\n\n3.  安装 Python 依赖：\n    ```bash\n    cd Comfyui-QwenEditUtils\n    pip install -r requirements.txt\n    ```\n    *注：如果 `requirements.txt` 不存在，请根据 README 手动安装 `transformers`, `accelerate` 等必要库。*\n\n4.  重启 ComfyUI 以加载新节点。\n\n## 基本使用\n\n本插件主要用于在 ComfyUI 中实现基于 Qwen 模型的图像编辑，支持通过文本提示词结合多张参考图进行精细化控制。\n\n### 最简单的工作流示例\n\n以下是一个基础的图像编辑流程，使用 `TextEncodeQwenImageEditPlus lrzjason` 节点：\n\n1.  **加载模型**：\n    *   使用 `Load Checkpoint` 或专门的模型加载器加载支持编辑任务的模型。\n    *   加载对应的 `CLIP` 和 `VAE` 模型。\n\n2.  **添加核心节点**：\n    *   双击搜索并添加节点：`TextEncodeQwenImageEditPlus lrzjason`。\n\n3.  **连接输入**：\n    *   **clip**: 连接加载的 CLIP 模型。\n    *   **prompt**: 连接 `CLIP Text Encode` (或直接输入文本)，描述编辑指令（例如：\"将图中的猫变成老虎\"）。\n    *   **image1**: 连接 `Load Image` 节点，上传需要被编辑的原始图片（作为参考图）。\n    *   **vae**: (可选) 连接 VAE 模型以启用潜空间编码。\n\n4.  **配置参数**：\n    *   **enable_resize**: 勾选以自动调整参考图尺寸至最佳分辨率（推荐）。\n    *   **llama_template**: (可选) 输入自定义模板以优化编辑指令的理解。\n\n5.  **生成图像**：\n    *   将节点的 `CONDITIONING` 输出连接到 `KSampler` 的正向条件输入。\n    *   将 `LATENT` 输出（如果有）或单独处理后的潜空间连接到采样器。\n    *   点击 \"Queue Prompt\" 运行工作流。\n\n### 进阶提示\n\n*   **多参考图编辑**：该节点支持最多 5 张参考图 (`image1` 至 `image5`)，可用于复杂场景的风格迁移或多对象编辑。\n*   **自定义配置**：如需对每张参考图进行独立的缩放、裁剪或掩码（Mask）控制，请使用 `TextEncodeQwenImageEditPlusCustom_lrzjson` 节点配合 `QwenEditConfigPreparer` 构建详细配置列表。\n*   **工作流模板**：安装后，可在插件目录下的 `qwen edit custom.json` 文件中找到完整的高级配置工作流示例，直接拖入 ComfyUI 即可加载。","一位电商设计师需要基于五张不同角度的产品参考图，快速生成一张符合特定营销文案的高质量合成海报。\n\n### 没有 Comfyui-QwenEditUtils 时\n- 设计师必须手动将五张参考图分别缩放至 Qwen 模型要求的特定分辨率（如 VAE 编码需 1024x1024，VL 编码需 384x384），过程繁琐且易出错。\n- 缺乏统一节点处理多图输入，只能搭建复杂的分支工作流来逐一编码图片，导致节点连线杂乱，难以维护。\n- 无法在提示词编码阶段直接融合多张参考图的视觉特征，生成的图像往往丢失部分产品细节或风格不一致。\n- 若要调整遮罩区域进行局部重绘，需额外编写脚本解析配置，无法在图形界面中灵活切换自定义模板。\n\n### 使用 Comfyui-QwenEditUtils 后\n- 利用 `TextEncodeQwenImageEditPlus` 节点，一键自动完成最多五张参考图的智能缩放与双重编码（VAE\u002FVL），无需人工干预尺寸。\n- 单个节点即可整合文本提示词与多路图像输入，大幅简化工作流结构，使复杂的多图编辑逻辑清晰可见。\n- 通过内置的 CLIP 编码与参考图引导机制，精准保留所有产品的材质与光影细节，确保生成结果高度还原设计意图。\n- 结合 `QwenEditConfigPreparer` 和自定义 Llama 模板，设计师可轻松配置遮罩与编辑指令，实现精细化的局部修改控制。\n\nComfyui-QwenEditUtils 通过自动化多图预处理与深度集成编码能力，将原本耗时数小时的多参考图编辑流程缩短至分钟级，显著提升了创意落地的效率与精度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flrzjason_Comfyui-QwenEditUtils_6cd3ed00.png","lrzjason","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flrzjason_96c0265f.jpg","https:\u002F\u002Fgithub.com\u002Flrzjason",[77],{"name":78,"color":79,"percentage":80},"Python","#3572A5",100,784,27,"2026-04-16T16:52:03","Apache-2.0","未说明","未说明（基于 Qwen 图像编辑模型，通常建议 NVIDIA GPU，具体显存需求取决于所选模型大小）",{"notes":88,"python":85,"dependencies":89},"这是一个 ComfyUI 的自定义节点插件，用于支持基于 Qwen 模型的图像编辑工作流。使用前需确保已安装 ComfyUI 主程序。该仓库已被新的 ComfyUI-EditUtils 取代，建议新项目使用新仓库。具体运行环境（如 Python 版本、CUDA 版本）主要取决于宿主 ComfyUI 环境及所加载的具体 Qwen 模型要求。",[38,90,91,92],"torch","transformers","Qwen 相关模型库",[15,35],"2026-03-27T02:49:30.150509","2026-04-17T10:19:24.233124",[97,102,107,112,117,122,127],{"id":98,"question_zh":99,"answer_zh":100,"source_url":101},37532,"如何兼容旧版模型或解决新节点下单图修改不生效的问题？","在新版节点中，只需关闭（禁用）'vl resize'选项即可兼容旧版模型。这可以解决因新模型特性导致的单图修改有时不生效的问题。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F6",{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},37533,"enable_resize、enable_VL_resize 和 skip_first_image_resize 参数分别有什么作用？","这三个参数的具体作用如下：\n1. enable_resize：对输入的图片进行缩放。\n2. enable_VL_resize：将输入的图片强制缩放到 384 的大小。\n3. skip_first_image_resize：不对第一张图片进行 384 大小的缩放。\n注意：新版本的节点可能已经采用了其他方式处理这些逻辑。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F9",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},37534,"生图出现异常或质量问题时，应该检查哪些常见配置？","请首先检查 CFG (Classifier Free Guidance) 值。有用户反馈将 CFG 设置为过高（如 10）会导致生图出现问题。尝试降低 CFG 值通常能解决此类异常。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F20",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},37535,"使用 GGUF 格式的模型时，工作流在 Advanced 节点卡住或报错怎么办？","这通常不是本插件的问题，而是 ComfyUI-GGUF 节点本身的兼容性或配置问题。建议参考 ComfyUI-GGUF 仓库的相关 Issue（如 #329）寻找解决方案，检查是否需要更新 GGUF 加载器或调整特定设置。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F14",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},37536,"为什么在不使用 Lighting LoRA 时，生成的图像相对于原图会出现偏移（Shift）？","这是当前编辑模型的一致性和编辑能力限制所致。并非所有编辑任务都能完美解决偏移问题。虽然增加 LoRA 强度可以减少偏移，但过高的强度（如 1.5）可能导致忽略编辑指令。建议尝试调整提示词（Prompt），减少画面中的元素数量，以减轻偏移现象。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F8",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},37537,"更新后遇到 'Replacement index out of range' 或模板相关的 IndexError 报错如何解决？","如果是通过 git clone 安装的，请确保将 ComfyUI 更新到最新版本。同时，检查并删除自定义节点代码或工作流中硬编码的旧版模板字符串（例如包含 `\u003C|im_start>system...` 等多行提示词的部分），新版通常会自动处理模板拼接，手动添加会导致索引越界。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F2",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},37538,"为什么使用中文指令（如“在图像顶部增加‘秋天’标题”）时，生成的图片中文字变成了英文？","这是底层模型本身的能力限制，与插件节点无关。当前模型在处理特定语言的文本渲染指令时，可能会将其翻译为英文输出，目前节点层面无法修复此问题。","https:\u002F\u002Fgithub.com\u002Flrzjason\u002FComfyui-QwenEditUtils\u002Fissues\u002F7",[]]