[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-filliptm--ComfyUI_Fill-Nodes":3,"tool-filliptm--ComfyUI_Fill-Nodes":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":76,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":76,"difficulty_score":32,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":107,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":143},7235,"filliptm\u002FComfyUI_Fill-Nodes","ComfyUI_Fill-Nodes","Large Node Pack for ComfyUI","ComfyUI_Fill-Nodes 是一套功能强大的 ComfyUI 自定义节点扩展包，旨在为用户提供从图像处理到 AI 模型调用的全方位工作流支持。它有效解决了用户在构建复杂生成式 AI 流程时，面临的功能碎片化问题，将图像特效、视频处理、音频可视化、文件管理（如 PDF 操作与谷歌云端集成）以及多平台 AI 接口（涵盖 GPT、DALL-E、Hugging Face 等）统一整合在一个工具集中。\n\n无论是希望提升效率的专业设计师、需要灵活调用各类大模型的研究人员，还是热衷于探索前沿技术的开发者，都能从中找到实用的解决方案。其独特亮点在于极高的集成度与多样性：不仅提供如动漫线稿提取、智能黑帧过滤等专业图像算法，还内置了直接对接主流 AI 服务的 API 节点，让用户无需编写代码即可在可视化界面中串联起跨模态的复杂任务。通过这套工具，用户可以更专注于创意实现与逻辑构建，大幅降低技术门槛，轻松打造高效且富有创意的自动化工作流。","# 🏵️ Fill-Nodes\n\nIf you enjoy this project, consider supporting me on Patreon!\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fwww.patreon.com\u002Fc\u002FMachinedelusions\">\n    \u003Cimg src=\"images\\\\nodes\\\\Patreon.png\" width=\"150px\" alt=\"Patreon\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\nFill-Nodes is a versatile collection of custom nodes for ComfyUI that extends functionality across multiple domains. Features include advanced image processing, visual effects generation, comprehensive file handling (PDF creation\u002Fextraction, Google Drive integration), AI model interfaces (GPT, DALL-E, Hugging Face, Runway, Gemini, Fal.ai, and more), utility nodes for workflow enhancement, audio-reactive visual effects, and specialized tools for video processing, captioning, and batch operations. The pack provides both practical workflow solutions and creative tools within a unified node collection.\n\n## 🔍 Table of Contents\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#image-nodes\">🖼️ Image Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#captioning-nodes\">📝 Captioning Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#vfx-nodes\">✨ VFX Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#utility-nodes\">🛠️ Utility Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#ksamplers-nodes\">🎲 KSamplers Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#pdf-nodes\">📄 PDF Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#gpt-nodes\">🤖 GPT Nodes\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#ai-nodes\">🧠 AI Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#audio-nodes\">🔊 Audio Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#experimental-nodes\">🧪 Experimental Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#prompting-nodes\">💬 Prompting Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#file-operation-nodes\">📂 File Operation Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#google-drive-nodes\">☁️ Google Drive Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#api-tool-nodes\">🔌 API Tool Nodes\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#hugging-face-nodes\">🤗 Hugging Face Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#loader-nodes\">⏬ Loader Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#discord-nodes\">💬 Discord Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#work-in-progress-nodes\">🚧 Work-in-Progress Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#game-nodes\">🎮 Game Nodes\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#video-nodes\">🎬 Video Nodes\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-image-nodes\">🖼️ Image Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for manipulating, analyzing, and working with images.*\n\n| Node | Description |\n|------|-------------|\n| `FL_AnimeLineExtractor` | Extracts line art from images using OpenCV's adaptive thresholding and morphological operations. Provides controls for line threshold, line width, detail level, noise reduction via Gaussian blur, and optional output inversion for white backgrounds. |\n| `FL_ApplyMask` | Applies a mask to an image's alpha channel by adding or modifying the alpha channel based on the provided mask. Automatically handles dimension mismatches between image and mask through interpolation and supports batch processing. |\n| `FL_BlackFrameReject` | Filters out images from a batch based on black pixel percentage using configurable threshold and black level detection. Supports multiple detection methods (luminance, average, RGB, all channels) and optional inversion logic, returning filtered images with count statistics. |\n| `FL_ImageAddNoise` | Adds random Gaussian noise to images with controllable strength (0.0-1.0) and seed for reproducible results. Uses torch.randn to generate noise and clips output to valid 0.0-1.0 range. |\n| `FL_ImageAddToBatch` | Combines two image batches into a single batch by concatenating them. Automatically resizes the second batch to match the first batch's dimensions using bicubic or area interpolation based on scaling direction. |\n| `FL_ImageAdjuster` | Adjusts image properties including hue rotation (-180 to 180), saturation, brightness, contrast (all -100 to 100), and sharpness (0 to 100) using PIL's ImageEnhance. Converts to HSV for hue\u002Fsaturation adjustments and applies UnsharpMask filter for sharpness, with real-time preview sent to the frontend. |\n| `FL_ImageAspectCropper` | Crops images to a target aspect ratio (specified as width:height) by center-cropping either width or height as needed. Ensures resulting dimensions are even numbers for compatibility with video codecs. |\n| `FL_ImageBatch` | Dynamically combines multiple images into a single batch with configurable number of inputs (2-100). Uses ComfyUI's ImageBatch node internally and automatically resizes images to match the first image's dimensions. |\n| `FL_ImageBatchToGrid` | Arranges a batch of images into a grid layout with a specified number of images per row. Creates a single composite image with black background filling any empty grid positions. |\n| `FL_ImageBlank` | Creates a blank image with specified width, height, and RGB color values. Generates a solid color image as a tensor suitable for use in ComfyUI workflows. |\n| `FL_ImageCrop` | Crops images from specified directions (top, bottom, left, right, or combinations) by a specified pixel amount. Automatically validates crop amounts to prevent exceeding image dimensions. |\n| `FL_ImageDimensionDisplay` | Extracts and returns the width and height dimensions of an input image as a formatted string. Supports both tensor and PIL image formats. |\n| `FL_ImageListToImageBatch` | Converts a list of individual images into a single batched image tensor. Automatically resizes images to match the first image's dimensions using Lanczos interpolation if needed. |\n| `FL_ImageNotes` | Adds a text bar with custom text to images, positioned at top or bottom. Supports configurable bar height, text size, borders, and optional word wrapping with automatic height adjustment to fit wrapped text. |\n| `FL_ImageRandomizer` | Randomly selects an image or video from a specified directory based on a seed value (using modulo operation for deterministic selection). Supports subdirectory searching and returns the selected media as a batch along with the file path and filename. |\n| `FL_ImageSelector` | Selects specific images from a batch using comma-separated indices or the 'last' keyword. Returns a new batch containing only the specified images in the order they were listed. |\n| `FL_ImageSlicer` | Divides an image into a grid of equally-sized rectangular slices based on x and y subdivision counts. Returns all slices as a batch of images, processing from left-to-right, top-to-bottom. |\n| `FL_LoadImage` | Provides a file browser interface for loading images from a custom directory structure with server-side API endpoints. Converts RGBA images to RGB with white background compositing and handles various image formats. |\n| `FL_PaddingRemover` | Detects and removes uniform padding from images by analyzing edge colors and their consistency across rows and columns. Supports CPU and GPU processing modes, configurable tolerance, minimum content size constraints, and additional manual trimming options with optional debug visualization. |\n| `FL_ReplaceColor` | Replaces pixels of a specific source color with a target color using Euclidean distance in RGB space and configurable tolerance. Supports morphological operations (expand\u002Fcontract) to dilate or erode the replacement area using circular kernels. |\n| `FL_SaveImages` | Saves images to a custom folder structure with templated filenames and automatic index incrementing to avoid overwriting. Supports optional metadata saving as separate text files alongside images. |\n| `FL_SaveRGBAAnimatedWebP` | Saves animated WebP files from separate RGB and alpha channel image batches with configurable FPS, quality, and encoding method. Creates a preview with checkerboard background for transparency visualization and exports both the WebP animation and a ZIP file containing individual PNG frames with alpha. |\n| `FL_SaveWebM` | Exports image batches as WebM video files using VP9 codec with configurable FPS, quality, and optional alpha channel preservation. Uses imageio with ffmpeg backend and includes fallback handling for encoding errors. |\n\n### 📷 Screenshots & Examples\n\n![🖼️ Image Nodes Example](images\u002Fnodes\u002Fimage_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-captioning-nodes\">📝 Captioning Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for generating, saving, and manipulating image and video captions.*\n\n| Node | Description |\n|------|-------------|\n| `FL_CSVExtractor` | Extracts a specific column value from a randomly selected CSV row using a seed-based selection mechanism, supporting header skipping and returning the extracted text, row number, and full row data. Uses modulo-based pseudo-random selection for reproducible results. |\n| `FL_CaptionSaver_V2` | Advanced caption saver supporting both image tensor input and directory input modes with single or multiple caption options, optional mask image saving, and configurable downsize factors. Provides flexible caption assignment with automatic list extension\u002Ftruncation and unique filename generation when overwrite is disabled. |\n| `FL_CaptionToCSV` | Scans an image directory and creates an in-memory CSV mapping image filenames to their corresponding caption text files. Returns CSV data as UTF-8 encoded bytes containing image_file and caption columns. |\n| `FL_ImageCaptionLayout` | Creates a visual grid layout combining images with their caption files from a directory, generating a single composite image with configurable rows, image sizes, padding, and caption boxes. Returns a PyTorch tensor suitable for display in ComfyUI. |\n| `FL_ImageCaptionLayoutPDF` | Generates both a PDF document and an image preview displaying a grid of images with captions from a directory, supporting pagination for multiple pages with configurable layout dimensions, orientation, and font settings. Uses ReportLab for PDF generation and PIL for image preview creation. |\n| `FL_ImageCaptionSaver` | Saves a batch of images and their associated caption text to a specified folder, sanitizing captions by removing special characters and supporting optional file overwrite prevention. Handles tensor-to-image conversion with automatic grayscale-to-RGB conversion and proper value normalization. |\n| `FL_LoadCSV` | Loads a CSV file from disk and returns both the raw binary data and row count for use in other nodes. Validates file existence, extension, and provides modification time tracking for cache invalidation. |\n| `FL_MirrorAndAppendCaptions` | Processes images in a directory by appending frame numbers to captions and optionally creating horizontally mirrored duplicates with sequential frame numbering. Supports prepending or appending custom text to captions and saves both original and mirrored versions back to the directory. |\n| `FL_OllamaCaptioner` | Generates image captions using Ollama LLM by encoding images as base64 and sending them to a local Ollama server for description generation. Saves images with either AI-generated or default captions, supporting custom model selection and URL configuration. |\n| `FL_SaveCSV` | Writes CSV data (received as bytes) to a specified file path, automatically creating output directories and ensuring proper .csv extension. Provides file writing with error handling and console logging for save confirmation. |\n| `FL_VideoCaptionSaver` | Converts a sequence of image tensors into a video file (MP4 or AVI) using OpenCV with configurable FPS and quality settings, while saving an associated caption text file. Handles RGB-to-BGR conversion, frame processing with progress tracking, and supports overwrite prevention. |\n| `FL_WordFrequencyGraph` | Analyzes all text files in a directory to generate a horizontal bar graph visualization of word frequency statistics with customizable color schemes, word filtering options, and configurable output dimensions. Excludes common stop words and produces a dark-themed matplotlib graph as a PyTorch tensor. |\n\n### 📷 Screenshots & Examples\n\n![📝 Captioning Nodes Example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffilliptm_ComfyUI_Fill-Nodes_readme_2230d4042b67.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-vfx-nodes\">✨ VFX Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for applying visual effects to images.*\n\n| Node | Description |\n|------|-------------|\n| `FL_Ascii` | Converts images to ASCII art by sampling pixels at regular intervals and mapping them to custom character sets, with options for sequential or brightness-based character selection, configurable spacing, font, and font size. |\n| `FL_Dither` | Applies various dithering algorithms (Floyd-Steinberg, Random, Ordered, Bayer) to reduce images to a specified number of colors, creating retro-style color quantization effects with configurable color palette sizes from 2-256 colors. |\n| `FL_Glitch` | Creates digital glitch effects using the glitch_this library with controllable glitch intensity and optional RGB color channel offset, applying effects both horizontally and vertically by rotating the image 90 degrees during processing. |\n| `FL_HalftonePattern` | Generates halftone dot patterns by converting images to grayscale and creating circular dots of varying sizes based on region brightness, with configurable dot size and spacing parameters for newspaper-print style effects. |\n| `FL_HexagonalPattern` | Creates mosaic-style images by tiling hexagonal crops of the input with configurable shadow effects, background color, rotation, and spacing using PIL's polygon drawing capabilities. |\n| `FL_ImageCollage` | Generates photomosaics by tiling a template image across the base image, colorizing each tile based on the average color of the corresponding base region, with configurable tile size and spacing. |\n| `FL_ImagePixelator` | Applies pixelation effects with morphological gradient edge detection using Kornia, featuring configurable scale factor, kernel size, and sine-wave modulation for animated pixelation intensity across image sequences. |\n| `FL_InfiniteZoom` | Produces infinite zoom\u002Fdroste effects using OpenGL shaders with GLFW, supporting configurable scale, mirror\u002Fswirl parameters, iteration count, and animation speed to create recursive visual patterns. |\n| `FL_PaperDrawn` | Simulates hand-drawn sketch effects using OpenGL fragment shaders that apply directional gradient analysis with configurable angle count, sampling density, line width, and vignette strength to create pencil-drawn aesthetics. |\n| `FL_PixelArtShader` | Creates pixel art effects by downsampling images with nearest-neighbor interpolation, applying color quantization, and optionally mapping to extracted color palettes using K-means clustering with mask support. |\n| `FL_PixelSort` | Implements pixel sorting effects based on HSV saturation values, sorting pixels within detected edge intervals either horizontally or vertically with configurable threshold, smoothing, and rotation parameters. |\n| `FL_RetroEffect` | Creates vintage CRT monitor effects by applying RGB color channel offset, scanline overlay, radial vignette with gaussian blur, and random noise blending using PIL image processing techniques. |\n| `FL_Ripple` | Generates radial ripple\u002Fwave distortion effects using sinusoidal displacement mapping based on distance from a configurable center point, with adjustable amplitude, frequency, phase, and optional sine-wave modulation. |\n| `FL_Shadertoy` | Renders Shadertoy-compatible GLSL shaders using OpenGL with support for up to 4 input image channels, iResolution\u002FiTime\u002FiFrame uniforms, and configurable frame count\u002FFPS for shader-based generative effects. |\n| `FL_TextOverlayNode` | Overlays customizable text on images with support for TrueType fonts (system or local), configurable RGB color, percentage-based positioning, multiple anchor points (9 positions), and multiline text rendering using PIL ImageDraw. |\n\n### 📷 Screenshots & Examples\n\n![✨ VFX Nodes Example](images\u002Fnodes\u002Fvfx_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-utility-nodes\">🛠️ Utility Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *General utility nodes for various tasks.*\n\n| Node | Description |\n|------|-------------|\n| `FL_ClipScanner` | Tokenizes text prompts using OpenCLIP tokenizers for different model types (SDXL ViT-G\u002F14, SD 1.5 ViT-L\u002F14, FLUX ViT-L\u002F14) and displays detailed token analysis including token count and decoded output. |\n| `FL_CodeNode` | Executes arbitrary Python code provided as string input or loaded from file, with four generic output slots and dynamic input support via inputs\u002Foutputs dictionaries for custom algorithm integration. |\n| `FL_DirectoryCrawl` | Recursively crawls directories to batch-load images or text files with progress tracking, returning images as both batched tensors (padded) and individual image lists for flexible processing. |\n| `FL_Float` | Outputs a float value rounded to 2 decimal places, serving as a simple float constant provider for workflows. |\n| `FL_InpaintCrop` | Crops images based on mask bounding boxes with multiple sizing modes (free, forced, range, long\u002Fshort side) including context expansion, optional hole filling (CPU\u002FGPU), and generates stitch data for recomposition. |\n| `FL_Inpaint_Stitch` | Stitches inpainted images back into their original positions using crop data from FL_InpaintCrop, handling rescaling and alpha compositing to blend processed regions seamlessly. |\n| `FL_JS` | Executes custom JavaScript code in response to ComfyUI workflow events (before_queued, after_queued, executing, executed, etc.) for client-side scripting integration. |\n| `FL_Math` | Evaluates mathematical expressions with up to three variables (A, B, C) using safe AST parsing, supporting basic arithmetic operators (add, subtract, multiply, divide, power) and returning both integer and float results. |\n| `FL_ModelInspector` | Inspects PyTorch checkpoint files (.ckpt, .safetensors) and extracts comprehensive information including parameter count, layer shapes, architecture analysis, and model structure with support for various loading methods and fallback mechanisms. |\n| `FL_Padding` | Adds customizable padding to images on all four sides with configurable RGB color, optional alpha channel, and proper tensor handling for batched processing. |\n| `FL_PasteByMask` | Pastes images onto base images at mask locations with advanced features including multiple resize behaviors (resize, keep_ratio_fill\u002Ffit, source_size), blend modes (normal, multiply, screen, overlay, etc.), feathering, and mask mapping support for batch processing. |\n| `FL_PasteOnCanvas` | Pastes and centers masked images onto a canvas of specified dimensions with optional background color\u002Fimage, supporting multiple resize algorithms (bilinear, nearest, bicubic, lanczos), padding, and alpha channel handling. |\n| `FL_PathTypeChecker` | Analyzes file path strings to determine their type (absolute, relative, UNC, URL-like, drive-specific) with validation and classification logic. |\n| `FL_RandomNumber` | Generates random integer and float values within specified ranges using seed-based reproducibility, with automatic seed generation when seed is 0. |\n| `FL_SDUltimate_Slices` | Calculates slice dimensions for SD Ultimate upscaling by dividing images into configurable grid patterns (1x1 to 4x4) with multiplier support for slice size adjustment. |\n| `FL_SeparateMaskComponents` | Separates multi-component masks into individual connected components using OpenCV's connected component labeling, returning separated masks and a mapping tensor for batch tracking. |\n| `FL_Switch` | Implements lazy-evaluated boolean switch that evaluates and returns either on_true or on_false input based on switch value, enabling conditional workflow execution without evaluating unused branches. |\n| `FL_Switch_Big` | Implements lazy-evaluated multi-case switch logic (5 cases + default) by comparing a switch condition against case strings and evaluating only the matched input path for conditional workflow branching. |\n| `FL_SystemCheck` | Gathers and exposes system information including Python version, OS, CPU, RAM, GPU, library versions (PyTorch, transformers, etc.), and environment variables via an HTTP endpoint. |\n| `FL_UnloadModel` | Removes models from memory and clears CUDA cache by unloading specified models from ComfyUI's model management system, with passthrough capability for workflow continuity. |\n| `FL_VideoCropMask` | Crops video frames based on mask bounding boxes with temporal smoothing, maintaining aspect ratio and optionally applying padding, returning cropped video, mask, and crop data for each frame. |\n| `FL_VideoRecompose` | Replaces cropped regions back into original video frames using crop data from FL_VideoCropMask, resizing processed frames to match original crop dimensions. |\n\n### 📷 Screenshots & Examples\n\n![🛠️ Utility Nodes Example](images\u002Fnodes\u002Futility_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-ksamplers-nodes\">🎲 KSamplers Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for sampling in the generation process.*\n\n| Node | Description |\n|------|-------------|\n| `FL_KSamplerXYZPlot` | Grid comparison sampler that generates parameter sweep visualizations by iterating over X\u002FY axis values (steps, CFG, denoise, sampler, or scheduler) with optional Z-axis stacking (vertical\u002Fhorizontal), producing labeled image grids with axes and parameter annotations for systematic parameter testing. |\n| `FL_KsamplerBasic` | Simplified sampler node that accepts either latent or image input (with VAE encoding), performs standard KSampler operations with configurable steps\u002FCFG\u002Fsampler\u002Fscheduler\u002Fdenoise parameters, and outputs both latent and decoded image results. |\n| `FL_KsamplerPlus` | Advanced tiled sampler that divides latent or image inputs into overlapping grid slices (configurable X\u002FY slices and overlap), processes each tile with optional region-specific conditioning (including ControlNet cropping), and blends results using cosine-weighted masks to eliminate seams. |\n| `FL_KsamplerPlusV2` | Enhanced version of FL_KsamplerPlus with additional features including user-configurable conditioning strength multiplier, complete conditioning split across tiles (including pooled outputs and tensor-based conditioning), batch processing support for sliced conditioning, and optional debug information output. |\n| `FL_KsamplerSettings` | Configuration node that outputs sampling parameters including aspect ratio dimensions (SD\u002FXL\u002FSVD presets with landscape\u002Fportrait rotation), batch size, two-pass step counts, CFG scales, denoise strength, scale factor, and sampler\u002Fscheduler selection. |\n| `FL_SamplerStrings` | String generator node with boolean toggles for 27 sampler types (euler, dpm, heun, ddim, etc.) that outputs a comma-separated string of selected sampler names for batch processing workflows. |\n| `FL_SchedulerStrings` | String generator node with boolean toggles for 7 scheduler types (normal, karras, exponential, sgm_uniform, simple, ddim_uniform, beta) that outputs a comma-separated string of selected scheduler names for batch processing workflows. |\n\n### 📷 Screenshots & Examples\n\n![🎲 KSamplers Nodes Example](images\u002Fnodes\u002Fksamplers_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-pdf-nodes\">📄 PDF Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for working with PDF files.*\n\n| Node | Description |\n|------|-------------|\n| `FL_BulkPDFLoader` | Loads all PDF files from a specified directory path and returns them as a list of PDF data objects containing file metadata (path, filename, page count) and binary content. Validates that PDFs exist and can be read, collecting errors for any failed loads. |\n| `FL_ImagesToPDF` | Converts ComfyUI image tensors into a single PDF document with configurable DPI and page size (A4\u002FLetter\u002FLegal), automatically scaling and centering each image to fit the page while maintaining aspect ratio. Returns an in-memory PDF data object. |\n| `FL_PDFEncryptor` | Encrypts a PDF with user and owner passwords using PyPDF2, supporting 40-bit or 128-bit encryption with granular permission controls (printing, copying, commenting, form filling, assembly, content extraction). Returns an encrypted in-memory PDF data object. |\n| `FL_PDFImageExtractor` | Extracts embedded images from PDF pages that meet minimum width\u002Fheight thresholds, handling multiple compression formats (DCTDecode\u002FJPEG, FlateDecode\u002FPNG, JPXDecode\u002FJPEG2000, LZWDecode). Returns extracted images as normalized PyTorch tensors in batch format [B, H, W, C]. |\n| `FL_PDFLoader` | Loads a single PDF file from a specified file path and returns it as a PDF data object containing the file path, page count, and binary content. Validates file existence and PDF format before loading. |\n| `FL_PDFMerger` | Merges two PDF data objects into a single combined PDF using PyPDF2's PdfMerger, appending the second PDF after the first. Returns the merged PDF as an in-memory data object with total page count. |\n| `FL_PDFSaver` | Saves a PDF data object to disk at a specified directory path with a given filename, automatically creating the output directory if needed and appending '.pdf' extension if not present. Returns the full output file path. |\n| `FL_PDFTextExtractor` | Extracts all text content from a PDF document by iterating through pages using PyPDF2's text extraction, combining text from all pages with double newlines as page separators. Returns the extracted text as a single string. |\n| `FL_PDFToImages` | Converts PDF pages to images using PyMuPDF (fitz) with configurable DPI resolution, supporting both single PDFs and lists of PDFs. Returns all pages as normalized PyTorch image tensors concatenated into a single batch. |\n| `FL_TextToPDF` | Generates a PDF document from plain text input using ReportLab canvas, with configurable page size, font size, margins, and title, automatically handling text wrapping and pagination. Returns an in-memory PDF data object with calculated page count. |\n\n### 📷 Screenshots & Examples\n\n![📄 PDF Nodes Example](images\u002Fnodes\u002Fpdf_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-gpt-nodes\">🤖 GPT Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for integrating with GPT and OpenAI models.*\n\n| Node | Description |\n|------|-------------|\n| `FL_Dalle3` | Generates images using OpenAI's DALL-E 3 model with asynchronous batch processing, caching results based on parameters to avoid redundant API calls, and returns image tensors along with revised prompts. Supports auto-save functionality with metadata JSON files and configurable retry logic for API failures. |\n| `FL_GPT_Image1` | Generates or edits images using OpenAI's gpt-image-1 model with support for batch generation, image editing with optional masks, and comprehensive error handling that creates error images with visual text feedback. Implements retry logic, multipart form-data for edits endpoint, and processes both base64 and URL-based image responses. |\n| `FL_GPT_Image1_ADV` | Advanced multi-input variant that generates multiple images concurrently using OpenAI's gpt-image-1 model by processing up to 100 prompts with individual image inputs for editing in parallel using async\u002Fawait and thread pool execution. Each input slot can have its own prompt and optional image, with all outputs combined into a batched tensor and detailed per-call response logs. |\n| `FL_GPT_Text` | Makes synchronous API calls to OpenAI's GPT models (GPT-4, GPT-3.5-turbo) for text completion with full parameter control including temperature, top_p, and frequency\u002Fpresence penalties. Optionally saves responses to file and falls back to environment variable for API key if not provided. |\n| `FL_GPT_Vision` | Batch processes images using OpenAI's GPT-4 Vision models to generate captions asynchronously with configurable batch sizes, supporting both input directories and image tensors, and saves captions to text files alongside images. Retrieves API key from environment variable OPENAI_API_KEY. |\n| `FL_SimpleGPTVision` | Sends a single image to OpenAI's GPT-4 Vision API to generate a text caption based on configurable system and user prompts, with built-in rate limiting retry logic using exponential backoff. Returns the generated caption as a string output. |\n\n### 📷 Screenshots & Examples\n\n![🤖 GPT Nodes Example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffilliptm_ComfyUI_Fill-Nodes_readme_b540e8ce3691.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-ai-nodes\">🧠 AI Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes that integrate with various AI models and services.*\n\n| Node | Description |\n|------|-------------|\n| `FL_Fal_Gemini_ImageEdit` | Edits up to 5 input images using Fal AI Gemini 2.5 Flash Image Edit API with multimodal prompt support, async processing, and automatic image URL generation. Returns edited images with URLs and description. |\n| `FL_Fal_Kling_AIAvatar` | Generates AI avatar videos using Fal AI Kling Video API by combining input image with audio tensor or image sequence, with optional text prompt refinement. Returns extracted video frames and original audio. |\n| `FL_Fal_Kontext` | Edits images using Fal AI Flux Pro Kontext API with multi-image input support (batching), asynchronous parallel processing, and configurable parameters including aspect ratio and safety tolerance. Returns batched edited images from multiple API calls. |\n| `FL_Fal_Pixverse` | Generates videos from single image using Fal AI Pixverse v5 Image-to-Video API with style presets, camera movements, and parallel batch processing (up to 5). Returns extracted frames from generated videos as tensors. |\n| `FL_Fal_Pixverse_LipSync` | Generates lip-sync videos using Fal AI Pixverse LipSync API supporting both audio input and text-to-speech modes with voice selection, processing video frames tensor with audio synchronization. Returns lip-synced video frames and audio. |\n| `FL_Fal_Pixverse_Transition` | Creates transition videos between two images using Fal AI Pixverse v5 Transition API with configurable resolution, aspect ratio, and duration. Returns extracted frames from generated transition videos. |\n| `FL_Fal_Seedance_i2v` | Generates videos from single image using Fal AI ByteDance Seedance v1 Pro Image-to-Video API with support for multi-segment prompts using [cut] markers, configurable resolution, duration, and camera settings. Returns all extracted frames from generated video. |\n| `FL_Fal_Seedream_Edit` | Edits up to 10 images using Fal AI ByteDance Seedream v4 Edit API with custom or preset image sizes, auto-scaling to meet minimum dimensions while preserving aspect ratio. Returns edited images with URLs and seed information. |\n| `FL_Fal_Sora` | Generates videos using Fal AI Sora 2 API supporting both text-to-video and image-to-video modes with optional OpenAI API key pass-through, automatic endpoint selection based on PRO mode, and audio extraction. Returns video frames, audio waveform, video URL, and status message. |\n| `FL_GeminiImageEditor` | Generates or edits images using Google Gemini 2.5 Flash Image API with support for up to 4 reference images, batch generation with parallel async processing, and optional square padding. Returns list of generated images with detailed API response logs. |\n| `FL_GeminiImageGenADV` | Advanced multi-input image generation using Google Gemini with dynamic input count (1-100), async parallel batch processing, and per-input prompt\u002Fimage pairs. Returns list of generated images based on variable number of input slots. |\n| `FL_GeminiTextAPI` | Generates text responses using Google Gemini models (2.5\u002F2.0\u002F1.5 variants) with configurable temperature, token limits, and optional system instructions. Returns raw text output without additional formatting. |\n| `FL_GeminiVideoCaptioner` | Generates detailed captions for videos or image sequences using Google Gemini API, with automatic WebM conversion for API compatibility, frame extraction at configurable FPS, and support for audio processing. Returns caption text and sample frame from video. |\n| `FL_Hedra_API` | Generates videos from image, audio file, and text prompt using Hedra API with configurable aspect ratio and resolution, automatic polling for generation completion, and frame extraction from downloaded video. Returns video frames tensor with processing logs. |\n| `FL_HunyuanDelight` | Processes images using Hunyuan3D-2 model via Stable Diffusion InstructPix2Pix pipeline with configurable CFG, steps, and iterative refinement loops. Downloads the model from HuggingFace and applies image-to-image transformations without text prompts. |\n| `FL_PixVerseAPI` | Generates videos from images using PixVerse API with support for standard image-to-video and transition modes, parallel batch processing with configurable seeds, and automatic frame extraction from generated MP4 videos. Returns up to 5 batches of extracted frames as tensors. |\n| `FL_RunwayAct2` | Generates character performance videos using RunwayML Act Two API from input character images\u002Fvideos and reference videos, with controls for body movement and expression intensity. Returns extracted video frames as tensors. |\n| `FL_RunwayImageAPI` | Generates images using RunwayML Gen4 Image API with support for up to 3 reference images with custom tags, configurable generation parameters, and automatic polling for task completion. Returns generated image tensor and detailed status logs. |\n| `FL_Veo3VideoGen` | Generates videos using Google Vertex AI Veo 3.0 models with service account authentication, optional reference image input, configurable aspect ratio\u002Fresolution, and automatic polling with frame extraction. Returns extracted video frames, video path, and processing logs. |\n| `FL_VertexGemini25FlashImage` | Generates images using Google Vertex AI Gemini 2.5 Flash Image model with service account authentication, support for up to 3 reference images, and parallel batch generation. Returns batch tensor of generated images with detailed processing logs. |\n\n### 📷 Screenshots & Examples\n\n![🧠 AI Nodes Example](images\u002Fnodes\u002Fai_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-audio-nodes\">🔊 Audio Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for audio analysis, processing, and audio-reactive visual effects.*\n\n| Node | Description |\n|------|-------------|\n| `FL_Audio_BPM_Analyzer` | Analyzes audio using librosa to detect BPM and beat positions, with options for two BPM calculation methods (beat_intervals or onset_strength), beat offset adjustment, and automatic beat filling to cover the entire audio duration. Outputs beat positions as JSON with visualization. |\n| `FL_Audio_Beat_Visualizer` | Generates video frames that visualize beat patterns by either alternating between black\u002Fwhite on beat changes or cycling through provided images, with configurable frame dimensions and starting color. |\n| `FL_Audio_Crop` | Crops audio waveforms to specified start and end times using MM:SS or seconds format, with automatic clamping to valid audio boundaries. |\n| `FL_Audio_Drum_Detector` | Detects kicks, snares, and hi-hats from audio using librosa onset detection with frequency band analysis (kicks: 30-300Hz, snares: 150-400Hz + 4-10kHz noise, hi-hats: 6kHz+) and adjustable sensitivity thresholds. |\n| `FL_Audio_Envelope_Visualizer` | Visualizes audio envelopes as grayscale video frames where pixel intensity corresponds to envelope values, with configurable intensity multiplier and optional color inversion. |\n| `FL_Audio_Music_Video_Sequencer` | Generates complete music video shot sequences from beat positions using pattern-based orchestration (A\u002FB\u002FC\u002FD patterns with configurable beat counts), creating drift-free frame boundaries and detailed metadata for each shot including time, beat, and sample boundaries. |\n| `FL_Audio_Reactive_Brightness` | Multiplies frame pixel values by brightness factors calculated from audio envelopes, with configurable base brightness, intensity scaling, optional inversion, and output clamping. |\n| `FL_Audio_Reactive_Edge_Glow` | Applies audio-reactive edge detection using Sobel operators (or accepts pre-computed edge frames) and adds colored glow effects that pulse with envelope values, supporting multiple blend modes (add, screen, overlay) and glow colors. |\n| `FL_Audio_Reactive_Envelope` | Generates per-frame ADSR envelopes (Attack, Decay, Sustain, Release) from drum detection times (kicks, snares, hi-hats) with independent configurable envelope parameters for each drum type. |\n| `FL_Audio_Reactive_Saturation` | Adjusts color saturation by blending between grayscale (using Rec. 709 luma coefficients) and original frames based on envelope-modulated saturation values, supporting both saturation and desaturation effects. |\n| `FL_Audio_Reactive_Scale` | Applies audio-reactive zoom\u002Fscale effects to frames based on envelope values, with center-cropping or padding to maintain dimensions and configurable interpolation modes (bilinear, bicubic, nearest). |\n| `FL_Audio_Reactive_Speed` | Time-remaps frames using cumulative speed multipliers derived from audio envelopes, allowing for dynamic speed-up\u002Fslow-down effects with frame interpolation and optional envelope inversion. |\n| `FL_Audio_Segment_Extractor` | Extracts audio segments based on pre-analyzed beat positions from the BPM analyzer, supporting drift-free frame alignment by using cumulative time mapping and outputting precise frame counts for video synchronization. |\n| `FL_Audio_Separation` | Separates audio into four stems (bass, drums, other, vocals) using the Hybrid Demucs model from torchaudio, with chunked processing to manage memory usage and configurable overlap\u002Ffade parameters. |\n| `FL_Audio_Shot_Iterator` | Extracts individual shot metadata (frame counts, beat ranges, time boundaries) from music video sequence JSON by shot index, designed for iterative processing of video sequences. |\n\n### 📷 Screenshots & Examples\n\n![🔊 Audio Nodes Example](images\u002Fnodes\u002Faudio_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-experimental-nodes\">🧪 Experimental Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Experimental nodes with various functionalities.*\n\n| Node | Description |\n|------|-------------|\n| `FL_BatchAlign` | Patches a model to enable batch-aligned generation by applying style alignment techniques through shared attention mechanisms and normalization layers. Uses adaptive instance normalization (AdaIN) on queries, keys, and values with configurable attention sharing and normalization strategies (group\u002Flayer\u002Fboth). |\n| `FL_ColorPicker` | A simple utility node that accepts a hex color string input and passes it through as output, designed to facilitate color selection in workflows. |\n| `FL_GradGenerator` | Generates gradient images from a JSON-formatted color stops specification with position and color values. Supports RGB\u002FHSV color modes and multiple interpolation curves (Linear, Ease In, Ease Out, Ease In-Out) with configurable dimensions. |\n| `FL_NFTGenerator` | Randomly selects images from a directory based on rarity percentages encoded in filenames (format: name-XXXper-val), using weighted probability selection with a configurable seed. Returns both the selected image and its corresponding mask file (or blank mask if not found). |\n\n### 📷 Screenshots & Examples\n\n![🧪 Experimental Nodes Example](images\u002Fnodes\u002Fexperiments_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-prompting-nodes\">💬 Prompting Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for generating and manipulating prompts.*\n\n| Node | Description |\n|------|-------------|\n| `FL_MadLibGenerator` | Generates text by replacing up to 5 different delimiter patterns in a template with randomly selected words from corresponding word lists. Uses per-list seeding with MD5 hashing to ensure reproducible but independent randomization for each delimiter. |\n| `FL_PromptBasic` | Concatenates three text strings (prepend, prompt, append) without adding any spaces, preserving user-specified formatting for prompt construction. |\n| `FL_PromptMulti` | Processes multi-line positive and negative prompts into parallel lists, automatically balancing counts by repeating the last prompt or using empty strings. Generates indexed names with configurable prefix and outputs as lists for batch processing. |\n| `FL_PromptSelector` | Selects a single prompt line by index from a multi-line prompt string, optionally prepending and appending text with automatic space insertion. |\n\n### 📷 Screenshots & Examples\n\n![💬 Prompting Nodes Example](images\u002Fnodes\u002Fprompting_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-file-operation-nodes\">📂 File Operation Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for file operations.*\n\n| Node | Description |\n|------|-------------|\n| `FL_ZipDirectory` | Creates a ZIP archive of an entire directory structure in memory using ZIP_DEFLATED compression, returning the raw bytes without writing to disk. |\n| `FL_ZipSave` | Compresses a directory into a ZIP file and saves it to a specified output location with automatic filename collision handling via timestamp suffixing. |\n\n### 📷 Screenshots & Examples\n\n![📂 File Operation Nodes Example](images\u002Fnodes\u002Ffileoperations_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-google-drive-nodes\">☁️ Google Drive Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for Google Cloud services integration.*\n\n| Node | Description |\n|------|-------------|\n| `FL_GoogleCloudStorage` | Uploads images or compiled videos to Google Cloud Storage buckets using service account credentials. Supports batch image uploads, video compilation with configurable codecs\u002FFPS, public\u002Fprivate access control, and custom metadata attachment. |\n| `FL_GoogleDriveDownloader` | Downloads files from Google Drive using share links, automatically extracts ZIP archives, and manages output in organized directory structures with cleanup of temporary files. |\n| `FL_GoogleDriveImageDownloader` | Downloads images from Google Drive share links with optional local caching system using MD5-hashed index. Converts downloaded images to RGB tensors normalized to [0,1] range with configurable cache behavior. |\n\n### 📷 Screenshots & Examples\n\n![☁️ Google Drive Nodes Example](images\u002Fnodes\u002Fgoogledrive_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-api-tool-nodes\">🔌 API Tool Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for API interactions.*\n\n| Node | Description |\n|------|-------------|\n| `FL_API_Base64_ImageLoader` | Decodes base64-encoded images (with automatic data URL prefix removal) and converts them to ComfyUI image tensors. Supports optional resizing with aspect ratio preservation and returns image tensor with dimensions, job_id, user_id, and category. |\n| `FL_API_ImageSaver` | Saves images to a categorized directory structure (base\u002Fcategory\u002Fuser_id\u002Fjob_id.format) with support for PNG, JPG, JPEG, and WebP formats and configurable quality settings. Returns full path, job_id, user_id, and category for API workflows. |\n\n### 📷 Screenshots & Examples\n\n![🔌 API Tool Nodes Example](images\u002Fnodes\u002Fapitools_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-hugging-face-nodes\">🤗 Hugging Face Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for integrating with Hugging Face.*\n\n| Node | Description |\n|------|-------------|\n| `FL_HFDatasetDownloader` | Downloads Hugging Face repositories (datasets, models, or spaces) using snapshot_download with configurable parallel workers and local directory specification. |\n| `FL_HFHubModelUploader` | Uploads models and assets to Hugging Face Hub with automatic README generation, model card header support, and organized file structure. Handles images, ZIP files, and large model files with threaded progress tracking and retry logic. |\n| `FL_HF_Character` | Uploads character-related assets (LoRA, datasets, captions, CSVs) to Hugging Face Hub using a structured path format (studio\u002Fproject\u002Fcharacter) for organized character library management. |\n| `FL_HF_UploaderAbsolute` | Uploads various file types (LoRA files, ZIP datasets, images, PDFs, CSVs) to Hugging Face repositories at specified paths with progress tracking. Supports repository creation and uses environment variable HUGGINGFACE_API_KEY for authentication. |\n\n### 📷 Screenshots & Examples\n\n![🤗 Hugging Face Nodes Example](images\u002Fnodes\u002Fhuggingface_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-loader-nodes\">⏬ Loader Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for loading various resources.*\n\n| Node | Description |\n|------|-------------|\n| `FL_NodeLoader` | A pass-through node that accepts and returns a TRIGGER type, designed for node dependency management in workflows. |\n| `FL_NodePackLoader` | A pass-through node with IS_CHANGED set to float('NaN') to ensure it always processes when triggered, useful for forcing workflow execution. |\n| `FL_UpscaleModel` | Upscales images in configurable batches using loaded upscale models with precision control (auto\u002F32\u002F16\u002Fbfloat16), optional downscaling by factor, multiple rescale methods (nearest-exact, bilinear, area, bicubic, lanczos), and TQDM progress tracking. |\n\n### 📷 Screenshots & Examples\n\n![⏬ Loader Nodes Example](images\u002Fnodes\u002Floaders_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-discord-nodes\">💬 Discord Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for Discord integration.*\n\n| Node | Description |\n|------|-------------|\n| `FL_SendToDiscordWebhook` | Sends single images or video compilations to Discord via webhooks with configurable bot username, custom messages, user mentions (via Discord user IDs), FPS control for videos, and optional local file retention. |\n\n### 📷 Screenshots & Examples\n\n![💬 Discord Nodes Example](images\u002Fnodes\u002Fdiscord_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-work-in-progress-nodes\">🚧 Work-in-Progress Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes that are still in development.*\n\n| Node | Description |\n|------|-------------|\n| `FL_FractalKSampler` | Experimental recursive K-sampler that generates images through fractal upscaling and slicing. Upscales latents, divides into 4 quadrants, recursively samples each with reduced denoise, and composites results with configurable blend factors. |\n| `FL_TimeLine` | Work-in-progress timeline processor node for video animation with IPAdapter preset selection, dimension control, interpolation modes, and frame\u002FFPS settings. Includes API endpoint for timeline data but currently returns model unchanged. |\n| `FL_WF_Agent` | Workflow agent node that executes a node scanner to generate cached node definitions for AI-assisted workflow manipulation. Runs scanner as subprocess and provides feedback on cache file creation and status. |\n| `FL_WanFirstLastFrameToVideo` | Enhanced WAN (Warp and Noise) implementation for video generation from first and last frames with advanced timing control. Supports custom keyframe positioning, temporal interpolation curves (linear, ease, bounce), regional masking, and CLIP vision conditioning. |\n\n### 📷 Screenshots & Examples\n\n![🚧 Work-in-Progress Nodes Example](images\u002Fnodes\u002Fwip_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-game-nodes\">🎮 Game Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes implementing games.*\n\n| Node | Description |\n|------|-------------|\n| `FL_BulletHellGame` | Placeholder game node with no implementation, designed as a stub for future bullet hell game functionality. |\n| `FL_TetrisGame` | Placeholder game node with no implementation, designed as a stub for future Tetris game functionality. |\n\n### 📷 Screenshots & Examples\n\n![🎮 Game Nodes Example](images\u002Fnodes\u002Fgames_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-video-nodes\">🎬 Video Nodes\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *Nodes for video processing and frame interpolation.*\n\n| Node | Description |\n|------|-------------|\n| `FL_FILM` | Frame interpolation using FILM (Frame Interpolation for Large Motion) from Google Research. Downloads TorchScript model from HuggingFace on first use, generates intermediate frames with configurable multiplier, and uses timestep-based interpolation for smooth motion. |\n| `FL_ProResVideo` | Converts image batches to ProRes 4444 video files using FFmpeg with high-quality encoding (yuva444p10le pixel format, 8000 bits_per_mb). Automatically handles temporary file creation, unique naming with timestamp collision avoidance, and cleanup. |\n| `FL_RIFE` | Frame interpolation using RIFE (Real-Time Intermediate Flow Estimation) v4.7 architecture. Downloads model weights from HuggingFace, supports multiple checkpoints (rife47, rife49), configurable multiplier, optional ensemble mode for quality, and multi-scale flow estimation. |\n| `FL_VideoBatchSplitter` | Splits a video batch into exactly N equal-sized sub-batches with strict frame count validation. Returns up to 20 separate batch outputs with configurable frames per batch, requiring exact division with no remainders. |\n| `FL_VideoCadence` | Analyzes image batches for scene changes and returns comma-separated frame counts per scene. Uses configurable detection methods (intensity, histogram, or hybrid) with GPU acceleration support, downsampling optimization, and minimum scene length enforcement. |\n| `FL_VideoCadenceCompile` | Loads videos from a directory, crops each video from the middle to match specified frame counts from a cadence list, and concatenates all frames into a single image batch. Validates frame counts and dimensions with error handling. |\n| `FL_VideoCrossfade` | Blends two video sequences with configurable crossfade duration using multiple blend modes (normal, multiply, screen, overlay, soft_light, add, subtract). Resizes both inputs to target dimensions and generates smooth transitions between sequences. |\n| `FL_VideoCut` | Detects scene cuts in image batches and exports each scene as a separate MP4 file using parallel FFmpeg processing. Features optimized scene detection (intensity\u002Fhistogram\u002Fhybrid), GPU acceleration, downsample optimization, and direct frame piping to FFmpeg for performance. |\n| `FL_VideoTrim` | Trims specified numbers of frames from the start and end of an image batch, returning the trimmed video along with separate outputs for removed start and end frames. |\n\n### 📷 Screenshots & Examples\n\n![🎬 Video Nodes Example](images\u002Fnodes\u002Fvideo_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n","# 🏵️ Fill-Nodes\n\n如果你喜欢这个项目，请考虑在 Patreon 上支持我！\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fwww.patreon.com\u002Fc\u002FMachinedelusions\">\n    \u003Cimg src=\"images\\\\nodes\\\\Patreon.png\" width=\"150px\" alt=\"Patreon\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\nFill-Nodes 是一套功能强大的 ComfyUI 自定义节点集合，能够跨多个领域扩展工作流功能。其特性包括先进的图像处理、视觉特效生成、全面的文件管理（PDF 创建与提取、Google Drive 集成）、AI 模型接口（GPT、DALL-E、Hugging Face、Runway、Gemini、Fal.ai 等），以及用于优化工作流的实用工具节点、音频驱动的视觉特效，还有专门用于视频处理、字幕添加和批量操作的工具。这套节点包在一个统一的集合中提供了既实用又富有创意的工作流解决方案。\n\n## 🔍 目录\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#image-nodes\">🖼️ 图像节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#captioning-nodes\">📝 字幕生成节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#vfx-nodes\">✨ 视觉特效节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#utility-nodes\">🛠️ 实用工具节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#ksamplers-nodes\">🎲 KSamplers 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#pdf-nodes\">📄 PDF 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#gpt-nodes\">🤖 GPT 节点\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#ai-nodes\">🧠 AI 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#audio-nodes\">🔊 音频节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#experimental-nodes\">🧪 实验性节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#prompting-nodes\">💬 提示词节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#file-operation-nodes\">📂 文件操作节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#google-drive-nodes\">☁️ Google Drive 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#api-tool-nodes\">🔌 API 工具节点\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n    \u003Ctd valign=\"top\">\n      \u003Cul>\n        \u003Cli>\u003Ca href=\"#hugging-face-nodes\">🤗 Hugging Face 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#loader-nodes\">⏬ 加载器节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#discord-nodes\">💬 Discord 节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#work-in-progress-nodes\">🚧 进度中的节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#game-nodes\">🎮 游戏相关节点\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>\u003Ca href=\"#video-nodes\">🎬 视频节点\u003C\u002Fa>\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-image-nodes\">🖼️ 图像节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于图像处理、分析及操作的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_AnimeLineExtractor` | 使用 OpenCV 的自适应阈值和形态学操作从图像中提取线稿。提供线稿阈值、线条宽度、细节级别、通过高斯模糊进行降噪的控制选项，以及针对白色背景的可选输出反转功能。 |\n| `FL_ApplyMask` | 根据提供的掩码，通过添加或修改图像的 Alpha 通道来应用掩码。自动处理图像和掩码之间的尺寸不匹配问题，采用插值方法，并支持批量处理。 |\n| `FL_BlackFrameReject` | 根据黑色像素百分比，使用可配置的阈值和黑电平检测方法，从批次中过滤掉图像。支持多种检测方法（亮度、平均值、RGB、所有通道）及可选的反转逻辑，返回过滤后的图像并附带计数统计信息。 |\n| `FL_ImageAddNoise` | 向图像中添加可控强度（0.0–1.0）和种子的随机高斯噪声，以实现结果的可重复性。使用 torch.randn 生成噪声，并将输出裁剪到有效的 0.0–1.0 范围内。 |\n| `FL_ImageAddToBatch` | 通过拼接的方式将两个图像批次合并为一个批次。根据缩放方向，自动使用双三次或面积插值调整第二个批次的尺寸，使其与第一个批次的尺寸一致。 |\n| `FL_ImageAdjuster` | 使用 PIL 的 ImageEnhance 模块调整图像属性，包括色相旋转（−180 至 180）、饱和度、亮度、对比度（均在 −100 至 100 范围内）以及锐度（0 至 100）。对于色相和饱和度调整，会先转换为 HSV 模式；锐度则应用 Unsharp Mask 滤波器，并将实时预览发送到前端。 |\n| `FL_ImageAspectCropper` | 根据目标宽高比（以宽度:高度形式指定），通过居中裁剪宽度或高度来裁剪图像，确保裁剪后的尺寸为偶数，以兼容视频编解码器。 |\n| `FL_ImageBatch` | 动态地将多个图像组合成一个批次，输入数量可配置（2–100）。内部使用 ComfyUI 的 ImageBatch 节点，并自动调整图像大小以匹配第一张图像的尺寸。 |\n| `FL_ImageBatchToGrid` | 将一批图像排列成指定每行图像数量的网格布局。创建一张合成图像，用黑色背景填充任何空缺的网格位置。 |\n| `FL_ImageBlank` | 创建具有指定宽度、高度和 RGB 颜色值的空白图像。生成适合在 ComfyUI 工作流中使用的纯色张量图像。 |\n| `FL_ImageCrop` | 根据指定的方向（顶部、底部、左侧、右侧或组合）以及像素数量裁剪图像。自动验证裁剪量，防止超出图像边界。 |\n| `FL_ImageDimensionDisplay` | 提取并返回输入图像的宽度和高度尺寸，格式化为字符串。支持张量和 PIL 图像格式。 |\n| `FL_ImageListToImageBatch` | 将单个图像列表转换成一个批处理图像张量。如果需要，自动使用 Lanczos 插值调整图像大小，使其与第一张图像的尺寸一致。 |\n| `FL_ImageNotes` | 在图像顶部或底部添加带有自定义文本的文本栏。支持可配置的文本栏高度、字体大小、边框，以及可选的自动换行功能，可根据换行后的内容自动调整高度。 |\n| `FL_ImageRandomizer` | 根据种子值（使用模运算实现确定性选择），从指定目录中随机选择一张图像或一段视频。支持子目录搜索，并返回所选媒体及其文件路径和文件名。 |\n| `FL_ImageSelector` | 使用逗号分隔的索引或“last”关键字从批次中选择特定图像。返回仅包含指定图像的新批次，顺序与列出的顺序一致。 |\n| `FL_ImageSlicer` | 根据 x 和 y 方向的分割数量，将图像划分为等尺寸的矩形切片网格。按从左到右、从上到下的顺序，将所有切片作为一批图像返回。 |\n| `FL_LoadImage` | 提供文件浏览器界面，用于从自定义目录结构加载图像，并配备服务器端 API 端点。将 RGBA 图像转换为 RGB 格式，同时进行白色背景合成，并支持多种图像格式。 |\n| `FL_PaddingRemover` | 通过分析边缘颜色及其在行和列中的一致性，检测并移除图像中的均匀填充。支持 CPU 和 GPU 处理模式、可配置的容差范围、最小内容尺寸约束，以及额外的手动修剪选项，并可选择显示调试可视化结果。 |\n| `FL_ReplaceColor` | 使用 RGB 空间中的欧氏距离和可配置的容差，将特定源颜色的像素替换为目标颜色。支持形态学操作（膨胀\u002F收缩），利用圆形核扩展或侵蚀替换区域。 |\n| `FL_SaveImages` | 将图像保存到自定义文件夹结构中，采用模板化文件名并自动递增索引，以避免覆盖。支持将元数据作为单独的文本文件与图像一起保存。 |\n| `FL_SaveRGBAAnimatedWebP` | 根据可配置的 FPS、质量和编码方式，从独立的 RGB 和 Alpha 通道图像批次中保存动画 WebP 文件。创建带有棋盘格背景的预览图以展示透明效果，并导出 WebP 动画以及包含带 Alpha 通道的单帧 PNG 图像的 ZIP 文件。 |\n| `FL_SaveWebM` | 使用 VP9 编解码器将图像批次导出为 WebM 视频文件，支持可配置的 FPS、质量以及可选的 Alpha 通道保留。基于 imageio 和 ffmpeg 后端实现，并包含编码错误的回退处理机制。 |\n\n### 📷 截图与示例\n\n![🖼️ 图像节点示例](images\u002Fnodes\u002Fimage_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-captioning-nodes\">📝 字幕节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于生成、保存及操作图像和视频字幕的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_CSVExtractor` | 使用基于种子的选择机制，从随机选取的 CSV 行中提取特定列的值，支持跳过表头，并返回提取的文本、行号以及整行数据。采用基于取模的伪随机选择方法，以确保结果可重复。 |\n| `FL_CaptionSaver_V2` | 高级字幕保存节点，支持图像张量输入和目录输入两种模式，可选择单个或多个字幕选项，还可选择性保存掩码图像，并配置缩放因子。提供灵活的字幕分配功能，具备自动扩展\u002F截断列表的能力，且在禁用覆盖时会自动生成唯一文件名。 |\n| `FL_CaptionToCSV` | 扫描图像目录，创建内存中的 CSV 文件，将图像文件名与其对应的字幕文本文件进行映射。返回 UTF-8 编码的 CSV 数据，包含 image_file 和 caption 两列。 |\n| `FL_ImageCaptionLayout` | 创建一个可视化网格布局，将目录中的图像与其字幕文件组合在一起，生成一张具有可配置行数、图像大小、内边距和字幕框的合成图像。返回适合在 ComfyUI 中显示的 PyTorch 张量。 |\n| `FL_ImageCaptionLayoutPDF` | 生成 PDF 文档及图像预览，展示目录中图像及其字幕的网格布局，支持分页功能，可配置页面布局尺寸、方向和字体设置。使用 ReportLab 生成 PDF，PIL 生成图像预览。 |\n| `FL_ImageCaptionSaver` | 将一批图像及其关联的字幕文本保存到指定文件夹中，通过移除特殊字符对字幕进行清理，并支持可选的防止文件覆盖功能。处理张量到图像的转换时，会自动将灰度图像转为 RGB 格式，并进行正确的数值归一化。 |\n| `FL_LoadCSV` | 从磁盘加载 CSV 文件，并返回原始二进制数据和行数，供其他节点使用。验证文件是否存在、扩展名是否正确，并记录修改时间以便失效缓存。 |\n| `FL_MirrorAndAppendCaptions` | 处理目录中的图像，在字幕中追加帧编号，并可选地创建水平镜像副本，同时为镜像帧重新编号。支持在字幕前或后添加自定义文本，并将原始图像和镜像图像都保存回原目录。 |\n| `FL_OllamaCaptioner` | 使用 Ollama LLM 生成图像字幕，先将图像编码为 base64 格式，再发送至本地 Ollama 服务器进行描述生成。可选择保存 AI 生成的字幕或默认字幕，支持自定义模型选择和 URL 配置。 |\n| `FL_SaveCSV` | 将接收到的 CSV 数据（以字节形式）写入指定文件路径，自动创建输出目录并确保文件扩展名为 .csv。提供带错误处理和控制台日志的文件写入功能，用于确认保存操作。 |\n| `FL_VideoCaptionSaver` | 使用 OpenCV 将一系列图像张量转换为视频文件（MP4 或 AVI），可配置 FPS 和质量参数，同时保存关联的字幕文本文件。处理 RGB 到 BGR 的转换，逐帧处理并跟踪进度，支持防止文件覆盖功能。 |\n| `FL_WordFrequencyGraph` | 分析目录中的所有文本文件，生成词频统计的横向条形图可视化效果，支持自定义配色方案、词语过滤选项以及可配置的输出尺寸。排除常见停用词，生成深色主题的 matplotlib 图表，并以 PyTorch 张量形式输出。 |\n\n### 📷 截图与示例\n\n![📝 字幕节点示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffilliptm_ComfyUI_Fill-Nodes_readme_2230d4042b67.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-vfx-nodes\">✨ 视觉特效节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于对图像应用视觉特效的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_Ascii` | 通过以固定间隔采样像素并将它们映射到自定义字符集，将图像转换为 ASCII 艺术；支持按顺序或基于亮度选择字符，可配置间距、字体和字号。 |\n| `FL_Dither` | 应用多种抖动算法（Floyd-Steinberg、随机、有序、Bayer），将图像减少到指定颜色数，创建复古风格的颜色量化效果；可配置调色板大小，范围从 2 到 256 种颜色。 |\n| `FL_Glitch` | 使用 glitch_this 库创建数字故障效果，可控制故障强度并选择是否偏移 RGB 颜色通道；在处理过程中将图像旋转 90 度，从而在水平和垂直方向上同时应用效果。 |\n| `FL_HalftonePattern` | 通过将图像转换为灰度，并根据区域亮度生成不同大小的圆形点来创建半色调点阵图案；可配置点的大小和间距参数，以实现类似报纸印刷的效果。 |\n| `FL_HexagonalPattern` | 使用 PIL 的多边形绘制功能，通过拼贴输入图像的六边形裁剪块来创建马赛克风格的图像；可配置阴影效果、背景颜色、旋转角度和间距。 |\n| `FL_ImageCollage` | 通过在基础图像上拼贴模板图像来生成照片马赛克；每个拼贴块会根据对应基础区域的平均颜色进行着色，可配置拼贴块的大小和间距。 |\n| `FL_ImagePixelator` | 使用 Kornia 的形态学梯度边缘检测技术应用像素化效果；支持配置缩放因子、内核大小以及正弦波调制，以实现跨图像序列的动画化像素化强度变化。 |\n| `FL_InfiniteZoom` | 使用 GLFW 和 OpenGL 着色器生成无限缩放\u002F德罗斯特效应；支持配置缩放比例、镜像\u002F漩涡参数、迭代次数和动画速度，以创建递归视觉图案。 |\n| `FL_PaperDrawn` | 使用 OpenGL 片段着色器模拟手绘素描效果；通过可配置的角度数量、采样密度、线条宽度和暗角强度，对图像进行方向性梯度分析，从而营造铅笔素描般的美学效果。 |\n| `FL_PixelArtShader` | 通过最近邻插值下采样图像、应用颜色量化，并可选地使用 K-means 聚类提取颜色调色板后进行映射，从而创建像素艺术效果。 |\n| `FL_PixelSort` | 基于 HSV 饱和度值实现像素排序效果；可在检测到的边缘区间内按水平或垂直方向对像素进行排序，支持配置阈值、平滑度和旋转参数。 |\n| `FL_RetroEffect` | 使用 PIL 图像处理技术，通过偏移 RGB 颜色通道、叠加扫描线、添加高斯模糊的径向暗角以及混合随机噪声，创建复古 CRT 显示器效果。 |\n| `FL_Ripple` | 基于距可配置中心点的距离，使用正弦位移映射生成放射状涟漪\u002F波纹扭曲效果；可调节振幅、频率、相位，并可选择是否应用正弦波调制。 |\n| `FL_Shadertoy` | 使用 OpenGL 渲染与 Shadertoy 兼容的 GLSL 着色器，支持最多 4 个输入图像通道、iResolution\u002FiTime\u002FiFrame 均匀变量，以及可配置帧数\u002FFPS，以实现基于着色器的生成式效果。 |\n| `FL_TextOverlayNode` | 在图像上叠加自定义文本，支持 TrueType 字体（系统或本地字体）、RGB 颜色配置、基于百分比的定位方式、9 个锚点位置以及使用 PIL ImageDraw 进行多行文本渲染。 |\n\n### 📷 截图与示例\n\n![✨ VFX 节点示例](images\u002Fnodes\u002Fvfx_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-utility-nodes\">🛠️ 工具节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于各种任务的通用工具节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_ClipScanner` | 使用 OpenCLIP 分词器对不同模型类型的文本提示进行分词（SDXL ViT-G\u002F14、SD 1.5 ViT-L\u002F14、FLUX ViT-L\u002F14），并显示详细的分词分析，包括分词数量和解码后的输出。 |\n| `FL_CodeNode` | 执行以字符串形式输入或从文件加载的任意 Python 代码，提供四个通用输出槽，并通过 inputs\u002Foutputs 字典支持动态输入，便于自定义算法集成。 |\n| `FL_DirectoryCrawl` | 递归遍历目录，批量加载图像或文本文件，并跟踪进度；返回图像既可作为批处理张量（已填充），也可作为单独的图像列表，以实现灵活的处理方式。 |\n| `FL_Float` | 输出四舍五入到小数点后两位的浮点数值，用作工作流中的简单浮点常量提供者。 |\n| `FL_InpaintCrop` | 根据掩码边界框裁剪图像，支持多种尺寸调整模式（自由、强制、范围、长\u002F短边），并可扩展上下文区域；可选地进行补洞操作（CPU\u002FGPU），同时生成拼接数据以便重新组合。 |\n| `FL_Inpaint_Stitch` | 使用 FL_InpaintCrop 生成的裁剪数据，将修复后的图像拼接回原始位置，处理缩放和 Alpha 混合，使处理区域无缝融合。 |\n| `FL_JS` | 在 ComfyUI 工作流动态事件（before_queued、after_queued、executing、executed 等）触发时执行自定义 JavaScript 代码，用于客户端脚本集成。 |\n| `FL_Math` | 使用安全的 AST 解析评估最多包含三个变量（A、B、C）的数学表达式，支持基本算术运算符（加、减、乘、除、幂），并返回整数和浮点结果。 |\n| `FL_ModelInspector` | 检查 PyTorch 检查点文件（.ckpt、.safetensors），提取全面信息，包括参数数量、层形状、架构分析及模型结构，并支持多种加载方法和回退机制。 |\n| `FL_Padding` | 在图像的四边添加可定制的填充，颜色可配置为 RGB，支持可选的 Alpha 通道，并正确处理张量以进行批处理。 |\n| `FL_PasteByMask` | 将图像粘贴到基础图像的掩码位置，具备多项高级功能，包括多种缩放行为（缩放、保持比例填充\u002F适应、源尺寸）、混合模式（正常、正片叠底、滤色、叠加等）、羽化效果以及掩码映射支持，适用于批量处理。 |\n| `FL_PasteOnCanvas` | 将带掩码的图像粘贴并居中放置在指定尺寸的画布上，背景可选择颜色或图片，支持多种缩放算法（双线性、最近邻、双三次、Lanczos）、填充和 Alpha 通道处理。 |\n| `FL_PathTypeChecker` | 分析文件路径字符串，判断其类型（绝对路径、相对路径、UNC 路径、URL 格式、驱动器特定路径），并进行验证和分类。 |\n| `FL_RandomNumber` | 在指定范围内生成随机整数和浮点数，支持基于种子的可重复性；当种子为 0 时，会自动生成随机种子。 |\n| `FL_SDUltimate_Slices` | 计算 SD Ultimate 超分辨率的切片尺寸，将图像划分为可配置的网格模式（1x1 至 4x4），并支持乘数调整切片大小。 |\n| `FL_SeparateMaskComponents` | 使用 OpenCV 的连通组件标记算法，将多组件掩码分离为独立的连通组件，返回分离后的掩码及用于批量追踪的映射张量。 |\n| `FL_Switch` | 实现惰性求值的布尔开关，根据开关值评估并返回 on_true 或 on_false 输入，从而在不评估未使用分支的情况下实现条件工作流执行。 |\n| `FL_Switch_Big` | 实现惰性求值的多分支开关逻辑（5 个分支 + 默认分支），通过比较开关条件与各个分支字符串，仅评估匹配的输入路径，以实现条件工作流分支。 |\n| `FL_SystemCheck` | 通过 HTTP 端点收集并暴露系统信息，包括 Python 版本、操作系统、CPU、内存、GPU、库版本（PyTorch、transformers 等）以及环境变量。 |\n| `FL_UnloadModel` | 从 ComfyUI 的模型管理系统中卸载指定模型，释放内存并清空 CUDA 缓存，同时具备透传功能，以保证工作流的连续性。 |\n| `FL_VideoCropMask` | 根据掩码边界框裁剪视频帧，并进行时间平滑处理，保持宽高比，可选地添加填充，返回每帧的裁剪视频、掩码及裁剪数据。 |\n| `FL_VideoRecompose` | 使用 FL_VideoCropMask 生成的裁剪数据，将裁剪区域替换回原始视频帧中，调整处理后的帧大小以匹配原始裁剪尺寸。 |\n\n### 📷 截图与示例\n\n![🛠️ 实用节点示例](images\u002Fnodes\u002Futility_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-ksamplers-nodes\">🎲 KSamplers 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于生成过程中采样的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_KSamplerXYZPlot` | 网格比较采样器，通过遍历 X\u002FY 轴值（步数、CFG、去噪、采样器或调度器）生成参数扫描可视化效果，并可选择 Z 轴叠加（垂直\u002F水平），最终输出带有轴标签和参数注释的图像网格，便于系统性地测试参数。 |\n| `FL_KsamplerBasic` | 简化版采样器节点，接受潜在空间或图像输入（并进行 VAE 编码），执行标准的 KSampler 操作，支持自定义步数\u002FCFG\u002F采样器\u002F调度器\u002F去噪等参数，并同时输出潜在空间结果和解码后的图像结果。 |\n| `FL_KsamplerPlus` | 高级分块采样器，将潜在空间或图像输入分割成重叠的网格切片（可配置 X\u002FY 切片数量及重叠区域），对每个切片进行处理，支持可选的区域特定条件控制（包括 ControlNet 裁剪），并通过余弦加权掩码融合结果以消除接缝。 |\n| `FL_KsamplerPlusV2` | FL_KsamplerPlus 的增强版本，新增用户可配置的条件强度倍增器、完整的条件拆分至各切片（包括池化输出和基于张量的条件）、针对切片条件的批量处理支持，以及可选的调试信息输出功能。 |\n| `FL_KsamplerSettings` | 配置节点，输出采样参数，包括宽高比尺寸（SD\u002FXL\u002FSVD 预设，支持横竖屏切换）、批大小、两遍步骤数、CFG 比例、去噪强度、缩放因子，以及采样器和调度器的选择。 |\n| `FL_SamplerStrings` | 字符串生成节点，提供 27 种采样器类型的布尔开关（euler、dpm、heun、ddim 等），输出所选采样器名称的逗号分隔字符串，适用于批量处理工作流。 |\n| `FL_SchedulerStrings` | 字符串生成节点，提供 7 种调度器类型的布尔开关（normal、karras、exponential、sgm_uniform、simple、ddim_uniform、beta），输出所选调度器名称的逗号分隔字符串，用于批量处理工作流。 |\n\n### 📷 截图与示例\n\n![🎲 KSamplers 节点示例](images\u002Fnodes\u002Fksamplers_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-pdf-nodes\">📄 PDF 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于处理 PDF 文件的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_BulkPDFLoader` | 加载指定目录路径下的所有 PDF 文件，并将其返回为包含文件元数据（路径、文件名、页数）和二进制内容的 PDF 数据对象列表。验证 PDF 是否存在且可读，收集加载失败的错误信息。 |\n| `FL_ImagesToPDF` | 将 ComfyUI 图像张量转换为单个 PDF 文档，支持自定义 DPI 和页面尺寸（A4\u002FLetter\u002FLegal），自动缩放并居中每张图像以适应页面，同时保持宽高比。返回内存中的 PDF 数据对象。 |\n| `FL_PDFEncryptor` | 使用 PyPDF2 对 PDF 进行加密，支持用户密码和所有者密码，提供 40 位或 128 位加密选项，并具备细粒度的权限控制（打印、复制、评论、填写表单、拼合、提取内容）。返回加密后的内存 PDF 数据对象。 |\n| `FL_PDFImageExtractor` | 从 PDF 页面中提取符合最小宽高阈值的嵌入式图像，支持多种压缩格式（DCTDecode\u002FJPEG、FlateDecode\u002FPNG、JPXDecode\u002FJPEG2000、LZWDecode）。返回提取的图像作为归一化的 PyTorch 张量，格式为 [B, H, W, C]。 |\n| `FL_PDFLoader` | 从指定文件路径加载单个 PDF 文件，并将其返回为包含文件路径、页数和二进制内容的 PDF 数据对象。在加载前会验证文件是否存在及是否为有效 PDF 格式。 |\n| `FL_PDFMerger` | 使用 PyPDF2 的 PdfMerger 将两个 PDF 数据对象合并为一个，将第二个 PDF 追加到第一个 PDF 之后。返回合并后的 PDF 内存数据对象及其总页数。 |\n| `FL_PDFSaver` | 将 PDF 数据对象保存到指定目录路径下的给定文件名处，若输出目录不存在则自动创建，并在文件名后添加 '.pdf' 扩展名（如未包含）。返回完整的输出文件路径。 |\n| `FL_PDFTextExtractor` | 使用 PyPDF2 的文本提取功能逐页遍历 PDF 文档，提取全部文本内容，并以双换行符作为页面分隔符将所有页面的文本合并为一个字符串。返回提取的文本。 |\n| `FL_PDFToImages` | 使用 PyMuPDF (fitz) 将 PDF 页面转换为图像，支持自定义 DPI 分辨率，既可处理单个 PDF，也可处理 PDF 列表。返回所有页面的归一化 PyTorch 图像张量，拼接成一个批次。 |\n| `FL_TextToPDF` | 使用 ReportLab 画布根据纯文本输入生成 PDF 文档，支持自定义页面尺寸、字体大小、页边距和标题，自动处理文本换行和分页。返回包含计算页数的内存 PDF 数据对象。 |\n\n### 📷 截图与示例\n\n![📄 PDF 节点示例](images\u002Fnodes\u002Fpdf_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-gpt-nodes\">🤖 GPT 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于集成 GPT 和 OpenAI 模型的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_Dalle3` | 使用 OpenAI 的 DALL-E 3 模型生成图像，支持异步批处理，并根据参数缓存结果以避免重复 API 调用；返回图像张量及修订后的提示词。支持自动保存功能，可生成包含元数据的 JSON 文件，并提供可配置的 API 失败重试逻辑。 |\n| `FL_GPT_Image1` | 使用 OpenAI 的 gpt-image-1 模型生成或编辑图像，支持批量生成、带可选掩码的图像编辑以及全面的错误处理机制——在发生错误时会生成带有文字反馈的错误图像。实现了重试逻辑、针对编辑端点的 multipart form-data 请求，并能处理 base64 编码和 URL 格式的图像响应。 |\n| `FL_GPT_Image1_ADV` | 高级多输入变体，利用 OpenAI 的 gpt-image-1 模型同时生成多张图像，可并行处理最多 100 个提示词及对应的待编辑图像，采用 async\u002Fawait 和线程池执行方式。每个输入槽位可独立设置提示词和可选图像，所有输出合并为一个批次张量，并记录详细的每次调用响应日志。 |\n| `FL_GPT_Text` | 对 OpenAI 的 GPT 模型（GPT-4、GPT-3.5-turbo）进行同步 API 调用，实现文本补全功能，提供对温度、top_p 以及频率\u002F存在惩罚等参数的完全控制。可选择将响应保存到文件，若未提供 API 密钥，则回退使用环境变量中的密钥。 |\n| `FL_GPT_Vision` | 使用 OpenAI 的 GPT-4 Vision 模型批量处理图像，异步生成描述文字，支持自定义批次大小，既可接收输入目录，也可直接处理图像张量，并将描述文字与图像一同保存到文本文件中。API 密钥从环境变量 OPENAI_API_KEY 中获取。 |\n| `FL_SimpleGPTVision` | 将单张图像发送至 OpenAI 的 GPT-4 Vision API，根据可配置的系统和用户提示生成文本描述，并内置基于指数退避的限流重试逻辑。返回生成的描述文字作为字符串输出。 |\n\n### 📷 截图与示例\n\n![🤖 GPT 节点示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffilliptm_ComfyUI_Fill-Nodes_readme_b540e8ce3691.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-ai-nodes\">🧠 AI 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *与各类AI模型及服务集成的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_Fal_Gemini_ImageEdit` | 使用Fal AI Gemini 2.5 Flash Image Edit API编辑最多5张输入图像，支持多模态提示、异步处理以及自动图片URL生成。返回已编辑图片及其URL和描述。 |\n| `FL_Fal_Kling_AIAvatar` | 利用Fal AI Kling Video API结合输入图像与音频张量或图像序列生成AI头像视频，可选文本提示优化。返回提取的视频帧及原始音频。 |\n| `FL_Fal_Kontext` | 使用Fal AI Flux Pro Kontext API编辑图像，支持多张图像输入（批量处理）、异步并行处理，并可配置宽高比和安全容忍度。返回多次API调用后的批量编辑图像。 |\n| `FL_Fal_Pixverse` | 使用Fal AI Pixverse v5 Image-to-Video API从单张图像生成视频，提供风格预设、摄像机运动效果及并行批量处理（最多5个）。返回生成视频中提取的帧作为张量。 |\n| `FL_Fal_Pixverse_LipSync` | 使用Fal AI Pixverse LipSync API生成口型同步视频，支持音频输入和文本转语音模式，并可选择声音；对视频帧张量进行音频同步处理。返回口型同步的视频帧和音频。 |\n| `FL_Fal_Pixverse_Transition` | 使用Fal AI Pixverse v5 Transition API在两张图像之间创建过渡视频，分辨率、宽高比和持续时间均可配置。返回生成过渡视频中提取的帧。 |\n| `FL_Fal_Seedance_i2v` | 使用Fal AI ByteDance Seedance v1 Pro Image-to-Video API从单张图像生成视频，支持使用[cut]标记的多段提示、可配置的分辨率、时长和摄像机设置。返回生成视频中所有提取的帧。 |\n| `FL_Fal_Seedream_Edit` | 使用Fal AI ByteDance Seedream v4 Edit API编辑最多10张图像，支持自定义或预设图像尺寸，自动缩放以满足最小尺寸要求同时保持宽高比。返回已编辑图像及其URL和种子信息。 |\n| `FL_Fal_Sora` | 使用Fal AI Sora 2 API生成视频，支持文本到视频和图像到视频两种模式，可选OpenAI API密钥直通，根据PRO模式自动选择端点，并可提取音频。返回视频帧、音频波形、视频URL及状态消息。 |\n| `FL_GeminiImageEditor` | 使用Google Gemini 2.5 Flash Image API生成或编辑图像，支持最多4张参考图像、批量生成与并行异步处理，以及可选的正方形填充。返回生成图像列表及详细的API响应日志。 |\n| `FL_GeminiImageGenADV` | 利用Google Gemini进行高级多输入图像生成，输入数量动态可调（1–100），采用异步并行批量处理，并为每个输入单独配对提示\u002F图像。根据可变的输入槽位数返回生成的图像列表。 |\n| `FL_GeminiTextAPI` | 使用Google Gemini模型（2.5\u002F2.0\u002F1.5版本）生成文本回复，可配置温度、令牌限制及可选系统指令。返回未经额外格式化的原始文本输出。 |\n| `FL_GeminiVideoCaptioner` | 使用Google Gemini API为视频或图像序列生成详细字幕，自动转换为WebM格式以兼容API，按可配置的FPS提取帧，并支持音频处理。返回字幕文本及视频中的示例帧。 |\n| `FL_Hedra_API` | 使用Hedra API根据图像、音频文件和文本提示生成视频，可配置宽高比和分辨率，自动轮询以确认生成完成，并从下载的视频中提取帧。返回包含处理日志的视频帧张量。 |\n| `FL_HunyuanDelight` | 通过Stable Diffusion InstructPix2Pix流程，利用Hunyuan3D-2模型处理图像，可配置CFG、步骤数及迭代优化循环。从HuggingFace下载模型，执行无文本提示的图像到图像转换。 |\n| `FL_PixVerseAPI` | 使用PixVerse API从图像生成视频，支持标准图像转视频和过渡模式，可配置种子的并行批量处理，并自动从生成的MP4视频中提取帧。返回最多5批提取的帧作为张量。 |\n| `FL_RunwayAct2` | 使用RunwayML Act Two API根据输入的人物图像\u002F视频和参考视频生成角色表演视频，可控制身体动作和表情强度。返回提取的视频帧作为张量。 |\n| `FL_RunwayImageAPI` | 使用RunwayML Gen4 Image API生成图像，支持最多3张带有自定义标签的参考图像、可配置的生成参数，并自动轮询任务完成情况。返回生成的图像张量及详细的状态日志。 |\n| `FL_Veo3VideoGen` | 使用Google Vertex AI Veo 3.0模型生成视频，需使用服务账号认证，可选参考图像输入，分辨率\u002F宽高比可配置，并自动轮询以提取帧。返回提取的视频帧、视频路径及处理日志。 |\n| `FL_VertexGemini25FlashImage` | 使用Google Vertex AI Gemini 2.5 Flash Image模型生成图像，需服务账号认证，支持最多3张参考图像，并进行并行批量生成。返回生成图像的批次张量及详细的处理日志。 |\n\n### 📷 截图与示例\n\n![🧠 AI节点示例](images\u002Fnodes\u002Fai_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-audio-nodes\">🔊 音频节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于音频分析、处理以及音频响应式视觉效果的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_Audio_BPM_Analyzer` | 使用librosa分析音频以检测BPM和节拍位置，提供两种BPM计算方法（beat_intervals或onset_strength）、节拍偏移调整以及自动补全节拍以覆盖整个音频时长。输出包含可视化信息的JSON格式节拍位置。 |\n| `FL_Audio_Beat_Visualizer` | 通过在节拍变化时交替显示黑\u002F白帧，或循环播放提供的图像来生成可视化节拍模式的视频帧，可配置帧尺寸和起始颜色。 |\n| `FL_Audio_Crop` | 使用MM:SS或秒格式裁剪音频波形至指定的开始和结束时间，并自动限制在有效音频边界内。 |\n| `FL_Audio_Drum_Detector` | 利用librosa的节拍检测结合频段分析（底鼓：30-300Hz，军鼓：150-400Hz + 4-10kHz噪声，踩镲：6kHz+）检测音频中的底鼓、军鼓和踩镲，灵敏度阈值可调。 |\n| `FL_Audio_Envelope_Visualizer` | 将音频包络可视化为灰度视频帧，像素强度对应包络值，可配置强度倍数及是否反转颜色。 |\n| `FL_Audio_Music_Video_Sequencer` | 根据节拍位置，利用基于模式的编排（A\u002FB\u002FC\u002FD模式，可配置节拍数量）生成完整的音乐视频镜头序列，确保帧边界无漂移，并为每段镜头生成详细元数据，包括时间、节拍及采样边界。 |\n| `FL_Audio_Reactive_Brightness` | 根据音频包络计算出的亮度因子乘以帧像素值，可配置基础亮度、强度缩放、是否反转以及输出限幅。 |\n| `FL_Audio_Reactive_Edge_Glow` | 使用Sobel算子进行音频响应式边缘检测（或接受预计算的边缘帧），并添加随包络值脉动的彩色光晕效果，支持多种混合模式（加法、屏幕、叠加）和光晕颜色。 |\n| `FL_Audio_Reactive_Envelope` | 根据鼓检测时间（底鼓、军鼓、踩镲）生成逐帧的ADSR包络（攻击、衰减、维持、释放），每种鼓类型的包络参数均可独立配置。 |\n| `FL_Audio_Reactive_Saturation` | 根据包络调制的饱和度值，在灰度图像（使用Rec. 709亮度系数）和原始帧之间进行混合，从而调整色彩饱和度，支持饱和与去饱和效果。 |\n| `FL_Audio_Reactive_Scale` | 基于音频包络值对帧应用音频响应式缩放效果，可通过居中裁剪或填充保持尺寸不变，并可配置插值模式（双线性、双三次、最近邻）。 |\n| `FL_Audio_Reactive_Speed` | 利用从音频包络中累积的速度倍数重新映射帧的时间，实现动态加速\u002F减速效果，同时进行帧插值并可选择是否反转包络。 |\n| `FL_Audio_Segment_Extractor` | 根据BPM分析器预先分析的节拍位置提取音频片段，通过累积时间映射实现无漂移的帧对齐，并输出精确的帧数以便视频同步。 |\n| `FL_Audio_Separation` | 使用torchaudio中的Hybrid Demucs模型将音频分离为四个音轨（低音、鼓、其他、人声），采用分块处理以控制内存使用，并可配置重叠\u002F淡入淡出参数。 |\n| `FL_Audio_Shot_Iterator` | 根据音乐视频序列JSON中的镜头索引提取单个镜头的元数据（帧数、节拍范围、时间边界），专为视频序列的迭代处理设计。 |\n\n### 📷 截图与示例\n\n![🔊 音频节点示例](images\u002Fnodes\u002Faudio_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-experimental-nodes\">🧪 实验性节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *具有各种功能的实验性节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_BatchAlign` | 通过共享注意力机制和归一化层应用风格对齐技术，修补模型以实现批次对齐生成。使用自适应实例归一化（AdaIN）作用于查询、键和值，可配置注意力共享和归一化策略（分组、层或两者）。 |\n| `FL_ColorPicker` | 一个简单的实用节点，接收十六进制颜色字符串输入并原样输出，旨在方便工作流中的颜色选择。 |\n| `FL_GradGenerator` | 根据JSON格式的颜色停止点规范（包含位置和颜色值）生成渐变图像。支持RGB\u002FHSV颜色模式及多种插值曲线（线性、缓入、缓出、缓入缓出），可配置尺寸。 |\n| `FL_NFTGenerator` | 根据文件名中编码的稀有度百分比（格式：名称-XXXper-val），从目录中随机选择图像，采用加权概率选择并可配置种子。返回所选图像及其对应的掩码文件（若未找到则返回空白掩码）。 |\n\n### 📷 截图与示例\n\n![🧪 实验性节点示例](images\u002Fnodes\u002Fexperiments_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-prompting-nodes\">💬 提示词节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于生成和操作提示词的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_MadLibGenerator` | 通过将模板中的最多5种不同分隔符模式替换为来自相应词表的随机单词来生成文本。使用MD5哈希对每个词表进行种子设定，以确保每次分隔符的随机化既可重复又相互独立。 |\n| `FL_PromptBasic` | 将三个文本字符串（前置、提示、后置）拼接在一起，不添加任何空格，保留用户指定的格式用于构建提示词。 |\n| `FL_PromptMulti` | 将多行正面和负面提示词处理成平行列表，自动通过重复最后一个提示或使用空字符串来平衡数量。生成带有可配置前缀的索引名称，并以列表形式输出以便批量处理。 |\n| `FL_PromptSelector` | 从多行提示词字符串中按索引选择一行提示，可选择在前后添加文本并自动插入空格。 |\n\n### 📷 截图与示例\n\n![💬 提示节点示例](images\u002Fnodes\u002Fprompting_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-file-operation-nodes\">📂 文件操作节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于文件操作的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_ZipDirectory` | 使用 ZIP_DEFLATED 压缩算法，在内存中创建整个目录结构的 ZIP 压缩包，返回原始字节流，无需写入磁盘。 |\n| `FL_ZipSave` | 将目录压缩为 ZIP 文件，并保存到指定输出路径，通过时间戳后缀自动处理文件名冲突问题。 |\n\n### 📷 截图与示例\n\n![📂 文件操作节点示例](images\u002Fnodes\u002Ffileoperations_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-google-drive-nodes\">☁️ Google Drive 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于集成 Google Cloud 服务的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_GoogleCloudStorage` | 使用服务账号凭据将图像或合成视频上传至 Google Cloud Storage 存储桶。支持批量上传图像、自定义编解码器和帧率的视频合成、公私访问控制以及自定义元数据附加。 |\n| `FL_GoogleDriveDownloader` | 使用共享链接从 Google Drive 下载文件，自动解压 ZIP 压缩包，并以有序的目录结构管理输出结果，同时清理临时文件。 |\n| `FL_GoogleDriveImageDownloader` | 从 Google Drive 其他用户共享链接下载图像，可选使用 MD5 哈希索引的本地缓存系统。下载后的图像会被转换为归一化到 [0,1] 范围的 RGB 张量，且缓存行为可配置。 |\n\n### 📷 截图与示例\n\n![☁️ Google Drive 节点示例](images\u002Fnodes\u002Fgoogledrive_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-api-tool-nodes\">🔌 API 工具节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于 API 交互的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_API_Base64_ImageLoader` | 解码 Base64 编码的图像（自动去除 Data URL 前缀），并将其转换为 ComfyUI 图像张量。支持按比例缩放并保持宽高比，返回包含尺寸、作业 ID、用户 ID 和类别的图像张量。 |\n| `FL_API_ImageSaver` | 将图像保存到分类目录结构中（base\u002Fcategory\u002Fuser_id\u002Fjob_id.format），支持 PNG、JPG、JPEG 和 WebP 格式，并可配置质量设置。为 API 工作流返回完整路径、作业 ID、用户 ID 和类别。 |\n\n### 📷 截图与示例\n\n![🔌 API 工具节点示例](images\u002Fnodes\u002Fapitools_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-hugging-face-nodes\">🤗 Hugging Face 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于与 Hugging Face 集成的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_HFDatasetDownloader` | 使用 snapshot_download 下载 Hugging Face 仓库中的数据集、模型或 Spaces，可配置并行工作线程数及本地目录路径。 |\n| `FL_HFHubModelUploader` | 将模型和资产上传至 Hugging Face Hub，自动生成 README 文件、支持模型卡片头部信息，并整理文件结构。能够处理图像、ZIP 文件和大型模型文件，具备多线程进度跟踪和重试逻辑。 |\n| `FL_HF_Character` | 使用结构化路径格式（studio\u002Fproject\u002Fcharacter）将角色相关资源（LoRA、数据集、说明文字、CSV 文件等）上传至 Hugging Face Hub，便于管理角色库。 |\n| `FL_HF_UploaderAbsolute` | 将各类文件（LoRA 文件、ZIP 数据集、图像、PDF、CSV 等）上传至 Hugging Face 仓库的指定路径，并跟踪上传进度。支持创建仓库，使用环境变量 HUGGINGFACE_API_KEY 进行身份验证。 |\n\n### 📷 截图与示例\n\n![🤗 Hugging Face 节点示例](images\u002Fnodes\u002Fhuggingface_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-loader-nodes\">⏬ 加载节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于加载各种资源的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_NodeLoader` | 一个直通节点，接收并返回 TRIGGER 类型，专为工作流中的节点依赖关系管理而设计。 |\n| `FL_NodePackLoader` | 一个直通节点，其 IS_CHANGED 设置为 float('NaN')，确保每次触发时都会执行，适用于强制执行工作流。 |\n| `FL_UpscaleModel` | 使用已加载的超分辨率模型，按批次对图像进行放大，可控制精度（auto\u002F32\u002F16\u002Fbfloat16），并可选择缩小倍数；支持多种重采样方法（nearest-exact、bilinear、area、bicubic、lanczos），同时提供 TQDM 进度条显示。 |\n\n### 📷 截图与示例\n\n![⏬ 加载节点示例](images\u002Fnodes\u002Floaders_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-discord-nodes\">💬 Discord 节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于 Discord 集成的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_SendToDiscordWebhook` | 通过 Discord Webhook 发送单张图片或视频合集，可配置机器人用户名、自定义消息、提及特定用户（通过 Discord 用户 ID）、视频帧率控制，以及是否保留本地文件副本。 |\n\n### 📷 截图与示例\n\n![💬 Discord 节点示例](images\u002Fnodes\u002Fdiscord_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-work-in-progress-nodes\">🚧 进度未完成的节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *仍在开发中的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_FractalKSampler` | 一种实验性的递归 K-Sampler，通过分形放大和切片生成图像。它会放大潜在空间，将其分为四个象限，递归地对每个象限进行降噪处理，并根据配置的混合因子合成最终结果。 |\n| `FL_TimeLine` | 正在开发中的时间轴处理器节点，用于视频动画制作，支持 IPAdapter 预设选择、尺寸控制、插值模式以及帧率设置。该节点包含时间轴数据的 API 端点，但目前仍返回未修改的模型。 |\n| `FL_WF_Agent` | 工作流代理节点，负责运行节点扫描程序，以生成用于 AI 辅助工作流操作的缓存节点定义。它作为子进程运行扫描程序，并反馈缓存文件的创建情况及状态。 |\n| `FL_WanFirstLastFrameToVideo` | 基于首帧和末帧生成视频的增强版 WAN（Warp and Noise）实现，具备先进的定时控制功能。支持自定义关键帧位置、时间插值曲线（线性、缓动、弹跳）、区域遮罩以及 CLIP 视觉条件约束。 |\n\n### 📷 截图与示例\n\n![🚧 进度未完成的节点示例](images\u002Fnodes\u002Fwip_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-game-nodes\">🎮 游戏节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *实现游戏功能的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_BulletHellGame` | 即将实现的弹幕射击游戏节点，目前仅为占位符，未来将添加实际功能。 |\n| `FL_TetrisGame` | 即将实现的俄罗斯方块游戏节点，目前仅为占位符，未来将添加实际功能。 |\n\n### 📷 截图与示例\n\n![🎮 游戏节点示例](images\u002Fnodes\u002Fgames_nodes.png)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2 id=\"-video-nodes\">🎬 视频节点\u003C\u002Fh2>\u003C\u002Fsummary>\n\n> *用于视频处理和帧插值的节点。*\n\n| 节点 | 描述 |\n|------|-------------|\n| `FL_FILM` | 使用来自 Google Research 的 FILM（大运动帧插值）进行帧插值。首次使用时会从 HuggingFace 下载 TorchScript 模型，生成具有可配置倍数的中间帧，并采用基于时间步长的插值以实现平滑运动。 |\n| `FL_ProResVideo` | 使用 FFmpeg 将图像批次转换为 ProRes 4444 视频文件，采用高质量编码（yuva444p10le 像素格式，8000 bits_per_mb）。自动处理临时文件的创建、带时间戳且避免冲突的唯一命名以及清理工作。 |\n| `FL_RIFE` | 使用 RIFE（实时中间流估计）v4.7 架构进行帧插值。从 HuggingFace 下载模型权重，支持多个检查点（rife47、rife49）、可配置的倍数、可选的集成模式以提升质量，以及多尺度流估计。 |\n| `FL_VideoBatchSplitter` | 将一个视频批次严格按帧数校验后拆分为恰好 N 个等大小的子批次。返回最多 20 个独立的批次输出，每批次的帧数可配置，要求能整除且无余数。 |\n| `FL_VideoCadence` | 分析图像批次中的场景变化，并返回以逗号分隔的每个场景的帧数。支持可配置的检测方法（强度、直方图或混合），并提供 GPU 加速支持、下采样优化以及强制执行最小场景长度。 |\n| `FL_VideoCadenceCompile` | 从目录中加载视频，将每段视频从中间裁剪至与节奏列表中指定的帧数一致，然后将所有帧拼接成一个单独的图像批次。对帧数和尺寸进行验证，并具备错误处理机制。 |\n| `FL_VideoCrossfade` | 使用多种混合模式（正常、正片叠底、滤色、叠加、柔光、添加、减去）对两条视频序列进行可配置交叉淡入淡出混合。将两个输入调整为目标尺寸，并在序列之间生成平滑过渡。 |\n| `FL_VideoCut` | 检测图像批次中的场景切换，并通过并行 FFmpeg 处理将每个场景导出为单独的 MP4 文件。具有优化的场景检测功能（强度\u002F直方图\u002F混合）、GPU 加速、下采样优化，以及直接将帧管道传输至 FFmpeg 以提升性能。 |\n| `FL_VideoTrim` | 从图像批次的开头和结尾分别裁剪指定数量的帧，返回修剪后的视频以及分别包含被移除的起始和结束帧的输出。 |\n\n### 📷 截图与示例\n\n![🎬 视频节点示例](images\u002Fnodes\u002Fvideo_nodes.png)\n\n\u003C\u002Fdetails>\n\n---","# ComfyUI_Fill-Nodes 快速上手指南\n\nComfyUI_Fill-Nodes 是一个功能强大的 ComfyUI 自定义节点包，集成了图像处理、视觉特效、文件操作（PDF\u002FGoogle Drive）、多平台 AI 模型接口（GPT, DALL-E, Hugging Face 等）、音频反应特效及视频处理等全方位工具。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n*   **操作系统**: Windows, Linux 或 macOS\n*   **核心依赖**: \n    *   Python 3.10 或更高版本\n    *   ComfyUI (最新稳定版)\n    *   Git (用于克隆仓库)\n*   **前置知识**: 熟悉 ComfyUI 基本工作流操作\n*   **网络环境**: 部分节点（如 GPT, Google Drive, Hugging Face）需要稳定的网络连接以访问外部 API。国内用户建议配置合适的网络代理或使用国内镜像源加速依赖安装。\n\n## 安装步骤\n\n推荐使用 **ComfyUI Manager** 进行安装，这是最简便的方式。如果未安装 Manager，也可通过命令行手动安装。\n\n### 方法一：使用 ComfyUI Manager（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **\"Manager\"** 按钮。\n2.  选择 **\"Install Custom Nodes\"**。\n3.  在搜索框中输入 `Fill-Nodes` 或 `Machinedelusions`。\n4.  找到 `ComfyUI_Fill-Nodes`，点击 **\"Install\"**。\n5.  安装完成后，**重启 ComfyUI** 以加载新节点。\n\n### 方法二：手动命令行安装\n\n1.  进入 ComfyUI 的 `custom_nodes` 目录：\n    ```bash\n    cd path\u002Fto\u002FComfyUI\u002Fcustom_nodes\n    ```\n\n2.  克隆仓库代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmachinedelusions\u002FComfyUI_Fill-Nodes.git\n    ```\n    *(注：若国内访问 GitHub 较慢，可尝试使用镜像地址或配置 git proxy)*\n\n3.  进入插件目录并安装依赖：\n    ```bash\n    cd ComfyUI_Fill-Nodes\n    pip install -r requirements.txt\n    ```\n    *(国内用户建议使用清华源或阿里源加速安装：`pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`)*\n\n4.  重启 ComfyUI。\n\n## 基本使用\n\n安装重启后，您可以在节点搜索栏中通过前缀 `FL_` 找到所有相关节点。以下是两个最常用的基础示例：\n\n### 示例 1：图像批量调整与裁剪 (`FL_ImageAdjuster` & `FL_ImageAspectCropper`)\n\n此工作流用于统一调整一批图片的色彩并裁剪为特定比例（如视频所需的 16:9）。\n\n1.  **加载图片**: 使用标准的 `Load Image` 或 `FL_LoadImage` 节点加载单张或多张图片。\n2.  **色彩调整**: 添加 `FL_ImageAdjuster` 节点。\n    *   连接图像输入。\n    *   调整 `hue` (色相), `saturation` (饱和度), `brightness` (亮度) 等参数。\n3.  **比例裁剪**: 将上一步输出连接到 `FL_ImageAspectCropper`。\n    *   设置 `aspect_ratio` 为目标比例（例如输入 `16:9`）。\n    *   节点会自动居中裁剪并确保尺寸为偶数（兼容视频编码）。\n4.  **保存结果**: 连接至 `Save Image` 或 `FL_SaveImages` 节点输出最终结果。\n\n### 示例 2：自动生成图像描述 (`FL_OllamaCaptioner`)\n\n利用本地大模型为图片自动生成描述文本（Caption），适用于训练数据集准备。\n\n1.  **准备环境**: 确保本地已运行 Ollama 服务，并拉取了支持的模型（如 `llava` 或 `bakllava`）。\n    ```bash\n    ollama run llava\n    ```\n2.  **构建工作流**:\n    *   添加 `FL_OllamaCaptioner` 节点。\n    *   连接待处理的图像批次。\n    *   配置 `model_name` (例如 `llava`) 和 `url` (默认为 `http:\u002F\u002F127.0.0.1:11434`)。\n3.  **执行与保存**:\n    *   运行队列，节点将调用本地 Ollama 生成描述。\n    *   输出包含原始图像和生成的文本字符串。\n    *   可连接 `FL_CaptionSaver_V2` 节点，将图片和对应的 txt  caption 文件批量保存到指定文件夹。\n\n> **提示**: 该插件包含大量高级节点（如 PDF 生成、Google Drive 同步、音频可视化等），建议在熟悉基础节点后，根据具体需求在右键菜单中探索 `FL_` 开头的其他功能模块。","一位独立游戏开发者正在为像素风格 RPG 批量处理上千张手绘素材，需要统一提取线稿、去除废稿并添加复古噪点特效。\n\n### 没有 ComfyUI_Fill-Nodes 时\n- 开发者需分别在 Photoshop 中手动提取线稿，再导入 ComfyUI，流程割裂且无法自动化。\n- 面对大量测试生成的废图（如全黑渲染帧），只能人工肉眼筛选，耗时数小时且容易漏看。\n- 想要给图片添加统一的胶片噪点质感，必须编写复杂的自定义 Python 脚本或寻找多个分散的插件拼凑。\n- 调整批次图片的色调与对比度时，缺乏节点化控制，难以在生成工作流中动态微调参数。\n\n### 使用 ComfyUI_Fill-Nodes 后\n- 直接调用 `FL_AnimeLineExtractor` 节点，在工作流内部一键从原画提取高质量线稿，无缝衔接后续上色步骤。\n- 利用 `FL_BlackFrameReject` 节点设定阈值，自动过滤掉渲染失败的全黑图像，瞬间完成千张图片的清洗。\n- 通过 `FL_ImageAddNoise` 节点精确控制高斯噪点强度与种子，轻松为所有素材赋予一致的复古视觉风格。\n- 借助 `FL_ImageAdjuster` 节点实时调节色相、饱和度及对比度，无需离开工作流即可实现批量色彩校正。\n\nComfyUI_Fill-Nodes 将原本琐碎断裂的图像处理工序整合进单一自动化流，让创作者从重复劳动中解放，专注于核心创意设计。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffilliptm_ComfyUI_Fill-Nodes_2230d404.png","filliptm","Machine Delusions","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffilliptm_f9c9ecb7.png","Fill",null,"Machinedelusion","https:\u002F\u002Fgithub.com\u002Ffilliptm",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",81.7,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",18.2,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0,583,51,"2026-04-11T00:27:07","未说明","部分节点支持 GPU 加速（如 FL_PaddingRemover），但未明确指定必需显卡型号、显存大小或 CUDA 版本；依赖 ComfyUI 基础环境",{"notes":98,"python":95,"dependencies":99},"该工具是 ComfyUI 的自定义节点包，需先安装 ComfyUI。功能高度依赖外部 API（如 GPT, DALL-E, Google Drive, Ollama 等）及本地服务，使用时需配置相应的 API 密钥或本地服务器地址。部分功能涉及 PDF 生成和视频编码，需确保系统已安装相关编解码器。",[100,101,102,103,104,105,106],"torch","PIL (Pillow)","OpenCV","imageio","ffmpeg","ReportLab","matplotlib",[15,108,109,35,52],"音频","视频","2026-03-27T02:49:30.150509","2026-04-14T04:34:56.906610",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},32483,"遇到 'Missing Node Types - FL_SDUltimate_Slices' 或导入失败错误怎么办？","这通常是因为节点文件名发生了变更。维护者确认已将文件名从 'FL_SDUltimate_Slices' 更改为 'FL_SD_Slices'。请尝试更新插件到最新版本，或者检查工作流中引用的节点名称是否需要手动修正为新名称。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F26",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},32484,"启动时提示 'ModuleNotFoundError: No module named nodes_wan' 如何解决？","这是因为缺少核心的 'nodes_wan.py' 文件。解决方法是：\n1. 从 ComfyUI 官方仓库下载 'nodes_wan.py' 文件。\n2. 将该文件放入你的 ComfyUI 根目录下的 'comfy_extras\u002F' 文件夹中（即：\u003CYOUR COMFYUI ROOT DIRECTORY>\u002Fcomfy_extras\u002F）。\n3. 重启 ComfyUI 即可解决。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F82",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},32485,"升级到新版本后加载失败，报错 'No module named moviepy.editor' 怎么办？","该问题是由于依赖项冲突引起的。维护者已在最新版本中移除了对 'moviepy' 的强制要求。请务必更新 ComfyUI_Fill-Nodes 插件到最新版本。如果更新后仍报错，可以尝试手动卸载 moviepy 或检查 Python 环境中是否正确安装了该库。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F58",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},32486,"安装后仍报错 'PortAudio library not found' 或音频节点加载失败如何处理？","这是由于系统缺少 PortAudio 库导致音频预览节点无法加载。临时解决方案是：维护者已暂时禁用了音频节点以避免崩溃，请更新插件到最新版即可跳过此错误。若需使用音频功能，需在操作系统层面安装 PortAudio 库（Linux 下通常为 libportaudio2，Windows\u002FMac 需单独安装驱动）。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F9",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},32487,"在 Linux (如 RunPod) 上安装时报错 'libOpenGL.so.0: cannot open shared object file' 怎么修复？","这是 Linux 环境下缺少 OpenGL 相关库导致的。维护者在仓库中添加了一个 Bash 脚本来自动修复此问题。请在插件目录或仓库根目录下运行提供的 Bash 脚本，它会自动安装修复该错误所需的所有依赖包。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F31",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},32488,"Linux 环境下报错 'No module named OpenGL_accelerate' 或 'Failed to load library libOpenGL.so.0' 如何解决？","这同样是 Linux 环境下缺失 OpenGL 加速模块和共享库的问题。通常与上一个问题相同，需要安装系统级的 OpenGL 开发库。请运行仓库中提供的修复脚本，或者手动执行安装命令（例如在 Ubuntu\u002FDebian 上：sudo apt-get install libgl1-mesa-glx libgl1-mesa-dev），然后重启 ComfyUI。","https:\u002F\u002Fgithub.com\u002Ffilliptm\u002FComfyUI_Fill-Nodes\u002Fissues\u002F16",[]]