[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ltdrdata--ComfyUI-extension-tutorials":3,"tool-ltdrdata--ComfyUI-extension-tutorials":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":68,"owner_company":78,"owner_location":68,"owner_email":68,"owner_twitter":68,"owner_website":68,"owner_url":79,"languages":68,"stars":80,"forks":81,"last_commit_at":82,"license":68,"difficulty_score":23,"env_os":83,"env_gpu":84,"env_ram":83,"env_deps":85,"category_tags":95,"github_topics":68,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":96,"updated_at":97,"faqs":98,"releases":128},4078,"ltdrdata\u002FComfyUI-extension-tutorials","ComfyUI-extension-tutorials",null,"ComfyUI-extension-tutorials 是一个专为 ComfyUI 用户打造的开源教程与工作流程资源库，旨在帮助用户深入掌握 Impact-Pack、Inspire-Pack 及 Workflow-Component 等核心扩展插件。它主要解决了新手在面对复杂节点组合时不知如何下手，以及进阶用户在尝试高清修复、局部重绘或批量处理时缺乏参考范例的痛点。\n\n通过提供从基础检测到高级分块放大的详细图文指南，配合可直接导入的实战工作流（如自动修手、发型重制、人群控制等），该资源库让复杂的图像生成逻辑变得清晰可视。其独特亮点在于不仅涵盖了 Detectors、Detailers 等基础功能教学，还深入讲解了 SAM 交互、Prompt per Tile  upscale 等高阶技巧，并附带丰富的视频演示链接。\n\n无论是希望快速上手的普通创作者，还是寻求精细化控制的设计师与研究人员，都能从中找到适合自己的学习路径。开发者亦可参考其模块化设计思路优化自身工作流。如果你希望在 ComfyUI 中实现更稳定、高质量的图像生成效果，这里将是不可或缺的学习基地。","# comfyUI-extension-tutorials\n\n## [ComfyUI-Impact-Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Impact-Pack)\n\nComfyUI-Impact-Pack provides various features such as detection, detailler, sender\u002Freceiver, etc., to enhance the workflow configuration of ComfyUI.\n\n![Image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_e7b99a18f679.png)\n\n* [workflow](ComfyUI-Impact-Pack\u002Fworkflow) contains workflows for ComfyUI.\n* You can download various [workflows](ComfyUI-Impact-Pack\u002Fworkflow) for ComfyUI-Impact-Pack.\n* Various tutorial videos are available on the [youtube playlist](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_Ej2RDzjQLGfEeizq4GISeY3FtVyFmGP).  \n\n\n* Basic Tutorials\n  * [Detectors](ComfyUI-Impact-Pack\u002Ftutorial\u002Fdetectors.md)\n  * [Detailers (WIP)](ComfyUI-Impact-Pack\u002Ftutorial\u002Fdetailers.md)\n  * [Regional Sampler (WIP)](ComfyUI-Impact-Pack\u002Ftutorial\u002Fregional_sampler.md)\n  * [ImpactWildcardProcessor\u002FEncode](ComfyUI-Impact-Pack\u002Ftutorial\u002FImpactWildcard.md)\n  * [PreviewBridge: Nodes for supporting 'Clipspace' utilization (WIP)](ComfyUI-Impact-Pack\u002Ftutorial\u002Fpreviewbridge.md)\n  * [Interactive SAM + PreviewBridge](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsam_with_preview_bridge.md)\n  * [SEGS From MediaPipe FaceMesh](ComfyUI-Impact-Pack\u002Ftutorial\u002Fmediapipe.md)\n  * [Switch\u002FInversed Switch](ComfyUI-Impact-Pack\u002Ftutorial\u002Fswitch.md)\n\n\n* Advanced Tutorials\n  * [Prompt per Tile Upscale](ComfyUI-Impact-Pack\u002Ftutorial\u002FPromptPerTileUpscale.md)\n  * [Combination with CLIPSeg](ComfyUI-Impact-Pack\u002Ftutorial\u002Fclipseg.md)\n  * [Extreme Highresolution Upscale](ComfyUI-Impact-Pack\u002Ftutorial\u002Fextreme-upscale.md)\n\n\n* Tutorials (LEGACY)\n  * [Basic auto face detection and refine example](ComfyUI-Impact-Pack\u002Ftutorial\u002Fadvanced.md)\n  * [Mask Pointer: Using the position prompt of SAM to mask](ComfyUI-Impact-Pack\u002Ftutorial\u002Fmaskpointer.md)\n  * [SAMDetection Application](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsam.md)\n  * [Image Sender, Image Receiver, Latent Sender Latent Receiver](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsender_receiver.md)\n  * [TwoSamplersForMask](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoSamplers.md)\n  * [Advanced Iterative Upscale (TwoSamplersUpscaleProvider, KSampleProvider, TiledKSampleProvider)](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoSamplersUpscale.md)\n  * [PK_HOOK (Pixel KSample Hook)](ComfyUI-Impact-Pack\u002Ftutorial\u002Fpk_hook.md)\n  * [TwoAdvancedSamplersForMask](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoAdvancedSamplers.md)\n  * [Batching images with detailer example](ComfyUI-Impact-Pack\u002Ftutorial\u002Fbatching-detailer.md)\n\n\n* Workflows\n  * [Hair restyling](ComfyUI-Impact-Pack\u002Fworkflow\u002Fhair-restyle.json) [[Demo video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fsNBASZYDuA)]\n  * [Auto Handfix](ComfyUI-Impact-Pack\u002Fworkflow\u002Fdwpose-segs-handfix.png) [[Demo Video]](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=DoyqCjKdojY)\n  * [Crowd Control](ComfyUI-Impact-Pack\u002Fworkflow\u002Fcrowd-face.json) [[Demo Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9GSQlxZFrLI)]\n  * [Gender Senstivie Detailer](ComfyUI-Impact-Pack\u002Fworkflow\u002Fgender-senstivie-detailer.png) [[Demo Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Vs2r-MErJZw)]\n  * [Prompt per Tile Upscale](ComfyUI-Impact-Pack\u002Fworkflow\u002Fprompt-per-tile.png)\n\n\n## [ComfyUI-Inspire-Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack)\n\n![Image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_a8b7b277aece.jpg)\n\n* [workflow](ComfyUI-Inspire-Pack\u002Fworkflow) contains workflows for ComfyUI.\n\n* Tutorials\n  * [Lora Block Weight](ComfyUI-Inspire-Pack\u002Ftutorial\u002FLoraBlockWeight.md)\n  * [SEGS ControlNet](ComfyUI-Inspire-Pack\u002Ftutorial\u002FSEGSControlNet.md)\n  * [GlobalSeed](ComfyUI-Inspire-Pack\u002Ftutorial\u002FGlobalSeed.md)\n  * Load From Dir\u002FFile\n  * Regional Prompt Support\n  * KSampler Progress\n\n\n## [ComfyUI-Workflow-Component](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Workflow-Component)\n\nComfyUI-Workflow-Component provides functionality to simplify workflows by turning them into components, as well as an Image Refiner feature that allows improving images based on components.\n\n![Image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_0fda1c515ba4.png)\n![Image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_69d08f897e7e.png)\n\n\n* [Images](ComfyUI-Workflow-Component\u002Fworkflow) contains workflows for ComfyUI.\n* You can download various [workflows](ComfyUI-Workflow-Component\u002Fworkflow) for ComfyUI-Workflow-Component.\n* Various tutorial videos are available on the [youtube playlist](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_Ej2RDzjQLE2Ma9dX0G4OYLrrBve53UV).  \n","# comfyUI扩展教程\n\n## [ComfyUI-Impact-Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Impact-Pack)\n\nComfyUI-Impact-Pack 提供了检测、细节增强、发送者\u002F接收者等多种功能，以增强 ComfyUI 的工作流配置。\n\n![图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_e7b99a18f679.png)\n\n* [工作流](ComfyUI-Impact-Pack\u002Fworkflow) 包含用于 ComfyUI 的工作流。\n* 您可以下载适用于 ComfyUI-Impact-Pack 的各种 [工作流](ComfyUI-Impact-Pack\u002Fworkflow)。\n* 各种教程视频可在 [YouTube 播放列表](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_Ej2RDzjQLGfEeizq4GISeY3FtVyFmGP) 中找到。\n\n\n* 基础教程\n  * [检测器](ComfyUI-Impact-Pack\u002Ftutorial\u002Fdetectors.md)\n  * [细节增强器（开发中）](ComfyUI-Impact-Pack\u002Ftutorial\u002Fdetailers.md)\n  * [区域采样器（开发中）](ComfyUI-Impact-Pack\u002Ftutorial\u002Fregional_sampler.md)\n  * [ImpactWildcardProcessor\u002F编码](ComfyUI-Impact-Pack\u002Ftutorial\u002FImpactWildcard.md)\n  * [PreviewBridge：支持“Clipspace”使用的节点（开发中）](ComfyUI-Impact-Pack\u002Ftutorial\u002Fpreviewbridge.md)\n  * [交互式 SAM + PreviewBridge](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsam_with_preview_bridge.md)\n  * [来自 MediaPipe FaceMesh 的 SEGS](ComfyUI-Impact-Pack\u002Ftutorial\u002Fmediapipe.md)\n  * [开关\u002F反向开关](ComfyUI-Impact-Pack\u002Ftutorial\u002Fswitch.md)\n\n\n* 高级教程\n  * [按区块提示的放大](ComfyUI-Impact-Pack\u002Ftutorial\u002FPromptPerTileUpscale.md)\n  * [与 CLIPSeg 结合](ComfyUI-Impact-Pack\u002Ftutorial\u002Fclipseg.md)\n  * [超高清放大](ComfyUI-Impact-Pack\u002Ftutorial\u002Fextreme-upscale.md)\n\n\n* 教程（旧版）\n  * [基础自动人脸检测与精修示例](ComfyUI-Impact-Pack\u002Ftutorial\u002Fadvanced.md)\n  * [Mask Pointer：使用 SAM 的位置提示进行遮罩](ComfyUI-Impact-Pack\u002Ftutorial\u002Fmaskpointer.md)\n  * [SAMDetection 应用](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsam.md)\n  * [图像发送者、图像接收者、潜在空间发送者潜在空间接收者](ComfyUI-Impact-Pack\u002Ftutorial\u002Fsender_receiver.md)\n  * [双采样器用于遮罩](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoSamplers.md)\n  * [高级迭代放大（TwoSamplersUpscaleProvider、KSampleProvider、TiledKSampleProvider）](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoSamplersUpscale.md)\n  * [PK_HOOK（像素 K 样本钩子）](ComfyUI-Impact-Pack\u002Ftutorial\u002Fpk_hook.md)\n  * [两个高级遮罩采样器](ComfyUI-Impact-Pack\u002Ftutorial\u002FTwoAdvancedSamplers.md)\n  * [使用细节增强器批量处理图像示例](ComfyUI-Impact-Pack\u002Ftutorial\u002Fbatching-detailer.md)\n\n\n* 工作流\n  * [发型重塑](ComfyUI-Impact-Pack\u002Fworkflow\u002Fhair-restyle.json) [[演示视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fsNBASZYDuA)]\n  * [自动手部修复](ComfyUI-Impact-Pack\u002Fworkflow\u002Fdwpose-segs-handfix.png) [[演示视频]](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=DoyqCjKdojY)\n  * [人群控制](ComfyUI-Impact-Pack\u002Fworkflow\u002Fcrowd-face.json) [[演示视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9GSQlxZFrLI)]\n  * [性别敏感细节增强器](ComfyUI-Impact-Pack\u002Fworkflow\u002Fgender-senstivie-detailer.png) [[演示视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Vs2r-MErJZw)]\n  * [按区块提示的放大](ComfyUI-Impact-Pack\u002Fworkflow\u002Fprompt-per-tile.png)\n\n\n## [ComfyUI-Inspire-Pack](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack)\n\n![图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_a8b7b277aece.jpg)\n\n* [工作流](ComfyUI-Inspire-Pack\u002Fworkflow) 包含用于 ComfyUI 的工作流。\n\n* 教程\n  * [Lora 块权重](ComfyUI-Inspire-Pack\u002Ftutorial\u002FLoraBlockWeight.md)\n  * [SEGS ControlNet](ComfyUI-Inspire-Pack\u002Ftutorial\u002FSEGSControlNet.md)\n  * [全局种子](ComfyUI-Inspire-Pack\u002Ftutorial\u002FGlobalSeed.md)\n  * 从目录\u002F文件加载\n  * 区域提示支持\n  * KSampler 进度\n\n\n## [ComfyUI-Workflow-Component](https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Workflow-Component)\n\nComfyUI-Workflow-Component 提供了将工作流转化为组件的功能，从而简化工作流；同时还具备基于组件改进图像的图像精修功能。\n\n![图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_0fda1c515ba4.png)\n![图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_readme_69d08f897e7e.png)\n\n\n* [图像](ComfyUI-Workflow-Component\u002Fworkflow) 包含用于 ComfyUI 的工作流。\n* 您可以下载适用于 ComfyUI-Workflow-Component 的各种 [工作流](ComfyUI-Workflow-Component\u002Fworkflow)。\n* 各种教程视频可在 [YouTube 播放列表](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_Ej2RDzjQLE2Ma9dX0G4OYLrrBve53UV) 中找到。","# ComfyUI 扩展套件快速上手指南\n\n本指南涵盖 `ComfyUI-Impact-Pack`、`ComfyUI-Inspire-Pack` 和 `ComfyUI-Workflow-Component` 三个核心扩展的快速部署与基础使用。这些工具旨在增强 ComfyUI 的工作流配置能力，提供检测、细节修复、区域控制及工作流组件化等功能。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Windows 10\u002F11, Linux, 或 macOS (推荐 Linux 或 Windows)。\n*   **Python 版本**: Python 3.10.x (ComfyUI 官方推荐版本)。\n*   **前置依赖**:\n    *   已安装并运行正常的 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)。\n    *   已安装 `git` 命令行工具。\n    *   具备稳定的网络连接（若下载模型缓慢，建议配置国内镜像源或使用代理）。\n*   **硬件要求**: 推荐 NVIDIA GPU (显存 8GB 以上以获得最佳体验)，部分功能支持 CPU 运行但速度较慢。\n\n## 2. 安装步骤\n\n请将以下命令在 ComfyUI 根目录下的 `custom_nodes` 文件夹中执行。\n\n### 步骤 2.1: 进入自定义节点目录\n```bash\ncd path\u002Fto\u002FComfyUI\u002Fcustom_nodes\n```\n*(请将 `path\u002Fto\u002FComfyUI` 替换为您实际的 ComfyUI 安装路径)*\n\n### 步骤 2.2: 克隆扩展仓库\n依次执行以下命令安装三个扩展包：\n\n```bash\n# 安装 Impact Pack (核心功能：检测、细节修复、区域采样等)\ngit clone https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Impact-Pack.git\n\n# 安装 Inspire Pack (核心功能：LoRA 块权重、SEGS ControlNet 等)\ngit clone https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Inspire-Pack.git\n\n# 安装 Workflow Component (核心功能：工作流组件化、图像优化器)\ngit clone https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-Workflow-Component.git\n```\n\n> **提示**: 如果直接克隆速度较慢，可使用国内镜像加速（如 Gitee 镜像，若有）或在命令前添加代理设置。\n\n### 步骤 2.3: 安装依赖\n进入每个扩展目录并安装其所需的 Python 依赖包：\n\n```bash\n# 安装 Impact Pack 依赖\ncd ComfyUI-Impact-Pack\npip install -r requirements.txt\ncd ..\n\n# 安装 Inspire Pack 依赖\ncd ComfyUI-Inspire-Pack\npip install -r requirements.txt\ncd ..\n\n# 安装 Workflow Component 依赖\ncd ComfyUI-Workflow-Component\npip install -r requirements.txt\ncd ..\n```\n\n### 步骤 2.4: 重启 ComfyUI\n安装完成后，完全关闭并重新启动 ComfyUI。启动时，管理器会自动下载缺失的模型文件（如 DETR、SAM 模型等），请耐心等待控制台输出完成。\n\n## 3. 基本使用\n\n安装成功后，您将在 ComfyUI 节点菜单中看到新的分类。以下是各扩展的最简使用示例。\n\n### 3.1 ComfyUI-Impact-Pack：自动人脸修复\n这是最常用的功能，用于自动检测并修复生成图像中崩坏的人脸。\n\n1.  **加载工作流**: 在 ComfyUI 菜单中点击 `Load`，选择 `ComfyUI-Impact-Pack\u002Fworkflow\u002Fdwpose-segs-handfix.png` (或参考 README 中的 Auto Handfix 示例)。\n2.  **核心节点**:\n    *   使用 `ImpactDetector (DWPose)` 检测人体\u002F手部。\n    *   连接 `Detailer` 节点，它会自动截取检测到的区域进行重绘并贴回原图。\n3.  **快速构建**:\n    *   双击搜索 `Detailer` 节点。\n    *   将主模型的 `IMAGE` 输出连接到 Detailer 的 `image` 输入。\n    *   选择一个 `SAMModel` (如 `sam_vit_b_01ec64.pth`) 作为检测器。\n    *   点击 `Queue Prompt` 即可看到自动修复后的人脸。\n\n### 3.2 ComfyUI-Inspire-Pack：LoRA 块权重控制\n用于更精细地控制 LoRA 对不同网络层的影响，提升生成质量。\n\n1.  **添加节点**: 双击搜索 `Lora Block Weight`。\n2.  **连接方式**:\n    *   将该节点插入到 `Load LoRA` 和 `CLIP Text Encode` (或 Model) 之间。\n    *   格式：`Model` -> `Lora Block Weight` -> `KSampler`。\n3.  **调整参数**:\n    *   在节点面板中调整 `block_weight` 字符串，例如：`\"1,1,1,0.8,0.8\"` 来分别控制不同层的权重。\n    *   结合 `XY Plot` 功能可自动生成不同权重的对比图。\n\n### 3.3 ComfyUI-Workflow-Component：工作流组件化\n将复杂的工作流封装为单一组件，便于复用和管理。\n\n1.  **创建组件**:\n    *   选中一组相关的节点（例如一个完整的放大流程）。\n    *   右键点击画布空白处，选择 `Convert to Component` (具体菜单名可能随版本更新略有变化，通常在 Impact\u002FComponent 分类下)。\n2.  **使用图像优化器 (Image Refiner)**:\n    *   加载 `ComfyUI-Workflow-Component` 提供的预设工作流。\n    *   该功能允许基于现有组件对图像进行二次优化，无需重新构建整个链路。\n    *   直接拖入保存好的 `.json` 组件文件即可像普通节点一样调用整套逻辑。\n\n---\n**进阶资源**:\n*   **官方工作流库**: 各扩展文件夹内的 `workflow` 目录包含大量预设 `.json` 文件，直接拖入 ComfyUI 即可加载。\n*   **视频教程**: 访问作者 YouTube 播放列表获取详细操作演示（需网络环境支持）。","一位商业插画师需要为游戏项目批量生成高清角色立绘，要求人物面部细节精致、手部姿态自然，且需适应不同分辨率需求。\n\n### 没有 ComfyUI-extension-tutorials 时\n- **细节修复困难**：生成的角色常出现手指畸形或五官模糊，手动重绘耗时极长，缺乏自动化的“细节增强（Detailer）”流程指导。\n- **高清放大失真**：尝试将图片放大至 4K 时，画面容易崩坏或产生重复纹理，不懂如何配置“分块提示词升级（Prompt per Tile Upscale）”工作流。\n- **局部控制缺失**：无法精准指定只重绘角色的头发或衣物，缺乏对 SAM（分段 Anything 模型）和遮罩控制节点的组合应用知识。\n- **调试效率低下**：面对复杂的节点连接无从下手，找不到现成的“自动修手”或“人群控制”参考工作流，只能盲目试错。\n\n### 使用 ComfyUI-extension-tutorials 后\n- **一键精修细节**：依据教程快速部署 Detailer 节点，自动识别并修复面部与手部瑕疵，角色完成度显著提升。\n- **无损超分输出**：直接套用\"Extreme Highresolution Upscale\"案例，实现基于分块的智能放大，确保 4K 输出下纹理清晰自然。\n- **精准区域重绘**：利用 Interactive SAM 教程，通过简单的点选即可锁定头发或服装区域进行独立重绘，灵活满足修改需求。\n- **复用成熟工作流**：直接下载并运行官方提供的\"Auto Handfix\"和\"Hair restyling\"预设工作流，将原本数小时的调试时间缩短至几分钟。\n\nComfyUI-extension-tutorials 通过提供详尽的实战教程与开箱即用的高阶工作流，让创作者从繁琐的节点调试中解放，专注于艺术创意的高效落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fltdrdata_ComfyUI-extension-tutorials_69d08f89.png","ltdrdata","Dr.Lt.Data","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fltdrdata_ac2c4d3d.jpg","@Comfy-Org","https:\u002F\u002Fgithub.com\u002Fltdrdata",772,54,"2026-04-04T09:24:56","未说明","未说明（作为 ComfyUI 扩展，通常依赖宿主环境的 NVIDIA GPU 以支持检测器和 Detailer 等功能）",{"notes":86,"python":83,"dependencies":87},"该项目并非独立运行的软件，而是 ComfyUI 的扩展教程集合，主要包含 ComfyUI-Impact-Pack、ComfyUI-Inspire-Pack 和 ComfyUI-Workflow-Component 的使用指南与工作流文件。运行这些工作流需要先安装基础的 ComfyUI 环境及对应的扩展插件。部分高级功能（如人脸检测、手部修复、高分辨率放大）对显卡显存和计算能力有较高要求，具体取决于所加载的工作流复杂度。",[19,88,89,90,91,92,93,94],"ComfyUI-Impact-Pack","ComfyUI-Inspire-Pack","ComfyUI-Workflow-Component","MediaPipe","SAM (Segment Anything)","CLIPSeg","DWPose",[14,36],"2026-03-27T02:49:30.150509","2026-04-06T09:06:54.743628",[99,104,109,114,119,124],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},18576,"运行教程时为什么只得到黑色图像？","如果您使用的是 Mac 机器，这可能与特定的兼容性问题有关。请参考 ComfyUI 主仓库的相关讨论：https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI\u002Fissues\u002F3521。此外，该问题也可能与节点目录配置无关，建议检查系统环境或更新相关依赖。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fissues\u002F4",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},18577,"Detailer 中的 'Cropped' 和 'Cropped Refined' 有什么区别？为什么最终应用的是 Cropped？","这是一个已知问题，维护者已确认并修复。'Cropped Refined' 本应提供更好的混合效果，但在旧版本中可能未正确应用到最终图像。如果您仍遇到此问题，请确保您的 Impact Pack 插件已更新到最新版本。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fissues\u002F28",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},18578,"为什么 'Switch (Any)' 和 'Inverse Switch' 节点在保存工作流后会自动断开连接？","这通常是因为工作流中引用的图片（如 _example.png）在部署环境中丢失，导致节点内部类型从 'Basic Pipe' 错误地变为 'INT' 模式，从而无法重连。解决方法：\n1. 确保所有占位图片存在于 ComfyUI 基础目录中。\n2. 如果问题依旧，尝试重新生成断开连接两侧的节点，因为它们内部可能已损坏。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fissues\u002F58",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},18579,"Wildcard 文件的内容为什么没有填入文本字段，而是填入了文件名？","这是因为通配符语法使用错误。加载文件的通配符语法应为 `__wildcard-name__`（双下划线），而不是 `{__wildcard-name__}` 或 `{wildcard-name}`。\n- 正确示例：`the woman's hairstyle is __hairstyles__`\n- 错误示例：`{__hairstyles__}`（花括号用于随机选项如 `{a|b|c}`，不用于加载文件）。\n请检查您的自定义通配符文件格式是否正确（每行一个选项）。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fissues\u002F56",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},18580,"当 'Switch (Any)' 节点设置为 'select_on_execution' 模式时，为什么某些输入无法显示输出图像？","这通常是因为工作流中包含 'Preview'（预览）节点或其他 'Output'（输出）节点。这些节点作为终端节点，会强制触发连接到它们之前的所有路径，从而干扰条件开关的逻辑。\n解决方案：移除工作流分支中的所有 Preview 节点和多余的 Output 节点，仅保留最终的输出节点，以确保条件逻辑正常工作。","https:\u002F\u002Fgithub.com\u002Fltdrdata\u002FComfyUI-extension-tutorials\u002Fissues\u002F53",{"id":125,"question_zh":126,"answer_zh":127,"source_url":123},18581,"如何在使用 Switch 节点进行条件工作流（如人脸交换）时避免连接失败？","如果在复杂链条（如包含 InstantID 或 IPAdapter 节点）中使用 Switch 节点失败，除了移除 Preview 节点外，还应检查是否有其他隐式的输出节点干扰。维护者建议：确保条件分支内没有独立的终端节点，必要时可尝试使用其他控制流插件（如 ControlFlowUtils 中的 'If' 或 'universal switch' 节点）作为替代方案。",[]]