[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cubiq--ComfyUI_IPAdapter_plus":3,"tool-cubiq--ComfyUI_IPAdapter_plus":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":68,"owner_company":68,"owner_location":78,"owner_email":68,"owner_twitter":75,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":97,"github_topics":68,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":98,"updated_at":99,"faqs":100,"releases":130},2726,"cubiq\u002FComfyUI_IPAdapter_plus","ComfyUI_IPAdapter_plus",null,"ComfyUI_IPAdapter_plus 是 ComfyUI 平台中用于集成 IP-Adapter 模型的核心插件，旨在实现强大的“图生图”条件控制。它解决了传统生成式 AI 难以精准参考特定图片主体特征或艺术风格的痛点，让用户仅需一张参考图，即可将画中的人物形象、构图甚至画风无缝迁移到新生成的图像中，效果常被形象地比喻为“单图版 LoRA\"。\n\n该工具特别适合设计师、数字艺术家以及希望深入探索可控图像生成的进阶用户。通过它，创作者可以快速进行风格化创作、角色一致性保持或肖像重绘，无需复杂的训练过程。其技术亮点在于提供了丰富的模型变体，包括针对轻量级影响的 Light 版本、强效控制的 Plus 版本，以及专门优化的人脸和全身肖像模型；同时支持注意力掩码（Attention Masking）和动画生成等高级功能。虽然目前项目已进入维护模式，但其稳定的工作流和详尽的示例教程，依然是 ComfyUI 生态中实现高质量图像参考生成的首选方案。","# ComfyUI IPAdapter plus\n[ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) reference implementation for [IPAdapter](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter\u002F) models.\n\nThe IPAdapter are very powerful models for image-to-image conditioning. The subject or even just the style of the reference image(s) can be easily transferred to a generation. Think of it as a 1-image lora.\n\n> [!IMPORTANT]  \n> **2025.04.14** - I do not use ComfyUI as my main way to interact with Gen AI anymore as a result I'm setting the repository in \"maintenance only\" mode. If there are crucial updates or PRs I might still consider merging them but I do not plan any consistent work on this repo.\n\n## Example workflows\n\nThe [examples directory](.\u002Fexamples\u002F) has many workflows that cover all IPAdapter functionalities.\n\n![IPAdapter Example workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_IPAdapter_plus_readme_38c94b714e4b.jpg)\n\n## Video Tutorials\n\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F_JzDcgKgghY\" target=\"_blank\">\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_IPAdapter_plus_readme_d08fb0425686.jpg\" alt=\"Watch the video\" \u002F>\n\u003C\u002Fa>\n\n- **:star: [New IPAdapter features](https:\u002F\u002Fyoutu.be\u002F_JzDcgKgghY)**\n- **:art: [IPAdapter Style and Composition](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=czcgJnoDVd4)**\n\nThe following videos are about the previous version of IPAdapter, but they still contain valuable information.\n\n:nerd_face: [Basic usage video](https:\u002F\u002Fyoutu.be\u002F7m9ZZFU3HWo), :rocket: [Advanced features video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=mJQ62ly7jrg), :japanese_goblin: [Attention Masking video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vqG1VXKteQg), :movie_camera: [Animation Features video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ddYbhv3WgWw)\n\n## Installation\n\nDownload or git clone this repository inside `ComfyUI\u002Fcustom_nodes\u002F` directory or use the Manager. IPAdapter always requires the latest version of ComfyUI. If something doesn't work be sure to upgrade. Beware that the automatic update of the manager sometimes doesn't work and you may need to upgrade manually.\n\nThere's now a *Unified Model Loader*, for it to work you need to name the files exactly as described below. The legacy loaders work with any file name but you have to select them manually. The models can be placed into sub-directories.\n\nRemember you can also use any custom location setting an `ipadapter` entry in the `extra_model_paths.yaml` file.\n\n- `\u002FComfyUI\u002Fmodels\u002Fclip_vision`\n    - [CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fimage_encoder\u002Fmodel.safetensors), download and rename\n    - [CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fimage_encoder\u002Fmodel.safetensors), download and rename\n    - [clip-vit-large-patch14-336.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-Plus\u002Fresolve\u002Fmain\u002Fimage_encoder\u002Fpytorch_model.bin), download and rename only for Kolors models\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`, create it if not present\n    - [ip-adapter_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15.safetensors), Basic model, average strength\n    - [ip-adapter_sd15_light_v11.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_light_v11.bin), Light impact model\n    - [ip-adapter-plus_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-plus_sd15.safetensors), Plus model, very strong\n    - [ip-adapter-plus-face_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-plus-face_sd15.safetensors), Face model, portraits\n    - [ip-adapter-full-face_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-full-face_sd15.safetensors), Stronger face model, not necessarily better\n    - [ip-adapter_sd15_vit-G.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_vit-G.safetensors), Base model, **requires bigG clip vision encoder**\n    - [ip-adapter_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter_sdxl_vit-h.safetensors), SDXL model\n    - [ip-adapter-plus_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter-plus_sdxl_vit-h.safetensors), SDXL plus model\n    - [ip-adapter-plus-face_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter-plus-face_sdxl_vit-h.safetensors), SDXL face model\n    - [ip-adapter_sdxl.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter_sdxl.safetensors), vit-G SDXL model, **requires bigG clip vision encoder**\n    - **Deprecated** [ip-adapter_sd15_light.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_light.safetensors), v1.0 Light impact model\n\n**FaceID** models require `insightface`, you need to install it in your ComfyUI environment. Check [this issue](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F162) for help. Remember that most FaceID models also need a LoRA.\n\nFor the Unified Loader to work the files need to be named exactly as shown in the list below.\n\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [ip-adapter-faceid_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sd15.bin), base FaceID model\n    - [ip-adapter-faceid-plusv2_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sd15.bin), FaceID plus v2\n    - [ip-adapter-faceid-portrait-v11_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait-v11_sd15.bin), text prompt style transfer for portraits\n    - [ip-adapter-faceid_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sdxl.bin), SDXL base FaceID\n    - [ip-adapter-faceid-plusv2_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sdxl.bin), SDXL plus v2\n    - [ip-adapter-faceid-portrait_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sdxl.bin), SDXL text prompt style transfer\n    - [ip-adapter-faceid-portrait_sdxl_unnorm.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sdxl_unnorm.bin), very strong style transfer SDXL only\n    - **Deprecated** [ip-adapter-faceid-plus_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plus_sd15.bin), FaceID plus v1 \n    - **Deprecated** [ip-adapter-faceid-portrait_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sd15.bin), v1 of the portrait model\n\nMost FaceID models require a LoRA. If you use the `IPAdapter Unified Loader FaceID` it will be loaded automatically if you follow the naming convention. Otherwise you have to load them manually, be careful each FaceID model has to be paired with its own specific LoRA.\n\n- `\u002FComfyUI\u002Fmodels\u002Floras`\n    - [ip-adapter-faceid_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sd15_lora.safetensors)\n    - [ip-adapter-faceid-plusv2_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sd15_lora.safetensors)\n    - [ip-adapter-faceid_sdxl_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sdxl_lora.safetensors), SDXL FaceID LoRA\n    - [ip-adapter-faceid-plusv2_sdxl_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sdxl_lora.safetensors), SDXL plus v2 LoRA\n    - **Deprecated** [ip-adapter-faceid-plus_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plus_sd15_lora.safetensors), LoRA for the deprecated FaceID plus v1 model\n\nAll models can be found on [huggingface](https:\u002F\u002Fhuggingface.co\u002Fh94).\n\n### Community's models\n\nThe community has baked some interesting IPAdapter models.\n\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [ip_plus_composition_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter\u002Fresolve\u002Fmain\u002Fip_plus_composition_sd15.safetensors), general composition ignoring style and content, more about it [here](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter)\n    - [ip_plus_composition_sdxl.safetensors](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter\u002Fresolve\u002Fmain\u002Fip_plus_composition_sdxl.safetensors), SDXL version\n    - [Kolors-IP-Adapter-Plus.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-Plus\u002Fresolve\u002Fmain\u002Fip_adapter_plus_general.bin?download=true), IPAdapter Plus for Kolors model\n    - [Kolors-IP-Adapter-FaceID-Plus.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-FaceID-Plus\u002Fresolve\u002Fmain\u002Fipa-faceid-plus.bin?download=true), IPAdapter FaceIDv2 for Kolors model. **Note:** Kolors is trained on InsightFace  **antelopev2** model, you need to [manually download it](https:\u002F\u002Fhuggingface.co\u002FMonsterMMORPG\u002Ftools\u002Ftree\u002Fmain) and place it inside the `models\u002Finisghtface` directory.\n\nif you know of other models please let me know and I will add them to the unified loader.\n\n## Generic suggestions\n\nThere are many workflows included in the [examples](.\u002Fexamples\u002F) directory. Please check them before asking for support.\n\nUsually it's a good idea to lower the `weight` to at least `0.8` and increase the number steps. To increase adherece to the prompt you may try to change the **weight type** in the `IPAdapter Advanced` node.\n\n## Troubleshooting\n\nPlease check the [troubleshooting](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F108) before posting a new issue. Also remember to check the previous closed issues.\n\n## Credits\n\n- [IPAdapter](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter\u002F)\n- [InstantStyle](https:\u002F\u002Fgithub.com\u002FInstantStyle\u002FInstantStyle)\n- [B-Lora](https:\u002F\u002Fgithub.com\u002Fyardenfren1996\u002FB-LoRA\u002F)\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n- [laksjdjf](https:\u002F\u002Fgithub.com\u002Flaksjdjf\u002F)\n","# ComfyUI IPAdapter plus\n[ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI) 对 [IPAdapter](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter\u002F) 模型的参考实现。\n\nIPAdapter 是功能强大的图像条件生成模型。参考图像的主题，甚至仅仅是风格，都可以轻松地迁移到生成结果中。可以把它看作一种单张图像的 LoRA。\n\n> [!IMPORTANT]  \n> **2025年4月14日** - 由于我不再将 ComfyUI 作为与生成式 AI 交互的主要方式，因此我将此仓库设置为“仅维护”模式。如果有关键更新或拉取请求，我仍可能会考虑合并，但我不会再对此仓库进行持续性的开发工作。\n\n## 示例工作流\n\n[examples 目录](.\u002Fexamples\u002F) 中包含许多工作流，涵盖了 IPAdapter 的所有功能。\n\n![IPAdapter 示例工作流](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_IPAdapter_plus_readme_38c94b714e4b.jpg)\n\n## 视频教程\n\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F_JzDcgKgghY\" target=\"_blank\">\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_IPAdapter_plus_readme_d08fb0425686.jpg\" alt=\"观看视频\" \u002F>\n\u003C\u002Fa>\n\n- **:star: [IPAdapter 新特性](https:\u002F\u002Fyoutu.be\u002F_JzDcgKgghY)**\n- **:art: [IPAdapter 风格与构图](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=czcgJnoDVd4)**\n\n以下视频介绍的是 IPAdapter 的旧版本，但仍然包含有价值的信息。\n\n:nerd_face: [基础使用视频](https:\u002F\u002Fyoutu.be\u002F7m9ZZFU3HWo)，:rocket: [高级特性视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=mJQ62ly7jrg)，:japanese_goblin: [注意力掩码视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vqG1VXKteQg)，:movie_camera: [动画特性视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=ddYbhv3WgWw)\n\n## 安装\n\n将此仓库下载或通过 Git 克隆到 `ComfyUI\u002Fcustom_nodes\u002F` 目录下，或者使用管理器进行安装。IPAdapter 始终需要最新版本的 ComfyUI。如果遇到问题，请务必升级。请注意，管理器的自动更新有时可能失效，您可能需要手动升级。\n\n现在有一个 *统一模型加载器*，要使其正常工作，您需要按照以下说明精确命名文件。旧版加载器可以使用任意文件名，但需要手动选择。模型可以放置在子目录中。\n\n请记住，您也可以通过在 `extra_model_paths.yaml` 文件中设置 `ipadapter` 条目来使用自定义路径。\n\n- `\u002FComfyUI\u002Fmodels\u002Fclip_vision`\n    - [CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fimage_encoder\u002Fmodel.safetensors)，下载并重命名\n    - [CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fimage_encoder\u002Fmodel.safetensors)，下载并重命名\n    - [clip-vit-large-patch14-336.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-Plus\u002Fresolve\u002Fmain\u002Fimage_encoder\u002Fpytorch_model.bin)，仅适用于 Kolors 模型，下载并重命名\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`，如果不存在则创建\n    - [ip-adapter_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15.safetensors)，基础模型，强度适中\n    - [ip-adapter_sd15_light_v11.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_light_v11.bin)，轻量级模型\n    - [ip-adapter-plus_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-plus_sd15.safetensors)，增强型模型，强度非常强\n    - [ip-adapter-plus-face_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-plus-face_sd15.safetensors)，人脸模型，适合人像\n    - [ip-adapter-full-face_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter-full-face_sd15.safetensors)，更强的人脸模型，但不一定更好\n    - [ip-adapter_sd15_vit-G.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_vit-G.safetensors)，基础模型，**需要 bigG clip 视觉编码器**\n    - [ip-adapter_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter_sdxl_vit-h.safetensors)，SDXL 模型\n    - [ip-adapter-plus_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter-plus_sdxl_vit-h.safetensors)，SDXL 增强型模型\n    - [ip-adapter-plus-face_sdxl_vit-h.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter-plus-face_sdxl_vit-h.safetensors)，SDXL 人脸模型\n    - [ip-adapter_sdxl.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fip-adapter_sdxl.safetensors)，vit-G SDXL 模型，**需要 bigG clip 视觉编码器**\n    - **已弃用** [ip-adapter_sd15_light.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fip-adapter_sd15_light.safetensors)，v1.0 轻量级模型\n\n**FaceID** 模型需要 `insightface`，您需要将其安装到您的 ComfyUI 环境中。有关帮助，请参阅 [此问题](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F162)。请记住，大多数 FaceID 模型还需要 LoRA。\n\n为了使统一加载器正常工作，文件必须按照下面列出的名称精确命名。\n\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [ip-adapter-faceid_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sd15.bin)，基础 FaceID 模型\n    - [ip-adapter-faceid-plusv2_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sd15.bin)，FaceID 加强版 v2\n    - [ip-adapter-faceid-portrait-v11_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait-v11_sd15.bin)，用于人像的文本提示风格迁移\n    - [ip-adapter-faceid_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sdxl.bin)，SDXL 基础 FaceID\n    - [ip-adapter-faceid-plusv2_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sdxl.bin)，SDXL 加强版 v2\n    - [ip-adapter-faceid-portrait_sdxl.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sdxl.bin)，SDXL 文本提示风格迁移\n    - [ip-adapter-faceid-portrait_sdxl_unnorm.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sdxl_unnorm.bin)，非常强烈风格迁移的 SDXL 专用模型\n    - **已弃用** [ip-adapter-faceid-plus_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plus_sd15.bin)，FaceID 加强版 v1\n    - **已弃用** [ip-adapter-faceid-portrait_sd15.bin](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-portrait_sd15.bin)，人像模型的 v1 版本\n\n大多数 FaceID 模型都需要 LoRA。如果您使用 `IPAdapter 统一加载器 FaceID`，只要遵循命名规范，LoRA 就会自动加载。否则，您需要手动加载，务必注意每种 FaceID 模型都必须与其特定的 LoRA 配对。\n\n- `\u002FComfyUI\u002Fmodels\u002Floras`\n    - [ip-adapter-faceid_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sd15_lora.safetensors)\n    - [ip-adapter-faceid-plusv2_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sd15_lora.safetensors)\n    - [ip-adapter-faceid_sdxl_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid_sdxl_lora.safetensors)，SDXL FaceID LoRA\n    - [ip-adapter-faceid-plusv2_sdxl_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plusv2_sdxl_lora.safetensors)，SDXL 加强版 v2 的 LoRA\n    - **已弃用** [ip-adapter-faceid-plus_sd15_lora.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter-FaceID\u002Fresolve\u002Fmain\u002Fip-adapter-faceid-plus_sd15_lora.safetensors)，用于已弃用的 FaceID 加强版 v1 模型的 LoRA\n\n所有模型都可以在 [huggingface](https:\u002F\u002Fhuggingface.co\u002Fh94) 上找到。\n\n### 社区模型\n\n社区已经训练了一些有趣的 IPAdapter 模型。\n\n- `\u002FComfyUI\u002Fmodels\u002Fipadapter`\n    - [ip_plus_composition_sd15.safetensors](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter\u002Fresolve\u002Fmain\u002Fip_plus_composition_sd15.safetensors)，通用构图模型，忽略风格和内容，更多信息请参见 [这里](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter)\n    - [ip_plus_composition_sdxl.safetensors](https:\u002F\u002Fhuggingface.co\u002Fostris\u002Fip-composition-adapter\u002Fresolve\u002Fmain\u002Fip_plus_composition_sdxl.safetensors)，SDXL 版本\n    - [Kolors-IP-Adapter-Plus.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-Plus\u002Fresolve\u002Fmain\u002Fip_adapter_plus_general.bin?download=true)，适用于 Kolors 模型的 IPAdapter Plus\n    - [Kolors-IP-Adapter-FaceID-Plus.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-FaceID-Plus\u002Fresolve\u002Fmain\u002Fipa-faceid-plus.bin?download=true)，适用于 Kolors 模型的 IPAdapter FaceIDv2。**注意：** Kolors 模型使用 InsightFace 的 **antelopev2** 模型进行训练，您需要 [手动下载](https:\u002F\u002Fhuggingface.co\u002FMonsterMMORPG\u002Ftools\u002Ftree\u002Fmain) 并将其放置在 `models\u002Finisghtface` 目录下。\n\n如果您知道其他模型，请告知我，我会将其添加到统一加载器中。\n\n## 通用建议\n\n[examples](.\u002Fexamples\u002F) 目录中包含许多工作流。在寻求支持之前，请先查看这些示例。\n\n通常，将 `weight` 至少降低到 `0.8` 并增加采样步数是一个不错的选择。为了更好地遵循提示词，您可以尝试在 `IPAdapter Advanced` 节点中更改 **权重类型**。\n\n## 故障排除\n\n在提交新问题之前，请先查看 [故障排除](https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F108)。同时，请务必检查之前的已关闭问题。\n\n## 致谢\n\n- [IPAdapter](https:\u002F\u002Fgithub.com\u002Ftencent-ailab\u002FIP-Adapter\u002F)\n- [InstantStyle](https:\u002F\u002Fgithub.com\u002FInstantStyle\u002FInstantStyle)\n- [B-Lora](https:\u002F\u002Fgithub.com\u002Fyardenfren1996\u002FB-LoRA\u002F)\n- [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n- [laksjdjf](https:\u002F\u002Fgithub.com\u002Flaksjdjf\u002F)","# ComfyUI IPAdapter_plus 快速上手指南\n\nComfyUI IPAdapter_plus 是 ComfyUI 中用于实现强大“图生图”条件控制的插件。它能够将参考图像的主体特征或艺术风格迁移到新生成的图像中，效果类似于“单张图像的 LoRA\"。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **ComfyUI 版本**：必须使用**最新版本**的 ComfyUI。如果功能异常，请优先升级主程序。\n*   **操作系统**：支持 Windows, Linux, macOS。\n*   **前置依赖 (FaceID 功能可选)**：\n    *   若需使用 **FaceID** 系列模型（人脸复刻），必须在 ComfyUI 环境中安装 `insightface` 库。\n    *   安装命令示例（在 ComfyUI 的 Python 环境中执行）：\n        ```bash\n        pip install insightface\n        ```\n    *   *注意：Kolors 模型的 FaceID 功能需要特定的 `antelopev2` 模型文件，需手动下载放入 `models\u002Finsightface` 目录。*\n\n## 安装步骤\n\n推荐使用 ComfyUI Manager 进行安装，也可手动克隆仓库。\n\n### 方法一：使用 ComfyUI Manager（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **Manager** 按钮。\n2.  选择 **Install Custom Nodes**。\n3.  搜索 `IPAdapter` 或 `ComfyUI_IPAdapter_plus`。\n4.  找到由 `cubiq` 开发的节点，点击 **Install**。\n5.  重启 ComfyUI。\n\n### 方法二：手动安装\n\n1.  进入 ComfyUI 的自定义节点目录：\n    ```bash\n    cd ComfyUI\u002Fcustom_nodes\u002F\n    ```\n2.  克隆仓库：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus.git\n    ```\n3.  重启 ComfyUI。\n\n### 模型下载与配置\n\n插件本身不包含模型，需手动下载并放置到指定目录。**统一加载器 (Unified Loader)** 要求文件名必须严格一致。\n\n#### 1. 下载 CLIP Vision 编码器\n存放路径：`ComfyUI\u002Fmodels\u002Fclip_vision\u002F`\n\n*   **SD1.5 通用**: [CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fmodels\u002Fimage_encoder\u002Fmodel.safetensors) (下载后重命名为此名称)\n*   **SDXL \u002F BigG 专用**: [CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors](https:\u002F\u002Fhuggingface.co\u002Fh94\u002FIP-Adapter\u002Fresolve\u002Fmain\u002Fsdxl_models\u002Fimage_encoder\u002Fmodel.safetensors) (下载后重命名为此名称)\n*   **Kolors 专用**: [clip-vit-large-patch14-336.bin](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors-IP-Adapter-Plus\u002Fresolve\u002Fmain\u002Fimage_encoder\u002Fpytorch_model.bin) (仅 Kolors 模型需要)\n\n#### 2. 下载 IPAdapter 主模型\n存放路径：`ComfyUI\u002Fmodels\u002Fipadapter\u002F` (若无此文件夹请新建)\n\n**常用模型推荐：**\n*   **SD1.5 基础款**: `ip-adapter_sd15.safetensors` (强度适中)\n*   **SD1.5 增强款**: `ip-adapter-plus_sd15.safetensors` (强度很高，细节更好)\n*   **SD1.5 人脸款**: `ip-adapter-plus-face_sd15.safetensors` (适合肖像)\n*   **SDXL 基础款**: `ip-adapter_sdxl_vit-h.safetensors`\n*   **SDXL 增强款**: `ip-adapter-plus_sdxl_vit-h.safetensors`\n\n**FaceID 系列模型 (需配合 LoRA 使用):**\n*   `ip-adapter-faceid_sd15.bin`\n*   `ip-adapter-faceid-plusv2_sd15.bin`\n*   `ip-adapter-faceid_sdxl.bin`\n*   *(更多模型请参考官方列表下载)*\n\n#### 3. 下载 FaceID 配套 LoRA (仅 FaceID 模型需要)\n存放路径：`ComfyUI\u002Fmodels\u002Floras\u002F`\n\n*   SD1.5: `ip-adapter-faceid_sd15_lora.safetensors`\n*   SD1.5 PlusV2: `ip-adapter-faceid-plusv2_sd15_lora.safetensors`\n*   SDXL: `ip-adapter-faceid_sdxl_lora.safetensors`\n\n> **提示**：国内用户若下载缓慢，可使用 HuggingFace 镜像站或在下载链接中将 `huggingface.co` 替换为国内加速源地址。\n\n## 基本使用\n\n以下是构建最简工作流的步骤：\n\n1.  **加载工作流**：\n    *   打开 ComfyUI，将官方示例图片 `examples\u002Fdemo_workflow.jpg` 拖入界面，即可自动加载完整工作流作为参考。\n\n2.  **构建节点连接**：\n    *   添加 **Load Image** 节点：上传你的参考图（风格或人物）。\n    *   添加 **IPAdapter Unified Loader** 节点：\n        *   `ipadapter`: 选择刚才下载的对应 `.safetensors` 或 `.bin` 模型。\n        *   `clip_vision`: 选择对应的 CLIP 编码器模型。\n    *   连接线路：\n        *   将 **Load Image** 的 `IMAGE` 输出连接到 **IPAdapter** 节点的 `image` 输入。\n        *   将 **IPAdapter** 节点的 `IPADAPTER` 输出连接到 **KSampler** (或 UNET) 相关的条件输入端（通常通过 `IPAdapter Apply` 节点接入正\u002F负提示词链路）。\n\n3.  **参数调整建议**：\n    *   **Weight (权重)**：默认通常为 1.0。建议降低至 `0.8` 左右以获得更自然的融合效果，避免过度拟合。\n    *   **Steps (步数)**：适当增加采样步数有助于提升细节还原度。\n    *   **高级设置**：若需更好地遵循文字提示词，可在 `IPAdapter Advanced` 节点中调整 **Weight Type**（如使用 `Linear` 或 `Ease In` 等曲线）。\n\n4.  **生成图像**：\n    *   输入你的文字提示词 (Prompt)，点击 **Queue Prompt** 即可生成融合了参考图特征的新图像。","一位独立游戏开发者需要为角色设计一套保持面部特征一致但风格各异的装备概念图。\n\n### 没有 ComfyUI_IPAdapter_plus 时\n- **角色一致性极难维持**：每次生成新装备，角色的五官、发型都会发生随机变化，不得不花费大量时间手动修图或反复重绘。\n- **训练成本高昂**：若想固定角色形象，必须收集多张角度照片训练 LoRA 模型，耗时数小时且对显存要求高，不适合快速迭代。\n- **风格迁移生硬**：尝试用图生图功能参考风格时，往往连角色的主体特征也被覆盖，导致“形似神不似”。\n- **工作流断裂**：需要在不同软件间切换来拼凑参考图与生成结果，无法在一个流程中完成从参考到成图的闭环。\n\n### 使用 ComfyUI_IPAdapter_plus 后\n- **单图锁定角色特征**：仅需一张角色原画作为参考，即可在生成不同装备时完美保留面部细节和神态，实现“一图即洛拉”的效果。\n- **零训练即时生效**：无需任何模型训练过程，加载预训练的 IPAdapter 模型后即可立即调整权重，灵活控制参考图对生成的影响强度。\n- **精准分离风格与内容**：利用其高级功能，可单独提取参考图的画风或构图，让角色穿上赛博朋克或奇幻风格的装备而不改变长相。\n- **全流程节点化整合**：在 ComfyUI 中通过可视化节点串联参考图输入与生成步骤，一键批量产出系列设定图，大幅提升创作效率。\n\nComfyUI_IPAdapter_plus 将原本繁琐的角色一致性控制转化为简单的单图参考操作，让创意构思不再受限于技术磨合成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_ComfyUI_IPAdapter_plus_d08fb042.jpg","cubiq","Matteo Spinelli","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcubiq_fdc7860d.jpg","Florence, Italy","https:\u002F\u002Fmatt3o.com","https:\u002F\u002Fgithub.com\u002Fcubiq",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,5878,453,"2026-04-03T07:15:09","GPL-3.0","未说明","未说明（作为 ComfyUI 插件，依赖底层 ComfyUI 的 GPU 环境，通常需 NVIDIA GPU 以运行 SD\u002FSDXL 模型）",{"notes":93,"python":90,"dependencies":94},"1. 必须安装最新版本的 ComfyUI，否则可能无法运行。\n2. 若使用 FaceID 相关模型，必须在 ComfyUI 环境中手动安装 'insightface' 库。\n3. 对于 Kolors 模型的 FaceID 功能，需额外下载 'antelopev2' 模型文件并放置于 models\u002Finsightface 目录。\n4. 大多数 FaceID 模型需要搭配特定的 LoRA 文件才能正常工作。\n5. 作者声明该仓库目前仅处于“维护模式”，不再进行功能性更新。",[95,96],"ComfyUI (最新版)","insightface (FaceID 功能必需)",[14,36],"2026-03-27T02:49:30.150509","2026-04-06T05:17:21.560649",[101,106,111,116,121,125],{"id":102,"question_zh":103,"answer_zh":104,"source_url":105},12625,"IPAdapter 节点无法找到已下载的模型文件怎么办？","如果模型文件确实在文件夹中但节点无法识别，可以尝试以下几种解决方案：\n1. **修复节点**：右键点击该节点，选择 \"Fix node v2\"。\n2. **修改代码指定路径**：打开 `IPAdapterPlus.py` 文件，在顶部添加自定义路径变量 `CUSTOM_IPADAPTER_PATH = r\"你的模型路径\"`，并修改 `IPAdapterModelLoader` 类以读取该路径下的 `.bin` 或 `.safetensors` 文件。\n3. **Docker\u002F特殊环境**：如果是 Docker 环境且权重在外部磁盘，可以通过创建符号链接解决，例如：`ln -s \u002F外部路径\u002Fmodels\u002Fipadapter \u002Fcomfyui\u002Fmodels\u002Fipadapter`。\n4. **检查配置**：确保 `extra_model_paths.yaml` 配置正确，但在某些版本中该配置可能不生效，需结合上述方法。","https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F123",{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},12626,"执行工作流时出现 'CLIPVision.forward() got an unexpected keyword argument' 错误如何解决？","该错误通常是由于 ComfyUI 主程序与 IPAdapter 插件版本不匹配导致的（特别是 ComfyUI 更新后）。\n解决方案：\n1. **更新插件**：确保通过 ComfyUI Manager 将 IPAdapter Plus 插件更新到最新版本，维护者通常会迅速修复此类兼容性问题。\n2. **更新 ComfyUI**：有时需要同时更新 ComfyUI 主程序以匹配插件的最新调用方式。\n3. **临时回退**：如果最新仍有问题，可尝试回退到上一个稳定的 Commit 版本，直到官方发布修复补丁。","https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F124",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},12627,"更新后生成图像时卡住不动（进度条停在 0%），但移除 IPAdapter 后正常，这是什么原因？","这通常是由特定 Commit 引入的回归错误（Bug）导致的，特别是在涉及 `timestepping` 逻辑的更新后。\n解决方案：\n1. **等待或应用修复**：维护者通常会在后续提交中修复（如 \"hopefully fixed\"），请更新到最新的正式版或主要发布版本。\n2. **临时回退版本**：如果急需使用，可以将插件回退到出错前的最后一个稳定 Commit（例如 issue 中提到的 `c28a044` 之前的版本）。\n3. **验证环境**：确认没有混合使用不同版本的 Python 环境或冲突的依赖库。","https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F109",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},12628,"哪些 IPAdapter 人脸模型组合的效果最好？","根据社区的大规模测试数据对比，以下模型组合表现最佳（按推荐程度）：\n- **FaceID Plus v2** 系列：特别是权重设为 2.0 时 (`w=2`)。\n- **组合模型**：`FaceID Plus v2` 搭配 `PlusFace`、`FullFace` 或 `FaceID` 使用效果显著优于单一模型。\n- **其他优秀组合**：`FaceID + FullFace` 和 `FaceID Plus + FaceID`。\n注意：数据基于单步生成，实际使用中建议配合高分辨率修复（Upscale）或多步生成以获得更佳的艺术效果。不要完全迷信数值，需结合具体画风实验。","https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F195",{"id":122,"question_zh":123,"answer_zh":124,"source_url":120},12629,"如何构建包含 InstantID 和 FaceID 的高效工作流？","用户可以参考社区分享的工作流文件进行构建：\n1. **节点连接**：在 FaceID 节点之后连接 IPAdapter embeds 节点。\n2. **模型选择**：如果使用 InstantID，必须使用 SDXL 检查点（Checkpoint）；若仅用 FaceID，可兼容 SD1.5。\n3. **参数设置**：对于 SDXL Lightning 模型，推荐使用 20-30 步，CFG 设为 6.5 或 7。\n4. **灵活控制**：工作流中可设置绕过（Bypass）选项，以便单独测试 FaceID、InstantID 或两者结合的效果。FaceID 擅长融合不同角色风格，而结合 InstantID 往往能产生更有趣的结果。\n相关示例工作流文件包括 `InstantID_FaceID.json` 和 `FaceID_IPA_embeds.json`。",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},12630,"ComfyUI 更新后 IPAdapter Plus 显存（VRAM）占用显著增加怎么办？","显存激增可能是由于 Python 环境混乱或依赖冲突引起的。\n排查与解决步骤：\n1. **检查虚拟环境**：确保 ComfyUI 运行在纯净的虚拟环境中（如 `venv` 或 `pyenv`），避免混用系统全局 Python 包（例如同时加载 `\u002Fusr\u002Flib\u002Fpython3.10\u002F` 和本地 `venv` 包）。\n2. **重建环境**：尝试删除现有的虚拟环境并使用 `python3 -m venv venv` 重新创建，然后重新安装所有依赖。\n3. **修复特定报错**：如果遇到 `AttributeError: 'PosixPath' object has no attribute 'startswith'` 等特定错误，可能需要更新或修补特定的依赖库（如 `pkg_resources` 相关问题）。","https:\u002F\u002Fgithub.com\u002Fcubiq\u002FComfyUI_IPAdapter_plus\u002Fissues\u002F38",[]]