[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cubiq--PuLID_ComfyUI":3,"tool-cubiq--PuLID_ComfyUI":61},[4,18,26,36,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,35],"插件",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":42,"last_commit_at":51,"category_tags":52,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[35,13,15,14],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":42,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[35,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":99,"github_topics":75,"view_count":42,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":103},8885,"cubiq\u002FPuLID_ComfyUI","PuLID_ComfyUI","PuLID native implementation for ComfyUI","PuLID_ComfyUI 是将 PuLID 技术原生移植到 ComfyUI 平台的开源实现，旨在让创作者在生成式 AI 工作流中轻松实现高质量的人物身份保持。它解决了传统方法在融合参考人物特征时，往往导致画面风格失真或相似度不足的痛点，让用户既能保留参考图的人物神态，又能自由掌控生成图像的艺术风格。\n\n这款工具特别适合熟悉 ComfyUI 节点操作的设计师、数字艺术家及 AI 爱好者使用。其核心亮点在于提供了灵活的“保真度”调节机制：用户可通过\"Fidelity\"模式高度还原参考人物，或切换至\"Style\"模式在保留特征的同时赋予模型更大的创作自由度。高级节点更支持正交投影等精细参数调整，满足不同场景需求。\n\n需要注意的是，生成效果高度依赖清晰锐利的参考图片，且目前项目处于维护模式，部分功能仍属测试阶段。使用前需按指引配置 EVA CLIP、InsightFace 等依赖组件及特定模型文件。对于希望在本地工作流中精细化控制人物一致性的用户而言，PuLID_ComfyUI 是一个值得尝试的高效解决方案。","# PuLID ComfyUI\n\n[PuLID](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID) ComfyUI native implementation.\n\n![basic workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_PuLID_ComfyUI_readme_6b66b5ea6c98.jpg)\n\n> [!IMPORTANT]  \n> **2025.04.14** - I do not use ComfyUI as my main way to interact with Gen AI anymore as a result I'm setting the repository in \"maintenance only\" mode. If there are crucial updates or PRs I might still consider merging them but I do not plan any consistent work on this repo.\n\n## Notes\n\nThe code can be considered beta, things may change in the coming days. In the `examples` directory you'll find some basic workflows.\n\nThe original implementation makes use of a [4-step lighting UNet](https:\u002F\u002Fhuggingface.co\u002FByteDance\u002FSDXL-Lightning). I made a few comparisons with the official Gradio demo using the same model in ComfyUI and I can't see any noticeable difference, meaning that this code should be faithful to the orignal. The Lightning lora doesn't work as well.\n\nTesting other models though I noticed some quality degradation. You may need to experiment with CFG and various samplers\u002Fschedulers (try `sgm_uniform`).\n\n**The quality of the reference image is very important**. Maybe this is because of the Eva CLIP that gets more details. Be sure to use a clean and sharp picture!\n\n**For IPAdapter compatibility you need to update the IPAdapter extension!**\n\n## The 'method' parameter\n\n`method` applies the weights in different ways. `Fidelity` is closer to the reference ID, `Style` leaves more freedom to the checkpoint. Sometimes the difference is minimal. I've added `neutral` that doesn't do any normalization, if you use this option with the standard Apply node be sure to lower the weight. With the Advanced node you can simply increase the `fidelity` value.\n\nThe Advanced node has a `fidelity` slider and a `projection` option. `ortho_v2` with `fidelity: 8` is the same as `fidelity` method in the standard node. Projection `ortho` and `fidelity: 16` is the same as method `style`.\n\n**Lower `fidelity` values grant higher resemblance to the reference image.**\n\n## Installation\n\n- [PuLID pre-trained model](https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002Fipadapter_pulid\u002Fresolve\u002Fmain\u002Fip-adapter_pulid_sdxl_fp16.safetensors?download=true) goes in `ComfyUI\u002Fmodels\u002Fpulid\u002F` (thanks to [Chenlei Hu](https:\u002F\u002Fgithub.com\u002Fhuchenlei) for converting them into IPAdapter format)\n- The EVA CLIP is EVA02-CLIP-L-14-336, but should be downloaded automatically (will be located in the huggingface directory).\n- `facexlib` dependency needs to be installed, the models are downloaded at first use\n- Finally you need InsightFace with [AntelopeV2](https:\u002F\u002Fhuggingface.co\u002FMonsterMMORPG\u002Ftools\u002Ftree\u002Fmain), the unzipped models should be placed in `ComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2`.\n\n","# PuLID ComfyUI\n\n[PuLID](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID) 的 ComfyUI 原生实现。\n\n![基本工作流](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_PuLID_ComfyUI_readme_6b66b5ea6c98.jpg)\n\n> [!IMPORTANT]  \n> **2025年4月14日** - 由于我不再将 ComfyUI 作为与生成式 AI 交互的主要方式，因此我已将此仓库设置为“仅维护”模式。如果有关键更新或拉取请求，我仍可能会考虑合并，但我不会再对此仓库进行持续开发。\n\n## 注意事项\n\n该代码目前可视为测试版，未来几天内可能会有变动。在 `examples` 目录中，您可以找到一些基础工作流。\n\n原始实现使用了一个 [4 步光照 UNet](https:\u002F\u002Fhuggingface.co\u002FByteDance\u002FSDXL-Lightning)。我在 ComfyUI 中使用相同模型与官方 Gradio 演示进行了对比，未发现明显差异，这意味着这段代码应该忠实于原版。不过 Lightning LoRA 的效果并不理想。\n\n然而，在测试其他模型时，我发现画质有所下降。您可能需要尝试不同的 CFG 值以及各种采样器和调度器（例如 `sgm_uniform`）。\n\n**参考图像的质量非常重要**。这可能是因为 Eva CLIP 能捕捉更多细节。请务必使用清晰、锐利的图片！\n\n**若要兼容 IPAdapter，您需要更新 IPAdapter 扩展！**\n\n## `method` 参数\n\n`method` 以不同方式应用权重。`Fidelity` 更贴近参考 ID，而 `Style` 则给予检查点更大的自由度。有时两者之间的差异很小。我还添加了 `neutral` 选项，它不进行任何归一化处理。如果您在标准的 Apply 节点中使用此选项，请务必降低权重。而在高级节点中，您可以直接提高 `fidelity` 值。\n\n高级节点包含一个 `fidelity` 滑块和一个 `projection` 选项。`ortho_v2` 配合 `fidelity: 8` 等同于标准节点中的 `fidelity` 方法。而 `projection: ortho` 并且 `fidelity: 16` 则等同于 `style` 方法。\n\n**较低的 `fidelity` 值会带来更高的参考图像相似度。**\n\n## 安装步骤\n\n- [PuLID 预训练模型](https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002Fipadapter_pulid\u002Fresolve\u002Fmain\u002Fip-adapter_pulid_sdxl_fp16.safetensors?download=true) 应放置于 `ComfyUI\u002Fmodels\u002Fpulid\u002F` 目录下（感谢 [Chenlei Hu](https:\u002F\u002Fgithub.com\u002Fhuchenlei) 将其转换为 IPAdapter 格式）。\n- EVA CLIP 使用的是 EVA02-CLIP-L-14-336，但通常会自动下载（位于 Hugging Face 目录中）。\n- 需要安装 `facexlib` 依赖，模型会在首次使用时自动下载。\n- 最后，您还需要 InsightFace 及其 [AntelopeV2](https:\u002F\u002Fhuggingface.co\u002FMonsterMMORPG\u002Ftools\u002Ftree\u002Fmain)，解压后的模型应放置于 `ComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2` 目录下。","# PuLID ComfyUI 快速上手指南\n\nPuLID ComfyUI 是 [PuLID](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID) 的 ComfyUI 原生实现，主要用于在 SDXL 模型中实现高保真的人脸身份保持（ID Preservation）。\n\n> **注意**：本项目目前处于“仅维护”模式。代码被视为 Beta 版本，功能可能会随时间调整。\n\n## 1. 环境准备\n\n在开始之前，请确保你的环境满足以下要求：\n\n*   **系统要求**：支持 ComfyUI 的操作系统（Windows\u002FLinux\u002FmacOS），建议配备 NVIDIA GPU 以獲得最佳性能。\n*   **ComfyUI 版本**：确保已安装最新版的 ComfyUI。\n*   **关键依赖更新**：\n    *   **IPAdapter 扩展**：为了兼容 PuLID，**必须更新** ComfyUI 中的 `ComfyUI_IPAdapter_plus` 插件至最新版本。\n    *   **facexlib**：需要安装此依赖库（通常在首次运行时会自动下载模型）。\n    *   **InsightFace**：需要安装 InsightFace 并配置 AntelopeV2 模型。\n\n## 2. 安装步骤\n\n请按照以下步骤下载必要的模型文件并放置到指定目录。\n\n### 2.1 下载 PuLID 主模型\n下载转换后的 IPAdapter 格式模型，并放入 `ComfyUI\u002Fmodels\u002Fpulid\u002F` 目录。\n\n```bash\n# 创建目录 (如果不存在)\nmkdir -p ComfyUI\u002Fmodels\u002Fpulid\n\n# 下载模型 (建议使用国内镜像或加速工具下载后手动移动)\nwget https:\u002F\u002Fhuggingface.co\u002Fhuchenlei\u002Fipadapter_pulid\u002Fresolve\u002Fmain\u002Fip-adapter_pulid_sdxl_fp16.safetensors -P ComfyUI\u002Fmodels\u002Fpulid\u002F\n```\n*文件名应为：`ip-adapter_pulid_sdxl_fp16.safetensors`*\n\n### 2.2 配置 InsightFace (AntelopeV2)\nPuLID 依赖 InsightFace 进行人脸分析。你需要下载 `AntelopeV2` 模型包。\n\n1.  从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FMonsterMMORPG\u002Ftools\u002Ftree\u002Fmain) 下载 `antelopev2.zip`。\n2.  解压该文件。\n3.  将解压后的文件夹整体移动到 `ComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2`。\n\n最终目录结构应如下所示：\n```text\nComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2\u002F\n├── 1k3d68.onnx\n├── 2d106det.onnx\n├── genderage.onnx\n├── glintr100.onnx\n└── scrfd_10g_bnkps.onnx\n```\n\n### 2.3 EVA CLIP 模型\n项目依赖 `EVA02-CLIP-L-14-336`。通常情况下，ComfyUI 会在首次运行时自动从 HuggingFace 下载该模型到本地缓存目录，无需手动干预。若网络受限导致下载失败，可手动下载后放入 HuggingFace 缓存目录。\n\n## 3. 基本使用\n\n### 3.1 加载工作流\n1.  启动 ComfyUI。\n2.  在 `examples` 目录中找到基础工作流文件（如 `pulid_wf.jpg` 对应的 JSON 文件），将其拖入 ComfyUI 界面加载。\n3.  或者手动构建节点：使用标准的 `Apply IPAdapter` 节点或 `Advanced` 节点，选择 `pulid` 类型。\n\n### 3.2 核心参数说明\n在节点中，重点关注以下参数以平衡“相似度”与“风格自由度”：\n\n*   **method (方法)**:\n    *   `fidelity`: 更贴近参考图的人物身份（推荐用于证件照、高相似度需求）。\n    *   `style`: 给予底模（Checkpoint）更多的风格创作自由。\n    *   `neutral`: 不进行归一化处理。若使用标准节点选此项，请降低权重；若使用高级节点，请调高 `fidelity` 值。\n*   **fidelity (保真度滑块 - 仅限 Advanced 节点)**:\n    *   数值越**低**，与参考图的相似度越**高**。\n    *   预设对应关系：\n        *   `projection: ortho_v2` + `fidelity: 8` ≈ `method: fidelity`\n        *   `projection: ortho` + `fidelity: 16` ≈ `method: style`\n\n### 3.3 最佳实践建议\n*   **参考图质量**：参考图的质量至关重要。请使用**清晰、无遮挡、光线良好**的正脸照片。模糊或低分辨率的图片会导致生成效果大幅下降（这与 Eva CLIP 提取细节的能力有关）。\n*   **采样器设置**：\n    *   官方推荐使用 4-step 的 Lightning UNet (`ByteDance\u002FSDXL-Lightning`)。\n    *   如果使用其他模型发现质量下降，请尝试调整 **CFG** 值或更换采样器\u002F调度器（推荐尝试 `sgm_uniform` 调度器）。\n*   **权重调整**：初次使用时，建议从默认权重开始，根据生成结果微调 `weight` 或 `fidelity` 参数。","一位独立游戏开发者需要为角色生成多张不同表情和动作的立绘，但必须严格保持主角面部特征的一致性以维持人设统一。\n\n### 没有 PuLID_ComfyUI 时\n- **面容崩坏严重**：每次更换姿势或表情重绘时，AI 都会随机生成新的五官，导致主角看起来像不同的人，难以维持角色辨识度。\n- **后期修图耗时**：为了修正不一致的脸部，开发者不得不花费大量时间在 Photoshop 中手动拼接或使用繁琐的局部重绘（Inpainting）进行微调。\n- **风格与身份难平衡**：使用传统的 LoRA 训练虽然能固定风格，但往往牺牲了面部细节的相似度，或者导致画面过度僵化，缺乏自然光影。\n- **工作流断裂**：需要在 WebUI、Gradio 演示页面和本地脚本之间反复切换测试，无法在 ComfyUI 中构建端到端的自动化生成管线。\n\n### 使用 PuLID_ComfyUI 后\n- **高保真身份锁定**：仅需一张清晰参考图，通过 `Fidelity` 模式即可在生成奔跑、战斗等不同动作时，完美保留主角的核心面部特征。\n- **灵活的风格调控**：利用 `Style` 模式或高级节点中的 `fidelity` 滑块，开发者可以自由调整“像本人”与“符合画面风格”之间的权重，获得更自然的艺术效果。\n- **原生流程整合**：作为 ComfyUI 原生节点，它直接嵌入现有工作流，配合 SDXL-Lightning 模型可实现秒级出图，大幅缩短了从构思到成图的周期。\n- **细节还原出色**：依托 EVA CLIP 的强大编码能力，即使是参考图中微小的眼神光或皮肤质感，也能高质量地迁移到新生成的图像中。\n\nPuLID_ComfyUI 通过将高精度的身份保持能力无缝融入可视化工作流，彻底解决了角色一致性生成的痛点，让单人开发者也能高效产出专业级的系列角色资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcubiq_PuLID_ComfyUI_84a37c92.png","cubiq","Matteo Spinelli","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcubiq_fdc7860d.jpg",null,"Florence, Italy","https:\u002F\u002Fmatt3o.com","https:\u002F\u002Fgithub.com\u002Fcubiq",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,908,67,"2026-04-14T09:07:19","Apache-2.0",4,"未说明","需要 NVIDIA GPU (隐含，因依赖 CUDA\u002FInsightFace)，显存需求未说明 (建议 8GB+ 以运行 SDXL)，CUDA 版本未说明",{"notes":92,"python":89,"dependencies":93},"该工具是 PuLID 的 ComfyUI 原生实现。安装时需手动下载 PuLID 预训练模型至 `ComfyUI\u002Fmodels\u002Fpulid\u002F` 目录；InsightFace 所需的 AntelopeV2 模型需解压后放置于 `ComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2`。首次运行时 `facexlib` 和 EVA CLIP 模型会自动下载。参考图像的质量对生成效果至关重要，建议使用清晰锐利的图片。为兼容 IPAdapter，必须更新 IPAdapter 扩展插件。代码处于 Beta 阶段，可能需要调整 CFG 和采样器（推荐尝试 `sgm_uniform`）以获得最佳效果。",[94,95,96,97,98],"facexlib","insightface","EVA02-CLIP-L-14-336 (自动下载)","ip-adapter_pulid_sdxl_fp16.safetensors","AntelopeV2 models",[15,35],"2026-03-27T02:49:30.150509","2026-04-18T14:13:03.328962",[],[]]