[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ToTheBeginning--PuLID":3,"tool-ToTheBeginning--PuLID":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":77,"owner_twitter":77,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":91,"env_deps":93,"category_tags":99,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":141},8978,"ToTheBeginning\u002FPuLID","PuLID","[NeurIPS 2024] Official code for PuLID: Pure and Lightning ID Customization via Contrastive Alignment","PuLID 是一款由字节跳动研发并入选 NeurIPS 2024 的开源 AI 工具，专注于高效、高保真的人脸身份定制。它旨在解决传统换脸或角色生成技术中常见的痛点：如何在将特定人物面部特征融入新场景时，既保持极高的相似度，又避免破坏原图的风格、光影或导致画面失真。\n\n通过创新的“对比对齐”（Contrastive Alignment）技术，PuLID 能够纯净地提取身份特征，并以“闪电般”的速度将其注入到生成的图像中。该方法无需繁琐的微调过程，即可在 SDXL 及最新的 FLUX 等主流底模上实现自然融合，有效保留了背景艺术风格与人物神态的协调性。近期更新的版本更优化了显存占用，使得普通消费级显卡（如 16GB 甚至 12GB 显存）也能流畅运行。\n\nPuLID 非常适合多类用户群体：数字艺术家和设计师可利用它快速创作具有一致角色的系列插画；游戏开发者能借此高效生成角色概念图；研究人员可深入探究其对比学习机制；而具备基础部署能力的 AI 爱好者，也能通过本地 Gradio 界面或在线 Demo 轻松体验个性化图像生成的乐趣。无论是追求商业级出图质量的专业人士，还是希望尝试前沿技术的探","PuLID 是一款由字节跳动研发并入选 NeurIPS 2024 的开源 AI 工具，专注于高效、高保真的人脸身份定制。它旨在解决传统换脸或角色生成技术中常见的痛点：如何在将特定人物面部特征融入新场景时，既保持极高的相似度，又避免破坏原图的风格、光影或导致画面失真。\n\n通过创新的“对比对齐”（Contrastive Alignment）技术，PuLID 能够纯净地提取身份特征，并以“闪电般”的速度将其注入到生成的图像中。该方法无需繁琐的微调过程，即可在 SDXL 及最新的 FLUX 等主流底模上实现自然融合，有效保留了背景艺术风格与人物神态的协调性。近期更新的版本更优化了显存占用，使得普通消费级显卡（如 16GB 甚至 12GB 显存）也能流畅运行。\n\nPuLID 非常适合多类用户群体：数字艺术家和设计师可利用它快速创作具有一致角色的系列插画；游戏开发者能借此高效生成角色概念图；研究人员可深入探究其对比学习机制；而具备基础部署能力的 AI 爱好者，也能通过本地 Gradio 界面或在线 Demo 轻松体验个性化图像生成的乐趣。无论是追求商业级出图质量的专业人士，还是希望尝试前沿技术的探索者，PuLID 都提供了一个平衡了速度、质量与易用性的强大解决方案。","# PuLID (NeurIPS 2024)\n\n### :open_book: PuLID: Pure and Lightning ID Customization via Contrastive Alignment\n> [![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16022) [![xl](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-HuggingFaceDemo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID) [![flux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-PuLID_FLUX_demo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX) [![Replicate](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReplicate-Demo_for_PuLID-blue)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fpulid) [![Replicate](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReplicate-PuLID_FLUX-blue)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid)\u003Cbr>\n> Zinan Guo*, Yanze Wu*✝, Zhuowei Chen, Lang Chen, Peng Zhang, Qian He \u003Cbr>\n> (*Equal Contribution, ✝Corresponding Author) \u003Cbr>\n> ByteDance Inc \u003Cbr>\n\n🔥🔥 We are excited to share [DreamO](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDreamO), a unified image customization framework that supports ID, IP, Try-On, and style tasks. Check it out and see what it can do! 🔥🔥\n\n### :triangular_flag_on_post: Updates\n* **2024.10.31**: 🔥 We are happy to release our latest [models](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID), **PuLID-v1.1** and **PuLID-FLUX-v0.9.1**. See more in [Model Zoo](#european_castle-model-zoo) and [pulid v1.1 model](docs\u002Fpulid_v1.1.md). We also update a new revision for the [arXiv paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16022), which includes more results, details, and analysis, please check it out.\n* **2024.09.26**: 🎉 PuLID accepted by NeurIPS 2024\n* **2024.09.12**: We're thrilled to announce the release of the **PuLID-FLUX-v0.9.0 model**. Enjoy exploring its capabilities! 😊 [Learn more about this model](docs\u002Fpulid_for_flux.md)\n* **2024.05.23**: share the [preview of our upcoming v1.1 model](docs\u002Fv1.1_preview.md), please stay tuned\n* **2024.05.01**: release v1 codes&models, also the [🤗HuggingFace Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID)\n* **2024.04.25**: release arXiv paper.\n\n\n## PuLID for FLUX\nPlease check the doc and demo of PuLID-FLUX [here](docs\u002Fpulid_for_flux.md).\n\n### updates\n- [x] Local gradio demo is ready now\n- [x] Online HuggingFace demo is ready now [![flux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-PuLID_FLUX_demo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX)\n- [x] We have optimized the codes to support consumer-grade GPUS, and now **PuLID-FLUX can run on a 16GB graphic card**. Check the details [here](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fblob\u002Fmain\u002Fdocs\u002Fpulid_for_flux.md#local-gradio-demo)\n- [x] (Community Implementation) Online Replicate demo is ready now [![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid)\n- [x] Local gradio demo supports 12GB graphic card now\n- [x] v0.9.1 is ready now\n\n\nBelow results are generated with PuLID-FLUX.\n![pulid_flux_results](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_4854411ac38c.png)\n\n\n## Examples\nImages generated with our PuLID\n![examples](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_a186942968b8.png)\nApplications\n\nhttps:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fassets\u002F11482921\u002F9bdd0c8a-99e8-4eab-ab9e-39bf796cc6b8\n\n## :european_castle: Model Zoo\n\n|                                              Version                                               | Base Model |                                                                                              Description                                                                                              |\n|:--------------------------------------------------------------------------------------------------:|:----------:|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------:|\n|              [PuLID-v1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_v1.bin)              |    SDXL    |                                                                                             Paper model.                                                                                              |\n|        [PuLID-v1.1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_v1.1.safetensors)        |    SDXL    |                                                     Compared to PuLID-v1, better compatibility, editability, facial naturalness, and similarity.                                                      |\n| [PuLID-FLUX-v0.9.0](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_flux_v0.9.0.safetensors) |    FLUX    |             Our first version for PuLID-FLUX, better prompt-following and image quality (since FLUX is more powerful than SDXL). But ID fidelity is not high enough for some male inputs              |\n| [PuLID-FLUX-v0.9.1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_flux_v0.9.1.safetensors) |    FLUX    | Compared to PuLID-FLUX-v0.9.0, better ID fidelity. From the quantitative metric of ID similarity, the improvement is about 5 percentage points. Meanwhile, the editability remains similar as before. |\n\n\n## :wrench: Dependencies and Installation\n- Python >= 3.9 (Recommend to use [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) or [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html))\n- [PyTorch >= 2.0](https:\u002F\u002Fpytorch.org\u002F) if you don't need flux-dev-fp8, otherwise [PyTorch >= 2.4.1](https:\u002F\u002Fpytorch.org\u002F)\n```bash\n# clone PuLID repo\ngit clone https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID.git\ncd PuLID\n# create conda env\nconda create --name pulid python=3.10\n# activate env\nconda activate pulid\n# Install dependent packages\n# 1. if you don't need flux-fp8, e.g., you are using xl or flux-bf16, install the following requirements.txt\npip install -r requirements.txt\n# 2. if you need flux-fp8 (to put flux on consumer-grade gpu), install the following requirements_fp8.txt\npip install -r requirements_fp8.txt\n```\n\n## :zap: Quick Inference\n### Local Gradio Demo\n```bash\n# for v1 version\npython app.py\n\n# for v1.1 version\npython app_v1.1.py --base BASE_MODEL\nUsage:\n  -base: can be RunDiffusion\u002FJuggernaut-XL-v9 or Lykon\u002Fdreamshaper-xl-lightning\n```\n\n### Online HuggingFace Demo\nThanks for the GPU grant from HuggingFace team, you can try PuLID HF demo in \n- [https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID) for SDXL\n- [https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX) for FLUX\n\n## :paperclip: Related Resources\nFollowing are some third-party implementations of PuLID we have found in the Internet. \nWe appreciate the efforts of the respective developers for making PuLID accessible to a wider audience.\nIf there are any PuLID based resources and applications that we have not mentioned here, please let us know, \nand we will include them in this list.\n\n#### Online Demo\n- **Colab**: https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FPuLID-jupyter provided by [camenduru](https:\u002F\u002Fgithub.com\u002Fcamenduru)\n- **Replicate (PuLID)**: https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fpulid provided by [zsxkib](https:\u002F\u002Fgithub.com\u002Fzsxkib)\n- **Replicate (PuLID-FLUX)**: https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid provided by [zsxkib](https:\u002F\u002Fgithub.com\u002Fzsxkib)\n\n#### ComfyUI\n- https:\u002F\u002Fgithub.com\u002Fcubiq\u002FPuLID_ComfyUI provided by [cubiq](https:\u002F\u002Fgithub.com\u002Fcubiq), native ComfyUI implementation\n- https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-PuLID-ZHO provided by [ZHO](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO), diffusers-based implementation\n\n#### WebUI\n- [SD.Next](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fautomatic\u002Fblob\u002Fmaster\u002FCHANGELOG.md#update-for-2024-11-21) Implementation provided by [vladmandic](https:\u002F\u002Fgithub.com\u002Fvladmandic)\n- https:\u002F\u002Fgithub.com\u002FMikubill\u002Fsd-webui-controlnet\u002Fpull\u002F2838 provided by [huchenlei](https:\u002F\u002Fgithub.com\u002Fhuchenlei)\n\n#### Other Applications\n- PuLID-FLUX multi-person generation with [Regional-Prompting-FLUX](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX), provided by [Anthony](https:\u002F\u002Fgithub.com\u002Fantonioo-c)\n\n## Disclaimer\nThis project strives to impact the domain of AI-driven image generation positively. Users are granted the freedom to \ncreate images using this tool, but they are expected to comply with local laws and utilize it responsibly. \nThe developers do not assume any responsibility for potential misuse by users.\n\n\n##  Citation\nIf PuLID is helpful, please help to ⭐ the repo.\n\nIf you find this project useful for your research, please consider citing our paper:\n```bibtex\n@InProceedings{guo2024pulid,\n  title={PuLID: Pure and Lightning ID Customization via Contrastive Alignment},\n  author={Guo, Zinan and Wu, Yanze and Chen, Zhuowei and Chen, Lang and Zhang, Peng and He, Qian},\n  booktitle={Advances in Neural Information Processing Systems},\n  year={2024}\n}\n```\n\n## Acknowledgement\nWe would like to acknowledge our core team members, Pengze Zhang and Songtao Zhao, for their significant contributions \nto the continued development and maintenance of the PuLID model. Although they were not listed as authors on the first \nversion of this paper, their efforts played a crucial role in enhancing the model.\n\n## :e-mail: Contact\nIf you have any comments or questions, please [open a new issue](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002Fnew\u002Fchoose) or feel free to contact [Yanze Wu](https:\u002F\u002Ftothebeginning.github.io\u002F) and [Zinan Guo](mailto:guozinan.1@bytedance.com).","# PuLID (NeurIPS 2024)\n\n### :open_book: PuLID：通过对比对齐实现纯净且快速的身份定制\n> [![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-\u003CCOLOR>.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16022) [![xl](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-HuggingFaceDemo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID) [![flux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-PuLID_FLUX_demo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX) [![Replicate](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReplicate-Demo_for_PuLID-blue)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fpulid) [![Replicate](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FReplicate-PuLID_FLUX-blue)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid)\u003Cbr>\n> Zinan Guo*, Yanze Wu*✝, Zhuowei Chen, Lang Chen, Peng Zhang, Qian He \u003Cbr>\n> (*同等贡献，✝通讯作者) \u003Cbr>\n> 字节跳动公司 \u003Cbr>\n\n🔥🔥 我们很高兴地分享 [DreamO](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDreamO)，这是一个统一的图像定制框架，支持身份、IP、试穿和风格化等任务。快来体验一下它的强大功能吧！🔥🔥\n\n### :triangular_flag_on_post: 更新\n* **2024.10.31**: 🔥 我们很高兴发布最新的[模型](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID)，**PuLID-v1.1** 和 **PuLID-FLUX-v0.9.1**。更多信息请参见 [模型库](#european_castle-model-zoo) 和 [pulid v1.1 模型](docs\u002Fpulid_v1.1.md)。我们还更新了 [arXiv 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16022)的新版本，其中包含更多结果、细节和分析，请查阅。\n* **2024.09.26**: 🎉 PuLID 被 NeurIPS 2024 接受\n* **2024.09.12**: 我们非常高兴地宣布发布 **PuLID-FLUX-v0.9.0 模型**。尽情探索它的能力吧！😊 [了解更多关于该模型的信息](docs\u002Fpulid_for_flux.md)\n* **2024.05.23**: 分享我们即将发布的 v1.1 模型的[预览](docs\u002Fv1.1_preview.md)，敬请期待\n* **2024.05.01**: 发布 v1 版本的代码和模型，以及 [🤗HuggingFace 演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID)\n* **2024.04.25**: 发表 arXiv 论文。\n\n\n## PuLID for FLUX\n请在此处查看 PuLID-FLUX 的文档和演示 [这里](docs\u002Fpulid_for_flux.md)。\n\n### 更新\n- [x] 本地 Gradio 演示现已准备就绪\n- [x] 在线 HuggingFace 演示现已准备就绪 [![flux](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-PuLID_FLUX_demo-orange)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX)\n- [x] 我们优化了代码以支持消费级 GPU，现在 **PuLID-FLUX 可以在 16GB 显存的显卡上运行**。详细信息请参见 [这里](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fblob\u002Fmain\u002Fdocs\u002Fpulid_for_flux.md#local-gradio-demo)\n- [x] （社区实现）在线 Replicate 演示现已准备就绪 [![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid)\n- [x] 本地 Gradio 演示现在支持 12GB 显存的显卡\n- [x] v0.9.1 现已准备就绪\n\n\n以下结果由 PuLID-FLUX 生成。\n![pulid_flux_results](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_4854411ac38c.png)\n\n\n## 示例\n使用我们的 PuLID 生成的图像\n![examples](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_readme_a186942968b8.png)\n应用案例\n\nhttps:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fassets\u002F11482921\u002F9bdd0c8a-99e8-4eab-ab9e-39bf796cc6b8\n\n## :european_castle: 模型库\n\n|                                              版本                                               | 基础模型 |                                                                                              描述                                                                                              |\n|:--------------------------------------------------------------------------------------------------:|:----------:|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------:|\n|              [PuLID-v1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_v1.bin)              |    SDXL    |                                                                                             论文模型。                                                                                              |\n|        [PuLID-v1.1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_v1.1.safetensors)        |    SDXL    |                                                     相比于 PuLID-v1，兼容性、可编辑性、面部自然度和相似度都有所提升。                                                      |\n| [PuLID-FLUX-v0.9.0](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_flux_v0.9.0.safetensors) |    FLUX    |             我们为 PuLID-FLUX 发布的第一个版本，具有更好的提示遵循能力和图像质量（因为 FLUX 比 SDXL 更强大）。但对于某些男性输入，身份保真度还不够高              |\n| [PuLID-FLUX-v0.9.1](https:\u002F\u002Fhuggingface.co\u002Fguozinan\u002FPuLID\u002Fblob\u002Fmain\u002Fpulid_flux_v0.9.1.safetensors) |    FLUX    | 相比于 PuLID-FLUX-v0.9.0，身份保真度有所提高。从身份相似性的定量指标来看，提升了约 5 个百分点。同时，可编辑性与之前保持一致。 |\n\n\n## :wrench: 依赖与安装\n- Python >= 3.9（建议使用 [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002Fdownload\u002F#linux) 或 [Miniconda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html)）\n- 如果不需要 flux-dev-fp8，则需要 [PyTorch >= 2.0](https:\u002F\u002Fpytorch.org\u002F)；否则需要 [PyTorch >= 2.4.1](https:\u002F\u002Fpytorch.org\u002F)\n```bash\n# 克隆 PuLID 仓库\ngit clone https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID.git\ncd PuLID\n# 创建 conda 环境\nconda create --name pulid python=3.10\n# 激活环境\nconda activate pulid\n# 安装依赖包\n# 1. 如果不需要 flux-fp8，例如您正在使用 xl 或 flux-bf16，则安装以下 requirements.txt\npip install -r requirements.txt\n# 2. 如果需要 flux-fp8（以便在消费级 GPU 上运行 flux），则安装以下 requirements_fp8.txt\npip install -r requirements_fp8.txt\n```\n\n## :zap: 快速推理\n### 本地 Gradio 演示\n```bash\n# 对于 v1 版本\npython app.py\n\n# 对于 v1.1 版本\npython app_v1.1.py --base BASE_MODEL\n用法：\n  -base: 可以是 RunDiffusion\u002FJuggernaut-XL-v9 或 Lykon\u002Fdreamshaper-xl-lightning\n```\n\n### 在线 HuggingFace 演示\n感谢 HuggingFace 团队提供的 GPU 支持，您可以在以下链接尝试 PuLID HF 演示：\n- [https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID) 用于 SDXL\n- [https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX) 用于 FLUX\n\n## :paperclip: 相关资源\n以下是一些我们在互联网上找到的 PuLID 第三方实现。\n我们感谢各位开发者为让更多人使用 PuLID 所做的努力。\n如果您知道此处未提及的基于 PuLID 的资源或应用，请告知我们，\n我们将将其添加到此列表中。\n\n#### 在线演示\n- **Colab**: https:\u002F\u002Fgithub.com\u002Fcamenduru\u002FPuLID-jupyter，由 [camenduru](https:\u002F\u002Fgithub.com\u002Fcamenduru) 提供\n- **Replicate (PuLID)**: https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fpulid，由 [zsxkib](https:\u002F\u002Fgithub.com\u002Fzsxkib) 提供\n- **Replicate (PuLID-FLUX)**: https:\u002F\u002Freplicate.com\u002Fzsxkib\u002Fflux-pulid，由 [zsxkib](https:\u002F\u002Fgithub.com\u002Fzsxkib) 提供\n\n#### ComfyUI\n- https:\u002F\u002Fgithub.com\u002Fcubiq\u002FPuLID_ComfyUI，由 [cubiq](https:\u002F\u002Fgithub.com\u002Fcubiq) 提供，原生 ComfyUI 实现\n- https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO\u002FComfyUI-PuLID-ZHO，由 [ZHO](https:\u002F\u002Fgithub.com\u002FZHO-ZHO-ZHO) 提供，基于 diffusers 的实现\n\n#### WebUI\n- [SD.Next](https:\u002F\u002Fgithub.com\u002Fvladmandic\u002Fautomatic\u002Fblob\u002Fmaster\u002FCHANGELOG.md#update-for-2024-11-21) 实现，由 [vladmandic](https:\u002F\u002Fgithub.com\u002Fvladmandic) 提供\n- https:\u002F\u002Fgithub.com\u002FMikubill\u002Fsd-webui-controlnet\u002Fpull\u002F2838，由 [huchenlei](https:\u002F\u002Fgithub.com\u002Fhuchenlei) 提供\n\n#### 其他应用\n- 使用 [Regional-Prompting-FLUX](https:\u002F\u002Fgithub.com\u002FinstantX-research\u002FRegional-Prompting-FLUX) 进行 PuLID-FLUX 多人生成，由 [Anthony](https:\u002F\u002Fgithub.com\u002Fantonioo-c) 提供\n\n## 免责声明\n本项目致力于以积极的方式影响人工智能驱动的图像生成领域。用户可以自由地使用此工具创建图像，但应遵守当地法律法规，并负责任地使用。\n开发者对用户的任何潜在滥用行为不承担任何责任。\n\n\n## 引用\n如果 PuLID 对您有所帮助，请为本仓库点赞（⭐）。\n\n如果您认为本项目对您的研究有帮助，请考虑引用我们的论文：\n```bibtex\n@InProceedings{guo2024pulid,\n  title={PuLID: 纯净且快速的身份定制——基于对比对齐},\n  author={Guo, Zinan 和 Wu, Yanze 和 Chen, Zhuowei 和 Chen, Lang 和 Zhang, Peng 和 He, Qian},\n  booktitle={神经信息处理系统进展},\n  year={2024}\n}\n```\n\n## 致谢\n我们谨向核心团队成员张鹏泽和赵松涛表示感谢，他们为 PuLID 模型的持续开发与维护做出了重要贡献。尽管他们在本文的第一版中未被列为作者，但他们的努力对模型的提升起到了至关重要的作用。\n\n## :e-mail: 联系方式\n如您有任何意见或问题，请[新建一个议题](https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002Fnew\u002Fchoose)，或随时联系 [Wu Yanze](https:\u002F\u002Ftothebeginning.github.io\u002F) 和 [Guo Zinan](mailto:guozinan.1@bytedance.com)。","# PuLID 快速上手指南\n\nPuLID (Pure and Lightning ID Customization) 是一个基于对比对齐的高效人脸 ID 定制工具，支持 SDXL 和 FLUX 底模。它能将特定人物身份特征快速迁移到生成的图像中，同时保持极高的编辑灵活性和自然度。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F Windows \u002F macOS\n*   **Python 版本**: >= 3.9 (推荐使用 3.10)\n*   **PyTorch 版本**:\n    *   若使用 SDXL 或 FLUX (bf16): >= 2.0\n    *   若使用 FLUX (fp8, 显存优化版): >= 2.4.1\n*   **硬件要求**:\n    *   **SDXL 版本**: 推荐 12GB+ 显存\n    *   **FLUX 版本**: 优化后可在 16GB 显存显卡上运行（需安装 fp8 依赖），本地 Gradio 演示现已支持 12GB 显存。\n\n> **国内开发者提示**：建议配置 pip 国内镜像源（如清华源、阿里源）以加速依赖下载。\n> ```bash\n> pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装步骤\n\n### 2.1 克隆项目与创建环境\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID.git\ncd PuLID\n\n# 创建 conda 环境 (推荐 python 3.10)\nconda create --name pulid python=3.10\nconda activate pulid\n```\n\n### 2.2 安装依赖\n\n根据您的使用场景选择安装命令：\n\n**场景 A：使用 SDXL 或 FLUX (非 fp8 模式)**\n```bash\npip install -r requirements.txt\n```\n\n**场景 B：使用 FLUX (fp8 模式，适用于消费级显卡)**\n*如果您需要在 16GB 或更小显存的显卡上运行 FLUX 模型，请使用此命令。*\n```bash\npip install -r requirements_fp8.txt\n```\n\n## 3. 基本使用\n\n安装完成后，您可以直接启动本地的 Gradio 可视化界面进行体验。\n\n### 3.1 启动 SDXL 版本 (v1.1 推荐)\n\n```bash\n# 启动 v1.1 版本 (兼容性、自然度和相似度更优)\n# --base 参数可指定底模，例如：RunDiffusion\u002FJuggernaut-XL-v9 或 Lykon\u002Fdreamshaper-xl-lightning\npython app_v1.1.py --base RunDiffusion\u002FJuggernaut-XL-v9\n```\n\n### 3.2 启动旧版或 FLUX 版本\n\n*   **SDXL v1 原版**:\n    ```bash\n    python app.py\n    ```\n*   **FLUX 版本**:\n    请参考项目目录下的 `docs\u002Fpulid_for_flux.md` 文档获取专门的启动脚本和说明（通常涉及特定的模型加载配置）。\n\n### 3.3 操作指引\n\n1.  运行上述命令后，终端会显示本地访问地址（通常为 `http:\u002F\u002F127.0.0.1:7860`）。\n2.  在浏览器打开该地址。\n3.  **上传参考图**：在 \"ID Image\" 区域上传一张清晰的人脸照片。\n4.  **输入提示词**：在文本框描述您想要生成的场景（例如：\"a photo of a person surfing in the ocean\"）。\n5.  **生成**：点击生成按钮，即可得到保留人物 ID 特征的新图像。\n\n---\n*注：如需在线体验无需本地部署，可访问 HuggingFace Spaces: [PuLID (SDXL)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID) 或 [PuLID-FLUX](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fyanze\u002FPuLID-FLUX)。*","某独立游戏开发团队需要为一款叙事驱动的角色扮演游戏快速生成大量保持主角面部特征一致的宣传插画，以适配不同剧情场景和美术风格。\n\n### 没有 PuLID 时\n- **训练成本高昂**：传统角色定制方法（如 DreamBooth）需针对每个角色单独微调模型，耗时数小时且消耗大量显存资源。\n- **身份一致性差**：在切换不同画风或动作姿态时，生成的角色面部特征容易漂移，导致主角看起来像不同的人。\n- **图像质量受损**：强行注入角色特征往往破坏原图的光影逻辑和纹理细节，使画面显得生硬或出现伪影。\n- **迭代效率低下**：美术人员需反复手动修图或重新生成来修正脸型偏差，严重拖慢宣传物料的制作进度。\n\n### 使用 PuLID 后\n- **零样本即时定制**：仅需一张角色参考图，无需任何训练步骤，PuLID 即可通过对比对齐技术瞬间完成角色身份注入。\n- **极高身份保真度**：即使在奇幻、赛博朋克等极端风格化场景中，PuLID 也能精准锁定五官特征，确保主角“千人一面”。\n- **原生画质保留**：基于纯净化对齐机制，生成的图像完美继承底模的光影与质感，避免了传统方法常见的画面劣化问题。\n- **工作流大幅提速**：团队可将单张海报的制作时间从数小时缩短至几分钟，轻松批量产出高质量、高一致性的多版本素材。\n\nPuLID 通过免训练的对比对齐技术，彻底解决了高保真角色定制中效率与质量的矛盾，让个性化内容创作变得像闪电一样快速且纯净。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FToTheBeginning_PuLID_4854411a.png","ToTheBeginning","Yanze Wu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FToTheBeginning_1a9624e4.jpg",null,"ByteDance","China","https:\u002F\u002Ftothebeginning.github.io\u002F","https:\u002F\u002Fgithub.com\u002FToTheBeginning",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,3535,263,"2026-04-17T14:17:19","Apache-2.0","未说明","需要 NVIDIA GPU。标准模式需较高显存；针对消费级显卡优化后，PuLID-FLUX 可在 12GB 或 16GB 显存的显卡上运行（需使用 flux-fp8 模式）。",{"notes":94,"python":95,"dependencies":96},"建议使用 Anaconda 或 Miniconda 创建 Python 3.10 环境。若需在消费级显卡上运行 FLUX 模型，需安装 requirements_fp8.txt 以启用 fp8 支持；否则安装 requirements.txt。提供 SDXL 和 FLUX 两种基座模型版本。",">=3.9 (推荐 3.10)",[97,98],"torch>=2.0","torch>=2.4.1 (若使用 flux-dev-fp8)",[15],"2026-03-27T02:49:30.150509","2026-04-18T17:03:31.385189",[103,108,112,116,121,126,131,136],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},40292,"Stage 2（ID 一致性）训练的具体工作流程是什么？是否需要保留完整的梯度图？","Stage 2 训练通常涉及输入图像、去噪步骤、VAE 解码、人脸检测和 ArcFace 特征提取。如果在整个过程中保留所有梯度图，确实会消耗大量显存。在实际复现中（如基于 SD3 或 HyperSD），通常只在 IDformer 和交叉注意力模块以及部分 VAE 解码张量上保留梯度，用于计算 ID loss 并更新权重。如果训练不收敛，可能需要检查数据量、步数设置（例如 1000 次迭代在某些情况下已足够收敛），以及确认是否错误地对整个流程（包括传统的扩散损失部分）都计算了梯度，这可能导致图像模糊或训练失败。建议仅对 ID 相关分支计算梯度，而使用预训练的 XL 权重计算常规的扩散损失。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F159",{"id":109,"question_zh":110,"answer_zh":111,"source_url":107},40293,"Stage 1 训练需要多少轮次（epochs）才能达到较好的相似度？是否需要人脸分割掩码？","在 Stage 1 训练中，如果仅使用 MSE 损失训练 SDXL，相似度可能会较低。关于具体需要的训练轮次，目前社区反馈不一，但通常需要根据数据集大小调整。关于是否需要人脸分割掩码（seg）来获取仅包含人脸区域的 mask_img，虽然某些实现可能利用它来聚焦人脸区域，但并非所有流程都强制要求。如果相似度低，可以尝试增加训练轮次、调整学习率或检查数据预处理步骤。",{"id":113,"question_zh":114,"answer_zh":115,"source_url":107},40294,"在计算扩散损失时，是否可以使用 XLL 权重代替 XL 权重？","不建议使用 XLL 权重计算传统的扩散损失（SD loss）。测试表明，如果使用 XLL 权重计算 SD loss，会导致生成的图像模糊。正确的做法是：使用标准的 XL 模型权重来计算扩散损失（SD loss），同时使用 XLL 模型权重来计算 ID 损失（ID loss）。这种混合策略可以确保图像质量清晰且 ID 一致性良好。",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},40295,"运行环境报错或 Gradio 版本不兼容如何解决？","如果遇到运行错误或 Gradio 版本提示（如当前版本低于可用版本），建议尝试以下方案：1. 将 PyTorch 版本降级或调整为 2.1.0；2. 使用 Hugging Face 提供的 requirements.txt 文件安装依赖，而不是直接使用 GitHub 仓库中的文件。有用户反馈在使用 Hugging Face 的依赖列表配合 Torch 2.1.0 后，服务运行正常。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F90",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},40296,"如何使用 Diffusers 运行 Flux-PuLID 的 img2img（图生图）功能？","最新版本的 Diffusers 库已经原生支持 Flux 模型的 img2img 管道流程。用户可以直接使用 Diffusers 加载 Flux-PuLID 管道，无需额外修改即可执行图生图任务。如果有具体的代码实现需求，可以参考 Diffusers 官方文档中关于 Flux img2img pipe 的部分，或者查看社区中已成功运行的案例。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F80",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},40297,"遇到 facexlib 和 evaclip 导致的显存泄漏问题怎么办？","facexlib 和 evaclip 在处理大尺寸图像时可能存在显存管理问题，导致显存占用随运行次数增加而显著上升（即使将模型移至 CPU 也无法完全释放）。这是一个已知问题，特别是在 WebUI 集成环境中更为明显（24GB 显存可能都不够）。解决方案包括：1. 尽量使用较小尺寸的输入图像进行测试；2. 关注 facexlib 仓库的更新以修复潜在的泄漏 bug；3. 如果可能，优先使用基于 Diffusers 的原生项目运行，因为在该环境下显存管理表现更好。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F16",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},40298,"运行 Flux-PuLID 时出现 KeyError 'img_in.weight._data' 错误如何解决？","该错误通常是由于加载了不兼容或错误的 FP8 模型文件导致的。具体来说，不要使用 XLabs-AI 提供的某些特定配置文件或模型组合。解决方法是更换为其他经过验证的 unet 模型和配置文件，例如使用 Hugging Face 上其他的 flux-dev-fp8.safetensors 文件（约 16GB 大小的版本）。确保模型文件完整且与当前的量化脚本兼容。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F69",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},40299,"PuLID 是否支持在 sd.next (Automatic1111 的分支) 中使用？","是的，PuLID 已经被集成到 sd.next 项目中作为内置扩展。该实现已将 PuLID 转换为几乎纯 Diffusers 管道，支持标准的 __call__ 签名和回调函数。其特性包括：直接复用已加载的 SDXL 模型、支持实时生成预览（兼容 TAESD 等 VAE）、支持文生图、图生图、重绘和细节增强工作流、兼容 LoRA 以及 XYZ Grid 等功能。用户可以前往 sd.next 仓库获取该扩展。","https:\u002F\u002Fgithub.com\u002FToTheBeginning\u002FPuLID\u002Fissues\u002F149",[]]