[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kijai--ComfyUI-LivePortraitKJ":3,"tool-kijai--ComfyUI-LivePortraitKJ":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":76,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":102,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":134},8727,"kijai\u002FComfyUI-LivePortraitKJ","ComfyUI-LivePortraitKJ","ComfyUI nodes for LivePortrait","ComfyUI-LivePortraitKJ 是一款专为 ComfyUI 设计的节点插件，旨在让用户轻松调用强大的 LivePortrait 技术，实现将静态人像照片转化为生动表情视频，或进行高质量的视频风格迁移。它有效解决了传统面部驱动工具在实时性、小人脸检测精度以及跨平台兼容性上的痛点。\n\n该工具特别适合数字内容创作者、视觉设计师以及希望在工作流中集成动态人像效果的 AI 爱好者使用。其核心亮点在于显著的性能优化与灵活性：重构后的架构支持近乎实时的预览（延迟低至 80-100 毫秒），并引入了 MediaPipe 作为检测方案，不仅规避了原默认检测器的商业许可限制，还通过新增的 blazeface 后摄模型大幅提升了对小尺寸人脸的捕捉能力。此外，项目已将核心模型转换为 PyTorch 格式，无需依赖 ONNX 运行时即可高效利用 GPU 加速，同时提供了完善的视频平滑算法和自动跳帧功能，确保输出流畅自然。无论是进行网络摄像头实时互动，还是处理复杂的图生视频任务，ComfyUI-LivePortraitKJ 都能提供稳定且高效的解决方案。","# ComfyUI nodes to use [LivePortrait](https:\u002F\u002Fgithub.com\u002FKwaiVGI\u002FLivePortrait)\n## Update 2\n\nAdded another alternative face detector: https:\u002F\u002Fgithub.com\u002F1adrianb\u002Fface-alignment\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-LivePortraitKJ_readme_e595b53b3a1c.png)\n\nAs this can use blazeface back camera model (or SFD), it's far better for smaller faces than MediaPipe, that only can use the blazeface short -model.\nThe warmup on the first run when using this can take a long time, but subsequent runs are quick.\n\nExample detection using the blazeface_back_camera:\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F40b1fdb4-0b1f-4ea8-8322-aa9151055db0\n\n## Update\n\nRework of almost the whole thing that's been in develop is now merged into main, this means old workflows will not work, but everything should be faster and there's lots of new features.\nFor legacy purposes the old main branch is moved to the legacy -branch\n\nChanges\n- Added MediaPipe as alternative to Insightface, everything should now be covered under MIT and Apache-2.0 licenses when using it.\n- Proper Vid2vid including smoothing algorhitm (thanks @melMass)\n- Improved speed and efficiency, allows for near realtime view even in Comfy (~80-100ms delay)\n- Restructured nodes for more options\n- Auto skipping frames with no face detected\n- Numerous other things I have forgotten about at this point, it's been a lot\n- Better Mac support on MPS (thanks @Grant-CP\n\nupdate to this update:\n- converted the landmark runner onnx model to torch model, not something I have done before and I didn't manage to do anything but make it .pth file, so you'll just have to trust me on it.\n  This allows running all this without even having onnxruntime, it runs on GPU and is about just as fast. It's available on the MediaPipe cropper node as option:\nWhen selected it's automatically downloaded from here: https:\u002F\u002Fhuggingface.co\u002FKijai\u002FLivePortrait_safetensors\u002Fblob\u002Fmain\u002Flandmark_model.pth\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-LivePortraitKJ_readme_0e28c2560439.png)\n\n\n# Examples:\n\nRealtime with webcam feed:\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F31f77c10-b757-44ae-bb26-39e45ec0b2d9\n\nImage2vid:\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcfec0419-d1eb-4e67-8913-890eeb155eef\n\nVid2Vid: \n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F28438fcb-fbb0-4e4e-baf4-00fe06c455de\n\n\nI have converted all the pickle files to safetensors: https:\u002F\u002Fhuggingface.co\u002FKijai\u002FLivePortrait_safetensors\u002Ftree\u002Fmain\n\nThey go here (and are automatically downloaded if the folder is not present) `ComfyUI\u002Fmodels\u002Fliveportrait`\n\n# Face detectors\n\nYou can either use the original default Insightface, or Google's MediaPipe. \n\nBiggest difference is the license: Insightface is strictly for NON-COMMERCIAL use.\nMediaPipe is a bit worse at detection, and can't run on GPU in Windows, though it's much faster on CPU compared to Insightface\n\nInsightface is not automatically installed, if you wish to use it follow these instructions:\nIf you have a working compile environment, installing it can be as easy as:\n\n`pip install insightface`\n\nor for the portable version, in the ComfyUI_windows_portable -folder:\n\n`python_embeded\u002Fpython.exe -m pip install insightface`\n\nIf this fails (and it's likely), you can check the Troubleshooting part of the reactor node for alternative:\n\nhttps:\u002F\u002Fgithub.com\u002FGourieff\u002Fcomfyui-reactor-node\n\nFor insightface model, extract this to `ComfyUI\u002Fmodels\u002Finsightface\u002Fbuffalo_l`:\n\nhttps:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Freleases\u002Fdownload\u002Fv0.7\u002Fbuffalo_l.zip\n\n*Please note that insightface license is non-commercial in nature.*\n","# 用于 [LivePortrait](https:\u002F\u002Fgithub.com\u002FKwaiVGI\u002FLivePortrait) 的 ComfyUI 节点\n## 更新 2\n\n新增了另一种人脸检测器：https:\u002F\u002Fgithub.com\u002F1adrianb\u002Fface-alignment\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-LivePortraitKJ_readme_e595b53b3a1c.png)\n\n由于该检测器可以使用 blazeface 后置摄像头模型（或 SFD），因此在处理较小人脸时比仅支持 blazeface 短模型的 MediaPipe 更加出色。首次运行时可能需要较长时间进行预热，但后续运行会非常迅速。\n\n使用 blazeface_back_camera 的检测示例：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F40b1fdb4-0b1f-4ea8-8322-aa9151055db0\n\n## 更新\n\n开发中的几乎所有内容都已重做并合并到主分支，这意味着旧的工作流将不再适用。不过，整体速度有所提升，并且新增了许多功能。为兼容旧版本，原主分支已被移至 legacy 分支。\n\n**变更内容：**\n- 新增 MediaPipe 作为 Insightface 的替代方案，使用它时所有组件均受 MIT 和 Apache-2.0 许可证保护。\n- 实现了完善的 Vid2vid 功能，包括平滑算法（感谢 @melMass）。\n- 提升了速度与效率，即使在 Comfy 中也能实现近实时观看（延迟约 80–100 毫秒）。\n- 重构节点以提供更多选项。\n- 自动跳过未检测到人脸的帧。\n- 还有许多其他改进，目前一时想不起来了，确实改动不少。\n- 改进了对 Mac 上 MPS 的支持（感谢 @Grant-CP）。\n\n**本次更新的补充：**\n- 将地标检测的 ONNX 模型转换为 PyTorch 模型，这是我之前从未尝试过的事情。最终只成功生成了 .pth 文件，所以大家只能相信我的转换结果了。\n- 这一转换使得无需安装 ONNX Runtime 即可运行相关功能，且可在 GPU 上高效执行，速度几乎相同。现在可以在 MediaPipe 裁剪节点中选择此选项：\n  一旦选中，模型将自动从以下链接下载：https:\u002F\u002Fhuggingface.co\u002FKijai\u002FLivePortrait_safetensors\u002Fblob\u002Fmain\u002Flandmark_model.pth\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-LivePortraitKJ_readme_0e28c2560439.png)\n\n\n# 示例：\n\n实时摄像头输入：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F31f77c10-b757-44ae-bb26-39e45ec0b2d9\n\n图像转视频：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcfec0419-d1eb-4e67-8913-890eeb155eef\n\n视频转视频：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F28438fcb-fbb0-4e4e-baf4-00fe06c455de\n\n\n我已经将所有 pickle 文件转换为 safetensors 格式：https:\u002F\u002Fhuggingface.co\u002FKijai\u002FLivePortrait_safetensors\u002Ftree\u002Fmain\n\n这些文件存放于 `ComfyUI\u002Fmodels\u002Fliveportrait` 目录下，若该目录不存在，则会自动下载。\n\n# 人脸检测器\n\n您可以选择默认的 Insightface，也可以使用 Google 的 MediaPipe。\n\n两者最大的区别在于许可证：Insightface 严格限制用于非商业用途。\nMediaPipe 的检测效果稍逊，且在 Windows 系统上无法在 GPU 上运行，不过其 CPU 性能远超 Insightface。\n\nInsightface 不会自动安装。如需使用，请按照以下步骤操作：\n如果您拥有可用的编译环境，安装起来非常简单：\n\n`pip install insightface`\n\n或者对于 ComfyUI_windows_portable 文件夹中的便携版：\n\n`python_embeded\u002Fpython.exe -m pip install insightface`\n\n如果上述方法失败（很可能如此），请参考 Reactor 节点的故障排除部分获取替代方案：\n\nhttps:\u002F\u002Fgithub.com\u002FGourieff\u002Fcomfyui-reactor-node\n\n关于 Insightface 模型，请将其解压至 `ComfyUI\u002Fmodels\u002Finsightface\u002Fbuffalo_l` 目录：\n\nhttps:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Freleases\u002Fdownload\u002Fv0.7\u002Fbuffalo_l.zip\n\n*请注意，Insightface 的许可证属于非商业性质。*","# ComfyUI-LivePortraitKJ 快速上手指南\n\nComfyUI-LivePortraitKJ 是一个用于在 ComfyUI 中集成 LivePortrait 功能的节点包，支持实时面部驱动、图片转视频（Image2Vid）及视频转视频（Vid2Vid）。本指南将帮助你快速部署并使用该工具。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Windows, Linux, macOS (MPS 加速已优化)\n- **硬件**: 推荐 NVIDIA GPU (CUDA) 或 Apple Silicon (MPS)。CPU 亦可运行但速度较慢。\n- **软件**: Python 3.10+ 及 ComfyUI 最新正式版。\n\n### 前置依赖与许可证说明\n本工具提供两种面部检测方案，请根据需求选择：\n\n1.  **MediaPipe (推荐)**\n    -   **许可证**: Apache-2.0 \u002F MIT (允许商用)。\n    -   **特点**: CPU 运行速度快，Windows 下不支持 GPU 加速，小人脸检测能力弱于 Insightface（除非使用新增的 blazeface_back_camera 模型）。\n    -   **状态**: 默认集成，无需额外安装复杂依赖。\n\n2.  **Insightface (可选)**\n    -   **许可证**: **仅限非商业用途 (Non-Commercial)**。\n    -   **特点**: 检测精度高，支持 GPU 加速。\n    -   **注意**: 如需商用请务必使用 MediaPipe 方案。\n\n## 安装步骤\n\n### 1. 安装节点插件\n在 ComfyUI 的 `custom_nodes` 目录下克隆仓库：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002FKijai\u002FComfyUI-LivePortraitKJ.git\n```\n\n### 2. 安装 Python 依赖\n进入插件目录并安装核心依赖。如果你计划使用 **Insightface**，也需在此步骤安装。\n\n**通用安装命令：**\n```bash\ncd ComfyUI-LivePortraitKJ\npip install -r requirements.txt\n```\n\n**若需使用 Insightface (非商用)：**\n如果上述命令未自动安装 insightface，请手动执行：\n```bash\npip install insightface\n```\n*注：Windows 便携版用户请在 ComfyUI 根目录执行：`python_embeded\u002Fpython.exe -m pip install insightface`*\n\n### 3. 下载模型文件\n插件会自动从 HuggingFace 下载所需模型至 `ComfyUI\u002Fmodels\u002Fliveportrait`。若自动下载失败，可手动下载以下资源：\n\n-   **LivePortrait 主模型 (Safetensors 格式)**:\n    下载地址：https:\u002F\u002Fhuggingface.co\u002FKijai\u002FLivePortrait_safetensors\u002Ftree\u002Fmain\n    存放路径：`ComfyUI\u002Fmodels\u002Fliveportrait\u002F`\n\n-   **Insightface 模型 (仅当使用 Insightface 时)**:\n    下载 `buffalo_l.zip`: https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface\u002Freleases\u002Fdownload\u002Fv0.7\u002Fbuffalo_l.zip\n    解压至：`ComfyUI\u002Fmodels\u002Finsightface\u002Fbuffalo_l\u002F`\n\n> **国内加速提示**: 若访问 HuggingFace 或 GitHub 缓慢，建议使用国内镜像源或代理工具加速模型下载。\n\n## 基本使用\n\n### 1. 启动 ComfyUI\n重启 ComfyUI 以加载新节点。首次运行可能因编译或模型初始化稍慢，后续运行将显著提升速度（延迟可低至 80-100ms）。\n\n### 2. 构建工作流\n在 ComfyUI 界面中，双击搜索并添加以下核心节点：\n\n-   **Load LivePortrait Model**: 加载主模型。\n-   **Face Detector (MediaPipe 或 Insightface)**:\n    -   推荐使用 **MediaPipe** 节点以避免许可问题。\n    -   若检测小人脸效果不佳，可在 MediaPipe 节点选项中启用 `blazeface_back_camera` 模型（首次运行需预热）。\n    -   新版已将 landmark runner 转换为 Torch 模型 (`.pth`)，无需 ONNX Runtime 即可 GPU 加速。\n-   **LivePortrait Animate**: 连接源图像（驱动图）和目标图像\u002F视频。\n\n### 3. 运行示例\n-   **实时摄像头驱动**: 连接 Webcam 输入节点到 LivePortrait 流程，可实现近乎实时的面部表情迁移。\n-   **图片转视频 (Image2Vid)**: 上传一张静态人像作为目标，一段面部视频作为驱动，生成说话\u002F表情的视频。\n-   **视频转视频 (Vid2Vid)**: 支持包含平滑算法的视频风格迁移，自动跳过无脸帧。\n\n**注意**: 由于近期进行了重大重构，旧版工作流可能无法直接使用，请基于最新节点重新构建流程。所有 pickle 模型已转换为 safetensors 格式以确保安全与兼容。","一位独立视频创作者希望将一张静态的人物肖像照片转化为生动的说话视频，用于制作无需真人出镜的短视频内容。\n\n### 没有 ComfyUI-LivePortraitKJ 时\n- **面部捕捉不精准**：在处理侧脸或远距离小人脸素材时，传统检测器（如 MediaPipe 默认模型）极易丢失面部特征点，导致驱动失败或画面扭曲。\n- **视频闪烁严重**：帧与帧之间缺乏平滑算法，生成的视频人物表情跳动剧烈，观感生硬且不自然。\n- **商业授权风险**：依赖 Insightface 等组件时，其严格的非商业许可协议让创作者不敢将作品用于任何变现项目。\n- **处理效率低下**：无法自动跳过无脸帧，且缺乏 GPU 加速优化，渲染长时间视频需耗费数小时等待。\n\n### 使用 ComfyUI-LivePortraitKJ 后\n- **小人脸检测增强**：集成 Blazeface back-camera 模型，显著提升了对小尺寸或复杂角度面部的捕捉能力，确保驱动稳定。\n- **动作流畅自然**：内置先进的视频平滑算法（Vid2vid smoothing），消除了表情抖动，输出效果接近真人实拍。\n- **合规商用无忧**：支持切换至 MIT\u002FApache-2.0 协议的 MediaPipe 检测器，彻底规避版权风险，放心用于商业创作。\n- **实时高效渲染**：利用转换后的 Torch 模型直接在 GPU 运行，移除对 ONNX 的依赖，实现低至 80ms 的准实时预览与快速导出。\n\nComfyUI-LivePortraitKJ 通过提升检测精度、优化流畅度并解决授权难题，让静态图片转视频的创作流程变得高效、专业且可商业化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkijai_ComfyUI-LivePortraitKJ_e595b53b.png","kijai","Jukka Seppänen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkijai_5a67a464.jpg",null,"Finland","kijaidesign","https:\u002F\u002Fgithub.com\u002Fkijai",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,2153,169,"2026-04-17T01:27:36","MIT",4,"Windows, macOS, Linux","推荐 NVIDIA GPU 以实现实时性能；macOS 支持 MPS (Metal Performance Shaders)；MediaPipe 人脸检测在 Windows 上无法使用 GPU，仅能运行于 CPU；InsightFace 支持 GPU 加速。","未说明",{"notes":94,"python":95,"dependencies":96},"1. 许可证注意：InsightFace 仅限非商业用途，MediaPipe 覆盖 MIT\u002FApache-2.0 许可。2. 模型存储：LivePortrait 模型自动下载至 `ComfyUI\u002Fmodels\u002Fliveportrait`，InsightFace 模型需手动下载解压至 `ComfyUI\u002Fmodels\u002Finsightface\u002Fbuffalo_l`。3. 性能优化：已将 landmark runner 从 ONNX 转换为 PyTorch (.pth) 格式，无需 onnxruntime 即可在 GPU 运行且速度相当。4. 首次运行：使用 face-alignment 检测器时首次启动预热时间较长。5. 兼容性：更新后旧版工作流可能失效，已移至 legacy 分支。","未说明 (需兼容 ComfyUI 环境，便携式版本内置 python)",[97,98,99,100,101],"torch","onnxruntime (可选，已转换为 torch 模型)","insightface (可选，非自动安装)","face-alignment (可选)","mediapipe",[15,61],"2026-03-27T02:49:30.150509","2026-04-18T09:19:30.877887",[106,111,116,121,125,130],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},39104,"执行 LivePortraitProcess 时出现 CUDA 无法加载的错误怎么办？","如果遇到 'CUDA_PATH is set but CUDA wasn't able to be loaded' 错误，可以在节点设置中选择 ONNX 设备。新版已添加选项允许选择 ONNX 运行设备，即使没有正确配置 CUDA，选择在 CPU 上运行通常也很快且更容易部署。请检查节点面板中是否有设备选择下拉菜单，将其切换为 CPU 或确认 CUDA 配置是否正确。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\u002Fissues\u002F15",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},39105,"处理长视频时 CPU 占用率高达 100% 或内存不足如何解决？","这是 ComfyUI 的常见现象，当帧数非常高时，ComfyUI 默认将所有数据保留在内存中而没有磁盘缓存机制，导致内存飙升和 CPU 满载。目前代码存在效率问题，例如跳过“粘贴回（pasteback）”步骤可以提升约 30% 的速度。如果显存和内存充足但利用率低，可能是 ComfyUI 需要先完成预处理块才能进入生成阶段。建议减少单次处理的视频长度，或关注开发者关于优化预处理流程的更新。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\u002Fissues\u002F17",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},39106,"遇到 'AttributeError: INSwapper object has no attribute taskname' 错误如何修复？","该错误通常由 InsightFace 模型文件冲突引起。解决方法是删除 buffalo_l 目录下的 'inswapper_128.onnx' 文件，只保留 insightface 主目录下的 'inswapper_128.onnx'。具体路径检查：确保没有重复的模型文件干扰加载。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\u002Fissues\u002F84",{"id":122,"question_zh":123,"answer_zh":124,"source_url":120},39107,"运行 PulID 工作流时模型下载失败或报错怎么办？","如果是重新安装 ComfyUI 后出现的问题，可能是因为旧模型文件残留导致自动下载被跳过。解决方法是手动删除现有的 antelopev2 模型目录（路径通常为：ComfyUI\u002Fmodels\u002Finsightface\u002Fmodels\u002Fantelopev2），然后重启 ComfyUI 并运行包含 PulID 的工作流。系统检测到模型缺失后会自动重新下载正确的版本，从而解决问题。",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},39108,"在 macOS 上使用 MPS 设备时出现 'PyTorch is not linked with support for mps devices' 错误？","此错误表明当前的 PyTorch 版本未链接对 MPS（Metal Performance Shaders）设备的支持。这通常发生在 Windows 环境误用了 MPS 标志，或者在非 Apple Silicon 硬件上尝试启用 MPS。请检查您的启动参数或节点配置，确保没有在非 macOS 机器上强制开启 MPS 支持。如果是 macOS 用户，请确保安装了支持 MPS 的 PyTorch  nightly 版本或最新版稳定版。","https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\u002Fissues\u002F47",{"id":131,"question_zh":132,"answer_zh":133,"source_url":115},39109,"如何优化 LivePortrait 的处理速度？","目前代码存在一些低效之处。根据开发者反馈，跳过“粘贴回（pasteback）”操作可以获得约 30% 的速度提升。此外，确保使用了正确的 ONNX 运行时版本（如 onnxruntime-gpu），并合理分配 CPU 和 GPU 负载。如果视频很长，建议分段处理以避免内存瓶颈导致的性能下降。",[]]