[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PowerHouseMan--ComfyUI-AdvancedLivePortrait":3,"tool-PowerHouseMan--ComfyUI-AdvancedLivePortrait":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":66,"owner_avatar_url":74,"owner_bio":66,"owner_company":66,"owner_location":66,"owner_email":66,"owner_twitter":66,"owner_website":66,"owner_url":75,"languages":76,"stars":85,"forks":86,"last_commit_at":87,"license":66,"difficulty_score":32,"env_os":88,"env_gpu":89,"env_ram":88,"env_deps":90,"category_tags":95,"github_topics":66,"view_count":32,"oss_zip_url":66,"oss_zip_packed_at":66,"status":17,"created_at":96,"updated_at":97,"faqs":98,"releases":139},6765,"PowerHouseMan\u002FComfyUI-AdvancedLivePortrait","ComfyUI-AdvancedLivePortrait",null,"ComfyUI-AdvancedLivePortrait 是一款基于 ComfyUI 的高效节点插件，专注于实时编辑照片与视频中的人物面部表情。它不仅能将静态图片转化为生动动画，还能将提取的面部表情无缝迁移到驱动视频中，甚至支持在无参考视频的情况下直接生成动态内容。\n\n该工具主要解决了传统面部重演技术处理速度慢、无法实时预览以及工作流复杂的痛点。通过优化的算法，它实现了更快的推理速度和流畅的实时预览体验，让用户能即时调整表情细节。其独特亮点在于灵活的表情管理功能：用户可保存和加载特定的表情数据，并通过简单的指令序列（Motion Index）精确控制多表情的切换时序与帧长，从而制作出细腻的复杂动画。\n\n由于已集成至 ComfyUI-Manager，安装过程十分便捷。无论是需要快速原型验证的 AI 研究者、追求高效创作流程的数字艺术家，还是希望探索视频生成技术的进阶爱好者，都能利用它轻松实现高质量的面部动画创作。配合预设的工作流示例，用户无需深厚的编程背景即可上手，尽情发挥创意。","# ComfyUI-AdvancedLivePortrait\n\n## Update\n\n8\u002F21\u002F2024\n\nYou can create a video without a video.\n\nTrack the face of the source video.\n\nThe workflow has been updated.\n\n## Introduction\n\nAdvancedLivePortrait is faster and has real-time preview\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F90b78639-6477-48af-ba49-7945488df581\n\nEdit facial expressions in photos.\n\nInsert facial expressions into videos.\n\nCreate animations using multiple facial expressions.\n\nExtract facial expressions from sample photos.\n\n## Installation\n\nThis project has been registered with ComfyUI-Manager. Now you can install it automatically using the manager.\n\n## Usage\n\nThe workflows and sample datas placed in '\\custom_nodes\\ComfyUI-AdvancedLivePortrait\\sample\\'\n\n-----\n\nYou can add expressions to the video. See 'workflow2_advanced.json'.\n\nDescribes the 'command' in 'workflow2_advanced.json'\n\n![readme](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPowerHouseMan_ComfyUI-AdvancedLivePortrait_readme_4dd5692a40a5.png)\n\n\n[Motion index] = [Changing frame length] : [Length of frames waiting for next motion]\n\nMotion index 0 is the original source image.\n\nThey are numbered in the order they lead to the motion_link.\n\nLinking the driving video to 'src_images' will add facial expressions to the driving video.\n\n-----\n\nYou can save and load expressions with the 'Load Exp Data' 'Save Exp Data' nodes.\n\n\\ComfyUI\\output\\exp_data\\  Path to the folder being saved\n\n-----\n\n## Thanks\n\nOriginal author's link : https:\u002F\u002Fliveportrait.github.io\u002F\n\nThis project uses a model converted by kijai. link : https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\n","# ComfyUI-AdvancedLivePortrait\n\n## 更新\n\n2024年8月21日\n\n无需视频即可创建视频。\n\n跟踪源视频中的人脸。\n\n工作流已更新。\n\n## 简介\n\nAdvancedLivePortrait 速度更快，并支持实时预览。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F90b78639-6477-48af-ba49-7945488df581\n\n编辑照片中的面部表情。\n\n将面部表情插入视频中。\n\n使用多种面部表情制作动画。\n\n从示例照片中提取面部表情。\n\n## 安装\n\n该项目已注册到 ComfyUI-Manager。现在您可以使用管理器自动安装它。\n\n## 使用方法\n\n工作流和示例数据位于 '\\custom_nodes\\ComfyUI-AdvancedLivePortrait\\sample\\' 目录下。\n\n-----\n\n您可以为视频添加表情。请参阅 'workflow2_advanced.json'。\n\n描述了 'workflow2_advanced.json' 中的 'command'：\n\n![readme](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPowerHouseMan_ComfyUI-AdvancedLivePortrait_readme_4dd5692a40a5.png)\n\n\n[运动索引] = [改变帧长] : [等待下一动作的帧数]\n\n运动索引 0 是原始源图像。\n\n它们按照导致 motion_link 的顺序编号。\n\n将驱动视频链接到 'src_images'，即可为驱动视频添加面部表情。\n\n-----\n\n您可以使用 'Load Exp Data' 和 'Save Exp Data' 节点来保存和加载表情数据。\n\n保存文件夹路径：\\ComfyUI\\output\\exp_data\\\n\n-----\n\n## 感谢\n\n原作者链接：https:\u002F\u002Fliveportrait.github.io\u002F\n\n本项目使用由 kijai 转换的模型。链接：https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ","# ComfyUI-AdvancedLivePortrait 快速上手指南\n\nComfyUI-AdvancedLivePortrait 是一个基于 LivePortrait 的高级节点，支持实时预览、更快的处理速度，以及无需驱动视频即可生成动画、从图片提取表情并应用到视频等功能。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **操作系统**: Windows 10\u002F11 或 Linux (推荐 NVIDIA GPU)\n*   **核心软件**: 已安装并配置好的 [ComfyUI](https:\u002F\u002Fgithub.com\u002Fcomfyanonymous\u002FComfyUI)\n*   **显存要求**: 建议显存 8GB 及以上以获得流畅的实时预览体验\n*   **前置插件**: 推荐安装 `ComfyUI-Manager` 以便自动管理依赖\n\n## 安装步骤\n\n本项目已注册至 ComfyUI-Manager，推荐使用管理器进行自动化安装。\n\n### 方法一：通过 ComfyUI-Manager 安装（推荐）\n\n1.  启动 ComfyUI，点击右侧菜单中的 **\"Manager\"** 按钮。\n2.  选择 **\"Install Custom Nodes\"**。\n3.  在搜索框中输入 `AdvancedLivePortrait`。\n4.  找到 `ComfyUI-AdvancedLivePortrait` 并点击 **\"Install\"**。\n5.  安装完成后，**重启 ComfyUI** 以加载节点。\n\n### 方法二：手动安装\n\n如果无法使用 Manager，可手动克隆仓库：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002Fsmthemex\u002FComfyUI-AdvancedLivePortrait.git\n```\n\n*注意：模型文件通常由节点首次运行时自动下载，或参考原作者 kijai 的仓库获取转换后的模型。*\n\n## 基本使用\n\n安装重启后，您可以在节点列表中找到 `AdvancedLivePortrait` 相关节点。示例工作流和数据位于 `\\custom_nodes\\ComfyUI-AdvancedLivePortrait\\sample\\` 目录下。\n\n### 场景一：为视频添加表情（基础流程）\n\n这是最常用的功能，将源图片的表情驱动目标视频。\n\n1.  **加载工作流**: 在 ComfyUI 中加载 `sample\u002Fworkflow2_advanced.json`（或根据需求新建）。\n2.  **连接节点**:\n    *   将 **源图片 (Source Image)** 连接到 `src_images` 输入端。\n    *   将 **驱动视频 (Driving Video)** 连接到对应的视频输入端。\n    *   节点会自动追踪源视频面部并将表情插入到驱动视频中。\n3.  **运行**: 点击 \"Queue Prompt\" 生成视频。\n\n### 场景二：自定义表情动画序列\n\n您可以使用多个表情样本创建动画，或通过命令控制表情切换节奏。在 `workflow2_advanced.json` 中，通过 `command` 参数控制运动索引：\n\n**命令格式说明：**\n```text\n[Motion index] = [Changing frame length] : [Length of frames waiting for next motion]\n```\n\n*   **Motion index 0**: 代表原始源图片。\n*   **编号顺序**: 按照连接到 `motion_link` 的顺序编号。\n*   **示例逻辑**: 设置特定帧数来改变表情，并设置等待帧数以保持该表情。\n\n### 场景三：保存与加载表情数据\n\n您可以提取图片中的表情数据并复用：\n\n1.  **保存表情**: 使用 `Save Exp Data` 节点，表情数据将保存至 `\\ComfyUI\\output\\exp_data\\` 目录。\n2.  **加载表情**: 使用 `Load Exp Data` 节点读取之前保存的文件，直接应用于其他视频或图片生成。\n\n### 进阶功能提示\n\n*   **无视频生成**: 更新后的工作流支持在不提供驱动视频的情况下，仅通过多张表情图片创建动画视频。\n*   **实时预览**: 利用节点的实时预览功能调整表情参数，直至满意后再进行最终渲染。","某短视频创作者需要为一系列静态产品宣传照快速生成带有丰富面部表情的动态广告视频，以适配社交媒体传播。\n\n### 没有 ComfyUI-AdvancedLivePortrait 时\n- **制作流程繁琐**：若要给照片添加表情，必须预先录制真人驱动视频，无法直接凭空生成动态效果，增加了拍摄和素材准备成本。\n- **实时反馈缺失**：调整表情参数后需等待漫长的渲染才能查看结果，难以在创作过程中即时微调神态细节。\n- **表情复用困难**：从参考图中提取的特定表情无法保存为独立资产，每次使用都需重新处理，难以构建标准化的表情库。\n- **视频编辑局限**：想要将多种不同表情按顺序插入同一段视频中，往往需要借助外部剪辑软件进行复杂的后期合成。\n\n### 使用 ComfyUI-AdvancedLivePortrait 后\n- **零素材生成**：支持“无视频创建”，无需录制任何驱动源，仅通过配置指令即可让静态照片直接动起来，大幅降低启动门槛。\n- **实时预览加速**：具备更快的处理速度和实时预览功能，创作者可边调整参数边观察表情变化，实现所见即所得的高效迭代。\n- **资产化管理表情**：利用\"Save\u002FLoad Exp Data\"节点，可将提取或调试好的表情数据保存至本地，随时调用并复用于其他项目。\n- **工作流内合成**：直接在 ComfyUI 工作流中定义运动索引和帧长，轻松将多个表情无缝串联或嵌入现有视频，一站式完成复杂动画制作。\n\nComfyUI-AdvancedLivePortrait 通过将表情提取、实时驱动与序列化动画整合进单一工作流，彻底重构了静态人像动态化的生产效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPowerHouseMan_ComfyUI-AdvancedLivePortrait_4dd5692a.png","PowerHouseMan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPowerHouseMan_cf652ed4.jpg","https:\u002F\u002Fgithub.com\u002FPowerHouseMan",[77,81],{"name":78,"color":79,"percentage":80},"Python","#3572A5",99.5,{"name":82,"color":83,"percentage":84},"Batchfile","#C1F12E",0.5,2629,227,"2026-04-10T14:35:59","未说明","未说明（作为 ComfyUI 节点，通常依赖底层 ComfyUI 环境的 GPU 配置，建议参考 LivePortrait 原项目需求）",{"notes":91,"python":88,"dependencies":92},"该工具是 ComfyUI 的一个自定义节点，需先安装 ComfyUI 及 ComfyUI-Manager。它依赖 kijai 转换的 LivePortrait 模型。README 中未提供具体的操作系统、GPU 型号、显存、内存或 Python 版本要求，这些通常继承自宿主 ComfyUI 环境或上游 LivePortrait 项目。工作流文件和示例数据位于安装目录的 sample 文件夹中。",[28,93,94],"ComfyUI-Manager","ComfyUI-LivePortraitKJ (模型依赖)",[15,61],"2026-03-27T02:49:30.150509","2026-04-12T09:06:37.794356",[99,104,109,114,119,124,129,134],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},30515,"遇到 'Prompt outputs failed validation' 或 'Failed to convert an input value to a FLOAT value' 错误怎么办？","这通常是由于节点更新失败导致的。解决方法是手动删除现有的 AdvancedLivePortrait 文件夹，然后重新通过 git clone 获取最新代码：\n1. 删除旧的 ComfyUI-AdvancedLivePortrait 文件夹。\n2. 运行命令：git clone https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait.git\n3. 重启 ComfyUI。\n注意：ComfyUI Manager 有时无法正确更新该节点，手动重新克隆通常能解决问题。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F83",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},30516,"如何在 ComfyUI 中实现像介绍视频那样的实时表情编辑？","需要启用自动队列功能：\n1. 点击界面上的 'Queue Prompt'（队列提示）按钮。\n2. 在下拉菜单或旁边找到 'Extra options'（额外选项）并勾选。\n3. 勾选 'Auto Queue'（自动队列）。\n这样调整滑块时即可实时看到预览效果。注意：实时转换需要较高的计算能力（如 RTX 4090 等高端显卡体验更佳）。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F15",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},30517,"Mac M1\u002FM4 用户遇到预览图像扭曲或条纹状显示如何解决？","这通常与 PyTorch 版本兼容性有关。尝试以下方案：\n1. 降级或重装 PyTorch 到特定版本（如 2.8.0）：\n   .\u002Fpython_embeded\u002Fbin\u002Fpython -m pip install --force-reinstall torch==2.8.0 torchvision torchaudio\n2. 确保在虚拟环境中满足 AdvancedLivePortrait 的要求，或者在一个全新的 ComfyUI 安装中测试。\n3. 部分用户反馈安装 'comfyui-unsafe-torch' 节点也有帮助，但主要解决方案是调整 PyTorch 版本。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F103",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},30518,"Crop Factor（裁剪因子）是什么意思？如何保持图像的原始尺寸？","Crop Factor 决定了面部裁剪的比例。数值为 1 表示仅裁剪面部（不包含头发），因此最小值通常设为 1.5 以包含部分头发。\n关于尺寸：输出节点的图像尺寸与输入原始图像的尺寸是一致的。如果您看到黑边，是因为裁剪比例变化导致的填充，最终输出分辨率并未改变。无需特殊设置即可保持原始输出尺寸。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F31",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},30519,"如何处理视频源中人脸移动导致裁剪区域失效的问题？","早期版本仅根据视频第一帧确定裁剪区域，如果人脸移动会出错。该问题已在后续更新中修复，增加了人脸跟踪功能。\n请确保您使用的是最新版本的 ComfyUI-AdvancedLivePortrait 插件。如果是旧版本，请更新插件以获得对视频源更稳健的人脸跟踪支持。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F30",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},30520,"如何在 Windows 上通过 ComfyUI Manager 安装和使用？","目前该插件已注册到 ComfyUI Manager，可自动安装。\n使用步骤：\n1. 在 Manager 中搜索并安装 'ComfyUI-AdvancedLivePortrait'。\n2. 如果需要处理视频，请在 Manager 中搜索并安装 'ComfyUI-VideoHelperSuite'，否则相关节点可能显示为红色报错。\n3. 基础用法：连接 'Load Image'（加载图像）节点和 'Expression Editor'（表情编辑器）节点即可开始使用。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F5",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},30521,"为什么无法基于参考图像改变原始图像的面部角度和方向？","该功能已在更新中添加。请确保您的插件已更新到最新版本。\n更新后，'Expression Editor' 节点中增加了 'sample_parts' 选项，允许更好地控制从参考图像中提取的特征（如仅提取表情或包含角度）。如果仍无法使用，请检查是否开启了相关选项或重启 ComfyUI。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F14",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},30522,"本项目使用的模型与原版 LivePortrait 或 ComfyUI-LivePortraitKJ 的模型通用吗？","本项目默认使用原始模型（Original Model）。\nComfyUI-LivePortraitKJ 使用的是转换后的模型。如果您已经下载了转换后的模型，维护者已更新代码以支持直接使用这些转换后的模型，无需重新下载原版模型。您可以在配置中指定模型路径来复用已有的模型文件。","https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait\u002Fissues\u002F2",[]]