[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jhj0517--AdvancedLivePortrait-WebUI":3,"tool-jhj0517--AdvancedLivePortrait-WebUI":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":119,"github_topics":120,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":129,"updated_at":130,"faqs":131,"releases":152},275,"jhj0517\u002FAdvancedLivePortrait-WebUI","AdvancedLivePortrait-WebUI","gradio WebUI for AdvancedLivePortrait","AdvancedLivePortrait-WebUI 是一个基于 Gradio 开发的网页版人像表情编辑工具。它源自快手团队的 LivePortrait 项目，可以让你上传一张静态人像图片，然后自由调整图片中人物的面部表情，比如微笑、皱眉、眨眼、张嘴等细微变化。\n\n这个工具特别适合以下几类用户：研究人员可以快速测试人像驱动算法的效果；设计师和内容创作者可以用它来生成不同表情的素材；开发者则可以基于它进行二次开发。它还支持视频驱动模式，可以通过一段驱动视频让静态照片“活”起来，产生自然的动态效果。\n\n技术方面，AdvancedLivePortrait-WebUI 采用了 ultralytics 进行高精度人脸检测，并使用 RealESRGAN 进行图像修复提升画质。安装和使用都比较友好，支持本地运行、Docker 部署以及 Google Colab 在线体验，Windows 用户还可以通过 PowerShell 脚本一键启动。只需要准备 Python 3.9-3.12 环境，一台中等配置的电脑就能流畅运行。","# AdvancedLivePortrait-WebUI\n\nDedicated gradio based WebUI started from [LivePortrait](https:\u002F\u002Fgithub.com\u002FKwaiVGI\u002FLivePortrait) and [ComfyUI-AdvancedLivePortrait](https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait). \n\u003Cbr>You can edit the facial expression from the image.\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9946a969-599b-4fca-8d83-7915cb7c4a00\n\n\n## Notebook\nYou can try it in Colab \n\n[![colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fadvanced_live_portrait_webui.ipynb)\n[![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-Open%20In%20Spaces-blue.svg)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI)\n\n\n# Installation And Running\n### Prerequisite\n1. `3.9` \u003C= `python` \u003C= `3.12` : https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-3110\u002F\n2. **(Opitonal, only if you're using Nvidia GPU)** CUDA 12.4 : https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-4-0-download-archive?target_os=Windows\n3. (Optional, only needed if you use Video Driven) `FFmpeg`:  https:\u002F\u002Fffmpeg.org\u002Fdownload.html \u003Cbr> After installing `FFmpeg`, make sure to add the FFmpeg\u002Fbin folder to your **system PATH**!\n## Run Locally\n1. git clone this repository\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n```\n2. Install dependencies ( Use `requirements-cpu.txt` if you're not using Nvidia GPU. )\n```\npip install -r requirements.txt\n```\n3. Run app\n```\npython app.py\n```\n\n## Run with PowerShell\nThere're PowerShell scripts for each purpose : [`Install.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FInstall.ps1), [`Start-WebUI.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FStart-WebUI.ps1) and [`Update.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FUpdate.ps1).\n\u003Cbr> They do the same things as above with `venv`, creating, activating `venv` and running the app etc.\n\nIf you're using Windows, right-click the script and then click on ***Run with PowerShell***.\n\n## Run with Docker\n1. git clone this repository\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n```\n2. Build the image\n```\ndocker compose -f docker\u002Fdocker-compose.yaml build\n```\n3. Run the container\n```\ndocker compose -f docker\u002Fdocker-compose.yaml up\n```\n4. Connect to `http:\u002F\u002Flocalhost:7860\u002F` in browser.\n\nUpdate the [`docker-compose.yaml`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fdocker\u002Fdocker-compose.yaml) to match your environment if you're not using an Nvidia GPU.\n\n### 🌐 Translation \nAny PRs for language translation for [`translation.yaml`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fi18n\u002Ftranslation.yaml) would be greatly appreciated!\n\n## ❤️ Acknowledgement\n1. LivePortrait paper comes from\n```bibtex\n@article{guo2024liveportrait,\n  title   = {LivePortrait: Efficient Portrait Animation with Stitching and Retargeting Control},\n  author  = {Guo, Jianzhu and Zhang, Dingyun and Liu, Xiaoqiang and Zhong, Zhizhou and Zhang, Yuan and Wan, Pengfei and Zhang, Di},\n  journal = {arXiv preprint arXiv:2407.03168},\n  year    = {2024}\n}\n```\n2. The models are safetensors that have been converted by kijai. : https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\n3. [ultralytics](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics) is used to detect the face.\n4. This WebUI is started from [ComfyUI-AdvancedLivePortrait](https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait), various facial expressions like AAA, EEE, Eyebrow, Wink are found by PowerHouseMan.\n5. [RealESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) is used for image restoration.\n\n\n","# AdvancedLivePortrait-WebUI\n\n这是一个基于 Gradio 的 WebUI，源自 [LivePortrait](https:\u002F\u002Fgithub.com\u002FKwaiVGI\u002FLivePortrait) 和 [ComfyUI-AdvancedLivePortrait](https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait)。\n\u003Cbr>您可以编辑图像中的面部表情。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F9946a969-599b-4fca-8d83-7915cb7c4a00\n\n\n## Notebook\n您可以在 Colab 中试用\n\n[![colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fadvanced_live_portrait_webui.ipynb)\n[![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-Open%20In%20Spaces-blue.svg)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI)\n\n\n# 安装与运行\n### 前提条件\n1. `3.9` \u003C= `python` \u003C= `3.12` : https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-3110\u002F\n2. **（可选，仅在使用 Nvidia GPU 时）** CUDA 12.4 : https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-4-0-download-archive?target_os=Windows\n3. （可选，仅在使用视频驱动时需要）`FFmpeg`：https:\u002F\u002Fffmpeg.org\u002Fdownload.html \u003Cbr> 安装 `FFmpeg` 后，请务必将 FFmpeg\u002Fbin 文件夹添加到您的**系统 PATH**！\n\n## 本地运行\n1. 克隆此仓库\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n```\n2. 安装依赖（如果您不使用 Nvidia GPU，请使用 `requirements-cpu.txt`。）\n```\npip install -r requirements.txt\n```\n3. 运行应用\n```\npython app.py\n```\n\n## 使用 PowerShell 运行\n有针对不同用途的 PowerShell 脚本：[`Install.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FInstall.ps1)、[`Start-WebUI.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FStart-WebUI.ps1) 和 [`Update.ps1`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002FUpdate.ps1)。\n\u003Cbr>它们使用 `venv` 执行上述相同操作，包括创建、激活 `venv` 和运行应用等。\n\n如果您使用 Windows，请右键点击脚本，然后点击 ***使用 PowerShell 运行***。\n\n## 使用 Docker 运行\n1. 克隆此仓库\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n```\n2. 构建镜像\n```\ndocker compose -f docker\u002Fdocker-compose.yaml build\n```\n3. 运行容器\n```\ndocker compose -f docker\u002Fdocker-compose.yaml up\n```\n4. 在浏览器中连接到 `http:\u002F\u002Flocalhost:7860\u002F`。\n\n如果您不使用 Nvidia GPU，请更新 [`docker-compose.yaml`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fdocker\u002Fdocker-compose.yaml) 以匹配您的环境。\n\n### 🌐 翻译\n非常欢迎为 [`translation.yaml`](https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fi18n\u002Ftranslation.yaml) 提交语言翻译的 PR！\n\n## ❤️ 致谢\n1. LivePortrait 论文来自\n```bibtex\n@article{guo2024liveportrait,\n  title   = {LivePortrait: Efficient Portrait Animation with Stitching and Retargeting Control},\n  author  = {Guo, Jianzhu and Zhang, Dingyun and Liu, Xiaoqiang and Zhong, Zhizhou and Zhang, Yuan and Wan, Pengfei and Zhang, Di},\n  journal = {arXiv preprint arXiv:2407.03168},\n  year    = {2024}\n}\n```\n2. 模型是由 kijai 转换的 safetensors 格式：https:\u002F\u002Fgithub.com\u002Fkijai\u002FComfyUI-LivePortraitKJ\n3. 使用 [ultralytics](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics) 进行人脸检测。\n4. 此 WebUI 源自 [ComfyUI-AdvancedLivePortrait](https:\u002F\u002Fgithub.com\u002FPowerHouseMan\u002FComfyUI-AdvancedLivePortrait)，AAA、EEE、眉毛、眨眼等各种面部表情由 PowerHouseMan 发现。\n5. 使用 [RealESRGAN](https:\u002F\u002Fgithub.com\u002Fxinntao\u002FReal-ESRGAN) 进行图像修复。","# AdvancedLivePortrait-WebUI 快速上手指南\n\nAdvancedLivePortrait-WebUI 是一个基于 Gradio 的 WebUI，专门用于编辑图像中人物的面部表情。它基于 LivePortrait 和 ComfyUI-AdvancedLivePortrait 开发。\n\n## 环境准备\n\n### 前置依赖\n\n1. **Python**: `3.9` ≤ 版本 ≤ `3.12`\n   - 下载地址：https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-3110\u002F\n\n2. **CUDA**（可选，仅 Nvidia GPU 用户需要）\n   - 版本：12.4\n   - 下载地址：https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-4-0-download-archive?target_os=Windows\n\n3. **FFmpeg**（可选，仅使用视频驱动时需要）\n   - 下载地址：https:\u002F\u002Fffmpeg.org\u002Fdownload.html\n   - 安装后需将 FFmpeg\u002Fbin 文件夹添加到系统 PATH 环境变量\n\n## 安装步骤\n\n### 方式一：本地运行\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n\n# 2. 进入目录\ncd AdvancedLivePortrait-WebUI\n\n# 3. 安装依赖\n# 如不使用 Nvidia GPU，请使用 requirements-cpu.txt\npip install -r requirements.txt\n\n# 4. 启动应用\npython app.py\n```\n\n### 方式二：PowerShell 脚本（Windows）\n\n项目提供了三个 PowerShell 脚本：\n- `Install.ps1` - 安装依赖\n- `Start-WebUI.ps1` - 启动 WebUI\n- `Update.ps1` - 更新项目\n\n在 Windows 上右键点击脚本文件，选择 **\"使用 PowerShell 运行\"** 即可。\n\n### 方式三：Docker 运行\n\n```bash\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI.git\n\n# 2. 构建镜像\ndocker compose -f docker\u002Fdocker-compose.yaml build\n\n# 3. 启动容器\ndocker compose -f docker\u002Fdocker-compose.yaml up\n```\n\n启动成功后，在浏览器访问 `http:\u002F\u002Flocalhost:7860\u002F` 即可使用。\n\n> 注意：非 Nvidia GPU 用户需修改 `docker-compose.yaml` 配置。\n\n## 基本使用\n\n1. 启动应用后，在浏览器打开 WebUI 界面\n2. 上传一张包含人脸的图片\n3. 通过界面上的滑块或选项调整面部表情（如 AAA、EEE、眉毛、眨眼等）\n4. 点击生成按钮获取处理后的图像\n\n## 在线体验\n\n- **Google Colab**: https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fblob\u002Fmaster\u002Fnotebooks\u002Fadvanced_live_portrait_webui.ipynb\n- **Hugging Face Spaces**: https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI","小李是一名专注于编程教学的短视频博主，他需要制作一系列 Python 教程视频。为了让视频更具亲和力，他计划在讲解时使用自己的照片配合动态表情，而不是直接录制真人出镜，这样可以保证画面质量一致，也无需每次都重新化妆和布置场景。\n\n### 没有 AdvancedLivePortrait-WebUI 时\n\n- 制作动态表情需要使用 After Effects、Blender 等专业软件，学习成本极高\n- 即使掌握软件，手动制作一个自然的面部表情动画也需要 2-3 小时\n- 如果想调整表情细节（如微笑幅度、眨眼时机），只能返回软件重新修改，流程繁琐\n- 生成高质量动画效果依赖昂贵的专业工具和硬件设备\n- 导出视频后如果发现表情不自然需要整体重做，时间成本难以承受\n\n### 使用 AdvancedLivePortrait-WebUI 后\n\n- 通过 Gradio WebUI 界面直接上传静态照片，零门槛操作，5 分钟内即可完成\n- 提供 AAA、EEE、眨眼、挑眉等多种预设表情参数，可视化拖拽调整，即时预览效果\n- 支持视频驱动模式，可以用一段参考视频让照片中的人物复现相同表情，大幅提升效率\n- 内置 RealESRGAN 图像修复功能，输出画质清晰细腻\n- 整个过程在本地运行，无需上传素材到第三方平台，保护隐私安全\n\n小李现在只需上传一张自己的照片，选择想要的讲解表情，几十秒就能生成一段自然的动态视频片段，直接用于教程制作。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjhj0517_AdvancedLivePortrait-WebUI_2580ba9a.png","jhj0517","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjhj0517_9a4b06d8.png","Android \u002F Flutter\u002F Python",null,"South Korea","https:\u002F\u002Fgithub.com\u002Fjhj0517",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",96.8,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",1.7,{"name":91,"color":92,"percentage":93},"Dockerfile","#384d54",0.8,{"name":95,"color":96,"percentage":97},"PowerShell","#012456",0.7,527,53,"2026-04-04T03:53:13","Apache-2.0","Linux, Windows, macOS","需要 NVIDIA GPU，CUDA 12.4（可选，使用 CPU 则不需要）","未说明",{"notes":106,"python":107,"dependencies":108},"如需处理视频驱动需安装 FFmpeg 并添加到系统 PATH；如不使用 NVIDIA GPU 可使用 requirements-cpu.txt；提供 PowerShell 脚本和 Docker 两种运行方式；模型文件约 5GB","3.9 - 3.12",[109,110,111,112,113,114,115,116,117,118],"gradio","torch","opencv-python","ultralytics","RealESRGAN","safetensors","onnxruntime","pillow","numpy","scipy",[15,14,13],[121,122,123,109,124,125,126,110,127,128],"ai","deeplearning","facial-recognition","liveportrait","open-source","python","webui","advancedliveportrait","2026-03-27T02:49:30.150509","2026-04-06T09:46:09.636136",[132,137,142,147],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},900,"扩展不显示在 Forge 中怎么办？","这是因为 AdvancedLivePortrait-WebUI 是一个独立的 gradio Web UI，而不是 Forge 扩展。如果你想在 Forge 中作为扩展运行，应该使用 sd-webui-AdvancedLivePortrait。安装地址：https:\u002F\u002Fgithub.com\u002Fjhj0517\u002Fsd-webui-AdvancedLivePortrait","https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fissues\u002F22",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},901,"如何处理 Ultralytics 安全警报？","Ultralytics 8.3.41 和 8.3.42 版本被植入恶意软件，包含加密挖矿代码。受影响时间：8.3.41 为 2024-12-04 20:51 ~ 2024-12-05 09:15，8.3.42 为 2024-12-05 12:47 ~ 13:47。如果你在这段时间内安装过 WebUI，请立即检查并卸载受影响的版本，重新安装安全的 Ultralytics 版本。","https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fissues\u002F19",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},902,"在 Debian 上安装模块出错怎么办？","该问题已被移至 sd-webui-AdvancedLivePortrait 仓库继续处理，因为这是与 sd-webui 相关的安装问题。请访问 https:\u002F\u002Fgithub.com\u002Fjhj0517\u002Fsd-webui-AdvancedLivePortrait\u002Fissues\u002F1 查看最新进展和解决方案。","https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fissues\u002F3",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},903,"如何添加图像修复功能来提高质量？","由于人脸裁剪和合并会导致图像质量下降，可以添加图像修复功能。维护者建议使用 Real Esragan，因为它在低于 8GB VRAM 的情况下也能运行，比 InstantIR（需要至少 24GB VRAM）更轻量。","https:\u002F\u002Fgithub.com\u002Fjhj0517\u002FAdvancedLivePortrait-WebUI\u002Fissues\u002F12",[]]