[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hacksider--Deep-Live-Cam":3,"tool-hacksider--Deep-Live-Cam":64},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":32,"last_commit_at":58,"category_tags":59,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[15,16,60,61,13,62,35,14,63],"视频","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":79,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":112,"github_topics":113,"view_count":132,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":166},4292,"hacksider\u002FDeep-Live-Cam","Deep-Live-Cam","real time face swap and one-click video deepfake with only a single image","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。","\u003Ch1 align=\"center\">Deep-Live-Cam 2.1\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  Real-time face swap and video deepfake with a single click and only a single image.\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F11395\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_4a68feb902da.png\" alt=\"hacksider%2FDeep-Live-Cam | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_0bf0ecf26178.gif\" alt=\"Demo GIF\" width=\"800\">\n\u003C\u002Fp>\n\n##  Disclaimer\n\nThis deepfake software is designed to be a productive tool for the AI-generated media industry. It can assist artists in animating custom characters, creating engaging content, and even using models for clothing design.\n\nWe are aware of the potential for unethical applications and are committed to preventative measures. A built-in check prevents the program from processing inappropriate media (nudity, graphic content, sensitive material like war footage, etc.). We will continue to develop this project responsibly, adhering to the law and ethics. We may shut down the project or add watermarks if legally required.\n\n- Ethical Use: Users are expected to use this software responsibly and legally. If using a real person's face, obtain their consent and clearly label any output as a deepfake when sharing online.\n\n- Content Restrictions: The software includes built-in checks to prevent processing inappropriate media, such as nudity, graphic content, or sensitive material.\n\n- Legal Compliance: We adhere to all relevant laws and ethical guidelines. If legally required, we may shut down the project or add watermarks to the output.\n\n- User Responsibility: We are not responsible for end-user actions. Users must ensure their use of the software aligns with ethical standards and legal requirements.\n\nBy using this software, you agree to these terms and commit to using it in a manner that respects the rights and dignity of others.\n\nUsers are expected to use this software responsibly and legally. If using a real person's face, obtain their consent and clearly label any output as a deepfake when sharing online. We are not responsible for end-user actions.\n\n## Exclusive v2.7 beta Quick Start - Pre-built (Windows\u002FMac Silicon\u002FCPU)\n\n  \u003Ca href=\"https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_76f8ca225afc.png\" width=\"285\" height=\"77\" \u002F>\n\n##### This is the fastest build you can get if you have a discrete NVIDIA or AMD GPU, CPU or Mac Silicon, And you'll receive special priority support. 2.7 beta is the best you can have with 30+ extra features than the open source version.\n \n###### These Pre-builts are perfect for non-technical users or those who don't have time to, or can't manually install all the requirements. Just a heads-up: this is an open-source project, so you can also install it manually. \n\n## TLDR; Live Deepfake in just 3 Clicks\n![easysteps](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_58477d4604cc.png)\n1. Select a face\n2. Select which camera to use\n3. Press live!\n\n## Features & Uses - Everything is in real-time\n\n### Mouth Mask\n\n**Retain your original mouth for accurate movement using Mouth Mask**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_474bace2614b.gif\" alt=\"resizable-gif\">\n\u003C\u002Fp>\n\n### Face Mapping\n\n**Use different faces on multiple subjects simultaneously**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_bbd20d6df0d1.gif\" alt=\"face_mapping_source\">\n\u003C\u002Fp>\n\n### Your Movie, Your Face\n\n**Watch movies with any face in real-time**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_536a65b7a648.gif\" alt=\"movie\">\n\u003C\u002Fp>\n\n### Live Show\n\n**Run Live shows and performances**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_bf51d55b0c12.gif\" alt=\"show\">\n\u003C\u002Fp>\n\n### Memes\n\n**Create Your Most Viral Meme Yet**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_b594affbd64c.gif\" alt=\"show\" width=\"450\"> \n  \u003Cbr>\n  \u003Csub>Created using Many Faces feature in Deep-Live-Cam\u003C\u002Fsub>\n\u003C\u002Fp>\n\n### Omegle\n\n**Surprise people on Omegle**\n\n\u003Cp align=\"center\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2e9b9b82-fa04-4b70-9f56-b1f68e7672d0\" width=\"450\" controls>\u003C\u002Fvideo>\n\u003C\u002Fp>\n\n## Installation (Manual)\n\n**Please be aware that the installation requires technical skills and is not for beginners. Consider downloading the quickstart version.**\n\n\u003Cdetails>\n\u003Csummary>Click to see the process\u003C\u002Fsummary>\n\n### Installation\n\nThis is more likely to work on your computer but will be slower as it utilizes the CPU.\n\n**1. Set up Your Platform**\n\n-   Python (3.11 recommended)\n-   pip\n-   git\n-   [ffmpeg](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=OlNWCpFdVMA) - ```iex (irm ffmpeg.tc.ht)```\n-   [Visual Studio 2022 Runtimes (Windows)](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F)\n\n**2. Clone the Repository**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam.git\ncd Deep-Live-Cam\n```\n\n**3. Download the Models**\n\n1. [GFPGANv1.4](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Fresolve\u002Fmain\u002FGFPGANv1.4.onnx)\n2. [inswapper\\_128\\_fp16.onnx](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Fresolve\u002Fmain\u002Finswapper_128_fp16.onnx)\n\nPlace these files in the \"**models**\" folder.\n\n**4. Install Dependencies**\n\nWe highly recommend using a `venv` to avoid issues.\n\n\nFor Windows:\n```bash\npython -m venv venv\nvenv\\Scripts\\activate\npip install -r requirements.txt\n```\nFor Linux:\n```bash\n# Ensure you use the installed Python 3.11\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\npip install -r requirements.txt\n```\n\n**For macOS:**\n\nApple Silicon (M1\u002FM2\u002FM3) requires specific setup:\n\n```bash\n# Install Python 3.11 (specific version is important)\nbrew install python@3.11\n\n# Install tkinter package (required for the GUI)\nbrew install python-tk@3.11\n\n# Create and activate virtual environment with Python 3.11\npython3.11 -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# Install dependencies\npip install -r requirements.txt\n```\n\n** In case something goes wrong and you need to reinstall the virtual environment **\n\n```bash\n# Deactivate the virtual environment\nrm -rf venv\n\n# Reinstall the virtual environment\npython -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# install the dependencies again\npip install -r requirements.txt\n\n# gfpgan and basicsrs issue fix\npip install git+https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git@master\npip uninstall gfpgan -y\npip install git+https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN.git@master\n```\n\n**Run:** If you don't have a GPU, you can run Deep-Live-Cam using `python run.py`. Note that initial execution will download models (~300MB).\n\n### GPU Acceleration\n\n**CUDA Execution Provider (Nvidia)**\n\n1. Install [CUDA Toolkit 12.8.0](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-8-0-download-archive)\n2. Install [cuDNN v8.9.7 for CUDA 12.x](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive) (required for onnxruntime-gpu):\n   - Download cuDNN v8.9.7 for CUDA 12.x\n   - Make sure the cuDNN bin directory is in your system PATH\n3. Install dependencies:\n\n```bash\npip install -U torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\npip uninstall onnxruntime onnxruntime-gpu\npip install onnxruntime-gpu==1.21.0\n```\n\n3. Usage:\n\n```bash\npython run.py --execution-provider cuda\n```\n\n**CoreML Execution Provider (Apple Silicon)**\n\nApple Silicon (M1\u002FM2\u002FM3) specific installation:\n\n1. Make sure you've completed the macOS setup above using Python 3.11.\n2. Install dependencies:\n\n```bash\npip uninstall onnxruntime onnxruntime-silicon\npip install onnxruntime-silicon==1.13.1\n```\n\n3. Usage:\n\n```bash\npython3.11 run.py --execution-provider coreml\n```\n\n**Important Notes for macOS:**\n- You **must** use Python 3.11, not newer versions like 3.13\n- Always run with `python3.11` command not just `python` if you have multiple Python versions installed\n- If you get error about `_tkinter` missing, reinstall the tkinter package: `brew reinstall python-tk@3.11`\n- If you get model loading errors, check that your models are in the correct folder\n- If you encounter conflicts with other Python versions, consider uninstalling them:\n  ```bash\n  # List all installed Python versions\n  brew list | grep python\n\n  # Uninstall conflicting versions if needed\n  brew uninstall --ignore-dependencies python@3.13\n\n  # Keep only Python 3.11\n  brew cleanup\n  ```\n\n**CoreML Execution Provider (Apple Legacy)**\n\n1. Install dependencies:\n\n```bash\npip uninstall onnxruntime onnxruntime-coreml\npip install onnxruntime-coreml==1.21.0\n```\n\n2. Usage:\n\n```bash\npython run.py --execution-provider coreml\n```\n\n**DirectML Execution Provider (Windows)**\n\n1. Install dependencies:\n\n```bash\npip uninstall onnxruntime onnxruntime-directml\npip install onnxruntime-directml==1.21.0\n```\n\n2. Usage:\n\n```bash\npython run.py --execution-provider directml\n```\n\n**OpenVINO™ Execution Provider (Intel)**\n\n1. Install dependencies:\n\n```bash\npip uninstall onnxruntime onnxruntime-openvino\npip install onnxruntime-openvino==1.21.0\n```\n\n2. Usage:\n\n```bash\npython run.py --execution-provider openvino\n```\n\u003C\u002Fdetails>\n\n## Usage\n\n**1. Image\u002FVideo Mode**\n\n-   Execute `python run.py`.\n-   Choose a source face image and a target image\u002Fvideo.\n-   Click \"Start\".\n-   The output will be saved in a directory named after the target video.\n\n**2. Webcam Mode**\n\n-   Execute `python run.py`.\n-   Select a source face image.\n-   Click \"Live\".\n-   Wait for the preview to appear (10-30 seconds).\n-   Use a screen capture tool like OBS to stream.\n-   To change the face, select a new source image.\n\n## Download all models in this huggingface link\n- [**Download models here**](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Ftree\u002Fmain)\n\n## Command Line Arguments (Unmaintained)\n\n```\noptions:\n  -h, --help                                               show this help message and exit\n  -s SOURCE_PATH, --source SOURCE_PATH                     select a source image\n  -t TARGET_PATH, --target TARGET_PATH                     select a target image or video\n  -o OUTPUT_PATH, --output OUTPUT_PATH                     select output file or directory\n  --frame-processor FRAME_PROCESSOR [FRAME_PROCESSOR ...]  frame processors (choices: face_swapper, face_enhancer, ...)\n  --keep-fps                                               keep original fps\n  --keep-audio                                             keep original audio\n  --keep-frames                                            keep temporary frames\n  --many-faces                                             process every face\n  --map-faces                                              map source target faces\n  --mouth-mask                                             mask the mouth region\n  --video-encoder {libx264,libx265,libvpx-vp9}             adjust output video encoder\n  --video-quality [0-51]                                   adjust output video quality\n  --live-mirror                                            the live camera display as you see it in the front-facing camera frame\n  --live-resizable                                         the live camera frame is resizable\n  --max-memory MAX_MEMORY                                  maximum amount of RAM in GB\n  --execution-provider {cpu} [{cpu} ...]                   available execution provider (choices: cpu, ...)\n  --execution-threads EXECUTION_THREADS                    number of execution threads\n  -v, --version                                            show program's version number and exit\n```\n\nLooking for a CLI mode? Using the -s\u002F--source argument will make the run program in cli mode.\n\n## Press\n\n - [**Ars Technica**](https:\u002F\u002Farstechnica.com\u002Finformation-technology\u002F2024\u002F08\u002Fnew-ai-tool-enables-real-time-face-swapping-on-webcams-raising-fraud-concerns\u002F) - *\"Deep-Live-Cam goes viral, allowing anyone to become a digital doppelganger\"*\n - [**Yahoo!**](https:\u002F\u002Fwww.yahoo.com\u002Ftech\u002Fok-viral-ai-live-stream-080041056.html) - *\"OK, this viral AI live stream software is truly terrifying\"*\n - [**CNN Brasil**](https:\u002F\u002Fwww.cnnbrasil.com.br\u002Ftecnologia\u002Fia-consegue-clonar-rostos-na-webcam-entenda-funcionamento\u002F) - *\"AI can clone faces on webcam; understand how it works\"*\n - [**Bloomberg Technoz**](https:\u002F\u002Fwww.bloombergtechnoz.com\u002Fdetail-news\u002F71032\u002Fkenalan-dengan-teknologi-deep-live-cam-bisa-jadi-alat-menipu) - *\"Get to know Deep Live Cam technology, it can be used as a tool for deception.\"*\n - [**TrendMicro**](https:\u002F\u002Fwww.trendmicro.com\u002Fvinfo\u002Fgb\u002Fsecurity\u002Fnews\u002Fcyber-attacks\u002Fai-vs-ai-deepfakes-and-ekyc) - *\"AI vs AI: DeepFakes and eKYC\"*\n - [**PetaPixel**](https:\u002F\u002Fpetapixel.com\u002F2024\u002F08\u002F14\u002Fdeep-live-cam-deepfake-ai-tool-lets-you-become-anyone-in-a-video-call-with-single-photo-mark-zuckerberg-jd-vance-elon-musk\u002F) - *\"Deepfake AI Tool Lets You Become Anyone in a Video Call With Single Photo\"*\n - [**SomeOrdinaryGamers**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?time_continue=1074&v=py4Tc-Y8BcY) - *\"That's Crazy, Oh God. That's Fucking Freaky Dude... That's So Wild Dude\"*\n - [**IShowSpeed**](https:\u002F\u002Fwww.youtube.com\u002Flive\u002FmFsCe7AIxq8?feature=shared&t=2686) - *\"Alright look look look, now look chat, we can do any face we want to look like chat\"*\n - [**TechLinked (Linus Tech Tips)**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wnCghLjqv3s&t=551s) - *\"They do a pretty good job matching poses, expression and even the lighting\"*\n - [**IShowSpeed**](https:\u002F\u002Fyoutu.be\u002FJbUPRmXRUtE?t=3964) - *\"What the F***! Why do I look like Vinny Jr? I look exactly like Vinny Jr!? No, this shit is crazy! Bro This is F*** Crazy!\"*\n\n\n## Credits\n\n-   [ffmpeg](https:\u002F\u002Fffmpeg.org\u002F): for making video-related operations easy\n-   [Henry](https:\u002F\u002Fgithub.com\u002Fhenryruhs): One of the major contributor in this repo\n-   [deepinsight](https:\u002F\u002Fgithub.com\u002Fdeepinsight): for their [insightface](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface) project which provided a well-made library and models. Please be reminded that the [use of the model is for non-commercial research purposes only](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface?tab=readme-ov-file#license).\n-   [havok2-htwo](https:\u002F\u002Fgithub.com\u002Fhavok2-htwo): for sharing the code for webcam\n-   [GosuDRM](https:\u002F\u002Fgithub.com\u002FGosuDRM): for the open version of roop\n-   [pereiraroland26](https:\u002F\u002Fgithub.com\u002Fpereiraroland26): Multiple faces support\n-   [vic4key](https:\u002F\u002Fgithub.com\u002Fvic4key): For supporting\u002Fcontributing to this project\n-   [kier007](https:\u002F\u002Fgithub.com\u002Fkier007): for improving the user experience\n-   [qitianai](https:\u002F\u002Fgithub.com\u002Fqitianai): for multi-lingual support\n-   [laurigates](https:\u002F\u002Fgithub.com\u002Flaurigates): Decoupling stuffs to make everything faster!\n-   and [all developers](https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fgraphs\u002Fcontributors) behind libraries used in this project.\n-   Footnote: Please be informed that the base author of the code is [s0md3v](https:\u002F\u002Fgithub.com\u002Fs0md3v\u002Froop)\n-   All the wonderful users who helped make this project go viral by starring the repo ❤️\n\n[![Stargazers](https:\u002F\u002Freporoster.com\u002Fstars\u002Fhacksider\u002FDeep-Live-Cam)](https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fstargazers)\n\n## Contributions\n\n![Alt](https:\u002F\u002Frepobeats.axiom.co\u002Fapi\u002Fembed\u002Ffec8e29c45dfdb9c5916f3a7830e1249308d20e1.svg \"Repobeats analytics image\")\n\n## Stars to the Moon 🚀\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#hacksider\u002Fdeep-live-cam&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>\n","\u003Ch1 align=\"center\">Deep-Live-Cam 2.1\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  一键式实时人脸替换与视频深度伪造，仅需一张图片即可实现。\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F11395\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_4a68feb902da.png\" alt=\"hacksider%2FDeep-Live-Cam | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_0bf0ecf26178.gif\" alt=\"演示动图\" width=\"800\">\n\u003C\u002Fp>\n\n## 免责声明\n\n本深度伪造软件旨在为人工智能生成媒体行业提供高效的工具。它可以帮助艺术家创建自定义角色动画、制作吸引人的内容，甚至用于服装设计中的模型展示。\n\n我们深知该软件可能被用于不道德的目的，并致力于采取预防措施。程序内置检查机制，可防止处理不当内容（如裸露、血腥画面、战争等敏感素材）。我们将继续以负责任的态度开发此项目，严格遵守法律法规及伦理规范。若法律要求，我们可能会停止该项目的运行或在输出中添加水印。\n\n- 道德使用：用户应以合法且负责任的方式使用本软件。若使用真实人物面部，请务必获得其同意，并在在线分享时明确标注为深度伪造内容。\n  \n- 内容限制：软件内置检测功能，可阻止处理不适宜的内容，例如裸露、暴力血腥场景或敏感题材。\n\n- 法律合规：我们严格遵守相关法律法规及伦理准则。若法律有明确规定，我们可能会停止项目运行或在输出中添加水印。\n\n- 用户责任：我们不对最终用户的使用行为承担责任。用户需确保其使用方式符合伦理标准和法律要求。\n\n使用本软件即表示您同意上述条款，并承诺以尊重他人权利和尊严的方式使用该软件。\n\n用户应以合法且负责任的方式使用本软件。若使用真实人物面部，请事先征得对方同意，并在在线分享时明确标注为深度伪造内容。我们不对最终用户的使用行为负责。\n\n## 独家 v2.7 测试版快速入门 - 预编译版本（Windows\u002FMac Silicon\u002FCPU）\n\n  \u003Ca href=\"https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_76f8ca225afc.png\" width=\"285\" height=\"77\" \u002F>\n\n##### 如果您拥有独立显卡（NVIDIA或AMD）、CPU或Mac Silicon芯片，这是您可以获得的最快安装版本，并且将享受优先技术支持。v2.7 测试版相比开源版本新增了30多项功能，是目前最佳选择。\n \n###### 这些预编译版本非常适合非技术人员，或是没有时间、无法手动安装所有依赖项的用户。请注意：这是一个开源项目，您也可以选择手动安装。\n\n## 总结：只需3步即可实现实时深度伪造\n![easysteps](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_58477d4604cc.png)\n1. 选择一张人脸\n2. 选择要使用的摄像头\n3. 点击“直播”！\n\n## 功能与用途 - 全部实时进行\n\n### 口罩遮挡\n\n**使用口罩遮挡功能保留您原本的嘴巴，实现更精准的动作效果**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_474bace2614b.gif\" alt=\"可调整大小的动图\">\n\u003C\u002Fp>\n\n### 多人换脸\n\n**同时为多个对象应用不同的人脸**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_bbd20d6df0d1.gif\" alt=\"多人换脸示例\">\n\u003C\u002Fp>\n\n### 自选面孔看电影\n\n**用任意面孔实时观看电影**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_536a65b7a648.gif\" alt=\"电影播放\">\n\u003C\u002Fp>\n\n### 直播表演\n\n**举办直播秀和现场表演**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_bf51d55b0c12.gif\" alt=\"直播表演\">\n\u003C\u002Fp>\n\n### 制作爆笑表情包\n\n**创作你最火的表情包**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_b594affbd64c.gif\" alt=\"表情包\" width=\"450\"> \n  \u003Cbr>\n  \u003Csub>由 Deep-Live-Cam 的多人脸功能生成\u003C\u002Fsub>\n\u003C\u002Fp>\n\n### Omegle 奇袭\n\n**在 Omegle 上给陌生人惊喜**\n\n\u003Cp align=\"center\">\n  \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F2e9b9b82-fa04-4b70-9f56-b1f68e7672d0\" width=\"450\" controls>\u003C\u002Fvideo>\n\u003C\u002Fp>\n\n## 手动安装指南\n\n**请注意，手动安装需要一定的技术基础，不适合初学者。建议下载快速入门版本。**\n\n\u003Cdetails>\n\u003Csummary>点击查看安装步骤\u003C\u002Fsummary>\n\n### 安装步骤\n\n此方法更有可能在您的电脑上成功运行，但由于使用 CPU 处理，速度会相对较慢。\n\n**1. 准备运行环境**\n\n- Python（推荐 3.11 版本）\n- pip\n- git\n- [ffmpeg](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=OlNWCpFdVMA) - ```iex (irm ffmpeg.tc.ht)```\n- [Visual Studio 2022 运行时（Windows）](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F)\n\n**2. 克隆代码库**\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam.git\ncd Deep-Live-Cam\n```\n\n**3. 下载模型文件**\n\n1. [GFPGANv1.4](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Fresolve\u002Fmain\u002FGFPGANv1.4.onnx)\n2. [inswapper_128_fp16.onnx](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Fresolve\u002Fmain\u002Finswapper_128_fp16.onnx)\n\n将这两个文件放入“models”文件夹中。\n\n**4. 安装依赖库**\n\n强烈建议使用 `venv` 虚拟环境，以避免兼容性问题。\n\n对于 Windows：\n```bash\npython -m venv venv\nvenv\\Scripts\\activate\npip install -r requirements.txt\n```\n\n对于 Linux：\n```bash\n# 确保使用已安装的 Python 3.11\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\npip install -r requirements.txt\n```\n\n**对于 macOS：**\n\nApple Silicon（M1\u002FM2\u002FM3）需要特殊设置：\n\n```bash\n# 安装 Python 3.11（版本很重要）\nbrew install python@3.11\n\n# 安装 tkinter 包（GUI 所需）\nbrew install python-tk@3.11\n\n# 创建并激活 Python 3.11 的虚拟环境\npython3.11 -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# 安装依赖库\npip install -r requirements.txt\n```\n\n**如果遇到问题需要重新安装虚拟环境：**\n\n```bash\n# 先退出虚拟环境\nrm -rf venv\n\n# 重新创建虚拟环境\npython -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# 再次安装依赖库\npip install -r requirements.txt\n\n# 解决 gfpgan 和 basicsrs 问题\npip install git+https:\u002F\u002Fgithub.com\u002Fxinntao\u002FBasicSR.git@master\npip uninstall gfpgan -y\npip install git+https:\u002F\u002Fgithub.com\u002FTencentARC\u002FGFPGAN.git@master\n```\n\n**运行：** 如果没有 GPU，可以使用 `python run.py` 来运行 Deep-Live-Cam。请注意，首次运行时会下载约 300MB 的模型文件。\n\n### GPU 加速\n\n**CUDA 执行提供者（Nvidia）**\n\n1. 安装 [CUDA 工具包 12.8.0](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-12-8-0-download-archive)\n2. 安装适用于 CUDA 12.x 的 [cuDNN v8.9.7](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive)（onnxruntime-gpu 需要）：\n   - 下载适用于 CUDA 12.x 的 cuDNN v8.9.7\n   - 确保 cuDNN 的 bin 目录已添加到系统 PATH 中\n3. 安装依赖项：\n\n```bash\npip install -U torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\npip uninstall onnxruntime onnxruntime-gpu\npip install onnxruntime-gpu==1.21.0\n```\n\n3. 使用方法：\n\n```bash\npython run.py --execution-provider cuda\n```\n\n**CoreML 执行提供者（Apple Silicon）**\n\nApple Silicon（M1\u002FM2\u002FM3）专用安装步骤：\n\n1. 确保已使用 Python 3.11 完成上述 macOS 设置。\n2. 安装依赖项：\n\n```bash\npip uninstall onnxruntime onnxruntime-silicon\npip install onnxruntime-silicon==1.13.1\n```\n\n3. 使用方法：\n\n```bash\npython3.11 run.py --execution-provider coreml\n```\n\n**macOS 注意事项：**\n- 必须使用 Python 3.11，不能使用较新的版本如 3.13。\n- 如果安装了多个 Python 版本，务必使用 `python3.11` 命令，而不是仅使用 `python`。\n- 如果出现 `_tkinter` 缺失的错误，请重新安装 tkinter 包：`brew reinstall python-tk@3.11`。\n- 如果遇到模型加载错误，请检查模型是否位于正确目录。\n- 如果与其他 Python 版本发生冲突，可考虑卸载它们：\n  ```bash\n  # 列出所有已安装的 Python 版本\n  brew list | grep python\n\n  # 如有冲突，卸载相关版本\n  brew uninstall --ignore-dependencies python@3.13\n\n  # 仅保留 Python 3.11\n  brew cleanup\n  ```\n\n**CoreML 执行提供者（Apple 旧版芯片）**\n\n1. 安装依赖项：\n\n```bash\npip uninstall onnxruntime onnxruntime-coreml\npip install onnxruntime-coreml==1.21.0\n```\n\n2. 使用方法：\n\n```bash\npython run.py --execution-provider coreml\n```\n\n**DirectML 执行提供者（Windows）**\n\n1. 安装依赖项：\n\n```bash\npip uninstall onnxruntime onnxruntime-directml\npip install onnxruntime-directml==1.21.0\n```\n\n2. 使用方法：\n\n```bash\npython run.py --execution-provider directml\n```\n\n**OpenVINO™ 执行提供者（Intel）**\n\n1. 安装依赖项：\n\n```bash\npip uninstall onnxruntime onnxruntime-openvino\npip install onnxruntime-openvino==1.21.0\n```\n\n2. 使用方法：\n\n```bash\npython run.py --execution-provider openvino\n```\n\u003C\u002Fdetails>\n\n## 使用说明\n\n**1. 图像\u002F视频模式**\n\n- 执行 `python run.py`。\n- 选择一张源人脸图像和一张目标图像或视频。\n- 点击“开始”。\n- 输出结果将保存在以目标视频命名的文件夹中。\n\n**2. 网络摄像头模式**\n\n- 执行 `python run.py`。\n- 选择一张源人脸图像。\n- 点击“实时”。\n- 等待预览画面出现（10–30 秒）。\n- 可使用 OBS 等屏幕录制工具进行直播。\n- 若要更换人脸，只需选择新的源图像即可。\n\n## 下载此 Hugging Face 链接中的所有模型\n- [**在此下载模型**](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Ftree\u002Fmain)\n\n## 命令行参数（未维护）\n\n```\n选项：\n  -h, --help                                               显示帮助信息并退出\n  -s SOURCE_PATH, --source SOURCE_PATH                     选择源图像\n  -t TARGET_PATH, --target TARGET_PATH                     选择目标图像或视频\n  -o OUTPUT_PATH, --output OUTPUT_PATH                     选择输出文件或目录\n  --frame-processor FRAME_PROCESSOR [FRAME_PROCESSOR ...]  帧处理器（可选：face_swapper、face_enhancer 等）\n  --keep-fps                                               保持原始帧率\n  --keep-audio                                             保持原始音频\n  --keep-frames                                            保留临时帧\n  --many-faces                                             处理每一人脸\n  --map-faces                                              映射源与目标人脸\n  --mouth-mask                                             掩盖嘴部区域\n  --video-encoder {libx264,libx265,libvpx-vp9}             调整输出视频编码器\n  --video-quality [0-51]                                   调整输出视频质量\n  --live-mirror                                            实时摄像头显示与前置摄像头画面一致\n  --live-resizable                                         实时摄像头画面可调整大小\n  --max-memory MAX_MEMORY                                  最大内存限制（GB）\n  --execution-provider {cpu} [{cpu} ...]                   可用执行提供者（可选：cpu 等）\n  --execution-threads EXECUTION_THREADS                    执行线程数\n  -v, --version                                            显示程序版本号并退出\n```\n\n想要使用命令行模式吗？只需使用 `-s\u002F--source` 参数，程序就会以命令行模式运行。\n\n## 媒体报道\n\n - [**Ars Technica**](https:\u002F\u002Farstechnica.com\u002Finformation-technology\u002F2024\u002F08\u002Fnew-ai-tool-enables-real-time-face-swapping-on-webcams-raising-fraud-concerns\u002F) - *\"Deep-Live-Cam 火遍全网，让任何人瞬间成为数字替身\"*\n - [**Yahoo!**](https:\u002F\u002Fwww.yahoo.com\u002Ftech\u002Fok-viral-ai-live-stream-080041056.html) - *\"好吧，这款病毒式传播的 AI 直播软件真的太可怕了\"*\n - [**CNN Brasil**](https:\u002F\u002Fwww.cnnbrasil.com.br\u002Ftecnologia\u002Fia-consegue-clonar-rostos-na-webcam-entenda-funcionamento\u002F) - *\"AI 可在摄像头前克隆人脸；了解其工作原理\"*\n - [**Bloomberg Technoz**](https:\u002F\u002Fwww.bloombergtechnoz.com\u002Fdetail-news\u002F71032\u002Fkenalan-dengan-teknologi-deep-live-cam-bisa-jadi-alat-menipu) - *\"认识 Deep Live Cam 技术，它可能被用作欺骗工具。\"*\n - [**TrendMicro**](https:\u002F\u002Fwww.trendmicro.com\u002Fvinfo\u002Fgb\u002Fsecurity\u002Fnews\u002Fcyber-attacks\u002Fai-vs-ai-deepfakes-and-ekyc) - *\"AI 对抗 AI：深度伪造与 eKYC\"*\n - [**PetaPixel**](https:\u002F\u002Fpetapixel.com\u002F2024\u002F08\u002F14\u002Fdeep-live-cam-deepfake-ai-tool-lets-you-become-anyone-in-a-video-call-with-single-photo-mark-zuckerberg-jd-vance-elon-musk\u002F) - *\"深度伪造 AI 工具让你仅凭一张照片就能在视频通话中变成任何人——马克·扎克伯格、JD Vance、埃隆·马斯克等\"*\n - [**SomeOrdinaryGamers**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?time_continue=1074&v=py4Tc-Y8BcY) - *\"太疯狂了，天哪！这也太诡异了吧……这也太离谱了！\"*\n - [**IShowSpeed**](https:\u002F\u002Fwww.youtube.com\u002Flive\u002FmFsCe7AIxq8?feature=shared&t=2686) - *\"好了，看啊看啊看啊，现在看看聊天室吧，我们能变成任何想看起来像的人！\"*\n - [**TechLinked（Linus Tech Tips）**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wnCghLjqv3s&t=551s) - *\"它们在匹配姿势、表情甚至光线方面做得相当不错。\"*\n - [**IShowSpeed**](https:\u002F\u002Fyoutu.be\u002FJbUPRmXRUtE?t=3964) - *\"什么鬼！为什么我看起来像 Vinny Jr？我简直跟 Vinny Jr 一模一样！不，这太疯狂了！兄弟，这也太他妈疯狂了！\"*\n\n## 致谢\n\n-   [ffmpeg](https:\u002F\u002Fffmpeg.org\u002F)：让视频相关操作变得简单\n-   [Henry](https:\u002F\u002Fgithub.com\u002Fhenryruhs)：本仓库的主要贡献者之一\n-   [deepinsight](https:\u002F\u002Fgithub.com\u002Fdeepinsight)：感谢他们提供的 [insightface](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface) 项目，该开源库和模型非常优秀。请注意，[该模型仅限于非商业研究用途](https:\u002F\u002Fgithub.com\u002Fdeepinsight\u002Finsightface?tab=readme-ov-file#license)。\n-   [havok2-htwo](https:\u002F\u002Fgithub.com\u002Fhavok2-htwo)：分享了网络摄像头相关的代码\n-   [GosuDRM](https:\u002F\u002Fgithub.com\u002FGosuDRM)：提供了 roop 的开源版本\n-   [pereiraroland26](https:\u002F\u002Fgithub.com\u002Fpereiraroland26)：实现了多人脸支持功能\n-   [vic4key](https:\u002F\u002Fgithub.com\u002Fvic4key)：为本项目提供支持并做出贡献\n-   [kier007](https:\u002F\u002Fgithub.com\u002Fkier007)：致力于提升用户体验\n-   [qitianai](https:\u002F\u002Fgithub.com\u002Fqitianai)：提供了多语言支持\n-   [laurigates](https:\u002F\u002Fgithub.com\u002Flaurigates)：通过解耦优化，使整体运行速度更快！\n-   以及本项目所用各类库背后的[所有开发者](https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fgraphs\u002Fcontributors)。\n-   注：代码的原始作者是 [s0md3v](https:\u002F\u002Fgithub.com\u002Fs0md3v\u002Froop)。\n-   所有帮助本项目走红、为仓库点赞的优秀用户 ❤️\n\n[![Stargazers](https:\u002F\u002Freporoster.com\u002Fstars\u002Fhacksider\u002FDeep-Live-Cam)](https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fstargazers)\n\n## 贡献情况\n\n![Alt](https:\u002F\u002Frepobeats.axiom.co\u002Fapi\u002Fembed\u002Ffec8e29c45dfdb9c5916f3a7830e1249308d20e1.svg \"Repobeats 分析图\")\n\n## 星光闪耀，直抵月球 🚀\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#hacksider\u002Fdeep-live-cam&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_readme_da6c253ab0fd.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>","# Deep-Live-Cam 快速上手指南\n\nDeep-Live-Cam 是一款支持实时人脸替换和视频深伪的开源工具，只需一张图片和一次点击即可实现。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Windows, Linux, macOS (Apple Silicon M1\u002FM2\u002FM3 需特定配置)\n- **Python**: 推荐版本 **3.11** (macOS Apple Silicon 必须使用此版本)\n- **硬件加速 (可选)**:\n  - NVIDIA GPU (需 CUDA)\n  - AMD GPU\n  - Intel CPU (OpenVINO)\n  - Apple Silicon (CoreML)\n\n### 前置依赖\n在开始之前，请确保系统已安装以下基础工具：\n- `git`\n- `pip`\n- `ffmpeg`\n  - Windows 快速安装: `iex (irm ffmpeg.tc.ht)`\n  - 其他系统请使用包管理器安装 (如 `apt`, `brew`)\n- **Windows 用户额外需要**: [Visual Studio 2022 Runtimes](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F)\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam.git\ncd Deep-Live-Cam\n```\n\n### 2. 下载模型文件\n从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fhacksider\u002Fdeep-live-cam\u002Ftree\u002Fmain) 下载以下两个文件，并放入项目根目录下的 `models` 文件夹中：\n1. `GFPGANv1.4.onnx`\n2. `inswapper_128_fp16.onnx`\n\n> **提示**: 如果下载速度慢，可尝试使用国内镜像站或代理加速 HuggingFace 连接。\n\n### 3. 创建虚拟环境并安装依赖\n\n**通用步骤 (Windows\u002FLinux):**\n```bash\npython -m venv venv\n# Windows 激活\nvenv\\Scripts\\activate\n# Linux 激活\nsource venv\u002Fbin\u002Factivate\n\npip install -r requirements.txt\n```\n\n**macOS (Apple Silicon M1\u002FM2\u002FM3) 专属步骤:**\n必须严格使用 Python 3.11。\n```bash\n# 安装 Python 3.11 和 tkinter\nbrew install python@3.11\nbrew install python-tk@3.11\n\n# 创建虚拟环境\npython3.11 -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# 安装依赖\npip install -r requirements.txt\n```\n\n### 4. 配置 GPU 加速 (可选但推荐)\n\n如果不配置 GPU，程序将默认使用 CPU 运行（速度较慢）。\n\n- **NVIDIA (CUDA)**:\n  安装 CUDA Toolkit 12.8 和 cuDNN v8.9.7 后，执行：\n  ```bash\n  pip install -U torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\n  pip uninstall onnxruntime onnxruntime-gpu\n  pip install onnxruntime-gpu==1.21.0\n  ```\n\n- **macOS (Apple Silicon CoreML)**:\n  ```bash\n  pip uninstall onnxruntime onnxruntime-silicon\n  pip install onnxruntime-silicon==1.13.1\n  ```\n\n- **Intel (OpenVINO)**:\n  ```bash\n  pip uninstall onnxruntime onnxruntime-openvino\n  pip install onnxruntime-openvino==1.21.0\n  ```\n\n## 基本使用\n\n### 模式一：实时摄像头换脸 (Live Cam)\n这是最核心的功能，可将选定的人脸实时映射到摄像头画面中。\n\n1. 启动程序：\n   ```bash\n   python run.py\n   # macOS 用户请使用: python3.11 run.py\n   # 若使用 GPU 加速，请添加参数，例如: python run.py --execution-provider cuda\n   ```\n2. 在图形界面中：\n   - **Select a face**: 选择一张包含清晰人脸的来源图片。\n   - **Select camera**: 选择要使用的摄像头。\n   - 点击 **\"Live!\"** 按钮。\n3. 等待 10-30 秒预览出现，即可使用 OBS 等推流软件捕获窗口进行直播。\n\n### 模式二：图片\u002F视频处理\n用于生成静态换脸图片或视频文件。\n\n1. 启动程序：\n   ```bash\n   python run.py\n   ```\n2. 在图形界面中：\n   - 选择 **Source Face** (来源人脸图片)。\n   - 选择 **Target** (目标图片或视频)。\n   - 点击 **\"Start\"**。\n3. 生成结果将保存在以目标文件命名的文件夹中。\n\n### 命令行快速启动 (CLI)\n也可以直接通过命令行参数运行：\n\n```bash\n# 实时摄像头模式\npython run.py --source face.jpg --live\n\n# 视频处理模式\npython run.py --source face.jpg --target input.mp4 --output output.mp4\n```\n\n> **伦理与法律声明**: 请务必合法合规使用本工具。在使用真人面部时请确保获得授权，并在分享内容时明确标注为\"AI 生成\u002F深伪”，严禁用于制造虚假新闻、欺诈或侵犯他人权益。","一位独立游戏开发者正在为新品发布会制作宣传视频，需要让游戏中的虚拟角色“实时”出现在摄像头前与观众互动。\n\n### 没有 Deep-Live-Cam 时\n- **制作周期漫长**：传统换脸需逐帧渲染视频，数分钟的素材往往需要数小时甚至过夜才能生成，无法应对直播或即时演示需求。\n- **技术门槛极高**：部署复杂的深度学习环境令人头大，非算法专业的开发者常因依赖冲突和环境配置问题而放弃。\n- **表情僵硬失真**：静态贴图或低级合成导致角色口型与语音不匹配，面部表情缺乏微细变化，显得像戴了面具般生硬。\n- **多角色支持困难**：若需同时展示多个不同角色的互动，必须分别渲染后通过专业软件后期合成，流程极其繁琐。\n\n### 使用 Deep-Live-Cam 后\n- **真正实现实时交互**：仅需一张角色图片，即可在摄像头画面中毫秒级完成换脸，开发者能直接带着虚拟形象进行直播路演。\n- **一键极速启动**：无需手动配置复杂环境，通过预构建版本三步操作（选图、选摄像头、点击开始）即可立即运行。\n- **口型动作自然逼真**：利用内置的 Mouth Mask 技术保留原始嘴部运动轨迹，确保角色说话时的唇形和神态高度拟真。\n- **多人同屏轻松搞定**：借助 Face Mapping 功能，可同时为画面中的多位主播或 NPC 映射不同面孔，瞬间丰富直播内容层次。\n\nDeep-Live-Cam 将原本高不可攀的电影级特效转化为简单的实时工具，让创意内容创作不再受限于昂贵的渲染农场和深厚的技术背景。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhacksider_Deep-Live-Cam_58477d46.png","hacksider","Kenneth Estanislao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhacksider_5d3ff1ce.jpg","I typically don’t respond to chats unless we’ve exchanged emails first—think of it as the digital handshake.",null,"hacksider@gmail.com","real_hacksider","https:\u002F\u002Fgithub.com\u002Fhacksider",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,{"name":89,"color":90,"percentage":91},"Batchfile","#C1F12E",0,88924,12905,"2026-04-06T03:28:53","AGPL-3.0","Windows, macOS, Linux","非必需（支持 CPU 运行但较慢）。支持 NVIDIA (CUDA), AMD (DirectML), Intel (OpenVINO), Apple Silicon (CoreML)。NVIDIA 需安装 CUDA Toolkit 12.8.0 和 cuDNN v8.9.7。","未说明（可通过 --max-memory 参数限制最大 RAM 使用量）",{"notes":100,"python":101,"dependencies":102},"1. macOS 用户必须使用 Python 3.11 并安装 python-tk@3.11，否则 GUI 无法启动。2. 首次运行会自动下载约 300MB 模型文件（也可手动从 HuggingFace 下载 GFPGANv1.4.onnx 和 inswapper_128_fp16.onnx 放入 models 文件夹）。3. 建议使用虚拟环境 (venv) 安装依赖。4. Windows 用户需安装 Visual Studio 2022 运行库。5. 内置内容审查机制，拒绝处理不当媒体（如裸露、暴力等）。","3.11 (macOS Apple Silicon 必须严格使用 3.11，其他平台推荐 3.11)",[103,104,105,106,107,108,109,110,111],"onnxruntime-gpu==1.21.0 (NVIDIA)","onnxruntime-silicon==1.13.1 (Apple Silicon)","onnxruntime-directml==1.21.0 (Windows AMD\u002FIntel)","onnxruntime-openvino==1.21.0 (Intel)","torch (CUDA 12.8 版本)","ffmpeg","tkinter","GFPGAN","BasicSR",[14,15,13,60],[114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130,131],"ai-face","deepfake","video-deepfake","deepfake-webcam","fake-webcam","realtime-deepfake","realtime-face-changer","faceswap","webcam","ai-deep-fake","ai-webcam","ai","artificial-intelligence","webcamera","deep-fake","real-time-deepfake","gan","realtime",10,"2026-03-27T02:49:30.150509","2026-04-06T15:40:04.203919",[136,141,146,151,156,161],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},19541,"控制台出现红色错误且软件无法正常运行，如何解决？","尝试禁用 TensorRT。有用户反馈在移除 TensorRT 后问题得到解决。如果问题依旧，请检查任务管理器中的资源占用情况，或排查是否为网络摄像头本身的硬件问题。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F527",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},19543,"运行时报错 'Frame processor face_enhancer not found' 如何解决？","这通常是因为权限不足导致文件访问被拒绝。请尝试以管理员身份运行 Python 或终端窗口（在 Windows 上右键点击选择“以管理员身份运行”），然后再执行程序。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F266",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},19542,"应用程序启动后界面完全透明或几乎看不见，怎么办？","这是一个已知的 Tkinter\u002FCustomTkinter 兼容性错误（AttributeError: 'block_update_dimensions_event'）。由于评论中未提供具体的代码修复方案，维护者建议遇到此问题的用户直接通过其个人资料中的电子邮件联系他们以获取帮助或最终更新。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F597",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},19544,"在 Mac M1\u002FM2 芯片上运行帧率极低（低于 10 FPS）且 GPU 未生效是正常的吗？","是的，这在当前版本中是已知现象。Mac 上的 CoreML (openml) 执行提供者主要利用 CPU 的特定指令加速，并不完全等同于传统的 GPU 加速，因此可能出现 CPU 满载而 GPU 空闲的情况。目前官方尚未针对 Mac 进行深度优化，建议等待后续更新或社区提出的性能改进方案。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F120",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},19545,"如何在没有强力 GPU 或 Mac 设备上提高网络摄像头的实时帧率？","可以通过实施“流水线处理”（pipelining）技术来优化。原理是利用多核 CPU 并行处理不同阶段的任务：当第一帧在进行人脸交换时，第二帧同时进行人脸对齐，第三帧同时进行人脸检测。这样可以避免单核顺序处理导致的帧跳过。虽然这是一个高级优化方案，但能显著提升低配设备上的流畅度（例如从 1 FPS 提升至 10 FPS）。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F1495",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},19546,"Mac M2 运行时日志显示 'face_enhancer not found' 且速度慢，如何确认硬件加速是否生效？","在使用 CoreML 时，加速实际上是由 ANE (神经引擎\u002FNPU) 提供的，而非传统 GPU。你可以使用如 'asitop' 之类的工具监控硬件利用率，通常会看到 ANE 利用率约为 25%。尽管有加速，但由于模型计算量大，帧率可能仍然较低，这是目前的正常表现。","https:\u002F\u002Fgithub.com\u002Fhacksider\u002FDeep-Live-Cam\u002Fissues\u002F134",[167,172,177,182,187,192,197,202,207,212,217],{"id":168,"version":169,"summary_zh":170,"released_at":171},117618,"2.7-beta","这是 2.7 的测试版，也是为了庆祝我们在 GitHub 上收获了 8 万个星标而推出的！\n\n更新日志：\n\n- 实时人脸增强器\n- Inswapper 优化器\n- 2 个全新的人脸增强模型（GPEN 512 和 GPEN 256）\n- 人脸增强缩放器\n- 快速唇部蒙版\n- 插值功能\n- 唇部蒙版\n- 下颌线蒙版\n- 眼睛蒙版\n- 多 GPU 支持的显卡切换器\n- 方便调色的 LUT 查找表\n- 窗口投屏\n- 窗内预览\n- 实时视频观看\n- 窗口投屏全屏模式，可实时观看视频\n- 摄像头刷新\n- 分辨率切换器\n- 更优的用户界面\n\n对了，我有没有提到在开启人脸增强的情况下还能达到 27 帧每秒呢？\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fddbd9493-9515-47bd-9f97-623efe82963a\n\n还有更多精彩内容！这可是 DeepLiveCam 自推出以来规模最大的一次更新哦！  \n[立即前往我们的官网获取快速入门指南！](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fplans?plan_id=0&group_id=0)","2026-03-11T18:39:57",{"id":173,"version":174,"summary_zh":175,"released_at":176},117619,"2.6","**2.5 版本对我们来说太小了……欢迎来到 2.6！**\n\n我们一直在幕后辛勤工作，并认为取得的进展值得一次远超“小数点更新”的重大升级。因此，我们正式跳过 2.5 版，直接进入 2.6 功能大更新！\n\n**引擎舱里都有啥？**\n\n- 虚拟摄像头支持正式上线！只需通过 OBS 进行连接，即可轻松在任何平台上进行直播。\n\n- 我们彻底重构并重写了核心代码。无论是在实时直播、生成图像还是处理视频时，渲染速度都得到了显著提升。精简版代码也已同步发布到 GitHub 上！\n\n- 使用全新的“刷新”按钮，即可获取最新的摄像头画面，而无需再烦人地重启应用。\n\n- 修复了多项 bug，并进行了稳定性优化，让系统运行更加流畅。这将成为未来版本的基础，相信你会感受到前所未有的顺滑体验！","2026-02-10T15:53:21",{"id":178,"version":179,"summary_zh":180,"released_at":181},117620,"2.4","**更新日志——重大改进即将上线！**\n\n✅ 下拉菜单已修复——导航更流畅，再无卡顿！\n\n⚡ 笔记本电脑强制启用GPU——释放额外性能，带来更快、更清晰的体验。\n\n🎨 泊松融合升级——告别换脸时出现的半透明方框，耳朵边缘也更加干净自然，效果更逼真！\n\n👄 口罩调整优化——现已针对inswapper进行专门优化，让表情过渡更加无缝自然。\n\n✨ 其他小幅优化与细节打磨——因为细微之处同样重要！\n\n[仅限官网独家提供！](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)\n\n对了，忘了说一句：视频和图片换脸的预览速度现在快得惊人！这将成为2.5版本的基础，届时将支持实时预览（直接观看实时换脸后的视频哦！）","2025-12-15T19:31:37",{"id":183,"version":184,"summary_zh":185,"released_at":186},117621,"2.3d","2.3d\n\n- 再次为下拉菜单创建了一个补丁，因为它仍然会影响用户。\n\n如果您的旧版本没有遇到任何问题，则无需下载此版本。\n\n[仅在快速入门版中可用](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)\n\n\n2.3c\n\n- 修复了下拉菜单的问题\n- 只有在您遇到模型选择和摄像头选择中的下拉菜单问题时，才需要下载此版本。\n\n\n2.3b\n\n- 修复了人脸增强功能\n- 修复了口罩遮挡问题\n- 修复了帧率计数器\n- 不再出现误报，请直接运行 deep-live-cam.bat 即可。\n\n\n2.3\n\n- 更智能的模型选择：我们推出了全新的模型下拉菜单——这是一种直观的方式，让您能够轻松浏览并切换经过严格测试、精心挑选的顶级模型。此外，我们还新增了 HyperSwap 模型，它能为您提供：\n  - 256x256 的高清人脸（人脸替换效果提升 200%！）\n  - 极速人脸增强：借助升级后的人脸增强引擎，性能最高可提升至原来的 4 倍。结果更清晰，等待时间更短。","2025-11-20T10:44:40",{"id":188,"version":189,"summary_zh":190,"released_at":191},117622,"2.3c","**日志**\n\n- 下拉菜单问题已修复\n\n只有在模型选择和相机选择的下拉菜单出现问题时，才需要下载此文件。\n\n[仅在快速入门页面提供](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)","2025-11-10T07:15:54",{"id":193,"version":194,"summary_zh":195,"released_at":196},117623,"2.3b","**日志**\n\n- 面部增强功能已修复\n- 口罩检测已修复\n- 帧率计数器已修复\n- 不再出现误报，请直接运行 deep-live-cam.bat\n\n[仅在快速入门版中可用](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)","2025-10-24T08:34:47",{"id":198,"version":199,"summary_zh":200,"released_at":201},117624,"2.3","DeepLiveCam 2.3 版本已发布——功能全面升级！\n\n我们很高兴推出 DeepLiveCam 2.3 版本，为您的【快速入门】体验带来强大增强：\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fe0f43421-f29f-4e9f-b813-4ce23f134307\n\n\u003Cimg width=\"1564\" height=\"733\" alt=\"2 3\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fbc437a7d-a760-40ba-9917-9330f174f98c\" \u002F>\n\n- 更智能的模型选择：全新推出的模型下拉菜单，让您以直观的方式探索并切换经过严格测试、精心挑选的顶尖模型。此外，我们还新增了 [HyperSwap](https:\u002F\u002Fgithub.com\u002Ffacefusion\u002Ffacefusion-labs) 模型，可生成 256×256 分辨率的人脸图像（人脸替换效果提升 200%！）。\n\n- 极速人脸增强：借助升级后的人脸增强引擎，性能最高可提升至原来的 4 倍。效果更清晰，等待时间更短。\n\n准备立即体验了吗？请即刻前往我们的【快速入门】页面下载最新版本！","2025-10-12T15:43:11",{"id":203,"version":204,"summary_zh":205,"released_at":206},117625,"2.2","![2025-08-07_19-38-42](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa6e2425f-adc7-4092-89fe-602a9ec33e6a)\n\n体验更流畅、更自然的直播效果，只需更新到我们的最新版本。Deep Live Cam 2.2 带来了简洁时尚的新界面和强大的“额头调整”功能——专为消除尴尬的发际线渐变问题而设计，让您的自然发际线与直播画面无缝融合。\n\n告别视觉瑕疵，迎接完美真实的直播效果！\n\n🌟 2.2 版本新增功能：\n✨ 额头调整——通过精准融合，打造更自然的发际线。\n🖥️ 界面全新升级——更加简洁、快速，操作更便捷。\n🛠️ 错误修复——提升稳定性和性能。\n\n[立即前往我们的官方网站 deeplivecam.net 下载！](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)","2025-08-07T11:50:56",{"id":208,"version":209,"summary_zh":210,"released_at":211},117626,"2.1","您可以在我们的官网下载快速入门指南！\nhttps:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart\n\n![2025-06-13_18-54-35](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F279b420b-3ccb-4a16-b274-63ef53218540)\n\n**更新日志**\n- 人脸随机化功能\n- 速度提升10%至40%\n- 英伟达用户支持RTX 50xx系列显卡","2025-06-15T16:48:58",{"id":213,"version":214,"summary_zh":215,"released_at":216},117627,"2.0","版本 2.0\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F90e19725-b489-4ed7-9367-56ea2a819c65\n\n日志：v2.0\n\n- 使用 ONNX Runtime 1.21 实现更快的处理速度\n- （根据您的 CPU\u002FGPU 不同，提速可达 10% 至 40%）\n- 人脸锐化——不再有模糊的脸！无需额外滤镜即可让面部更加清晰\n- 透明度调整——自由混合您的真实面孔与虚拟形象\n\n如果您是老用户，请发送邮件至 hacksider@gmail.com，并附上您用于订阅的邮箱地址，以便我在您的会员资格仍然有效的情况下为您重新激活。\n\n立即下载版本 2.0！\n[https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart](https:\u002F\u002Fdeeplivecam.net\u002Findex.php\u002Fquickstart)\n\n还有更多隐藏功能等你来发现 😄","2025-04-15T18:21:56",{"id":218,"version":219,"summary_zh":220,"released_at":221},117628,"1.8","### Latest Upgrades\r\n- Hot Swap on Multiple Faces, now changing your face is faster!\r\n\r\n![unnamed](https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fd51db652-89d8-46a3-953c-7da6be8f4929)\r\n\r\n**Coming Soon:** A CPU-only version for users without dedicated NVIDIA GPUs.\r\n\r\n","2025-03-06T06:05:29"]