[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pkhungurn--talking-head-anime-3-demo":3,"tool-pkhungurn--talking-head-anime-3-demo":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":165},1422,"pkhungurn\u002Ftalking-head-anime-3-demo","talking-head-anime-3-demo","Demo Programs for the \"Talking Head(?) Anime from a Single Image 3: Now the Body Too\" Project","talking-head-anime-3-demo 是“单图生成动漫说话头像”项目的第三阶段演示程序，旨在让用户仅凭一张静态动漫角色图片，即可生成包含面部表情、头部转动甚至身体呼吸起伏的动态效果。它主要解决了传统动画制作中需要大量手绘帧或复杂建模才能让人物“活”起来的痛点，极大地降低了动态内容创作的门槛。\n\n该项目提供两个核心功能：一是\"manual_poser\"，用户可通过图形界面手动调节角色的表情、姿态和呼吸；二是\"ifacialmocap_puppeteer\"，支持利用配备 TrueDepth 摄像头的 iOS 设备（如 iPhone X 及以上），实时捕捉用户面部动作并映射到动漫角色上，实现生动的表情驱动。\n\n这款工具特别适合动漫爱好者、独立创作者以及从事计算机视觉研究的技术人员使用。对于普通用户，只要有一台高性能 NVIDIA 显卡电脑和兼容的苹果手机，就能体验将静态立绘变为动态角色的乐趣；对于开发者和研究人员，它则提供了基于 PyTorch 的开源代码，便于深入探索单图像动画生成技术。需要注意的是，运行该程序对硬件有一定要求，建议配置 RTX 2080 或更高级别的显卡以获","talking-head-anime-3-demo 是“单图生成动漫说话头像”项目的第三阶段演示程序，旨在让用户仅凭一张静态动漫角色图片，即可生成包含面部表情、头部转动甚至身体呼吸起伏的动态效果。它主要解决了传统动画制作中需要大量手绘帧或复杂建模才能让人物“活”起来的痛点，极大地降低了动态内容创作的门槛。\n\n该项目提供两个核心功能：一是\"manual_poser\"，用户可通过图形界面手动调节角色的表情、姿态和呼吸；二是\"ifacialmocap_puppeteer\"，支持利用配备 TrueDepth 摄像头的 iOS 设备（如 iPhone X 及以上），实时捕捉用户面部动作并映射到动漫角色上，实现生动的表情驱动。\n\n这款工具特别适合动漫爱好者、独立创作者以及从事计算机视觉研究的技术人员使用。对于普通用户，只要有一台高性能 NVIDIA 显卡电脑和兼容的苹果手机，就能体验将静态立绘变为动态角色的乐趣；对于开发者和研究人员，它则提供了基于 PyTorch 的开源代码，便于深入探索单图像动画生成技术。需要注意的是，运行该程序对硬件有一定要求，建议配置 RTX 2080 或更高级别的显卡以获得流畅体验。","# Demo Code for \"Talking Head(?) Anime from A Single Image 3: Now the Body Too\"\n\nThis repository contains demo programs for the [Talking Head(?) Anime from a Single Image 3: Now the Body Too](https:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Findex.html) project. As the name implies, the project allows you to animate anime characters, and you only need a single image of that character to do so. There are two demo programs:\n\n* The ``manual_poser`` lets you manipulate a character's facial expression, head rotation, body rotation, and chest expansion due to breathing through a graphical user interface. \n* ``ifacialmocap_puppeteer`` lets you transfer your facial motion to an anime character.\n\n## Try the Manual Poser on Google Colab\n\nIf you do not have the required hardware (discussed below) or do not want to download the code and set up an environment to run it, click [![this link](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fblob\u002Fmaster\u002Fcolab.ipynb) to try running the manual poser on [Google Colab](https:\u002F\u002Fresearch.google.com\u002Fcolaboratory\u002Ffaq.html).\n\n## Hardware Requirements\n\nBoth programs require a recent and powerful Nvidia GPU to run. I could personally ran them at good speed with the Nvidia Titan RTX. However, I think recent high-end gaming GPUs such as the RTX 2080, the RTX 3080, or better would do just as well.\n\nThe `ifacialmocap_puppeteer` requires an iOS device that is capable of computing [blend shape parameters](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Farkit\u002Farfaceanchor\u002F2928251-blendshapes) from a video feed. This means that the device must be able to run iOS 11.0 or higher and must have a TrueDepth front-facing camera. (See [this page](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Farkit\u002Fcontent_anchors\u002Ftracking_and_visualizing_faces) for more info.) In other words, if you have the iPhone X or something better, you should be all set. Personally, I have used an iPhone 12 mini.\n\n## Software Requirements\n\n### GPU Related Software\n\nPlease update your GPU's device driver and install the [CUDA Toolkit](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit) that is compatible with your GPU and is newer than the version you will be installing in the next subsection.\n\n### Python Environment\n\nBoth ``manual_poser`` and ``ifacialmocap_puppeteer`` are available as desktop applications. To run them, you need to set up an environment for running programs written in the [Python](http:\u002F\u002Fwww.python.org) language. The environment needs to have the following software packages:\n\n* Python >= 3.8\n* PyTorch >= 1.11.0 with CUDA support\n* SciPY >= 1.7.3\n* wxPython >= 4.1.1\n* Matplotlib >= 3.5.1\n\nOne way to do so is to install [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002F) and run the following commands in your shell:\n\n```\n> conda create -n talking-head-anime-3-demo python=3.8\n> conda activate talking-head-anime-3-demo\n> conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch\n> conda install scipy\n> pip install wxpython\n> conda install matplotlib\n```\n\n#### Caveat 1: Do not use Python 3.10 on Windows\n\nAs of June 2006, you cannot use [wxPython](https:\u002F\u002Fwww.wxpython.org\u002F) with Python 3.10 on Windows. As a result, do not use Python 3.10 until [this bug](https:\u002F\u002Fgithub.com\u002FwxWidgets\u002FPhoenix\u002Fissues\u002F2024) is fixed. This means you should not set ``python=3.10`` in the first ``conda`` command in the listing above.\n\n#### Caveat 2: Adjust versions of Python and CUDA Toolkit as needed\n\nThe environment created by the commands above gives you Python version 3.8 and an installation of [PyTorch](http:\u002F\u002Fpytorch.org) that was compiled with CUDA Toolkit version 11.3. This particular setup might not work in the future because you may find that this particular PyTorch package does not work with your new computer. The solution is to:\n\n1. Change the Python version in the first command to a recent one that works for your OS. (That is, do not use 3.10 if you are using Windows.)\n2. Change the version of CUDA toolkit in the third command to one that the PyTorch's website says is available. In particular, scroll to the \"Install PyTorch\" section and use the chooser there to pick the right command for your computer. Use that command to install PyTorch instead of the third command above.\n\n![The command to install PyTorch](docs\u002Fpytorch-install-command.png \"The command to install PyTorch\")\n\n### Jupyter Environment\n\nThe ``manual_poser`` is also available as a [Jupyter Nootbook](http:\u002F\u002Fjupyter.org). To run it on your local machines, you also need to install:\n\n* Jupyter Notebook >= 7.3.4\n* IPywidgets >= 7.7.0\n\nIn some case, you will also need to enable the ``widgetsnbextension`` as well. So, run\n\n```\n> jupyter nbextension enable --py widgetsnbextension\n```\n\nAfter installing the above two packages. Using Anaconda, I managed to do the above with the following commands:\n\n```\n> conda install -c conda-forge notebook\n> conda install -c conda-forge ipywidgets\n> jupyter nbextension enable --py widgetsnbextension\n```\n\n### Automatic Environment Construction with Anaconda\n\nYou can also use Anaconda to download and install all Python packages in one command. Open your shell, change the directory to where you clone the repository, and run:\n\n```\n> conda env create -f environment.yml\n```\n\nThis will create an environment called ``talking-head-anime-3-demo`` containing all the required Python packages.\n\n### iFacialMocap\n\nIf you want to use ``ifacialmocap_puppeteer``, you will also need to an iOS software called [iFacialMocap](https:\u002F\u002Fwww.ifacialmocap.com\u002F) (a 980 yen purchase in the App Store). You do not need to download the paired application this time. Your iOS and your computer must use the same network. For example, you may connect them to the same wireless router.\n\n## Download the Models\n\nBefore running the programs, you need to download the model files from this [Dropbox link](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fy7b8jl4n2euv8xe\u002Ftalking-head-anime-3-models.zip?dl=0) and unzip it to the ``data\u002Fmodels`` folder under the repository's root directory. In the end, the data folder should look like:\n\n```\n+ data\n  + images\n    - crypko_00.png\n    - crypko_01.png\n        :\n    - crypko_07.png\n    - lambda_00.png\n    - lambda_01.png\n  + models\n    + separable_float\n      - editor.pt\n      - eyebrow_decomposer.pt\n      - eyebrow_morphing_combiner.pt\n      - face_morpher.pt\n      - two_algo_face_body_rotator.pt\n    + separable_half\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n    + standard_float\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n    + standard_half\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n```\n\nThe model files are distributed with the \n[Creative Commons Attribution 4.0 International License](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode), which\nmeans that you can use them for commercial purposes. However, if you distribute them, you must, among other things, say \nthat I am the creator.\n\n## Running the `manual_poser` Desktop Application\n\nOpen a shell. Change your working directory to the repository's root directory. Then, run:\n\n```\n> python tha3\u002Fapp\u002Fmanual_poser.py\n```\n\nNote that before running the command above, you might have to activate the Python environment that contains the required\npackages. If you created an environment using Anaconda as was discussed above, you need to run\n\n```\n> conda activate talking-head-anime-3-demo\n```\n\nif you have not already activated the environment.\n\n### Choosing System Variant to Use\n\nAs noted in the [project's write-up](http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Findex.html), I created 4 variants of the neural network system. They are called ``standard_float``, ``separable_float``, ``standard_half``, and ``separable_half``. All of them have the same functionalities, but they differ in their sizes, RAM usage, speed, and accuracy. You can specify which variant that the ``manual_poser`` program uses through the ``--model`` command line option.\n\n```\n> python tha3\u002Fapp\u002Fmanual_poser --model \u003Cvariant_name>\n```\n\nwhere ``\u003Cvariant_name>`` must be one of the 4 names above. If no variant is specified, the ``standard_float`` variant (which is the largest, slowest, and most accurate) will be used.\n\n## Running the `manual_poser` Jupyter Notebook\n\nOpen a shell. Activate the environment. Change your working directory to the repository's root directory. Then, run:\n\n```\n> jupyter notebook\n```\n\nA browser window should open. In it, open `manual_poser.ipynb`. Once you have done so, you should see that it has two cells. Run the two cells in order. Then, scroll down to the end of the document, and you'll see the GUI there.\n\nYou can choose the system variant to use by changing the ``MODEL_NAME`` variable in the first cell. If you do, you will need to rerun both cells in order for the variant to be loaded and the GUI to be properly updated to use it.\n\n## Running the `ifacialmocap_poser`\n\nFirst, run iFacialMocap on your iOS device. It should show you the device's IP address. Jot it down. Keep the app open.\n\n![IP address in iFacialMocap screen](docs\u002Fifacialmocap_ip.jpg \"IP address in iFacialMocap screen\")\n\nOpen a shell. Activate the Python environment. Change your working directory to the repository's root directory. Then, run:\n\n```\n> python tha3\u002Fapp\u002Fifacialmocap_puppeteer.py\n```\n\nYou will see a text box with label \"Capture Device IP.\" Write the iOS device's IP address that you jotted down there.\n\n![Write IP address of your iOS device in the 'Capture Device IP' text box.](docs\u002Fifacialmocap_puppeteer_ip_address_box.png \"Write IP address of your iOS device in the 'Capture Device IP' text box.\")\n\nClick the \"START CAPTURE!\" button to the right.\n\n![Click the 'START CAPTURE!' button.](docs\u002Fifacialmocap_puppeteer_click_start_capture.png \"Click the 'START CAPTURE!' button.\")\n\nIf the programs are connected properly, you should see the numbers in the bottom part of the window change when you move your head.\n\n![The numbers in the bottom part of the window should change when you move your head.](docs\u002Fifacialmocap_puppeteer_numbers.png \"The numbers in the bottom part of the window should change when you move your head.\")\n\nNow, you can load an image of a character, and it should follow your facial movement.\n\n## Contraints on Input Images\n\nIn order for the system to work well, the input image must obey the following constraints:\n\n* It should be of resolution 512 x 512. (If the demo programs receives an input image of any other size, they will resize the image to this resolution and also output at this resolution.)\n* It must have an alpha channel.\n* It must contain only one humanoid character.\n* The character should be standing upright and facing forward.\n* The character's hands should be below and far from the head.\n* The head of the character should roughly be contained in the 128 x 128 box in the middle of the top half of the image.\n* The alpha channels of all pixels that do not belong to the character (i.e., background pixels) must be 0.\n\n![An example of an image that conforms to the above criteria](docs\u002Finput_spec.png \"An example of an image that conforms to the above criteria\")\n\nSee the project's [write-up](http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Ffull.html#sec:problem-spec) for more details on the input image.\n\n## Citation\n\nIf your academic work benefits from the code in this repository, please cite the project's web page as follows:\n\n> Pramook Khungurn. **Talking Head(?) Anime from a Single Image 3: Now the Body Too.** http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002F, 2022. Accessed: YYYY-MM-DD.\n\nYou can also used the following BibTex entry:\n\n```\n@misc{Khungurn:2022,\n    author = {Pramook Khungurn},\n    title = {Talking Head(?) Anime from a Single Image 3: Now the Body Too},\n    howpublished = {\\url{http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002F}},\n    year = 2022,\n    note = {Accessed: YYYY-MM-DD},\n}\n```\n\n## Disclaimer\n\nWhile the author is an employee of [Google Japan](https:\u002F\u002Fcareers.google.com\u002Flocations\u002Ftokyo\u002F), this software is not Google's product and is not supported by Google.\n\nThe copyright of this software belongs to me as I have requested it using the [IARC process](https:\u002F\u002Fopensource.google\u002Fdocumentation\u002Freference\u002Freleasing#iarc). However, Google might claim the rights to the intellectual\nproperty of this invention.\n\nThe code is released under the [MIT license](https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-2-demo\u002Fblob\u002Fmaster\u002FLICENSE).\nThe model is released under the [Creative Commons Attribution 4.0 International License](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode). Please see the README.md file in the ``data\u002Fimages`` directory for the licenses for the images there.\n","# “说话头（？）——单张图像动漫：现在连身体也动起来”演示代码\n\n本仓库包含【说话头（？）——单张图像动漫：现在连身体也动起来】项目的演示程序。顾名思义，该项目可让您为动漫角色制作动画效果，而您只需一张该角色的单张图像即可完成这一任务。项目中提供了两个演示程序：\n\n* “manual_poser” 可以通过图形用户界面，对角色的面部表情、头部旋转、身体旋转以及因呼吸而产生的胸部扩张进行操控。\n* “ifacialmocap_puppeteer” 则可将您的面部动作实时传输至动漫角色。\n\n## 在 Google Colab 上试用 Manual Poser\n\n如果您没有所需的硬件（详见下文），或者不想下载代码并搭建环境来运行它，请点击【![此链接](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fblob\u002Fmaster\u002Fcolab.ipynb) ，在 [Google Colab](https:\u002F\u002Fresearch.google.com\u002Fcolaboratory\u002Ffaq.html) 上尝试运行 Manual Poser。\n\n## 硬件要求\n\n两个程序均需配备最新且性能强劲的 NVIDIA GPU 才能正常运行。我个人曾使用 NVIDIA Titan RTX 以较快的速度完成了这两项任务。不过，我认为诸如 RTX 2080、RTX 3080 或更高规格的高端游戏 GPU 也同样能够胜任。\n\n“ifacialmocap_puppeteer” 需要一台能够基于视频流计算【混合形状参数】（[Blend Shapes](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Farkit\u002Farfaceanchor\u002F2928251-blendshapes)）的 iOS 设备。这意味着该设备必须支持 iOS 11.0 或更高版本，并且配备 TrueDepth 前置摄像头。（更多详情请参见【此页面】（https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Farkit\u002Fcontent_anchors\u002Ftracking_and_visualizing_faces）。换句话说，如果您拥有 iPhone X 或更高级别的机型，那么一切就都准备就绪了。我个人曾使用过 iPhone 12 mini。）\n\n## 软件要求\n\n### GPU 相关软件\n\n请更新您的 GPU 设备驱动程序，并安装与您的 GPU 兼容且版本高于下一小节所介绍版本的【CUDA 工具包】。\n\n### Python 环境\n\n“manual_poser” 和 “ifacialmocap_puppeteer” 都可以作为桌面应用程序运行。要运行这两个程序，您需要为使用 Python 语言编写的程序搭建一个运行环境。该环境需包含以下软件包：\n\n* Python >= 3.8\n* PyTorch >= 1.11.0，支持 CUDA\n* SciPy >= 1.7.3\n* wxPython >= 4.1.1\n* Matplotlib >= 3.5.1\n\n您可以选择通过安装 [Anaconda](https:\u002F\u002Fwww.anaconda.com\u002F) 并在 Shell 中执行以下命令来完成这一操作：\n\n```\n> conda create -n talking-head-anime-3-demo python=3.8\n> conda activate talking-head-anime-3-demo\n> conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch\n> conda install scipy\n> pip install wxpython\n> conda install matplotlib\n```\n\n#### 注意事项 1：切勿在 Windows 上使用 Python 3.10\n\n截至 2006 年 6 月，您无法在 Windows 上使用 wxPython 与 Python 3.10 一起运行。因此，在【此问题】（https:\u002F\u002Fgithub.com\u002FwxWidgets\u002FPhoenix\u002Fissues\u002F2024）得到修复之前，请勿使用 Python 3.10。也就是说，您不应在上述第一个 `conda` 命令中指定 `python=3.10`。\n\n#### 注意事项 2：根据实际需求调整 Python 和 CUDA 工具包的版本\n\n上述命令所创建的环境将为您提供 Python 3.8 版本，并安装了经过 CUDA 工具包 11.3 编译的 PyTorch。然而，由于未来您可能会发现，特定的 PyTorch 包可能无法与您的新电脑兼容，因此这种配置未必能长期稳定运行。解决办法是：\n\n1. 将第一个命令中的 Python 版本更改为适合您操作系统的新版本。（也就是说，如果您使用的是 Windows，请勿使用 3.10。）\n2. 将第三个命令中的 CUDA 工具包版本更改为 PyTorch 官方网站上所列的可用版本。具体而言，滚动到“安装 PyTorch”部分，利用页面上的选择器，为您的电脑选择合适的安装命令。请使用该命令来安装 PyTorch，而非上述第三个命令。\n\n![安装 PyTorch 的命令](docs\u002Fpytorch-install-command.png \"安装 PyTorch 的命令\")\n\n### Jupyter 环境\n\n“manual_poser” 也可作为 [Jupyter Notebook](http:\u002F\u002Fjupyter.org) 运行。要在本地机器上运行它，您还需要安装：\n\n* Jupyter Notebook >= 7.3.4\n* IPywidgets >= 7.7.0\n\n在某些情况下，您还需启用“widgetsnbextension”。因此，请运行：\n\n```\n> jupyter nbextension enable --py widgetsnbextension\n```\n\n在安装完上述两个软件包后，我使用 Anaconda 通过以下命令完成了上述操作：\n\n```\n> conda install -c conda-forge notebook\n> conda install -c conda-forge ipywidgets\n> jupyter nbextension enable --py widgetsnbextension\n```\n\n### 使用 Anaconda 自动构建环境\n\n您也可以通过 Anaconda 一次性下载并安装所有 Python 包。打开您的 Shell，将工作目录切换至您克隆仓库的路径，然后运行：\n\n```\n> conda env create -f environment.yml\n```\n\n这将创建一个名为 “talking-head-anime-3-demo”的环境，其中包含所有必需的 Python 包。\n\n### iFacialMocap\n\n如果您想使用 “ifacialmocap_puppeteer”，则还需要一款名为 [iFacialMocap](https:\u002F\u002Fwww.ifacialmocap.com\u002F) 的 iOS 软件（在 App Store 中购买价格为 980 日元）。本次无需下载配套的应用程序。您的 iOS 设备与您的电脑必须使用相同的网络，例如，您可以将它们连接到同一个无线路由器。\n\n## 下载模型\n\n在运行程序之前，您需要从以下 [Dropbox 链接](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fy7b8jl4n2euv8xe\u002Ftalking-head-anime-3-models.zip?dl=0) 下载模型文件，并将其解压至仓库根目录下的 `data\u002Fmodels` 文件夹中。最终，数据文件夹应如下所示：\n\n```\n+ data\n  + images\n    - crypko_00.png\n    - crypko_01.png\n        :\n    - crypko_07.png\n    - lambda_00.png\n    - lambda_01.png\n  + models\n    + separable_float\n      - editor.pt\n      - eyebrow_decomposer.pt\n      - eyebrow_morphing_combiner.pt\n      - face_morpher.pt\n      - two_algo_face_body_rotator.pt\n    + separable_half\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n    + standard_float\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n    + standard_half\n      - editor.pt\n          :\n      - two_algo_face_body_rotator.pt\n```\n\n这些模型文件采用 [知识共享署名 4.0 国际许可协议](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode) 进行分发，这意味着您可以将这些模型用于商业目的。不过，在进行分发时，您必须在其他条款中明确指出：我才是这些模型的创作者。\n\n## 运行 `manual_poser` 桌面应用程序\n\n打开一个终端窗口，将工作目录切换至仓库的根目录。然后，运行以下命令：\n\n```\n> python tha3\u002Fapp\u002Fmanual_poser.py\n```\n\n请注意，在执行上述命令之前，您可能需要先激活包含所需软件包的 Python 环境。如果您使用了如上文所述的 Anaconda 创建了环境，则需运行：\n\n```\n> conda activate talking-head-anime-3-demo\n```\n\n如果尚未激活该环境，请务必执行此操作。\n\n### 选择要使用的系统变体\n\n正如 [项目说明文档](http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Findex.html) 中所提到的，我开发了四种神经网络系统的变体，分别命名为“standard_float”、“separable_float”、“standard_half”和“separable_half”。这四种变体功能完全相同，但在大小、内存占用、速度以及精度等方面存在差异。您可以通过命令行选项 `--model` 来指定 `manual_poser` 程序应使用哪种变体。\n\n```\n> python tha3\u002Fapp\u002Fmanual_poser --model \u003Cvariant_name>\n```\n\n其中 `\u003Cvariant_name>` 必须是上述四种变体之一。若未指定变体，系统将默认使用“standard_float”变体（该变体体积最大、速度最慢且精度最高）。\n\n## 运行 `manual_poser` Jupyter Notebook\n\n打开一个终端窗口，激活所需的 Python 环境，并将工作目录切换至仓库的根目录。然后，运行以下命令：\n\n```\n> jupyter notebook\n```\n\n浏览器窗口将会打开。在浏览器中，打开 `manual_poser.ipynb` 文件。完成操作后，您会发现该文件包含两个单元格。请按顺序运行这两个单元格。随后，向下滚动至文档末尾，您便可在其中看到图形用户界面。\n\n您可以通过修改第一个单元格中的 `MODEL_NAME` 变量来选择要使用的系统变体。若已更改变量值，您需要重新运行这两个单元格，以便正确加载新变体并更新 GUI 以使用该变体。\n\n## 运行 `ifacialmocap_poser`\n\n首先，在您的 iOS 设备上运行 iFacialMocap。该应用会显示设备的 IP 地址，请将其记录下来，并保持应用处于开启状态。\n\n![iFacialMocap 屏幕中的 IP 地址](docs\u002Fifacialmocap_ip.jpg \"iFacialMocap 屏幕中的 IP 地址\")\n\n打开一个终端窗口，激活 Python 环境，并将工作目录切换至仓库的根目录。然后，运行以下命令：\n\n```\n> python tha3\u002Fapp\u002Fifacialmocap_puppeteer.py\n```\n\n您将看到一个标签为“Capture Device IP”的文本框。请在此处输入您先前记录下来的 iOS 设备 IP 地址。\n\n![在“Capture Device IP”文本框中输入您的 iOS 设备 IP 地址。](docs\u002Fifacialmocap_puppeteer_ip_address_box.png \"在“Capture Device IP”文本框中输入您的 iOS 设备 IP 地址。\")\n\n点击右侧的“START CAPTURE!”按钮。\n\n![点击“START CAPTURE!”按钮。](docs\u002Fifacialmocap_puppeteer_click_start_capture.png \"点击“START CAPTURE!”按钮。\")\n\n如果程序连接正常，当您移动头部时，窗口底部的数字会随之变化。\n\n![当您移动头部时，窗口底部的数字会随之变化。](docs\u002Fifacialmocap_puppeteer_numbers.png \"当您移动头部时，窗口底部的数字会随之变化。\")\n\n现在，您可以加载一张角色的图像，它将跟随您的面部动作进行动态调整。\n\n## 输入图像的限制条件\n\n为了确保系统能够良好运行，输入图像必须满足以下要求：\n\n* 图像分辨率应为 512 x 512。（如果演示程序接收任何其他尺寸的输入图像，它们会将图像缩放至此分辨率，并同样以该分辨率输出。）\n* 图像必须包含 Alpha 通道。\n* 图像中只能出现一个人形角色。\n* 角色应站立直立，面向前方。\n* 角色的手部应位于头部下方且远离头部。\n* 角色的头部应大致位于图像上半部分中间的 128 x 128 区域内。\n* 所有不属于角色的像素（即背景像素）的 Alpha 通道必须为 0。\n\n![符合上述标准的图像示例](docs\u002Finput_spec.png \"符合上述标准的图像示例\")\n\n有关输入图像的更多详细信息，请参阅项目的 [说明文档](http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Ffull.html#sec:problem-spec)。\n\n## 引用\n\n若您的学术研究受益于本仓库中的代码，请按照以下方式引用该项目的网页：\n\n> Pramook Khungurn. **《单张图像生成的“说话头”？动漫 3：现在连身体也来了》** http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002F，2022年。访问日期：YYYY-MM-DD。\n\n您也可以使用以下 BibTeX 条目：\n\n```\n@misc{Khungurn:2022,\n    author = {Pramook Khungurn},\n    title = {《单张图像生成的“说话头”？动漫 3：现在连身体也来了》},\n    howpublished = {\\url{http:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002F}},\n    year = 2022,\n    note = {访问日期：YYYY-MM-DD},\n}\n```\n\n## 免责声明\n\n尽管作者是 [Google 日本]（https:\u002F\u002Fcareers.google.com\u002Flocations\u002Ftokyo\u002F）的员工，但本软件并非 Google 的产品，也不受 Google 的支持。\n\n本软件的版权归我所有，因为我已通过 [IARC 流程](https:\u002F\u002Fopensource.google\u002Fdocumentation\u002Freference\u002Freleasing#iarc) 提出了该软件的申请。然而，Google 或许仍可能主张对这项发明的知识产权拥有权利。\n\n本代码采用 [MIT 许可证](https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-2-demo\u002Fblob\u002Fmaster\u002FLICENSE) 发布。模型则依据 [知识共享署名 4.0 国际许可协议](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode) 进行发布。有关图片的许可信息，请参阅 `data\u002Fimages` 目录下的 README.md 文件。","# talking-head-anime-3-demo 快速上手指南\n\n本项目允许用户仅通过单张动漫角色图片，即可生成包含面部表情、头部转动及身体呼吸动作的动画。提供两种演示模式：**手动控制器 (manual_poser)** 和 **面部捕捉驱动 (ifacialmocap_puppeteer)**。\n\n## 1. 环境准备\n\n### 硬件要求\n*   **GPU**: 需要高性能 NVIDIA 显卡（推荐 RTX 2080, RTX 3080 或更高版本）。\n*   **iOS 设备 (仅面部捕捉模式需要)**: 支持 iOS 11.0+ 且配备原深感摄像头 (TrueDepth) 的设备（如 iPhone X 及以上），用于运行 iFacialMocap 应用。\n\n### 软件依赖\n*   **操作系统**: Windows \u002F Linux \u002F macOS\n*   **Python**: >= 3.8 (**注意**: Windows 用户请勿使用 Python 3.10，因 wxPython 兼容性问题)\n*   **CUDA Toolkit**: 需与显卡驱动及 PyTorch 版本匹配\n*   **核心库**: PyTorch (>=1.11.0), SciPy, wxPython, Matplotlib\n*   **Jupyter 环境 (可选)**: 若使用 Notebook 模式，需安装 Jupyter Notebook 和 IPywidgets\n\n## 2. 安装步骤\n\n### 第一步：创建 Conda 环境\n推荐使用 Anaconda 或 Miniconda 管理环境。以下命令将创建名为 `talking-head-anime-3-demo` 的环境并安装基础依赖（已适配国内网络情况的通用安装命令）：\n\n```bash\nconda create -n talking-head-anime-3-demo python=3.8\nconda activate talking-head-anime-3-demo\n```\n\n### 第二步：安装 PyTorch 及其他依赖\n请根据官方指引选择适合你 CUDA 版本的安装命令。以下为基于 CUDA 11.3 的示例（国内用户若下载缓慢，可配置清华源或中科大源）：\n\n```bash\n# 安装 PyTorch (示例为 CUDA 11.3，请根据实际情况调整)\nconda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch\n\n# 安装其他必要库\nconda install scipy\npip install wxpython\nconda install matplotlib\n```\n\n> **提示**: 若需一键安装所有依赖，可在项目根目录运行：\n> ```bash\n> conda env create -f environment.yml\n> ```\n\n### 第三步：下载模型文件\n从 [Dropbox 链接](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fy7b8jl4n2euv8xe\u002Ftalking-head-anime-3-models.zip?dl=0) 下载模型压缩包，解压后将文件夹置于项目根目录的 `data\u002Fmodels` 下。\n\n最终目录结构应如下所示：\n```text\n+ data\n  + images\n    - crypko_00.png\n    ...\n  + models\n    + separable_float\n      - editor.pt\n      ...\n    + standard_float\n      - editor.pt\n      ...\n    (其他变体文件夹)\n```\n\n### 第四步：配置面部捕捉 (可选)\n若使用 `ifacialmocap_puppeteer` 功能：\n1. 在 iOS 设备上购买并安装 **iFacialMocap** App。\n2. 确保手机与电脑连接至**同一局域网**。\n3. 打开 App 并保持运行，记录显示的 IP 地址。\n\n## 3. 基本使用\n\n### 模式一：手动控制器 (Desktop GUI)\n通过图形界面手动调整角色的表情、头部角度和呼吸幅度。\n\n1. 激活环境：\n   ```bash\n   conda activate talking-head-anime-3-demo\n   ```\n2. 启动程序（默认使用精度最高但速度较慢的 `standard_float` 模型）：\n   ```bash\n   python tha3\u002Fapp\u002Fmanual_poser.py\n   ```\n3. **指定模型变体**（可选）：\n   若需提升速度，可选择其他变体（`separable_float`, `standard_half`, `separable_half`）：\n   ```bash\n   python tha3\u002Fapp\u002Fmanual_poser.py --model separable_half\n   ```\n\n### 模式二：Jupyter Notebook 交互\n偏好浏览器操作的用户可使用 Notebook 模式：\n\n1. 启动 Jupyter：\n   ```bash\n   jupyter notebook\n   ```\n2. 在浏览器中打开 `manual_poser.ipynb`。\n3. 依次运行单元格，界面底部将出现控制 GUI。\n4. 如需切换模型，修改第一个单元格中的 `MODEL_NAME` 变量并重新运行所有单元格。\n\n### 模式三：面部捕捉驱动 (需 iOS 设备)\n将真实面部动作实时映射到动漫角色上。\n\n1. 启动程序：\n   ```bash\n   python tha3\u002Fapp\u002Fifacialmocap_puppeteer.py\n   ```\n2. 在弹出的窗口中，于 \"Capture Device IP\" 输入框填入 iOS 设备的 IP 地址。\n3. 点击 **\"START CAPTURE!\"** 按钮。\n4. 观察窗口下方数值是否随头部移动而变化，确认连接成功后加载角色图片即可开始驱动。\n\n---\n\n### 输入图片规范\n为确保最佳效果，输入图片需满足以下条件：\n*   **分辨率**: 512 x 512 (非此尺寸会自动缩放)。\n*   **格式**: 必须包含 Alpha 通道 (透明背景)。\n*   **内容**: 仅包含一个正面站立的人形角色。\n*   **姿态**: 手部需位于头部下方且远离头部；头部应大致位于图像上半部分中央的 128x128 区域内。\n*   **背景**: 非角色像素的 Alpha 值必须为 0。","一位独立动画师需要为短视频项目快速制作多个动漫角色的口播片段，但手头只有角色的单张静态立绘且没有动作捕捉预算。\n\n### 没有 talking-head-anime-3-demo 时\n- **绘制成本极高**：为了让角色说话或转身，必须手动绘制几十张中间帧，耗时数天才能完成几秒的动画。\n- **动作僵硬不自然**：简单的位移或缩放无法模拟真实的呼吸起伏、头部转动和微表情变化，导致角色像“纸片人”。\n- **设备门槛限制**：若想实现精准的面部驱动，通常需要昂贵的专业动捕设备或复杂的多人协作流程，个人开发者难以承担。\n- **修改迭代困难**：一旦导演要求调整表情幅度或身体角度，几乎需要重新绘制整个序列，灵活度极低。\n\n### 使用 talking-head-anime-3-demo 后\n- **单图即可生成动画**：仅需导入一张角色立绘，通过 `manual_poser` 界面滑动滑块，即可实时控制面部表情、头部旋转及呼吸时的胸腔起伏。\n- **低成本高精度动捕**：利用 `ifacialmocap_puppeteer` 配合普通的 iPhone（X 及以上），就能将真人的面部动作实时迁移到动漫角色上，无需额外硬件投入。\n- **实时交互与预览**：在图形界面中可即时看到调整效果，支持精细调节身体旋转和表情参数，大幅缩短创作反馈周期。\n- **本地化高效运行**：在配备 RTX 系列显卡的电脑上即可流畅运行，保护素材隐私的同时保证了渲染速度。\n\ntalking-head-anime-3-demo 将原本需要专业团队数天完成的二维角色动画制作，简化为单人单图即可实时生成的低成本工作流。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpkhungurn_talking-head-anime-3-demo_4e66c7e9.png","pkhungurn","Pramook Khungurn","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpkhungurn_775a6f38.jpg","A software developer from Thailand, interested in computer graphics, machine learning, and algorithms.",null,"pramook@gmail.com","dragonmeteor","http:\u002F\u002Fpkhungurn.github.io","https:\u002F\u002Fgithub.com\u002Fpkhungurn",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",87.8,{"name":91,"color":92,"percentage":93},"Jupyter Notebook","#DA5B0B",12.2,1039,106,"2026-04-05T09:34:13","MIT",4,"Windows, Linux, macOS","必需 NVIDIA GPU。推荐 RTX 2080, RTX 3080, Titan RTX 或更高版本。需安装与显卡兼容的 CUDA Toolkit（示例命令使用 11.3，具体需根据 PyTorch 官网选择）。","未说明",{"notes":103,"python":104,"dependencies":105},"1. Windows 用户严禁使用 Python 3.10，因 wxPython 存在兼容性 bug。2. 若使用面部捕捉功能 (ifacialmocap_puppeteer)，需额外配备运行 iOS 11.0+ 且带有 TrueDepth 摄像头的 iPhone (如 iPhone X 及以上) 并购买 iFacialMocap App。3. 运行前需手动下载模型文件 (~talking-head-anime-3-models.zip) 并解压至 data\u002Fmodels 目录。4. 输入图像必须为 512x512 分辨率，包含 Alpha 通道，且人物需正面站立、手部远离头部。",">=3.8 (注意：Windows 环境下不能使用 Python 3.10)",[106,107,108,109,110,111],"torch>=1.11.0","scipy>=1.7.3","wxPython>=4.1.1","matplotlib>=3.5.1","jupyter-notebook>=7.3.4","ipywidgets>=7.7.0",[15,14,13],[114,115,116,117,118,119,120,121],"ai","computer-graphics","computer-vision","machine-learning","pytorch","vtuber","anime","python","2026-03-27T02:49:30.150509","2026-04-06T07:24:47.055264",[125,130,135,140,145,150,155,160],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},6526,"为什么使用普通图片时生成的动画效果很差或变成一团糟？","输入图片必须满足特定约束条件：\n1. 必须包含 Alpha 通道（即背景必须是透明的）。\n2. 角色必须是正脸朝向（front facing）。\n3. 建议将图片尺寸调整为 512x512。\n如果背景未去除或角度不对，模型无法正常工作。请参考项目 README 中的“输入图片约束”部分。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F13",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},6527,"该项目是否支持非 iPhone 设备（如 Android 或其他面部捕捉工具）？","答案是“既是也不是”：\n- 是：你可以修改代码以接受来自其他来源的姿态输入。已有用户成功将其修改为支持 MeowFace 等工具。\n- 否：本仓库官方仅支持 iFacialMocap，除非维护者有动力，否则不会添加对其他姿态源的原生支持。\n你需要自行修改代码来适配其他面部捕捉数据源。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F18",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},6528,"iOS 已成功连接但模型不随头部移动，如何解决？","这通常是由防火墙设置导致的。请检查电脑防火墙是否阻止了应用程序的网络通信权限，允许相关端口或程序通过防火墙后通常可解决问题。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F26",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},6529,"渲染管线使用的 Blendshapes 接口标准是什么？如何替换为自己的姿态数据？","1. 该项目不使用 Live2D 标准，而是使用 Apple ARKit 的 blendShapes API 产生的参数。\n2. 姿态数据格式参考：tha3\u002Fmocap\u002Fifacialmocap_v2.py。\n3. 若要替换为自己的数据，需调用 GeneralPoser02 类的 pose 方法。该类位于 tha3\u002Fposer\u002Fgeneral_poser_02.py，其 pose 方法接收图像、姿态向量（pose vector）和输出索引作为参数。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F14",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},6530,"未来会支持音频驱动的唇形同步动画吗？","不会。该演示项目旨在保持最小化，维护者明确表示不再添加新功能（包括音频驱动唇形同步）。不过，代码和模型均在宽松许可证下发布，用户可以自由修改代码以自行实现该功能。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F9",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},6531,"我可以将模型上传到 Hugging Face 等其他平台吗？","可以。代码采用 MIT 许可证，模型采用 Creative Commons Attribution 4.0 International (CC BY 4.0) 许可证。只要你遵守许可证要求（主要是注明出处\u002F归属），你可以自由分发、上传或修改模型。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F15",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},6532,"如何找到仓库的根目录以便解压模型文件？","仓库的根目录是指包含主要代码文件的主文件夹。你需要将下载的模型文件解压到根目录下的 data\u002Fmodels 文件夹中。通常在克隆仓库后，主文件夹即为根目录。","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F16",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},6533,"项目主页链接失效（Page not found），哪里可以找到存档版本？","原项目主页可能已下线，但可以通过互联网档案馆（Wayback Machine）访问存档版本。存档链接为：https:\u002F\u002Fweb.archive.org\u002Fweb\u002F20220606073558\u002Fhttps:\u002F\u002Fpkhungurn.github.io\u002Ftalking-head-anime-3\u002Findex.html","https:\u002F\u002Fgithub.com\u002Fpkhungurn\u002Ftalking-head-anime-3-demo\u002Fissues\u002F3",[]]