[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-YudongGuo--AD-NeRF":3,"tool-YudongGuo--AD-NeRF":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":78,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":29,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":107,"github_topics":78,"view_count":108,"oss_zip_url":78,"oss_zip_packed_at":78,"status":22,"created_at":109,"updated_at":110,"faqs":111,"releases":141},570,"YudongGuo\u002FAD-NeRF","AD-NeRF","This repository contains a PyTorch implementation of \"AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis\".","AD-NeRF 是一个基于神经辐射场技术的开源项目，专注于根据音频驱动生成逼真的说话人头部视频。它能够将一段包含声音的肖像视频转化为可驱动的三维模型，让静态人物“开口说话”。\n\n这项技术主要解决了传统数字人制作中口型与音频不同步、三维重建复杂以及缺乏真实感的问题。AD-NeRF 无需昂贵的动作捕捉设备，仅凭单视角视频数据即可学习人物的面部表情和身体姿态。\n\n项目适合计算机视觉研究人员、深度学习开发者以及希望探索虚拟形象生成的技术人员使用。虽然它对运行环境有一定要求，如安装 PyTorch3D 和 Basel Face Model，但提供了完整的训练和推理流程。\n\n其核心亮点在于创新地将头部和躯干分别构建为独立的 NeRF 模型，并结合 DeepSpeech 提取音频特征来精确驱动面部运动。这种设计不仅提升了渲染质量，还保证了唇形与语音的高度同步。作为 ICCV 2021 的录用论文成果，AD-NeRF 为语音驱动的数字人领域提供了强有力的参考实现。","# AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYudongGuo_AD-NeRF_readme_aa23305adcff.png)\n\nPyTorch implementation for the paper \"[AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis (ICCV 2021)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.11078)\".\u003Cbr\u002F>\nAuthors: [Yudong Guo](https:\u002F\u002Fyudongguo.github.io\u002F), [Keyu Chen](http:\u002F\u002Fkychern.github.io\u002F), [Sen Liang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Yv_olnAAAAAJ&hl), [Yong-Jin Liu](https:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fpeople\u002F~Yongjin\u002FYongjin.htm), [Hujun Bao](http:\u002F\u002Fwww.cad.zju.edu.cn\u002Fhome\u002Fbao\u002F) and [Juyong Zhang](http:\u002F\u002Fstaff.ustc.edu.cn\u002F~juyong\u002F).\n\n## Prerequisites\n- You can create an anaconda environment called adnerf with:\n    ```\n    conda env create -f environment.yml\n    conda activate adnerf\n    ```\n- [PyTorch3D](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d)\n\n    Recommend install from a local clone\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d.git\n    cd pytorch3d && pip install -e .\n    ```\n- [Basel Face Model 2009](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002Fmain.php?nav=1-1-0&id=details) \n\n    Put \"01_MorphableModel.mat\" to data_util\u002Fface_tracking\u002F3DMM\u002F; cd data_util\u002Fface_tracking; run\n    ```\n    python convert_BFM.py\n    ```\n## Train AD-NeRF\n- Data Preprocess ($id Obama for example)\n    ```\n    bash process_data.sh Obama\n    ```\n    - Input: A portrait video at 25fps containing voice audio. (dataset\u002Fvids\u002F$id.mp4)\n    - Output: folder dataset\u002F$id that contains all files for training\n\n- Train Two NeRFs (Head-NeRF and Torso-NeRF)\n    - Train Head-NeRF with command \n        ```\n        python NeRFs\u002FHeadNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FHeadNeRF_config.txt\n        ```\n    - Copy latest trainied model from dataset\u002F$id\u002Flogs\u002F$id_head to dataset\u002F$id\u002Flogs\u002F$id_com\n    - Train Torso-NeRF with command \n        ```\n        python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRF_config.txt\n        ```\n    - You may need the [pretrained models](https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Ftree\u002Fmaster\u002Fpretrained_models) to avoid bad initialization. [#3](https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F3)\n## Run AD-NeRF for rendering\n- Reconstruct original video with audio input\n    ```\n    python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=dataset\u002F$id\u002Faud.npy --test_size=300\n    ```\n- Drive the target person with another audio input\n    ```\n    python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=${deepspeechfile.npy} --test_size=-1\n    ```\n\n## Citation\n\nIf you find our work useful in your research, please consider citing our paper:\n\n```\n@inproceedings{guo2021adnerf,\n  title={AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis},\n  author={Yudong Guo and Keyu Chen and Sen Liang and Yongjin Liu and Hujun Bao and Juyong Zhang},\n  booktitle={IEEE\u002FCVF International Conference on Computer Vision (ICCV)},\n  year={2021}\n}\n```\n\nIf you have questions, feel free to contact \u003Cgyd2011@mail.ustc.edu.cn>.\n\n## Acknowledgments\nWe use [face-parsing.PyTorch](https:\u002F\u002Fgithub.com\u002Fzllrunning\u002Fface-parsing.PyTorch) for parsing head and torso maps, and [DeepSpeech](https:\u002F\u002Fgithub.com\u002Fmozilla\u002FDeepSpeech) for audio feature extraction. The NeRF model is implemented based on [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch).\n","# AD-NeRF：用于说话人合成的音频驱动神经辐射场 (Neural Radiance Fields)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYudongGuo_AD-NeRF_readme_aa23305adcff.png)\n\n论文 \"[AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis (ICCV 2021)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.11078)\" 的 PyTorch 实现。\u003Cbr\u002F>\n作者：[Yudong Guo](https:\u002F\u002Fyudongguo.github.io\u002F)、[Keyu Chen](http:\u002F\u002Fkychern.github.io\u002F)、[Sen Liang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Yv_olnAAAAAJ&hl)、[Yong-Jin Liu](https:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fpeople\u002F~Yongjin\u002FYongjin.htm)、[Hujun Bao](http:\u002F\u002Fwww.cad.zju.edu.cn\u002Fhome\u002Fbao\u002F) 和 [Juyong Zhang](http:\u002F\u002Fstaff.ustc.edu.cn\u002F~juyong\u002F)。\n\n## 前置条件\n- 您可以使用以下命令创建一个名为 adnerf 的 anaconda 环境：\n    ```\n    conda env create -f environment.yml\n    conda activate adnerf\n    ```\n- [PyTorch3D](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d)\n\n    建议从本地克隆安装\n    ```\n    git clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d.git\n    cd pytorch3d && pip install -e .\n    ```\n- [Basel Face Model 2009](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002Fmain.php?nav=1-1-0&id=details) \n\n    将 \"01_MorphableModel.mat\" 放入 data_util\u002Fface_tracking\u002F3DMM\u002F；进入 data_util\u002Fface_tracking 目录并运行\n    ```\n    python convert_BFM.py\n    ```\n## 训练 AD-NeRF\n- 数据预处理（以 $id = Obama 为例）\n    ```\n    bash process_data.sh Obama\n    ```\n    - 输入：包含语音音频的 25fps 人像视频。(dataset\u002Fvids\u002F$id.mp4)\n    - 输出：包含所有训练文件的文件夹 dataset\u002F$id\n\n- 训练两个 NeRF (Head-NeRF 和 Torso-NeRF)\n    - 使用以下命令训练 Head-NeRF \n        ```\n        python NeRFs\u002FHeadNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FHeadNeRF_config.txt\n        ```\n    - 将最新的训练模型从 dataset\u002F$id\u002Flogs\u002F$id_head 复制到 dataset\u002F$id\u002Flogs\u002F$id_com\n    - 使用以下命令训练 Torso-NeRF \n        ```\n        python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRF_config.txt\n        ```\n    - 您可能需要 [预训练模型](https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Ftree\u002Fmaster\u002Fpretrained_models) 以避免糟糕的初始化。[#3](https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F3)\n## 运行 AD-NeRF 进行渲染\n- 使用音频输入重建原始视频\n    ```\n    python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=dataset\u002F$id\u002Faud.npy --test_size=300\n    ```\n- 使用另一个音频输入驱动目标人物\n    ```\n    python NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=${deepspeechfile.npy} --test_size=-1\n    ```\n\n## 引用\n\n如果您的研究受益于我们的工作，请考虑引用我们的论文：\n\n```\n@inproceedings{guo2021adnerf,\n  title={AD-NeRF: Audio Driven Neural Radiance Fields for Talking Head Synthesis},\n  author={Yudong Guo and Keyu Chen and Sen Liang and Yongjin Liu and Hujun Bao and Juyong Zhang},\n  booktitle={IEEE\u002FCVF International Conference on Computer Vision (ICCV)},\n  year={2021}\n}\n```\n\n如果您有任何问题，欢迎联系 \u003Cgyd2011@mail.ustc.edu.cn>。\n\n## 致谢\n我们使用 [face-parsing.PyTorch](https:\u002F\u002Fgithub.com\u002Fzllrunning\u002Fface-parsing.PyTorch) 来解析头部和躯干图，并使用 [DeepSpeech](https:\u002F\u002Fgithub.com\u002Fmozilla\u002FDeepSpeech) 进行音频特征提取。NeRF 模型是基于 [NeRF-pytorch](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fnerf-pytorch) 实现的。","# AD-NeRF 快速上手指南\n\nAD-NeRF (Audio Driven Neural Radiance Fields) 是一个基于音频驱动的神经辐射场工具，用于生成说话人头像合成视频。以下是该工具的中文快速入门指南。\n\n## 环境准备\n\n本工具依赖以下环境和资源：\n- **Python 环境**：推荐使用 Anaconda 管理虚拟环境。\n- **深度学习框架**：PyTorch 及 PyTorch3D。\n- **人脸模型数据**：Basel Face Model 2009 (BFM)。\n\n## 安装步骤\n\n### 1. 创建并激活虚拟环境\n```bash\nconda env create -f environment.yml\nconda activate adnerf\n```\n\n### 2. 安装 PyTorch3D\n建议从本地克隆源码进行安装：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d.git\ncd pytorch3d && pip install -e .\n```\n\n### 3. 配置 Basel Face Model\n下载 [Basel Face Model 2009](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002Fmain.php?nav=1-1-0&id=details)，将 `01_MorphableModel.mat` 文件放入 `data_util\u002Fface_tracking\u002F3DMM\u002F` 目录下，然后运行转换脚本：\n```bash\ncd data_util\u002Fface_tracking\npython convert_BFM.py\n```\n\n## 基本使用\n\n假设目标人物 ID 为 `Obama`，请按照以下步骤操作。\n\n### 1. 数据预处理\n输入一个包含语音音频的肖像视频（25fps），例如 `dataset\u002Fvids\u002FObama.mp4`。\n```bash\nbash process_data.sh Obama\n```\n输出将保存在 `dataset\u002FObama` 文件夹中，包含所有训练所需文件。\n\n### 2. 模型训练\n首先训练头部 NeRF (Head-NeRF)：\n```bash\npython NeRFs\u002FHeadNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FHeadNeRF_config.txt\n```\n将最新的训练模型从 `dataset\u002F$id\u002Flogs\u002F$id_head` 复制到 `dataset\u002F$id\u002Flogs\u002F$id_com`。\n\n接着训练躯干 NeRF (Torso-NeRF)：\n```bash\npython NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRF_config.txt\n```\n*提示：为避免初始化不佳，建议使用官方提供的 [预训练模型](https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Ftree\u002Fmaster\u002Fpretrained_models)。*\n\n### 3. 视频渲染\n**还原原始视频**（使用原始音频）：\n```bash\npython NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=dataset\u002F$id\u002Faud.npy --test_size=300\n```\n\n**驱动目标人物**（使用新的音频输入）：\n```bash\npython NeRFs\u002FTorsoNeRF\u002Frun_nerf.py --config dataset\u002F$id\u002FTorsoNeRFTest_config.txt --aud_file=${deepspeechfile.npy} --test_size=-1\n```","某在线教育团队需要为历史课程视频添加多语言配音，以便面向全球学员推广，但讲师已无法配合拍摄。\n\n### 没有 AD-NeRF 时\n- 传统绿幕重拍成本高昂，且无法完美还原讲师原有的微表情、光影细节及背景环境。\n- 现有 2D 对口型软件生成的唇形僵硬，与头部自然运动不匹配，观众容易感到违和。\n- 若讲师无法到场，修改课程内容意味着必须放弃原有高质量素材，造成巨大的资源浪费。\n- 后期合成流程复杂耗时，难以满足紧急上线的发布需求，严重影响项目进度。\n\n### 使用 AD-NeRF 后\n- AD-NeRF 基于原始视频训练神经辐射场，无需重拍即可根据新音频生成对应的口型和动作。\n- 音频驱动下，面部肌肉运动和头部姿态变化更加流畅自然，保持了人物的真实感。\n- 模型保留了原视频的光照环境和背景纹理，视觉一致性极高，几乎看不出合成痕迹。\n- 只需输入新的语音特征文件即可自动渲染，大幅缩短多语言版本的制作周期，效率提升显著。\n\nAD-NeRF 通过音频驱动实现了高保真的虚拟人说话效果，让旧视频在无需重拍的情况下焕发新生。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYudongGuo_AD-NeRF_74f1f8d6.png","YudongGuo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYudongGuo_ac1aa7e6.png",null,"USTC","Hefei, Anhui, China","gyd2011@mail.ustc.edu.cn","https:\u002F\u002Fyudongguo.github.io\u002F","https:\u002F\u002Fgithub.com\u002FYudongGuo",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",99.8,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.2,1071,181,"2026-03-30T07:09:25","MIT","未说明",{"notes":99,"python":97,"dependencies":100},"需使用 conda 创建环境并加载 environment.yml；需手动克隆并本地安装 PyTorch3D；需下载 Basel Face Model 2009 模型文件并运行转换脚本；训练前需对输入视频进行数据预处理；建议使用预训练模型以避免初始化问题。",[101,102,103,104,105,106],"PyTorch","PyTorch3D","face-parsing.PyTorch","DeepSpeech","NeRF-pytorch","numpy",[15,18],18,"2026-03-27T02:49:30.150509","2026-04-06T08:40:47.079081",[112,117,122,127,131,136],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},2325,"训练 TorsoNeRF 时渲染结果中身体缺失或出现悬浮头怎么办？","这通常是由于跟踪参数不一致导致的闪烁或学习问题。如果生成的视频在头和身体之间有闪烁，请尝试使用当前的跟踪参数对模型进行微调（finetune）。确保使用了正确的预训练模型权重和跟踪设置。","https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F3",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},2326,"RTX3090 显卡安装 pytorch3d 时 nvidiacub 报错无法调用如何解决？","可以通过 conda 安装依赖来解决。请在 conda 环境中执行以下命令：conda install -c bottler nvidiacub。安装完成后，再从本地克隆构建 pytorch3d。","https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F4",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},2327,"提取的 DeepSpeech 特征文件 aud.npy 与官方提供的示例不一致是什么原因？","这可能是因为训练初始化方式不同。当前版本代码默认设置为随机初始化训练，而官方示例可能使用了预训练结果。请检查代码版本及初始化设置，确认是否修改了默认配置。","https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F32",{"id":128,"question_zh":129,"answer_zh":130,"source_url":126},2328,"训练 Body 过程中出现头和身体分离的情况，增加迭代次数会消失吗？","可以尝试调整学习率并重新训练。根据经验，Head 迭代 300000 次，Body 迭代 600000 次后，使用更新后的预训练模型测试，头身连接处没有明显分离现象。建议验证效果或使用官方更新的模型。",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},2329,"加载 Torso 预训练模型时报错缺少 network_audattnet_state_dict 怎么办？","请将训练好的 Head 模型和预训练的 Torso 模型放入 Torso 的 checkpoint 文件夹（默认为 dataset\u002F$id\u002Flogs\u002F$id_com）。同时需要手动将代码第 789 行的 'global_step' 调整为 0。代码会自动搜索包含特定子串 ('head' 或 'torso') 的文件。","https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F30",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},2330,"运行 process_data.py 第 6 步报错找不到 3DMM_info.npy 文件？","需要下载 Basel Face Model 2009 版本的数据包。注意数据文件的扩展名是 tgz，需要解压后才能找到相关的 .mat 文件或配置文件。","https:\u002F\u002Fgithub.com\u002FYudongGuo\u002FAD-NeRF\u002Fissues\u002F28",[]]