[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mks0601--ExAvatar_RELEASE":3,"tool-mks0601--ExAvatar_RELEASE":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":102,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":103,"updated_at":104,"faqs":105,"releases":136},3609,"mks0601\u002FExAvatar_RELEASE","ExAvatar_RELEASE","Official PyTorch implementation of \"Expressive Whole-Body 3D Gaussian Avatar\", ECCV 2024.","ExAvatar_RELEASE 是一款基于 PyTorch 的开源项目，旨在构建高表现力的全身 3D 高斯虚拟人。它巧妙融合了 SMPL-X 模型对全身（包括身体、双手和面部）的精准驱动能力，以及 3D 高斯泼溅（3DGS）技术强大的外观建模优势，能够仅凭手机拍摄的单目视频，重建出细节丰富且可动态驱动的逼真数字人形象。\n\n该工具主要解决了传统方法在生成高质量虚拟人时，往往难以兼顾精细的面部表情、灵活的手部动作与真实皮肤质感的问题。通过这一方案，用户无需昂贵的专业扫描设备，即可从普通视频中提取并动画化个人化身，大幅降低了高保真数字人制作的门槛。\n\nExAvatar_RELEASE 特别适合计算机视觉研究人员、图形学开发者以及数字内容创作者使用。对于希望探索前沿神经渲染技术或需要快速原型验证的团队，该项目提供了完全基于公开资产的复现代码，避免了内部模块依赖，便于学术研究与二次开发。其核心技术亮点在于将参数化人体模型的拓扑控制力与非结构化高斯点的渲染质量完美结合，实现了在复杂姿态下依然保持极高真实感的实时渲染效果。","# Expressive Whole-Body 3D Gaussian Avatar (ECCV 2024)\r\n\r\n## [Project Page](https:\u002F\u002Fmks0601.github.io\u002FExAvatar) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.21686) | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=GzXlAK-sBKY) \r\n\r\n\r\n* This is an reimplmentation of **[Expressive Whole-Body 3D Gaussian Avatar](https:\u002F\u002Fmks0601.github.io\u002FExAvatar\u002F) (ECCV 2024)** by the [first author](https:\u002F\u002Fmks0601.github.io\u002F) after leaving Meta. All the code use public assets without any Meta's internal-only modules. All the results in the camera-ready version and demo videos in the website are from this reimplmented code.\r\n* ExAvatar is designed as a combination of 1) whole-body (body, hands, and face) drivability of [SMPL-X](https:\u002F\u002Fsmpl-x.is.tue.mpg.de\u002F) and 2) strong appearance modeling capability of [3DGS](https:\u002F\u002Frepo-sam.inria.fr\u002Ffungraph\u002F3d-gaussian-splatting\u002F).\r\n\r\n\u003Cp align=\"middle\">\r\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmks0601_ExAvatar_RELEASE_readme_a4cc60b4d917.gif\" width=\"960\" height=\"400\">\r\n\u003C\u002Fp>\r\n\u003Cp align=\"center\">\r\nYes, it's me, Gyeongsik in the video :), taken in front of my apartment with my mobile phone.\r\nFor more high-resolution demo videos, please visit our \u003CA href=\"https:\u002F\u002Fmks0601.github.io\u002FExAvatar\">website\u003C\u002FA>.\r\n\u003C\u002Fp>\r\n\r\n## Install\r\n```\r\nconda env create -f environment.yml\r\nconda activate exavatar\r\n```\r\n\r\n## Creating and animating avatars from a phone scan\r\n1. To create an avatar, you first need to fit SMPL-X to a video with a single person. Go to [here](.\u002Ffitting\u002F).\r\n2. Then, go to [here](.\u002Favatar) to create and animate the avatar.\r\n\r\n## Creating and animating avatars from [X-Humans dataset](https:\u002F\u002Fskype-line.github.io\u002Fprojects\u002FX-Avatar\u002F)\r\n* Go to [here](https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Ftree\u002FX-Humans)\r\n\r\n## Reference\r\n```\r\n@inproceedings{moon2024exavatar,\r\n  title={Expressive Whole-Body 3D Gaussian Avatar},\r\n  author = {Moon, Gyeongsik and Shiratori, Takaaki and Saito, Shunsuke},  \r\n  booktitle={ECCV},\r\n  year={2024}\r\n}\r\n\r\n```\r\n","# 富有表现力的全身3D高斯化身（ECCV 2024）\n\n## [项目页面](https:\u002F\u002Fmks0601.github.io\u002FExAvatar) | [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.21686) | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=GzXlAK-sBKY) \n\n\n* 这是[第一作者](https:\u002F\u002Fmks0601.github.io\u002F)离开Meta后对**[富有表现力的全身3D高斯化身](https:\u002F\u002Fmks0601.github.io\u002FExAvatar\u002F)（ECCV 2024）**的重新实现。所有代码均使用公开资源，未使用任何Meta内部专用模块。最终定稿版本中的结果以及网站上的演示视频均来自此次重写后的代码。\n* ExAvatar的设计理念是将1) [SMPL-X](https:\u002F\u002Fsmpl-x.is.tue.mpg.de\u002F) 的全身（包括身体、双手和面部）驱动能力，与2) [3DGS](https:\u002F\u002Frepo-sam.inria.fr\u002Ffungraph\u002F3d-gaussian-splatting\u002F) 强大的外观建模能力相结合。\n\n\u003Cp align=\"middle\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmks0601_ExAvatar_RELEASE_readme_a4cc60b4d917.gif\" width=\"960\" height=\"400\">\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n是的，视频里就是我，Gyeongsik :)，就在我家公寓门口用手机拍摄的。\n如需更多高分辨率的演示视频，请访问我们的\u003CA href=\"https:\u002F\u002Fmks0601.github.io\u002FExAvatar\">网站\u003C\u002FA>。\n\u003C\u002Fp>\n\n## 安装\n```bash\nconda env create -f environment.yml\nconda activate exavatar\n```\n\n## 从手机扫描数据创建并动画化化身\n1. 要创建一个化身，首先需要将SMPL-X拟合到一段单人视频中。请前往[这里](.\u002Ffitting\u002F)。\n2. 然后，前往[这里](.\u002Favatar)，以创建并动画化该化身。\n\n## 从[X-Humans数据集](https:\u002F\u002Fskype-line.github.io\u002Fprojects\u002FX-Avatar\u002F)创建并动画化化身\n* 请前往[这里](https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Ftree\u002FX-Humans)\n\n## 参考文献\n```bibtex\n@inproceedings{moon2024exavatar,\n  title={Expressive Whole-Body 3D Gaussian Avatar},\n  author = {Moon, Gyeongsik and Shiratori, Takaaki and Saito, Shunsuke},  \n  booktitle={ECCV},\n  year={2024}\n}\n```","# ExAvatar 快速上手指南\n\nExAvatar (Expressive Whole-Body 3D Gaussian Avatar) 是一个结合了 SMPL-X 全身驱动能力与 3DGS 强外观建模能力的开源项目，能够生成包含身体、手部和面部细节的高保真 3D 高斯化身。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04\u002F22.04)\n*   **硬件**: NVIDIA GPU (支持 CUDA)，建议显存 16GB 以上以获得最佳训练\u002F渲染效果\n*   **软件依赖**:\n    *   Python 3.8+\n    *   Conda (推荐使用 Miniconda 或 Anaconda)\n    *   CUDA Toolkit (版本需与 PyTorch 匹配，通常建议 11.7 或 11.8)\n    *   GCC\u002FG++ 编译器\n\n> **提示**：国内用户建议在配置 Conda 时使用清华源或中科大源以加速下载：\n> ```bash\n> conda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\n> conda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Ffree\n> ```\n\n## 安装步骤\n\n本项目通过 Conda 环境进行管理，请按以下步骤完成安装：\n\n1.  **克隆仓库** (如果尚未下载)：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE.git\n    cd ExAvatar_RELEASE\n    ```\n\n2.  **创建并激活虚拟环境**：\n    使用项目提供的 `environment.yml` 文件自动安装所有依赖。\n    ```bash\n    conda env create -f environment.yml\n    conda activate exavatar\n    ```\n\n    > **注意**：如果 `environment.yml` 下载缓慢，可手动编辑该文件将 `pip` 源替换为国内镜像，或在创建环境后单独使用 `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>` 安装缺失包。\n\n## 基本使用\n\nExAvatar 的核心工作流分为两个阶段：**SMPL-X 拟合** 和 **化身创建\u002F动画**。以下是基于手机拍摄视频的最简使用流程。\n\n### 第一步：准备数据与拟合 SMPL-X\n\n要创建化身，首先需要从单人视频中拟合 SMPL-X 模型参数。\n\n1.  准备一段包含单人的视频文件（建议使用手机拍摄，光线充足，覆盖全身及手部动作）。\n2.  进入拟合目录并执行相关脚本（具体命令请参考 `.\u002Ffitting\u002F` 目录下的说明）：\n    ```bash\n    cd fitting\n    # 在此目录下运行拟合脚本，例如：\n    # python fit_smplx.py --video_path \u003Cyour_video.mp4>\n    ```\n    *运行完成后，将生成包含姿态和形状参数的文件，供下一步使用。*\n\n### 第二步：创建并驱动化身\n\n利用上一步生成的参数，结合 3D 高斯溅射技术构建可驱动的 3D 化身。\n\n1.  返回项目根目录并进入 `avatar` 模块：\n    ```bash\n    cd ..\u002Favatar\n    ```\n2.  执行训练与动画生成命令（具体参数需根据上一步输出的文件路径调整）：\n    ```bash\n    # 示例命令，具体参数请参阅 avatar 目录下的 README 或脚本帮助\n    python train.py --data_path \u003Cpath_to_fitted_smplx> --output_dir \u003Cresult_folder>\n    ```\n3.  训练完成后，可在输出目录查看生成的 3D 高斯模型及渲染视频。\n\n---\n*更多高级用法（如使用 X-Humans 数据集）请访问项目官方仓库的 [X-Humans 分支](https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Ftree\u002FX-Humans)。*","一位独立游戏开发者希望仅用手机拍摄的一段自拍视频，快速构建出能用于实时互动的高保真 3D 数字人角色。\n\n### 没有 ExAvatar_RELEASE 时\n- **细节丢失严重**：传统建模方法难以同时兼顾身体、手部和面部的精细度，导致角色在做表情或手势时显得僵硬失真。\n- **流程繁琐昂贵**：通常需要专业动捕设备或多机位扫描才能获取高质量数据，个人开发者无法承担高昂的时间与金钱成本。\n- **驱动能力受限**：现有的 3D 高斯溅射方案往往缺乏对 SMPL-X 全身参数的完整支持，难以实现自然的全身联动动画。\n- **渲染效率低下**：为了追求画质不得不牺牲帧率，无法满足游戏或 VR 应用中对实时渲染的严苛要求。\n\n### 使用 ExAvatar_RELEASE 后\n- **全身 expressive 还原**：ExAvatar_RELEASE 完美结合了 SMPL-X 的全身驱动能力与 3DGS 的外观表现力，连手指关节和微表情都清晰可见。\n- **单目视频即可启动**：开发者只需上传一段手机拍摄的单人视频，工具便能自动拟合参数并生成资产，极大降低了制作门槛。\n- **天然兼容动画管线**：生成的模型直接支持标准的全身骨骼驱动，让角色能瞬间“活”起来，无缝接入现有的动画系统。\n- **高清实时渲染**：在保持照片级真实感的同时，依然维持高帧率运行，让移动端或 Web 端的实时交互成为可能。\n\nExAvatar_RELEASE 让个人开发者也能以极低成本，将日常视频瞬间转化为具备电影级细节且可实时驱动的 3D 数字资产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmks0601_ExAvatar_RELEASE_e14ddafb.png","mks0601","Gyeongsik Moon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmks0601_51e86422.jpg",null,"mks0601@gmail.com","https:\u002F\u002Fmks0601.github.io","https:\u002F\u002Fgithub.com\u002Fmks0601",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,648,68,"2026-03-30T08:10:17","MIT",4,"未说明","未说明（基于 3D Gaussian Splatting 技术，通常隐含需要 NVIDIA GPU 及 CUDA 支持）",{"notes":96,"python":97,"dependencies":98},"1. 该项目是 ECCV 2024 论文的重实现版本，不使用 Meta 内部模块。\n2. 必须使用 conda 创建环境（参考 environment.yml 文件）。\n3. 核心流程分为两步：首先将 SMPL-X 拟合到单人视频，然后创建并驱动全身（身体、手、脸）3D 高斯化身。\n4. 具体依赖库版本需查看项目根目录下的 environment.yml 文件，README 中未直接列出。","未说明（需通过 conda 环境安装）",[99,100,101],"conda","SMPL-X","3D Gaussian Splatting (3DGS)",[18],"2026-03-27T02:49:30.150509","2026-04-06T07:12:40.783933",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},16537,"运行 run.py 时遇到 'stack expects a non-empty TensorList' 或 DECA 相关错误怎么办？","这通常是因为预处理的文件冲突或缺失导致的。请尝试以下步骤：\n1. 删除所有预处理文件，包括 flame_params 文件夹。\n2. 确保在运行 run.py 之前，先按照说明运行了 copy_code.py。\n3. 如果是 PyTorch3D 问题，可能需要从源码构建（build from source）。\n4. 检查是否缺少 DECA 的预训练模型文件（如 deca_model.tar），如果缺失需手动下载到 .\u002Ftools\u002FDECA\u002Fdata\u002F 目录。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F48",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},16538,"使用自定义相机参数渲染时，修改相机参数对输出没有效果怎么办？","这是因为代码中的 forward 函数默认假设 SMPL-X 参数是在相机坐标系下的。如果你使用的是世界坐标系下的 SMPL-X 参数，需要在调用时将 is_world_coord 设置为 True，并传入你的外参（extrinsics）。\n具体代码位置参考：\n- avatar\u002Fcommon\u002Fnets\u002Fmodule.py 第 516 行\n- avatar\u002Fmain\u002Fanimate.py 第 65 行\n如果不设置该标志，相机到世界再回到相机的变换会相互抵消，导致你的自定义参数无效。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F82",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},16539,"DECA 处理后的面部 UV 贴图出现黑额头或渲染结果异常的原因是什么？","这种情况通常由以下原因引起：\n1. 多次运行 run.py 而未清除原始数据，导致覆盖失败。解决方法是清理旧数据后重新运行。\n2. DECA 运行时缺少正确的模型文件或配置。请检查 data\u002FCustom\u002Fdata\u002F$SUBJECT_ID\u002Fflame_init\u002Frenders 目录下的渲染结果，以及 face_texture_mask.png 文件。\n3. 确认是否按照说明正确运行了 COLMAP 步骤（如果数据集需要）。\n正常的 face_texture.png 背景应为黑色，如果是灰色则表明处理有误。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F41",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},16540,"smplx_optimized_smoothed 模型在侧面视角下面部发生扭曲如何解决？","面部拟合不理想通常是因为缺少 DECA 的预训练权重文件，而代码在缺失时不会报错。请手动下载以下两个文件并放置到 .\u002Ftools\u002FDECA\u002Fdata\u002F 目录下：\n1. deca_model.tar\n2. FLAME_albedo_from_BFM.npz\n补充这些文件后，重新运行拟合过程通常能解决面部扭曲问题。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F13",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},16541,"在 NeuMan 数据集上训练效果很差或加载了错误的数据怎么办？","如果在 NeuMan 数据集上结果不佳，通常是数据索引（data index）问题或加载了错误的相机\u002FSMPLX 参数。\n建议解决方案：\n1. 重新创建数据集（recreate dataset），很多用户反馈重建后解决了索引问题。\n2. 确保使用的是全新克隆的代码库，未做任何修改。\n3. 检查 dataloader 是否加载了错误的相机参数或 SMPLX 参数。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F26",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},16542,"如何为 NeuMan 数据集获取正确的相机参数（cam_param）以渲染 SMPLX 网格？","NeuMan 数据集和 Gyeongsik 数据集生成相机参数的方式不同。提供的预处理数据中可能不包含 cam_param。\n虽然可以使用 make_virtual_cam_params.py 脚本生成虚拟相机参数，但该脚本生成的参数可能不适用于 NeuMan 数据集的直接渲染（导致渲染结果错误）。\n建议检查数据集特定的相机标定文件，或者参考项目中针对 NeuMan 数据集的特殊处理流程，不要直接套用适用于其他数据集的虚拟相机生成脚本。","https:\u002F\u002Fgithub.com\u002Fmks0601\u002FExAvatar_RELEASE\u002Fissues\u002F4",[]]