Motion-X

GitHub
847 25 困难 1 次阅读 昨天NOASSERTION其他
AI 解读 由 AI 自动生成,仅供参考

Motion-X 是一个大规模、高表现力的 3D 全身人体运动数据集,旨在为数字人动画、动作生成及多模态研究提供高质量数据基础。它有效解决了现有数据集中普遍存在的动作僵硬、缺乏手部与面部细节表达,以及视频、文本、音频等多模态信息对齐困难的问题。

该数据集特别适合人工智能研究人员、计算机视觉开发者以及从事虚拟角色制作的设计师使用。无论是训练更自然的动作生成模型,还是开发具备精细肢体语言的虚拟主播,Motion-X 都能提供强有力的支持。其最新升级版 Motion-X++ 进一步扩展了数据维度,不仅增加了视频、2D 关键点、SMPL-X 参数、文本描述及音频等多种配对模态,还引入了人工场景检测以确保时间一致性,并利用大模型优化了语义标注质量。此外,项目直接提供便于生成的 TOMATO 格式数据,大幅降低了数据处理门槛。作为 NeurIPS 2023 的官方成果,Motion-X 凭借丰富的数据规模和精细的标注体系,正成为推动 3D 人体运动理解与生成领域发展的重要基础设施。

使用场景

某游戏工作室的动作捕捉团队正致力于为一款开放世界 RPG 打造具备细腻微表情和自然肢体语言的 NPC 角色库。

没有 Motion-X 时

  • 数据维度单一:传统数据集多仅包含身体骨架,缺乏手部精细动作与面部表情数据,导致角色在对话时出现“僵尸手”或面部僵硬的现象。
  • 采集成本高昂:为了获取高质量的全身 expressive 动作,团队需租赁专业动捕棚并聘请演员逐条录制,耗时数月且预算严重超支。
  • 语义对齐困难:现有的动作片段缺乏精准的自然语言描述,训练生成的 AI 模型难以理解“愤怒地挥手”与“兴奋地跳跃”之间的细微语义差别。
  • 多模态缺失:缺乏与动作同步的视频、音频及 2D 关键点数据,限制了团队利用多模态技术进行跨域迁移学习或视频驱动动画的探索。

使用 Motion-X 后

  • 全身细节丰富:直接调用 Motion-X 中大规模的 SMPL-X 格式数据,NPC 瞬间拥有了逼真的手指抓握、眼神流转及口型变化,表现力大幅提升。
  • 研发周期缩短:利用其预清洗的高质量标注数据,团队省去了数月的数据采集与清洗环节,将原型开发周期从季度级压缩至周级。
  • 生成控制精准:借助数据集内由 GPT4V 增强的细粒度文本描述,训练出的动作生成模型能精准响应复杂指令,实现“说话时伴随特定手势”的自然交互。
  • 多模态联动增强:基于其配对的视频、音频及 2D/3D 姿态数据,团队成功构建了视频驱动动画管线,仅需一段参考视频即可还原出高保真的 3D 全身运动。

Motion-X 通过提供大规模、多模态且富含语义的全身动作数据,彻底解决了高保真数字人制作中数据稀缺与成本高昂的核心瓶颈。

运行环境要求

GPU

未说明

内存

未说明

依赖
notesREADME 主要介绍数据集内容、规模及下载方式,未提供代码运行的具体环境配置(如操作系统、GPU、Python 版本或依赖库)。用户需参考文中提到的数据处理文档或相关论文获取进一步的技术细节。
python未说明
Motion-X hero image

快速开始

Motion-X:大规模3D富有表现力的全身人体运动数据集

本仓库包含以下论文的实现:

Motion-X++:大规模多模态3D全身人体运动数据集
张宇宏😎12, 林静😎12, 曾爱玲😎2, 吴冠霖😎23, 陆顺林😎24, 傅宇荣2, 蔡元昊3, 张瑞茂4, 王浩谦🤗1, 张磊🤗2
😎同等贡献。 🤗通讯作者。

1清华大学 2国际数字经济研究院 3约翰斯·霍普金斯大学 4香港中文大学深圳分校

Motion-X:大规模3D富有表现力的全身人体运动数据集
林静😎12, 曾爱玲😎🤗1, 陆顺林😎13, 蔡元昊2, 张瑞茂3, 王浩谦2, 张磊1
😎同等贡献。 🤗通讯作者。

1国际数字经济研究院 2清华大学 3香港中文大学深圳分校

🥳 新闻

  • [2025.03.01] 我们对Motion-X++的数据进行了重新整理和修复,并在Huggingface上发布了新数据,包括不同模态之间的一致性问题,以及直接添加了TOMATO格式的生成运动。
  • [2024.09.01] 我们发现Motion-X++的新标注存在一些问题,目前正在解决中。我们已通过之前发送的链接添加了原始的Motion-X版本。
  • [2024.4.25] 我们正在开发Motion-X的新版本,名为Motion-X++。其更新内容如下:i) 更多的配对模态,包括视频、全身2D关键点、局部和全局的全身SMPL-X模型、文本以及音频(如果视频中包含);ii) 更高的质量,例如针对时间一致性的视频片段进行手动场景检测、更稳定的运动标注,以及通过GPT4V改进的语义视频字幕和通过Vicuna提供的全身姿态描述。我们已经发布了IDEA400子集,并将在同一目录下发布其他子集。有关数据预处理和加载的详细说明,请参阅此文档
  • [2024.2.6] 我们发布了自行录制的IDEA400视频及其对应的SMPL-X模型,以支持(a)全身局部或全局姿态估计,以及(2)基于运动条件的视频生成。请查收邮件。
  • [2024.1.9] 我们更新了每个全身姿态的帧级文本描述。请从这里下载,并参考此使用指南这里
  • [2023.12.22] 我们更新了由Vicuna 1.5增强的序列化运动文本描述(text_v1.1),以提升文本的标准化和多样性。请通过此链接下载,并将其替换为原始文件motionx_seq_text.zip。非常感谢Linghao Chen对文本标签的润色!
  • [2023.11.15] 我们在DDS平台上发布了所有子集的渲染SMPL-X可视化效果,方便快速浏览内容。
  • [2023.11.15] 我们发布了HumanTOMATO运动表示法(tomato表示法)及拆分文件。
  • [2023.10.26] 我们发布了Motion-X-V1,其中提供了与SMPL-X序列、面部表情动作相对应的语义文本标签,以及用于补充无面部表情动作的相应文本。请查收您的邮件!
  • [2023.10.26] 我们发布了高质量的单目数据集IDEA400,作为Motion-X的一个子集,其中包含了丰富的表情和手势。更多详情请观看此视频

📜 待办事项

  • 发布全身姿态描述。
  • 收集更多运动数据集(例如音乐到舞蹈、音频到手势的运动)。
  • 在获得视频所有者同意后发布视频。
  • 如果需要,发布音频和音乐。

敬请关注!

🥳 精选运动样本

📊 目录

  1. 总体介绍
  2. 数据集下载
  3. 实验
  4. 引用

📜 总体描述

我们提出了一套高精度且高效的全身动作及其对应文本标签的标注流水线。基于此,我们从海量在线视频和八个现有的动作数据集中构建了一个大规模的3D富有表现力的全身人体动作数据集。我们将这些数据统一为相同的格式,提供全身动作(即SMPL-X)及相应的文本标签。

Motion-X中的标签:

  • 动作标签:包括1560万个全身姿态和8.11万段动作片段的标注,以SMPL-X参数表示。所有动作均已统一为30 fps。
  • 文本标签:(1) 1560万帧级别的全身姿态描述,以及(2) 8.11万序列级别的语义标签。
  • 其他模态:RGB视频、音频和音乐信息。

支持的任务:

  • 文本驱动的3D全身人体动作生成
  • 3D全身人体网格恢复
  • 其他:动作预训练、用于动作理解和生成的多模态预训练模型等。
数据集 片段数量 帧数 官网 许可协议 下载链接
AMASS 2.6万 540万 AMASS
官网
AMASS
许可协议
AMASS数据
EgoBody 1千 40万 EgoBody
官网
EgoBody
许可协议
EgoBody数据
GRAB 1.3千 40万 GRAB
官网
GRAB
许可协议
GRAB数据
IDEA400 1.25万 260万 IDEA400
官网
IDEA400许可协议 IDEA400数据
AIST++ 1.4千 30万 AIST++
官网
AIST++
许可协议
AIST++数据
HAA500 5.2千 30万 HAA500
官网
HAA500
许可协议
HAA500数据
HuMMan 700 10万 HuMMan
官网
HuMMan
许可协议
HuMMan数据
BAUM 1.4千 20万 BAUM
官网
BAUM
许可协议
BAUM数据
在线视频 3.25万 600万 --- --- 在线数据
Motion-X(我们) 8.11万 1560万 Motion-X官网 Motion-X许可协议 Motion-X数据

📥 数据集下载

我们以与原始数据来源一致的方式发布Motion-X。以下是说明:

1. 申请授权

请填写此表单,以申请使用 Motion-X 进行非商业用途的授权。提交后您将收到一封邮件,请根据提供的下载链接下载动作和文本标签。姿态文本可从这里下载。请从下载的 motionx_pose_text.zip 文件中解压出 body_texts 文件夹和 hand_texts 文件夹。(注意:我们已于2023年10月29日更新了 motionx_seq_face_text.zip 和 motionx_face_motion.zip 的百度网盘链接。因此,如果您在10月29日之前通过百度网盘下载了这些压缩包,请重新填写此表单并再次下载。)

请按照以下目录结构整理文件:
../datasets  

├──  motion_data
  ├── smplx_322
    ├── idea400
    ├── ...
├──  face_motion_data
  ├── smplx_322
    ├── humanml
    ├── EgoBody
    ├── GRAB
├── texts
  ├──  semantic_labels
    ├── idea400
    ├── ...
  ├──  face_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...
  ├──  body_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...
  ├──  hand_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...

2. 非动捕子集

关于非动捕子集,请参阅此链接获取详细说明,特别注意:

  • 我们不提供原始RGB视频,仅提供由我们团队标注的动作和文本标签。
  • 出于许可和质量考虑,我们未包含 NTU-RGBD120 数据集。取而代之的是 IDEA400 数据集,其中包含了400个日常动作(覆盖 NTU-RGBD120)。有关详细介绍,请观看此视频

3. 动捕子集

对于动捕数据集(即 AMASS、GRAB、EgoBody),请参阅此链接获取详细说明,特别注意:

  • 我们不提供原始动作数据。
  • 我们仅提供由我们团队标注的文本标签和面部表情。

AMASS 和 GRAB 数据集由马克斯·普朗克智能系统研究所根据定制许可协议发布,供学术研究使用。要下载 AMASS 和 GRAB 数据集,您必须在相应数据集网站上注册用户,并同意各许可协议的条款与条件:

https://amass.is.tue.mpg.de/license.html

https://grab.is.tuebingen.mpg.de/license.html

最终,数据集文件夹应按以下目录结构整理:
../datasets  

├──  motion_data
  ├── smplx_322
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...
├── texts
  ├──  semantic_labels
    ├── idea400
    ├── ...
  ├──  face_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...
  ├──  body_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...
  ├──  hand_texts
    ├── humanml
    ├── EgoBody
    ├── GRAB
    ├── idea400
    ├── ...

🚀 数据加载

  • 要加载动作和文本标签,您可以简单地执行以下操作:

    import numpy as np
    import torch
    
    # 读取动作并保存为 smplx 表示
    motion = np.load('motion_data/smplx_322/000001.npy')
    motion = torch.tensor(motion).float()
    motion_parms = {
                'root_orient': motion[:, :3],  # 控制全局根方向
                'pose_body': motion[:, 3:3+63],  # 控制身体姿态
                'pose_hand': motion[:, 66:66+90],  # 控制手指关节
                'pose_jaw': motion[:, 66+90:66+93],  # 控制下颌姿态
                'face_expr': motion[:, 159:159+50],  # 控制面部表情
                'face_shape': motion[:, 209:209+100],  # 控制脸型
                'trans': motion[:, 309:309+3],  # 控制全身位置
                'betas': motion[:, 312:],  # 控制体型。体型是静态的
            }
    
    # 读取文本标签
    semantic_text = np.loadtxt('semantic_labels/000001.npy')     # 语义标签 
    

💻 可视化

我们支持从相机空间和世界空间进行可视化,请参考此指南

💻 实验

动作标注流程验证

我们的标注流程显著优于现有的 SOTA 2D 全身模型和网格重建方法。


文本驱动的全身人体运动生成基准测试


与 HumanML3D 在全身人体运动生成任务上的对比


对3D全身人体网格重建的影响


🤝 引用

如果您认为本仓库对您的工作有所帮助,请考虑按以下方式引用:

@article{zhang2025motion,
  title={Motion-X++: 大规模多模态3D全身人体运动数据集},
  author={张宇宏、林静、曾爱玲、吴冠霖、陆顺林、傅雨蓉、蔡元浩、张瑞茂、王浩谦、张磊},
  journal={arXiv 预印本 arXiv:2501.05098},
  year={2025}
}
@article{lin2023motionx,
  title={Motion-X: 大规模3D富有表现力的全身人体运动数据集},
  author={林静、曾爱玲、陆顺林、蔡元浩、张瑞茂、王浩谦、张磊},
  journal={神经信息处理系统进展},
  year={2023}
}

常见问题

相似工具推荐

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|4天前
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|6天前
语言模型数据工具其他

cs-video-courses

cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。

79.8k|★☆☆☆☆|6天前
其他图像数据工具

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|1周前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.6k|★★★☆☆|今天
语言模型图像开发框架

awesome-machine-learning

awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。

72.1k|★☆☆☆☆|1周前
开发框架其他