mint
mint 是一个专注于多模态内容创作的模型训练基础设施,其核心成果是实现了"AI 编舞师”(FACT 模型)。该工具旨在解决如何根据音乐节奏自动生成高质量、动作流畅的 3D 舞蹈序列这一难题。通过深度学习技术,mint 能够分析输入的音乐音频,并合成出与之在节拍和情感上高度匹配的三维人体舞蹈动作,极大地降低了传统动画制作中手动关键帧调整的成本与门槛。
该项目主要面向人工智能研究人员、计算机视觉开发者以及从事数字人内容创作的技术团队。对于希望探索音乐与动作生成关联性的学者,或需要构建自动化舞蹈生成管线的工程师而言,mint 提供了从数据预处理、模型训练到效果评估的完整开源方案。
在技术亮点方面,mint 基于著名的 AIST++ 数据集,采用了条件生成架构,能够精准捕捉音乐特征并映射为复杂的 3D 姿态变化。作为 ICCV 2021 获奖论文的官方实现代码,它不仅复现了先进的 FACT 算法,还集成了 TensorFlow 生态下的高效训练模块,支持用户灵活调整配置以适应不同的硬件环境,是研究音乐驱动动作生成领域的重要参考基准。
使用场景
某独立游戏开发团队正在为一款音乐节奏游戏制作大量与背景音乐完美同步的 3D 角色舞蹈动画。
没有 mint 时
- 动画师必须手动逐帧调整骨骼关键帧以匹配音乐节拍,制作一段 30 秒的舞蹈需耗费数天时间。
- 难以保证动作与复杂音乐节奏的精准对齐,导致成品出现“踩点不准”的违和感,反复修改成本极高。
- 缺乏高质量的多模态训练基础设施,团队无法利用现有数据集(如 AIST++)快速训练定制化舞蹈生成模型。
- 不同风格的音乐需要完全重新手工制作动画,无法实现基于音乐条件的自动化批量生产。
使用 mint 后
- 利用 mint 内置的 FACT 模型,输入音乐文件即可自动生成流畅且符合节拍的 3D 舞蹈序列,将制作周期从数天缩短至几分钟。
- 模型基于 ICCV 2021 获奖算法训练,生成的动作在时间维度上与音乐节奏高度契合,显著提升了游戏的沉浸感。
- 直接复用 mint 提供的完整训练架构和数据预处理工具,团队可轻松基于自有数据微调模型,适配特定角色风格。
- 支持通过配置文件灵活调整生成参数,能够针对不同曲风批量产出多样化舞蹈资产,极大丰富了游戏内容库。
mint 通过将前沿的多模态研究成果转化为易用的训练设施,彻底改变了音乐驱动舞蹈动画的生产范式,实现了从“手工雕琢”到"AI 自动生成”的质的飞跃。
运行环境要求
- Linux
需要 NVIDIA GPU (通过 tensorflow-graphics-gpu),具体型号和显存未说明,但需注意配置文件中 batch_size 以防 OOM
未说明

快速开始
AI 编舞师:基于 AIST++ 的音乐条件驱动 3D 舞蹈生成 [ICCV-2021]。
概述
本包包含我们 AI 编舞师的模型实现与训练基础设施。
快速入门
克隆代码
git clone https://github.com/liruilong940607/mint --recursive
请注意,--recursive 参数非常重要,它会自动克隆子模块(orbit)。
安装依赖
conda create -n mint python=3.7
conda activate mint
conda install protobuf numpy
pip install tensorflow absl-py tensorflow-datasets librosa
sudo apt-get install libopenexr-dev
pip install --upgrade OpenEXR
pip install tensorflow-graphics tensorflow-graphics-gpu
git clone https://github.com/arogozhnikov/einops /tmp/einops
cd /tmp/einops/ && pip install . -U
git clone https://github.com/google/aistplusplus_api /tmp/aistplusplus_api
cd /tmp/aistplusplus_api && pip install -r requirements.txt && pip install . -U
注意:如果遇到 numpy 环境冲突问题,可以尝试使用 pip install numpy==1.20。
获取数据
请访问 网站。
获取检查点
从 Google Drive 下载 这里,并将文件放入 ./checkpoints/ 文件夹中。
运行代码
- 编译协议文件
protoc ./mint/protos/*.proto
- 将数据集预处理为 tfrecord 格式
python tools/preprocessing.py \
--anno_dir="/mnt/data/aist_plusplus_final/" \
--audio_dir="/mnt/data/AIST/music/" \
--split=train
python tools/preprocessing.py \
--anno_dir="/mnt/data/aist_plusplus_final/" \
--audio_dir="/mnt/data/AIST/music/" \
--split=testval
- 开始训练
python trainer.py --config_path ./configs/fact_v5_deeper_t10_cm12.config --model_dir ./checkpoints
注意:如果出现内存不足的问题,可以适当调整配置文件中的 batch_size。
- 运行测试与评估
# 将生成的动作(包括随机种子)缓存到 `./outputs`
python evaluator.py --config_path ./configs/fact_v5_deeper_t10_cm12.config --model_dir ./checkpoints
# 计算 FID 分数
python tools/calculate_scores.py
引用
@inproceedings{li2021dance,
title={AI 编舞师:基于 AIST++ 的音乐条件驱动 3D 舞蹈生成},
author={Ruilong Li 和 Shan Yang 和 David A. Ross 和 Angjoo Kanazawa},
booktitle = {IEEE 国际计算机视觉会议 (ICCV)},
year = {2021}
}
常见问题
相似工具推荐
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。