ditto-talkinghead
ditto-talkinghead 是一款由蚂蚁集团开源的实时数字人说话头像合成工具,旨在通过单张静态照片和音频驱动,生成表情自然、口型同步的高清视频。它主要解决了传统数字人生成方法在推理速度慢、动作控制不够灵活以及难以兼顾实时性与高保真度等方面的痛点,让开发者能够轻松构建可交互的虚拟形象应用。
该工具特别适合人工智能开发者、研究人员以及对实时虚拟人技术感兴趣的应用构建者使用。无论是需要快速部署在线客服数字人,还是希望研究前沿生成模型的研究员,ditto-talkinghead 都提供了成熟的推理代码与预训练模型,并支持在 Colab 上直接体验。
其核心技术亮点在于采用了“运动空间扩散”(Motion-Space Diffusion)架构。不同于直接在像素层面进行生成的传统方式,ditto-talkinghead 先在紧凑的运动潜在空间中进行扩散去噪,再解码为图像。这一创新设计不仅大幅降低了计算负载,实现了真正的实时推理,还赋予了对头部姿态和面部表情的精细可控能力。目前项目已收录于 ACM MM 2025,并开放了完整的推理与训练代码,社区生态活跃,是探索下一代实时数字人技术的优质选择。
使用场景
某跨境电商团队急需为全球数千种商品快速生成多语种的真人讲解视频,以适配不同地区的营销推广。
没有 ditto-talkinghead 时
- 制作周期漫长:传统方案需聘请外籍模特拍摄或逐帧手动调整口型,单个视频耗时数小时甚至数天,无法跟上快节奏的促销节点。
- 实时交互缺失:现有的数字人渲染延迟高,无法支持直播场景下的即时语音驱动,导致主播与观众互动时有明显的“音画不同步”尴尬。
- 表情僵硬不自然:旧模型生成的面部动作缺乏细微的情感变化,说话时眼神呆滞、头部运动机械,严重降低了用户的信任感和观看体验。
- 算力成本高昂:为了达到可接受的画质,往往需要占用多台高端 GPU 服务器进行离线渲染,推高了整体运营成本。
使用 ditto-talkinghead 后
- 秒级视频生成:利用其运动空间扩散技术,仅需输入音频和参考图,即可在单张 A100 显卡上实时合成高质量视频,将制作时间从小时级压缩至秒级。
- 流畅实时驱动:凭借优化的推理速度,完美支持直播带货场景,主播的语音能即时转化为同步且自然的口型与表情,实现真正的“所听即所见”。
- 情感表达细腻:生成的数字人不仅口型精准,还能根据语调自动匹配逼真的头部姿态和微表情,使虚拟形象具备极强的感染力和真实感。
- 部署轻量高效:模型对显存占用友好,支持在更少的硬件资源下并发处理多个任务,大幅降低了大规模视频生产的边际成本。
ditto-talkinghead 通过突破性的实时可控合成能力,让企业能以极低的成本规模化生产具备电影级质感的个性化营销视频。
运行环境要求
- Linux
- 必需 NVIDIA GPU
- 测试环境为 A100
- 提供针对 Ampere 架构(Ampere_Plus)优化的 TensorRT 模型
- 若显卡不支持,需自行将 ONNX 模型转换为 TensorRT 引擎
未说明

快速开始
Ditto:基于运动-空间扩散的可控实时说话头合成
✨ 更多结果请访问我们的项目页面 ✨
📌 更新
- [2025.11.12] 🔥🔥 我们注意到社区对开源训练代码的热情。训练代码现已开放,由于版本较多且整理时间有限,可能与论文中的版本略有不同。
- [2025.07.11] 🔥 PyTorch模型现已可用。
- [2025.07.07] 🔥 Ditto已被ACM MM 2025接收。
- [2025.01.21] 🔥 我们更新了Colab演示,欢迎试用。
- [2025.01.10] 🔥 我们发布了推理代码和模型。
- [2024.11.29] 🔥 我们的论文已在arXiv上公开。
🔍 概述
这是推理分支。如需训练代码,请切换到train分支。
🛠️ 安装
测试环境
- 系统:Centos 7.2
- GPU:A100
- Python:3.10
- tensorRT:8.6.1
从Github克隆代码:
git clone https://github.com/antgroup/ditto-talkinghead
cd ditto-talkinghead
Conda
创建conda环境:
conda env create -f environment.yaml
conda activate ditto
Pip
如果在创建conda环境时遇到问题,也可以参考我们的Colab。正确安装pytorch、cuda和cudnn后,只需使用pip安装少量包:
pip install \
tensorrt==8.6.1 \
librosa \
tqdm \
filetype \
imageio \
opencv_python_headless \
scikit-image \
cython \
cuda-python \
imageio-ffmpeg \
colored \
polygraphy \
numpy==2.0.1
如果不使用conda, 还需要根据官方网站安装ffmpeg。
📥 下载检查点
从HuggingFace下载检查点,并将其放入checkpoints目录:
git lfs install
git clone https://huggingface.co/digital-avatar/ditto-talkinghead checkpoints
checkpoints目录应如下所示:
./checkpoints/
├── ditto_cfg
│ ├── v0.4_hubert_cfg_trt.pkl
│ └── v0.4_hubert_cfg_trt_online.pkl
├── ditto_onnx
│ ├── appearance_extractor.onnx
│ ├── blaze_face.onnx
│ ├── decoder.onnx
│ ├── face_mesh.onnx
│ ├── hubert.onnx
│ ├── insightface_det.onnx
│ ├── landmark106.onnx
│ ├── landmark203.onnx
│ ├── libgrid_sample_3d_plugin.so
│ ├── lmdm_v0.4_hubert.onnx
│ ├── motion_extractor.onnx
│ ├── stitch_network.onnx
│ └── warp_network.onnx
└── ditto_trt_Ampere_Plus
├── appearance_extractor_fp16.engine
├── blaze_face_fp16.engine
├── decoder_fp16.engine
├── face_mesh_fp16.engine
├── hubert_fp32.engine
├── insightface_det_fp16.engine
├── landmark106_fp16.engine
├── landmark203_fp16.engine
├── lmdm_v0.4_hubert_fp32.engine
├── motion_extractor_fp32.engine
├── stitch_network_fp16.engine
└── warp_network_fp16.engine
ditto_cfg/v0.4_hubert_cfg_trt_online.pkl为在线配置ditto_cfg/v0.4_hubert_cfg_trt.pkl为离线配置
🚀 推理
运行inference.py:
python inference.py \
--data_root "<path-to-trt-model>" \
--cfg_pkl "<path-to-cfg-pkl>" \
--audio_path "<path-to-input-audio>" \
--source_path "<path-to-input-image>" \
--output_path "<path-to-output-mp4>"
例如:
python inference.py \
--data_root "./checkpoints/ditto_trt_Ampere_Plus" \
--cfg_pkl "./checkpoints/ditto_cfg/v0.4_hubert_cfg_trt.pkl" \
--audio_path "./example/audio.wav" \
--source_path "./example/image.png" \
--output_path "./tmp/result.mp4"
❗注意:
我们提供了硬件兼容性级别为Ampere_Plus的tensorRT模型(checkpoints/ditto_trt_Ampere_Plus/)。如果您的GPU不支持该型号,请执行cvt_onnx_to_trt.py脚本,将通用onnx模型(checkpoints/ditto_onnx/)转换为tensorRT模型。
python scripts/cvt_onnx_to_trt.py --onnx_dir "./checkpoints/ditto_onnx" --trt_dir "./checkpoints/ditto_trt_custom"
然后使用--data_root=./checkpoints/ditto_trt_custom运行inference.py。
⚡ PyTorch 模型
基於社區的興趣以及更好地支持後續開發,我們現已開放模型的 PyTorch 版本源碼。
我們已將 PyTorch 模型及相應的配置文件上傳至 HuggingFace。請參閱下載檢查點以準備模型文件。
checkpoints 目錄結構應如下所示:
./checkpoints/
├── ditto_cfg
│ ├── ...
│ └── v0.4_hubert_cfg_pytorch.pkl
├── ...
└── ditto_pytorch
├── aux_models
│ ├── 2d106det.onnx
│ ├── det_10g.onnx
│ ├── face_landmarker.task
│ ├── hubert_streaming_fix_kv.onnx
│ └── landmark203.onnx
└── models
├── appearance_extractor.pth
├── decoder.pth
├── lmdm_v0.4_hubert.pth
├── motion_extractor.pth
├── stitch_network.pth
└── warp_network.pth
要運行推理,請執行以下命令:
python inference.py \
--data_root "./checkpoints/ditto_pytorch" \
--cfg_pkl "./checkpoints/ditto_cfg/v0.4_hubert_cfg_pytorch.pkl" \
--audio_path "./example/audio.wav" \
--source_path "./example/image.png" \
--output_path "./tmp/result.mp4"
📧 致謝
我們的實現基於 S2G-MDDiffusion 和 LivePortrait。感謝他們傑出的貢獻和公開的代碼!若我們遺漏了任何開源項目或相關文獻,將立即補充致謝。
⚖️ 授權條款
本倉庫根據 LICENSE 文件中的 Apache-2.0 許可證發布。
📚 引用
若您認為此代碼庫對您的研究有所幫助,請使用以下引用格式。
@article{li2024ditto,
title={Ditto: Motion-Space Diffusion for Controllable Realtime Talking Head Synthesis},
author={Li, Tianqi and Zheng, Ruobing and Yang, Minghui and Chen, Jingdong and Yang, Ming},
journal={arXiv preprint arXiv:2411.19509},
year={2024}
}
🌟 星標歷史
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
tesseract
Tesseract 是一款历史悠久且备受推崇的开源光学字符识别(OCR)引擎,最初由惠普实验室开发,后由 Google 维护,目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据,有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题,是数字化归档和信息自动化的重要基础工具。 在技术层面,Tesseract 展现了强大的适应能力。从版本 4 开始,它引入了基于长短期记忆网络(LSTM)的神经网络 OCR 引擎,显著提升了行识别的准确率;同时,为了兼顾旧有需求,它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码,开箱即用即可识别超过 100 种语言,并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面,它灵活支持纯文本、hOCR、PDF、TSV 等多种格式,方便后续数据处理。 Tesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库(libtesseract),不包含图形用户界面(GUI),因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中
