MagicTime
MagicTime 是一款由北京大学团队研发的开源视频生成模型,专注于制作高质量的延时摄影视频。它不仅仅是一个简单的视频合成器,更被定位为“形态变化模拟器”,能够精准模拟现实世界中物体随时间推移发生的自然演变过程,如花朵绽放、冰雪消融或建筑成型。
传统视频生成模型往往难以捕捉长时间跨度下物体形态变化的连贯性与物理规律,导致生成的延时视频出现扭曲或不自然的现象。MagicTime 通过引入专门的训练方法和全新的 ChronoMagic 数据集,显著提升了模型对真实世界动态变化的理解与还原能力,有效解决了长时序视频中形态突变不流畅的难题。
这款工具非常适合影视后期设计师、数字内容创作者以及 AI 视频研究人员使用。对于开发者而言,MagicTime 提供了完整的代码实现、预训练模型以及在 Hugging Face、Colab 等平台的便捷演示,支持基于 Apache 2.0 协议进行二次开发与实验。其独特的技术亮点在于将视频生成任务转化为对物理形态变化的深度模拟,让 AI 不仅能“画”出画面,更能“理解”时间流逝带来的微妙改变,为创作逼真的延时特效提供了强有力的技术支持。
使用场景
某自然纪录片团队需要制作一段展示“种子在土壤中发芽并长成幼苗”的延时摄影素材,但受限于植物生长周期长、野外拍摄环境不可控等因素,难以获取高质量实拍画面。
没有 MagicTime 时
- 拍摄周期漫长:必须实地架设相机连续数天甚至数周记录,一旦中途断电或设备故障,所有素材作废。
- 形态变化生硬:传统视频生成模型难以理解生物生长的连续形变,生成的画面常出现植物突然“瞬移”或纹理扭曲断裂。
- 物理规律缺失:生成的生长过程缺乏真实感,如叶片展开角度违背重力或光照逻辑,无法通过专业审核。
- 后期成本高昂:需人工逐帧修图或使用复杂的特效软件模拟生长,耗时耗力且效果依然僵硬。
使用 MagicTime 后
- 即时生成素材:只需输入“种子破土而出长成幼苗”的提示词,MagicTime 即可在几分钟内模拟出完整的生物变态发育过程。
- 形变流畅自然:作为“变形模拟器”,它能精准捕捉植物从卷曲到舒展的细微中间态,确保每一帧的形态过渡平滑无伪影。
- 符合真实物理:基于对现实世界的深度建模,生成的光影变化与植物生长节奏高度同步,呈现出电影级的真实质感。
- 无限迭代尝试:团队可快速调整提示词(如改变天气、土壤类型),低成本生成多种风格的备选方案供导演选择。
MagicTime 将原本需要数周实地拍摄的生物生长过程,转化为可控、高效且符合物理规律的数字化创作流,彻底打破了延时摄影的时空限制。
运行环境要求
- 未说明
需要 NVIDIA GPU(提及在单张 H100 GPU 上运行),具体显存大小和 CUDA 版本未在提供的片段中明确说明
未说明

快速开始
MagicTime: 延时视频生成模型
如果你喜欢我们的项目,请在 GitHub 上为我们点亮星标 ⭐,以获取最新更新。
💡 我们还有其他可能让你感兴趣的视频生成项目 ✨。
Open-Sora Plan:开源大型视频生成模型
林斌、葛云阳和程新华等。
![]()
![]()
![]()
Helios:真正的实时长视频生成模型
袁圣海、黄金发和何贤义等。
![]()
![]()
![]()
OpenS2V-Nexus:面向主体到视频生成的详细基准与百万级数据集
袁圣海、何贤义和邓宇凡等。
![]()
![]()
![]()
ConsisID:基于频率分解的身份保留文本到视频生成
袁圣海、黄金发和何贤义等。
![]()
![]()
![]()
ChronoMagic-Bench:用于文本到延时视频生成的变形评估基准
袁圣海、黄金发和徐永琪等。
![]()
![]()
![]()
📣 新闻
- ⏳⏳⏳ 在Open-Sora计划的支持下,训练更强的模型。
- ⏳⏳⏳ 发布MagicTime的训练代码。
[2026.03.08]👋 我们推出了Helios,这是一种突破性的视频生成模型,在单张H100 GPU上以19.5 FPS的速度实现分钟级高质量视频合成——且无需依赖传统的长视频防漂移策略或标准的视频加速技术。欢迎查看技术报告![2025.04.08]🔥 我们已更新技术报告。请点击此处查看。[2025.03.28]🔥 MagicTime已被TPAMI接收,我们很快将在arXiv上发布更多细节,请持续关注![2024.07.29]我们在inference_magictime.py中添加了批量推理功能,以便更方便地使用。[2024.06.27]我们很高兴分享最新的ChronoMagic-Bench,这是一个用于文本到延时视频生成的变形评估基准,完全开源!请查看论文。[2024.05.27]我们很高兴分享最新的Open-Sora Plan v1.1.0,该版本显著提升了视频质量和长度,并且完全开源!请查看报告。[2024.04.14]感谢@camenduru和@ModelsLab提供了Jupyter Notebook和Replicate Demo。[2024.04.13]🔥 我们将仓库大小压缩至不到1.0 MB,以便大家能够更轻松、更快地克隆。您可以点击此处下载,或使用git clone --depth=1命令获取此仓库。[2024.04.12]感谢@Kijai和@Baobao Wang提供了ComfyUI扩展ComfyUI-MagicTimeWrapper。如果您发现相关工作,请告知我们。[2024.04.11]🔥 我们发布了MagicTime的Hugging Face Space,您可点击此处体验一下。[2024.04.10]🔥 我们发布了MagicTime的推理代码和模型权重。[2024.04.09]🔥 我们发布了MagicTime的arXiv论文,您可点击此处查看更多详情。[2024.04.08]🔥 我们发布了用于训练MagicTime的ChronoMagic数据集子集。该数据集包含2,265对变形视频-文本配对,可在HuggingFace数据集或Google Drive下载。[2024.04.08]🔥 所有代码与数据集即将发布!敬请期待 👀!
😮 亮点
MagicTime在变形视频生成方面表现出色。
相关资源
- ChronoMagic: 包含2265对延时视频-文本配对。(由GPT-4V标注)
- ChronoMagic-Bench: 包含1649对延时视频-文本配对。(由GPT-4o标注)
- ChronoMagic-Bench-150: 包含150对延时视频-文本配对。(由GPT-4o标注)
- ChronoMagic-Pro: 包含46万对延时视频-文本配对。(由ShareGPT4Video标注)
- ChronoMagic-ProH: 包含15万对延时视频-文本配对。(由ShareGPT4Video标注)
变形视频与普通视频的对比
与普通视频相比,变形视频蕴含物理知识、具有较长的持续性和强烈的动态变化,因此更难生成。我们在GitHub上展示了压缩后的.gif文件,其中部分质量有所损失。普通视频由Animatediff和MagicTime生成。
| 普通视频 | ![]() |
![]() |
![]() |
![]() |
| 变形视频 | ![]() |
![]() |
![]() |
![]() |
图库
我们展示了一些由MagicTime、MakeLongVideo、ModelScopeT2V、VideoCrafter、ZeroScope、LaVie、T2V-Zero、Latte以及Animatediff生成的变形视频。
| MakeLongVideo | ![]() |
![]() |
![]() |
![]() |
| ModelScopeT2V | ![]() |
![]() |
![]() |
![]() |
| VideoCrafter | ![]() |
![]() |
![]() |
![]() |
| ZeroScope | ![]() |
![]() |
![]() |
![]() |
| LaVie | ![]() |
![]() |
![]() |
![]() |
| T2V-Zero | ![]() |
![]() |
![]() |
![]() |
| Latte | ![]() |
![]() |
![]() |
![]() |
| Animatediff | ![]() |
![]() |
![]() |
![]() |
| Ours | ![]() |
![]() |
![]() |
![]() |
我们展示了更多由 MagicTime 在 Realistic、ToonYou 和 RcnzCartoon 的帮助下生成的变形视频。
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
提示词为了展示效果已做删减,完整提示词请参见这里。
集成到DiT架构中
本项目的使命是帮助复现Sora,并提供高质量的视频-文本数据及数据标注流程,以支持Open-Sora-Plan或其他基于DiT的T2V模型。为此,我们迈出了第一步,将MagicTime方案集成到DiT框架中。具体来说,我们的方法支持Open-Sora-Plan v1.0.0进行微调。首先,我们在相同的标注框架下扩充了更多变形景观延时视频,构建了ChronoMagic-Landscape数据集。随后,我们使用该数据集对Open-Sora-Plan v1.0.0进行微调,得到了MagicTime-DiT模型。结果如下(257×512×512 (10秒)):
提示词为了展示效果已做删减,完整提示词请参见这里。
🤗 演示
Gradio Web UI
强烈推荐通过以下命令体验我们的Web演示,它包含了目前MagicTime所支持的所有功能。我们还在Hugging Face Spaces上提供了在线演示。
python app.py
CLI推理
# 对于写实风格
python inference_magictime.py --config sample_configs/RealisticVision.yaml --human
# 或者可以直接运行.sh脚本
sh inference_cli.sh
警告:值得注意的是,即使使用相同的种子和提示词,如果更换机器,结果也会有所不同。
⚙️ 环境要求与安装
我们推荐以下环境配置。
环境搭建
git clone --depth=1 https://github.com/PKU-YuanGroup/MagicTime.git
cd MagicTime
conda create -n magictime python=3.10.13
conda activate magictime
pip install -r requirements.txt
下载MagicTime
权重可在🤗HuggingFace和🟣WiseModel获取,也可以通过以下命令下载。
# 方法一
# 如果您在中国大陆,请先运行:export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --repo-type model \
BestWishYsh/MagicTime \
--local-dir ckpts
# 方法二
git lfs install
git clone https://www.wisemodel.cn/SHYuanBest/MagicTime.git
准备就绪后,权重将以如下格式组织:
📦 ckpts/
├── 📂 Base_Model/
│ ├── 📂 motion_module/
│ ├── 📂 stable-diffusion-v1-5/
├── 📂 DreamBooth/
├── 📂 Magic_Weights/
│ ├── 📂 magic_adapter_s/
│ ├── 📂 magic_adapter_t/
│ ├── 📂 magic_text_encoder/
🗝️ 训练与推理
训练代码即将发布!
对于推理,以下是一些示例:
# 对于写实风格
python inference_magictime.py --config sample_configs/RealisticVision.yaml
# 对于 ToonYou
python inference_magictime.py --config sample_configs/ToonYou.yaml
# 对于 RcnzCartoon
python inference_magictime.py --config sample_configs/RcnzCartoon.yaml
# 或者你可以直接运行 .sh 文件
sh inference.sh
你也可以将所有的自定义提示词放入一个.txt文件中,然后运行:
# 对于 Realistic
python inference_magictime.py --config sample_configs/RealisticVision.yaml --run-txt XXX.txt --batch-size 2
# 对于 ToonYou
python inference_magictime.py --config sample_configs/ToonYou.yaml --run-txt XXX.txt --batch-size 2
# 对于 RcnzCartoon
python inference_magictime.py --config sample_configs/RcnzCartoon.yaml --run-txt XXX.txt --batch-size 2
社区贡献
我们发现了一些由社区开发者创建的插件。感谢他们的努力:
- ComfyUI 扩展。ComfyUI-MagicTimeWrapper(由 @Kijai 开发)。你也可以点击这里查看安装教程。
- Replicate 演示及云 API。Replicate-MagicTime(由 @camenduru 开发)。
- Jupyter Notebook。Jupyter-MagicTime(由 @ModelsLab 开发)。
如果你发现了相关的工作,请告诉我们。
🐳 ChronoMagic 数据集
ChronoMagic 包含 2265 个变形延时视频,每个视频都配有详细的描述。我们发布了用于训练 MagicTime 的 ChronoMagic 子集。该数据集可以在 HuggingFace 数据集 上下载,或者使用以下命令进行下载。部分样本可以在我们的项目页面上找到。
huggingface-cli download --repo-type dataset \
--resume-download BestWishYsh/ChronoMagic \
--local-dir BestWishYsh/ChronoMagic \
--local-dir-use-symlinks False
👍 致谢
- Animatediff 我们在此基础上构建了代码库,它是一个强大的基于 U-Net 的文本到视频生成模型。
- Open-Sora-Plan 我们也在此基础上构建了代码库,这是一个简单且可扩展的基于 DiT 的文本到视频生成仓库,用于复现 Sora。
🔒 许可证
- 本项目的大部分内容采用 Apache 2.0 许可证,具体请参阅 LICENSE 文件。
- 本服务目前为研究预览版。如您发现任何潜在的侵权行为,请与我们联系。
✏️ 引用
如果您在研究中认为我们的论文和代码有所帮助,请考虑给个项目点个赞 :star: 并引用 :pencil:。
@article{yuan2025magictime,
title={Magictime: 延时视频生成模型作为变形模拟器},
author={Yuan, Shenghai 和 Huang, Jinfa 和 Shi, Yujun 和 Xu, Yongqi 和 Zhu, Ruijie 和 Lin, Bin 和 Cheng, Xinhua 和 Yuan, Li 和 Luo, Jiebo},
journal={IEEE 模式分析与机器智能汇刊},
year={2025},
publisher={IEEE}
}
🤝 贡献者
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
opencv
OpenCV 是一个功能强大的开源计算机视觉库,被誉为机器视觉领域的“瑞士军刀”。它主要解决让计算机“看懂”图像和视频的核心难题,提供了从基础的图像读取、色彩转换、边缘检测,到复杂的人脸识别、物体追踪、3D 重建及深度学习模型部署等全方位算法支持。无论是处理静态图片还是分析实时视频流,OpenCV 都能高效完成特征提取与模式识别任务。 这款工具特别适合计算机视觉开发者、人工智能研究人员以及机器人工程师使用。对于希望将视觉感知能力集成到应用中的软件工程师,或是需要快速验证算法原型的学术研究者,OpenCV 都是不可或缺的基础设施。虽然普通用户通常不会直接操作代码,但日常生活中使用的扫码支付、美颜相机和自动驾驶系统,背后往往都有它的身影。 OpenCV 的独特亮点在于其卓越的性能与广泛的兼容性。它采用 C++ 编写以确保高速运算,同时提供 Python、Java 等多种语言接口,极大降低了开发门槛。库中内置了数千种优化算法,并支持跨平台运行,能够无缝对接各类硬件加速器。作为社区驱动的项目,OpenCV 拥有活跃的生态系统和丰富的学习资源,持续推动着视觉技术的前沿发展。






















































