SkyReels-V1
SkyReels-V1 是一款专注于人物表现的视频生成基础模型,也是目前首个且最先进的开源同类项目。它基于腾讯混元视频(HunyuanVideo)架构,通过在千万级高质量影视片段上进行微调,能够根据文本描述或静态图片生成具有电影质感的动态视频。
该工具主要解决了现有开源模型在人物动作自然度、面部表情丰富性以及画面光影美学上难以达到商业级水准的痛点。无论是复杂的多角色空间互动,还是细腻的情感表达,SkyReels-V1 都能呈现出媲美专业影视作品的效果,填补了开源领域在高精度人物视频生成方面的空白。
这款工具非常适合 AI 研究人员、视频创作者、游戏开发者以及希望本地部署高质量视频生成能力的技术爱好者使用。其独特的技术亮点包括自研的数据清洗与标注流水线,能精准识别 33 种面部表情和超过 400 种动作语义单元;同时结合 3D 人体重建技术,实现了对多角色空间关系的深刻理解。此外,项目已提供完整的推理代码和模型权重,支持在 RTX4090 等消费级显卡上运行,并配备了友好的 Web 演示界面,便于用户快速上手体验。
使用场景
一家独立游戏工作室正在为新作制作关键剧情过场动画,需要让主角在特定场景下展现细腻的情感变化。
没有 SkyReels-V1 时
- 表情僵硬失真:通用视频模型难以捕捉微妙情绪,生成的角色面部表情呆板,甚至出现五官扭曲,无法传达剧本要求的复杂情感。
- 光影缺乏电影感:自动生成的画面光照平淡,构图随意,缺乏好莱坞级别的镜头语言,导致过场动画看起来像廉价素材,严重拖累游戏质感。
- 动作与空间混乱:多角色互动时,模型无法理解人物间的空间关系,常出现穿模、站位错误或动作不协调,后期修复需耗费大量人工逐帧调整。
- 迭代成本高昂:为了获得一个可用的镜头,团队需反复尝试不同提示词或依赖昂贵的外部定制服务,开发周期被无限拉长。
使用 SkyReels-V1 后
- 精准情感演绎:利用其支持的 33 种面部表情分类和 400+ 动作单元,主角能自然呈现从隐忍到爆发的细腻情绪过渡,表演极具感染力。
- 原生电影级画质:基于海量影视数据训练,SkyReels-V1 直接输出具备专业布光、考究构图和电影级景深的画面,无需额外后期调色。
- 智能空间调度:凭借 3D 人体重建技术,模型准确处理多人场景下的站位与互动逻辑,角色走位自然流畅,彻底杜绝穿模现象。
- 高效本地部署:团队可在单张 RTX4090 显卡上快速推理,随时根据反馈调整脚本并实时生成新镜头,将原本数周的修改工作压缩至数小时。
SkyReels-V1 将独立团队的视频创作能力提升至专业影视级别,让高质量人文视频内容的生产变得低成本且可控。
运行环境要求
- Linux
- 必需 NVIDIA GPU
- 推荐 RTX 4090 (消费级) 或 A800 (服务器级)
- 单卡运行需开启量化和卸载策略,峰值显存约 18.5GB
- 支持多卡并行推理
未说明 (但启用 --high_cpu_memory 参数暗示需要较大的系统内存以支持模型卸载)

快速开始
SkyReels V1:以人为本的视频基础模型
🤗 Hugging Face · 👋 体验平台 · 💬 Discord
欢迎来到 SkyReels V1 仓库!在这里,您将找到我们突破性视频基础模型的文生视频和图生视频模型权重及推理代码。
🔥🔥🔥 最新消息!!
- 2025年2月18日:👋 我们发布了 SkyReels-V1 文生视频模型 的推理代码和模型权重。
- 2025年2月18日:👋 我们发布了 SkyReels-V1 图生视频模型 的推理代码和模型权重。
- 2025年2月18日:🔥 我们还发布了 SkyReels-A1。这是一个开源且高效的框架式人像图像动画模型。
🎥 演示
📑 待办事项清单
SkyReels-V1(文生视频模型)
- 检查点
- 推理代码
- Web演示(Gradio)
- 在RTX4090上进行用户级GPU推理
- 多GPU并行推理
- 提示重写与提示引导
- CFG蒸馏模型
- 轻量级模型
- 720P版本
- ComfyUI
SkyReels-V1(图生视频模型)
- 检查点
- 推理代码
- Web演示(Gradio)
- 在RTX4090上进行用户级GPU推理
- 多GPU并行推理
- 提示重写与提示引导
- CFG蒸馏模型
- 轻量级模型
- 720P版本
- ComfyUI
🌟 概述
SkyReels V1 是首个也是最先进的开源以人为本视频基础模型。通过对 HunyuanVideo 在O(10M)高质量影视片段上进行微调,SkyReels V1 具有三大优势:
- 开源领先:我们的文生视频模型在开源模型中达到最先进(SOTA)水平,可与Kling、Hailuo等专有模型相媲美。
- 先进的面部动画:捕捉33种不同的面部表情,结合超过400种自然动作组合,准确反映人类情感。
- 电影级光影与美学:基于高质量的好莱坞级影视数据训练,生成的每一帧在构图、演员位置和镜头角度上都具有电影级品质。
🔑 核心特性
1. 自主开发的数据清洗与标注流水线
我们的模型建立在自主开发的数据清洗与标注流水线上,构建了一个包含大量高质量电影、电视剧和纪录片内容的数据集。
- 表情分类:将人类面部表情分为33种不同类型。
- 角色空间感知:利用3D人体重建技术,理解视频中多人之间的空间关系,实现电影级别的角色定位。
- 动作识别:构建超过400个动作语义单元,以精确理解人类动作。
- 场景理解:对服装、场景和剧情进行跨模态相关性分析。
2. 多阶段图生视频预训练
受 HunyuanVideo 设计启发,我们的多阶段预训练流水线包括以下阶段:
- 阶段1:模型领域迁移预训练:我们使用大规模数据集(O(10M)的影视内容)将文生视频模型适配到以人为中心的视频领域。
- 阶段2:图生视频模型预训练:通过调整卷积输入参数,将阶段1的文生视频模型转换为图生视频模型,并在阶段1使用的同一数据集上进行预训练。
- 阶段3:高质量微调:我们在原始数据集的高质量子集上对图生视频模型进行微调,确保卓越的性能和质量。
📊 基准测试结果
我们使用 VBench 对我们的文生视频模型性能进行了评估,并与其他优秀的开源模型进行了对比。
根据基准测试结果,SkyReels V1 在开源文生视频(T2V)模型中表现出最先进(SOTA)的性能。具体来说,我们的模型获得了82.43的综合得分,高于其他开源模型,如 VideoCrafter-2.0 VEnhancer(82.24)和 CogVideoX1.5-5B(82.17)。此外,我们在多个关键指标上也取得了最高分,包括动态程度和多对象处理能力,这表明我们的模型在处理复杂视频生成任务方面具有更强的能力。
| 模型 | 综合得分 | 质量得分 | 语义得分 | 图像质量 | 动态程度 | 多对象 | 空间关系 |
|---|---|---|---|---|---|---|---|
| OpenSora V1.3 | 77.23 | 80.14 | 65.62 | 56.21 | 30.28 | 43.58 | 51.61 |
| AnimateDiff-V2 | 80.27 | 82.90 | 69.75 | 70.1 | 40.83 | 36.88 | 34.60 |
| VideoCrafter-2.0 VEnhancer | 82.24 | 83.54 | 77.06 | 65.35 | 63.89 | 68.84 | 57.55 |
| CogVideoX1.5-5B | 82.17 | 82.78 | 79.76 | 65.02 | 50.93 | 69.65 | 80.25 |
| HunyuanVideo 540P | 81.23 | 83.49 | 72.22 | 66.31 | 51.67 | 70.45 | 63.46 |
| SkyReels V1 540P(我们) | 82.43 | 84.62 | 73.68 | 67.15 | 72.5 | 71.61 | 70.83 |
📦 模型介绍
| 模型名称 | 分辨率 | 视频时长 | FPS | 下载链接 |
|---|---|---|---|---|
| SkyReels-V1-Hunyuan-I2V | 544px960p | 97 | 24 | 🤗 下载 |
| SkyReels-V1-Hunyuan-T2V | 544px960p | 97 | 24 | 🤗 下载 |
🚀 SkyReels Infer 介绍
SkyReelsInfer 是一个高效的视频生成推理框架,能够准确且快速地生成高质量视频,在不损失质量的前提下显著提升视频生成推理的速度。
多 GPU 推理支持:该框架支持上下文并行、CFG 并行和 VAE 并行等多种方法,能够在保证无损质量的同时,快速生成视频,满足在线环境对低延迟的严格要求。
用户级 GPU 部署:通过采用模型量化和参数级卸载策略,系统大幅降低了 GPU 显存需求,能够适应显存有限的消费级显卡。
卓越的推理性能:该框架表现出色的效率,与 HunyuanVideo XDiT 相比,端到端延迟降低了 58.3%,为推理速度树立了新的标杆。
出色的易用性:基于开源框架 Diffusers 构建,并采用非侵入式的并行实现方式,确保了流畅且友好的用户体验。
🛠️ 运行指南
首先克隆仓库:
git clone https://github.com/SkyworkAI/SkyReels-V1
cd skyreelsinfer
Linux 系统安装指南
手动安装时,建议使用 Python 3.10 和 CUDA 12.2 版本。
# 安装 pip 依赖
pip install -r requirements.txt
当显存充足时(例如在 A800 上),可以直接运行无损版本。
注意:生成视频时,提示词应以“FPS-24, ”开头,因为我们在训练过程中参考了 Moviegen 中控制帧率的训练方法。
SkyReelsModel = "Skywork/SkyReels-V1-Hunyuan-T2V"
python3 video_generate.py \
--model_id ${SkyReelsModel} \
--task_type t2v \
--guidance_scale 6.0 \
--height 544 \
--width 960 \
--num_frames 97 \
--prompt "FPS-24, 一只戴着太阳镜、在泳池边担任救生员的猫" \
--embedded_guidance_scale 1.0
用户级 GPU 推理(RTX4090)
我们推荐的分辨率、宽高比及帧数设置如下表所示。
| 分辨率 | h/w=9:16 | h/w=16:9 | h/w=1:1 |
|---|---|---|---|
| 544p | 544px960px97f | 960px544px97f | 720px720px97f |
使用命令行
# SkyReelsModel:若使用 i2v,请切换至 Skywork/SkyReels-V1-Hunyuan-I2V。
# quant:启用 FP8 权重仅量化。
# offload:启用模型卸载。
# high_cpu_memory:启用固定内存以减少模型卸载的开销。
# parameters_level:进一步降低 GPU 显存占用。
# task_type:任务类型同时支持 t2v 和 i2v。执行 i2v 任务时,需输入 --image。
SkyReelsModel = "Skywork/SkyReels-V1-Hunyuan-T2V"
python3 video_generate.py \
--model_id ${SkyReelsModel} \
--task_type t2v \
--guidance_scale 6.0 \
--height 544 \
--width 960 \
--num_frames 97 \
--prompt "FPS-24, 一只戴着太阳镜、在泳池边担任救生员的猫" \
--embedded_guidance_scale 1.0 \
--quant \
--offload \
--high_cpu_memory \
--parameters_level
以上示例展示了在单张 RTX 4090 显卡上,经过全面显存优化后生成一段 544px×960px、97 帧、时长 4 秒的视频,峰值显存占用为 18.5G。在显存容量允许的情况下,还可以生成 544px×960px、289 帧、时长 12 秒的视频(使用 --sequence_batch 参数,单张 RTX 4090 大约需要 1.5 小时;增加 GPU 数量可大幅缩短时间)。
🚀 多 GPU 并行推理
# SkyReelsModel:若使用 i2v,请切换至 Skywork/SkyReels-V1-Hunyuan-I2V。
# quant:启用 FP8 权重仅量化。
# offload:启用模型卸载。
# high_cpu_memory:启用固定内存以减少模型卸载的开销。
# gpu_num:使用的 GPU 数量。
SkyReelsModel = "Skywork/SkyReels-V1-Hunyuan-T2V"
python3 video_generate.py \
--model_id ${SkyReelsModel} \
--guidance_scale 6.0 \
--height 544 \
--width 960 \
--num_frames 97 \
--prompt "FPS-24, 一只戴着太阳镜、在泳池边担任救生员的猫" \
--embedded_guidance_scale 1.0 \
--quant \
--offload \
--high_cpu_memory \
--gpu_num $GPU_NUM
性能对比
本次测试旨在比较 SkyReelsInfer 和 HunyuanVideo XDiT 在 A800(高性能计算 GPU)和 RTX 4090(消费级 GPU)上处理 544p 视频的端到端延迟。结果将展示 SkyReelsInfer 在速度和效率方面的优越性能。
测试参数
| 分辨率 | 视频大小 | 变换器步数 | 引导系数 |
|---|---|---|---|
| 540p | 544px960px97f | 30 | 6 |
用户级 GPU 推理(RTX4090)
在实际应用中,Hunyuanvideo XDIT 由于显存不足,无法在 RTX 4090 上进行推理。为解决这一问题,我们基于官方的卸载机制、FP8 模型权重和 VAE 分块技术进行了优化,具体措施包括:
a) 优化模型加载与初始化逻辑,避免将 FP16 模型完全加载到内存中。
b) 减小 VAE 分块尺寸,以降低显存占用。
针对 SkyReelsInfer 在 RTX 4090 上的部署,我们将采取以下措施以确保充足的显存资源并提升推理效率:
a) 模型量化:采用仅权重 FP8 量化,确保模型能够完整加载到显存中。
b) 卸载策略:启用参数级卸载,进一步减少显存使用。
c) 多 GPU 并行:开启上下文并行、CFG 并行和 VAE 并行,实现分布式处理。
d) 计算优化:利用 SegaAttn 优化注意力层计算,并启用 Torch.Compile 对 Transformer 进行编译优化(支持 4 GPU 和 8 GPU 配置)。
| GPU 数量 | hunyuanvideo + xdit | SkyReelsInfer |
|---|---|---|
| 1 | 显存溢出 | 889.31s |
| 2 | 显存溢出 | 453.69s |
| 4 | 464.3s | 293.3s |
| 8 | 无法将视频序列拆分为 ulysses_degree x ring_degree | 159.43s |
上表总结了在 RTX 4090 上使用 HunyuanVideo XDIT 和 SkyReelsVideoInfer 生成 544p、时长 4 秒视频的端到端延迟测试结果。由此可得出以下结论:
- 在相同的 RTX 4090 资源条件下(4 张 GPU),SkyReelsInfer 版本相比 HunyuanVideo XDIT 将端到端延迟降低了 58.3%(293.3s 对比 464.3s)。
- SkyReelsInfer 版本具备更稳健的部署策略,在用户级别支持从 1 张到 8 张 GPU 的推理部署。
A800
基于 A800(80G),主要测试对比了 HunyuanVideo XDIT 和 SkyReelsInfer 在不牺牲输出质量前提下的性能差异。
| GPU 数量 | hunyuanvideo + xdit | SkyReelsInfer |
|---|---|---|
| 1 | 884.20s | 771.03s |
| 2 | 487.22s | 387.01s |
| 4 | 263.48s | 205.49s |
| 8 | 无法将视频序列拆分为 ulysses_degree x ring_degree | 107.41s |
上表总结了在 A800 上使用 HunyuanVideo XDIT 和 SkyReelsVideoInfer 生成 544p、时长 4 秒视频的端到端延迟测试结果。由此可得出以下结论:
在相同的 A800 资源条件下,SkyReelsInfer 版本相比官方 HunyuanVideo 版本,端到端延迟降低了 14.7% 至 28.2%。
SkyReelsInfer 版本拥有更为稳健的多 GPU 部署策略。
致谢
我们衷心感谢 HunyuanVideo、ParaAttention 以及 Diffusers 仓库的贡献者们,感谢他们开放的研究成果与无私的贡献。
引用
@misc{SkyReelsV1,
author = {SkyReels-AI},
title = {Skyreels V1: 以人为本的视频基础模型},
year = {2025},
publisher = {GitHub},
journal = {GitHub 仓库},
howpublished = {\url{https://github.com/SkyworkAI/SkyReels-V1}}
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备