VideoTuna

GitHub
547 29 中等 1 次阅读 2周前NOASSERTION视频开发框架Agent图像
AI 解读 由 AI 自动生成,仅供参考

VideoTuna 是一个专为视频生成模型打造的一站式开源框架,旨在简化从文本、图像到视频的多种生成任务(包括 T2V、I2V、T2I 及 V2V)。它解决了当前 AI 视频领域工具分散、训练流程割裂的痛点,首次将模型推理、微调、持续训练、预训练以及基于人类反馈的强化学习(RLHF)对齐整合在统一的代码库中。

无论是希望快速验证效果的算法研究人员,还是需要将模型适配到特定垂直领域的开发者,VideoTuna 都能提供极大的便利。用户不仅可以利用它轻松调用 Wan2.1、Hunyuan Video、CogVideoX 等前沿模型进行推理,还能通过简洁的流程对模型进行微调和持续优化,甚至利用视频增强模型对生成结果进行后处理修复。

其核心技术亮点在于“全链路”支持:不仅覆盖了从数据准备到模型对齐的完整生命周期,还引入了 VideoVAE+ 等自研的高性能组件,实现了比肩业界顶尖水平的视频重建质量。此外,项目采用 Poetry 管理依赖并支持自动代码格式化,确保了开发环境的高效与整洁。如果你正致力于探索或定制属于自己的视频生成模型,VideoTuna 将是一个值得信赖的强大助手。

使用场景

一家专注于电商营销的初创团队,需要为不同品类的商品快速生成高质量的定制化短视频广告。

没有 VideoTuna 时

  • 模型切换繁琐:团队需分别搭建 Text-to-Video、Image-to-Video 等多套独立环境,代码库分散,维护成本极高。
  • 领域适配困难:通用模型生成的视频缺乏品牌特色(如特定光影或产品质感),缺乏统一的微调接口进行领域适应。
  • 迭代周期漫长:想要引入新数据持续优化模型或对齐人类审美偏好(RLHF),需从头编写训练脚本,耗时数周。
  • 画质修复割裂:生成视频若出现瑕疵,需额外寻找并集成独立的视频增强工具,工作流断点严重。

使用 VideoTuna 后

  • 一站式框架整合:通过 VideoTuna 统一代码架构,轻松调用 HunyuanVideo、CogVideoX 等主流模型,无缝切换 T2V、I2V 等多种任务。
  • 高效领域微调:利用内置的微调流水线,快速将预训练模型适配到“美妆”或"3C"特定场景,显著提升了视频的品牌一致性。
  • 持续进化能力:借助连续训练和人类偏好对齐功能,团队能利用新收集的用户反馈数据不断迭代模型,使生成效果越用越精准。
  • 闭环画质增强:直接调用集成的 Video-to-Video 增强模块,在生成后立即自动修复瑕疵并提升分辨率,实现了从生成到优化的全流程闭环。

VideoTuna 通过构建全链路视频生成与微调体系,将原本碎片化的开发流程整合为高效闭环,极大降低了定制化视频模型的生产门槛与时间成本。

运行环境要求

操作系统
  • Linux
  • macOS
GPU
  • 需要 NVIDIA GPU(Linux 推荐),macOS 需通过 Docker 运行
  • 显存需求依模型而定:推理最低约 3GB (CogVideoX-2B),最高约 77GB (WanVideo I2V)
  • 训练/微调推荐 H800 80G,单卡或多卡(1-4 张)配置
  • 未明确指定 CUDA 版本,但依赖 flash-attn 和 xformers 通常暗示需要较新版本
内存

未说明

依赖
notes1. Linux 环境下推荐使用 Conda 配合 Poetry 管理环境。2. macOS (Apple Silicon) 用户必须使用 Docker Compose,因为部分依赖(如 bitsandbytes, decord, xformers)不支持 arm64 架构。3. Hunyuan 模型可选安装 flash-attn 以降低显存占用并加速。4. 视频增强功能需额外安装 modelscope[cv]。5. 所有训练命令已在 H800 80G GPU 上测试通过。6. 部分依赖安装可能卡顿,建议重试。
python3.10
poetry
flash-attn (可选)
modelscope[cv] (可选)
torch
transformers
diffusers
accelerate
bitsandbytes
decord
xformers
VideoTuna hero image

快速开始

VideoTuna

VideoTuna

版本 访问量 主页 GitHub

🤗🤗🤗 VideoTuna 是一个用于文本到视频应用的实用代码库。
🌟 VideoTuna 是首个整合了多种 AI 视频生成模型的仓库,包括“文本到视频 (T2V)”、“图像到视频 (I2V)”、“文本到图像 (T2I)”以及“视频到视频 (V2V)”等生成任务,可用于模型推理与微调(据我们所知)。
🌟 VideoTuna 也是首个提供全面视频生成流水线的仓库,涵盖从微调到预训练、持续训练以及后训练对齐等全流程(据我们所知)。

🔆 特性

videotuna-pipeline-fig3 🌟 一体化框架: 支持各类最新预训练视频生成模型的推理与微调。
🌟 持续训练: 可利用新数据不断优化您的模型。
🌟 微调: 将预训练模型适配到特定领域。
🌟 人类偏好对齐: 利用 RLHF 技术使模型更符合人类偏好。
🌟 后处理: 使用视频到视频增强模型对生成的视频进行优化和修正。

🔆 更新

  • [2025-04-22] 🐟 支持 Wan2.1Step Video推理,以及 HunyuanVideo T2V微调,并采用统一的代码库架构。
  • [2025-02-03] 🐟 通过 PR#27 支持自动代码格式化。感谢 @samidarko!
  • [2025-02-01] 🐟 迁移到 Poetry 以简化依赖管理和脚本运行(PR#25)。感谢 @samidarko!
  • [2025-01-20] 🐟 支持 Flux-T2I微调
  • [2025-01-01] 🐟 在 VideoVAEPlus 仓库 中发布了 VideoVAE+训练
  • [2025-01-01] 🐟 支持 Hunyuan VideoMochi推理
  • [2024-12-24] 🐟 发布了 VideoVAE+:一款 SOTA 视频 VAE 模型——现已在 此仓库 中可用!其视频重建效果优于 NVIDIA 的 Cosmos-Tokenizer
  • [2024-12-01] 🐟 支持 ModelScope 提供的 CogVideoX-1.5-T2V&I2V视频到视频增强推理
  • [2024-12-01] 🐟 支持 CogVideoX微调
  • [2024-11-01] 🐟 🎉 发布了 VideoTuna v0.1.0
    初始支持包括对 VideoCrafter1-T2V&I2VVideoCrafter2-T2VDynamiCrafter-I2VOpenSora-T2VCogVideoX-1-2B-T2VCogVideoX-1-T2VFlux-T2I 的推理,以及对 VideoCrafterDynamiCrafterOpen-Sora 的训练与微调。

🔆 开始使用

1. 准备环境

(1) 如果您使用 Linux 和 Conda(推荐)

conda create -n videotuna python=3.10 -y
conda activate videotuna
pip install poetry
poetry install
  • ↑ 大约需要 3 分钟。

可选:安装 Flash-attn

Hunyuan 模型使用它来减少内存占用并加速推理。如果未安装,模型将以正常模式运行。可通过以下命令安装 flash-attn

poetry run install-flash-attn 
  • ↑ 大约需要 1 分钟。

可选:视频到视频增强

poetry run pip install "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
  • 如果此命令 ↑ 卡住,终止后重新运行即可解决问题。

(2) 如果您使用 Linux 和 Poetry(不使用 Conda):

点击查看说明

安装 Poetry:https://python-poetry.org/docs/#installation
然后:

poetry config virtualenvs.in-project true # 可选但建议,确保虚拟环境创建在项目根目录
poetry config virtualenvs.create true # 启用此参数以确保虚拟环境创建在项目根目录
poetry env use python3.10 # 将创建虚拟环境,可通过 `ls -l .venv` 检查。
poetry env activate # 可选,因为 Poetry 命令(例如 `poetry install` 或 `poetry run <command>`)会自动加载虚拟环境。
poetry install

可选:安装 Flash-attn

Hunyuan 模型使用它来减少内存占用并加速推理。如果未安装,模型将以正常模式运行。可通过以下命令安装 flash-attn

poetry run install-flash-attn

可选:视频到视频增强

poetry run pip install "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
  • 如果此命令 ↑ 卡住,终止后重新运行即可解决问题。

(3) 如果您使用 MacOS

点击查看说明

在搭载 Apple Silicon 芯片的 macOS 上,请使用 docker compose,因为某些依赖项不支持 arm64 架构(例如 bitsandbytesdecordxformers)。

首先构建:

docker compose build videotuna

为保留项目文件权限,设置以下环境变量:

export HOST_UID=$(id -u)
export HOST_GID=$(id -g)

安装依赖项:

docker compose run --remove-orphans videotuna poetry env use /usr/local/bin/python
docker compose run --remove-orphans videotuna poetry run python -m pip install --upgrade pip setuptools wheel
docker compose run --remove-orphans videotuna poetry install
docker compose run --remove-orphans videotuna poetry run pip install "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html

注意:安装 swissarmytransformer 可能会卡住。只需重试即可成功。

添加依赖项:

docker compose run --remove-orphans videotuna poetry add wheel

检查依赖项:

docker compose run --remove-orphans videotuna poetry run pip freeze

运行 Poetry 命令:

docker compose run --remove-orphans videotuna poetry run format

启动终端:

docker compose run -it --remove-orphans videotuna bash

2. 准备检查点

3. 推理最先进的 T2V/I2V/T2I 模型

运行以下命令进行模型推理: 它将根据 inputs/t2v/prompts.txt 中的提示自动生成 T2V/T2I,并根据 inputs/i2v/576x1024 中的图像和提示生成 I2V。

T2V

任务 模型 命令 长度(帧数) 分辨率 推理时间 GPU 内存(GB)
T2V HunyuanVideo poetry run inference-hunyuan-t2v 129 720x1280 32分钟 60G
T2V WanVideo poetry run inference-wanvideo-t2v-720p 81 720x1280 32分钟 70G
T2V StepVideo poetry run inference-stepvideo-t2v-544x992 51 544x992 8分钟 61G
T2V Mochi poetry run inference-mochi 84 480x848 2分钟 26G
T2V CogVideoX-5b poetry run inference-cogvideo-t2v-diffusers 49 480x720 2分钟 3G
T2V CogVideoX-2b poetry run inference-cogvideo-t2v-diffusers 49 480x720 2分钟 3G
T2V Open Sora V1.0 poetry run inference-opensora-v10-16x256x256 16 256x256 11秒 24G
T2V VideoCrafter-V2-320x512 poetry run inference-vc2-t2v-320x512 16 320x512 26秒 11G
T2V VideoCrafter-V1-576x1024 poetry run inference-vc1-t2v-576x1024 16 576x1024 2分钟 15G

I2V

任务 模型 命令 长度(帧数) 分辨率 推理时间 GPU 内存(GB)
I2V WanVideo poetry run inference-wanvideo-i2v-720p 81 720x1280 28分钟 77G
I2V HunyuanVideo poetry run inference-hunyuan-i2v-720p 129 720x1280 29分钟 43G
I2V CogVideoX-5b-I2V poetry run inference-cogvideox-15-5b-i2v 49 480x720 5分钟 5G
I2V DynamiCrafter poetry run inference-dc-i2v-576x1024 16 576x1024 2分钟 53G
I2V VideoCrafter-V1 poetry run inference-vc1-i2v-320x512 16 320x512 26秒 11G

T2I

任务 模型 命令 长度(帧数) 分辨率 推理时间 GPU 内存(GB)
T2I Flux-dev poetry run inference-flux-dev 1 768x1360 4秒 37G
T2I Flux-dev poetry run inference-flux-dev --enable_vae_tiling --enable_sequential_cpu_offload 1 768x1360 4.2分钟 2G
T2I Flux-schnell poetry run inference-flux-schnell 1 768x1360 1秒 37G
T2I Flux-schnell poetry run inference-flux-schnell --enable_vae_tiling --enable_sequential_cpu_offload 1 768x1360 24秒 2G

4. 微调 T2V 模型

(1) 准备数据集

请按照 docs/datasets.md 中的说明,尝试使用提供的玩具数据集,或构建您自己的数据集。

(2) 微调

所有训练命令均在 H800 80G 显卡上测试通过。
T2V

任务 模型 模式 命令 更多详情 #GPU
T2V Wan Video LoRA 微调 poetry run train-wan2-1-t2v-lora docs/finetune_wan.md 1
T2V Wan Video 全量微调 poetry run train-wan2-1-t2v-fullft docs/finetune_wan.md 1
T2V Hunyuan Video LoRA 微调 poetry run train-hunyuan-t2v-lora docs/finetune_hunyuanvideo.md 2
T2V CogvideoX LoRA 微调 poetry run train-cogvideox-t2v-lora docs/finetune_cogvideox.md 1
T2V CogvideoX 全量微调 poetry run train-cogvideox-t2v-fullft docs/finetune_cogvideox.md 4
T2V Open-Sora v1.0 全量微调 poetry run train-opensorav10 - 1
T2V VideoCrafter LoRA 微调 poetry run train-videocrafter-lora docs/finetune_videocrafter.md 1
T2V VideoCrafter 全量微调 poetry run train-videocrafter-v2 docs/finetune_videocrafter.md 1

I2V

任务 模型 模式 命令 更多详情 #GPU
I2V Wan Video LoRA 微调 poetry run train-wan2-1-i2v-lora docs/finetune_wan.md 1
I2V Wan Video 全量微调 poetry run train-wan2-1-i2v-fullft docs/finetune_wan.md 1
I2V CogvideoX LoRA 微调 poetry run train-cogvideox-i2v-lora docs/finetune_cogvideox.md 1
I2V CogvideoX 全量微调 poetry run train-cogvideox-i2v-fullft docs/finetune_cogvideox.md 4

T2I

任务 模型 模式 命令 更多详情 #GPUs
T2I Flux Lora 微调 poetry run train-flux-lora docs/finetune_flux.md 1

5. 评估

我们支持 VBench 评估,用于评价 T2V 的生成性能。 详细信息请参阅 eval/README.md

贡献

Git 钩子

Git 钩子由 pre-commit 库管理。

安装钩子

运行以下命令以在 commit 时安装钩子。它们将检查格式、代码风格和类型注解。

poetry run pre-commit install
poetry run pre-commit install --hook-type commit-msg

在不提交的情况下运行钩子

poetry run pre-commit run --all-files

致谢

我们感谢以下项目分享了他们优秀的模型和代码!

  • Wan2.1: Wan:开放且先进的大规模视频生成模型。
  • HunyuanVideo: 大规模视频生成模型的系统化框架。
  • Step-Video: 一个拥有300亿参数的文本到视频预训练模型,能够生成长达204帧的视频。
  • Mochi: 开源视频生成领域的最新SOTA模型。
  • VideoCrafter2: 克服数据限制,打造高质量视频扩散模型。
  • VideoCrafter1: 开放的高质量视频生成扩散模型。
  • DynamiCrafter: 利用视频扩散先验动画化开放领域图像。
  • Open-Sora: 让高效视频制作惠及所有人。
  • CogVideoX: 具有专家级Transformer的文本到视频扩散模型。
  • VADER: 通过奖励梯度实现视频扩散对齐。
  • VBench: 视频生成模型的全面基准测试套件。
  • Flux: Black Forest Labs 的文本到图像模型。
  • SimpleTuner: 文本到图像生成的微调工具包。

一些资源

🍻 贡献者

📋 许可证

请遵守 CC-BY-NC-ND 许可协议。如需许可授权,请联系项目负责人 Yingqing He (yhebm@connect.ust.hk) 和 Yazhou Xing (yxingag@connect.ust.hk)。

😊 引用

@software{videotuna,
  author = {Yingqing He and Yazhou Xing and Zhefan Rao and Haoyu Wu and Zhaoyang Liu and Jingye Chen and Pengjun Fang and Jiajun Li and Liya Ji and Runtao Liu and Xiaowei Chi and Yang Fei and Guocheng Shao and Yue Ma and Qifeng Chen},
  title = {VideoTuna: 一款功能强大的视频生成工具包,支持模型微调和后训练优化},
  month = {Nov},
  year = {2024},
  url = {https://github.com/VideoVerses/VideoTuna}
}

星标历史

星标历史图表

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|5天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|6天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

150k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|昨天
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|4天前
插件开发框架