VBench
VBench 是一套专为视频生成模型打造的综合评估基准工具,旨在解决当前 AI 视频领域缺乏统一、客观评价标准的难题。随着各类视频生成模型层出不穷,如何科学地衡量它们在画面质量、动作流畅度、语义一致性等多维度的表现成为行业痛点。VBench 通过构建涵盖多个关键维度的评估体系,结合自动化指标与人类偏好对齐机制,为不同模型提供公平、全面的“考试成绩单”。
该项目不仅收录了丰富的测试提示词套件和采样视频数据,还提供了从安装到运行的一站式代码实现,支持研究人员快速复现对比实验。其独特亮点在于不断迭代升级(如 VBench-2.0),引入了更贴近真实应用场景的评估维度,并开放了在线排行榜和互动竞技场,让用户能直观查看各模型生成的实际视频效果。
VBench 特别适合人工智能研究人员、算法开发者以及关注视频生成技术进展的产品团队使用。无论是想要验证新模型的性能,还是希望了解行业最新水平,VBench 都能提供可靠的数据支撑和分析视角。作为一个开源项目,它正逐步成为视频生成领域不可或缺的评估基础设施,推动整个社区向更高标准迈进。
使用场景
某 AI 初创公司的算法团队正在研发一款面向短视频平台的文生视频模型,急需在发布前对多个迭代版本进行全方位的能力评估与横向对比。
没有 VBench 时
- 评估维度单一:团队仅依赖人工主观打分或简单的像素级指标(如 FID),难以量化视频在“动态幅度”、“时空一致性”等关键维度的表现,导致优化方向模糊。
- 缺乏统一标准:不同研究员使用各自编写的脚本和提示词库进行测试,结果无法复现,团队内部对哪个版本更优争论不休,严重拖慢决策效率。
- 人力成本高昂:为了获得相对可靠的结论,需要组织大量人员进行长时间的视频观看与标注,耗费数天时间且容易因疲劳产生偏差。
- 难以对齐人类偏好:自建的评价体系往往与真实用户的观感脱节,模型在测试集得分高,但生成内容在实际应用中仍显得僵硬或不自然。
使用 VBench 后
- 多维深度洞察:VBench 提供了涵盖主体一致性、背景质量、运动流畅度等 16 个维度的自动化评估,精准定位模型在“复杂动作生成”上的短板,指导针对性调优。
- 标准化基准对比:利用 VBench 统一的提示词套件和评测协议,团队能在同一标准下快速复现并对比不同版本模型,用数据说话,瞬间达成共识。
- 自动化高效流程:只需调用 API 即可批量完成数百个视频样本的评分,将原本需要数天的人工评估工作压缩至几小时内完成,大幅加速迭代周期。
- 高度人类对齐:VBench 的评分逻辑经过严格的人类偏好校准,其给出的高分视频在真实用户测试中确实获得了更高的满意度,确保了研发成果的商业价值。
VBench 将模糊的主观感受转化为精确的多维数据,成为视频生成模型从实验室走向高质量落地的核心标尺。
运行环境要求
- 未说明
未说明
未说明

快速开始

本仓库提供了VBench系列工作的统一实现,支持对视频生成模型在广泛能力与场景下的全面评估。
如果您的问题未在此README中得到解答,请联系黄子琪,邮箱: ZIQI002 [at] e [dot] ntu [dot] edu [dot] sg。
目录
- 概述 - 请参阅本节以了解各组件的位置以及VBench、VBench++和VBench-2.0之间的区别。
- 更新
- 评估结果
- 视频生成模型信息
- 安装
- 使用
- 提示词套件
- 采样视频
- 评估方法套件
- 引用与致谢
:mega: 概述
本仓库提供了VBench系列工作的统一实现,支持对视频生成模型在广泛能力与场景下的全面评估。
(1) VBench
简而言之:评估视频生成——基准测试 • 评估维度 • 评估方法 • 人类一致性 • 洞察
VBench:面向视频生成模型的综合基准测试套件
黄子琪(https://ziqihuangg.github.io/)∗, 何一楠(https://github.com/yinanhe/)∗, 于嘉硕(https://scholar.google.com/citations?user=iH0Aq0YAAAAJ&hl=zh-CN)∗, 张帆(https://github.com/zhangfan-p/)∗, 史晨阳(https://chenyangsi.top/)、蒋宇明(https://yumingj.github.io/)、张元翰(https://zhangyuanhan-ai.github.io/)、吴天行(https://tianxingwu.github.io/)、金庆阳(https://github.com/Vchitect/VBench)、纳塔波尔·差恩派西特(https://nattapolchan.github.io/me)、王耀辉(https://wyhsirius.github.io/)、陈欣源(https://scholar.google.com/citations?user=3fWSC8YAAAAJ)、王利民(https://wanglimin.github.io)、林大华(http://dahua.site/)+, 乔宇(http://mmlab.siat.ac.cn/yuqiao/index.html)+, 刘子威(https://liuziwei7.github.io/)+
IEEE/CVF计算机视觉与模式识别会议(CVPR),2024年

我们提出了VBench,一个面向视频生成模型的综合基准测试套件。我们设计了一个全面且分层的评估维度套件, 将“视频生成质量”分解为多个明确的维度,以促进精细化和客观化的评估。针对每个维度和每类内容,我们精心设计了提示词套件作为测试用例,并从一组视频生成模型中采样生成的视频。对于每个评估维度,我们专门设计了评估方法套件, 采用精心设计的方法或指定的流程进行自动化的客观评估。此外,我们还对每个维度的生成视频进行了人类偏好标注, 并证明VBench的评估结果与人类感知高度一致。VBench可以从多个角度提供有价值的洞察。
注意:VBench各组件的代码和README文件位于此处,相对路径为.。
@InProceedings{huang2023vbench,
title={{VBench}: Comprehensive Benchmark Suite for Video Generative Models},
author={Huang, Ziqi and He, Yinan and Yu, Jiashuo and Zhang, Fan and Si, Chenyang and Jiang, Yuming and Zhang, Yuanhan and Wu, Tianxing and Jin, Qingyang and Chanpaisit, Nattapol and Wang, Yaohui and Chen, Xinyuan and Wang, Limin and Lin, Dahua and Qiao, Yu and Liu, Ziwei},
booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year={2024}
}
(2) VBench++
简而言之:在VBench的基础上扩展了三个模块,分别是(1)用于图像到视频生成的VBench-I2V、(2)用于长视频评估的VBench-Long,以及(3)涵盖公平性、偏差和安全性的VBench-Trustworthiness。
VBench++:面向视频生成模型的全面且多功能基准测试套件
黄子琪∗, 张帆∗, 徐晓杰, 何一楠, 于家硕, 董子悦, 马倩莉, 纳塔波尔·差派西特, 司晨阳, 姜宇明, 王耀辉, 陈欣源, 陈英聪, 王利民, 林大华+, 乔宇+, 刘子威+
IEEE模式分析与机器智能汇刊(TPAMI),2025年

VBench++ 支持广泛的视频生成任务,包括文本到视频和图像到视频,并配备自适应的图像集,以在不同场景下实现公正的评估。它不仅评估技术质量,还关注生成模型的可信度,从而提供对模型性能的全面视角。我们持续将更多视频生成模型纳入VBench,以便向社区展示视频生成领域的最新发展动态。
注意:VBench++ 各组件的代码及README位于:
- (1) VBench-I2V(图像到视频):链接,相对路径为
vbench2_beta_i2v - (2) VBench-Long(长视频评估):链接,相对路径为
vbench2_beta_long - (3) VBench-Trustworthiness(公平性、偏差和安全性):链接,相对路径为
vbench2_beta_trustworthiness
*这些模块属于VBench++,而非VBench或VBench-2.0。然而,为了保持对已安装该仓库用户的向后兼容性,我们保留了原有的相对路径名称,并在此予以说明。 *
@article{huang2025vbench++,
title={{VBench++}: Comprehensive and Versatile Benchmark Suite for Video Generative Models},
author={Huang, Ziqi and Zhang, Fan and Xu, Xiaojie and He, Yinan and Yu, Jiashuo and Dong, Ziyue and Ma, Qianli and Chanpaisit, Nattapol and Si, Chenyang and Jiang, Yuming and Wang, Yaohui and Chen, Xinyuan and Chen, Ying-Cong and Wang, Limin and Lin, Dahua and Qiao, Yu and Liu, Ziwei},
journal={IEEE Transactions on Pattern Analysis and Machine Intelligence},
year={2025},
doi={10.1109/TPAMI.2025.3633890}
}
(3) VBench-2.0
简而言之:扩展VBench以评估内在忠实性——这是下一代视频生成模型面临的关键挑战。
VBench-2.0:推进面向内在忠实性的视频生成基准测试套件
郑典∗, 黄子琪∗, 刘洪波, 邹凯, 何一楠, 张帆, 张元翰、 何静雯, 郑伟石+, 乔宇+, 刘子威+
VBench-2.0概览。(a) VBench-2.0的范围。视频生成模型已经从在像素保真度和基本提示遵循等基础技术层面实现表面忠实性,发展到应对更复杂的内在忠实性挑战,包括常识推理、物理现实感、人体运动和创意构图等。尽管VBench主要评估早期的技术质量,但VBench-2.0扩展了基准测试框架,以评估这些高级能力,从而确保对下一代模型进行更全面的评价。(b) VBench-2.0的评估维度。VBench-2.0引入了一个结构化的评估体系,包含五大类和18个细粒度的能力维度。
注意:VBench-2.0各组件的代码及README位于链接,相对路径为 VBench-2.0。
@article{zheng2025vbench2,
title={{VBench-2.0}: Advancing Video Generation Benchmark Suite for Intrinsic Faithfulness},
author={Zheng, Dian and Huang, Ziqi and Liu, Hongbo and Zou, Kai and He, Yinan and Zhang, Fan and Zhang, Yuanhan and He, Jingwen and Zheng, Wei-Shi and Qiao, Yu and Liu, Ziwei},
journal={arXiv preprint arXiv:2503.21755},
year={2025}
}
:fire: 更新
- [03/2026] VBench-I2V Arena 发布:
在这里查看生成的视频,并为您喜欢的视频投票。您可以根据所选文本提示,探索由您选择的模型生成的视频。
- [11/2025] VBench++ 被 TPAMI 接收:
- [05/2025] 我们支持对 VBench-2.0 进行 自定义视频评估!请参阅 此处 获取说明。
- [04/2025] AIGC 视频中的人体异常检测: 我们发布了用于评估 AIGC 视频中人体解剖质量的流程,包括一个关于真实和 AIGC 视频的人体异常手动标注数据集,以及异常检测的训练流程。
- [03/2025] :fire: 重大更新!我们发布了 VBench-2.0! :fire: 视频生成模型已经从在像素保真度和基本提示遵循等基础技术方面实现 表面忠实性,发展到解决与 内在忠实性 相关的更复杂挑战,包括常识推理、基于物理的真实感、人体动作和创意构图。虽然 VBench 主要评估早期的技术质量,但 VBench-2.0 扩展了基准测试框架,以评估这些高级能力,从而确保对下一代模型进行更全面的评估。
- [01/2025] PyPI 更新:v0.1.5 预处理错误修复,支持 torch>=2.0。
- [01/2025] VBench Arena 发布:
在这里查看生成的视频,并为您喜欢的视频投票。该演示包含超过 18 万个生成的视频,您可以根据所选文本提示,探索由您选择的模型(我们已支持 40 个模型)生成的视频。
[09/2024] VBench-Long 排行榜 上线:我们的 VBench-Long 榜单现已收录 10 款长视频生成模型。VBench 榜单目前共有 40 款文生视频(长短皆有)模型。欢迎所有视频生成模型参与!
[09/2024] PyPI 更新:PyPI 包已更新至版本 0.1.4: 错误修复及多 GPU 推理支持。
[08/2024] 更长且更具描述性的提示:可在此获取! 我们借鉴 CogVideoX 的提示优化技术,利用 GPT-4o 对 VBench 提示进行增强,使其更长、更具描述性,同时不改变其原意。
[08/2024] VBench 榜单 更新:我们的榜单目前已有 28 款 T2V 模型 和 12 款 I2V 模型。欢迎所有视频生成模型参与!
[06/2024] :fire: VBench-Long :fire: 已准备就绪,可用于评估类似 Sora 的较长视频!
[05/2024] PyPI 更新:PyPI 包
vbench已更新至 0.1.2 版本。此次更新包括针对高分辨率图像/视频的预处理改进(用于imaging_quality)、支持自定义视频评估,以及一些小的错误修复。[04/2024] 我们发布了所有用于 VBench 评估的样本视频。
详情请见 此处。
[03/2024] :fire: VBench-Trustworthiness :fire: 我们现在支持评估视频生成模型的 可信度(例如文化、公平性、偏见、安全性)。
[03/2024] :fire: VBench-I2V :fire: 我们现在支持评估 图像转视频(I2V) 模型。我们还提供了 图像套件。
[03/2024] 我们支持 自定义视频评估!请参阅 此处 获取说明。
[12/2023] :fire: VBench :fire: 16 个 文生视频(T2V)评估 维度的评估代码已发布。
['subject_consistency', 'background_consistency', 'temporal_flickering', 'motion_smoothness', 'dynamic_degree', 'aesthetic_quality', 'imaging_quality', 'object_class', 'multiple_objects', 'human_action', 'color', 'spatial_relationship', 'scene', 'temporal_style', 'appearance_style', 'overall_consistency']
[11/2023] 提示套件发布。(提示列表请见 此处)
:mortar_board: 评估结果
请查看我们的排行榜,获取最新排名和数值结果(包含 Gen-3、Kling、Pika 等模型)。
此外,我们还分别展示了开源模型和闭源模型的雷达图评估结果。为了更清晰地进行比较,结果已在每个维度上进行了归一化处理。
:trophy: 排行榜
请在我们的排行榜中查看具体数值:1st_place_medal::2nd_place_medal::3rd_place_medal:
:film_projector: 模型信息
有关我们用于评估的视频生成模型的详细信息,请参阅模型信息。
:hammer: 安装
使用 pip 安装
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118 # 或其他支持 CUDA<=12.1 的 PyTorch 版本
pip install vbench
若需评估部分视频生成能力,您需要通过以下方式安装 detectron2:
pip install detectron2@git+https://github.com/facebookresearch/detectron2.git
如果在安装 detectron2 时出现错误,请参阅此处。Detectron2 仅支持 CUDA 12.1 或 11.X。
请将 VBench_full_info.json 下载到您的运行目录,以读取基准测试提示集。
使用 git 克隆安装
git clone https://github.com/Vchitect/VBench.git
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118 # 或其他支持 CUDA<=12.1 的版本
pip install VBench
如果在安装 detectron2 时遇到问题,请参阅此处。
使用方法
使用 VBench 评估视频及视频生成模型。
- 补充说明:VBench 旨在基于标准基准测试评估不同模型。因此,默认情况下,我们会强制使用 标准 VBench 提示列表 进行评估,以确保不同视频生成模型之间的 公平比较。这也是为什么当找不到所需视频时会发出警告的原因。这是通过在 VBench_full_info.json 中定义提示集来实现的。然而,我们也理解许多用户希望使用 VBench 评估自己的视频,或使用不属于 VBench 提示集的提示生成的视频,因此我们还增加了 评估自定义视频 的功能。只需设置
mode=custom_input,即可评估您自己的视频。
[新] 评估自定义视频
我们支持评估任意视频。只需提供视频文件的路径,或包含您视频的文件夹路径即可,对视频名称无要求。
- 注意:我们支持针对以下维度的自定义视频/提示:
'subject_consistency', 'background_consistency', 'motion_smoothness', 'dynamic_degree', 'aesthetic_quality', 'imaging_quality'
要使用自定义输入提示评估视频,请运行我们的脚本并添加 --mode=custom_input 参数:
python evaluate.py \
--dimension $DIMENSION \
--videos_path /path/to/folder_or_video/ \
--mode=custom_input
或者您也可以使用以下命令:
vbench evaluate \
--dimension $DIMENSION \
--videos_path /path/to/folder_or_video/ \
--mode=custom_input
若需使用多张 GPU 进行评估,可使用以下命令:
torchrun --nproc_per_node=${GPUS} --standalone evaluate.py ...args...
或
vbench evaluate --ngpus=${GPUS} ...args...
基于 VBench 标准提示集的评估
命令行
vbench evaluate --videos_path $VIDEO_PATH --dimension $DIMENSION
例如:
vbench evaluate --videos_path "sampled_videos/lavie/human_action" --dimension "human_action"
Python
from vbench import VBench
my_VBench = VBench(device, <path/to/VBench_full_info.json>, <path/to/save/dir>)
my_VBench.evaluate(
videos_path = <video_path>,
name = <name>,
dimension_list = [<dimension>, <dimension>, ...],
)
例如:
from vbench import VBench
my_VBench = VBench(device, "vbench/VBench_full_info.json", "evaluation_results")
my_VBench.evaluate(
videos_path = "sampled_videos/lavie/human_action",
name = "lavie_human_action",
dimension_list = ["human_action"],
)
不同内容类别的评估
命令行
vbench evaluate \
--videos_path $VIDEO_PATH \
--dimension $DIMENSION \
--mode=vbench_category \
--category=$CATEGORY
或
python evaluate.py \
--dimension $DIMENSION \
--videos_path /path/to/folder_or_video/ \
--mode=vbench_category
VideoCrafter-1.0 的评估示例
我们提供了下载 VideoCrafter-1.0 样本及其相应评估脚本的工具。
# 下载样本视频
sh scripts/download_videocrafter1.sh
# 评估 VideoCrafter-1.0
sh scripts/evaluate_videocrafter1.sh
提交至排行榜
我们提供了用于计算排行榜中 总分、质量分 和 语义分 的脚本。您可以在本地运行这些脚本以获得汇总分数,或在提交至排行榜前作为最终检查。
# 将评估结果打包成 zip 文件。
cd evaluation_results
zip -r ../evaluation_results.zip .
# 【可选】获取您的提交文件的总分。
python scripts/cal_final_score.py --zip_file {path_to_evaluation_results.zip} --model_name {your_model_name}
您可以将 json 文件提交至 HuggingFace
如何计算总分
要计算总分,我们按照以下步骤进行:
归一化:
每个维度的结果都使用以下公式进行归一化:归一化分数 = (dim_score - min_val) / (max_val - min_val)质量得分:
质量得分是以下维度的加权平均值:
主体一致性、背景一致性、时间闪烁、运动流畅性、美学质量、成像质量以及动态程度。语义得分:
语义得分是以下维度的加权平均值:
物体类别、多物体、人类动作、颜色、空间关系、场景、外观风格、时间风格以及整体一致性。加权平均计算:
总分是质量得分和语义得分的加权平均:总分 = w1 * 质量得分 + w2 * 语义得分
每个维度用于归一化的最小值和最大值,以及平均计算中的权重系数,都可以在scripts/constant.py文件中找到。
VBench-I2V 的总分
关于 VBench-I2V 的总分计算,可以参考链接。
:gem: 预训练模型
[可选] 请根据 pretrained 文件夹中各模型的 model_path.txt 文件中的指导,将预训练权重下载到 ~/.cache/vbench 目录下。
:bookmark_tabs: 提示词套件
我们提供的提示词列表位于 prompts/ 目录下。
查看提示词套件的详细信息,以及关于如何采样视频用于评估的说明。
:bookmark_tabs: 采样视频
为了便于未来的研究并确保完全透明,我们发布了所有用于 VBench 评估的采样视频。您可以在Google Drive上下载这些视频。
有关采样视频的详细说明,请参阅此处。
我们还提供了被评估模型的详细设置在此处。
:surfer: 评估方法套件
要对某一维度进行评估,运行以下命令:
python evaluate.py --videos_path $VIDEOS_PATH --dimension $DIMENSION
- 完整的维度列表如下:
['subject_consistency', 'background_consistency', 'temporal_flickering', 'motion_smoothness', 'dynamic_degree', 'aesthetic_quality', 'imaging_quality', 'object_class', 'multiple_objects', 'human_action', 'color', 'spatial_relationship', 'scene', 'temporal_style', 'appearance_style', 'overall_consistency']
或者,您也可以使用此脚本同时评估多个模型和多个维度:
bash evaluate.sh
- 默认的采样视频路径为:
vbench_videos/{model}/{dimension}/{prompt}-{index}.mp4/gif
在评估时间闪烁维度之前,必须先过滤掉静态视频。
要过滤时间闪烁维度中的静态视频,运行以下命令:
# 此命令仅过滤掉与时间闪烁维度提示匹配的静态视频。
python static_filter.py --videos_path $VIDEOS_PATH
您可以调整过滤范围,方法如下:
# 1. 将过滤范围改为考虑 videos_path 内的所有文件进行过滤。
python static_filter.py --videos_path $VIDEOS_PATH --filter_scope all
# 2. 指定一个 JSON 文件路径 ($filename),只考虑提示与 $filename 中列出的提示匹配的视频。
python static_filter.py --videos_path $VIDEOS_PATH --filter_scope $filename
:hearts: 致谢
:muscle: VBench 贡献者
顺序按加入项目的时间排列:
:hugs: 开源仓库
如果没有以下开源仓库,本项目将无法实现: AMT、UMT、RAM、CLIP、RAFT、GRiT、IQA-PyTorch、ViCLIP以及LAION 美学预测器。
相关链接
我们正在整理 Awesome-Evaluation-of-Visual-Generation,该项目收集了用于评估视觉生成模型的相关工作。
我们的相关项目包括:Evaluation Agent、Uni-MMMU 和 WorldLens。
@InProceedings{zhang2024evaluationagent,
title = {Evaluation Agent: 针对视觉生成模型的高效且可提示式评估框架},
author = {Zhang, Fan and Tian, Shulin and Huang, Ziqi and Qiao, Yu and Liu, Ziwei},
booktitle={计算语言学协会年会 (ACL), 2025},
year = {2025}
}
@article{zou2025unimmmumassivemultidisciplinemultimodal,
title={{Uni-MMMU}: 一个大规模多学科多模态统一基准},
author = {Kai Zou and Ziqi Huang and Yuhao Dong and Shulin Tian and Dian Zheng and Hongbo Liu and Jingwen He and Bin Liu and Yu Qiao and Ziwei Liu},
journal={arXiv 预印本 arXiv:2510.13759},
year = {2025}
}
@article{worldlens,
title = {{WorldLens}: 在真实世界中对驾驶类世界模型的全谱评估},
author = {Ao Liang and Lingdong Kong and Tianyi Yan and Hongsi Liu and Wesley Yang and Ziqi Huang and Wei Yin and Jialong Zuo and Yixuan Hu and Dekai Zhu and Dongyue Lu and Youquan Liu and Guangfeng Jiang and Linfeng Li and Xiangtai Li and Long Zhuo and Lai Xing Ng and Benoit R. Cottereau and Changxin Gao and Liang Pan and Wei Tsang Ooi and Ziwei Liu},
journal = {arXiv 预印本 arXiv:2512.xxxxx},
year = {2025}
}
联系方式
如何联系我们:
- 代码问题:如遇到任何问题或 bug,请在我们的 GitHub 仓库中提交 issue。
- 评估请求:如需提交您的样本视频进行评估,请填写此 Google 表单。
- 一般咨询:请查看我们的 FAQ,以获取常见问题解答。如有其他问题,请联系黄子琪,邮箱为 ZIQI002 [at] e [dot] ntu [dot] edu [dot] sg。
:black_nib: 引用
如果您认为我们的仓库对您的研究有所帮助,请考虑引用我们的论文:
@InProceedings{huang2023vbench,
title={{VBench}: 视频生成模型的综合基准套件},
author={Huang, Ziqi and He, Yinan and Yu, Jiashuo and Zhang, Fan and Si, Chenyang and Jiang, Yuming and Zhang, Yuanhan and Wu, Tianxing and Jin, Qingyang and Chanpaisit, Nattapol and Wang, Yaohui and Chen, Xinyuan and Wang, Limin and Lin, Dahua and Qiao, Yu and Liu, Ziwei},
booktitle={IEEE/CVF 计算机视觉与模式识别会议论文集},
year={2024}
}
@article{huang2025vbench++,
title={{VBench++}: 视频生成模型的全面且多功能基准套件},
author={Huang, Ziqi and Zhang, Fan and Xu, Xiaojie and He, Yinan and Yu, Jiashuo and Dong, Ziyue and Ma, Qianli and Chanpaisit, Nattapol and Si, Chenyang and Jiang, Yuming and Wang, Yaohui and Chen, Xinyuan and Chen, Ying-Cong and Wang, Limin and Lin, Dahua and Qiao, Yu and Liu, Ziwei},
journal={IEEE 模式分析与机器智能汇刊},
year={2025},
doi={10.1109/TPAMI.2025.3633890}
}
@article{zheng2025vbench2,
title={{VBench-2.0}: 推进视频生成基准套件以提升内在忠实度},
author={Zheng, Dian and Huang, Ziqi and Liu, Hongbo and Zou, Kai and He, Yinan and Zhang, Fan and Zhang, Yuanhan and He, Jingwen and Zheng, Wei-Shi and Qiao, Yu and Liu, Ziwei},
journal={arXiv 预印本 arXiv:2503.21755},
year={2025}
}
版本历史
v0.1.42024/09/03v0.1.22024/06/04v0.1.12024/06/05常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
opencv
OpenCV 是一个功能强大的开源计算机视觉库,被誉为机器视觉领域的“瑞士军刀”。它主要解决让计算机“看懂”图像和视频的核心难题,提供了从基础的图像读取、色彩转换、边缘检测,到复杂的人脸识别、物体追踪、3D 重建及深度学习模型部署等全方位算法支持。无论是处理静态图片还是分析实时视频流,OpenCV 都能高效完成特征提取与模式识别任务。 这款工具特别适合计算机视觉开发者、人工智能研究人员以及机器人工程师使用。对于希望将视觉感知能力集成到应用中的软件工程师,或是需要快速验证算法原型的学术研究者,OpenCV 都是不可或缺的基础设施。虽然普通用户通常不会直接操作代码,但日常生活中使用的扫码支付、美颜相机和自动驾驶系统,背后往往都有它的身影。 OpenCV 的独特亮点在于其卓越的性能与广泛的兼容性。它采用 C++ 编写以确保高速运算,同时提供 Python、Java 等多种语言接口,极大降低了开发门槛。库中内置了数千种优化算法,并支持跨平台运行,能够无缝对接各类硬件加速器。作为社区驱动的项目,OpenCV 拥有活跃的生态系统和丰富的学习资源,持续推动着视觉技术的前沿发展。
