Video-ChatGPT

GitHub
1.5k 130 较难 1 次阅读 2周前CC-BY-4.0插件视频开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

Video-ChatGPT 是一款专为视频理解设计的对话模型,旨在让 AI 不仅能“看”懂视频内容,还能像人类一样围绕视频进行深度交流。它有效解决了传统模型难以捕捉视频时空动态变化、无法生成连贯且有意义对话的痛点,让用户可以通过自然语言提问,获取关于视频情节、动作细节及因果关系的精准回答。

这款工具非常适合人工智能研究人员、开发者以及需要处理视频数据分析的专业人士使用。对于希望探索多模态大模型潜力的研究者,Video-ChatGPT 提供了宝贵的基线模型;对于开发者,其开源特性便于二次开发与集成;同时,对视频内容分析有需求的普通用户也能通过它获得更智能的交互体验。

其核心技术亮点在于巧妙结合了大型语言模型(LLM)的强大推理能力与经过适配的预训练视觉编码器,专门用于提取视频的时空特征。此外,项目团队还首创了一套严谨的“定量评估基准”(VCGBench),填补了视频对话模型缺乏标准化评测体系的空白,推动了该领域的规范化发展。作为 ACL 2024 的亮点成果,Video-ChatGPT 不仅展示了卓越的性能,更为实现细致的视频理解树立了新的标杆。

使用场景

某在线教育平台的内容审核团队每天需要处理数千段用户上传的教学视频,以确保内容合规并提取关键知识点用于检索。

没有 Video-ChatGPT 时

  • 审核人员必须全程人工观看长视频,耗时费力且容易因疲劳漏掉违规片段或细微的错误演示。
  • 现有的图像识别工具只能分析单帧画面,无法理解视频中动作的连续性(如实验操作步骤是否连贯),导致误判率高。
  • 想要搜索特定教学内容(如“展示牛顿第二定律实验”)时,只能依赖上传者手动填写的标签,缺乏对视频实际内容的深度语义理解。
  • 为视障学生生成视频语音描述时,需要专门聘请编剧撰写脚本,成本高昂且更新速度远远跟不上视频上传量。

使用 Video-ChatGPT 后

  • 审核团队只需将视频输入 Video-ChatGPT,它便能自动生成详细的内容摘要和潜在风险点报告,将单视频审核时间从 15 分钟缩短至 30 秒。
  • 借助其时空视觉编码能力,Video-ChatGPT 能精准理解动态过程,准确判断实验步骤的逻辑顺序,大幅降低了因静态分析导致的误报。
  • 教师可以直接用自然语言提问(如“视频中哪一段展示了错误的电路连接?”),Video-ChatGPT 能直接定位时间段并给出解释,实现了基于内容的智能检索。
  • 系统可利用 Video-ChatGPT 批量自动生成符合无障碍标准的详细旁白脚本,让海量新视频能即时服务于视障群体,几乎零边际成本。

Video-ChatGPT 通过将深层视频理解与大语言模型的推理能力结合,把原本依赖人力的视频内容处理流程转变为高效、精准且可交互的自动化智能工作流。

运行环境要求

操作系统
  • Linux
GPU

需要 NVIDIA GPU(用于安装 FlashAttention 及训练),具体型号和显存未说明,需支持 CUDA

内存

未说明

依赖
notes建议使用 conda 创建名为 video_chatgpt 的环境。训练时必须额外编译安装 FlashAttention (v1.0.7)。README 未直接列出 requirements.txt 的具体内容,但项目基于 LLaVA 架构,通常依赖 PyTorch、Transformers 等深度学习库。
python3.10
requirements.txt 中定义的依赖
flash-attention==1.0.7
ninja
Video-ChatGPT hero image

快速开始

独角兽 视频-ChatGPT :movie_camera: :speech_balloon:

独角兽 视频-ChatGPT

视频-ChatGPT:通过大型视觉与语言模型实现细节丰富的视频理解 [ACL 2024 🔥]

Muhammad Maaz* , Hanoona Rasheed* , Salman KhanFahad Khan

* 共同第一作者

穆罕默德·本·扎耶德人工智能大学


多样化视频生成性能基准测试 (VCGBench-Diverse)

PWC

基于视频的生成性能基准测试

PWC

零样本问答评估

PWC PWC PWC PWC


演示 论文 演示片段 离线演示 训练 视频指令数据 定量评估 定性分析
演示 YouTube 论文 演示片段-1 演示片段-2 演示片段-3 演示片段-4 离线演示 训练 视频指令数据集 定量评估 定性分析

:loudspeaker: 最新动态

  • 25年3月28日移动版-VideoGPT 发布。它在多个基准测试中取得了优异成绩,吞吐量提高了两倍。请查看 移动版-VideoGPT :fire::fire:

  • 24年6月14日VideoGPT+ 发布。它在多个基准测试中达到了最先进水平。请访问 [VideoGPT+] (https://github.com/mbzuai-oryx/VideoGPT-plus) 了解详情 :fire::fire:
  • 24年6月14日半自动视频标注流水线 发布。请访问 GitHubHuggingFace 查看详情 :fire::fire:
  • 24年6月14日VCGBench-Diverse 基准测试 发布。该基准提供了涵盖18个视频类别的4,354组人工标注的问答对,用于全面评估视频对话模型的性能。请访问 GitHubHuggingFace 查看详情 :fire::fire:

  • 24年5月16日:视频-ChatGPT 被 ACL 2024 接受! 🎊🎊
  • 23年9月30日:我们的 VideoInstruct100K 数据集可从 HuggingFace/VideoInstruct100K 下载。 :fire::fire:
  • 23年7月15日:我们针对基于视频的对话模型的定量评估基准现在有了专门的网站:https://mbzuai-oryx.github.io/Video-ChatGPT。 :fire::fire:
  • 23年6月28日:更新了 GitHub 说明文档,其中包含了视频-ChatGPT 与近期模型——Video Chat、Video LLaMA 和 LLaMA Adapter 的基准比较。在这些先进的对话模型中,视频-ChatGPT 依然保持着最先进的性能。:fire::fire:
  • 23年6月8日:发布了训练代码、离线演示、教学数据和技术报告。所有资源,包括模型、数据集和提取的特征,均可在此处获取 这里。 :fire::fire:
  • 23年5月21日:视频-ChatGPT 演示发布。

在线演示 :computer:

:fire::fire: 您可以通过提供的示例或上传自己的视频来试用我们的演示 在这里 :fire::fire:

:fire::fire: 或者点击图片即可试用演示! :fire::fire: 演示 您可以在 这里查看我们演示的所有视频。


视频-ChatGPT 概述 :bulb:

视频-ChatGPT 是一种能够围绕视频生成有意义对话的视频对话模型。它结合了大型语言模型的能力,并配备了一个为时空视频表示而优化的预训练视觉编码器。

视频-ChatGPT 架构概览


贡献 :trophy:

  • 我们引入了10万对高质量的视频-指令数据,并提出了一种可扩展的新型标注框架,能够生成多样化且高质量的视频特定指令集。
  • 我们开发了首个用于基准测试视频对话模型的定量视频对话评估框架。
  • 具备独特的多模态(视觉-语言)能力,结合视频理解和语言生成,并通过定量和定性的比较,在视频推理、创造力、时空理解以及动作识别等任务上进行了全面评估。

Contributions


安装 :wrench:

我们建议为该项目设置一个 conda 环境:

conda create --name=video_chatgpt python=3.10
conda activate video_chatgpt

git clone https://github.com/mbzuai-oryx/Video-ChatGPT.git
cd Video-ChatGPT
pip install -r requirements.txt

export PYTHONPATH="./:$PYTHONPATH"

此外,为了进行训练,请安装 FlashAttention

pip install ninja

git clone https://github.com/HazyResearch/flash-attention.git
cd flash-attention
git checkout v1.0.7
python setup.py install

离线运行演示 :cd:

要离线运行演示,请参阅 offline_demo.md 中的说明。


训练 :train:

有关训练的说明,请查看 train_video_chatgpt.md


视频指令数据集 :open_file_folder:

我们发布了用于训练 Video-ChatGPT 模型的10万条高质量视频指令数据集。您可以从 这里 下载该数据集。 关于用于生成该数据的人工辅助与半自动标注框架的更多详细信息,请参阅 VideoInstructionDataset.md


定量评估 :bar_chart:

我们的论文提出了一种新的基于视频的对话模型定量评估框架。如需探索我们的基准测试并深入了解该框架, 请访问我们的专用网站:https://mbzuai-oryx.github.io/Video-ChatGPT

有关如何进行定量评估的详细说明,请参阅 QuantitativeEvaluation.md

提供了 基于视频的生成性能基准测试零样本问答评估 表格,以供详细性能概览。

零样本问答评估

模型 MSVD-QA MSRVTT-QA TGIF-QA Activity Net-QA
准确率 分数 准确率 分数 准确率 分数 准确率 分数
FrozenBiLM 32.2 -- 16.8 -- 41.0 -- 24.7 --
Video Chat 56.3 2.8 45.0 2.5 34.4 2.3 26.5 2.2
LLaMA Adapter 54.9 3.1 43.8 2.7 - - 34.2 2.7
Video LLaMA 51.6 2.5 29.6 1.8 - - 12.4 1.1
Video-ChatGPT 64.9 3.3 49.3 2.8 51.4 3.0 35.2 2.7

基于视频的生成性能基准测试

评估方面 Video Chat LLaMA Adapter Video LLaMA Video-ChatGPT
信息准确性 2.23 2.03 1.96 2.40
细节导向性 2.50 2.32 2.18 2.52
上下文理解 2.53 2.30 2.16 2.62
时间理解 1.94 1.98 1.82 1.98
一致性 2.24 2.15 1.79 2.37

定性分析 :mag:

对 Video-ChatGPT 在多项任务中的表现进行全面评估。

视频推理任务 :movie_camera:

sample1


创意与生成任务 :paintbrush:

sample5


空间理解 :globe_with_meridians:

sample8


视频理解和对话任务 :speech_balloon:

sample10


动作识别 :runner:

sample22


问答任务 :question:

sample14


时间理解 :hourglass_flowing_sand:

sample18


致谢 :pray:

  • LLaMA:一项致力于开放高效大语言模型的伟大尝试!
  • Vicuna:拥有令人惊叹的语言能力!
  • LLaVA:我们的架构灵感来源于 LLaVA。
  • 感谢 MBZUAI 的同事们在视频标注任务中做出的重要贡献,包括 Salman Khan、Fahad Khan、Abdelrahman Shaker、Shahina Kunhimon、Muhammad Uzair、Sanoojan Baliah、Malitha Gunawardhana、Akhtar Munir、 Vishal Thengane、Vignagajan Vigneswaran、Jiale Cao、Nian Liu、Muhammad Ali、Gayal Kurrupu、Roba Al Majzoub、 Jameel Hassan、Hanan Ghani、Muzammal Naseer、Akshay Dudhane、Jean Lahoud、Awais Rauf、Sahal Shaji、Bokang Jia, 没有他们的努力,本项目将无法实现。

如果您在研究或应用中使用 Video-ChatGPT,请使用以下 BibTeX 格式引用:

@inproceedings{Maaz2023VideoChatGPT,
    title={Video-ChatGPT: Towards Detailed Video Understanding via Large Vision and Language Models},
    author={Maaz, Muhammad and Rasheed, Hanoona and Khan, Salman and Khan, Fahad Shahbaz},
    booktitle={Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (ACL 2024)},
    year={2024}
}

许可证 :scroll:

知识共享许可协议
本作品采用 知识共享 署名-非商业性使用-相同方式共享 4.0 国际许可协议授权。

我们期待您的反馈、贡献和星级评价! :star2: 如有任何问题或疑问,请在此处提交:这里


常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|今天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|3天前
开发框架图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|今天
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型