STCN
STCN 是一个专为视频对象分割设计的高效开源框架,曾荣获 NeurIPS 2021 论文收录。它主要解决在长视频中精准追踪并分割目标物体的难题,特别是在面对未知类别物体时,依然能保持极高的准确率与运行速度。
不同于传统方法,STCN 创新性地提出了“时空对应网络”架构。其核心技术亮点在于直接构建图像帧之间的关联,而非依赖耗时的“图像 - 掩码”对计算,并结合 L2 相似度度量替代点积运算。这一改进大幅降低了显存占用,显著提升了推理效率,使其在普通显卡上即可实现每秒 20 至 30 帧的实时处理速度,同时在 YouTubeVOS 等权威基准测试中屡获佳绩。
STCN 非常适合计算机视觉领域的研究人员、算法工程师以及需要处理视频分析任务的开发者使用。它不仅性能强大,而且架构简洁,仅需两块 11GB 显存的 GPU 即可完成训练,无需顶级硬件支持。项目提供了完整的预训练模型、推理代码及交互式演示界面,方便用户快速上手验证或基于此进行二次开发,是探索高效视频分割技术的理想选择。
使用场景
某短视频特效团队需要为海量用户生成视频中的动态贴纸(如给奔跑的宠物自动添加装饰),要求处理速度快且边缘精准。
没有 STCN 时
- 渲染延迟高:传统视频分割模型计算量大,单帧处理耗时久,无法达到实时预览所需的 20+ FPS,导致用户等待时间过长。
- 显存占用爆炸:随着视频时长增加,历史帧记忆库迅速膨胀,普通消费级显卡(如 11GB 显存)极易溢出,必须依赖昂贵的多卡集群。
- 长视频跟踪丢失:在物体被短暂遮挡或快速运动后,算法难以建立有效的时空关联,导致贴纸“跟丢”或闪烁,需人工逐帧修复。
- 部署成本高昂:为了平衡速度与精度,往往需要复杂的工程优化和特定的高端硬件(如 V100),增加了服务器运维负担。
使用 STCN 后
- 实现流畅实时交互:STCN 凭借高效的时空对应网络,在混合精度下轻松突破 30 FPS,让用户在手机端也能即时看到完美的特效预览。
- 内存利用极致优化:通过改进的记忆覆盖机制和 L2 相似度计算,大幅压缩了显存需求,使得单张 11GB 显卡即可流畅处理长视频序列。
- 鲁棒性显著增强:即使在物体遮挡或剧烈形变场景下,STCN 仍能保持稳定的时空一致性,自动生成连贯平滑的蒙版,几乎无需人工干预。
- 落地门槛大幅降低:模型结构简单且无需特殊硬件加持,团队可直接在现有服务器上部署,快速将算法转化为线上产品功能。
STCN 通过重构时空记忆机制,以极低的算力成本解决了视频对象分割中速度与精度的长期矛盾,让高质量视频特效的大规模实时应用成为可能。
运行环境要求
- 未说明
需要 NVIDIA GPU,训练需 2 张 11GB 显存显卡(无需 V100),推理测试基于 RTX 2080 Ti
未说明

快速开始
STCN
通过改进的内存覆盖重新思考时空网络,以实现高效的视频目标分割
Ho Kei Cheng、Yu-Wing Tai、Chi-Keung Tang
NeurIPS 2021
[arXiv] [PDF] [项目页面] [Papers with Code]
欢迎查看我们的新作 Cutie!

新闻: 在 YouTubeVOS 2021 挑战赛 中,STCN 在新颖(未知)类别中取得了准确率第一,在总体准确率中取得了第二名。我们的解决方案还具有速度快、轻量级的特点。
我们提出了时空对应网络(STCN),作为一种新的、高效且有效的框架,用于在视频目标分割的背景下建模时空对应关系。 STCN 在多个基准测试中取得了 SOTA 结果,同时在不使用额外花哨技术的情况下,仍能以 20+ FPS 的速度运行。使用混合精度时,其速度甚至更高。 尽管效果显著,但该网络本身非常简单,仍有很大的改进空间。具体技术细节请参阅论文。
更新(2021年7月15日)
- CBAM 块:我们尝试过不使用 CBAM 块,我认为我们确实不需要它。对于 s03 模型,我们在 DAVIS 上降低了 1.2 分,在 YouTubeVOS 上提高了 0.1 分。对于 s012 模型,我们在 DAVIS 和 YouTubeVOS 上都提高了 0.1 分。您可以选择移除此块(请参阅
no_cbam分支)。总的来说,规模更大的 YouTubeVOS 似乎是一个更合适的评估基准,能够更好地衡量一致性。
更新(2021年8月22日)
- 可重复性:我们已更新了下方的软件包要求。在该环境下,我们在两台不同的机器上多次运行后,得到的 DAVIS J&F 分数范围为 [85.1, 85.5]。
更新(2022年4月27日)
多尺度测试代码(如论文中所述)已添加至 这里。
我们在这里提供了什么?
-
- DAVIS 2016
- DAVIS 2017 验证集/测试集
- YouTubeVOS 2018/2019
复现步骤
简要介绍

本工作主要有两个贡献:STCN 框架(上图)和 L2 相似度。我们是在图像之间建立亲和力,而不是在(图像,掩码)对之间——这大大提高了速度、节省了内存(因为我们只计算一个亲和力矩阵,而不是多个),并且增强了鲁棒性。此外,我们还用 L2 相似度替代点积,从而极大地提高了记忆库的利用率。
优点
- 简单,运行速度快(使用混合精度时可达 30+ FPS;不使用时也有 20+ FPS)
- 性能优异
- 仍有很大的改进空间(例如局部性、内存空间压缩)
- 易于训练:只需两块 11GB 的 GPU,无需 V100
要求
我们在开发该项目时使用了以下软件包及版本:
- PyTorch
1.8.1 - torchvision
0.9.1 - OpenCV
4.2.0 - Pillow-SIMD
7.0.0.post3 - progressbar2
- thinspline 用于训练(
pip install git+https://github.com/cheind/py-thin-plate-spline) - gitpython 用于训练
- gdown 用于下载预训练模型
- 我环境中的其他软件包,仅供参考。
请参考官方 PyTorch 指南 安装 PyTorch/torchvision,以及 pillow-simd 指南安装 Pillow-SIMD。其余软件包可通过以下命令安装:
pip install progressbar2 opencv-python gitpython gdown git+https://github.com/cheind/py-thin-plate-spline
结果
符号说明
- FPS 是平均值,计算方式为总处理时间除以总帧数,与对象数量无关,即多对象 FPS,并在 RTX 2080 Ti 上测量,排除了 IO 时间。
- 我们还提供了使用自动混合精度(AMP)时的推理速度——性能几乎相同。论文中的速度数据未使用 AMP 测量。
- 所有评估均在 480p 分辨率下进行。test-dev 的 FPS 是在验证集上以相同的内存设置(每三帧保存一次内存)测量的,以确保一致性。
s012 表示带有 BL 预训练的模型,而 s03 表示没有预训练的模型(之前在 MiVOS 中称为 s02)。
数据(s012)
| 数据集 | 划分 | J&F | J | F | FPS | FPS (AMP) |
|---|---|---|---|---|---|---|
| DAVIS 2016 | 验证集 | 91.7 | 90.4 | 93.0 | 26.9 | 40.8 |
| DAVIS 2017 | 验证集 | 85.3 | 82.0 | 88.6 | 20.2 | 34.1 |
| DAVIS 2017 | test-dev | 79.9 | 76.3 | 83.5 | 14.6 | 22.7 |
| 数据集 | 总分 | J-Seen | F-Seen | J-Unseen | F-Unseen | | --- | --- | :--:|:--:|:---:|:---:|:---:| | YouTubeVOS 18 | 验证集 | 84.3 | 83.2 | 87.9 | 79.0 | 87.2 | | YouTubeVOS 19 | 验证集 | 84.2 | 82.6 | 87.0 | 79.4 | 87.7 |
| 数据集 | AUC-J&F | J&F @ 60s |
|---|---|---|
| DAVIS Interactive | 88.4 | 88.8 |
对于 DAVIS interactive,我们将 MiVOS 的传播模块从 STM 更改为 STCN。详细信息请参阅 此链接。
在您自己的数据上试用(提供交互式 GUI)
如果您(不知何故)拥有第一帧的分割结果(或者更一般地说,每个对象首次出现时的分割结果),可以使用 eval_generic.py。请查看该文件顶部的说明。
如果您只是想交互式地体验一下,我强烈推荐 我们对 MiVOS 的扩展 :yellow_heart: ——它配备了交互式 GUI,而且非常高效、有效。
复现结果
预训练模型
我们对 YouTubeVOS 和 DAVIS 使用相同的模型。你可以自行下载并将它们放入 ./saves/ 目录,或者使用 download_model.py 脚本。
s012 模型(效果更好):[Google Drive] [OneDrive]
s03 模型:[Google Drive] [OneDrive]
s0 预训练模型:[GitHub]
s01 预训练模型:[GitHub]
推理
eval_davis_2016.py用于 DAVIS 2016 验证集eval_davis.py用于 DAVIS 2017 验证集和 test-dev 集(通过--split参数控制)eval_youtube.py用于 YouTubeVOS 2018/19 验证集(通过--yv_path参数控制)
命令行参数的提示信息应该能让你大致了解如何使用它们。例如,如果你已经使用我们的脚本下载了数据集和预训练模型,那么对于 DAVIS 2017 验证集的评估,你只需要指定输出路径即可:python eval_davis.py --output [somewhere]。而对于 YouTubeVOS 的评估,则需要将 --yv_path 指向你选择的版本。
多尺度测试代码(如论文中所述)已添加到 这里。
训练
数据准备
我建议要么对现有数据进行软链接(ln -s),要么使用提供的 download_datasets.py 脚本,按照我们的格式组织数据集。download_datasets.py 可能会下载比你需要的更多的内容——只需注释掉你不想要的部分即可。该脚本不会下载 BL30K 数据集,因为它非常庞大(超过 600GB),我们不希望导致你的硬盘崩溃。具体结构如下:
├── STCN
├── BL30K
├── DAVIS
│ ├── 2016
│ │ ├── Annotations
│ │ └── ...
│ └── 2017
│ ├── test-dev
│ │ ├── Annotations
│ │ └── ...
│ └── trainval
│ ├── Annotations
│ └── ...
├── static
│ ├── BIG_small
│ └── ...
├── YouTube
│ ├── all_frames
│ │ └── valid_all_frames
│ ├── train
│ ├── train_480p
│ └── valid
└── YouTube2018
├── all_frames
│ └── valid_all_frames
└── valid
BL30K
BL30K 是在 MiVOS 中提出的一个合成数据集。
你可以使用自动脚本 download_bl30k.py,也可以手动从 MiVOS 下载。请注意,每个片段大约 115GB 大小——总共约 700GB。运行该脚本时,你需要大约 1TB 的可用磁盘空间(包括解压缓冲区)。
Google 可能会屏蔽 Google Drive 链接。你可以 1) 将文件夹创建快捷方式到你自己的 Google Drive,然后 2) 使用 rclone 从你自己的 Google Drive 复制(这不会计入你的存储限额)。
训练命令
CUDA_VISIBLE_DEVICES=[a,b] OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port [cccc] --nproc_per_node=2 train.py --id [defg] --stage [h]
我们使用分布式数据并行(DDP)在两块 11GB 显存的 GPU 上进行训练。请将 a, b 替换为 GPU ID,cccc 替换为未使用的端口号,defg 替换为唯一的实验标识符,h 替换为训练阶段(0/1/2/3)。
模型按不同阶段逐步训练(0:静态图像;1:BL30K;2:30 万张主训练数据;3:15 万张主训练数据)。每个阶段完成后,我们会加载最新训练好的权重来开始下一个阶段。
仅在阶段 0 训练得到的模型不能直接使用。所需映射关系请参见 model/model.py: load_network。
以 _checkpoint 为后缀的 .pth 文件用于恢复中断的训练(通过 --load_model 参数),但通常并不需要。一般情况下,你只需要使用 --load_network 并加载最后一个网络权重(文件名中不含 checkpoint)。
因此,要训练一个 s012 模型,我们需要依次启动三个训练步骤:
静态图像预训练:CUDA_VISIBLE_DEVICES=0,1 OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port 9842 --nproc_per_node=2 train.py --id retrain_s0 --stage 0
BL30K 数据集预训练:CUDA_VISIBLE_DEVICES=0,1 OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port 9842 --nproc_per_node=2 train.py --id retrain_s01 --load_network [path_to_trained_s0.pth] --stage 1
主训练:CUDA_VISIBLE_DEVICES=0,1 OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port 9842 --nproc_per_node=2 train.py --id retrain_s012 --load_network [path_to_trained_s01.pth] --stage 2
而要训练一个 s03 模型,则需要依次启动两个训练步骤:
静态图像预训练:CUDA_VISIBLE_DEVICES=0,1 OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port 9842 --nproc_per_node=2 train.py --id retrain_s0 --stage 0
主训练:CUDA_VISIBLE_DEVICES=0,1 OMP_NUM_THREADS=4 python -m torch.distributed.launch --master_port 9842 --nproc_per_node=2 train.py --id retrain_s03 --load_network [path_to_trained_s0.pth] --stage 3
更深入地了解
- 若要添加你的数据集,或进行数据增强操作:
dataset/static_dataset.py,dataset/vos_dataset.py - 若想修改相似度函数或记忆读取过程:
model/network.py: MemoryReader,inference_memory_bank.py - 若想调整网络结构:
model/network.py,model/modules.py,model/eval_network.py - 若想改进传播过程:
model/model.py,eval_*.py,inference_*.py
引用
如果您觉得本仓库有用,请引用我们的论文(如果您使用 top-k,请引用 MiVOS)!
@inproceedings{cheng2021stcn,
title={重新思考时空网络:通过改进内存覆盖实现高效的视频目标分割},
author={Cheng, Ho Kei 和 Tai, Yu-Wing 和 Tang, Chi-Keung},
booktitle={NeurIPS},
year={2021}
}
@inproceedings{cheng2021mivos,
title={模块化交互式视频目标分割:从交互到掩码、传播与差异感知融合},
author={Cheng, Ho Kei 和 Tai, Yu-Wing 和 Tang, Chi-Keung},
booktitle={CVPR},
year={2021}
}
如果您还想引用数据集:
BibTeX 格式
@inproceedings{shi2015hierarchicalECSSD,
title={基于扩展 CSSD 的层次化图像显著性检测},
author={Shi, Jianping 和 Yan, Qiong 和 Xu, Li 和 Jia, Jiaya},
booktitle={TPAMI},
year={2015},
}
@inproceedings{wang2017DUTS,
title={利用图像级监督学习检测显著对象},
author={Wang, Lijun 和 Lu, Huchuan 和 Wang, Yifan 和 Feng, Mengyang
和 Wang, Dong,以及 Yin, Baocai 和 Ruan, Xiang},
booktitle={CVPR},
year={2017}
}
@inproceedings{FSS1000,
title = {FSS-1000:用于少样本分割的1000类数据集},
author = {Li, Xiang 和 Wei, Tianhan 和 Chen, Yau Pun 和 Tai, Yu-Wing 和 Tang, Chi-Keung},
booktitle={CVPR},
year={2020}
}
@inproceedings{zeng2019towardsHRSOD,
title = {迈向高分辨率显著目标检测},
author = {Zeng, Yi 和 Zhang, Pingping 和 Zhang, Jianming 和 Lin, Zhe 和 Lu, Huchuan},
booktitle = {ICCV},
year = {2019}
}
@inproceedings{cheng2020cascadepsp,
title={{CascadePSP}:通过全局与局部细化实现类别无关且超高分辨率的分割},
author={Cheng, Ho Kei 和 Chung, Jihoon 和 Tai, Yu-Wing 和 Tang, Chi-Keung},
booktitle={CVPR},
year={2020}
}
@inproceedings{xu2018youtubeVOS,
title={Youtube-vos:大规模视频目标分割基准},
author={Xu, Ning 和 Yang, Linjie 和 Fan, Yuchen 和 Yue, Dingcheng 和 Liang, Yuchen 和 Yang, Jianchao 和 Huang, Thomas},
booktitle = {ECCV},
year={2018}
}
@inproceedings{perazzi2016benchmark,
title={视频目标分割的基准数据集与评估方法},
author={Perazzi, Federico 和 Pont-Tuset, Jordi 和 McWilliams, Brian 和 Van Gool, Luc 和 Gross, Markus 和 Sorkine-Hornung, Alexander},
booktitle={CVPR},
year={2016}
}
@inproceedings{denninger2019blenderproc,
title={BlenderProc},
author={Denninger, Maximilian 和 Sundermeyer, Martin 和 Winkelbauer, Dominik 和 Zidan, Youssef 和 Olefir, Dmitry 和 Elbadrawy, Mohamad 和 Lodhi, Ahsan 和 Katam, Harinandan},
booktitle={arXiv:1911.01911},
year={2019}
}
@inproceedings{shapenet2015,
title = {{ShapeNet:一个信息丰富的3D模型库}},
author = {Chang, Angel Xuan 和 Funkhouser, Thomas 和 Guibas, Leonidas 和 Hanrahan, Pat 和 Huang, Qixing 和 Li, Zimo 和 Savarese, Silvio 和 Savva, Manolis 和 Song, Shuran 和 Su, Hao 和 Xiao, Jianxiong 和 Yi, Li 和 Yu, Fisher},
booktitle = {arXiv:1512.03012},
year = {2015}
}
联系方式:hkchengrex@gmail.com
版本历史
1.02021/06/10常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器