Visual-Tracking-Development

GitHub
563 63 困难 1 次阅读 昨天其他开发框架
AI 解读 由 AI 自动生成,仅供参考

Visual-Tracking-Development 是一个专注于视觉目标跟踪领域的开源协作项目,旨在汇聚全球研究力量,共同推动该技术的演进。它主要解决了计算机视觉中“如何在连续视频帧中精准锁定并跟随特定物体”的核心难题,广泛应用于智能监控、自动驾驶及人机交互等场景。

该项目特别适合计算机视觉领域的研究人员、算法开发者以及希望深入探索跟踪技术的学生使用。与其说它是一个单一的软件工具,不如说它是一个丰富的学术资源库与发展平台。其独特亮点在于系统性地整理了从传统判别式滤波器到最新大模型(如 SAM、SAM 2)结合的前沿论文与代码资源,涵盖了综述调研、评估视角及多模态视频理解等多个维度。此外,项目发起人积极寻求合作伙伴,为有志于在该领域进行深度创新的研究者提供了宝贵的交流契机。无论你是想快速掌握行业动态,还是寻找新的科研突破口,Visual-Tracking-Development 都能提供坚实的技术支撑与广阔的协作空间。

使用场景

某安防监控团队正在开发一套智能视频分析系统,需要从长达数小时的监控录像中持续锁定并追踪特定嫌疑人的移动轨迹。

没有 Visual-Tracking-Development 时

  • 算法选型迷茫:面对海量的跟踪论文(如判别滤波器、孪生网络等),开发人员难以快速甄别哪些是业界公认的前沿方案,导致技术调研耗时数周。
  • 复现成本高昂:缺乏统一的代码基准和权威综述,团队需从零复现不同算法,常因细节缺失导致模型无法收敛或性能不达预期。
  • 场景适应性差:传统方法在目标被遮挡或快速运动时极易丢失目标,且难以结合最新的分割大模型(如 SAM)提升鲁棒性。
  • 评估标准缺失:缺少系统的评估视角,无法科学对比不同模型在特定数据集上的表现,导致最终上线的模型效果不稳定。

使用 Visual-Tracking-Development 后

  • 技术路线清晰:直接参考项目整理的 VOTSurvey 和 DL4VT 等权威综述,团队迅速锁定了基于 Siamese 网络和最新 SAM 结合的几种高潜力架构。
  • 研发效率倍增:利用项目中汇总的 TAM、SAM-Track 等开源代码链接,开发人员可直接复用成熟模块,将算法验证周期从数周缩短至几天。
  • 追踪精度跃升:通过引入项目中推荐的 Motion-Aware Memory 等先进机制,系统在人员交叉遮挡和剧烈运动场景下的目标丢失率降低了 60%。
  • 评估体系完善:依据 VOTBook 提供的评估框架,团队建立了标准化的测试流程,确保模型迭代方向始终指向实际业务指标的提升。

Visual-Tracking-Development 通过整合前沿论文与优质代码资源,将视觉跟踪领域的探索从“大海捞针”转变为“按图索骥”,极大加速了高性能监控系统的落地进程。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该 README 文件主要是一个视觉跟踪领域的论文和开源项目列表(包括 VOTSurvey, SAMURAI, SAM, AAAI/ICCV/NeurIPS 等会议的最新论文),并非一个具体的可执行软件工具。因此,文中未包含任何关于操作系统、GPU、内存、Python 版本或依赖库的具体安装和运行环境需求。用户若需运行列表中提到的具体算法(如 SAMURAI, LoRATv2 等),需前往各项目对应的独立代码仓库查看其特定的环境配置说明。
python未说明
Visual-Tracking-Development hero image

快速开始

视觉跟踪开发

寻求合作者

我正在寻找合作者,共同开展视觉跟踪研究并推动其发展。

如果您对该项目感兴趣,请随时与我联系(davidzhang@zjnu.edu.cn)。

论文

:star2: 推荐文献 :star2:

  • VOTSurvey: Sajid Javed, Martin Danelljan, Fahad Shahbaz Khan, Muhammad Haris Khan, Michael Felsberg, Jiri Matas.
    “基于判别滤波器和暹罗网络的视觉目标跟踪:综述与展望。” TAPMI (2023)。 [论文]

  • VOTBook: Xin Zhao, Shiyu Hu, Xu-Cheng Yin.
    “视觉目标跟踪:一种评估视角。” Springer (2025)。 [论文]

  • VOTSurvey: Sajid Javed, Martin Danelljan, Fahad Shahbaz Khan, Muhammad Haris Khan, Michael Felsberg, Jiri Matas.
    “基于判别滤波器和暹罗网络的视觉目标跟踪:综述与展望。” TAPMI (2023)。 [论文]

  • DL4VT: Seyed Mojtaba Marvasti-Zadeh, Li Cheng, Hossein Ghanei-Yakhdan, Shohreh Kasaei.
    “用于视觉跟踪的深度学习:综合综述。” ArXiv (2021)。 [论文] [代码]

  • SAMURAI: Cheng-Yen Yang, Hsiang-Wei Huang, Zhongyu Jiang, Wenhao Chai, Jenq-Neng Hwang.
    “SAMURAI:基于SAM 2的无训练视觉目标跟踪中的运动感知记忆。” TIP (2026)。 [arxiv] [论文] [代码]

  • SAM: Alexander Kirillov, Eric Mintun, Nikhila Ravi, Hanzi Mao, Chloe Rolland, Laura Gustafson, Tete Xiao, Spencer Whitehead, Alexander C. Berg, Wan-Yen Lo, Piotr Dollár, Ross Girshick.
    “Segment Anything.” ArXiv (2023)。 [论文] [官网] [代码]

  • TAM: Jinyu Yang, Mingqi Gao, Zhe Li, Shang Gao, Fangjing Wang, Feng Zheng.
    “Track Anything:Segment Anything与视频的结合。” ArXiv (2023)。 [论文] [代码]

  • SAM-Track: Yangming Cheng, Liulei Li, Yuanyou Xu, Xiaodi Li, Zongxin Yang, Wenguan Wang, Yi Yang.
    “Segment-and-Track Anything。” ArXiv (2023)。 [论文] [代码]

  • SEEM: Xueyan Zou, Jianwei Yang, Hao Zhang, Feng Li, Linjie Li, Jianfeng Gao, Yong Jae Lee.
    “随时随地分割一切。” ArXiv (2023)。 [论文] [代码]

  • SAM-PT: Frano Rajič, Lei Ke, Yu-Wing Tai, Chi-Keung Tang, Martin Danelljan, Fisher Yu.
    “Segment Anything与点跟踪的结合。” ArXiv (2023)。 [论文] [代码]

  • ReviewLLM: Jiaqi Wang, Zhengliang Liu, Lin Zhao, Zihao Wu, Chong Ma, Sigang Yu, Haixing Dai.
    “大型视觉模型与视觉提示工程综述。” ArXiv (2023)。 [论文] [代码]

  • ChatVideo: Junke Wang, Dongdong Chen, Chong Luo, Xiyang Dai, Lu Yuan, Zuxuan Wu, Yu-Gang Jiang.
    “ChatVideo:以轨迹为中心的多模态、多功能视频理解系统。” ArXiv (2023)。 [论文] [代码]

  • Video-ChatGPT: Muhammad Maaz, Hanoona Rasheed, Salman Khan, Fahad Shahbaz Khan.
    “Video-ChatGPT:通过大型视觉和语言模型实现精细视频理解。” ArXiv (2023)。 [论文] [代码]

  • SegGPT: Xinlong Wang, Xiaosong Zhang, Yue Cao, Wen Wang, Chunhua Shen, Tiejun Huang.
    “SegGPT:上下文中的万物分割。” ArXiv (2023)。 [论文] [代码]

AAAI 2026

  • SATA: 张天路、张强、丁贵光、韩俊功。
    “在任意模态下追踪与分割任何目标。”AAAI(2026)。 [论文] [代码]

  • LUART: 肖云、王宇航、金建东、张旺康、李成龙。
    “非对齐无人机RGBT跟踪:大规模基准及一种新方法。”AAAI(2026)。 [论文] [代码]

  • CADTrack: 李浩、王宇豪、胡先涛、郝文宁、张平平、王栋、陆虎川。
    “CADTrack:基于可变形对齐的上下文聚合学习,用于鲁棒的RGBT跟踪。”AAAI(2026)。 [论文] [代码]

  • AlignTrack: 孙传宇、张继庆、王洋、王元辰、蒋宇彤、尹宝才、杨欣。
    “AlignTrack:面向RGB-事件视觉跟踪的自顶向下时空分辨率对齐方法。”AAAI(2026)。 [论文] [代码]

  • MoDTrack: 杨洪涛、钟斌能、梁启华、胡先涛、谭宇飞、夏海英、宋书翔。
    “基于运动与几何感知线索的运动感知目标跟踪。”AAAI(2026)。 [论文] [代码]

  • MUTrack: 吴伟静、梁启华、钟斌能、唐晓虎、谭宇飞、李宁、薛元亮。
    “MUTrack:一种面向视觉跟踪的记忆感知统一表征框架。”AAAI(2026)。 [论文] [代码]

  • ADTrack: 张广通、钟斌能、杨世睿、王洋、白田。
    “面向语言稀疏条件下的鲁棒视觉-语言跟踪的感知蒸馏。”AAAI(2026)。 [论文] [代码]

  • MFDP: 王士磊、赖普健、高东、宁继峰、程功。
    “探索多模态目标跟踪中的模态感知融合与解耦时序传播。”AAAI(2026)。 [论文] [代码]

  • STDTrack: 史俊泽、于洋、史健、罗海波。
    “探索可靠时空依赖关系以实现高效视觉跟踪。”AAAI(2026)。 [论文] [代码]

  • AMTrack: 应戈、张大伟、杨承转、刘伟、全相勋、王华、黄昌钦、郑中龙。
    “利用All Mamba融合实现高效的RGB-D跟踪。”AAAI(2026)。 [论文] [代码]

  • GOLA: 邵泽凯、胡宇凡、刘京源、范斌、刘宏民。
    “面向RGB-T跟踪的群正交低秩适应。”AAAI(2026)。 [论文] [代码]

  • SFPT: 王嘉豪、刘芳、王浩、李硕、王希翼、陈普华。
    “面向对抗感知的RGB-T跟踪的语义特征净化。”AAAI(2026)。 [论文] [代码]

  • HTTrack: 王嘉豪、刘芳、焦立成、王浩、李硕、王希翼、李玲玲、陈普华、刘旭。
    “HTTrack:通过历史轨迹学习目标感知的卫星视频跟踪。”AAAI(2026)。 [论文] [代码]

  • AerialMind: 陈成志钊、梁绍峰、关润威、孙小楼、赵浩成、江海云、黄涛、丁恒辉、韩青龙。
    “AerialMind:面向无人机场景的引用式多目标跟踪。”AAAI(2026)。 [论文] [代码]

  • SAM2-OV: 陈阳凯、吴强强、李光耀、高俊龙、牛广林、王汉子。
    “SAM2-OV:一种面向开放词汇多目标跟踪的全新仅检测微调范式。”AAAI(2026)。 [论文] [代码]

  • SAM2MOT: 姜俊杰、王泽林、赵曼琪、李茵、姜东升。
    “SAM2MOT:一种基于分割的新型多目标跟踪范式。”AAAI(2026)。 [论文] [代码]

ICLR 2026

  • FARTrack: 王桂杰、林通、白一凡、曹安佳、梁诗怡、赵王博、魏兴。
    “FARTrack:高性能快速自回归视觉跟踪。”ICLR(2026)。 [论文] [代码]

  • GOT-Edit: 陈诗芳、陈俊诚、卓伊弘、林延宇。
    “GOT-Edit:通过在线模型编辑实现的几何感知通用目标跟踪。”ICLR(2026)。 [论文] [代码]

NeurIPS 2025

  • RGBDT500: 朱学锋、徐天阳、潘逸凡、顾金杰、李熙、卢继文、吴小军、约瑟夫·基特勒。
    “协作视觉、深度与热信号进行多模态跟踪。”NeurIPS(2025)。 [论文] [代码]

  • MMOT: 李天昊、许廷发、王莹、秦浩林、林旭、李佳楠。
    “MMOT:首个面向无人机多光谱多目标跟踪的挑战性基准。”NeurIPS(2025)。 [论文] [代码]

  • SpikeFET: 杨景俊、范良伟、张金浦、连向凯、沈辉、胡德文。
    “用于统一帧-事件目标跟踪的全脉冲神经网络。”NeurIPS(2025)。 [论文] [代码]

  • LoRATv2: 林丽婷、范恒、张志鹏、黄玉清、王耀威、徐勇、凌海彬。
    “LoRATv2:在单流跟踪器中实现低成本时序建模。”NeurIPS(2025)。 [论文] [代码]

  • DSATrack: 周鑫宇、潘同欣、洪灵毅、郭品雪、郭海晶、陈兆宇、蒋凯迅、张文强。
    “面向无人机跟踪的动态语义感知相关性建模。”NeurIPS(2025)。 [论文] [代码]

ICCV 2025

  • UMDATrack: 姚思远、朱睿、王梓琪、任文奇、闫燕阳、曹晓春。
    “UMDATrack:恶劣天气条件下统一的多域自适应跟踪。” ICCV(2025)。 [论文] [代码]

  • XTrack: 谭岳东、吴宗伟、傅宇谦、周竹韵、孙国磊、爱德华·赞菲、马超、达达·帕尼·保德尔、吕克·范古尔、拉杜·蒂莫夫特。
    “XTrack:多模态训练提升RGB-X视频目标跟踪器性能。” ICCV(2025)。 [论文] [代码]

  • FlexTrack: 谭岳东、邵嘉伟、爱德华·赞菲、李阮俊、安兆冲、马超、达达·保德尔、吕克·范古尔、拉杜·蒂莫夫特、吴宗伟。
    “你拥有的就是你要跟踪的:自适应且鲁棒的多模态跟踪。” ICCV(2025)。 [论文] [代码]

  • TUEs: 吴强强、于毅、孔晨琦、刘子泉、万佳、李浩亮、Alex C. Kot、安东尼·B·陈。
    “时间不可学习样本:防止个人视频数据被目标跟踪未经授权地利用。” ICCV(2025)。 [论文] [代码]

  • ATCTrack: 冯晓坤、胡世宇、李旭辰、张黛玲、吴美琪、张静、陈小堂、黄凯奇。
    “ATCTrack:通过动态目标状态对齐目标—上下文线索,实现鲁棒的视觉—语言跟踪。” ICCV(2025)。 [论文] [代码]

  • CAT: 袁永生、赵杰、王东、陆虎川。
    “CAT:用于真实场景跟踪的统一点击式跟踪框架。” ICCV(2025)。 [论文] [代码]

  • CompressTracker: 洪凌翼、李景伦、周鑫宇、严士林、郭品雪、蒋凯勋、陈兆宇、高树勇、张伟、陆宏、张文强。
    “高效Transformer目标跟踪的通用压缩框架。” ICCV(2025)。 [论文] [代码]

  • SMSTracker: 陈思贤、李泽东、李文豪、吕世健、沈春华、张晓琴。
    “SMSTracker:三路径分数掩码Sigma融合用于多模态跟踪。” ICCV(2025)。 [论文] [代码]

CVPR 2025

  • ARPTrack: 梁世义、白一凡、龚一弘、魏兴。
    “用于视觉跟踪的自回归序列预训练。” CVPR(2025)。 [论文] [代码]

  • DreamTrack: 郭明哲、谭伟平、冉文宇、景丽萍、张志鹏。
    “DreamTrack:为多模态视觉目标跟踪梦想未来。” CVPR(2025)。 [论文] [代码]

  • MamTrack: 孙传宇、张继青、王洋、葛慧琳、夏千晨、尹宝才、杨欣。
    “利用Mamba探索历史信息进行RGBE视觉跟踪。” CVPR(2025)。 [论文] [代码]

  • PURA: 邵泽凯、胡宇凡、樊斌、刘洪民。
    “PURA:用于RGB-T跟踪的参数更新—恢复测试时自适应。” CVPR(2025)。 [论文] [代码]

  • ACAttack: 向新宇、严庆龙、张浩、马佳怡。
    “ACAttack:通过多模态响应解耦实现自适应交叉攻击的RGB-T跟踪器。” CVPR(2025)。 [论文] [代码]

  • MITracker: 徐孟洁、朱逸涛、江浩天、李嘉铭、申振荣、王晟、黄浩霖、王欣宇、杨清、张涵、王倩。
    “MITracker:用于视觉目标跟踪的多视角融合。” CVPR(2025)。 [论文] [代码]

  • SPMTrack: 蔡文瑞、刘庆杰、王云鸿。
    “SPMTrack:具有专家混合的时空参数高效微调,用于可扩展的视觉跟踪。” CVPR(2025)。 [论文] [代码]

  • ORTrack: 武友、王旭成、杨向阳、刘梦圆、曾丹、叶恒州、李水旺。
    “学习遮挡鲁棒的视觉Transformer用于实时无人机跟踪。” CVPR(2025)。 [论文] [代码]

  • SGLATrack: 薛超灿、钟彬能、梁启华、郑耀宗、李宁、薛元亮、宋书翔。
    “用于无人机跟踪的相似性引导层自适应视觉Transformer。” CVPR(2025)。 [论文] [代码]

  • DUTrack: 李晓海、钟彬能、梁启华、莫志毅、农建、宋书翔。
    “用于视觉—语言跟踪中语言适应的动态更新。” CVPR(2025)。 [论文] [代码]

  • MambaVLT: 刘欣琪、周莉、周子坤、陈建秋、何振宇。
    “MambaVLT:用于视觉—语言跟踪的时间演化多模态状态空间模型。” CVPR(2025)。 [论文] [代码]

  • Mono3DVLT: 魏洪凯、杨洋、孙世杰、冯明涛、宋向宇、雷琪、胡红丽、王荣、宋焕生、纳维德·阿赫塔尔、阿吉马尔·赛义德·米安。
    “Mono3DVLT:基于单目视频的三维视觉语言跟踪”。CVPR(2025)。 [论文] [代码]

  • EdgeTAM: 周冲、朱晨晨、熊云阳、萨克沙姆·苏里、肖凡毅、吴乐萌、拉古拉曼·克里希纳穆尔蒂、戴博、陈昌礼、维卡斯·钱德拉、比尔盖·索兰。
    “EdgeTAM:端侧万物跟踪模型”。CVPR(2025)。 [论文] [代码]

  • DAM4SAM: 约瓦娜·维德诺维奇、艾伦·卢克齐奇、马泰伊·克里斯坦。
    “一种适用于SAM2的干扰物感知记忆用于视觉目标跟踪”。CVPR(2025)。 [论文] [代码]

  • MUST: 秦浩林、徐廷发、李天昊、陈振翔、冯涛、李佳楠。
    “MUST:首个多光谱无人机单目标跟踪数据集及统一框架”。CVPR(2025)。 [论文] [代码]

  • ETAP: 弗里德海姆·哈曼、丹尼尔·格里格、菲尔伯特·费布里扬托、科斯塔斯·达尼利迪斯、吉列尔莫·加列戈。
    “ETAP:基于事件的任意点跟踪”。CVPR(2025)。 [论文] [代码]

  • Chrono: 金贤洙、曹锡柱、黄家辉、李正、李俊英、金承龙。
    “探索时序感知特征用于点跟踪”。CVPR(2025)。 [论文] [代码]

  • Tracktention: 赖子航、安德烈亚·韦达尔迪。
    “Tracktention:利用点跟踪更快更好地处理视频”。CVPR(2025)。 [论文] [代码]

  • TimeTracker: 刘浩悦、许景涵、常毅、周汉宇、赵浩志、王琳、严路欣。
    “TimeTracker:基于事件的连续点跟踪,用于具有非线性运动的视频帧插值”。CVPR(2025)。 [论文] [代码]

  • ADMCMT: 樊慧杰、乔宇、甄一豪、赵庭辉、范宝杰、王强。
    “全天候多摄像头多目标跟踪”。CVPR(2025)。 [论文] [代码]

  • OmniTrack: 罗凯、史浩、吴盛、滕飞、段孟菲、黄畅、王宇航、王凯威、杨凯伦。
    “全方位多目标跟踪”。CVPR(2025)。 [论文] [代码]

  • DFormerv2: 尹博文、曹蛟龙、程明明、侯启斌。
    “DFormerv2:用于RGBD语义分割的几何自注意力机制”。CVPR(2025)。 [论文] [代码]

  • JTD-UAV: 王一帆、赵健、范兆鑫、张欣、吴雪成、张雨典、靳磊、李心悦、王刚、贾梦溪、胡平、朱郑、李学龙。
    “JTD-UAV:MLLM增强型联合跟踪与描述框架,用于反无人机系统”。CVPR(2025)。 [论文] [代码]

ICML 2025

  • MPT: 赵杰、陈欣、袁永胜、迈克尔·费尔斯贝格、王东、陆虎川。
    “用于鲁棒视觉跟踪的高效运动提示学习”。ICML(2025)。 [论文] [代码]

  • CSTrack: 冯晓坤、张大令、胡诗宇、李旭辰、吴美琪、张静、陈晓棠、黄凯琦。
    “CSTrack:通过紧凑的时空特征提升RGB-X跟踪性能”。ICML(2025)。 [论文] [代码]

ACM MM 2025

  • RSTrack: 曾凡胜、钟彬能、夏海英、谭宇飞、胡先涛、石良涛、宋书祥。
    “在监督下进行显式上下文推理以用于视觉跟踪”。ACM MM(2025)。 [论文] [代码]

  • UniBench300: 唐章勇、徐天阳、朱学峰、程春阳、周涛、吴晓军、约瑟夫·基特勒。
    “串行优于并行:为多模态视觉目标跟踪与基准测试学习持续统一体验”。ACM MM(2025)。 [论文] [代码]

  • Gen4Track: 葛嘉伟、张馨宇、曹九鑫、朱雪林、刘伟佳、高青青、曹碧薇、王坤、刘畅、刘博、冯晨、伊万尼斯·帕特拉斯。
    “Gen4Track:通过自校正扩散模型实现无需调优的数据增强框架,用于视觉—语言跟踪”。ACM MM(2025)。 [论文] [代码]

  • FA3T: 王家豪、刘芳、焦立成、王浩、李硕、李玲玲、陈普华、刘旭、王新怡。
    “FA3T:面向多模态跟踪的特征感知对抗攻击”。ACM MM(2025)。 [论文] [代码]

  • MST: 王士磊、程功、赖普建、高东、韩俊伟。
    “多状态跟踪器:通过多状态专业化与交互提升高效目标跟踪能力”。ACM MM(2025)。 [论文] [代码]

IJCAI 2025

  • FastSeqTrack: 李东东、高志南、蒯阳柳、陈锐。
    “探索视觉目标跟踪中高效且有效的序列学习。” IJCAI(2025)。 [论文] [代码]

  • SSTrack: 寇宇彤、林书博、李亮、李冰、胡伟明、高进。
    “SSTrack:用于轻量级视觉目标跟踪的样本间隔调度。” IJCAI(2025)。 [论文] [代码]

  • TUMFNet: 丁兆东、李成龙、缪圣清、唐进。
    “基于模板的不确定性多模态融合网络用于RGBT跟踪。” IJCAI(2025)。 [论文] [代码]

  • GDSTrack: 李胜兰、姚睿、周勇、朱汉成、孙坤阳、刘兵、邵志文、赵佳琪。
    “模态引导的动态图融合与时间扩散用于自监督RGB-T跟踪。” IJCAI(2025)。 [论文] [代码]

AAAI 2025

  • STTrack: 胡先涛、邰英、赵旭、赵晨、张振宇、李俊、钟彬能、杨健。
    “利用多模态时空模式进行视频目标跟踪。” AAAI(2025)。 [论文] [代码]

  • SUTrack: 陈鑫、康奔、耿婉婷、朱嘉雯、刘毅、王栋、陆虎川。
    “SUTrack:迈向简单统一的单目标跟踪。” AAAI(2025)。 [论文] [代码]

  • MIMTrack: 王兴梅、聂国豪、孟家祥、严子宁。
    “MIMTrack:通过掩码图像建模实现情境内跟踪。” AAAI(2025)。 [论文] [代码]

  • AINet: 卢安东、王万宇、李成龙、唐进、罗斌。
    “通过全层多模态交互与渐进式融合Mamba实现RGBT跟踪。” AAAI(2025)。 [论文] [代码]

  • CMS: 向新宇、颜庆龙、张浩、丁建峰、徐涵、王中原、马佳怡。
    “跨模态隐身:一种用于RGB-T跟踪器的粗细结合攻击框架。” AAAI(2025)。 [论文] [代码]

  • CAFormer: 肖云、赵家聪、卢安东、李成龙、林寅、尹冰、刘聪。
    “用于RGBT跟踪的跨模态调制注意力Transformer。” AAAI(2025)。 [论文] [代码]

  • TemTrack: 谢金霞、钟彬能、梁启华、李宁、莫志义、宋淑香。
    “通过基于Mamba的上下文感知标记学习实现鲁棒跟踪。” AAAI(2025)。 [论文] [代码]

  • LMTrack: 徐辰龙、钟彬能、梁启华、郑耀宗、李国荣、宋淑香。
    “少即是多:用于目标跟踪的标记上下文感知学习。” AAAI(2025)。 [论文] [代码]

  • MambaLCT: 李晓海、钟彬能、梁启华、李国荣、莫志义、宋淑香。
    “MambaLCT:通过长期上下文状态空间模型提升跟踪性能。” AAAI(2025)。 [论文] [代码]

  • SSTrack: 郑耀宗、钟彬能、梁启华、李宁、宋淑香。
    “用于自监督跟踪的解耦时空一致性学习。” AAAI(2025)。 [论文] [代码]

  • MCITrack: 康奔、陈鑫、赖思淼、刘洋、刘毅、王栋。
    “探索增强的情境信息用于视频级目标跟踪。” AAAI(2025)。 [论文] [代码]

  • AsymTrack: 朱嘉雯、汤怀义、陈鑫、王欣颖、王栋、陆虎川。
    “双流胜过单流:用于高效视觉跟踪的非对称暹罗网络。” AAAI(2025)。 [论文] [代码]

  • LVPTrack: 吴洪景、姚思源、黄峰、王树、张林超、郑卓然、任文琪。
    “LVPTrack:采用标签对齐视觉提示调优的高性能领域自适应无人机跟踪。” AAAI(2025)。 [论文] [代码]

  • MM-Tracker: 姚牧峰、彭金龙、何青东、彭博、陈浩、迟明敏、刘超。
    “MM-Tracker:用于无人机平台多目标跟踪的运动Mamba。” AAAI(2025)。 [论文] [代码]

  • PSOT: 李章斌、周金星、张静、唐生根、李坤、郭丹。
    “用于视听问答的补丁级探测目标跟踪。” AAAI(2025)。 [论文] [代码]

ICASSP 2025

  • MFDA: 李志恒、翁志敏、王月环。
    “用于单目标跟踪的多视角特征差异攻击”。ICASSP(2025)。 [论文] [代码]

  • CGTrack: 李伟宏、刘晓琼、范恒、张立博。
    “CGTrack:基于分层特征聚合的级联门控网络用于无人机跟踪”。ICRA(2025)。 [论文] [代码]

  • CLTrack: 陈斌、胡盛龙、董刚、梁凌燕、文东超、张凯华。
    “用于鲁棒无人机跟踪的连续学习视频级目标令牌”。ICASSP(2025)。 [论文] [代码]

  • LunarTracking: 穆罕默德·利奥、张丁、郑海涛、林海叶。
    “月球跟踪:夜间微小目标跟踪的新基准”。ICASSP(2025)。 [论文] [代码]

  • EHDA: 李乔、谭侃伦、刘乔、袁迪、李欣、刘云鹏。
    “高效分层领域自适应热红外跟踪”。ICASSP(2025)。 [论文] [代码]

  • PDTrack: 刘业强、李维然、丁彦浩、李振波。
    “PDTrack:用于多目标跟踪的渐进式距离关联”。ICASSP(2025)。 [论文] [代码]

  • RSM: 程日冉、王旭鹏、索黑尔·费尔杜斯、雷航。
    “RSM:用于可解释3D目标跟踪的精炼显著性图”。ICASSP(2025)。 [论文] [代码]

  • LRPD: 胡庆阔、李一晨、于文彬。
    “利用多模态提示学习与蒸馏进行RGB-T跟踪”。ICMR(2025)。 [论文] [代码]

  • VSS: 魏鹏飞、乔刘、何振宇、袁迪。
    “一种多流视觉-光谱-空间自适应高光谱目标跟踪”。ICMR(2025)。 [论文] [代码]

  • DARTer: 李旭照、李旭辰、胡世宇。
    “DARTer:用于夜间无人机跟踪的动态自适应表征跟踪器”。ICMR(2025)。 [论文] [代码]

NeurIPS 2024

  • ChatTracker: 孙一鸣、于凡、陈绍祥、张宇、黄俊伟、李晨辉、李阳、王昌博。
    “ChatTracker:通过与多模态大型语言模型对话提升视觉跟踪性能”。NeurIPS(2024)。 [论文] [代码]

  • WebUOT-1M: 张春辉、刘莉、黄冠杰、温浩、周曦、王延峰。
    “WebUOT-1M:以百万规模基准推进深海目标跟踪”。NeurIPS(2024)。 [论文] [代码]

  • VastTrack: 彭亮、高俊源、刘欣然、李伟宏、董绍华、张志鹏、范恒、张立博。
    “VastTrack:大规模类别视觉目标跟踪”。NeurIPS(2024)。 [论文] [代码]

  • DeTrack: 周新宇、李景伦、洪玲毅、蒋凯勋、郭品雪、葛伟峰、张文强。
    “DeTrack:用于视觉目标跟踪的模型内潜在去噪学习”。NeurIPS(2024)。 [论文] [代码]

  • CSAM: 张天禄、库尔特·德巴蒂斯塔、张强、丁贵广、韩宗功。
    “以MOT理念重新审视运动信息,用于RGB-事件跟踪”。NeurIPS(2024)。 [论文] [代码]

  • DINTR: 阮法、黎银、杰克逊·科森、阿尔珀·耶尔马兹、卢科阿。
    “DINTR:基于扩散插值的跟踪”。NeurIPS(2024)。 [论文] [代码]

  • UAV3D: 叶辉、桑德拉曼、季世豪。
    “UAV3D:面向无人飞行器的大规模3D感知基准”。NeurIPS(2024)。 [论文] [代码]

  • MemVLT: 冯晓坤、李旭辰、胡世宇、张黛玲、吴美琪、陈晓棠、黄凯奇。
    “MemVLT:基于自适应记忆的提示进行视觉-语言跟踪”。NeurIPS(2024)。 [论文] [代码]

  • CPDTrack: 张黛玲、胡世宇、冯晓坤、李旭辰、吴美琪、黄凯奇。
    “超越准确率:通过视觉搜索更像人类地进行跟踪”。NeurIPS(2024)。 [论文] [代码]

ECCV 2024

  • Diff-Tracker: 张正博、徐力、彭铎、侯赛因·拉赫马尼、刘俊。
    “Diff-Tracker:文本到图像的扩散模型是无监督跟踪器。” ECCV(2024)。 [论文] [代码]

  • LoRAT: 林丽婷、范恒、张志鹏、王耀伟、许勇、凌海斌。
    “跟踪遇上LoRA:训练更快、模型更大、性能更强。” ECCV(2024)。 [论文] [代码]

  • VideoMamba: 李坤昌、李新浩、王毅、何一楠、王亚莉、王利民、乔宇。
    “VideoMamba:用于高效视频理解的状态空间模型。” ECCV(2024)。 [论文] [代码]

  • DINO-Tracker: 纳雷克·图曼扬、阿萨夫·辛格、沙伊·巴贡、塔莉·德克尔。
    “DINO-Tracker:驯服DINO以实现单视频中的自监督点跟踪。” ECCV(2024)。 [论文] [代码]

  • DecoMotion: 李锐、刘东。
    “分解提升对所有场景中所有目标的跟踪能力。” ECCV(2024)。 [论文] [代码]

  • Elysium: 王涵、王艳杰、叶永杰、聂宇翔、黄灿。
    “Elysium:通过多模态大语言模型探索视频中的物体级感知。” ECCV(2024)。 [论文] [代码]

  • HVTrack: 吴桥、孙坤、安培、马蒂厄·萨尔茨曼、张燕宁、杨佳琪。
    “高时间变化下的点云中3D单目标跟踪。” ECCV(2024)。 [论文] [代码]

  • AADN: 吴哲伟、于瑞龙、刘启和、程淑英、邱士林、周世杰。
    “利用辅助对抗防御网络提升跟踪鲁棒性。” ECCV(2024)。 [论文] [代码]

CVPR 2024

  • MASA: 李思远、柯磊、马丁·丹内尔扬、路易吉·皮奇内利、马蒂亚·塞古、卢克·范古尔、费舍尔·余。
    “通过分割一切来匹配一切。” CVPR(2024)。 [论文] [代码]

  • OneTracker: 洪凌翼、严士林、张仁睿、李万云、周信宇、郭品雪、蒋凯勋、程怡婷、李景伦、陈兆宇、张文强。
    “OneTracker:用基础模型和高效微调统一视觉目标跟踪。” CVPR(2024)。 [论文] [代码]

  • ARTrackV2: 白义凡、赵泽阳、龚一鸿、魏星。
    “ARTrackV2:引导自回归跟踪器该看哪里以及如何描述。” CVPR(2024)。 [论文] [代码]

  • DiffusionTrack: 谢飞、王仲道、马超。
    “DiffusionTrack:用于视觉目标跟踪的点集扩散模型。” CVPR(2024)。 [论文] [代码]

  • RTracker: 黄玉清、李欣、周子坤、王耀伟、何振宇、杨明轩。
    “RTracker:通过PN树状结构记忆实现可恢复跟踪。” CVPR(2024)。 [论文] [代码]

  • NetTrack: 郑光泽、林世杰、左浩波、傅昌宏、潘嘉。
    “NetTrack:用网状结构追踪高度动态的目标。” CVPR(2024)。 [论文] [代码]

  • Un-Track: 吴宗伟、郑继来、任向轩、弗洛林-亚历山德鲁·瓦斯卢伊阿努、马超、丹达·帕尼·保德尔、卢克·范古尔、拉杜·蒂莫夫特。
    “适用于视频目标跟踪的单模型与任意模态方法。” CVPR(2024)。 [论文] [代码]

  • HIPTrack: 蔡文睿、刘庆杰、王云洪。
    “HIPTrack:基于历史提示的视觉跟踪。” CVPR(2024)。 [论文] [代码]

  • AQATrack: 谢金霞、钟彬能、莫志义、张盛平、石良涛、宋书祥、季荣荣。
    “基于时空Transformer的自回归查询用于适应性跟踪。” CVPR(2024)。 [论文] [代码]

  • MMA: 杨凌霄、张如元、王延晨、谢晓华。
    “MMA:用于视觉-语言模型的多模态适配器。” CVPR(2024)。 [论文] [代码]

  • SDSTrack: 侯晓军、邢家政、钱一杰、郭耀伟、辛硕、陈俊豪、唐凯、王梦梦、蒋正凯、刘亮、刘勇。
    “SDSTrack:用于多模态视觉目标跟踪的自蒸馏对称适配器学习。” CVPR(2024)。 [论文] [代码]

  • HDETrack: 王晓、王绍、唐传明、朱琳、江博、田永红、唐进。
    “基于事件流的视觉目标跟踪:一个高分辨率基准数据集及一种新型基线。” CVPR(2024)。 [论文] [代码]

  • CAI: 邵燕燕、何淑婷、叶琪、冯宇超、罗文翰、陈继明。
    “面向自然语言跟踪的语言与视觉参考的上下文感知融合。” CVPR(2024)。 [论文] [代码]

  • ResampleTrack: 任旭宏、陈建朗、曹悦、薛万利、郭青、马磊、赵建军、陈申勇。
    “ResampleTrack:用于对抗性鲁棒视觉跟踪的在线重采样。” CVPR(2024)。 [论文] [代码]

WACV 2024

  • ContrasTR: Pierre-François De Plaen, Nicola Marinello, Marc Proesmans, Tinne Tuytelaars, Luc Van Gool。
    “基于Transformer的多目标跟踪对比学习”。WACV(2024)。 [论文] [代码]

  • LaGOT: Christoph Mayer, Martin Danelljan, Ming-Hsuan Yang, Vittorio Ferrari, Luc Van Gool, Alina Kuznetsova。
    “超越单目标跟踪:是时候同时跟踪多个通用目标了”。WACV(2024)。 [论文] [代码]

  • SMAT: Goutam Yelluru Gopal, Maria A. Amer。
    “用于高效目标跟踪的可分离自注意力与混合注意力Transformer”。WACV(2024)。 [论文] [代码]

  • DATr: Jie Zhao, Johan Edstedt, Michael Felsberg, Dong Wang, Huchuan Lu。
    “利用数据增强的力量进行基于Transformer的跟踪”。WACV(2024)。 [论文] [代码]

AAAI 2024

  • GMMT: Zhangyong Tang, Tianyang Xu, Xuefeng Zhu, Xiao-Jun Wu, Josef Kittler。
    “基于生成式融合机制的多模态跟踪”。AAAI(2024)。 [论文] [代码]

  • ODTrack: Yaozong Zheng, Bineng Zhong, Qihua Liang, Zhiyi Mo, Shengping Zhang, Xianxian Li。
    “ODTrack:用于视觉跟踪的在线密集时序标记学习”。AAAI(2024)。 [论文] [代码]

  • EVPTrack: Liangtao Shi, Bineng Zhong, Qihua Liang, Ning Li, Shengping Zhang, Xianxian Li。
    “用于视觉目标跟踪的显式视觉提示”。AAAI(2024)。 [论文] [代码]

  • BAT: Bing Cao, Junliang Guo, Pengfei Zhu, Qinghua Hu。
    “用于多模态跟踪的双向适配器”。AAAI(2024)。 [论文] [代码]

  • TATrack: Hongyu Wang, Xiaotao Liu, Yifan Li, Meng Sun, Dian Yuan, Jing Liu。
    “带有模态提示的时序自适应RGBT跟踪”。AAAI(2024)。 [论文] [代码]

  • Hybrid-SORT: Mingzhan Yang, Guangxin Han, Bin Yan, Wenhua Zhang, Jinqing Qi, Huchuan Lu, Dong Wang。
    “Hybrid-SORT:弱线索对在线多目标跟踪同样重要”。AAAI(2024)。 [论文] [代码]

ArXiv 2024

  • SeqTrack3D: Yu Lin, Zhiheng Li, Yubo Cui, Zheng Fang。
    “SeqTrack3D:探索序列信息以实现鲁棒的3D点云跟踪”。ICRA(2024)。 [论文] [代码]

  • VAT: Guangtong Zhang, Qihua Liang, Zhiyi Mo, Ning Li, Bineng Zhong。
    “用于RGBD跟踪的视觉适应”。ICASSP(2024)。 [论文] [代码]

  • UVLTrack: Yinchao Ma, Yuyang Tang, Wenfei Yang, Tianzhu Zhang, Jinpeng Zhang, Mengxue Kang。
    “通过对比学习统一视觉与视觉-语言跟踪”。ArXiv(2024)。 [论文] [代码]

  • SuperSBT: Fei Xie, Wankou Yang, Chunyu Wang, Lei Chu, Yue Cao, Chao Ma, Wenjun Zeng。
    “嵌入相关性的Transformer跟踪:单分支框架”。ArXiv(2024)。 [论文] [代码]

NeurIPS 2023

  • MixFormerV2: Yutao Cui, Tianhui Song, Gangshan Wu, Limin Wang。
    “MixFormerV2:高效的全Transformer跟踪”。NeurIPS(2023)。 [论文] [代码]

  • ZoomTrack: Yutong Kou, Jin Gao, Bing Li, Gang Wang, Weiming Hu, Yizheng Wang, Liang Li。
    “ZoomTrack:面向目标的非均匀缩放以实现高效视觉跟踪”。NeurIPS(2023)。 [论文] [代码]

  • Type-to-Track: Pha Nguyen, Kha Gia Quach, Kris Kitani, Khoa Luu。
    “Type-to-Track:通过提示驱动的跟踪检索任意目标”。NeurIPS(2023)。 [论文] [代码]

  • MGIT: Shiyu Hu, Dailin Zhang, Meiqi Wu, Xiaokun Feng, Xuchen Li, Xin Zhao, Kaiqi Huang。
    “多模态全局实例跟踪基准(MGIT):在复杂时空及因果关系中更好地定位目标”。NeurIPS(2023)。 [论文] [代码]

ICCV 2023

  • VTDNet: Thomas E. Huang、刘一凡、卢克·范古尔、费舍尔·余。
    “视频任务十项全能:统一自动驾驶中的图像与视频任务。” ICCV(2023)。 [论文] [代码]

  • HiT: 康奔、陈鑫、王栋、彭厚文、陆旭川。
    “探索用于高效视觉跟踪的轻量级层次化视觉Transformer。” ICCV(2023)。 [论文] [代码]

  • ROMTrack: 蔡毅东、刘杰、唐杰、吴刚山。
    “面向视觉跟踪的鲁棒目标建模。” ICCV(2023)。 [论文] [代码]

  • F-BDMTrack: 杨大伟、何建峰、马银超、于千金、张天柱。
    “用于视觉目标跟踪的前景-背景分布建模Transformer。” ICCV(2023)。 [论文] [代码]

  • MITS: 徐元友、杨宗欣、杨毅。
    “整合边界框与掩码:用于统一视觉跟踪与分割的多目标框架。” ICCV(2023)。 [论文] [代码]

  • Aba-ViTrack: 李水旺、杨向阳、曾丹、王旭成。
    “适用于实时无人机跟踪的自适应且背景感知型视觉Transformer。” ICCV(2023)。 [论文] [代码]

  • Omnimotion: 王倩倩、Yen-Yu Chang、蔡若瑾、李正奇、巴拉特·哈里哈兰、亚历山大·霍林斯基、诺亚·斯内夫利。
    “一次追踪所有地方的所有事物。” ICCV(2023)。 [论文] [代码]

  • DEVA: 郑浩基、吴世宇、布莱恩·普赖斯、亚历山大·施温格、李俊英。
    “通过解耦视频分割追踪任何物体。” ICCV(2023)。 [论文] [代码]

  • CiteTracker: 李欣、黄玉清、何振宇、王耀威、陆旭川、杨明轩。
    “CiteTracker:结合图像与文本的视觉跟踪方法。” ICCV(2023)。 [论文] [代码]

  • DecoupleTNL: 马丁、吴向乾。
    “基于自然语言描述并结合长短时上下文解耦的跟踪方法。” ICCV(2023)。 [论文] [代码]

  • PVT++: 李博文、黄子渊、叶俊杰、李一鸣、塞巴斯蒂安·舍雷尔、赵航、傅昌宏。
    “PVT++:一个简单、端到端且考虑延迟的视觉跟踪框架。” ICCV(2023)。 [论文] [代码]

  • SyncTrack: 马特丽、王梦梦、肖继民、吴慧峰、刘勇。
    “同步特征提取与匹配:用于3D目标跟踪的单分支框架。” ICCV(2023)。 [论文] [代码]

  • 360VOT: 黄华健、许寅哲、陈颖舒、杨赛基。
    “360VOT:一个新的全方位视觉目标跟踪基准数据集。” ICCV(2023)。 [论文] [代码]

  • PlanarTrack: 刘欣然、刘晓琼、易子若、周鑫、黎青、张立博、黄燕、杨庆、范恒。
    “PlanarTrack:一个大规模且具有挑战性的平面目标跟踪基准。” ICCV(2023)。 [论文] [代码]

CVPR 2023

  • X-Decoder: Xueyan Zou, Zi-Yi Dou, Jianwei Yang, Zhe Gan, Linjie Li, Chunyuan Li, Xiyang Dai, Harkirat Behl, Jianfeng Wang, Lu Yuan, Nanyun Peng, Lijuan Wang, Yong Jae Lee, Jianfeng Gao。
    “面向像素、图像和语言的通用解码”。CVPR(2023)。 [论文] [代码]

  • UNINEXT: Bin Yan, Yi Jiang, Jiannan Wu, Dong Wang, Ping Luo, Zuhuan Yuan, Huchuan Lu。
    “作为目标发现与检索的通用实例感知”。CVPR(2023)。 [论文] [代码]

  • OmniTracker: Junke Wang, Dongdong Chen, Zuxuan Wu, Chong Luo, Xiyang Dai, Lu Yuan, Yu-Gang Jiang。
    “OmniTracker:通过检测式跟踪统一目标跟踪”。CVPR(2023)。 [论文] [代码]

  • SUSHI: Orcun Cetintas, Guillem Brasó, Laura Leal-Taixé。
    “利用图层次结构统一短期与长期跟踪”。CVPR(2023)。 [论文] [代码]

  • DropMAE: Qiangqiang Wu, Tianyu Yang, Ziquan Liu, Baoyuan Wu, Ying Shan, Antoni B. Chan。
    “DropMAE:用于跟踪任务的空间注意力丢弃掩码自编码器”。CVPR(2023)。 [论文] [代码]

  • VideoTrack: Fei Xie, Lei Chu, Jiahao Li, Yan Lu, Chao Ma。
    “VideoTrack:通过视频Transformer学习目标跟踪”。CVPR(2023)。 [论文] [代码]

  • SwinV2: Zhenda Xie, Zigang Geng, Jingcheng Hu, Zheng Zhang, Han Hu, Yue Cao。
    “揭示掩码图像建模的深层秘密”。CVPR(2023)。 [论文] [代码]

  • ViPT: Jiawen Zhu, Simiao Lai, Xin Chen, Dong Wang, Huchuan Lu。
    “视觉提示多模态跟踪”。CVPR(2023)。 [论文] [代码]

  • JointNLT: Li Zhou, Zikun Zhou, Kaige Mao, Zhenyu He。
    “结合自然语言描述的联合视觉定位与跟踪”。CVPR(2023)。 [论文] [代码]

  • ARKitTrack: Haojie Zhao, Junsong Chen, Lijun Wang, Huchuan Lu。
    “ARKitTrack:一种基于移动RGB-D数据的新型多样化跟踪数据集”。CVPR(2023)。 [论文] [代码]

  • GRM: Shenyuan Gao, Chunluan Zhou, Jun Zhang。
    “用于Transformer跟踪的广义关系建模”。CVPR(2023)。 [论文] [代码]

  • ARTrack: Xing Wei, Yifan Bai, Yongchao Zheng, Dahu Shi, Yihong Gong。
    “自回归视觉跟踪”。CVPR(2023)。 [论文] [代码]

  • MAT: Haojie Zhao, Dong Wang, Huchuan Lu。
    “基于掩码外观迁移的视觉目标跟踪表征学习”。CVPR(2023)。 [论文] [代码]

  • EMT: Jinyu Yang, Shang Gao, Zhe Li, Feng Zheng, Aleš Leonardis。
    “资源高效的RGBD空中目标跟踪”。CVPR(2023)。 [论文] [代码]

  • TBSI: Tianrui Hui, Zizheng Xun, Fengguang Peng, Junshi Huang, Xiaoming Wei, Xiaolin Wei, Jiao Dai, Jizhong Han, Si Liu。
    “通过模板桥接搜索区域交互实现RGB-T目标跟踪”。CVPR(2023)。 [论文] [代码]

  • VisTracker: Xianghui Xie, Bharat Lal Bhatnagar, Gerard Pons-Moll。
    “基于单目RGB相机的可见性感知人机交互跟踪”。CVPR(2023)。 [论文] [代码]

  • OVTrack: Siyuan Li, Tobias Fischer, Lei Ke, Henghui Ding, Martin Danelljan, Fisher Yu。
    “OVTrack:开放词汇多目标跟踪”。CVPR(2023)。 [论文] [代码]

  • SeqTrack: Xin Chen, Houwen Peng, Dong Wang, Huchuan Lu, Han Hu。
    “SeqTrack:用于视觉目标跟踪的序列到序列学习”。CVPR(2023)。 [论文] [代码]

  • ImageBind: Rohit Girdhar, Alaaeldin El-Nouby, Zhuang Liu, Mannat Singh, Kalyan Vasudev Alwala, Armand Joulin, Ishan Misra。
    “IMAGEBIND:一个嵌入空间,将一切联结起来”。CVPR(2023)。 [论文] [代码]

  • TCOW: Basile Van Hoorick, Pavel Tokmakov, Simon Stent, Jie Li, Carl Vondrick。
    “在野外环境中穿越容器与遮挡物进行目标跟踪”。CVPR(2023)。 [论文] [代码]

ArXiv 2023

  • UTrack: 高杰、钟彬能、陈燕。
    “利用目标线索实现无歧义的目标跟踪”。ACM MM(2023)。 [论文] [代码]

  • UPVPT: 张广通、梁启华、李宁、莫志毅、钟彬能。
    “通过统一预训练-微调与视觉提示调优实现鲁棒跟踪”。ACM MM亚洲(2023)。 [论文] [代码]

  • TAO-Amodal: 谢承延、塔拉莎·库拉纳、阿查尔·戴夫、德瓦·拉马南。
    “非视域下任意目标的跟踪”。ArXiv(2023)。 [论文] [代码]

  • HQTrack: 朱家文、陈振宇、郝泽奇、常世杰、张璐、王东、陆虎川、罗斌、何俊彦、兰金鹏、陈翰源、李晨阳。
    “高质量地跟踪任何目标”。ArXiv(2023)。 [论文] [代码]

  • MMTrack: 郑耀宗、钟彬能、梁启华、李国荣、季荣荣、李仙仙。
    “面向视觉-语言联合跟踪的统一标记学习”。TCSVT(2023)。 [论文] [代码]

  • OVLM: 张焕龙、王景超、张建伟、张天柱、钟彬能。
    “用于目标跟踪的单流视觉-语言记忆网络”。TMM(2023)。 [论文] [代码]

  • All-in-One: 张春辉、孙欣、刘莉、杨一茜、刘琼、周曦、王艳峰。
    “一体式:探索基于多模态对齐的统一视觉-语言跟踪”。ACM MM(2023)。 [论文] [代码]

  • MPLT: 罗洋、郭锡庆、冯慧、敖磊。
    “基于多模态互惠提示学习的RGB-T跟踪”。ArXiv(2023)。 [论文] [代码]

  • DCPT: 朱家文、唐华义、程志奇、何俊彦、罗斌、邱世豪、李圣明、陆虎川。
    “DCPT:基于黑暗线索提示的夜间无人机跟踪”。ArXiv(2023)。 [论文] [代码]

  • SRT: 刘天鹏、李静、吴佳、张乐飞、常军、万俊、连乐志。
    “基于显著性区域变换器的跟踪”。TIP(2023)。 [论文] [代码]

  • TATrans: 赖普健、张美丽、程功、李盛阳、黄宪凯、韩俊伟。
    “用于卫星视频目标跟踪的感知目标Transformer”。TGRS(2023)。 [论文] [代码]

  • STRtrack: 赵绍川、徐天阳、吴晓军、约瑟夫·基特勒。
    “一种结合空间-通道Transformer和抖动抑制的时空鲁棒跟踪器”。IJCV(2023)。 [论文] [代码]

  • CoTracker: 尼基塔·卡拉耶夫、伊格纳西奥·罗科、本杰明·格雷厄姆、娜塔莉娅·内韦罗娃、安德烈亚·韦达尔迪、克里斯蒂安·鲁普雷希特。
    “CoTracker:协同跟踪更有效”。ArXiv(2023)。 [论文] [代码]

  • LiteTrack: 魏青茂、曾碧、刘建奇、何力、曾国田。
    “LiteTrack:采用异步特征提取进行层剪枝,实现轻量高效视觉跟踪”。ArXiv(2023)。 [论文] [代码]

  • LightFC: 李云峰、王博、李叶、刘卓妍、吴雪怡。
    “轻量级全卷积孪生跟踪器”。ArXiv(2023)。 [论文] [代码]

  • DETRrack: 魏青茂、曾碧、曾国田。
    “基于可变形Transformer的视觉跟踪高效训练”。ArXiv(2023)。 [论文] [代码]

  • JN: 魏青茂、曾碧、曾国田。
    “面向视觉跟踪中使用负样本的高效训练”。ArXiv(2023)。 [论文] [代码]

  • COHA: 朱志宇、侯俊辉、吴达鹏。
    “面向RGB-事件Transformer跟踪器的跨模态正交高秩增强”。ArXiv(2023)。 [论文] [代码]

  • SparseTrack: 刘泽林、王兴刚、王成、刘文宇、白翔。
    “SparseTrack:基于伪深度进行场景分解的多目标跟踪”。ArXiv(2023)。 [论文] [代码]

  • TransSOT: 贾纳尼·桑加维尔、塔尼卡萨拉姆·科库尔、阿米尔塔林甘·拉马南、苏巴·费尔南多。
    “单目标跟踪中的Transformer:一项实验性综述”。ArXiv(2023)。 [论文] [代码]

  • ProFormer: 朱亚斌、李成龙、王小、唐进、黄志祥。
    “基于动态引导学习的渐进式融合Transformer实现RGBT跟踪”。ArXiv(2023)。 [论文] [代码]

  • SOTVerse: 胡诗雨、赵欣、黄凯琪。
    “SOTVerse:单目标跟踪的用户自定义任务空间”。IJCV(2023)。 [论文] [代码]

  • TSMTrack: 唐传明、胡钦涛、周高凡、姚金珍、张建林、黄永梅、叶其祥。
    “用于高性能视觉目标跟踪的Transformer子块匹配”。TITS(2023)。 [论文] [代码]

  • TADS: 李鑫、裴文杰、王耀威、何振宇、陆虎川、杨明轩。
    “基于目标感知数据合成的自监督跟踪”。TNNLS(2023)。 [论文] [代码]

IJCAI 2023

  • OSP2B: 聂嘉浩、何志伟、杨宇翔、鲍正一、高明宇、张静。
    “OSP2B:用于3D孪生跟踪的单阶段点到框网络”。IJCAI(2023)。 [论文] [代码]

WACV 2023

  • MVT: 戈塔姆·耶卢鲁·戈帕尔、玛丽亚·A·阿默。
    “基于移动视觉Transformer的视觉目标跟踪”。BMVC(2023)。 [论文] [代码]

  • E.T.Track: 菲利普·布拉特、梅内劳斯·卡纳基斯、马丁·丹内尔扬、卢克·范古尔。
    “基于示例Transformer的高效视觉跟踪”。WACV(2023)。 [论文] [代码]

AAAI 2023

  • CTTrack: 宋子凯、罗润、于俊青、陈依萍、杨伟。
    “基于相关掩码建模的紧凑型Transformer跟踪器”。AAAI(2023)。 [论文] [代码]

  • TATrack: 何凯杰、张灿龙、谢胜、李志新、王志文。
    “基于长期上下文注意力的目标感知跟踪”。AAAI(2023)。 [论文] [代码]

  • RGBD1K: 朱学峰、徐天阳、唐章勇、吴祖成、刘浩东、杨晓、吴小军、约瑟夫·基特勒。
    “RGBD1K:一个用于RGB-D目标跟踪的大规模数据集及基准测试”。AAAI(2023)。 [论文] [代码]

  • GdaTFT: 梁云、李巧巧、龙富敏。
    “全局扩张注意力与目标聚焦网络用于鲁棒跟踪”。AAAI(2023)。 [论文] [代码]

  • GLT-T: 聂嘉豪、何志伟、杨宇翔、高明宇、张静。
    “GLT-T:用于点云中3D单目标跟踪的全局-局部Transformer投票机制”。AAAI(2023)。 [论文] [扩展版] [代码]

  • RSPT: 钟方伟、毕晓、张宇迪、张伟、王义周。
    “RSPT:重建周围环境并预测轨迹以实现可泛化的主动目标跟踪”。AAAI(2023)。 [论文] [代码]

NeurIPS 2022

  • SwinTrack: 林丽婷、范恒、许勇、凌海斌。
    “SwinTrack:一种简单而强大的Transformer跟踪基线”。NeurIPS(2022)。 [论文] [代码]

  • VLTrack: 郭明哲、张志鹏、范恒、景丽萍。
    “将更多注意力转向视觉-语言跟踪”。NeurIPS(2022)。 [论文] [代码]

  • GKB: 朱志宇、侯俊辉、吕先强。
    “基于图嵌入的关键事件回溯学习,用于事件云中的目标跟踪”。NeurIPS(2022)。 [论文] [代码]

  • TAP-Vid: 卡尔·多尔施、安库什·古普塔、拉里萨·马尔凯耶娃、卢卡斯·斯迈拉、尤苏夫·艾塔尔、安德鲁·齐瑟曼、杨毅。
    “TAP-Vid:一个用于跟踪视频中任意点的基准测试”。NeurIPS(2022)。 [论文] [代码]

ECCV 2022

  • OSTrack: 叶博涛、常洪、马炳鹏、单世刚。
    “联合特征学习与关系建模的跟踪:一种单流框架”。ECCV(2022)。 [论文] [代码]

  • Unicorn: 严彬、蒋毅、孙培泽、王栋、袁泽寰、罗平、陆虎川。
    “Unicorn:迈向目标跟踪的大统一”。ECCV(2022)口头报告。 [论文] [代码]

  • SimTrack: 陈博宇、李佩霞、白磊、乔雷、沈秋红、李波、甘伟浩、吴伟、欧阳万利。
    “骨干网络就是你所需要的:一种用于视觉目标跟踪的简化架构”。ECCV(2022)。 [论文] [代码]

  • CIA: 皮志雄、万伟涛、孙冲、高昌欣、桑农、李晨。
    “用于视觉跟踪的层次化特征嵌入”。ECCV(2022)。 [论文] [代码]

  • RTS: 马蒂厄·保罗、马丁·丹内尔扬、克里斯托夫·迈耶、卢克·范·戈尔。
    “基于分割的鲁棒视觉跟踪”。ECCV(2022)。 [论文] [代码]

  • AiATrack: 高申远、周春鸾、马超、王兴刚、袁俊松。
    “AiATrack:用于Transformer视觉跟踪的注意力机制”。ECCV(2022)。 [论文] [代码]

  • SLTtrack: 金珉智、李承宽、奥贞淑、韩宝亨、赵民洙。
    “迈向序列级训练的视觉跟踪”。ECCV(2022)。 [论文] [代码]

  • FEAR: 瓦西里·博尔苏克、罗曼·维伊、奥列斯特·库平、泰季亚娜·马尔蒂纽克、伊戈尔·克拉舍尼、吉日·马塔斯。
    “FEAR:快速、高效、准确且鲁棒的视觉跟踪器”。ECCV(2022)。 [论文] [代码]

  • PersonPath22: 帅兵、阿莱桑德罗·贝加莫、乌塔·布赫勒、安德鲁·伯内沙维、阿莉莎·博登、约瑟夫·提格。
    “大规模真实世界多人跟踪”。ECCV(2022)。 [论文] [代码]

  • STNet: 胡磊、王灵鹏、唐玲华、兰凯浩、谢进、杨健。
    “用于点云上单目标跟踪的3D暹罗Transformer网络”。ECCV(2022)。 [论文] [代码]

  • P3AFormer: 赵泽林、吴泽、庄月清、李博勋、贾佳娅。
    “将目标视为像素级分布进行跟踪”。ECCV(2022)。 [论文] [代码]

  • TETer: 李思源、马丁·丹内尔扬、丁恒辉、托马斯·E·黄、费舍尔·余。
    “在野外跟踪所有事物”。ECCV(2022)。 [论文] [代码]

  • ByteTrack: 张一夫、孙培泽、蒋毅、于东东、袁泽寰、罗平、刘文宇、王兴刚。
    “ByteTrack:通过关联每个检测框进行多目标跟踪”。ECCV(2022)。 [论文] [代码]

  • MOTR: 曾方高、董斌、张元、王天财、张向宇、魏义臣。
    “MOTR:基于Transformer的端到端多目标跟踪”。ECCV(2022)。 [论文] [代码]

  • MTracker: 张一夫、王春雨、王兴刚、曾文俊、刘文宇。
    “基于边缘推理的鲁棒多目标跟踪”。ECCV(2022)。 [论文] [代码]

CVPR 2022

  • MixFormer: 崔宇涛、程江、王利民、吴刚。
    “MixFormer:基于迭代混合注意力的端到端目标跟踪”。CVPR(2022)。 [论文] [代码]

  • OWTB: 刘洋、伊迪尔·埃森·祖尔菲卡尔、乔纳森·吕滕、阿查尔·戴夫、德瓦·拉马南、巴斯蒂安·莱贝、阿廖沙·奥谢普、劳拉·莱阿尔-泰克塞。
    “开启开放世界目标跟踪”。CVPR(2022)。 [论文] [代码]

  • UTT: 马帆、肖正浩、朱林超、范浩奇、徐一乐、杨毅、严志成。
    “用于目标跟踪的统一Transformer跟踪器”。CVPR(2022)。 [论文] [代码]

  • CSWinTT: 宋子凯、于俊青、陈依萍、杨伟。
    “基于循环移位窗口注意力的Transformer目标跟踪”。CVPR(2022)。 [论文] [代码]

  • ToMP: 克里斯托夫·迈耶、马丁·丹内尔扬、古塔姆·巴特、马蒂厄·保罗、丹达·帕尼·保德尔、费舍尔·余、卢克·范·古尔。
    “用于目标跟踪的模型预测变换”。CVPR(2022)。 [论文] [代码]

  • TCTrack: 曹子昂、黄子元、潘亮、张世伟、刘子威、傅昌宏。
    “TCTrack:面向航空目标跟踪的时序上下文”。CVPR(2022)。 [论文] [代码]

  • SBT: 谢飞、王春雨、王广亭、曹岳、杨万库、曾文俊。
    “相关性感知的深度目标跟踪”。CVPR(2022)。 [论文] [代码]

  • AdaRS: 李一豪、俞军、蔡中鹏、潘宇文。
    “基于自然语言的跨模态目标检索跟踪”。CVPR(2022)。 [论文] [代码]

  • STNet: 张继庆、董博、张海伟、丁建川、费利克斯·海德、尹宝才、杨欣。
    “用于事件驱动单目标跟踪的脉冲Transformer”。CVPR(2022)。 [论文] [代码]

  • VTUAV: 张鹏宇、赵杰、王东、陆虎川、阮翔。
    “可见光-热红外无人机目标跟踪:大规模基准与新基线”。CVPR(2022)。 [论文] [代码]

  • UAVMOT: 刘帅、李鑫、陆虎川、何友。
    “多目标跟踪与移动无人机的结合”。CVPR(2022)。 [论文] [代码]

  • GTR: 周兴义、殷天伟、弗拉德伦·科尔图恩、菲利普·克雷亨布尔。
    “全局跟踪Transformer”。CVPR(2022)。 [论文] [代码]

  • GTELT: 周子坤、陈健秋、裴文杰、毛凯歌、王洪鹏、何振宇。
    “基于局部跟踪器集成的全局跟踪”。CVPR(2022)。 [论文] [代码]

  • RBO: 唐峰、凌强。
    “基于排序的孪生视觉目标跟踪”。CVPR(2022)。 [论文] [代码]

  • ULAST: 沈秋红、乔磊、郭金阳、李佩霞、李鑫、李波、冯伟涛、甘伟浩、吴伟、欧阳万里。
    “无监督学习的精确孪生目标跟踪”。CVPR(2022)。 [论文] [代码]

  • UDAT: 叶俊杰、傅昌宏、郑光泽、丹达·帕尼·保德尔、陈光。
    “用于夜间航空目标跟踪的无监督域自适应”。CVPR(2022)。 [论文] [代码]

  • M2Track: 郑朝达、闫旭、张海明、王宝源、程圣辉、崔树光、李震。
    “超越3D孪生目标跟踪:面向点云中3D单目标跟踪的运动中心范式”。CVPR(2022)。 [论文] [代码]

IJCAI 2022

  • InBN: 郭明哲、张志鹏、范恒、景丽萍、吕怡琳、李冰、胡卫明。
    “通过信息交互学习目标感知表征的视觉目标跟踪”。IJCAI(2022)。 [论文] [代码]

  • SparseTT: 付志宏、付泽华、刘清杰、付泽华、王云洪。
    “SparseTT:基于稀疏Transformer的视觉目标跟踪”。IJCAI(2022)。 [论文] [代码]

  • HybTransT: 郑一彩、金敏智、朴恩赫、韩宝炯。
    “在线混合轻量级表征学习及其在视觉目标跟踪中的应用”。IJCAI(2022)。 [论文] [代码]

MICCAI 2022

  • TLT: 唐文、康汉、张浩悦、于鹏欣、科里·W·阿诺德、张荣国。
    “Transformer病变追踪器”。MICCAI(2022)。 [论文] [代码]

ArXiv 2022

  • ProTrack: 杨锦宇、李哲、郑峰、阿莱什·莱昂纳迪斯、宋京宽。
    “用于多模态目标跟踪的提示工程”。ACM MM(2022)。 [论文] [代码]

  • GATransT: 王立波、陈思、王振、王大涵、朱顺志。
    “用于鲁棒视觉目标跟踪的图注意力Transformer网络”。ICONIP(2022)。 [论文] [代码]

  • SiamTDN: 梁延杰、赵鹏辉、郝一飞、王汉子。
    “用于鲁棒视觉跟踪的孪生模板扩散网络”。ICME(2022年)。 [论文] [代码]

  • TAT: 蓝凯豪、姜浩博、谢进。
    “时序感知的孪生跟踪器:融合时序上下文用于3D目标跟踪”。ACCV(2022年)。 [论文] [代码]

  • COESOT: 唐川明、王肖、黄菊、姜博、朱林、张建林、王耀伟、田永宏。
    “重访基于颜色-事件的跟踪:统一的网络、数据集和度量标准”。ArXiv(2022年)。 [论文] [代码]

  • WATB: 王发胜、曹平、李福、王星、何兵、孙富明。
    “WATB:野生动物跟踪基准”。IJCV(2022年)。 [论文] [代码]

  • UAV2UAV: 王勇、黄子荣、罗伯特·拉加尼耶、张焕龙、丁璐。
    “无人机对无人机跟踪基准”。KBS(2023年)。 [论文] [代码]

  • UOT100: K. Panetta、L. Kezebou、V. Oludare 和 S. S. Agaian。
    “全面的水下目标跟踪基准数据集及基于GAN的水下图像增强”。IEEE JOE(2022年)。 [论文] [代码]

  • NeighborTrack: 陈宇希、王建尧、杨承云、张鸿硕、林友隆、庄咏瑜、廖宏远。
    “NeighborTrack:通过与邻近轨迹片段的二部匹配提升单目标跟踪性能”。ArXiv(2022年)。 [论文] [代码]

  • MTTSiam: Ali Sekhavati、李元淑。
    “用于长期目标跟踪的多模板时序孪生网络”。ArXiv(2022年)。 [论文] [代码]

  • PruningInTracking: Saksham Aggarwal、Taneesh Gupta、Pawan Kumar Sahu、Arnav Chavan、Rishabh Tiwari、Dilip K. Prasad、Deepak K. Gupta。
    “通过网络剪枝设计轻量级目标跟踪器:使用CNN还是Transformer?”。ArXiv(2022年)。 [论文] [代码]

  • ProContEXT: 兰金鹏、程志奇、何俊彦、李晨阳、罗斌、鲍旭、项望萌、耿义峰、谢宣松。
    “ProContEXT:探索渐进式上下文变换器用于跟踪”。ArXiv(2022年)。 [论文] [代码]

  • TSFMO: 张哲文、吴富良、邱宇明、梁景东、李水旺。
    “小而快速移动目标的跟踪:一个基准”。ArXiv(2022年)。 [论文] [代码]

  • SFTransT: 唐川明、王肖、白元超、吴哲、张建林、黄永梅。
    “用于视觉目标跟踪的空间-频率变换器学习”。ArXiv(2022年)。 [论文] [代码]

  • DMTracker: 高尚、杨金宇、李哲、郑峰、Aleš Leonardis、宋京宽。
    “用于RGBD跟踪的双融合模态感知表征学习”。ArXiv(2022年)。 [论文] [代码]

  • AVisT: Mubashir Noman、Wafa Al Ghallabi、Daniya Najiha、Christoph Mayer、Akshay Dudhane、Martin Danelljan、Hisham Cholakkal、Salman Khan、Luc Van Gool、Fahad Shahbaz Khan。
    “AVisT:恶劣可见条件下视觉目标跟踪的基准”。ArXiv(2022年)。 [论文] [代码]

  • RGBDReview: 杨金宇、李哲、闫松、郑峰、阿莱什·莱昂纳迪斯、约尼-克里斯蒂安·凯马莱宁、邵凌。
    “RGBD目标跟踪:深度综述”。ArXiv(2022年)。 [论文] [代码]

  • TOT/MKDNet: 朱亚斌、李成龙、刘瑶、王潇、唐进、罗彬、黄志翔。
    “微型目标跟踪:大规模数据集与基准”。ArXiv(2022年)。 [论文] [代码]

  • WebUAV-3M: 张春辉、黄冠杰、刘莉、黄珊、杨一楠、张宇轩、万翔、葛世明。
    “WebUAV-3M:揭示百万级深度无人机跟踪能力的基准”。ArXiv(2022年)。 [论文] [代码]

  • SiamTracking4UAV: 傅昌宏、陆坤翰、郑光泽、叶俊杰、曹子昂、李博文。
    “面向无人机的孪生目标跟踪:综述与全面分析”。ArXiv(2022年)。 [论文] [代码]

  • SOTSurvey: 扎赫拉·索莱曼尼塔勒布、穆罕默德·阿里·凯万拉德。
    “单目标跟踪:方法、数据集与评估指标综述”。ArXiv(2022年)。 [论文]

  • SOTRearch: 韩瑞泽、冯伟、郭清、胡庆华。
    “单目标跟踪研究:综述”。ArXiv(2022年)。 [论文]

  • VOTSurvey: 陈飞、王晓东、赵云翔、吕绍和、牛鑫。
    “视觉目标跟踪:综述”。CVIU(2022年)。 [论文]

  • HCAT: 陈欣、王栋、李东东、卢虎川。
    “基于层次交叉注意力Transformer的高效视觉跟踪”。ArXiv(2022年)。 [论文] [代码]

  • TransT-M: 陈欣、颜斌、朱嘉文、王栋、卢虎川。
    “高性能Transformer跟踪”。ArXiv(2022年)。 [论文] [代码]

  • RGBDT: 杨金宇、李哲、闫松、郑峰、阿莱什·莱昂纳迪斯、约尼-克里斯蒂安·凯马莱宁、邵凌。
    “RGBD目标跟踪:深度综述”。ArXiv(2022年)。 [论文] [代码]

  • DST: 崔耀、王广辉、张力。
    “为子空间跟踪辩护:用于视觉跟踪的正交嵌入”。ArXiv(2022年)。 [论文] [代码]

  • DUT-Anti-UAV: 赵杰、张景书、李东东、王栋。
    “基于视觉的反无人机检测与跟踪”。TITS(2022年)。 [论文] [代码]

  • CoCoLoT: 马泰奥·邓霍费尔、克里斯蒂安·米凯洛尼。
    “CoCoLoT:在长期视觉跟踪中结合互补跟踪器”。ICPR(2022年)。 [论文] [代码]

  • EUSA: 刘啸、陈兆宇、李伟、朱继伟、王家锋、张文强、甘仲学。
    “用于视觉目标跟踪的高效通用洗牌攻击”。ICASSP(2022年)。 [论文] [代码]

  • ITB: 李欣、刘乔、裴文杰、沈秋红、王耀威、卢虎川、杨明轩。
    “一个信息丰富的跟踪基准”。ArXiv(2021年)。 [论文] [代码]

  • VisEvent: 王晓、李佳宁、朱琳、张志鹏、陈哲、李欣、王耀威、田永洪、吴峰。
    “VisEvent:通过帧流与事件流协作实现可靠的目标跟踪”。ArXiv(2021年)。 [论文] [代码]

  • TrTr: 赵莫居、冈田圭、稻叶雅之。
    “TrTr:基于Transformer的视觉跟踪”。ArXiv(2021年)。 [论文] [代码]

  • TS-RCN: 张宁、刘金根、王科、曾丹、梅涛。
    “基于双流残差卷积网络的鲁棒视觉目标跟踪”。ArXiv(2020年)。 [论文] [代码]

  • FCOT: 崔宇涛、蒋成、王利民、吴刚山。
    “全卷积在线跟踪”。ArXiv(2020年)。 [论文] [代码]

AAAI 2022

  • HDN: 战新锐、刘悦然、朱建科、李阳。
    “用于平面目标跟踪的单应性分解网络”。AAAI(2022年)。 [论文] [代码]

  • MArMOT: 李成龙、朱天浩、刘磊、司晓楠、范子林、翟苏兰。
    “跨模态目标跟踪:模态感知表示与统一基准”。AAAI(2022年)。 [论文] [代码]

  • APFNet: 肖云、杨梦梦、李成龙、刘磊、唐进。
    “基于属性的渐进式融合网络,用于RGBT跟踪”。AAAI(2022年)。 [论文] [代码]

  • TAV: 塔哈尔·阿卢什、热罗姆·朗、弗洛里安·伊格尔。
    “基于赞成投票的真实跟踪:规模很重要”。AAAI(2022年)。 [论文] [代码]

ICLR 2022

  • FSBA: 李一鸣、钟浩翔、马兴军、江勇、夏树涛。
    “针对视觉目标跟踪的少样本后门攻击”。ICLR(2022年)。 [论文] [代码]

ICRA 2022

  • Ad2Attack: Fu Changhong, Li Sihang, Yuan Xinnan, Ye Junjie, Cao Ziang, Ding Fangqiang。
    “Ad2Attack:面向实时无人机跟踪的自适应对抗攻击”。ICRA(2022)。 [论文] [代码]

  • SCT: Ye Junjie,Fu Changhong,Cao Ziang,An Shan,Zheng Guangze,Li Bowen。
    “追踪器遇上黑夜:一种用于无人机跟踪的Transformer增强模型”。ICRA/RAL(2022)。 [论文] [代码]

  • SiamX: Huang Huajian,Yeung Sai-Kit。
    “SiamX:一种基于跨层级特征相关性和自适应跟踪方案的高效长期跟踪器”。ICRA(2022)。 [论文] [代码]

WACV 2022

  • SiamTPN: Xing Daitao,Evangeliou Nikolaos,Tsoukalas Athanasios,Tzes Anthony。
    “用于实时无人机跟踪的孪生Transformer金字塔网络”。WACV(2022)。 [论文] [代码]

ICCV 2021

  • STARK: Yan Bin,Peng Houwen,Fu Jianlong,Wang Dong,Lu Huchuan。
    “用于视觉跟踪的时空Transformer学习模型”。ICCV(2021)。 [论文] [代码]

  • AutoMatch: Zhang Zhipeng,Liu Yihao,Wang Xiao,Li Bing,Hu Weiming。
    “学会匹配:用于视觉跟踪的自动匹配网络设计”。ICCV(2021)。 [论文] [代码]

  • DDT: Yu Bin,Tang Ming,Zheng Linyu,Zhu Guibo,Wang Jinqiao。
    “基于Transformer的高性能判别式跟踪方法”。ICCV(2021)。 [论文] [代码]

  • HiFT: Cao Ziang,Fu Changhong,Ye Junjie,Li Bowen,Li Yiming。
    “用于空中跟踪的层次化特征Transformer模型”。ICCV(2021)。 [论文] [代码]

  • DualTFR: Xie Fei,Wang Chunyu,Wang Guangting,Yang Wankou,Zeng Wenjun。
    “通过双分支全Transformer网络学习跟踪表示”。ICCVW(2021)。 [论文] [代码]

  • DMB: Xie Fei,Yang Wankou,Zhang Kaihua,Liu Bo,Xue Wanli,Zuo Wangmeng。
    “用于高性能视觉跟踪的时空外观记忆网络学习模型”。ICCVW(2021)。 [论文] [代码]

  • KeepTrack: Mayer Christoph,Danelljan Martin,Paudel Danda Pani,Van Gool Luc。
    “通过学习目标候选关联来跟踪不应被跟踪的对象”。ICCV(2021)。 [论文] [代码]

  • SAOT: Zhou Zikun,Pei Wenjie,Li Xin,Wang Hongpeng,Zheng Feng,He Zhenyu。
    “基于显著性关联的目标跟踪方法”。ICCV(2021)。 [论文] [代码]

  • MLVSNet: Wang Zhoutao,Xie Qian,Lai Yu-Kun,Wu Jing,Long Kun,Wang Jun。
    “MLVSNet:用于3D视觉跟踪的多级投票孪生网络”。ICCV(2021)。 [论文] [代码]

  • EFTrack: Zhang Jiqing,Yang Xin,Fu Yingkai,Wei Xiaopeng,Yin Baocai,Dong Bo。
    “通过联合利用帧域和事件域进行目标跟踪”。ICCV(2021)。 [论文] [代码]

  • Box2Mask: Zhao Bin,Bhat Goutam,Danelljan Martin,Van Gool Luc,Timofte Radu。
    “通过挖掘视频中的时空一致性从边界框生成掩码”。ICCV(2021)。 [论文] [代码]

  • DepthTrack: Yan Song,Yang Jinyu,Käpylä Jani,Zheng Feng,Leonardis Aleš,Kämäräinen Joni-Kristian。
    “DepthTrack:揭示RGBD跟踪的强大能力”。ICCV(2021)。 [论文] [代码]

  • USOT: Zheng Jilai,Ma Chao,Peng Houwen,Yang Xiaokang。
    “从未标注视频中学习目标跟踪方法”。ICCV(2021)。 [论文] [代码]

  • TOTB: Fan Heng,Akhilesha Miththanthaya Halady,Harshit,Rajan Siranjiv Ramana,Liu Xiaoqiong,Zou Zhilin,Lin Yuewei,Ling Haibin。
    “透明物体跟踪基准测试”。ICCV(2021)。 [论文] [代码]

  • TREK-150: Dunnhofer Matteo,Furnari Antonino,Farinella Giovanni Maria,Micheloni Christian。
    “第一人称视角对目标跟踪是否具有挑战性?”。ICCVW(2021)。 [论文] [代码] [工具包]

  • VASR: Dai Kenan,Zhao Jie,Wang Lijun,Wang Dong,Li Jianhua,Lu Huchuan,Qian Xuesheng,Yang Xiaoyun。
    “通过选择与精修进行视觉跟踪的视频标注方法”。ICCV(2021)。 [论文] [代码]

  • BAT: Zheng Chaoda,Yan Xu,Gao Jiantao,Zhao Weibing,Zhang Wei,Li Zhen,Cui Shuguang。
    “面向点云上单目标跟踪的盒感知特征增强方法”。ICCV(2021)。 [论文] [代码]

  • ABA: Guo Qing,Cheng Ziyi,Juefei-Xu Felix,Ma Lei,Xie Xiaofei,Liu Yang,Zhao Jianjun。
    “学习以对抗方式模糊视觉目标跟踪”。ICCV(2021)。 [论文] [代码]

CVPR 2021

  • TransT: 陈鑫、闫斌、朱嘉文、王栋、杨晓云、陆虎川。
    “Transformer跟踪”。CVPR(2021)。 [论文] [代码]

  • Alpha-Refine: 闫斌、张新宇、王栋、陆虎川、杨晓云。
    “Alpha-Refine:通过精确的边界框估计提升跟踪性能”。CVPR(2021)。 [论文] [代码]

  • LightTrack: 闫斌、彭厚文、吴侃、王栋、傅建龙、陆虎川。
    “LightTrack:通过一次性架构搜索寻找用于目标跟踪的轻量级神经网络”。CVPR(2021)。 [论文] [代码]

  • TrTrack: 王宁、周文刚、王杰、李厚强。
    “Transformer遇见跟踪器:利用时间上下文实现鲁棒的视觉跟踪”。CVPR(2021)。 [论文] [代码]

  • STMTrack: 傅志宏、刘庆杰、傅泽华、王云洪。
    “STMTrack:基于时空记忆网络的无模板视觉跟踪”。CVPR(2021)。 [论文] [代码]

  • SiamGAT: 郭东燕、邵艳艳、崔颖、王振华、张丽燕、沈春华。
    “图注意力跟踪”。CVPR(2021)。 [论文] [代码]

  • SiamACM: 韩文成、董兴平、法哈德·沙赫巴兹·汗、邵玲、沈建兵。
    “在孪生跟踪器中学习融合非对称特征图”。CVPR(2021)。 [论文] [代码]

  • PST: 南君熙、许美兰、吴承旭、李俊英、金善柱。
    “多边形点集跟踪”。CVPR(2021)。 [论文] [代码]

  • PUL: 吴强强、万佳、安东尼·B·陈。
    “面向视觉目标跟踪的渐进式无监督学习”。CVPR(2021)。 [论文] [代码]

  • CapsuleRRT: 马丁、吴向谦。
    “CapsuleRRT:基于胶囊的关系感知回归跟踪”。CVPR(2021)。 [论文] [代码]

  • Semi-Track: 傅洋、刘思飞、伊克巴尔、德梅洛、施浩辉、考茨。
    “无需视频标注即可学习实例跟踪”。CVPR(2021)。 [论文] [代码]

  • RE-Siam: 戈普塔、阿利亚、加夫斯。
    “用于跟踪的旋转等变孪生网络”。CVPR(2021)。 [论文] [代码]

  • SiamNLP: 冯琪、阿布拉夫斯基、白钦勋、斯克拉罗夫。
    “孪生自然语言跟踪器:利用孪生跟踪器进行自然语言描述的跟踪”。CVPR(2021)。 [论文] [代码]

  • LangTrackBenchmark: 王晓、舒秀军、张志鹏、江波、王耀伟、田永红、吴峰。
    “借助自然语言实现更灵活、更精准的目标跟踪:算法与基准测试”。CVPR(2021)。 [论文] [代码]

  • DroneCrowd: 文隆银、杜大伟、朱鹏飞、胡清华、王启龙、薄立峰、吕思伟。
    “人群中的检测、跟踪与计数与无人机相结合:一项基准测试”。CVPR(2021)。 [论文] [代码]

  • DMTrack: 张子凯、钟彬能、张盛平、唐振军、刘欣、张兆祥。
    “基于动态卷积和多目标跟踪理念的干扰物感知快速跟踪”。CVPR(2021)。 [论文] [代码]

  • LF-Siam: 程思远、钟彬能、李国荣、刘欣、唐振军、李仙仙、王静。
    “学习过滤:用于鲁棒跟踪的孪生关系网络”。CVPR(2021)。 [论文] [代码]

  • IoU攻击: 贾帅、宋一冰、马超、杨晓康。
    “IoU攻击:面向视觉目标跟踪的时间一致性黑盒对抗攻击”。CVPR(2021)。 [论文] [代码]

  • MeanShift++: 张珍妮、蒋海因里希。
    “MeanShift++:极快的模式搜索及其在分割和目标跟踪中的应用”。CVPR(2021)。 [论文] [代码]

IROS 2021

  • CRACT: 樊恒、凌海宾。
    “CRACT:级联回归-对齐-分类以实现鲁棒的视觉跟踪”。IROS(2020)。 [论文]

  • SiamAPN++: 曹子昂、付昌鸿、叶俊杰、李博文、李一鸣。
    “SiamAPN++:用于实时无人机跟踪的孪生注意力聚合网络”。IROS(2021)。 [论文] [代码]

  • DarkLighter: 叶俊杰、付昌鸿、郑光泽、曹子昂、李博文。
    “DarkLighter:为无人机跟踪点亮黑暗”。IROS(2021)。 [论文] [代码]

  • PTT: 山家尧、周思凡、方正、崔宇博。
    “PTT:用于点云中单目标3D跟踪的点-跟踪-Transformer模块”。IROS(2021)。 [论文] [代码]

NeurIPS 2021

  • PathTrack: 德鲁·林斯利、吉里克·马利克、金俊京、拉克什米·纳拉西曼·戈文达拉詹、恩尼奥·明戈拉、托马斯·塞雷。
    “人类与机器中的无重识别跟踪”。NeurIPS(2021年)。 [论文] [代码]

  • UniTrack: 王中道、赵恒爽、李亚丽、王圣锦、菲利普·托尔、卢卡·贝尔蒂内托。
    “不同的跟踪任务是否需要不同的外观模型?”NeurIPS(2021年)。 [论文] [代码]

WACV 2021

  • MART: 范恒、凌海斌。
    “MART:用于鲁棒视觉跟踪的运动感知循环神经网络”。WACV(2021年)。 [论文] [代码]

  • SiamSE: 伊万·索斯诺维克、阿特姆·莫斯卡列夫、阿诺德·斯梅尔德斯。
    “尺度等变性提升暹罗跟踪性能”。WACV(2021年)。 [论文] [代码]

  • TracKlinic: 范恒、杨帆、楚鹏、林岳伟、袁琳、凌海斌。
    “TracKlinic:视觉跟踪中挑战因素的诊断”。WACV(2021年)。 [论文] [代码]

AAAI 2021

  • MUG: 周立军、安托万·勒丹、胡钦涛、刘婷、张建林、马里乌斯·克洛夫特。
    “模型不确定性引导视觉目标跟踪”。AAAI(2021年)。 [论文]

  • UPA: 丁莉、王永伟、袁凯文、蒋敏阳、王平、黄华、Z.简·王。
    “面向单目标跟踪的通用物理攻击研究”。AAAI(2021年)。 [论文]

  • PACNet: 张大伟、郑仲龙、贾日恒、李明璐。
    “基于层次化深度强化学习的视觉跟踪”。AAAI(2021年)。 [论文]

  • MSANet: 陈学松、傅灿淼、郑峰、赵勇、李洪生、罗平、齐国俊。
    “用于视觉目标跟踪的统一多场景攻击网络”。AAAI(2021年)。 [论文]

其他 2021

  • SiamAPN: 傅昌宏、曹子昂、李一鸣、叶俊杰、冯晨。
    “基于高效暹罗锚框提议网络的机载实时空中跟踪”。IEEE TGRS(2021年)。 [论文] [代码]

  • CCR: 葛世明、张春辉、李世坤、曾丹、陶大成。
    “用于鲁棒深度跟踪的级联相关精炼方法”。IEEE TNNLS(2021年)。 [论文] [代码]

  • CHASE: 赛义德·莫杰塔巴·马尔瓦斯蒂-扎德、贾瓦德·哈加尼、李诚、侯赛因·加内伊-亚赫丹、绍赫雷·卡塞伊。
    “CHASE:基于细胞级可微神经架构搜索的鲁棒视觉跟踪”。BMVC(2021年)。 [论文]

ECCV 2020

  • Ocean: 张志鹏、彭厚文、傅建龙、李冰、胡伟明。
    “Ocean:基于目标感知的无锚框跟踪。” ECCV(2020)。 [论文] [代码]

  • KYS: 戈塔姆·巴特、马丁·丹内尔扬、卢克·范·古尔、拉杜·蒂莫夫特。
    “了解你的周围环境:利用场景信息进行目标跟踪。” ECCV(2020)。 [论文] [代码]

  • PGNet: 廖炳炎、王晨晔、王雅云、王耀农、尹军。
    “PG-Net:用于视觉跟踪的像素到全局匹配网络。” ECCV(2020)。 [论文]

  • STN: 刘源、李若腾、程宇、罗比·T·谭、隋秀宝。
    “基于时空网络进行未来位置预测的目标跟踪。” ECCV(2020)。 [论文]

  • RPT: 马子昂、王林远、张海涛、陆伟、尹军。
    “RPT:用于孪生视觉跟踪的点集表示学习。” ECCVW(2020)。 [论文] [代码]

  • CenterTrack: 周兴义、弗拉德伦·科尔顿、菲利普·克拉亨布尔。
    “将目标作为点进行跟踪。” ECCV(2020)。 [论文] [代码]

  • PointTracker: 徐振波、张伟、谭晓、杨威、黄欢、温士磊、丁二瑞、黄柳生。
    “以点为单位进行分割,实现高效的在线多目标跟踪与分割。” ECCV(2020)。 [论文] [代码]

  • DCFST: 郑林宇、唐明、陈莹莹、王金桥、陆汉青。
    “基于判别模型跟踪的特征嵌入学习。” ECCV(2020)。 [论文] [代码]

  • CLNet: 董星平、沈坚兵、邵凌、法提赫·波里克利。
    “CLNet:一种紧凑的潜在网络,用于快速调整孪生跟踪器。” ECCV(2020)。 [论文] [代码]

  • RTAA: 贾帅、马超、宋一兵、杨晓康。
    “对抗攻击下的鲁棒跟踪。” ECCV(2020)。 [论文] [代码]

  • EAA: 梁思远、魏星星、姚思远、曹晓春。
    “用于视觉目标跟踪的有效对抗攻击。” ECCV(2020)。 [论文]

  • SPARK: 郭庆、谢小飞、费利克斯·朱菲-徐、马雷、李忠国、薛万力、冯伟、刘洋。
    “SPARK:面向视觉跟踪的空间感知在线增量攻击。” ECCV(2020)。 [论文]

  • CAT: 李承龙、刘磊、陆安东、季青、唐锦。
    “挑战感知的RGBT跟踪。” ECCV(2020)。 [论文]

  • JDE: 王中道、郑亮、刘一轩、王圣进。
    “迈向实时多目标跟踪。” ECCV(2020)。 [论文] [代码]

  • Chained-Tracker: 彭金龙、王长安、万方斌、吴阳、王亚彪、邰英、王成杰、李吉林、黄飞跃、付延伟。
    “Chained-Tracker:将配对注意力回归结果串联起来,实现端到端的多目标检测与跟踪联合任务。” ECCV(2020)。 [论文] [代码]

  • TAO: 阿查尔·戴夫、塔拉莎·库拉纳、帕维尔·托克马科夫、科黛莉娅·施密德、德瓦·拉马南。
    “TAO:一个大规模的基准数据集,用于跟踪任何目标。” ECCV(2020)。 [论文] [代码]

CVPR2020

  • MAML: 王广亭、罗冲、孙晓燕、熊志伟、曾文俊。
    “基于实例检测的跟踪:一种元学习方法。” CVPR(2020年 口头报告)。 [论文]

  • Siam R-CNN: 保罗·沃伊特兰德、乔纳森·吕滕、菲利普·H.S. 托尔、巴斯蒂安·莱贝。
    “Siam R-CNN:通过重新检测进行视觉跟踪。” CVPR(2020年)。 [BoLTVOS] [论文] [代码]

  • D3S: 阿兰·卢克齐奇、季里·马塔斯、马泰伊·克里斯坦。
    “D3S——一种判别式单次分割跟踪器。” CVPR(2020年)。 [论文] [代码]

  • PrDiMP: 马丁·丹内尔扬、卢克·范·古尔、拉杜·蒂莫夫特。
    “用于视觉跟踪的概率回归。” CVPR(2020年)。 [论文] [代码]

  • ROAM: 杨天宇、徐鹏飞、胡润波、柴华、安东尼·B·陈。
    “ROAM:递归优化的跟踪模型。” CVPR(2020年)。 [论文] [代码]

  • AutoTrack: 李一鸣、傅昌宏、丁方强、黄子渊、陆耿。
    “AutoTrack:面向无人机的高性能视觉跟踪,采用自动时空正则化。” CVPR(2020年)。 [论文] [代码]

  • SiamBAN: 陈泽度、钟彬能、李国荣、张盛平、季荣荣。
    “用于视觉跟踪的孪生框自适应网络。” CVPR(2020年)。 [论文] [代码]

  • SiamCAR: 郭东艳、王军、崔颖、王振华、陈圣勇。
    “SiamCAR:用于视觉跟踪的孪生全卷积分类与回归。” CVPR(2020年)。 [论文] [代码]

  • SiamAttn: 于跃臣、熊义磊、黄伟林、马修·R·斯科特。
    “用于视觉目标跟踪的可变形孪生注意力网络。” CVPR(2020年)。 [论文]

  • CSA: 颜斌、王栋、陆虎川、杨晓云。
    “冷却-收缩攻击:用难以察觉的噪声使跟踪器失效。” CVPR(2020年)。 [论文] [代码]

  • LTMU: 戴克楠、张云华、王栋、李建华、陆虎川、杨晓云。
    “基于元更新器的高性能长期跟踪。” CVPR(2020年)。 [论文] [代码]

  • MAST: 赖子航、陆艾丽卡、谢维迪。
    “MAST:一种记忆增强的自监督跟踪器。” CVPR(2020年)。 [论文] [代码]

  • CGACD: 杜飞、刘鹏、赵伟、唐向龙。
    “基于相关性引导注意的角点检测视觉跟踪。” CVPR(2020年)。 [论文] [代码]

IJCAI 2020

  • TLPG-Tracker: 李思远、张智、刘子宇、安娜·王、邱玲珑、杜峰。
    “TLPG-Tracker:视觉跟踪中目标定位与候选框生成的联合学习。” IJCAI(2020年)。 [论文]

  • E3SN: 兰萌、张一鹏、许启宁、张雷飞。
    “E3SN:用于视频目标分割的高效端到端孪生网络。” IJCAI(2020年)。 [论文]

AAAI 2020

  • SiamFC++: 徐银达、王泽宇、李佐欣、袁叶、于刚。
    “SiamFC++:基于目标估计指导的鲁棒且精确的视觉跟踪。” AAAI(2020年)。 [论文] [代码]

  • DROL: 周景浩、王鹏、孙浩洋。
    “用于孪生视觉跟踪的判别式与鲁棒在线学习。” AAAI(2020年)。 [论文] [代码]

  • POST: 王宁、周文刚、齐国军、李厚强。
    “POST:基于策略的切换跟踪。” AAAI(2020年)。 [论文]

  • SPS: 胡钦涛、周立军、王晓晓、毛耀、张建林、叶其祥。
    “SPSTracker:通过响应图的次峰值抑制实现鲁棒目标跟踪。” AAAI(2020年)。 [论文] [代码]

  • RPOT: 杨一凡、李国荣、戚元凯、黄庆明。
    “释放在线训练的力量,实现鲁棒视觉跟踪。” AAAI(2020年)。 [论文]

  • MetaRTT: 郑一彩、柳基贤、卢贤宇、赵敏洙、韩宝亨。
    “通过元学习实现实时目标跟踪:高效的模型适应与一次性的通道剪枝。” AAAI(2020年)。 [论文]

  • GlobalTrack: 黄良华、赵欣、黄凯奇。
    “GlobalTrack:一种简单而强大的长期跟踪基线。” AAAI(2020年)。 [论文] [代码]

其他 2020

  • VTT: 边天凌、华阳、宋涛、薛振贵、马如辉、尼尔·罗伯逊、关海兵。
    “VTT:基于Transformer的长期视觉跟踪。” ICPR 2020。 [论文] [代码]

  • COMET: 赛义德·莫杰塔巴·马尔瓦斯蒂-扎德、贾瓦德·哈加尼、侯赛因·加内伊-亚赫丹、绍赫雷·卡塞伊以及李成。
    “COMET:上下文感知的IoU引导网络,用于小目标跟踪。” ACCV 2020。 [论文] [代码]

  • SiamKPN: 李强、秦泽奎、张文博、郑文。
    “用于视觉目标跟踪的孪生关键点预测网络。” ArXiv 2020。 [论文] [代码]

  • SiamCAN: 周文章、温龙寅、张立波、杜大伟、罗铁坚、吴延军。
    “SiamMan:用于视觉跟踪的运动感知孪生网络。” TIP 2020。 [论文] [新论文] [代码]

ICCV 2019

  • DiMP: Goutam Bhat、Martin Danelljan、Luc Van Gool、Radu Timofte。
    “用于跟踪的判别模型预测学习”。ICCV(2019年 口头报告)。 [论文] [代码]

  • GradNet: Peixia Li、Boyu Chen、Wanli Ouyang、Dong Wang、Xiaoyun Yang、Huchuan Lu。
    “GradNet:面向视觉目标跟踪的梯度引导网络”。ICCV(2019年 口头报告)。 [论文] [代码]

  • MLT: Janghoon Choi、Junseok Kwon、Kyoung Mu Lee。
    “用于实时目标感知视觉跟踪的深度元学习”。ICCV(2019年)。 [论文]

  • SPLT: Bin Yan、Haojie Zhao、Dong Wang、Huchuan Lu、Xiaoyun Yang。
    “‘略读—细看’跟踪:一种用于实时且鲁棒的长期跟踪框架”。ICCV(2019年)。 [论文] [代码]

  • ARCF: Ziyuan Huang、Changhong Fu、Yiming Li、Fuling Lin、Peng Lu。
    “用于实时无人机跟踪的畸变抑制相关滤波器学习”。ICCV(2019年)。 [论文] [代码]

  • BGDT: Lianghua Huang、Xin Zhao、Kaiqi Huang。
    “弥合检测与跟踪之间的鸿沟:一种统一方法”。ICCV(2019年)。 [论文]

  • PAT: Rey Reza Wiyatno、Anqi Xu。
    “能够欺骗视觉目标跟踪的物理对抗纹理”。ICCV(2019年)。 [论文]

  • GFS-DCF: Tianyang Xu、Zhen-Hua Feng、Xiao-Jun Wu、Josef Kittler。
    “联合分组特征选择与判别滤波器学习,用于鲁棒的视觉目标跟踪”。ICCV(2019年)。 [论文] [代码]

  • CDTB: Alan Lukežič、Ugur Kart、Jani Käpylä、Ahmed Durmush、Joni-Kristian Kämäräinen、Jiří Matas、Matej Kristan。
    “CDTB:彩色与深度视觉目标跟踪数据集及基准测试”。ICCV(2019年)。 [论文]

  • fdKCF: Linyu Zheng、Ming Tang、Yingying Chen、Jinqiao Wang、Hanqing Lu。
    “无边界效应的快速deepKCF”。ICCV(2019年)。 [论文]

  • VOT2019: Kristan、Matej 等。
    “第七届视觉目标跟踪VOT2019挑战赛结果”。ICCV研讨会(2019年)。 [论文]

CVPR2019

  • SiamMask: 王强、张立、卢卡·贝尔蒂内托、胡伟明、菲利普·H·S·托尔。
    “快速在线目标跟踪与分割:一种统一方法。” CVPR(2019)。 [论文] [项目] [代码]

  • SiamRPN++: 李博、吴伟、王强、张方毅、邢俊亮、闫俊杰。
    “SiamRPN++:基于超深度网络的孪生视觉跟踪演进。” CVPR(2019 口头报告)。 [论文] [项目]

  • ATOM: 马丁·丹内尔扬、古塔姆·巴特、法哈德·沙赫巴兹·汗、迈克尔·费尔斯贝格。
    “ATOM:通过最大化重叠实现精确跟踪。” CVPR(2019 口头报告)。 [论文] [代码]

  • SiamDW: 张志鹏、彭厚文。
    “用于实时视觉跟踪的更深更宽的孪生网络。” CVPR(2019 口头报告)。 [论文] [代码]

  • GCT: 高俊宇、张天柱、徐长胜。
    “图卷积跟踪。” CVPR(2019 口头报告)。 [论文] [代码]

  • ASRCF: 戴可楠、王栋、陆虎川、孙冲、李建华。
    “基于自适应空间正则化相关滤波器的视觉跟踪。” CVPR(2019 口头报告)。 [论文] [代码]

  • UDT: 王宁、宋义兵、马超、周文刚、刘伟、李厚强。
    “无监督深度跟踪。” CVPR(2019)。 [论文] [代码]

  • TADT: 李欣、马超、吴宝元、何振宇、杨明轩。
    “目标感知深度跟踪。” CVPR(2019)。 [论文] [项目] [代码]

  • C-RPN: 范恒、凌海斌。
    “用于实时视觉跟踪的孪生级联区域建议网络。” CVPR(2019)。 [论文]

  • SPM: 王广亭、罗冲、熊志伟、曾文俊。
    “SPM-Tracker:用于实时视觉目标跟踪的串并联匹配。” CVPR(2019)。 [论文]

  • OTR: 乌古尔·卡尔特、艾伦·卢凯齐奇、马泰伊·克里斯坦、乔尼-克里斯蒂安·卡马拉伊宁、季里·马塔斯。
    “基于视点特定判别相关滤波器的重建式目标跟踪。” CVPR(2019)。 [论文] [代码]

  • RPCF: 孙宇轩、孙冲、王栋、陆虎川、何友。
    “用于视觉跟踪的ROI池化相关滤波器。” CVPR(2019)。 [论文]

  • LaSOT: 范恒、林丽婷、杨帆、楚鹏、邓戈、于思嘉、白和鑫、徐勇、廖春元、凌海斌。
    “LaSOT:大规模单目标跟踪的高质量基准数据集。” CVPR(2019)。 [论文] [项目]

AAAI2019

  • LDES: 李阳、朱建科、史蒂文·C·H·霍伊、宋文杰、王哲峰、刘汉唐。
    “用于视觉目标跟踪的相似变换鲁棒估计。” AAAI(2019)。 [论文] [代码]

  • ANT: 齐元凯、张盛平、张卫刚、苏莉、黄庆明、杨明轩。
    “学习属性特定表示以进行视觉跟踪。” AAAI(2019)。 [论文]

  • Re2EMA: 黄江雷、周文刚。
    “Re2EMA:用于目标模型更新的正则化与重新初始化指数移动平均。” AAAI(2019)。 [论文]

NIPS2018

  • DAT: 普石、宋义兵、马超、张洪刚、杨明轩。
    “通过互惠学习的深度注意力跟踪。” NIPS(2018)。 [论文] [项目] [代码]

ECCV2018

  • UPDT: Goutam Bhat、Joakim Johnander、Martin Danelljan、Fahad Shahbaz Khan、Michael Felsberg。
    “揭秘深度跟踪的力量”。ECCV(2018年)。 [论文]

  • DaSiamRPN: Zheng Zhu、Qiang Wang、Bo Li、Wu Wei、Junjie Yan、Weiming Hu。
    “用于视觉目标跟踪的干扰物感知孪生网络”。ECCV(2018年)。 [论文] [GitHub]

  • SiamMCF: Henrique Morimitsu。
    “基于孪生网络的多上下文特征在视觉目标跟踪中的应用”。ECCV(2018年)。 [论文] [GitHub]

  • SACF: Mengdan Zhang、Qiang Wang、Junliang Xing、Jin Gao、Peixi Peng、Weiming Hu、Steve Maybank。
    “基于空间对齐相关滤波器网络的视觉跟踪”。ECCV(2018年)。 [论文]

  • RTINet: Yingjie Yao、Xiaohe Wu、Lei Zhang、Shiguang Shan、Wangmeng Zuo。
    “基于相关滤波器的联合表示与截断推理学习用于目标跟踪”。ECCV(2018年)。 [论文]

  • Meta-Tracker: Eunbyung Park、Alexander C. Berg。
    “Meta-Tracker:快速且鲁棒的视觉目标跟踪器在线自适应方法”。 [论文] [GitHub]

  • DSLT: Xiankai Lu、Chao Ma*、Bingbing Ni、Xiaokang Yang、Ian Reid、Ming-Hsuan Yang。
    “带有收缩损失的深度回归跟踪”。ECCV(2018年)。 [论文] [GitHub]

  • DRL-IS: Liangliang Ren、Xin Yuan、Jiwen Lu、Ming Yang、Jie Zhou。
    “用于视觉跟踪的迭代偏移深度强化学习”。ECCV(2018年)。 [论文]

  • RT-MDNet: Ilchae Jung、Jeany Son、Mooyeol Baek、Bohyung Han。
    “实时MDNet”。ECCV(2018年)。 [论文]

  • ACT: Boyu Chen、Dong Wang、Peixia Li、Huchuan Lu。
    “实时‘演员—评论家’跟踪”。ECCV(2018年)。 [论文] [GitHub]

  • StructSiam: Yunhua Zhang、Lijun Wang、Dong Wang、Mengyang Feng、Huchuan Lu、Jinqing Qi。
    “用于实时视觉跟踪的结构化孪生网络”。ECCV(2018年)。 [论文]

  • MemTrack: Tianyu Yang、Antoni B. Chan。
    “用于目标跟踪的动态记忆网络学习”。ECCV(2018年)。 [论文]

  • SiamFC-tri: Xingping Dong、Jianbing Shen。
    “孪生网络中用于目标跟踪的三元组损失”。ECCV(2018年)。 [论文] [GitHub]

  • OxUvA长期数据集+基准测试: Jack Valmadre、Luca Bertinetto、João F. Henriques、Ran Tao、Andrea Vedaldi、Arnold Smeulders、Philip Torr、Efstratios Gavves。
    “野外长期跟踪:一项基准测试”。ECCV(2018年)。 [论文] [项目]

  • TrackingNet: Matthias Müller、Adel Bibi、Silvio Giancola、Salman Al-Subaihi、Bernard Ghanem。
    “TrackingNet:一个大规模的野外目标跟踪数据集与基准测试”。ECCV(2018年)。 [论文] [项目]

CVPR2018

  • VITAL: Yibing Song, Chao Ma, Xiaohe Wu, Lijun Gong, Linchao Bao, Wangmeng Zuo, Chunhua Shen, Rynson Lau, and Ming-Hsuan Yang。 “VITAL:基于对抗学习的视觉跟踪。” CVPR(2018年 Spotlight)。 [项目] [论文] [GitHub]

  • LSART: Chong Sun, Dong Wang, Huchuan Lu, Ming-Hsuan Yang。 “用于视觉跟踪的空间感知回归学习。” CVPR(2018年 Spotlight)。 [论文]

  • SiamRPN: Bo Li, Wei Wu, Zheng Zhu, Junjie Yan。 “基于暹罗区域建议网络的高性能视觉跟踪。” CVPR(2018年 Spotlight)。 [论文]

  • TRACA: Jongwon Choi, Hyung Jin Chang, Tobias Fischer, Sangdoo Yun, Kyuewang Lee, Jiyeoup Jeong, Yiannis Demiris, Jin Young Choi。 “面向高速视觉跟踪的上下文感知深度特征压缩。” CVPR(2018年)。 [项目] [论文]

  • RASNet: Qiang Wang, Zhu Teng, Junliang Xing, Jin Gao, Weiming Hu, Stephen Maybank。 “学习注意力机制:基于残差注意力暹罗网络的高性能在线视觉跟踪。” CVPR 2018。 [论文]

  • SA-Siam: Anfeng He, Chong Luo, Xinmei Tian, Wenjun Zeng。 “一种用于实时目标跟踪的双重暹罗网络。” CVPR(2018年)。 [论文]

  • STRCF: Feng Li, Cheng Tian, Wangmeng Zuo, Lei Zhang, Ming-Hsuan Yang。 “用于视觉跟踪的空间-时间正则化相关滤波器学习。” CVPR(2018年)。 [论文] [GitHub]

  • FlowTrack: Zheng Zhu, Wei Wu, Wei Zou, Junjie Yan。 “基于时空注意力的端到端流相关跟踪。” CVPR(2018年)。 [论文]

  • DEDT: Kourosh Meshgi, Shigeyuki Oba, Shin Ishii。 “用于判别式协同跟踪的高效多样化集成方法。” CVPR(2018年)。 [论文]

  • SINT++: Xiao Wang, Chenglong Li, Bin Luo, Jin Tang。 “SINT++:通过对抗性正样本生成实现鲁棒视觉跟踪。” CVPR(2018年)。 [论文]

  • DRT: Chong Sun, Dong Wang, Huchuan Lu, Ming-Hsuan Yang。 “基于联合判别与可靠性学习的相关跟踪。” CVPR(2018年)。 [论文]

  • MCCT: Ning Wang, Wengang Zhou, Qi Tian, Richang Hong, Meng Wang, Houqiang Li。 “用于鲁棒视觉跟踪的多线索相关滤波器。” CVPR(2018年)。 [论文] [GitHub]

  • MKCF: Ming Tang, Bin Yu, Fan Zhang, Jinqiao Wang。 “基于多核相关滤波器的高速跟踪。” CVPR(2018年)。 [论文]

  • HP: Xingping Dong, Jianbing Shen, Wenguan Wang, Yu, Liu, Ling Shao, and Fatih Porikli。 “基于连续深度Q学习的跟踪超参数优化。” CVPR(2018年)。 [论文]

NIPS2017

  • HART: Adam R. Kosiorek, Alex Bewley, Ingmar Posner。 “层次化注意力循环跟踪。” NIPS(2017年)。 [论文] [GitHub]

ICCV2017

  • CREST: Yibing Song, Chao Ma, Lijun Gong, Jiawei Zhang, Rynson Lau, Ming-Hsuan Yang。
    “CREST:用于视觉跟踪的卷积残差学习”。ICCV(2017年 Spotlight)。
    [论文]
    [项目]
    [GitHub]

  • EAST: Chen Huang, Simon Lucey, Deva Ramanan。
    “利用深度特征级联学习自适应跟踪策略”。ICCV(2017年 Spotlight)。
    [论文]
    [补充材料]

  • PTAV: Heng Fan 和 Haibin Ling。
    “并行跟踪与验证:一种实时高精度视觉跟踪框架”。ICCV(2017年)。
    [论文]
    [补充材料]
    [项目]
    [代码]

  • BACF: Hamed Kiani Galoogahi, Ashton Fagg, Simon Lucey。
    “用于视觉跟踪的背景感知相关滤波器学习”。ICCV(2017年)。
    [论文]
    [补充材料]
    [代码]
    [项目]

  • TSN: Zhu Teng, Junliang Xing, Qiang Wang, Congyan Lang, Songhe Feng 和 Yi Jin。
    “基于时空深度网络的鲁棒目标跟踪”。ICCV(2017年)。
    [论文]

  • p-tracker: James Supančič, III;Deva Ramanan。
    “将跟踪视为在线决策:利用强化学习从流式视频中学习策略”。ICCV(2017年)。
    [论文]
    [补充材料]

  • DSiam: Qing Guo;Wei Feng;Ce Zhou;Rui Huang;Liang Wan;Song Wang。
    “用于视觉目标跟踪的动态暹罗网络学习”。ICCV(2017年)。
    [论文]
    [GitHub]

  • SP-KCF: Xin Sun;Ngai-Man Cheung;Hongxun Yao;Yiluan Guo。
    “基于形状保持KCF和水平集的可变形块非刚性目标跟踪”。ICCV(2017年)。
    [论文]

  • UCT: Zheng Zhu, Guan Huang, Wei Zou, Dalong Du, Chang Huang。
    “UCT:用于实时视觉跟踪的统一卷积网络学习”。ICCV研讨会(2017年)。
    [论文]

  • Tobias Bottger, Patrick Follmann。
    “使用像素级分割评估跟踪器性能的优势”。ICCV研讨会(2017年)。
    [论文]

  • CFWCR: Zhiqun He, Yingruo Fan, Junfei Zhuang, Yuan Dong, HongLiang Bai。
    “具有加权卷积响应的相关滤波器”。ICCV研讨会(2017年)。
    [论文]
    [GitHub]

  • IBCCF: Feng Li, Yingjie Yao, Peihua Li, David Zhang, Wangmeng Zuo, Ming-Hsuan Yang。
    “结合边界与中心相关滤波器以应对宽高比变化的视觉跟踪”。ICCV研讨会(2017年)。
    [论文]
    [GitHub]

  • RFL: Tianyu Yang, Antoni B. Chan。
    “用于视觉跟踪的循环滤波器学习”。ICCV研讨会(2017年)。
    [论文]

CVPR2017

  • ECO: Martin Danelljan, Goutam Bhat, Fahad Shahbaz Khan, Michael Felsberg。
    “ECO:用于目标跟踪的高效卷积算子”。CVPR(2017)。
    [论文]
    [补充材料]
    [项目主页]
    [GitHub]

  • CFNet: Jack Valmadre, Luca Bertinetto, João F. Henriques, Andrea Vedaldi, Philip H. S. Torr。
    “基于相关滤波器跟踪的端到端表示学习”。CVPR(2017)。
    [论文]
    [补充材料]
    [项目主页]
    [GitHub]

  • CACF: Matthias Mueller, Neil Smith, Bernard Ghanem。
    “上下文感知的相关滤波器跟踪”。CVPR(2017,口头报告)。
    [论文]
    [补充材料]
    [项目主页]
    [代码]

  • RaF: Le Zhang, Jagannadan Varadarajan, Ponnuthurai Nagaratnam Suganthan, Narendra Ahuja 和 Pierre Moulin。
    “使用斜向随机森林的鲁棒视觉跟踪”。CVPR(2017)。
    [论文]
    [补充材料]
    [项目主页]
    [代码]

  • MCPF: Tianzhu Zhang, Changsheng Xu, Ming-Hsuan Yang。
    “用于鲁棒目标跟踪的多任务相关粒子滤波器”。CVPR(2017)。
    [论文]
    [项目主页]
    [代码]

  • ACFN: Jongwon Choi, Hyung Jin Chang, Sangdoo Yun, Tobias Fischer, Yiannis Demiris 和 Jin Young Choi。
    “用于自适应视觉跟踪的注意力相关滤波网络”。CVPR(2017)。
    [论文]
    [补充材料]
    [项目主页]
    [测试代码]
    [训练代码]

  • LMCF: Mengmeng Wang, Yong Liu, Zeyi Huang。
    “基于循环特征图的大间隔目标跟踪”。CVPR(2017)。
    [论文]
    [知乎]

  • ADNet: Sangdoo Yun, Jongwon Choi, Youngjoon Yoo, Kimin Yun, Jin Young Choi。
    “基于深度强化学习的视觉跟踪动作决策网络”。CVPR(2017,Spotlight)。
    [论文]
    [补充材料]
    [项目主页]

  • CSR-DCF: Alan Lukežič, Tomáš Vojíř, Luka Čehovin, Jiří Matas, Matej Kristan。
    “具有通道和空间可靠性的判别相关滤波器”。CVPR(2017)。
    [论文]
    [补充材料]
    [代码]

  • BranchOut: Bohyung Han, Jack Sim, Hartwig Adam。
    “BranchOut:基于卷积神经网络的在线集成跟踪正则化方法”。CVPR(2017)。
    [论文]

  • AMCT: Donghun Yeo, Jeany Son, Bohyung Han, Joonhee Han。
    “基于马尔可夫链的超像素分割跟踪”。CVPR(2017)。
    [论文]

  • SANet: Heng Fan, Haibin Ling。
    “SANet:面向视觉跟踪的结构感知网络”。CVPRW(2017)。
    [论文]
    [项目主页]
    [代码]

ECCV2016

  • SiameseFC: Luca Bertinetto、Jack Valmadre、João F. Henriques、Andrea Vedaldi、Philip H.S. Torr。
    “用于目标跟踪的全卷积孪生网络”。ECCV研讨会(2016)。
    [论文]
    [项目]
    [GitHub]

  • GOTURN: David Held、Sebastian Thrun、Silvio Savarese。
    “使用深度回归网络以100 FPS学习跟踪”。ECCV(2016)。
    [论文]
    [项目]
    [GitHub]

  • C-COT: Martin Danelljan、Andreas Robinson、Fahad Khan、Michael Felsberg。
    “超越相关滤波器:学习用于视觉跟踪的连续卷积算子”。ECCV(2016)。
    [论文]
    [项目]
    [GitHub]

  • CF+AT: Adel Bibi、Matthias Mueller、Bernard Ghanem。
    “用于相关滤波器跟踪的目标响应自适应”。ECCV(2016)。
    [论文]
    [项目]
    [GitHub]

  • Yao Sui、Ziming Zhang、Guanghui Wang、Yafei Tang、Li Zhang。
    “实时视觉跟踪:提升相关滤波器学习的鲁棒性”。ECCV(2016)。
    [论文]

  • Yao Sui、Guanghui Wang、Yafei Tang、Li Zhang。
    “跟踪完成”。ECCV(2016)。
    [论文]

CVPR2016

  • MDNet: Nam, Hyeonseob、Bohyung Han。
    “学习用于视觉跟踪的多领域卷积神经网络”。CVPR(2016)。
    [论文]
    [VOT演示文稿]
    [项目]
    [GitHub]

  • SINT: Ran Tao、Efstratios Gavves、Arnold W.M. Smeulders。
    “用于跟踪的孪生实例搜索”。CVPR(2016)。
    [论文]
    [项目]

  • SCT: Jongwon Choi、Hyung Jin Chang、Jiyeoup Jeong、Yiannis Demiris、Jin Young Choi。
    “利用注意力调制的分解与融合进行视觉跟踪”。CVPR(2016)。
    [论文]
    [项目]

  • STCT: Lijun Wang、Wanli Ouyang、Xiaogang Wang、Huchuan Lu。
    “STCT:用于视觉跟踪的序列式训练卷积网络”。CVPR(2016)。
    [论文]
    [GitHub]

  • SRDCFdecon: Martin Danelljan、Gustav Häger、Fahad Khan、Michael Felsberg。
    “训练集的自适应去污:判别式视觉跟踪的统一公式”。CVPR(2016)。
    [论文]
    [项目]

  • HDT: Yuankai Qi、Shengping Zhang、Lei Qin、Hongxun Yao、Qingming Huang、Jongwoo Lim、Ming-Hsuan Yang。
    “有保障的深度跟踪”。CVPR(2016)。
    [论文]
    [项目]

  • Staple: Luca Bertinetto、Jack Valmadre、Stuart Golodetz、Ondrej Miksik、Philip H.S. Torr。
    “Staple:用于实时跟踪的互补学习者”。CVPR(2016)。
    [论文]
    [项目]
    [GitHub]

  • EBT: Gao Zhu、Fatih Porikli、Hongdong Li。
    “超越局部搜索:通过实例特定提案在任何地方跟踪目标”。CVPR(2016)。
    [论文]
    [可执行文件]

  • DLSSVM: Jifeng Ning、Jimei Yang、Shaojie Jiang、Lei Zhang、Ming-Hsuan Yang。
    “基于双线性结构化SVM和显式特征映射的目标跟踪”。CVPR(2016)。
    [论文]
    [代码]
    [项目]

NIPS2016

  • Learnet: Luca Bertinetto、João F. Henriques、Jack Valmadre、Philip H. S. Torr、Andrea Vedaldi。
    “学习前馈式一次性学习器”。NIPS(2016)。
    [论文]

ICCV2015

  • FCNT: 王利军、欧阳婉丽、王小刚和陆虎川。
    “基于全卷积网络的视觉跟踪”。ICCV(2015)。
    [论文]
    [项目]
    [GitHub]

  • SRDCF: 马丁·丹内尔扬、古斯塔夫·黑格、法哈德·汗、迈克尔·费尔斯贝格。
    “学习空间正则化的相关滤波器用于视觉跟踪”。ICCV(2015)。
    [论文]
    [项目]

  • CF2: 马超、黄家彬、杨晓康和杨明轩。
    “用于视觉跟踪的层次化卷积特征”。ICCV(2015)
    [论文]
    [项目]
    [GitHub]

  • 王乃延、施建平、叶迪勇和贾佳亚。
    “理解和诊断视觉跟踪系统”。ICCV(2015)。
    [论文]
    [项目]
    [代码]

  • DeepSRDCF: 马丁·丹内尔扬、古斯塔夫·黑格、法哈德·汗、迈克尔·费尔斯贝格。
    “基于相关滤波器的视觉跟踪中的卷积特征”。ICCV研讨会(2015)。
    [论文]
    [项目]

  • RAJSSC: 张梦丹、邢俊亮、高进、石新初、王强和胡伟明。
    “联合尺度-空间相关跟踪与自适应旋转估计”。ICCV研讨会(2015)。
    [论文]
    [海报]

CVPR2015

  • MUSTer: 洪志斌、陈哲、王超辉、梅雪、达尼尔·普罗霍罗夫和陶大成。
    “多存储跟踪器(MUSTer):受认知心理学启发的目标跟踪方法”。CVPR(2015)。
    [论文]
    [项目]

  • LCT: 马超、杨晓康、张崇阳和杨明轩。
    “长期相关跟踪”。CVPR(2015)。
    [论文]
    [项目]
    [GitHub]

  • DAT: 霍斯特·波塞格尔、托马斯·毛特纳和霍斯特·比绍夫。
    “为基于颜色的无模型跟踪辩护”。CVPR(2015)。
    [论文]
    [项目]
    [代码]

  • RPT: 李洋、朱建科和史蒂文·C.H. 霍伊。
    “可靠补丁跟踪器:通过利用可靠补丁实现鲁棒视觉跟踪”。CVPR(2015)。
    [论文]
    [GitHub]

ICML2015

  • CNN-SVM: 洪承勋、刘宅根、郭秀河和韩宝亨。
    “基于卷积神经网络学习判别性显著图的在线跟踪”。ICML(2015)。
    [论文]
    [项目]

BMVC2014

  • DSST: 马丁·丹内尔扬、古斯塔夫·黑格、法哈德·沙赫巴兹·汗和迈克尔·费尔斯贝格。
    “用于鲁棒视觉跟踪的精确尺度估计”。BMVC(2014)。
    [论文]
    [PAMI]
    [项目]

ECCV2014

  • MEEM: 张建明、马树高和斯坦·斯克拉罗夫。
    “MEEM:基于熵最小化的多专家鲁棒跟踪”。ECCV(2014)。
    [论文]
    [项目]

  • TGPR: 高进、凌海宾、胡伟明和邢俊亮。
    “基于高斯过程回归的迁移学习视觉跟踪”。ECCV(2014)。
    [论文]
    [项目]

  • STC: 张凯华、张磊、杨明轩和戴维·张。
    “基于时空上下文学习的快速跟踪”。ECCV(2014)。
    [论文]
    [项目]

  • SAMF: 李洋和朱建科。
    “具有特征融合的尺度自适应核相关滤波器跟踪器”。ECCV研讨会(2014)。
    [论文]
    [GitHub]

NIPS2013

  • DLT: 王乃岩和叶迪雄。 “为视觉跟踪学习深度紧凑图像表示”。NIPS(2013年)。 [论文] [项目] [代码]

PAMI、IJCV 和 TIP

  • MCPF: 张天柱、徐常胜、杨明轩。 “用于视觉跟踪的多任务相关性粒子滤波器学习”。TPAMI(2017年)。 [[论文]] [项目] [代码]

  • RSST: 张天柱、徐常胜、杨明轩。 “鲁棒结构稀疏跟踪”。TPAMI(2017年)。 [[论文]] [项目] [代码]

  • fDSST: 马丁·丹内尔扬、古斯塔夫·海格、法哈德·汗、迈克尔·费尔斯贝格。 “判别尺度空间跟踪”。TPAMI(2017年)。 [论文] [项目] [代码]

  • KCF: 若昂·F·恩里克什、鲁伊·卡塞罗、佩德罗·马丁斯、若热·巴蒂斯塔。 “基于核相关滤波器的高速目标跟踪”。TPAMI(2015年)。 [论文] [项目]

  • CLRST: 张天柱、刘思、纳伦德拉·阿胡贾、杨明轩、伯纳德·加内姆。 “通过一致低秩稀疏学习实现鲁棒视觉跟踪”。IJCV(2015年)。 [论文] [项目] [代码]

  • DNT: 池志珍、李洪洋、陆虎川、杨明轩。 “用于视觉跟踪的双深度网络”。TIP(2017年)。 [论文]

  • DRT: 高俊宇、张天柱、杨晓山、徐常胜。 “深度相对跟踪”。TIP(2017年)。 [论文]

  • BIT: 蔡博伦、许向民、邢晓芬、贾奎、缪杰、陶大成。 “BIT:生物启发式跟踪器”。TIP(2016年)。 [论文] [项目] [GitHub]

  • CNT: 张凯华、刘庆山、吴毅、杨明轩。 “无需训练的卷积网络实现鲁棒视觉跟踪”。TIP(2016年)。 [论文] [代码]

基准数据集

  • LaSOT: 范恒、林丽婷、杨帆、楚鹏、邓戈、于思佳、白鹤欣、徐勇、廖春元、凌海斌。
    “LaSOT:大规模单目标跟踪的高质量基准数据集”。CVPR(2019年)。
    [论文]
    [项目]

  • OxUvA 长期数据集+基准:杰克·瓦尔马德雷、卢卡·贝尔蒂内托、若昂·F·恩里克斯、陶然、安德烈亚·韦达尔迪、阿诺德·斯梅尔德斯、菲利普·托尔、埃夫斯特拉提奥斯·加维斯。
    “野外长期跟踪:一个基准数据集”。ECCV(2018年)。
    [论文]
    [项目]

  • TrackingNet: 马蒂亚斯·穆勒、阿德尔·比比、西尔维奥·詹科拉、萨尔曼·阿尔-苏拜希、伯纳德·加内姆。
    “TrackingNet:野外目标跟踪的大规模数据集与基准”。ECCV(2018年)。
    [项目]
    [论文]

  • UAVDT: 杜大伟、齐元凯、于洪洋、杨一芳、段凯文、李国荣、张卫刚、魏海;黄清明、田琦。
    “无人机基准:目标检测与跟踪”。ECCV(2018年)。
    [论文]

  • Dataset-AMP: 卢卡·切霍文·扎伊茨;艾伦·卢克日奇;阿莱什·莱昂纳迪斯;马泰伊·克里斯坦。
    “超越标准基准:视觉目标跟踪中性能评估的参数化方法”。ICCV(2017年)。
    [论文]

  • Dataset-Nfs: 哈迈德·基亚尼·加卢加希、阿什顿·法格、陈黄、德瓦·拉马南和西蒙·卢西。
    “速度需求:用于更高帧率目标跟踪的基准数据集”。ICCV(2017年)。
    [论文]
    [补充材料]
    [项目]

  • Dataset-DTB70: 李思义、叶定言。
    “无人机视觉目标跟踪:基准数据集与新型运动模型”。AAAI(2017年)。
    [论文]
    [项目]
    [数据集]

  • Dataset-UAV123: 马蒂亚斯·穆勒、尼尔·史密斯和伯纳德·加内姆。
    “无人机跟踪的基准数据集与模拟器”。ECCV(2016年)。
    [论文]
    [项目]
    [数据集]

  • Dataset-TColor-128: 梁鹏鹏、埃里克·布拉施、凌海斌。
    “为视觉跟踪编码颜色信息:算法与基准数据集”。TIP(2015年)。
    [论文]
    [项目]
    [数据集]

  • Dataset-NUS-PRO: 李安娜、林敏、吴毅、杨明轩和颜水成。
    “NUS-PRO:一个新的视觉跟踪挑战”。PAMI(2015年)。
    [论文]
    [项目]
    [360度数据(密码:bf28)]
    [百度云数据]
    [360度视图(密码:515a)]
    [百度云视图]

  • Dataset-PTB: 宋舒然和肖建雄。
    “利用RGBD相机重访目标跟踪:统一的基准与基线”。ICCV(2013年)。
    [论文]
    [项目]
    [5个验证集]
    [95个评估集]

  • Dataset-ALOV300+: 阿诺德·W·M·斯梅尔德斯、朱登明、丽塔·库奇阿拉、西蒙娜·卡尔德拉拉、阿夫辛·德赫甘、穆巴拉克·沙赫。
    “视觉跟踪:一项实验性综述”。PAMI(2014年)。
    [论文]
    [项目]
    镜像链接:ALOV300++ 数据集
    镜像链接:ALOV300++ 真值标注

  • OTB2013: 吴毅、林宗宇和杨明轩。
    “在线目标跟踪:一个基准数据集”。CVPR(2013年)。
    [论文]

  • OTB2015: 吴毅、林宗宇和杨明轩。
    “目标跟踪基准数据集”。TPAMI(2015年)。
    [论文]
    [项目]

  • Dataset-VOT: [项目]

[VOT13_paper_ICCV]2013年视觉目标跟踪挑战赛结果

[VOT14_paper_ECCV]2014年视觉目标跟踪挑战赛结果

[VOT15_paper_ICCV]2015年视觉目标跟踪挑战赛结果

[VOT16_paper_ECCV]2016年视觉目标跟踪挑战赛结果

[VOT17_paper_ICCV]2017年视觉目标跟踪挑战赛结果

杰出研究者与团队

在视觉跟踪领域发表了三篇以上对本领域产生重大影响论文、且目前仍在该领域活跃的杰出视觉跟踪研究者。(名单不分先后。)

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|今天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|3天前
开发框架图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|今天
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型