awesome-self-supervised-learning

GitHub
6.4k 838 非常简单 1 次阅读 3天前开发框架图像语言模型其他
AI 解读 由 AI 自动生成,仅供参考

awesome-self-supervised-learning 是一个精心整理的自监督学习资源清单,旨在为人工智能社区提供一站式的学习与参考入口。自监督学习是当前 AI 领域极具潜力的方向,它能让模型在无需大量人工标注数据的情况下,通过挖掘数据自身的内在结构进行高效训练,从而解决传统监督学习中数据标注成本高昂且稀缺的痛点。

这份清单涵盖了从基础理论推导到多领域应用的全方位内容,包括计算机视觉、自然语言处理、机器人学、语音识别及时间序列分析等。其独特亮点在于不仅收录了经典的学术论文和开源代码链接,还系统性地梳理了对比学习等核心方法的理论分析,并汇集了相关的技术演讲、学位论文及博客文章,帮助使用者深入理解“为何自监督学习是 AI 未来的基石”。

awesome-self-supervised-learning 非常适合 AI 研究人员、算法工程师以及希望深入探索前沿技术的开发者使用。对于想要快速掌握该领域发展脉络、寻找最新研究灵感或复现经典算法的用户来说,这是一个极具价值的导航工具,能帮助大家高效地站在巨人的肩膀上开展创新工作。

使用场景

某医疗影像初创公司的算法团队正试图开发一个肺炎检测模型,但面临海量未标注的胸部 X 光片和极少量确诊病例数据的困境。

没有 awesome-self-supervised-learning 时

  • 资源搜集低效:团队成员需花费数周在 arXiv 和 GitHub 上盲目搜索,难以区分哪些自监督学习(SSL)论文真正适用于医学图像,极易遗漏关键前沿成果。
  • 理论理解门槛高:面对对比学习等复杂概念,缺乏系统性的理论综述指引,导致团队在“对齐性”与“均匀性”等核心机制上反复试错,浪费大量算力。
  • 代码复现困难:找到的论文往往缺少官方代码链接或实现细节模糊,工程师不得不从零重写算法,严重拖慢了从预训练到微调的开发周期。
  • 领域适配迷茫:不清楚如何将通用的 SSL 方法迁移到特殊的 3D CT 扫描或时间序列生命体征数据上,缺乏跨领域的成功案例参考。

使用 awesome-self-supervised-learning 后

  • 一站式资源获取:团队直接利用其分类清晰的目录,快速锁定了针对图像表示学习的最新 SOTA 方法(如 SimCLR、MoCo 的变体),将调研时间从数周缩短至两天。
  • 理论路径清晰:通过"Theory"板块中精选的 ICML、CVPR 理论分析论文,团队迅速理解了损失函数的数学本质,从而能更精准地调整超参数。
  • 开箱即用体验:列表中每个项目都附带经过验证的代码仓库链接,工程师直接复用成熟框架进行无标签数据的预训练,大幅降低了工程落地难度。
  • 跨模态灵感激发:参考列表中关于 3D 特征学习和时间序列的章节,团队成功将视频表示学习的技术迁移应用到动态超声影像分析中,提升了模型泛化能力。

awesome-self-supervised-learning 通过构建结构化的知识图谱,将分散的前沿研究转化为可执行的工程资产,让团队在数据稀缺场景下也能高效构建高性能 AI 模型。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库是一个自监督学习(Self-Supervised Learning)资源的精选列表(Awesome List),主要包含论文、综述、代码库链接和演讲资源,本身不是一个可直接运行的单一软件工具。因此,README 中未提供具体的操作系统、GPU、内存、Python 版本或依赖库的安装需求。具体的运行环境需参考列表中各个独立项目(如 FAIR Benchmark, JULE, BigAN 等)的各自文档。
python未说明
awesome-self-supervised-learning hero image

快速开始

令人惊叹的自监督学习Awesome

一份精心整理的自监督学习资源清单。灵感来源于 awesome-deep-visionawesome-adversarial-machine-learningawesome-deep-learning-papers 以及 awesome-architecture-search

为什么选择自监督学习?

自监督学习已成为人工智能领域中一个令人振奋的方向。

  • 吉滕德拉·马利克:“监督是人工智能研究者的鸦片”
  • 阿廖沙·埃弗罗斯:“人工智能革命不会依赖于监督”
  • 扬·勒丘恩:“自监督学习是蛋糕本身,有监督学习只是蛋糕上的糖霜,而强化学习则是蛋糕上的樱桃”

贡献

我们需要你!

请通过 pull request 帮助完善这份列表。

Markdown 格式:

- 论文名称。
  [[pdf]](链接)
  [[代码]](链接)
  - 作者1、作者2和作者3。 *会议年份*

目录

理论

2019年

  • 对比无监督表征学习的理论分析。 [pdf]
    • Sanjeev Arora、Hrishikesh Khandeparkar、Mikhail Khodak、Orestis Plevrakis 和 Nikunj Saunshi。 ICML 2019

2020年

  • 从超球面上的对齐与均匀性理解对比表征学习。 [pdf]
    • Tongzhou Wang、Phillip Isola。 ICML 2020
  • 通过双深度网络理解自监督学习。 [pdf]
    • Yuandong Tian、Lantao Yu、Xinlei Chen 和 Surya Ganguli。
  • 对于自监督学习而言,理性意味着泛化,这一点已被证明。 [pdf]
    • Yamini Bansal、Gal Kaplun 和 Boaz Barak。

2021年

  • 朝向对比自监督学习的泛化。 [pdf]
    • Weiran Huang、Mingyang Yi 和 Xuyang Zhao。
  • 理解对比损失的行为。 [pdf]
    • Feng Wang 和 Huaping Liu。 CVPR 2021
  • 预测你已知的内容有所帮助:可证明的自监督学习。 [pdf]
    • Jason D. Lee、Qi Lei、Nikunj Saunshi 和 Jiacheng Zhuo。
  • 对比学习、多视角冗余与线性模型。 [pdf]
    • Christopher Tosh、Akshay Krishnamurthy 和 Daniel Hsu。
  • 对比学习反转了数据生成过程。 [[pdf]](Contrastive Learning Inverts the Data Generating Process)
    • Roland S. Zimmermann、Yash Sharma、Steffen Schneider、Matthias Bethge、Wieland Brendel。 ICML 2021

2022年

  • 对比学习可以为近似视不变函数找到最优基。 [pdf]
    • Jiaye Teng、Weiran Huang 和 Haowei He。 AISTATS 2022

2023年

  • 基于前置任务的自监督学习能否被下游数据增强?一项理论分析。 [pdf]
    • Daniel D. Johnson、Ayoub El Hanchi 和 Chris J. Maddison。 ICLR 2023
  • 关于自监督学习的分步性质。 [pdf]
    • James B. Simon、Maksis Knutins、Liu Ziyin、Daniel Geisz、Abraham J. Fetterman、Joshua Albrecht。 ICML 2023
  • 自监督学习的损失景观由什么塑造? [pdf]
    • Liu Ziyin、Ekdeep Singh Lubana、Masahito Ueda、Hidenori Tanaka。 ICLR 2023

2024年

  • 在对比学习中连接小批量与渐近分析:从 InfoNCE 到基于核的损失。 [pdf] [代码]
    • Panagiotis Koromilas、Giorgos Bouritsas、Theodoros Giannakopoulos、Mihalis Nicolaou、Yannis Panagakis。 ICML 2024
  • 自监督学习中的矩阵信息论。 [pdf]
    • Yifan Zhang、Zhiquan Tan、Jingqin Yang、Weiran Huang、Yang Yuan。 ICML 2024
  • 自监督学习中的信息流。 [pdf]
    • Zhiquan Tan、Jingqin Yang、Weiran Huang、Yang Yuan、Yifan Zhang。 ICML 2024

计算机视觉

综述

  • 对比表征学习:框架与综述 [pdf]

    • Phuc H. Le-Khac、Graham Healy、Alan F. Smeaton。 IEEE Access 2020
  • 对比自监督学习综述 [pdf]

    • Ashish Jaiswal、Ashwin R Babu、Mohammad Z Zadeh、Debapriya Banerjee、Fillia Makedon
  • 使用深度神经网络进行自监督视觉特征学习:综述。 [pdf]

    • Longlong Jing 和 Yingli Tian。 T-PAMI 2020
  • 自监督学习:生成式还是对比式 [pdf]

    • Xiao Liu、Fanjin Zhang、Zhenyu Hou、Li Mian、Zhaoyu Wang、Jing Zhang、Jie Tang。 TKDE 2021
  • 了解你的自监督学习:基于图像的生成式与判别式训练综述 [pdf]

    • Utku Ozbulak、Hyun Jung Lee、Beril Boga、Esla Timothy Anzaku、Ho-min Park、Arnout Van Messem、Wesley De Neve、Joris Vankerschaver。 TMLR 2023

图像表征学习

基准代码

  • FAIR 自监督基准 [pdf] [仓库]:用于评估各种自监督方法所学习到的视觉表征质量的各种基准(及遗留)任务。

  • 自监督模型的迁移性能如何?[pdf] [repo]:一个用于评估自监督学习的基准,包含多样本/少样本识别、目标检测、表面法线估计和语义分割任务。

2015年

  • 基于上下文预测的无监督视觉表征学习。 [pdf] [code]

    • Doersch, Carl 和 Gupta, Abhinav 以及 Efros, Alexei A. ICCV 2015
  • 利用视频进行视觉表征的无监督学习。 [pdf] [code]

    • Wang, Xiaolong 和 Gupta, Abhinav. ICCV 2015
  • 通过运动来学习“看”的能力。 [pdf] [code]

    • Agrawal, Pulkit、Carreira, Joao 和 Malik, Jitendra. ICCV 2015
  • 学习与自我运动相关的图像表征。 [pdf] [code]

    • Jayaraman, Dinesh 和 Grauman, Kristen。ICCV 2015

2016年

  • 深度表征与图像聚类的联合无监督学习。 [pdf] [code-torch] [code-caffe]

    • Jianwei Yang、Devi Parikh 和 Dhruv Batra。CVPR 2016
  • 用于聚类分析的无监督深度嵌入。 [pdf] [code]

    • Junyuan Xie、Ross Girshick 和 Ali Farhadi。ICML 2016
  • 缓慢而稳定的特征分析:视频中的高阶时间一致性。 [pdf]

    • Jayaraman, Dinesh 和 Grauman, Kristen。CVPR 2016
  • 上下文编码器:通过修复缺失区域进行特征学习。 [pdf] [code]

    • Pathak, Deepak、Krahenbuhl, Philipp、Donahue, Jeff、Darrell, Trevor 和 Efros, Alexei A. CVPR 2016
  • 彩色图像上色。 [pdf] [code]

    • Zhang, Richard、Isola, Phillip 和 Efros, Alexei A. ECCV 2016
  • 通过拼图游戏进行视觉表征的无监督学习。 [pdf] [code]

    • Noroozi, Mehdi 和 Favaro, Paolo。ECCV 2016
  • 环境声音为视觉学习提供监督信号。 [pdf] [code]

    • Owens, Andrew、Wu, Jiajun、McDermott, Josh、Freeman, William 和 Torralba, Antonio。ECCV 2016
  • 自动上色的表征学习。 [pdf] [code]

    • Larsson, Gustav、Maire, Michael 和 Shakhnarovich, Gregory。ECCV 2016
  • 基于图的一致性约束的无监督视觉表征学习。 [pdf] [code]

    • Li, Dong、Hung, Wei-Chih、Huang, Jia-Bin、Wang, Shengjin、Ahuja, Narendra 和 Yang, Ming-Hsuan。ECCV 2016

2017年

  • 对抗式特征学习。 [pdf] [code]

    • Donahue, Jeff、Krahenbuhl, Philipp 和 Darrell, Trevor。ICLR 2017
  • 通过将图像嵌入到文本主题空间中进行视觉特征的自监督学习。 [pdf] [code]

    • L. Gomez*、Y. Patel*、M. Rusiñol、D. Karatzas 和 C.V. Jawahar。CVPR 2017
  • 分裂脑自动编码器:通过跨通道预测进行无监督学习。 [pdf] [code]

    • Zhang, Richard、Isola, Phillip 和 Efros, Alexei A. CVPR 2017
  • 通过观察物体运动来学习特征。 [pdf] [code]

    • Pathak, Deepak、Girshick, Ross、Dollar, Piotr、Darrell, Trevor 和 Hariharan, Bharath。CVPR 2017
  • 上色作为视觉理解的代理任务。 [pdf] [code]

    • Larsson, Gustav、Maire, Michael 和 Shakhnarovich, Gregory。CVPR 2017
  • DeepPermNet:视觉排列学习。 [pdf] [code]

    • Cruz, Rodrigo Santa、Fernando, Basura、Cherian, Anoop 和 Gould, Stephen。CVPR 2017
  • 通过预测噪声进行无监督学习。 [pdf] [code]

    • Bojanowski, Piotr 和 Joulin, Armand。ICML 2017
  • 多任务自监督视觉学习。 [pdf]

    • Doersch, Carl 和 Zisserman, Andrew。ICCV 2017
  • 通过学习计数来进行表征学习。 [pdf]

    • Noroozi, Mehdi、Pirsiavash, Hamed 和 Favaro, Paolo。ICCV 2017
  • 自监督视觉表征学习中的传递不变性。 [pdf]

    • Wang, Xiaolong、He, Kaiming 和 Gupta, Abhinav。ICCV 2017
  • 看、听并学习。 [pdf]

    • Relja, Arandjelovic 和 Zisserman, Andrew。ICCV 2017
  • 通过排序序列进行无监督表征学习。 [pdf] [code]

    • Hsin-Ying Lee、Jia-Bin Huang、Maneesh Kumar Singh 和 Ming-Hsuan Yang。ICCV 2017

2018年

  • 基于非参数实例判别的无监督特征学习 [pdf] [code]

    • Zhirong Wu、Yuanjun Xiong、X Yu Stella 和 Dahua Lin。CVPR 2018
  • 通过完成受损拼图学习图像表示。 [pdf] [code]

    • Kim, Dahun、Cho, Donghyeon、Yoo, Donggeun 和 Kweon, In So。WACV 2018
  • 通过预测图像旋转进行无监督表征学习。 [pdf] [code]

    • Spyros Gidaris、Praveer Singh 和 Nikos Komodakis。ICLR 2018
  • 通过伪监督和基于图的活动正则化,在神经网络中学习用于聚类的潜在表征。 [pdf] [code]

    • Ozsel Kilinc 和 Ismail Uysal。ICLR 2018
  • 基于上下文的自监督学习的改进。 [pdf]

    • Terrell Mundhenk、Daniel Ho 和 Barry Chen。CVPR 2018
  • 通过学习识别伪影进行自监督特征学习。 [pdf] [code]

    • Simon Jenni、伯尔尼大学和Paolo Favaro。CVPR 2018
  • 通过知识迁移提升自监督学习。 [pdf]

    • Mehdi Noroozi、Ananth Vinjimoor、Paolo Favaro 和 Hamed Pirsiavash。CVPR 2018
  • 利用合成图像进行跨域自监督多任务特征学习。 [pdf] [code]

    • Zhongzheng Ren 和 Yong Jae Lee。CVPR 2018
  • ShapeCodes:通过将视图提升为视图网格进行自监督特征学习。 [pdf]

    • Dinesh Jayaraman*,加州大学伯克利分校;Ruohan Gao,德克萨斯大学奥斯汀分校;Kristen Grauman。ECCV 2018
  • 用于视觉特征无监督学习的深度聚类 [pdf] [code]

    • Mathilde Caron、Piotr Bojanowski、Armand Joulin、Matthijs Douze。ECCV 2018
  • 基于跨像素光流相似性的自监督学习。 [pdf]

    • Aravindh Mahendran、James Thewlis、Andrea Vedaldi。ACCV 2018

2019年

  • 基于对比预测编码的表征学习。 [pdf]

    • Aaron van den Oord、Yazhe Li、Oriol Vinyals。
  • 通过条件运动传播进行自监督学习。 [pdf] [code]

    • Xiaohang Zhan、Xingang Pan、Ziwei Liu、Dahua Lin 和 Chen Change Loy。CVPR 2019
  • 通过旋转特征解耦进行自监督表征学习。 [pdf] [code]

    • Zeyu Feng、Chang Xu、Dacheng Tao。CVPR 2019
  • 重新审视自监督视觉表征学习。 [pdf] [code]

    • Alexander Kolesnikov、Xiaohua Zhai、Lucas Beye。CVPR 2019
  • 基于辅助旋转损失的自监督GAN。 [pdf] [code]

    • Ting Chen、Xiaohua Zhai、Marvin Ritter、Mario Lucic、Neil Houlsby。CVPR 2019
  • AET与AED:通过自动编码变换而非数据进行无监督表征学习。 [pdf] [code]

    • Liheng Zhang、Guo-Jun Qi、Liqiang Wang、Jiebo Luo。CVPR 2019
  • 通过邻域发现进行无监督深度学习。 [pdf][code]

    • Jiabo Huang、Qi Dong、Shaogang Gong、Xiatian Zhu。ICML 2019
  • 对比多视图编码。 [pdf] [code]

    • Yonglong Tian、Dilip Krishnan 和 Phillip Isola。
  • 大规模对抗性表征学习。 [pdf]

    • Jeff Donahue、Karen Simonyan。
  • 通过最大化跨视图互信息来学习表征。 [pdf] [code]

    • Philip Bachman、R Devon Hjelm、William Buchwalter。
  • Selfie:用于图像嵌入的自监督预训练。 [pdf]

    • Trieu H. Trinh、Minh-Thang Luong、Quoc V. Le
  • 基于对比预测编码的数据高效图像识别 [pdf]

    • Olivier J. He ́naff、Ali Razavi、Carl Doersch、S. M. Ali Eslami、Aaron van den Oord。
  • 使用自监督学习可以提高模型的鲁棒性和不确定性估计 [pdf] [code]

    • Dan Hendrycks、Mantas Mazeika、Saurav Kadavath、Dawn Song。NeurIPS 2019
  • 通过自监督提升少样本视觉学习 [pdf]

    • Pyros Gidaris、Andrei Bursuc、Nikos Komodakis、Patrick Pérez 和 Matthieu Cord。ICCV 2019
  • 基于元辅助学习的自监督泛化 [pdf] [code]

    • Shikun Liu、Andrew J. Davison、Edward Johns。NeurIPS 2019
  • 用于表征学习的瓦瑟斯坦依赖度量 [pdf] [code]

    • Sherjil Ozair、Corey Lynch、Yoshua Bengio、Aaron van den Oord、Sergey Levine、Pierre Sermanet。NeurIPS 2019
  • 自监督视觉表征学习的扩展与基准测试 [pdf] [code]

    • Priya Goyal、Dhruv Mahajan、Abhinav Gupta、Ishan Misra。ICCV 2019
  • 在非精选数据上进行图像特征的无监督预训练 [pdf] [code]

    • Mathilde Caron, Piotr Bojanowski, Julien Mairal, Armand Joulin. ICCV 2019 口头报告
  • S4L:自监督半监督学习 [pdf] [code]

    • Xiaohua Zhai, Avital Oliver, Alexander Kolesnikov, Lucas Beyer. ICCV 2019
  • 用于多模态语义分割的自监督模型适应。 [pdf] [code]

    • Abhinav Valada, Rohit Mohan, 和 Wolfram Burgard. IJCV 2019

2020年

  • 自监督的批判性分析,或我们能从一张图片中学到什么 [pdf] [code]

    • Yuki M. Asano, Christian Rupprecht, Andrea Vedaldi. ICLR 2020
  • 关于表示学习中的互信息最大化 [pdf] [code]

    • Michael Tschannen, Josip Djolonga, Paul K. Rubenstein, Sylvain Gelly, Mario Lucic. ICLR 2020
  • 理解变分互信息估计器的局限性 [pdf] [code]

    • Jiaming Song, Stefano Ermon. ICLR 2020
  • 通过同时聚类和表示学习进行自标注 [pdf] [blogpost] [code]

    • Yuki Markus Asano, Christian Rupprecht, Andrea Vedaldi. ICLR 2020(亮点论文)
  • 通过输入变换进行自监督标签增强 [pdf] [code]

    • Hankook Lee, Sung Ju Hwang, Jinwoo Shin. ICML 2020
  • 自监督表示学习中自动去除捷径 [pdf]

    • Matthias Minderer, Olivier Bachem, Neil Houlsby, Michael Tschannen
  • 视觉表征对比学习的简单框架 [pdf] [code]

    • Ting Chen, Simon Kornblith, Mohammad Norouzi, Geoffrey Hinton. ICML 2020
  • 自监督预训练对视觉任务有多大的用处? [pdf] [code]

    • Alejandro Newell, Jia Deng. CVPR 2020
  • 用于无监督视觉表征学习的动量对比 [pdf] [code]

    • Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, Ross Girshick. CVPR 2020
  • ClusterFit:提升视觉表征的泛化能力 [pdf]

    • Xueting Yan*, Ishan Misra*, Abhinav Gupta, Deepti Ghadiyaram**, Dhruv Mahajan**. CVPR 2020
  • 前景不变的自监督表示学习 [pdf]

    • Ishan Misra, Laurens van der Maaten. CVPR 2020
  • Bootstrap Your Own Latent:一种新的自监督学习方法 [pdf] [非官方代码]

    • Jean-Bastien Grill, Florian Strub, Florent Altché, Corentin Tallec, Pierre H. Richemond, Elena Buchatskaya, Carl Doersch, Bernardo Avila Pires, Zhaohan Daniel Guo, Mohammad Gheshlaghi Azar, Bilal Piot, Koray Kavukcuoglu, Rémi Munos, Michal Valko. NeurIPS 2020,口头报告
  • 针对标注有限的医学图像分割的全局与局部特征对比学习 [pdf] [code]

    • Krishna Chaitanya, Ertunc Erdil, Neerav Karani, Ender Konukoglu。NeurIPS 2020,口头报告
  • 通过不变性传播进行无监督表示学习 [pdf] [code]

    • Feng Wang, Huaping Liu, Di Guo, Fuchun Sun。NeurIPS 2020,亮点论文
  • 大型自监督模型是强大的半监督学习者 [pdf] [code]

    • Ting Chen, Simon Kornblith, Kevin Swersky, Mohammad Norouzi, Geoffrey Hinton。NeurIPS 2020
  • 用于少样本分类的自监督原型迁移学习 [pdf] [code]

    • Carlos Medina, Arnout Devos, Matthias Grossglauser
  • SCAN:无需标签即可学习图像分类 [pdf] [code]

    • Wouter Van Gansbeke, Simon Vandenhende, Stamatios Georgoulis, Marc Proesmans, Luc Van Gool。ECCV 2020
  • 通过对比聚类分配进行视觉特征的无监督学习 [pdf] [code]

    • Mathilde Caron, Ishan Misra, Julien Mairal, Priya Goyal, Piotr Bojanowski, Armand Joulin。NeurIPS 2020
  • 用于表示学习的自监督关系推理 [pdf] [code]

    • Massimiliano Patacchiola, Amos Storkey。NeurIPS 2020,亮点论文
  • 探索简单的暹罗表示学习 [pdf] [非官方代码]

    • Xinlei Chen, Kaiming He
  • 用于无监督表示学习的在线视觉词袋生成 [pdf] [code]

    • Spyros Gidaris, Andrei Bursuc, Gilles Puy, Nikos Komodakis, Matthieu Cord, Patrick Pérez
  • 重新思考标签在改善类别不平衡学习中的价值 [pdf] [code]

    • Yuzhe Yang, Zhi Xu。NeurIPS 2020
  • 揭秘对比自监督学习:不变性、数据增强与数据集偏差 [pdf]

    • Senthil Purushwalkam, Abhinav Gupta. NeurIPS 2020
  • 缓解无监督图像分类中的嵌入与类别分配不匹配问题 [pdf] [code]

    • Sungwon Han, Sungwon Park, Sungkyu Park, Sundong Kim, Meeyoung Cha. ECCV 2020

2021年

  • 跨领域自监督学习 [pdf]

    • Silvia Bucci, Antonio D'Innocente, Yujun Liao, Fabio Maria Carlucci, Barbara Caputo, Tatiana Tommasi. T-PAMI 2021
  • Barlow Twins:通过冗余减少实现自监督学习 [pdf] [code]

    • Zbontar, J., Jing, L., Misra, I., LeCun, Y., & Deny, S.
  • 对比半监督学习在二维医学图像分割中的应用 [pdf]

    • Prashant Pandey, Ajey Pai, Nisarg Bhatt, Prasenjit Das, Govind Makharia, Prathosh AP, Mausam. MICCAI 2021
  • 自我传播:探索像素级一致性用于无监督视觉表征学习 [pdf] [code]

    • Zhenda Xie, Yutong Lin, Zheng Zhang, Yue Cao, Stephen Lin, and Han Hu. CVPR 2021
  • 自监督模型的迁移能力如何? [pdf] [code]

    • Linus Ericsson, Henry Gouk, Timothy M. Hospedales. CVPR 2021
  • 向量化与栅格化:草图与手写体的自监督学习。
    [code]

    • Ayan Kumar Bhunia, Pinaki nath Chowdhury, Yongxin Yang, Timothy Hospedales, Tao Xiang, Yi-Zhe Song. CVPR 2021
  • SelfAugment:自监督学习的自动数据增强策略 [pdf] [code]

    • Colorado Reed, Sean Metzger, Aravind Srinivas, Trevor Darrell, Kurt Keutzer. CVPR 2021
  • 拼图聚类用于无监督视觉表征学习 [pdf] [code]

    • Pengguang Chen, Shu Liu, Jiaya Jia. CVPR 2021
  • 通过鲁棒学习改进无监督图像聚类 [pdf] [code]

    • Sungwon Park, Sungwon Han, Sundong Kim, Danu Kim, Sungkyu Park, Seunghoon Hong, Meeyoung Cha. CVPR 2021
  • 通过可视化特征变换改进对比学习 [pdf] [code]

    • Rui Zhu*, Bingchen Zhao*, Jingen Liu, Zhenglong Sun, Chang Wen Chen. ICCV 2021 口头报告

2022年

  • 针对有监督学习定制自监督方法 [pdf] [code]

    • WonJun Moon, Ji-Hwan Kim, Jae-Pil Heo. ECCV 2022
  • FedX:基于跨知识蒸馏的无监督联邦学习 [pdf] [code]

    • Sungwon Han, Sungwon Park, Fangzhao Wu, Sundong Kim, Chuhan Wu, Xing Xie, Meeyoung Cha. ECCV 2022
  • 掩码暹罗网络用于标签高效学习 [pdf] [code]

    • Mahmoud Assran, Mathilde Caron, Ishan Misra, Piotr Bojanowski, Florian Bordes, Pascal Vincent, Armand Joulin, Michael Rabbat, Nicolas Ballas。
  • TriBYOL:三元组BYOL用于自监督表征学习 [pdf]

    • Guang Li, Ren Togo, Takahiro Ogawa, Miki Haseyama. ICASSP 2022
  • 基于自我知识蒸馏的自监督学习用于胸部X光片中的COVID-19检测 [pdf]

    • Guang Li, Ren Togo, Takahiro Ogawa, Miki Haseyama. ICASSP 2022
  • 自适应软对比学习 [pdf] [code]

    • Chen Feng, Ioannis Patras. ICPR 2022
  • 基于语义分组的自监督视觉表征学习 [pdf] [code]

    • Xin Wen, Bingchen Zhao, Anlin Zheng, Xiangyu Zhang, and Xiaojuan Qi. NeurIPS 2022
  • VICReg:自监督学习中的方差-不变性-协方差正则化 [pdf]

    • Adrien Bardes, Jean Ponce, Yann LeCun. ICLR 2022

2023年

  • 对于对比学习的实例间相似性建模 [pdf] [code]
    • Chengchao Shen, Dawei Liu, Hao Tang, Zhe Qu, Jianxin Wang。
  • 对于对比学习的非对称补丁采样 [pdf] [code]
    • Chengchao Shen, Jianzhong Chen, Shu Wang, Hulin Kuang, Jin Liu, Jianxin Wang。

2024年

  • 通过对比自监督学习推动深度神经网络进化 [pdf] [code]
    • Adriano Vinhas, João Correia, Penousal Machado. CEC 2024

视频表征学习

  • 使用LSTM进行视频表征的无监督学习。 [pdf] [code]

    • Srivastava, Nitish 和 Mansimov, Elman 以及 Salakhudinov, Ruslan。 ICML 2015
  • 打乱并学习:利用时间顺序验证进行无监督学习。 [pdf] [code]

    • Ishan Misra、C. Lawrence Zitnick 和 Martial Hebert。 ECCV 2016
  • LSTM自监督用于详细行为分析 [pdf]

    • Biagio Brattoli*、Uta Büchler*、Anna-Sophia Wahl、Martin E. Schwab 和 Björn Ommer。 CVPR 2017
  • 带有“异类”网络的自监督视频表征学习。 [pdf]

    • Basura Fernando、Hakan Bilen、Efstratios Gavves 和 Stephen Gould。 CVPR 2017
  • 视频中长期运动动态的无监督学习。 [pdf]

    • 罗泽伦、彭博雅、黄德安、阿拉希·亚历山大、李飞飞。CVPR 2017
  • 基于几何引导的卷积神经网络用于自监督视频表征学习。 [pdf]

    • 甘创、龚博清、刘坤、苏浩、莱昂尼达斯·J·吉巴斯。CVPR 2018
  • 通过深度强化学习提升时空自监督。 [pdf]

    • 比阿吉奥·布拉托利*、乌塔·比克勒*、比约恩·奥默。ECCV 2018
  • 从视频中自监督学习人脸属性嵌入。 [pdf]

    • 怀尔斯、科普克、齐瑟曼。BMVC 2018
  • 利用时空立方拼图进行自监督视频表征学习。 [pdf]

    • 金大勋、曹东贤、柳东根、权仁洙。AAAI 2019
  • 通过预测运动和外观统计量进行视频的自监督时空表征学习。 [pdf]

    • 王江流、焦建波、鲍林超、何圣峰、刘云辉、刘伟。CVPR 2019
  • DynamoNet:动态动作与运动网络。 [pdf]

    • 阿里·迪巴、维韦克·夏尔马、卢克·范古尔、赖纳·施蒂费尔哈根。ICCV 2019
  • 从时间循环一致性中学习对应关系。 [pdf] [code]

    • 王晓龙*、艾伦·贾布里*、阿列克谢·A·埃夫罗斯。CVPR 2019
  • 用于时序对应关系的联合任务自监督学习。 [pdf] [code]

    • 李雪婷*、刘思菲*、沙莉妮·德梅洛、王晓龙、扬·考茨、杨明轩。NIPS 2019
  • 使用跨内对比框架进行自监督视频表征学习。 [pdf] [code]

    • 李涛、王雪婷*、山崎俊彦。ACMMM 2020
  • 自监督时空表征学习中的视频播放速率感知。 [pdf] [Code]

    • 袁瑶*、刘畅*、罗德昭、周宇、叶启翔。CVPR 2020
  • 通过节奏预测进行自监督视频表征学习。 [pdf] [code]

    • 王江流、焦建波、刘云辉。ECCV 2020
  • 通过识别时间变换进行视频表征学习。 [pdf] [code]

    • 西蒙·詹尼、吉维·梅什维利、保罗·法瓦罗。ECCV 2020
  • 用于视频表征学习的自监督协同训练。 [pdf] [code]

    • 韩腾达、谢卫地、安德鲁·齐瑟曼。NeurIPS 2020
  • 用于自监督视频表征学习的循环对比。 [pdf]

    • 孔泉、魏文鹏、邓子威、吉永智明、村上友一。NeurIPS 2020
  • 基于视觉节奏一致性的视频表征学习。 [pdf] [code]

    • 杨策源、许英浩、戴博、周伯礼。
  • 通过揭示时空统计信息进行自监督视频表征学习。 [pdf]

    • 王江流、焦建波、鲍林超、何圣峰、刘伟、刘云辉。
  • 时空对比视频表征学习。 [pdf]

    • 钱瑞、孟天健、龚博清、杨明轩、王慧生、塞尔日·贝隆吉、崔音。
  • 基于预文本对比学习的自监督视频表征学习。 [pdf]

    • 李涛、王雪婷、山崎俊彦。
  • 通过双向特征预测进行无监督视频表征学习。 [pdf]

    • 纳丁·贝尔曼、尤尔根·加尔、梅赫迪·诺鲁齐。
  • RSPNet:用于无监督视频表征学习的相对速度感知。 [pdf] [code]

    • 陈培豪、黄登亮、何东梁、龙翔、曾润浩、温世磊、谭明奎、甘创。AAAI 2021
  • 分层解耦的空间-时间对比用于自监督视频表征学习。 [pdf]

    • 张哲华、大卫·克兰达尔。
  • 时间信息能否帮助对比式自监督学习? [pdf]

    • 白宇彤、范浩奇、米斯拉·伊桑、文卡特什·加内什、陆勇毅、周雨茵、余启航、钱立克·维卡斯、艾伦·尤伊尔。
  • 通过解耦场景与运动来增强无监督视频表征学习。 [pdf] [code]

    • 王金鹏、高玉婷、李可、胡建国、蒋新阳、郭晓伟、季荣荣、孙星。AAAI 2021
  • 时空对应作为对比随机游走。 [pdf] [code] [project]

    • 艾伦·贾布里、安德鲁·欧文斯、阿列克谢·A·埃夫罗斯。NeurIPS 2020 口头报告

视频自监督学习的基准代码

  • 视频自监督学习中的基准敏感性有多严重? [pdf] [code]
    • 托克尔、菲达·穆罕默德、多蒂、巴加德、斯诺克。ECCV 2022

3D特征学习

  • 通过重构空间实现点云的自监督深度学习 [pdf]

    • Jonathan Sauder, 和 Bjarne Sievers NeurIPS 2019
  • 基于姿态估计的点云自监督学习 [pdf] [code]

    • Omid Poursaeed, Tianxing Jiang, Han Qiao, Nayun Xu, 和 Vladimir G. Kim,3DV 2020
  • 通过学习离散生成模型实现3D点云的自监督学习 [pdf]

    • Benjamin Eckart, Wentao Yuan, Chao Liu, 和 Jan Kautz CVPR 2021
  • PointContrast:面向3D点云的无监督预训练 [pdf] [code]

    • Saining Xie, Jiatao Gu, Demi Guo, Charles R. Qi, Leonidas Guibas, 和 Or Litany ECCV 2020
  • 半监督点云语义分割的引导式点对比学习 [pdf]

    • Li Jiang, Shaoshuai Shi, Zhuotao Tian, Xin Lai, Shu Liu, Chi-Wing Fu, 和 Jiaya Jia ICCV 2021
  • Ponder:基于神经渲染的点云预训练 [pdf]

    • Di Huang, Sida Peng, Tong He, Honghui Yang, Xiaowei Zhou 和 Wanli Ouyang ICCV 2023
  • PonderV2:以通用预训练范式为3D基础模型铺路 [pdf] [code]

    • Haoyi Zhu, Honghui Yang, Xiaoyang Wu, Di Huang, Tong He, Hengshuang Zhao, Chunhua Shen, Yu Qiao 和 Wanli Ouyang Arxiv 2023
  • UniPAD:面向自动驾驶的通用预训练范式 [pdf] [code]

    • Honghui Yang, Sha Zhang, Di Huang, Xiaoyang Wu, Haoyi Zhu, Tong He, Shixiang Tang, Hengshuang Zhao, Qibo Qiu, Binbin Lin, Xiaofei He, 和 Wanli Ouyang Arxiv 2023

几何

  • 用于单目深度估计的无监督CNN:几何来解救。 [pdf] [code]

    • Ravi Garg, Vijay Kumar BG, Gustavo Carneiro, Ian Reid. ECCV 2016
  • 运动捕捉的自监督学习。 [pdf] [code] [web]

    • Tung, Hsiao-Yu 和 Tung, Hsiao-Wei 以及 Yumer, Ersin 和 Fragkiadaki, Katerina. NIPS 2017
  • 通过密集等变图像标注进行对象帧的无监督学习。 [pdf]

    • James Thewlis, Hakan Bilen, Andrea Vedaldi. NeurIPS 2017
  • 从视频中进行深度和自我运动的无监督学习。 [pdf] [code] [web]

    • Zhou, Tinghui 和 Brown, Matthew 和 Snavely, Noah 和 Lowe, David G. CVPR 2017
  • 主动立体网络:面向主动立体系统的端到端自监督学习。 [project]

    • Yinda Zhang*, Sean Fanello, Sameh Khamis, Christoph Rhemann, Julien Valentin, Adarsh Kowdle, Vladimir Tankovich, Shahram Izadi, Thomas Funkhouser. ECCV 2018
  • 面向城市场景理解的自监督相对深度学习。 [pdf] [project]

    • Huaizu Jiang*, Erik Learned-Miller, Gustav Larsson, Michael Maire, Greg Shakhnarovich. ECCV 2018
  • 面向相机定位的地图几何感知学习。 [pdf] [code]

    • Samarth Brahmbhatt, Jinwei Gu, Kihwan Kim, James Hays, 和 Jan Kautz. CVPR 2018
  • 通过概率内省实现几何稳定的特征自监督学习。 [pdf] [web]

    • David Novotny, Samuel Albanie, Diane Larlus, Andrea Vedaldi. CVPR 2018
  • 利用多视角几何进行3D人体姿态的自监督学习。 [pdf]

    • Muhammed Kocabas; Salih Karagoz; Emre Akbas. CVPR 2019
  • SelFlow:光流的自监督学习。 [pdf]

    • Jiangliu Wang; Jianbo Jiao; Linchao Bao; Shengfeng He; Yunhui Liu; Wei Liu. CVPR 2019
  • 通过描述子向量交换进行地标点的无监督学习。 [pdf] [code] [web]

    • James Thewlis, Samuel Albanie, Hakan Bilen, Andrea Vedaldi. ICCV 2019

音频

  • 基于自监督多模态特征的视听场景分析。 [pdf] [代码]

    • 安德鲁·欧文斯、阿列克谢·A·埃夫罗斯。ECCV 2018
  • 会发声的物体。 [pdf]

    • R. Arandjelović, A. Zisserman。ECCV 2018
  • 通过观看无标签视频学习分离物体声音。 [pdf] [项目]

    • 高若涵、罗杰里奥·费里斯、克里斯汀·格劳曼。ECCV 2018
  • 像素之声。 [pdf] [项目]

    • 赵航、甘闯、安德鲁·鲁迪琴科、卡尔·冯德里克、乔什·麦克德莫特、安东尼奥·托拉尔巴。ECCV 2018
  • 可学习的PIN码:用于人员身份识别的跨模态嵌入。 [pdf] [网页]

    • 阿尔沙·纳格拉尼、塞缪尔·阿尔巴尼、安德鲁·齐瑟曼。ECCV 2018
  • 基于自监督同步的音频与视频模型协同学习。 [pdf]

    • 布鲁诺·科尔巴尔,达特茅斯学院;杜·陈;洛伦佐·托雷萨尼。NIPS 2018
  • 360°视频的空间音频自监督生成。 [pdf]

    • 佩德罗·莫尔加多、努诺·纳瓦斯孔塞洛斯、蒂莫西·朗格卢瓦、奥利弗·王。NIPS 2018
  • 三循环:利用自监督从传感器网络数据中学习音频表示 [pdf]

    • 马克·卡特赖特、杰森·克雷默、贾斯汀·萨拉蒙、胡安·巴勃罗·贝略。WASPAA 2019
  • 自监督的视听共同分割 [pdf]

    • 安德鲁·鲁迪琴科、赵航、甘闯、乔什·麦克德莫特和安东尼奥·托拉尔巴。ICASSP 2019
  • 视觉自监督能否提升语音表示的学习效果? [pdf]

    • 阿比纳夫·舒克拉、斯塔夫罗斯·佩特里迪斯、玛雅·潘蒂奇
  • 眼见未必为实:通过蒸馏多模态知识实现基于声音的自监督多目标检测与跟踪 [pdf] [代码]

    • 弗朗西斯科·里韦拉·巴尔韦德、胡安娜·瓦莱丽亚·乌尔塔多和阿比纳夫·瓦拉达。CVPR 2021
  • BYOL for Audio:面向通用音频表示的自监督学习。 [pdf] [代码]

    • 新住大介、竹内大辉、大石康则 IJCNN 2021
  • 从可听交互中学习状态感知的视觉表示 [pdf] [代码]

    • 希曼吉·米塔尔、佩德罗·莫尔加多、乌纳特·贾因、阿比纳夫·古普塔。NeurIPS 2022

其他

  • 基于70万个人日可穿戴数据的自监督人体活动识别
    [pdf]
    [代码]

    • Hang Yuan*, Shing Chan*, Andrew P. Creagh, Catherine Tong, David A. Clifton, Aiden Doherty
  • 使用渐进式潜在模型的场景特定行人检测器自学习
    [pdf]

    • Qixiang Ye, Tianliang Zhang, Qiang Qiu, Baochang Zhang, Jie Chen, Guillermo Sapiro。CVPR 2017
  • 来自电子游戏的无监督信号
    [pdf]
    [项目+代码]

    • Philipp Krähenbühl。CVPR 2018
  • 打击假新闻:基于学习到的自一致性进行图像拼接检测
    [pdf]
    [代码]

    • Minyoung Huh*, Andrew Liu*, Andrew Owens, Alexei A. Efros。ECCV 2018
  • 通过上色实现自监督跟踪(视频上色催生跟踪能力)
    [pdf]

    • Carl Vondrick*, Abhinav Shrivastava, Alireza Fathi, Sergio Guadarrama, Kevin Murphy。ECCV 2018
  • 更少标注下的高保真图像生成
    [pdf]

    • Mario Lucic*, Michael Tschannen*, Marvin Ritter*, Xiaohua Zhai, Olivier Bachem, Sylvain Gelly。
  • 自监督将关节网格拟合到点云

    • Chun-Liang Li, Tomas Simon, Jason Saragih, Barnabás Póczos 和 Yaser Sheikh。CVPR 2019
  • 随流而行:自监督场景光流估计
    [pdf]
    [代码]

    • Himangi Mittal、Brian Okorn、David Held。CVPR 2020
  • SCOPS:自监督协同部件分割

    • Wei-Chih Hung、Varun Jampani、Sifei Liu、Pavlo Molchanov、Ming-Hsuan Yang 和 Jan Kautz。CVPR 2019
  • 自监督高保真人脸模型适配用于单目动作捕捉

    • Jae Shin Yoon;Takaaki Shiratori;Shouou-I Yu;Hyun Soo Park。CVPR 2019
  • 通过回收边界框标注实现多任务自监督目标检测
    [pdf]
    [代码]

    • Wonhee Lee;Joonil Na;Gunhee Kim。CVPR 2019
  • 自监督卷积子空间聚类网络

    • Junjian Zhang;Chun-Guang Li;Chong You;Xianbiao Qi;Honggang Zhang;Jun Guo;Zhouchen Lin。CVPR 2019
  • 强化跨模态匹配与自监督模仿学习用于视觉-语言导航

    • Xin Wang;Qiuyuan Huang;Asli Celikyilmaz;Jianfeng Gao;Dinghan Shen;Yuan-Fang Wang;William Yang Wang;Lei Zhang。CVPR 2019
  • 基于几何自监督的无监督3D姿态估计

    • Ching-Hang Chen;Ambrish Tyagi;Amit Agrawal;Dylan Drover;Rohith MV;Stefan Stojanov;James M. Rehg。CVPR 2019
  • 在无需定位监督的情况下学习生成有语义关联的图像描述[pdf]

    • Chih-Yao Ma;Yannis Kalantidis;Ghassan AlRegib;Peter Vajda;Marcus Rohrbach;Zsolt Kira。
  • VideoBERT:视频与语言联合表示学习模型[pdf]

    • Chen Sun,Austin Myers,Carl Vondrick,Kevin Murphy,Cordelia Schmid。ICCV 2019
  • 通过学习辅助干净标签来对抗噪声标签[pdf]

    • Tsung Wei Tsai,Chongxuan Li,Jun Zhu
  • 基于修复的自监督点云补全
    [pdf]

    • Himangi Mittal、Brian Okorn、Arpit Jangid、David Held。BMVC 2021
  • ColloSSL:用于人体活动识别的协作式自监督学习
    [pdf]
    [代码]

    • Yash Jain、Ian Tang、Chulhong Min、Fahim Kawsar、Akhil Mathur。UbiComp 2022

机器学习

  • 自学式学习:从无标签数据中迁移学习
    [pdf]

    • Raina、Rajat、Battle、Alexis、Lee、Honglak、Packer、Benjamin 和 Ng、Andrew Y。ICML 2007
  • 表征学习:综述与新视角
    [pdf]

    • Bengio、Yoshua、Courville、Aaron 和 Vincent、Pascal。TPAMI 2013

强化学习

  • 基于自监督预测的 curiosity-driven 探索
    [pdf]
    [代码]

    • Deepak Pathak、Pulkit Agrawal、Alexei A. Efros 和 Trevor Darrell。ICML 2017
  • 大规模好奇心驱动学习研究
    [pdf]

    • Yuri Burda*、Harri Edwards*、Deepak Pathak*、Amos Storkey、Trevor Darrell 和 Alexei A. Efros
  • 通过观看YouTube玩硬探索游戏
    [pdf]

    • Yusuf Aytar、Tobias Pfaff、David Budden、Tom Le Paine、Ziyu Wang、Nando de Freitas。NIPS 2018
  • Atari游戏中的无监督状态表征学习
    [pdf]
    [代码]

    • Ankesh Anand、Evan Racah、Sherjil Ozair、Yoshua Bengio、Marc-Alexandre Côté、R Devon Hjelm。NeurIPS 2019
  • 带有自监督3D表征的视觉强化学习
    [pdf]
    [代码]

    • Yanjie Ze*、Nicklas Hansen*、Yinbo Chen、Mohit Jain、Xiaolong Wang。预印本2022年

推荐系统

  • 推荐系统中深度模型的自监督学习
    [pdf]
    • Tiansheng Yao、Xinyang Yi、Derek Zhiyuan Cheng、Felix Yu、Aditya Menon、Lichan Hong、Ed H. Chi、Steve Tjoa、Jieqi (Jay)Kang、Evan Ettinger 预印本2020年

机器人学

2006年

  • 通过自监督在线学习改进机器人导航
    [pdf]

    • Boris Sofman、Ellie Lin、J. Andrew Bagnell、Nicolas Vandapel 和 Anthony Stentz
  • 反向光流用于自监督自适应自主机器人导航
    [pdf]

    • A. Lookingbill、D. Lieb、J. Rogers 和 J. Curry

2009年

  • 自主越野驾驶中的长距离视觉学习 [pdf]
    • Raia Hadsell、Pierre Sermanet、Jan Ben、Ayse Erkan、Marco Scoffier、Koray Kavukcuoglu、Urs Muller、Yann LeCun

2012年

  • 用于行星表面探测漫游车的自监督地形分类 [pdf]
    • Christopher A. Brooks、Karl Iagnemma

2014年

  • 基于多传感器数据关联的移动机器人地形可通行性分析 [pdf]
    • Mohammed Abdessamad Bekhti、Yuichi Kobayashi 和 Kazuki Matsumura

2015年

  • 动态目标分割的在线自监督学习 [pdf]

    • Vitor Guizilini 和 Fabio Ramos,《国际机器人研究杂志》
  • 基本物体推动 affordance 的自监督在线学习 [pdf]

    • Barry Ridge、Ales Leonardis、Ales Ude、Miha Denisa 和 Danijel Skocaj
  • iCub 类人机器人上基于抓取的工具 affordance 的自监督学习 [pdf]

    • Tanis Mar、Vadim Tikhanoff、Giorgio Metta 和 Lorenzo Natale

2016年

  • 持续自监督学习原理:从立体视觉到单目视觉的障碍物避让 [pdf]

    • Kevin van Hecke、Guido de Croon、Laurens van der Maaten、Daniel Hennes 和 Dario Izzo
  • 好奇的机器人:通过物理交互学习视觉表征 [pdf]

    • Lerrel Pinto、Dhiraj Gandhi、Yuanfeng Han、Yong-Lae Park 和 Abhinav Gupta。ECCV 2016
  • 通过戳刺来学习:直观物理的体验式学习 [pdf]

    • Agrawal、Pulkit 和 Nair、Ashvin V、Abbeel、Pieter 和 Malik、Jitendra 和 Levine、Sergey。NIPS 2016
  • 扩大自监督规模:从 5 万次尝试和 700 小时机器人操作中学习抓取 [pdf]

    • Pinto、Lerrel 和 Gupta、Abhinav。ICRA 2016

2017年

  • 竞争式监督:用于学习任务的机器人对手 [pdf]

    • Pinto、Lerrel 和 Davidson、James 和 Gupta、Abhinav。ICRA 2017
  • 多视角自监督深度学习在亚马逊拣选挑战赛中的 6D 姿态估计 [pdf] [项目]

    • Andy Zeng、Kuan-Ting Yu、Shuran Song、Daniel Suo、Ed Walker Jr.、Alberto Rodriguez、Jianxiong Xiao。ICRA 2017
  • 结合自监督学习与模仿学习的基于视觉的绳索操作 [pdf] [项目]

    • Ashvin Nair*、Dian Chen*、Pulkit Agrawal*、Phillip Isola、Pieter Abbeel、Jitendra Malik、Sergey Levine。ICRA 2017
  • 在碰撞中学习飞行 [pdf]

    • Dhiraj Gandhi、Lerrel Pinto、Abhinav Gupta IROS 2017
  • 自监督学习作为未来太空探索机器人的赋能技术:国际空间站上的单目距离学习实验 [pdf]

    • K. van Hecke、G. C. de Croon、D. Hennes、T. P. Setterfield、A. Saenz- Otero 和 D. Izzo
  • 用于模仿学习的无监督感知奖励 [pdf] [项目]

    • Sermanet、Pierre 和 Xu、Kelvin 和 Levine、Sergey。RSS 2017
  • 带有时间跳跃连接的自监督视觉规划 [pdf]

    • Frederik Ebert、Chelsea Finn、Alex X. Lee、Sergey Levine。CoRL2017

2018年

  • CASSL:课程加速的自监督学习 [pdf]

    • Adithyavairavan Murali、Lerrel Pinto、Dhiraj Gandhi、Abhinav Gupta。ICRA 2018
  • 时间对比网络:从视频中进行自监督学习 [pdf] [项目]

    • Pierre Sermanet、Corey Lynch、Yevgen Chebotar、Jasmine Hsu、Eric Jang、Stefan Schaal 和 Sergey Levine。ICRA 2018
  • 基于广义计算图的自监督深度强化学习用于机器人导航 [pdf]

    • Gregory Kahn、Adam Villaflor、Bosen Ding、Pieter Abbeel、Sergey Levine。ICRA 2018
  • 从视觉观测中学习可行动表征 [pdf] [项目]

    • Dwibedi、Debidatta 和 Tompson、Jonathan 以及 Lynch、Corey 和 Sermanet、Pierre。IROS 2018
  • 利用自监督深度强化学习学习推与抓之间的协同作用 [pdf] [项目]

    • Andy Zeng、Shuran Song、Stefan Welker、Johnny Lee、Alberto Rodriguez、Thomas Funkhouser。IROS 2018
  • 带有想象目标的视觉强化学习 [pdf] [项目]

    • Ashvin Nair*、Vitchyr Pong*、Murtaza Dalal、Shikhar Bahl、Steven Lin、Sergey Levine。NeurIPS 2018
  • Grasp2Vec:从自监督抓取中学习物体表征 [pdf] [项目]

    • Eric Jang*、Coline Devin*、Vincent Vanhoucke、Sergey Levine。CoRL 2018
  • 通过重试提升鲁棒性:基于自监督学习的闭环机器人操作 [pdf] [项目]

    • Frederik Ebert、Sudeep Dasari、Alex X. Lee、Sergey Levine、Chelsea Finn。CoRL 2018

2019年

  • 利用短程传感器和里程计的自监督学习长距离感知 [pdf]

    • Mirko Nava、Jerome Guzzi、R. Omar Chavez-Garcia、Luca M. Gambardella、Alessandro Giusti。机器人与自动化快报
  • 从玩耍中学习潜在计划 [pdf] [项目]

    • Corey Lynch、Mohi Khansari、Ted Xiao、Vikash Kumar、Jonathan Tompson、Sergey Levine、Pierre Sermanet
  • 从无监督声学特征学习中进行的自监督视觉地形分类 [pdf]

    • Jannik Zuern、Wolfram Burgard、Abhinav Valada

2020年

  • 对抗技能网络:从视频中无监督学习机器人技能。 [pdf] [项目]
    • Oier Mees、Markus Merklinger、Gabriel Kalweit、Wolfram Burgard ICRA 2020

2023年

  • 基于原位微调的自监督目标导航。 [pdf] [视频]
    • So Yeon Min、Yao-Hung Hubert Tsai、Wei Ding、Ali Farhadi、Ruslan Salakhutdinov、Yonatan Bisk、Jian Zhang IROS 2023

2024年

  • 点云的重要性:重新思考不同观测空间对机器人学习的影响。 [pdf]
    • Haoyi Zhu、Yating Wang、Di Huang、Weicai Ye、Wanli Ouyang、Tong He

自然语言处理

  • BERT:用于语言理解的深度双向Transformer预训练。 [pdf] [链接]

    • Jacob Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova。NAACL 2019 最佳长文
  • 自监督对话学习 [pdf]

    • Jiawei Wu、Xin Wang、William Yang Wang。ACL 2019
  • 面向上下文化抽取式摘要的自监督学习 [pdf]

    • Hong Wang、Xin Wang、Wenhan Xiong、Mo Yu、Xiaoxiao Guo、Shiyu Chang、William Yang Wang。ACL 2019
  • 语言表示学习的互信息最大化视角 [pdf]

    • Lingpeng Kong、Cyprien de Masson d'Autume、Lei Yu、Wang Ling、Zihang Dai、Dani Yogatama。ICLR 2020
  • VL-BERT:通用视觉-语言表示的预训练 [pdf] [代码]

    • Weijie Su、Xizhou Zhu、Yue Cao、Bin Li、Lewei Lu、Furu Wei、Jifeng Dai。ICLR 2020
  • 一种简单有效的自监督对比学习框架,用于方面检测 [pdf] [代码]

    • Tian Shi、Liuqing Li、Ping Wang 和 Chandan K. Reddy。AAAI 2021
  • BERT句子表示的自引导对比学习 [pdf] [代码]

    • Taeuk Kim、Kang Min Yoo 和 Sang-goo Lee。ACL 2021

自动语音识别

  • wav2vec:用于语音识别的无监督预训练 [pdf] [代码]

    • Steffen Schneider、Alexei Baevski、Ronan Collobert、Michael Auli。INTERSPEECH 2019
  • 学习鲁棒且多语言的语音表示 [pdf]

    • Kazuya Kawakami、Luyu Wang、Chris Dyer、Phil Blunsom、Aaron van den Oord。EMNLP 2020 结果
  • 无监督预训练在不同语言间具有良好的迁移性 [pdf] [代码]

    • Morgane Riviere、Armand Joulin、Pierre-Emmanuel Mazare、Emmanuel Dupoux。ICASSP 2020
  • vq-wav2vec:离散语音表示的自监督学习 [pdf]

    • Alexei Baevski、Steffen Schneider、Michael Auli。ICLR 2020
  • 自监督预训练在语音识别中的有效性 [pdf]

    • Alexei Baevski、Michael Auli、Abdelrahman Mohamed。ICASSP 2020
  • 基于量化语音表示学习的无监督语音识别与合成 [pdf]

    • Alexander H. Liu、Tao Tu、Hung-yi Lee、Lin-shan Lee。ICASSP 2020
  • 面向端到端语音识别的自训练 [pdf]

    • Jacob Kahn、Ann Lee、Awni Hannun。ICASSP 2020
  • 基于自回归预测编码的语音生成式预训练 [pdf] [代码]

    • Yu-An Chung、James Glass。ICASSP 2020
  • 利用跨模态自监督学习解耦语音嵌入 [pdf]

    • Arsha Nagrani、Joon Son Chung、Samuel Albanie、Andrew Zisserman。ICASSP 2020
  • 面向鲁棒语音识别的多任务自监督学习 [pdf]

    • Mirco Ravanelli、Jianyuan Zhong、Santiago Pascual、Pawel Swietojanski、Joao Monteiro、Jan Trmal、Yoshua Bengio。ICASSP 2020
  • 视觉引导的语音表示自监督学习 [pdf]

    • Abhinav Shukla、Konstantinos Vougioukas、Pingchuan Ma、Stavros Petridis、Maja Pantic。ICASSP 2020
  • Mockingjay:基于深度双向Transformer编码器的无监督语音表示学习 [pdf] [代码]

    • Andy T. Liu、Shu-wen Yang、Po-Han Chi、Po-chun Hsu、Hung-yi Lee。ICASSP 2020
  • 向量量化自回归预测编码 [pdf] [代码]

    • Yu-An Chung、Hao Tang、James Glass。Interspeech 2020
  • wav2vec 2.0:语音表示自监督学习框架 [pdf] [代码]

    • Alexei Baevski、Yuhao Zhou、Abdelrahman Mohamed、Michael Auli。NeurIPS 2020
  • 鲁棒的wav2vec 2.0:分析自监督预训练中的领域偏移 [pdf] [代码]

    • Wei-Ning Hsu、Anuroop Sriram、Alexei Baevski、Tatiana Likhomanenko、Qiantong Xu、Vineel Pratap、Jacob Kahn、Ann Lee、Ronan Collobert、Gabriel Synnaeve、Michael Auli
  • HuBERT:通过掩码预测隐藏单元进行自监督语音表示学习 [pdf] [代码]

    • Wei-Ning Hsu、Benjamin Bolte、Yao-Hung Hubert Tsai、Kushal Lakhotia、Ruslan Salakhutdinov、Abdelrahman Mohamed。ICASSP 2021
  • 无监督语音识别 [pdf] [代码]

    • Alexei Baevski、Wei-Ning Hsu、Alexis Conneau、Michael Auli
  • TERA:面向语音的Transformer编码器表示自监督学习 [pdf] [代码]

    • Andy T. Liu、Shang-Wen Li、Hung-yi Lee。IEEE/ACM TASLP 2021
  • 非自回归预测编码:从局部依赖中学习语音表示 [pdf] [代码]

    • Alexander H. Liu、Yu-An Chung、James Glass。Interspeech 2021

时间序列

  • 多变量时间序列的无监督可扩展表示学习 [pdf] [代码]

    • Franceschi、Jean-Yves、Aymeric Dieuleveut 和 Martin Jaggi。NeurIPS 2019
  • 基于时间和上下文对比的时间序列表示学习 [pdf] [代码]

    • Emadeldeen Eldele、Mohamed Ragab、Zhenghua Chen、Min Wu、Chee Keong Kwoh、Xiaoli Li 和 Cuntai Guan。IJCAI 2021
  • 基于时间邻域编码的时间序列无监督表示学习 [pdf] [代码]

    • Tonekaboni、Sana、Danny Eytan 和 Anna Goldenberg。ICLR 2021
  • 基于Transformer的多变量时间序列表示学习框架 [pdf] [代码]

    • Zerveas、George、Srideepika Jayaraman、Dhaval Patel、Anuradha Bhamidipaty 和 Carsten Eickhoff。KDD 2021
  • TS2Vec:迈向时间序列的通用表示 [pdf] [代码]

    • Zerveas、George、Srideepika Jayaraman、Dhaval Patel、Anuradha Bhamidipaty 和 Carsten Eickhoff。AAAI 2022

  • 深度图信息最大化 [pdf] [code]

    • Petar Veličković, William Fedus, William L. Hamilton, Pietro Liò, Yoshua Bengio, R Devon Hjelm. ICLR 2019
  • 自监督学习何时有助于图卷积网络 [pdf]

    • Yuning You, Tianlong Chen, Zhangyang Wang, Yang Shen. ICML 2020
  • 针对标签稀少图的图卷积网络多阶段自监督学习 [pdf]

    • Ke Sun, Zhouchen Lin, Zhanxing Zhu. AAAI 2020
  • 利用自监督边特征和图神经网络深入了解SARS-CoV-2感染及COVID-19严重程度 [pdf]

    • Arijit Sehanobish, Neal G. Ravindra, David van Dijk. ICML 2020研讨会
  • 深度图对比表示学习 [pdf] [code]

    • Yanqiao Zhu, Yichen Xu, Feng Yu, Qiang Liu, Shu Wu, Liang Wang. ICML 2020研讨会
  • 图上的对比多视图表示学习 [pdf]

    • Kaveh Hassani, Amir Hosein Khasahmadi. ICML 2020
  • GCC: 用于图神经网络预训练的图对比编码 [pdf]

    • Jiezhong Qiu, Qibin Chen, Yuxiao Dong. KDD 2020
  • GPT-GNN: 图神经网络的生成式预训练 [pdf] [code]

    • Ziniu Hu, Yuxiao Dong, Kuansan Wang, Kai-Wei Chang, Yizhou Sun. KDD 2020
  • 图上的自监督学习:深度见解与新方向 [pdf]

    • Wei Jin, Tyler Derr, Haochen Liu, Yiqi Wang, Suhang Wang, Zitao Liu, Jiliang Tang。
  • 异质网络中用于链接预测的上下文嵌入自监督学习 [pdf] [code]

    • Ping Wang, Khushbu Agarwal, Colby Ham, Sutanay Choudhury,以及 Chandan K. Reddy。WWW 2021
  • 基于知识图谱逻辑查询的双曲空间自监督表示学习 [pdf] [code]

    • Nurendra Choudhary, Nikhil Rao, Sumeet Katariya, Karthik Subbian,以及 Chandan K. Reddy。WWW 2021
  • GraphMAE:自监督掩码图自动编码器 [pdf] [code]

    • Zhenyu Hou, Xiao Liu, Yukuo Ceng, Yuxiao Dong, Hongxia Yang, Chunjie Wang,以及 Jie Tang。KDD 2022

讲座

  • 自学习系统的力量。Demis Hassabis(DeepMind)。 [link]
  • 超大规模自监督学习:无需人类监督即可学习感知与行动。Abhinav Gupta(CMU)。 [link]
  • 自监督、元监督、好奇心:让计算机更努力地学习。Alyosha Efros(UCB) [link]
  • 无监督视觉学习教程。CVPR 2018 [第一部分] [第二部分]
  • 自监督学习。Andrew Zisserman(牛津大学 & Deepmind)。 [pdf]
  • 图嵌入、内容理解与自监督学习。Yann LeCun。(NYU & FAIR) [pdf] [video]
  • 自监督学习:机器能否像人类一样学习?Yann LeCun @EPFL。 [video]
  • 第9周(b):CS294-158深度无监督学习(2019年春季)。Alyosha Efros @UC Berkeley。 [video]

学位论文

  • 用于视觉表征学习的超越手动标注的监督方式。Carl Doersch。[pdf]
  • 用于自监督视觉表征学习的图像合成。Richard Zhang。[pdf]
  • 不受直接监督的视觉学习。Tinghui Zhou。[pdf]
  • 极少人类监督下的视觉学习。Ishan Misra。[pdf]

博客

许可

在法律允许的最大范围内,Zhongzheng Ren已放弃其对该作品的所有版权及相关或邻接权利。

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架