stat212b
stat212b 是一门由加州大学伯克利分校统计系教授 Joan Bruna 主讲的深度学习专题课程,内容涵盖卷积神经网络、无监督学习及其他相关主题。课程系统讲解了深度学习的核心概念与技术,包括图像识别中的不变性、稳定性、特征提取、生成模型等,并结合理论与实践,帮助学习者深入理解深度学习的工作原理。适合对深度学习有基础了解的研究人员和开发者,尤其是希望深入掌握神经网络结构及其应用的人群。课程中涉及的散射网络、群不变表示等技术具有独特性,为理解深度学习的数学基础提供了重要视角。
使用场景
某图像识别团队正在开发一个用于工业缺陷检测的深度学习系统,需要深入理解卷积神经网络(CNN)的理论基础和实际应用。团队成员来自不同背景,对深度学习的理解程度不一,亟需系统性的学习资源。
没有 stat212b 时
- 团队成员对CNN的不变性、稳定性等核心概念理解模糊,导致模型设计缺乏理论支撑
- 缺乏对Scattering Networks等高级特征提取方法的系统了解,难以优化特征表达
- 对CNN表示的可逆性、冗余性等性质认识不足,影响模型调试和性能提升
- 在处理非欧几里得数据域时缺乏有效方法,限制了应用场景的扩展
使用 stat212b 后
- 通过课程内容系统掌握了CNN的不变性和稳定性原理,提升了模型设计的理论深度
- 学习了Scattering Networks等高级特征提取技术,显著增强了特征表达能力
- 理解了CNN表示的可逆性和冗余性,优化了模型训练和调试流程
- 掌握了非欧几里得数据域的处理方法,拓展了系统的适用范围
stat212b 为团队提供了从理论到实践的完整知识体系,显著提升了他们在深度学习领域的研发效率和创新能力。
运行环境要求
- Linux
- macOS
需要 NVIDIA GPU,显存 8GB+,CUDA 11.7+
16GB+

快速开始
stat212b
2016年春季深度学习专题课程
主讲人:Joan Bruna,加州大学伯克利分校统计系
课程大纲
第一部分:卷积神经网络
- 不变性、稳定性。
- 变异性模型(形变模型、随机模型)。
- 散射变换。
- 扩展模型。
- 群论形式化。
- 监督学习:分类任务。
- 卷积神经网络表示的性质:可逆性、稳定性、不变性。
- 协方差/不变性:胶囊网络及相关模型。
- 与其他模型的联系:字典学习、LISTA、随机森林。
- 其他任务:定位、回归。
- 嵌入(DrLim)、反问题。
- 非欧几里得域上的扩展。
- 动态系统:RNN与最优控制。
- 特邀讲座:Wojciech Zaremba(OpenAI)
第二部分:深度无监督学习
- 自编码器(标准、去噪、收缩等)。
- 变分自编码器。
- 对抗生成网络。
- 最大熵分布。
- 开放性问题。
- 特邀讲座:Soumith Chintala(Facebook AI Research)
第三部分:其他主题
- 深度网络的非凸优化理论。
- 随机优化。
- 注意力与记忆模型。
- 特邀讲座:Yann Dauphin(Facebook AI Research)
课程安排
Lec1 1月19日:导论及课程安排
Lec2 1月21日:用于识别的表示:稳定性、变异性。核方法/特征提取。相关性质。
- 《统计学习基础》,第12章,Hastie、Tibshirani、Friedman著。
- 《理解深度卷积网络》,S. Mallat著。
Lec3 1月26日:群、不变量与滤波器。
- 《利用卷积网络学习稳定的群不变表示》
- 《理解深度卷积网络》,S. Mallat著。
- 《信号处理的小波之旅》,第2–5、7章,S. Mallat著。
Lec4 1月28日:散射卷积网络。
- 《不变性散射卷积网络》
进一步阅读
- 《群不变散射》,S. Mallat著。
- 《用于识别的散射表示》,纽约大学CIMS实验室。
Lec5 2月2日:散射的进一步研究:性质与扩展。
- 《旋转、缩放和形变不变的散射用于纹理鉴别》,Sifre & Mallat著。
Lec6 2月4日:卷积神经网络:几何结构与初步性质。
- 《深度学习》,Y. LeCun、Bengio & Hinton著。
- 《理解深度卷积网络》,S. Mallat著。
Lec7 2月9日:学习到的CNN表示的性质:协方差与不变性、冗余性、可逆性。
- 《具有随机高斯权重的深度神经网络:一种通用分类策略?》,R. Giryes、G. Sapiro、A. Bronstein著。
- 《神经网络的有趣性质》,C. Szegedy等著。
- 《学习到的表示的测地线》,O. Henaff & E. Simoncelli著。
- 《用卷积网络反演视觉表示》,A. Dosovitskiy、T. Brox著。
- 《可视化与理解卷积网络》,M. Zeiler、R. Fergus著。
Lec8 2月11日:与其他模型的联系(深度学习、Lista、随机森林、CART)。
- 《信号处理中的近端分裂方法》,Combettes & Pesquet著。
- 《线性反问题的快速迭代收缩阈值算法》,Beck & Teboulle著。
- 《学习稀疏编码的快速近似》,K. Gregor & Y. LeCun著。
- 《任务驱动的字典学习》,J. Mairal、F. Bach、J. Ponce著。
- 《在判别式分类器中利用生成模型》,T. Jaakkola & D. Haussler著。
- 《改进费舍尔核用于大规模图像分类》,F. Perronnin等著。
- 《NetVLAD》,R. Arandjelovic等著。
Lec9 2月16日:其他高级任务:定位、回归、嵌入、反问题。
- 《基于判别训练的可变形部件模型的目标检测》,Felzenszwalb、Girshick、McAllester和Ramanan著,PAMI'10。
- 《可变形部件模型即卷积神经网络》,Girshick、Iandola、Darrel和Malik著,CVPR'15。
- 《用于精确目标检测和语义分割的丰富特征层次结构》,Girshick、Donahue、Darrel和Malik著,PAMI'14。
- 《图模型、消息传递算法与凸优化》,M. Wainwright著。
- 《条件随机场作为循环神经网络》,Zheng等著,ICCV'15。
- 《联合训练卷积网络与图模型进行人体姿态估计》,Tompson、Jain、LeCun和Bregler著,NIPS'14。
Lec10 2月18日:非欧几里得域上的扩展。平稳过程的表示。性质。
- 《通过学习不变映射进行降维》,Hadsell、Chopra、LeCun著,'06。
- 《通过提升结构化特征嵌入进行深度度量学习》,Oh Song、Xiang、Jegalka、Savarese著,'15。
- 《图上的谱网络与局部连接网络》,Bruna、Szlam、Zaremba、LeCun著,'14。
- 《空间变换网络》,Jaderberg、Simonyan、Zisserman、Kavukcuoglu著,'15。
- 《利用散射矩分析间歇性过程》,Bruna、Mallat、Bacry、Muzy著,'14。
Lec11 2月23日:特邀讲座(W. Zaremba,OpenAI)离散神经图灵机。
Lec12 2月25日:平稳过程的表示(续)。序列数据:循环神经网络。
- 基于散射矩的间歇性过程分析 J.B., Mallat, Bacry 和 Muzy,《统计年鉴》,2013年。
- 复值卷积网络的数学动机 Tygert 等人,《神经计算》,2016年。
- 使用卷积神经网络进行纹理合成 Gatys、Ecker、Betghe,《NIPS》2015年。
- 艺术风格的神经算法 Gatys、Ecker、Betghe,2015年。
- 时间序列分析及其应用 Shumway、Stoffer,第6章。
- 深度学习 Goodfellow、Bengio、Courville,2016年。第10章。
Lec13 3月1日:循环神经网络(续)。长短期记忆网络。应用。
- 深度学习 Goodfellow、Bengio、Courville,2016年。第10章。
- 利用循环神经网络生成序列 A. Graves。
- 循环神经网络的不可思议的有效性 A. Karpathy。
- 字符级语言模型的不可思议的有效性 Y. Goldberg。
Lec14 3月3日:无监督学习:维度灾难、密度估计。图模型、隐变量模型。
- 基于注意力机制的编码器-解码器网络描述多媒体内容 K. Cho、A. Courville、Y. Bengio。
- 图模型、指数族与变分推断 M. Wainwright、M. Jordan。
Lec15 3月8日:自编码器。变分推断。变分自编码器。
- 图模型、指数族与变分推断,第3章 M. Wainwright、M. Jordan。
- 基于随机搜索的变分推断 J.Paisley、D. Blei、M.Jordan。
- 随机变分推断 M. Hoffman、D. Blei、Wang、Paisley。
- 变分贝叶斯自动编码器 Kingma & Welling。
- 深度潜在高斯模型中的随机反向传播与变分推断 D. Rezende、S. Mohamed、D. Wierstra。
Lec16 3月10日:变分自编码器(续)。归一化流。对抗生成网络。
- 基于深度生成模型的半监督学习 Kingma、Rezende、Mohamed、Welling。
- 重要性加权自编码器 Burda、Grosse、Salakhutdinov。
- 基于归一化流的变分推断 Rezende、Mohamed。
- 利用非平衡热力学进行无监督学习 Sohl-Dickstein 等人。
- 生成对抗网络 Goodfellow 等人。
Lec17 3月29日:对抗生成网络(续)。
- 生成对抗网络 Goodfellow 等人。
- 基于对抗网络拉普拉斯金字塔的深度生成图像模型 Denton、Chintala、Szlam、Fergus。
- 基于深度卷积对抗生成网络的无监督表征学习 Radford、Metz、Chintala。
Lec18 3月31日:最大熵分布。自监督模型(类比、视频预测、文本、word2vec)。
- 图模型、指数族与变分推断,第3章 M. Wainwright、M. Jordan。
- 机器学习中的MCMC导论 Andrieu、de Freitas、Doucet、Jordan。
- 随机松弛、吉布斯分布与图像的贝叶斯恢复 Geman & Geman。
- 词和短语的分布式表示及其组合性 Mikolov 等人。
- word2vec详解:推导Mikolov等人的负采样嵌入方法 Goldberg & Levy。
Lec19 4月5日:自监督模型(续)。非凸优化。随机优化。
Lec20 4月7日:特邀讲座(S. Chintala,Facebook AI Research)。
Lec21 4月12日:加速梯度下降、正则化、Dropout。
- 凸优化:算法与复杂度 S. Bubeck。
- 优化,西蒙斯大数据训练营 B. Recht。
- 梯度下降的禅意 M. Hardt。
- 更快训练,更好泛化:随机梯度下降的稳定性 M. Hardt、B. Recht、Y. Singer。
- Dropout:防止神经网络过拟合的简单方法 Srivastava、Hinton 等人。
Lec22 4月14日:Dropout(续)。批归一化、张量分解。
作为自适应正则化的 Dropout 训练 韦格尔、王、梁。
- 批归一化:通过减少内部协变量偏移加速深度网络训练 伊奥菲、塞格迪。
- 张量分解、深度学习及其他领域的全局最优性 海夫勒、维达尔。
- 关于深度学习的表达能力:张量分析 科恩、沙里尔、沙修阿。
- 克服非凸性的陷阱:利用张量方法保证神经网络的训练 扬扎明、塞德吉、阿南德库马尔。
第23讲 4月19日:特邀讲座(Y. 多芬,Facebook 人工智能研究院)
第24–25讲:口头报告
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。
scikit-learn
scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最
keras
Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。