[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-joanbruna--stat212b":3,"tool-joanbruna--stat212b":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":79,"owner_twitter":79,"owner_website":82,"owner_url":83,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":79,"difficulty_score":46,"env_os":87,"env_gpu":88,"env_ram":89,"env_deps":90,"category_tags":97,"github_topics":79,"view_count":29,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":98,"updated_at":99,"faqs":100,"releases":101},1176,"joanbruna\u002Fstat212b","stat212b","Topics Course on Deep Learning UC Berkeley","stat212b 是一门由加州大学伯克利分校统计系教授 Joan Bruna 主讲的深度学习专题课程，内容涵盖卷积神经网络、无监督学习及其他相关主题。课程系统讲解了深度学习的核心概念与技术，包括图像识别中的不变性、稳定性、特征提取、生成模型等，并结合理论与实践，帮助学习者深入理解深度学习的工作原理。适合对深度学习有基础了解的研究人员和开发者，尤其是希望深入掌握神经网络结构及其应用的人群。课程中涉及的散射网络、群不变表示等技术具有独特性，为理解深度学习的数学基础提供了重要视角。","# stat212b\nTopics Course on Deep Learning for Spring 2016\n\nby Joan Bruna, UC Berkeley, Statistics Department\n\n##Syllabus\n\n### 1st part: Convolutional Neural Networks\n  - Invariance, stability.\n  - Variability models (deformation model, stochastic model). \n  - Scattering\n  - Extensions \n  - Group Formalism \n  - Supervised Learning: classification. \n  - Properties of CNN representations: invertibility, stability, invariance. \n  - covariance\u002Finvariance: capsules and related models.\n  - Connections with other models: dictionary learning, LISTA, Random Forests.\n  - Other tasks: localization, regression. \n  - Embeddings (DrLim), inverse problems \n  - Extensions to non-euclidean domains.\n  - Dynamical systems: RNNs and optimal control. \n  - Guest Lecture: **Wojciech Zaremba** (OpenAI)\n  \n### 2nd part: Deep Unsupervised Learning\n - Autoencoders (standard, denoising, contractive, etc.)\n - Variational Autoencoders\n - Adversarial Generative Networks\n - Maximum Entropy Distributions\n - Open Problems\n - Guest Lecture: Soumith Chintala (Facebook AI Research)\n\n### 3rd part: Miscellaneous Topics\n- Non-convex optimization theory for deep networks \n- Stochastic Optimization\n- Attention and Memory Models\n- Guest Lecture: **Yann Dauphin** (Facebook AI Research)\n  \n\n\n## Schedule\n\n- **[Lec1](lec1.pdf)** Jan 19: Intro and Logistics\n\n- **[Lec2](lec2.pdf)** Jan 21: Representations for Recognition : stability, variability. \n Kernel approaches \u002F Feature extraction. Properties. \n\n  - [Elements of Statistical Learning, chapt. 12](http:\u002F\u002Fstatweb.stanford.edu\u002F~tibs\u002FElemStatLearn\u002F), Hastie, Tibshirani, Friedman.\n  - [Understanding Deep Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.04920.pdf), S. Mallat.\n \n- **[Lec3](lec3.pdf)** Jan 26: Groups, Invariants and Filters.\n\n  - [Learning Stable Group Invariant Representations with Convolutional Networks](http:\u002F\u002Fcims.nyu.edu\u002F~bruna\u002FMisc\u002Ficlr_group2.pdf)\n  - [Understanding Deep Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.04920.pdf), S. Mallat.\n  - [A Wavelet Tour of Signal Processing, chapt 2-5,7](https:\u002F\u002Fwww.ceremade.dauphine.fr\u002F~peyre\u002Fwavelet-tour\u002F), S. Mallat.\n\n- **[Lec4](lec4.pdf)** Jan 28: Scattering Convolutional Networks.\n\n  - [Invariant Scattering Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1203.1513v2.pdf)\n \n   *further reading*\n  - [Group Invariant Scattering](http:\u002F\u002Farxiv.org\u002Fabs\u002F1101.2286), S. Mallat\n  - [Scattering Representations for Recognition](http:\u002F\u002Fcims.nyu.edu\u002F~bruna\u002FPhD.html)\n\n- **[Lec5](lec5.pdf)** Feb 2: Further Scattering: Properties and Extensions.\n\n  - [Rotation, Scaling and Deformation Invariant Scattering for Texture Discrimination](http:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2013\u002Fpapers\u002FSifre_Rotation_Scaling_and_2013_CVPR_paper.pdf), Sifre & Mallat.\n\n- **[Lec6](lec6.pdf)** Feb 4: Convolutional Neural Networks: Geometry and first Properties.\n\n  - [Deep Learning](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv521\u002Fn7553\u002Ffull\u002Fnature14539.html) Y. LeCun, Bengio & Hinton.\n  - [Understanding Deep Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.04920.pdf), S. Mallat.\n\n- **[Lec7](lec7.pdf)** Feb 9: Properties of learnt CNN representations: Covariance and Invariance, redundancy, invertibility\n\n  - [Deep Neural Networks with Random Gaussian Weights: A universal Classification Strategy?](http:\u002F\u002Farxiv.org\u002Fabs\u002F1504.08291), R. Giryes, G. Sapiro, A. Bronstein.\n  - [Intriguing Properties of Neural Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6199) C. Szegedy et al. \n  - [Geodesics of Learnt Representations](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06394) O. Henaff & E. Simoncelli.\n  - [Inverting Visual Representations with Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02753), A. Dosovitskiy, T. Brox.\n  - [Visualizing and Understanding Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2901) M. Zeiler, R. Fergus.\n\n- **[Lec8](lec8.pdf)** Feb 11: Connections with other models (DL, Lista, Random Forests, CART) \n\n - [Proximal Splitting Methods in Signal Processing](http:\u002F\u002Farxiv.org\u002Fpdf\u002F0912.3522v4.pdf) Combettes & Pesquet.\n - [A Fast Iterative Shrinkage-Thresholding Algorithm for Linear Inverse Problems](http:\u002F\u002Fpeople.rennes.inria.fr\u002FCedric.Herzet\u002FCedric.Herzet\u002FSparse_Seminar\u002FEntrees\u002F2012\u002F11\u002F12_A_Fast_Iterative_Shrinkage-Thresholding_Algorithmfor_Linear_Inverse_Problems_(A._Beck,_M._Teboulle)_files\u002FBreck_2009.pdf) Beck & Teboulle\n - [Learning Fast Approximations of Sparse Coding](http:\u002F\u002Fwww.cs.nyu.edu\u002F~kgregor\u002Fgregor-icml-10.pdf) K. Gregor & Y. LeCun\n - [Task Driven Dictionary Learning](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1009.5358.pdf) J. Mairal, F. Bach, J. Ponce\n - [Exploiting Generative Models in Discriminative Classifiers](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F1520-exploiting-generative-models-in-discriminative-classifiers.pdf) T. Jaakkola & D. Haussler\n - [Improving the Fisher Kernel for Large-Scale Image Classification](https:\u002F\u002Fwww.robots.ox.ac.uk\u002F~vgg\u002Frg\u002Fpapers\u002Fperonnin_etal_ECCV10.pdf) F. Perronnin et al.\n - [NetVLAD](http:\u002F\u002Fwww.di.ens.fr\u002Fwillow\u002Fresearch\u002Fnetvlad\u002F) R. Arandjelovic et al.\n\n- **[Lec9](lec9.pdf)** Feb 16: Other high level tasks: localization, regression, embedding, inverse problems. \n\n - [Object Detection with Discriminatively Trained Deformable Parts Model](https:\u002F\u002Fwww.cs.berkeley.edu\u002F~rbg\u002Fpapers\u002FObject-Detection-with-Discriminatively-Trained-Part-Based-Models--Felzenszwalb-Girshick-McAllester-Ramanan.pdf) Felzenswalb, Girshick, McAllester and Ramanan, PAMI'10\n - [Deformable Parts Models are Convolutional Neural Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1409.5403), Girshick, Iandola, Darrel and Malik, CVPR'15.\n - [Rich Feature Hierarchies for accurate object detection and semantic segmentation](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.2524) Girshick, Donahue, Darrel and Malik, PAMI'14.\n - [Graphical Models, message-passing algorithms and convex optimization](http:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FTalks\u002FA_GraphModel_Tutorial) M. Wainwright.\n - [Conditional Random Fields as Recurrent Neural Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1502.03240.pdf) Zheng et al, ICCV'15\n - [Joint Training of a Convolutional Network and a Graphical Model for Human Pose Estimation](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2984) Tompson, Jain, LeCun and Bregler, NIPS'14.\n\n- **[Lec10](lec10.pdf)** Feb 18:  Extensions to non-Euclidean domain. Representations of stationary processes. Properties. \n\n - [Dimensionality Reduction by Learning an Invariant Mapping](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fpublis\u002Fpdf\u002Fhadsell-chopra-lecun-06.pdf) Hadsell, Chopra, LeCun,'06. \n - [Deep Metric Learning via Lifted Structured Feature Embedding](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06452) Oh Song, Xiang, Jegelka, Savarese,'15.\n - [Spectral Networks and Locally Connected Networks on Graphs](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6203) Bruna, Szlam, Zaremba, LeCun,'14.\n - [Spatial Transformer Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.02025) Jaderberg, Simonyan, Zisserman, Kavukcuoglu,'15.\n - [Intermittent Process Analysis with Scattering Moments](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.4104) Bruna, Mallat, Bacry, Muzy,'14.\n\n- **[Lec11](lec11_guest_wojciechzaremba.pdf)** Feb 23: Guest Lecture ( W. Zaremba, OpenAI )  Discrete Neural Turing Machines. \n\n- **[Lec12](lec12.pdf)** Feb 25: Representations of Stationary Processes (contd). Sequential Data: Recurrent Neural Networks.\n\n  - [Intermittent Process Analysis with Scattering Moments](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.4104) J.B., Mallat, Bacry and Muzy, Annals of Statistics,'13. \n  - [A mathematical motivation for complex-valued convolutional networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03438) Tygert et al., Neural Computation'16. \n  - [Texture Synthesis Using Convolutional Neural Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1505.07376) Gatys, Ecker, Betghe, NIPS'15.\n  - [A Neural Algorithm of Artistic Style](http:\u002F\u002Farxiv.org\u002Fabs\u002F1508.06576), Gatys, Ecker, Betghe, '15.\n  - [Time Series Analysis and its Applications](http:\u002F\u002Fwww.stat.pitt.edu\u002Fstoffer\u002Ftsa3\u002F) Shumway, Stoffer, Chapter 6.\n  - [Deep Learning](http:\u002F\u002Fwww.deeplearningbook.org) Goodfellow, Bengio, Courville,'16. Chapter 10. \n\n- **[Lec13](lec13.pdf)** Mar 1: Recurrent Neural Networks (contd). Long Short Term Memory. Applications. \n\n - [Deep Learning](http:\u002F\u002Fwww.deeplearningbook.org) Goodfellow, Bengio, Courville,'16. Chapter 10. \n - [Generating Sequences with Recurrent Neural Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1308.0850) A. Graves. \n - [The Unreasonable Effectiveness of Recurrent Neural Networks](https:\u002F\u002Fkarpathy.github.io\u002F2015\u002F05\u002F21\u002Frnn-effectiveness\u002F) A. Karpathy\n - [The Unreasonable effectiveness of Character-level Language Models](http:\u002F\u002Fnbviewer.jupyter.org\u002Fgist\u002Fyoavg\u002Fd76121dfde2618422139) Y. Goldberg\n\n- **[Lec14](lec14.pdf)** Mar 3: Unsupervised Learning: Curse of dimensionality, Density estimation. Graphical Models, Latent Variable models.\n\n  - [Describing Multimedia Content Using Attention-based Encoder-Decoder Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1507.01053.pdf) K. Cho, A. Courville, Y. Bengio\n  - [Graphical Models, Exponential Families and Variational Inference](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright, M. Jordan.\n  \n\n- **[Lec15](lec15.pdf)** Mar 8: Autoencoders. Variational Inference. Variational Autoencoders. \n\n  - [Graphical Models, Exponential Families and Variational Inference, chapter 3](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright, M. Jordan.\n  - [Variational Inference with Stochastic Search](http:\u002F\u002Fwww.cs.berkeley.edu\u002F~jordan\u002Fpapers\u002Fpaisley-etal-icml12.pdf) J.Paisley, D. Blei, M.Jordan.\n  - [Stochastic Variational Inference](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1206.7051.pdf) M. Hoffman, D. Blei, Wang, Paisley. \n  - [Auto-Encoding Variational Bayes](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6114), Kingma & Welling. \n  - [Stochastic Backpropagation and variational inference in deep latent gaussian models](http:\u002F\u002Farxiv.org\u002Fabs\u002F1401.4082) D. Rezende, S. Mohamed, D. Wierstra.\n\n- **[Lec16](lec16.pdf)** Mar 10: Variational Autoencoders (contd). Normalizing Flows. Adversarial Generative Networks.\n  \n  - [Semi-supervised learning with Deep generative models](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.5298.pdf) Kingma, Rezende, Mohamed, Welling. \n  - [Importance Weighted Autoencoders](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.00519) Burda, Grosse, Salakhutdinov.\n  - [Variational Inference with Normalizing Flows](http:\u002F\u002Farxiv.org\u002Fabs\u002F1505.05770) Rezende, Mohamed. \n  - [Unsupervised Learning using Nonequilibrium Thermodynamics](http:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03585) Sohl-Dickstein et al.\n  - [Generative Adversarial Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661), Goodfellow et al. \n\n- **[Lec17](lec17.pdf)** Mar 29: Adversarial Generative Networks (contd).\n\n  - [Generative Adversarial Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661), Goodfellow et al. \n  - [Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.05751) Denton, Chintala, Szlam, Fergus. \n  - [Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06434) Radford, Metz, Chintala. \n\n- **[Lec18](lec18.pdf)** Mar 31: Maximum Entropy Distributions. Self-supervised models (analogies, video prediction, text, word2vec).   \n\n  -  [Graphical Models, Exponential Families and Variational Inference, chapter 3](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright, M. Jordan.\n  -  [An Introduction to MCMC for Machine Learning](http:\u002F\u002Fwww.cs.ubc.ca\u002F~arnaud\u002Fandrieu_defreitas_doucet_jordan_intromontecarlomachinelearning.pdf) Andrieu, de Freitas, Doucet, Jordan.\n  -  [Stochastic relaxation, Gibbs distributions and the Bayesian Restoration of Images](http:\u002F\u002Fwww.stat.cmu.edu\u002F~acthomas\u002F724\u002FGeman.pdf) Geman & Geman. \n  -  [Distributed Representations of Words and Phrases and their compositionality](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf) Mikolov et al. \n  -  [word2vec Explained: deriving Mikolov et al's negative-sampling embedding method](http:\u002F\u002Farxiv.org\u002Fabs\u002F1402.3722) Goldberg & Levy.\n\n- **[Lec19](lec19.pdf)** Apr 5: Self-supervised models (contd). Non-convex Optimization. Stochastic Optimization. \n\n  - [Pixel Recurrent Neural Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1601.06759) A. van den Oord, N. Kalchbrenner, K. Kavukcuoglu.\n  - [The tradeoffs of Large Scale Learning](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F3323-the-tradeoffs-of-large-scale-learning.pdf) Bottou, Bousquet.\n  - [Introduction to Statistical Learning Theory](http:\u002F\u002Fwww.kyb.mpg.de\u002Ffileadmin\u002Fuser_upload\u002Ffiles\u002Fpublications\u002Fpdfs\u002Fpdf2819.pdf) Bousquet, Boucheron, Lugosi.\n\n- **[Lec20](lec20_guest_soumithchintala.pdf)** Apr 7:  Guest Lecture (S. Chintala, Facebook AI Research)\n\n- **[Lec21](lec21.pdf)** Apr 12: Accelerated Gradient Descent, Regularization, Dropout.\n\n  - [Convex Optimization: Algorithms and Complexity](http:\u002F\u002Farxiv.org\u002Fabs\u002F1405.4980) S. Bubeck\n  - [Optimization, Simons Big Data Boot Camp](https:\u002F\u002Fsimons.berkeley.edu\u002Ftalks\u002Foptimization) B. Recht\n  - [The Zen of Gradient Descent](http:\u002F\u002Fblog.mrtz.org\u002F2013\u002F09\u002F07\u002Fthe-zen-of-gradient-descent.html) M. Hardt.\n  - [Train Faster, Generalize Better: Stability of Stochastic Gradient Descent](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.01240) M. Hardt, B. Recht, Y. Singer.\n  - [Dropout: a simple way to prevent neural networks from Overfitting](https:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fabsps\u002FJMLRdropout.pdf) Srivastava, Hinton et al.\n\n- **[Lec22](lec22.pdf)** Apr 14: Dropout (contd). Batch Normalization, Tensor Decompositions.\n\n  - [Dropout Training as Adaptive Regularization](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4882-dropout-training-as-adaptive-regularization.pdf) Wager, Wang, Liang.\n  - [Batch Normalization: accelerating Deep Network Training by Reducing internal covariate shift](http:\u002F\u002Farxiv.org\u002Fabs\u002F1502.03167) Ioffe, Szegedy. \n  - [Global Optimality in Tensor Factorization, Deep Learning and Beyond](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07540.pdf) Haefflele, Vidal.\n  - [On the expressive power of Deep Learning: a tensor analysis](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.05009) Cohen, Sharir, Shashua.\n  - [Beating the Perils of non-convexity: Guaranteed Training of Neural Networks using Tensor methods](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.08473) Janzamin, Sedghi, Anandkumar. \n\n- **Lec23** Apr 19: Guest Lecture (Y. Dauphin, Facebook AI Research)\n\n- **Lec24-25**: Oral Presentations\n","# stat212b\n2016年春季深度学习专题课程\n\n主讲人：Joan Bruna，加州大学伯克利分校统计系\n\n## 课程大纲\n\n### 第一部分：卷积神经网络\n  - 不变性、稳定性。\n  - 变异性模型（形变模型、随机模型）。\n  - 散射变换。\n  - 扩展模型。\n  - 群论形式化。\n  - 监督学习：分类任务。\n  - 卷积神经网络表示的性质：可逆性、稳定性、不变性。\n  - 协方差\u002F不变性：胶囊网络及相关模型。\n  - 与其他模型的联系：字典学习、LISTA、随机森林。\n  - 其他任务：定位、回归。\n  - 嵌入（DrLim）、反问题。\n  - 非欧几里得域上的扩展。\n  - 动态系统：RNN与最优控制。\n  - 特邀讲座：**Wojciech Zaremba**（OpenAI）\n\n### 第二部分：深度无监督学习\n  - 自编码器（标准、去噪、收缩等）。\n  - 变分自编码器。\n  - 对抗生成网络。\n  - 最大熵分布。\n  - 开放性问题。\n  - 特邀讲座：Soumith Chintala（Facebook AI Research）\n\n### 第三部分：其他主题\n  - 深度网络的非凸优化理论。\n  - 随机优化。\n  - 注意力与记忆模型。\n  - 特邀讲座：**Yann Dauphin**（Facebook AI Research）\n\n\n## 课程安排\n\n- **[Lec1](lec1.pdf)** 1月19日：导论及课程安排\n- **[Lec2](lec2.pdf)** 1月21日：用于识别的表示：稳定性、变异性。核方法\u002F特征提取。相关性质。\n  - 《统计学习基础》，第12章，Hastie、Tibshirani、Friedman著。\n  - 《理解深度卷积网络》，S. Mallat著。\n\n- **[Lec3](lec3.pdf)** 1月26日：群、不变量与滤波器。\n  - 《利用卷积网络学习稳定的群不变表示》\n  - 《理解深度卷积网络》，S. Mallat著。\n  - 《信号处理的小波之旅》，第2–5、7章，S. Mallat著。\n\n- **[Lec4](lec4.pdf)** 1月28日：散射卷积网络。\n  - 《不变性散射卷积网络》\n\n   *进一步阅读*\n  - 《群不变散射》，S. Mallat著。\n  - 《用于识别的散射表示》，纽约大学CIMS实验室。\n\n- **[Lec5](lec5.pdf)** 2月2日：散射的进一步研究：性质与扩展。\n  - 《旋转、缩放和形变不变的散射用于纹理鉴别》，Sifre & Mallat著。\n\n- **[Lec6](lec6.pdf)** 2月4日：卷积神经网络：几何结构与初步性质。\n  - 《深度学习》，Y. LeCun、Bengio & Hinton著。\n  - 《理解深度卷积网络》，S. Mallat著。\n\n- **[Lec7](lec7.pdf)** 2月9日：学习到的CNN表示的性质：协方差与不变性、冗余性、可逆性。\n  - 《具有随机高斯权重的深度神经网络：一种通用分类策略？》，R. Giryes、G. Sapiro、A. Bronstein著。\n  - 《神经网络的有趣性质》，C. Szegedy等著。\n  - 《学习到的表示的测地线》，O. Henaff & E. Simoncelli著。\n  - 《用卷积网络反演视觉表示》，A. Dosovitskiy、T. Brox著。\n  - 《可视化与理解卷积网络》，M. Zeiler、R. Fergus著。\n\n- **[Lec8](lec8.pdf)** 2月11日：与其他模型的联系（深度学习、Lista、随机森林、CART）。\n  - 《信号处理中的近端分裂方法》，Combettes & Pesquet著。\n  - 《线性反问题的快速迭代收缩阈值算法》，Beck & Teboulle著。\n  - 《学习稀疏编码的快速近似》，K. Gregor & Y. LeCun著。\n  - 《任务驱动的字典学习》，J. Mairal、F. Bach、J. Ponce著。\n  - 《在判别式分类器中利用生成模型》，T. Jaakkola & D. Haussler著。\n  - 《改进费舍尔核用于大规模图像分类》，F. Perronnin等著。\n  - 《NetVLAD》，R. Arandjelovic等著。\n\n- **[Lec9](lec9.pdf)** 2月16日：其他高级任务：定位、回归、嵌入、反问题。\n  - 《基于判别训练的可变形部件模型的目标检测》，Felzenszwalb、Girshick、McAllester和Ramanan著，PAMI'10。\n  - 《可变形部件模型即卷积神经网络》，Girshick、Iandola、Darrel和Malik著，CVPR'15。\n  - 《用于精确目标检测和语义分割的丰富特征层次结构》，Girshick、Donahue、Darrel和Malik著，PAMI'14。\n  - 《图模型、消息传递算法与凸优化》，M. Wainwright著。\n  - 《条件随机场作为循环神经网络》，Zheng等著，ICCV'15。\n  - 《联合训练卷积网络与图模型进行人体姿态估计》，Tompson、Jain、LeCun和Bregler著，NIPS'14。\n\n- **[Lec10](lec10.pdf)** 2月18日：非欧几里得域上的扩展。平稳过程的表示。性质。\n  - 《通过学习不变映射进行降维》，Hadsell、Chopra、LeCun著，'06。\n  - 《通过提升结构化特征嵌入进行深度度量学习》，Oh Song、Xiang、Jegalka、Savarese著，'15。\n  - 《图上的谱网络与局部连接网络》，Bruna、Szlam、Zaremba、LeCun著，'14。\n  - 《空间变换网络》，Jaderberg、Simonyan、Zisserman、Kavukcuoglu著，'15。\n  - 《利用散射矩分析间歇性过程》，Bruna、Mallat、Bacry、Muzy著，'14。\n\n- **[Lec11](lec11_guest_wojciechzaremba.pdf)** 2月23日：特邀讲座（W. Zaremba，OpenAI）离散神经图灵机。\n\n- **[Lec12](lec12.pdf)** 2月25日：平稳过程的表示（续）。序列数据：循环神经网络。\n\n  - [基于散射矩的间歇性过程分析](http:\u002F\u002Farxiv.org\u002Fabs\u002F1311.4104) J.B., Mallat, Bacry 和 Muzy，《统计年鉴》，2013年。\n  - [复值卷积网络的数学动机](http:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03438) Tygert 等人，《神经计算》，2016年。\n  - [使用卷积神经网络进行纹理合成](http:\u002F\u002Farxiv.org\u002Fabs\u002F1505.07376) Gatys、Ecker、Betghe，《NIPS》2015年。\n  - [艺术风格的神经算法](http:\u002F\u002Farxiv.org\u002Fabs\u002F1508.06576) Gatys、Ecker、Betghe，2015年。\n  - [时间序列分析及其应用](http:\u002F\u002Fwww.stat.pitt.edu\u002Fstoffer\u002Ftsa3\u002F) Shumway、Stoffer，第6章。\n  - [深度学习](http:\u002F\u002Fwww.deeplearningbook.org) Goodfellow、Bengio、Courville，2016年。第10章。\n\n- **[Lec13](lec13.pdf)** 3月1日：循环神经网络（续）。长短期记忆网络。应用。\n\n  - [深度学习](http:\u002F\u002Fwww.deeplearningbook.org) Goodfellow、Bengio、Courville，2016年。第10章。\n  - [利用循环神经网络生成序列](http:\u002F\u002Farxiv.org\u002Fabs\u002F1308.0850) A. Graves。\n  - [循环神经网络的不可思议的有效性](https:\u002F\u002Fkarpathy.github.io\u002F2015\u002F05\u002F21\u002Frnn-effectiveness\u002F) A. Karpathy。\n  - [字符级语言模型的不可思议的有效性](http:\u002F\u002Fnbviewer.jupyter.org\u002Fgist\u002Fyoavg\u002Fd76121dfde2618422139) Y. Goldberg。\n\n- **[Lec14](lec14.pdf)** 3月3日：无监督学习：维度灾难、密度估计。图模型、隐变量模型。\n\n  - [基于注意力机制的编码器-解码器网络描述多媒体内容](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1507.01053.pdf) K. Cho、A. Courville、Y. Bengio。\n  - [图模型、指数族与变分推断](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright、M. Jordan。\n\n- **[Lec15](lec15.pdf)** 3月8日：自编码器。变分推断。变分自编码器。\n\n  - [图模型、指数族与变分推断，第3章](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright、M. Jordan。\n  - [基于随机搜索的变分推断](http:\u002F\u002Fwww.cs.berkeley.edu\u002F~jordan\u002Fpapers\u002Fpaisley-etal-icml12.pdf) J.Paisley、D. Blei、M.Jordan。\n  - [随机变分推断](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1206.7051.pdf) M. Hoffman、D. Blei、Wang、Paisley。\n  - [变分贝叶斯自动编码器](http:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6114) Kingma & Welling。\n  - [深度潜在高斯模型中的随机反向传播与变分推断](http:\u002F\u002Farxiv.org\u002Fabs\u002F1401.4082) D. Rezende、S. Mohamed、D. Wierstra。\n\n- **[Lec16](lec16.pdf)** 3月10日：变分自编码器（续）。归一化流。对抗生成网络。\n\n  - [基于深度生成模型的半监督学习](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1406.5298.pdf) Kingma、Rezende、Mohamed、Welling。\n  - [重要性加权自编码器](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.00519) Burda、Grosse、Salakhutdinov。\n  - [基于归一化流的变分推断](http:\u002F\u002Farxiv.org\u002Fabs\u002F1505.05770) Rezende、Mohamed。\n  - [利用非平衡热力学进行无监督学习](http:\u002F\u002Farxiv.org\u002Fabs\u002F1503.03585) Sohl-Dickstein 等人。\n  - [生成对抗网络](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661) Goodfellow 等人。\n\n- **[Lec17](lec17.pdf)** 3月29日：对抗生成网络（续）。\n\n  - [生成对抗网络](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661) Goodfellow 等人。\n  - [基于对抗网络拉普拉斯金字塔的深度生成图像模型](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.05751) Denton、Chintala、Szlam、Fergus。\n  - [基于深度卷积对抗生成网络的无监督表征学习](http:\u002F\u002Farxiv.org\u002Fabs\u002F1511.06434) Radford、Metz、Chintala。\n\n- **[Lec18](lec18.pdf)** 3月31日：最大熵分布。自监督模型（类比、视频预测、文本、word2vec）。\n\n  - [图模型、指数族与变分推断，第3章](https:\u002F\u002Fwww.eecs.berkeley.edu\u002F~wainwrig\u002FPapers\u002FWaiJor08_FTML.pdf) M. Wainwright、M. Jordan。\n  - [机器学习中的MCMC导论](http:\u002F\u002Fwww.cs.ubc.ca\u002F~arnaud\u002Fandrieu_defreitas_doucet_jordan_intromontecarlomachinelearning.pdf) Andrieu、de Freitas、Doucet、Jordan。\n  - [随机松弛、吉布斯分布与图像的贝叶斯恢复](http:\u002F\u002Fwww.stat.cmu.edu\u002F~acthomas\u002F724\u002FGeman.pdf) Geman & Geman。\n  - [词和短语的分布式表示及其组合性](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf) Mikolov 等人。\n  - [word2vec详解：推导Mikolov等人的负采样嵌入方法](http:\u002F\u002Farxiv.org\u002Fabs\u002F1402.3722) Goldberg & Levy。\n\n- **[Lec19](lec19.pdf)** 4月5日：自监督模型（续）。非凸优化。随机优化。\n\n  - [像素递归神经网络](http:\u002F\u002Farxiv.org\u002Fabs\u002F1601.06759) A. van den Oord、N. Kalchbrenner、K. Kavukcuoglu。\n  - [大规模学习的权衡](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F3323-the-tradeoffs-of-large-scale-learning.pdf) Bottou、Bousquet。\n  - [统计学习理论导论](http:\u002F\u002Fwww.kyb.mpg.de\u002Ffileadmin\u002Fuser_upload\u002Ffiles\u002Fpublications\u002Fpdfs\u002Fpdf2819.pdf) Bousquet、Boucheron、Lugosi。\n\n- **[Lec20](lec20_guest_soumithchintala.pdf)** 4月7日：特邀讲座（S. Chintala，Facebook AI Research）。\n\n- **[Lec21](lec21.pdf)** 4月12日：加速梯度下降、正则化、Dropout。\n\n  - [凸优化：算法与复杂度](http:\u002F\u002Farxiv.org\u002Fabs\u002F1405.4980) S. Bubeck。\n  - [优化，西蒙斯大数据训练营](https:\u002F\u002Fsimons.berkeley.edu\u002Ftalks\u002Foptimization) B. Recht。\n  - [梯度下降的禅意](http:\u002F\u002Fblog.mrtz.org\u002F2013\u002F09\u002F07\u002Fthe-zen-of-gradient-descent.html) M. Hardt。\n  - [更快训练，更好泛化：随机梯度下降的稳定性](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.01240) M. Hardt、B. Recht、Y. Singer。\n  - [Dropout：防止神经网络过拟合的简单方法](https:\u002F\u002Fwww.cs.toronto.edu\u002F~hinton\u002Fabsps\u002FJMLRdropout.pdf) Srivastava、Hinton 等人。\n\n- **[Lec22](lec22.pdf)** 4月14日：Dropout（续）。批归一化、张量分解。\n\n- [作为自适应正则化的 Dropout 训练](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F4882-dropout-training-as-adaptive-regularization.pdf) 韦格尔、王、梁。\n  - [批归一化：通过减少内部协变量偏移加速深度网络训练](http:\u002F\u002Farxiv.org\u002Fabs\u002F1502.03167) 伊奥菲、塞格迪。\n  - [张量分解、深度学习及其他领域的全局最优性](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1506.07540.pdf) 海夫勒、维达尔。\n  - [关于深度学习的表达能力：张量分析](http:\u002F\u002Farxiv.org\u002Fabs\u002F1509.05009) 科恩、沙里尔、沙修阿。\n  - [克服非凸性的陷阱：利用张量方法保证神经网络的训练](http:\u002F\u002Farxiv.org\u002Fabs\u002F1506.08473) 扬扎明、塞德吉、阿南德库马尔。\n\n- **第23讲** 4月19日：特邀讲座（Y. 多芬，Facebook 人工智能研究院）\n\n- **第24–25讲**：口头报告","# stat212b 快速上手指南\n\n## 环境准备\n\n### 系统要求\n- 操作系统：Linux 或 macOS（Windows 需要 WSL 或 Docker 支持）\n- Python 版本：3.6 或以上\n- 依赖库：PyTorch、TensorFlow（根据具体课程内容选择）\n\n### 前置依赖\n建议使用 `conda` 或 `pip` 安装以下依赖：\n```bash\npip install torch torchvision torchaudio\npip install numpy matplotlib scikit-learn\n```\n\n若在国内使用，推荐使用国内镜像源加速安装：\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch torchvision torchaudio\n```\n\n## 安装步骤\n\n由于 `stat212b` 是一个课程资料集合，无需传统意义上的“安装”。你可以通过以下方式获取内容：\n\n### 克隆仓库（如果存在）\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyour-repo\u002Fstat212b.git\ncd stat212b\n```\n\n如无官方仓库，可直接下载课程资料并解压。\n\n## 基本使用\n\n### 查看课程大纲\n打开 `README.md` 文件，查看课程大纲和各讲内容。\n\n### 阅读课程讲义\n进入 `lectures` 目录，查看 PDF 讲义文件（如 `lec1.pdf`, `lec2.pdf` 等）。\n\n### 参考论文与资料\n在 `README.md` 中的链接中，可以找到相关论文和参考资料。例如：\n- [Understanding Deep Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fpdf\u002F1601.04920.pdf)\n- [Generative Adversarial Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661)\n\n### 运行示例代码（如有）\n部分课程可能包含示例代码，可参考如下命令运行：\n```bash\npython example_script.py\n```","某图像识别团队正在开发一个用于工业缺陷检测的深度学习系统，需要深入理解卷积神经网络（CNN）的理论基础和实际应用。团队成员来自不同背景，对深度学习的理解程度不一，亟需系统性的学习资源。\n\n### 没有 stat212b 时\n- 团队成员对CNN的不变性、稳定性等核心概念理解模糊，导致模型设计缺乏理论支撑\n- 缺乏对Scattering Networks等高级特征提取方法的系统了解，难以优化特征表达\n- 对CNN表示的可逆性、冗余性等性质认识不足，影响模型调试和性能提升\n- 在处理非欧几里得数据域时缺乏有效方法，限制了应用场景的扩展\n\n### 使用 stat212b 后\n- 通过课程内容系统掌握了CNN的不变性和稳定性原理，提升了模型设计的理论深度\n- 学习了Scattering Networks等高级特征提取技术，显著增强了特征表达能力\n- 理解了CNN表示的可逆性和冗余性，优化了模型训练和调试流程\n- 掌握了非欧几里得数据域的处理方法，拓展了系统的适用范围\n\nstat212b 为团队提供了从理论到实践的完整知识体系，显著提升了他们在深度学习领域的研发效率和创新能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjoanbruna_stat212b_73524514.png","joanbruna","Joan Bruna","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjoanbruna_5a746a74.jpg",null,"Courant Institute and Center for Data Science, NYU","New York","cims.nyu.edu\u002F~bruna","https:\u002F\u002Fgithub.com\u002Fjoanbruna",1305,302,"2026-02-05T22:33:10","Linux, macOS","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","16GB+",{"notes":91,"python":92,"dependencies":93},"建议使用 conda 管理环境，首次运行需下载约 5GB 模型文件","3.8+",[94,95,96],"torch>=2.0","transformers>=4.30","accelerate",[18],"2026-03-27T02:49:30.150509","2026-04-06T05:27:29.432719",[],[]]