[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-dair-ai--ML-Course-Notes":3,"similar-dair-ai--ML-Course-Notes":52},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":19,"owner_twitter":20,"owner_website":21,"owner_url":22,"languages":19,"stars":23,"forks":24,"last_commit_at":25,"license":26,"difficulty_score":27,"env_os":28,"env_gpu":29,"env_ram":29,"env_deps":30,"category_tags":33,"github_topics":40,"view_count":46,"oss_zip_url":19,"oss_zip_packed_at":19,"status":47,"created_at":48,"updated_at":49,"faqs":50,"releases":51},3937,"dair-ai\u002FML-Course-Notes","ML-Course-Notes","🎓 Sharing machine learning course \u002F lecture notes.","ML-Course-Notes 是一个专注于机器学习、自然语言处理及人工智能领域的开源笔记协作平台。它致力于解决学习者在研读高质量课程时面临的资料分散、笔记难以共享以及复习效率低等痛点。通过汇聚全球学习者的智慧，该项目将吴恩达（Andrew Ng）的“机器学习专项课程”和麻省理工学院（MIT）的“深度学习导论”等顶尖教程的核心内容，整理成结构清晰、易于查阅的数字化笔记。\n\n这里不仅提供了课程视频的直接链接，更关键的是分享了由社区成员精心编写的详细学习笔记，涵盖了从监督学习、神经网络基础到 Transformer 架构、计算机视觉及生成式模型等前沿主题。部分笔记虽标记为“正在完善中”，但已发布的内容展现了极高的专业度与逻辑性。\n\nML-Course-Notes 特别适合 AI 领域的初学者、在校学生、开发者以及希望系统巩固理论基础的研究人员使用。对于想要快速掌握课程精髓或寻找复习提纲的用户而言，它是一个极佳的辅助资源。其独特的亮点在于采用开放协作模式，让笔记随着社区贡献不断迭代更新，打破了传统单向学习的局限，营造出共同进步的学术氛围。无论你是刚入门的小白还是资深从业者，都能在这里找到有价","ML-Course-Notes 是一个专注于机器学习、自然语言处理及人工智能领域的开源笔记协作平台。它致力于解决学习者在研读高质量课程时面临的资料分散、笔记难以共享以及复习效率低等痛点。通过汇聚全球学习者的智慧，该项目将吴恩达（Andrew Ng）的“机器学习专项课程”和麻省理工学院（MIT）的“深度学习导论”等顶尖教程的核心内容，整理成结构清晰、易于查阅的数字化笔记。\n\n这里不仅提供了课程视频的直接链接，更关键的是分享了由社区成员精心编写的详细学习笔记，涵盖了从监督学习、神经网络基础到 Transformer 架构、计算机视觉及生成式模型等前沿主题。部分笔记虽标记为“正在完善中”，但已发布的内容展现了极高的专业度与逻辑性。\n\nML-Course-Notes 特别适合 AI 领域的初学者、在校学生、开发者以及希望系统巩固理论基础的研究人员使用。对于想要快速掌握课程精髓或寻找复习提纲的用户而言，它是一个极佳的辅助资源。其独特的亮点在于采用开放协作模式，让笔记随着社区贡献不断迭代更新，打破了传统单向学习的局限，营造出共同进步的学术氛围。无论你是刚入门的小白还是资深从业者，都能在这里找到有价值的学习路径参考。","# 🎓 Machine Learning Course Notes\nA place to collaborate and share lecture notes on all topics related to machine learning, NLP, and AI.\n\n`WIP` denotes work in progress.\n\n---\n\n### Machine Learning Specialization (2022) \n[Website](https:\u002F\u002Fwww.coursera.org\u002Fspecializations\u002Fmachine-learning-introduction) | Instructor: Andrew Ng\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction to Machine Learning\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Supervised Machine Learning: Regression and Classification\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fmachine-learning?specialization=machine-learning-introduction\">Videos\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FCourse-1-Supervised-Machine-Learning-3a200719f58145dc8a701a2545bdf9f4\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n   \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Advanced Learning Algorithms\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Advanced Learning Algorithms\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fadvanced-learning-algorithms?specialization=machine-learning-introduction\">Videos\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">WIP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Unsupervised Learning, Recommenders, Reinforcement Learning\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Unsupervised Learning, Recommenders, Reinforcement Learning\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Funsupervised-learning-recommenders-reinforcement-learning?specialization=machine-learning-introduction\">Videos\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">WIP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### MIT 6.S191 Introduction to Deep Learning (2022) \n[Website](http:\u002F\u002Fintrotodeeplearning.com\u002F) | Lectures by: Alexander Amini and Ava Soleimany\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction to Deep Learning\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Basic fundamentals of neural networks and deep learning.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F7sB052Pz0sQ\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Intro-to-DL-d4929997a7a34a33a163cf40ba00360b\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">RNNs and Transformers\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Introduction to recurrent neural networks and transformers.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FQvkQ1B3FBqA\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-2-Recurrent-Neural-Networks-and-Transformers-71fb3ba2a24f4b6c8cc77281fc19cfab\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Deep Computer Vision\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Deep Neural Networks for Computer Vision.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FuapdILWYTzE\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-3-Deep-Computer-Vision-e43a17b50f7e4b5f8393c070b22340a3\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Deep Generative Modeling\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Autoencoders and GANs.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FQcLlc9lj2hk\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-4-Deep-Generative-Modeling-928d24a5764d4bf1bcf5fb4c4234f6ac\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Deep Reinforcement Learning\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Deep RL key concepts and DQNs.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F-WbN61qtTGQ\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-5-Deep-Reinforcement-Learning-8ecc8b16a5ad4fcc81b5c3ceb21608b5\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n      \n\u003C\u002Ftable>\n\n---\n\n### CMU Neural Nets for NLP (2021)\n[Website](http:\u002F\u002Fphontron.com\u002Fclass\u002Fnn4nlp2021\u002Fschedule.html) | Instructor: Graham Neubig\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction to Simple Neural Networks for NLP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Provides an introduction to neural networks for NLP covering concepts like BOW, CBOW, and Deep CBOW\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vnx6M7N-ggs&ab_channel=GrahamNeubig\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Introduction-to-Simple-Neural-Networks-for-NLP-b7afa29af56e4d47a75fbcf3b82407db\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### CS224N: Natural Language Processing with Deep Learning (2022) \n[Website](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLoROMvodv4rOSH4v6133s9LFPRHjEmbmJ) | Instructor: C‪hristopher Manning\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction and Word Vectors\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Introduction to NLP and Word Vectors.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FrmVRLeJRkl4\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Introduction-and-Word-Vectors-afdc392dd83e44faab91f7c1b8f563a0\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Neural Classifiers\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Neural Classifiers for NLP.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FgqaHkPEZAew\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Course-Notes\u002Fissues\u002F4\">WIP\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### CS25: Transformers United\n[Website](https:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs25\u002F) | Instructors: Div Garg, Chetanya Rastogi, Advay Pal\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction to Transformers\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">A short summary of attention and Transformers.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FP127jhj-8-Y\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.notion.so\u002Fdair-ai\u002FIntroduction-to-Transformers-4b869c9595b74f72b088e5f2793ece80\">Notes\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Transformers in Language: GPT-3, Codex\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">The development of GPT Models including GPT3.\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FqGkzHFllWDY\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">WIP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### Neural Networks: Zero to Hero\n[Lectures](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ) | Instructors: Andrej Karpathy\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Let's build GPT: from scratch, in code, spelled out\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Detailed walkthrough of GPT\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fwatch?v=kCc8FmEb1nY&feature=sharesY\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">WIP\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### Miscellaneous Lectures\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Lecture\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Description\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Video\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Notes\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>Author\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Introduction to Diffusion Models\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Technical overview of Diffusion Models\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">WIP\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Reinforcement Learning from Human Feedback (RLHF)\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">Overview of RLHF\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">Video\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">WIP\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n \n---\n### How To Contribute\n\n1) Identify a course and lecture from this [list](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-YouTube-Courses). If you are working on notes for a lecture, please indicate by opening an issue. This avoids duplicate work. \n2) Write your notes, preferably in a Google document, Notion document, or GitHub repo.\n3) We care about quality, so make sure to revise your notes before submitting.\n4) Once you are finished, open a PR here.\n\n\nIf you have any questions, open an issue or reach out to me on [Twitter](https:\u002F\u002Ftwitter.com\u002Fomarsar0).\n\nJoin our [Discord](https:\u002F\u002Fdiscord.gg\u002FFzNtjEK9dg). \n","# 🎓 机器学习课程笔记\n一个协作和分享与机器学习、自然语言处理及人工智能相关所有主题讲义的地方。\n\n`WIP` 表示工作正在进行中。\n\n---\n\n### 机器学习专项课程（2022年）\n[官网](https:\u002F\u002Fwww.coursera.org\u002Fspecializations\u002Fmachine-learning-introduction) | 讲师：吴恩达\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">机器学习导论\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">监督式机器学习：回归与分类\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fmachine-learning?specialization=machine-learning-introduction\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FCourse-1-Supervised-Machine-Learning-3a200719f58145dc8a701a2545bdf9f4\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n   \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">高级学习算法\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">高级学习算法\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fadvanced-learning-algorithms?specialization=machine-learning-introduction\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">WIP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">无监督学习、推荐系统、强化学习\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">无监督学习、推荐系统、强化学习\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Funsupervised-learning-recommenders-reinforcement-learning?specialization=machine-learning-introduction\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">WIP\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### MIT 6.S191 深度学习导论（2022年）\n[官网](http:\u002F\u002Fintrotodeeplearning.com\u002F) | 讲师：Alexander Amini 和 Ava Soleimany\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">深度学习导论\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">神经网络和深度学习的基本原理。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F7sB052Pz0sQ\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Intro-to-DL-d4929997a7a34a33a163cf40ba00360b\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">RNN与Transformer\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">循环神经网络和Transformer的介绍。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FQvkQ1B3FBqA\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-2-Recurrent-Neural-Networks-and-Transformers-71fb3ba2a24f4b6c8cc77281fc19cfab\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">深度计算机视觉\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">用于计算机视觉的深度神经网络。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FuapdILWYTzE\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-3-Deep-Computer-Vision-e43a17b50f7e4b5f8393c070b22340a3\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">深度生成模型\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">自编码器和GAN。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FQcLlc9lj2hk\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-4-Deep-Generative-Modeling-928d24a5764d4bf1bcf5fb4c4234f6ac\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">深度强化学习\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">深度强化学习的关键概念及DQN。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002F-WbN61qtTGQ\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-5-Deep-Reinforcement-Learning-8ecc8b16a5ad4fcc81b5c3ceb21608b5\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n      \n\u003C\u002Ftable>\n\n---\n\n### 卡内基梅隆大学 NLP中的神经网络（2021年）\n[官网](http:\u002F\u002Fphontron.com\u002Fclass\u002Fnn4nlp2021\u002Fschedule.html) | 讲师：Graham Neubig\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">NLP中简单神经网络导论\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">介绍了用于NLP的神经网络，涵盖BOW、CBOW和深度CBOW等概念\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vnx6M7N-ggs&ab_channel=GrahamNeubig\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Introduction-to-Simple-Neural-Networks-for-NLP-b7afa29af56e4d47a75fbcf3b82407db\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### CS224N：使用深度学习进行自然语言处理（2022年）\n[官网](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLoROMvodv4rOSH4v6133s9LFPRHjEmbmJ) | 讲师：Christopher Manning\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">导论与词向量\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">自然语言处理导论与词向量。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FrmVRLeJRkl4\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fdair-ai.notion.site\u002FLecture-1-Introduction-and-Word-Vectors-afdc392dd83e44faab91f7c1b8f563a0\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">神经网络分类器\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">用于NLP的神经网络分类器。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FgqaHkPEZAew\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Course-Notes\u002Fissues\u002F4\">WIP\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### CS25：Transformer大联合\n[官网](https:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs25\u002F) | 教师：Div Garg、Chetanya Rastogi、Advay Pal\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">Transformer入门\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">关于注意力机制和Transformer的简要概述。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FP127jhj-8-Y\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fwww.notion.so\u002Fdair-ai\u002FIntroduction-to-Transformers-4b869c9595b74f72b088e5f2793ece80\">笔记\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">语言中的Transformer：GPT-3、Codex\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">包括GPT3在内的GPT模型的发展历程。\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FqGkzHFllWDY\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">进行中\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### 神经网络：从零到英雄\n[讲座](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ) | 教师：Andrej Karpathy\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">让我们从头开始用代码实现GPT\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">GPT的详细讲解\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fwatch?v=kCc8FmEb1nY&feature=sharesY\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">进行中\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n\n### 其他讲座\n\n\u003Ctable class=\"tg\">\n  \u003Ctr>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>讲座\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>简介\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>视频\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>笔记\u003C\u002Fb>\u003C\u002Fth>\n    \u003Cth class=\"tg-yw4l\">\u003Cb>作者\u003C\u002Fb>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">扩散模型导论\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">扩散模型的技术概述\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">进行中\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd class=\"tg-yw4l\">基于人类反馈的强化学习（RLHF）\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">RLHF的概述\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">视频\u003Ca>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"\">进行中\u003C\u002Fa>\u003C\u002Ftd>\n    \u003Ctd class=\"tg-yw4l\">\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fomarsar0\">Elvis\u003Ca>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n---\n### 如何贡献\n\n1) 从这份[列表](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-YouTube-Courses)中选择一门课程和相应的讲座。如果你正在撰写某次讲座的笔记，请先开一个issue说明，以避免重复工作。\n2) 撰写你的笔记，建议使用Google文档、Notion文档或GitHub仓库。\n3) 我们注重质量，因此在提交之前请务必对笔记进行修订。\n4) 完成后，在这里打开一个PR。\n\n如有任何问题，请开一个issue，或通过[Twitter](https:\u002F\u002Ftwitter.com\u002Fomarsar0)联系我。\n\n加入我们的[Discord](https:\u002F\u002Fdiscord.gg\u002FFzNtjEK9dg)。","# ML-Course-Notes 快速上手指南\n\n**ML-Course-Notes** 并非一个需要安装运行的软件库或框架，而是一个由社区协作维护的**机器学习与深度学习课程笔记索引仓库**。它汇集了 Andrew Ng、MIT、CMU、Stanford 等顶尖机构课程的视频链接与高质量笔记（主要由 Elvis 整理）。\n\n开发者无需配置环境或运行代码，只需通过浏览器访问即可学习。以下是使用指南：\n\n## 1. 环境准备\n\n本项目无系统要求或前置依赖。您只需要：\n*   **设备**：电脑、平板或手机。\n*   **网络**：能够访问 GitHub、YouTube、Coursera 及 Notion 的网络环境。\n    *   *提示*：部分视频资源托管于 YouTube，国内用户可能需要网络加速工具才能观看；笔记托管于 Notion，通常可直接访问。\n*   **账号（可选）**：如果您希望贡献笔记，需要拥有 GitHub 账号以提交 Pull Request (PR)。\n\n## 2. 访问与浏览步骤\n\n由于是文档类资源，不存在“安装”过程。请按以下步骤开始学习：\n\n### 步骤一：访问主仓库\n在浏览器中打开项目主页，查看可用的课程列表：\n```text\nhttps:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Course-Notes\n```\n\n### 步骤二：选择课程与章节\n在 README 页面中，根据您的需求找到对应的课程板块（如 `Machine Learning Specialization` 或 `MIT 6.S191`）。表格中包含了以下关键信息：\n*   **Lecture**: 课程主题。\n*   **Video**: 点击链接跳转至官方视频（YouTube\u002FCoursera）。\n*   **Notes**: 点击链接跳转至详细笔记（Notion\u002FGitHub）。\n\n### 步骤三：阅读笔记\n点击 **Notes** 列中的链接。大多数笔记托管在 Notion 上，您可以直接在网页端阅读结构化的知识点总结、公式推导和代码片段。\n\n## 3. 基本使用示例\n\n假设您想学习 **Transformer** 架构，操作流程如下：\n\n1.  在仓库页面找到 **CS25: Transformers United** 或 **MIT 6.S191** 板块。\n2.  定位到 **\"Introduction to Transformers\"** 行。\n3.  点击 **Video** 链接观看斯坦福或 MIT 的讲座视频。\n4.  点击 **Notes** 链接（例如：`https:\u002F\u002Fwww.notion.so\u002Fdair-ai\u002FIntroduction-to-Transformers...`）阅读核心概念总结。\n\n## 4. 如何参与贡献（可选）\n\n如果您希望完善笔记或添加新内容，请遵循以下流程：\n\n1.  **避免重复**：检查 [ML-YouTube-Courses 列表](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-YouTube-Courses)，确认该讲座无人正在编写笔记。如有必要，在仓库中提一个 Issue 声明您的工作。\n2.  **撰写笔记**：推荐使用 Google Docs、Notion 或 GitHub Repo 编写内容。\n3.  **提交代码**：完成并校对后，向本仓库发起 Pull Request (PR)。\n    ```bash\n    # 标准 Git 工作流（如果您使用本地仓库管理笔记）\n    git clone https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Course-Notes.git\n    git checkout -b add-new-notes\n    # 添加您的笔记文件...\n    git commit -m \"Add notes for [Course Name] Lecture [X]\"\n    git push origin add-new-notes\n    ```\n4.  **社区交流**：遇到问题可加入项目的 [Discord 社区](https:\u002F\u002Fdiscord.gg\u002FFzNtjEK9dg) 或在 Twitter 联系作者 (@omarsar0)。","刚入职的算法工程师小李需要在一周内快速复现 MIT 6.S191 课程中关于 Transformer 的论文实验，以应对即将到来的技术评审。\n\n### 没有 ML-Course-Notes 时\n- **资源分散难整合**：需要在 YouTube 找视频、在课程官网找大纲、再自行搜索零散的笔记，来回切换窗口极大消耗时间。\n- **核心概念理解慢**：面对复杂的数学推导和代码实现，缺乏结构化的文字总结，仅靠观看视频难以快速抓住 RNN 与 Transformer 的关键差异。\n- **学习进度不可控**：由于缺乏清晰的章节对照表，容易遗漏“深度生成模型”等关键前置知识，导致复现代码时频繁报错却不知根源。\n- **协作交流无依据**：在与导师讨论技术细节时，因没有统一的权威笔记作为参考，沟通效率低下，常出现对术语理解不一致的情况。\n\n### 使用 ML-Course-Notes 后\n- **一站式获取资源**：直接通过 ML-Course-Notes 的表格索引，一键直达 MIT 课程对应的视频链接与 Elvis 整理的高质量 Notion 笔记，无需多方搜寻。\n- **难点解析更透彻**：借助笔记中对\"RNNs and Transformers\"章节的精炼总结，迅速理解了注意力机制的核心逻辑，将理论消化时间缩短了 60%。\n- **学习路径清晰化**：利用工具中明确的课程目录（如从基础神经网络到计算机视觉），按图索骥补齐了“深度生成模型”的知识盲区，复现过程一次成功。\n- **团队协作更高效**：直接分享 ML-Course-Notes 中的具体章节链接给导师，双方基于同一份结构化笔记进行技术对齐，评审准备时间大幅压缩。\n\nML-Course-Notes 通过将分散的全球顶尖课程资源结构化，让开发者从繁琐的信息搜集者转变为高效的知识应用者。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ML-Course-Notes_0ebe90ca.png","dair-ai","DAIR.AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdair-ai_38e7eafe.png","Democratizing Artificial Intelligence Research, Education, and Technologies",null,"dair_ai","https:\u002F\u002Fwww.dair.ai\u002F","https:\u002F\u002Fgithub.com\u002Fdair-ai",6439,857,"2026-04-04T11:15:39","NOASSERTION",1,"","未说明",{"notes":31,"python":29,"dependencies":32},"该项目并非可执行的软件工具或代码库，而是一个机器学习和人工智能课程笔记的协作与分享集合。内容主要包含指向外部视频课程（如 Coursera, YouTube）和笔记文档（如 Notion, Google Docs）的链接。因此，本项目本身没有操作系统、GPU、内存、Python 版本或依赖库的安装需求。用户仅需具备能够访问互联网和浏览网页的环境即可使用。",[],[34,35,36,37,38,39],"Agent","图像","数据工具","其他","开发框架","语言模型",[41,42,43,44,45],"machine-learning","deep-learning","ai","natural-language-processing","data-science",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T05:16:53.970185",[],[],[53,62,70,78,86,97],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":47},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[38,35,34],{"id":63,"name":64,"github_repo":65,"description_zh":66,"stars":67,"difficulty_score":46,"last_commit_at":68,"category_tags":69,"status":47},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[38,34,39],{"id":71,"name":72,"github_repo":73,"description_zh":74,"stars":75,"difficulty_score":46,"last_commit_at":76,"category_tags":77,"status":47},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[38,35,34],{"id":79,"name":80,"github_repo":81,"description_zh":82,"stars":83,"difficulty_score":46,"last_commit_at":84,"category_tags":85,"status":47},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[38,39],{"id":87,"name":88,"github_repo":89,"description_zh":90,"stars":91,"difficulty_score":46,"last_commit_at":92,"category_tags":93,"status":47},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[35,36,94,95,34,37,39,38,96],"视频","插件","音频",{"id":98,"name":99,"github_repo":100,"description_zh":101,"stars":102,"difficulty_score":59,"last_commit_at":103,"category_tags":104,"status":47},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[34,35,38,39,37]]