[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Machine-Learning-Tokyo--AI_Curriculum":3,"tool-Machine-Learning-Tokyo--AI_Curriculum":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":80,"stars":84,"forks":85,"last_commit_at":86,"license":80,"difficulty_score":46,"env_os":87,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":95,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":96,"updated_at":97,"faqs":98,"releases":99},2820,"Machine-Learning-Tokyo\u002FAI_Curriculum","AI_Curriculum","Open Deep Learning and Reinforcement Learning lectures from top Universities like Stanford, MIT, UC Berkeley.","AI_Curriculum 是一个汇聚了斯坦福、麻省理工（MIT）、加州大学伯克利分校等顶尖高校人工智能课程资源的开源项目。它系统性地整理了深度学习、强化学习、计算机视觉及自然语言处理等领域的高质量讲座视频、课件与代码笔记，旨在打破名校教育资源的壁垒，让全球学习者都能免费获取前沿的 AI 知识。\n\n对于许多渴望进入 AI 领域却苦于找不到系统、权威学习路径的用户而言，AI_Curriculum 解决了资源分散和质量参差不齐的痛点。它将原本零散的课程整合为结构清晰的“课表”，涵盖从应用机器学习基础到多任务学习、元学习等高阶主题。其中，康奈尔大学的课程尤为独特，其幻灯片直接采用可执行的 Jupyter Notebook 编写，允许用户亲手调整参数并复现图表，极大地提升了互动性与实践深度。\n\n这份资源非常适合开发者、研究人员以及希望系统提升理论功底的学生使用。无论你是想入门深度学习的新手，还是寻求进阶知识的从业者，都能在这里找到对应阶段的优质内容。通过跟随这些经过时间检验的经典课程，用户可以建立起扎实的算法基础，并获得宝贵的实战经验。","# AI Curriculum\nOpen Deep Learning and Reinforcement Learning lectures from top Universities like Stanford University, MIT, UC Berkeley.\n\n\u003C!-- toc -->\n\n## Contents\n\n- [Applied Machine Learning](#applied-machine-learning)\n  - Cornell CS5785: Applied Machine Learning | Fall 2020\n- [Introduction to Deep Learning](#introduction-to-deep-learning)\n  - UC Berkeley CS 182: Deep Learning | Spring 2021\n  - MIT 6.S191: Introduction to Deep Learning | 2020\n- [CNNs for Visual Recognition](#cnns-for-visual-recognition)\n  - CS231n: CNNs for Visual Recognition, Stanford | Spring 2019\n- [NLP with Deep Learning](#nlp-with-deep-learning)\n  - CS224n: NLP with Deep Learning, Stanford | Winter 2019\n- [Unsupervised Learning](#unsupervised-learning)\n  - CS294-158-SP20: Deep Unsupervised Learning, UC Berkeley | Spring 2020\n- [Multi-Task and Meta Learning](#multi-task-and-meta-learning)\n  - Stanford CS330: Multi-Task and Meta Learning | 2019\n- [Deep Learning (with Pytorch)](#deep-learning)\n  - DS-GA 1008: Deep Learning | Spring 2020\n- [Deep Reinforcement Learning](#deep-reinforcement-learning)\n  - CS285: Deep Reinforcement Learning, UC Berkeley | Fall 2020\n\n\n\n# Machine Learning\n\n## Applied Machine Learning\n\n### Cornell CS5785: Applied Machine Learning | Fall 2020\n\nLecture videos and resources from the Applied Machine Learning course at Cornell Tech, taught in Fall 2020. The lectures are covering ML from the very basics, including the important ML algorithms and how to apply them in practice. All materials are executable, the slides are Jupyter notebooks with programmatically generated figures. Readers can tweak parameters and regenerate the figures themselves.\n\n- [Lecture series, Youtube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83)\n- [GitHub notebooks](https:\u002F\u002Fgithub.com\u002Fkuleshov\u002Fcornell-cs5785-applied-ml)\n\nSource: Cornell\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_fdf7cb4dd389.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83)\n\n\n# Deep Learning\n\n## Introduction to Deep Learning\n\n### UC Berkeley CS 182: Deep Learning | Spring 2021\n\n- [Website](https:\u002F\u002Fcs182sp21.github.io\u002F)\n- [Lecture series](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfVmKkQHucjPAoRtIJYt8a5A)\n\nSource: Berkeley\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_54fe3d2e76b7.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfVmKkQHucjPAoRtIJYt8a5A)\n\n\n### MIT 6.S191: Introduction to Deep Learning | 2020\n[Lecture Series](http:\u002F\u002Fintrotodeeplearning.com\u002F)\n\nMIT's introductory course on deep learning methods with applications to computer vision, natural language processing, biology, and more! Students will gain foundational knowledge of deep learning algorithms and get practical experience in building neural networks in TensorFlow. Course concludes with a project proposal competition with feedback from staff and panel of industry sponsors. Prerequisites assume calculus (i.e. taking derivatives) and linear algebra (i.e. matrix multiplication), we'll try to explain everything else along the way! Experience in Python is helpful but not necessary. Listeners are welcome!\n\nSource: MIT\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_1bc8c8552a1e.gif\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fintrotodeeplearning.com\u002F)\n\n# CNNs for Visual Recognition\n\n### CS231n: CNNs for Visual Recognition, Stanford | Spring 2019\n[Lecture Series](http:\u002F\u002Fcs231n.stanford.edu)\n\nComputer Vision has become ubiquitous in our society, with applications in search, image understanding, apps, mapping, medicine, drones, and self-driving cars. Core to many of these applications are visual recognition tasks such as image classification, localization and detection. Recent developments in neural network (aka “deep learning”) approaches have greatly advanced the performance of these state-of-the-art visual recognition systems. This course is a deep dive into details of the deep learning architectures with a focus on learning end-to-end models for these tasks, particularly image classification. During the 10-week course, students will learn to implement, train and debug their own neural networks and gain a detailed understanding of cutting-edge research in computer vision. The final assignment will involve training a multi-million parameter convolutional neural network and applying it on the largest image classification dataset (ImageNet). We will focus on teaching how to set up the problem of image recognition, the learning algorithms (e.g. backpropagation), practical engineering tricks for training and fine-tuning the networks and guide the students through hands-on assignments and a final course project. Much of the background and materials of this course will be drawn from the ImageNet Challenge.\n\nSource: Stanford\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_8ff8490d1257.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fcs231n.stanford.edu)\n\n# NLP with Deep Learning\n\n### CS224n: NLP with Deep Learning, Stanford | Winter 2019\n[Lecture Series](http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002Findex.html#schedule)\n\nNatural language processing (NLP) is a crucial part of artificial intelligence (AI), modeling how people share information. In recent years, deep learning approaches have obtained very high performance on many NLP tasks. In this course, students gain a thorough introduction to cutting-edge neural networks for NLP.\n\nSource: Stanford\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_fa0a600a00b8.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002Findex.html#schedule)\n\n# Unsupervised Learning\n\n### CS294-158-SP20: Deep Unsupervised Learning, UC Berkeley | Spring 2020\n[Lecture Series, YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLwRJQ4m4UJjPiJP3691u-qWwPGVKzSlNP)\n\nThis course covers two areas of deep learning in which labeled data is not required: Deep Generative Models and Self-supervised Learning. Recent advances in generative models have made it possible to realistically model high-dimensional raw data such as natural images, audio waveforms and text corpora. Strides in self-supervised learning have started to close the gap between supervised representation learning and unsupervised representation learning in terms of fine-tuning to unseen tasks. This course will cover the theoretical foundations of these topics as well as their newly enabled applications.\n\n- Source: [UC Berkeley](https:\u002F\u002Fsites.google.com\u002Fview\u002Fberkeley-cs294-158-sp20\u002Fhome)\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_4c69d81fa8b3.png\" width=\"600\">\u003C\u002Fp>](https:\u002F\u002Fsites.google.com\u002Fview\u002Fberkeley-cs294-158-sp20\u002Fhome)\n\n\n# Multi-Task and Meta Learning\n\n### Stanford CS330: Multi-Task and Meta Learning | 2019\n[Lecture Series, YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5)\n\nWhile deep learning has achieved remarkable success in supervised and reinforcement learning problems, such as image classification, speech recognition, and game playing, these models are, to a large degree, specialized for the single task they are trained for. This course will cover the setting where there are multiple tasks to be solved, and study how the structure arising from multiple tasks can be leveraged to learn more efficiently or effectively. This includes:\n\n- goal-conditioned reinforcement learning techniques that leverage the structure of the provided goal space to learn many tasks significantly faster\n- meta-learning methods that aim to learn efficient learning algorithms that can learn new tasks quickly\n- curriculum and lifelong learning, where the problem requires learning a sequence of tasks, leveraging their shared structure to enable knowledge transfer\n\nSource: [Stanford University CS330](http:\u002F\u002Fcs330.stanford.edu\u002F)\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_d0b0d561167b.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fcs330.stanford.edu\u002F)\n\n### DS-GA 1008: Deep Learning | SPRING 2020\n[Lecture Series](https:\u002F\u002Fatcold.github.io\u002Fpytorch-Deep-Learning\u002F)\n\nThis course concerns the latest techniques in deep learning and representation learning, focusing on supervised and unsupervised deep learning, embedding methods, metric learning, convolutional and recurrent nets, with applications to computer vision, natural language understanding, and speech recognition. The lectures are taught by Yann LeCun and the entire lecture series is also available as a YouTube Playlist officially provided by them at [https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLLHTzKZzVU9eaEyErdV26ikyolxOsz6mq](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLLHTzKZzVU9eaEyErdV26ikyolxOsz6mq).\n\nSource: NYU Center for Data Science\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_5944210df99a.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fatcold.github.io\u002Fpytorch-Deep-Learning\u002F)\n\n# Deep Reinforcement Learning\n\n### CS285: Deep Reinforcement Learning, UC Berkeley | Fall 2020\n[Lecture Series, YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfURIIhCrlt-wj9ByIVpbfGc)\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_b7ec4767a0f4.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfURIIhCrlt-wj9ByIVpbfGc)\n\n","# 人工智能课程\n来自斯坦福大学、麻省理工学院、加州大学伯克利分校等顶尖高校的深度学习和强化学习公开讲座。\n\n\u003C!-- 目录 -->\n\n## 内容\n\n- [应用机器学习](#applied-machine-learning)\n  - 康奈尔大学CS5785：应用机器学习 | 2020年秋季\n- [深度学习导论](#introduction-to-deep-learning)\n  - 加州大学伯克利分校CS 182：深度学习 | 2021年春季\n  - 麻省理工学院6.S191：深度学习导论 | 2020年\n- [用于视觉识别的卷积神经网络](#cnns-for-visual-recognition)\n  - 斯坦福大学CS231n：用于视觉识别的卷积神经网络，2019年春季\n- [基于深度学习的自然语言处理](#nlp-with-deep-learning)\n  - 斯坦福大学CS224n：基于深度学习的自然语言处理，2019年冬季\n- [无监督学习](#unsupervised-learning)\n  - 加州大学伯克利分校CS294-158-SP20：深度无监督学习，2020年春季\n- [多任务与元学习](#multi-task-and-meta-learning)\n  - 斯坦福大学CS330：多任务与元学习 | 2019年\n- [深度学习（使用PyTorch）](#deep-learning)\n  - 纽约大学DS-GA 1008：深度学习 | 2020年春季\n- [深度强化学习](#deep-reinforcement-learning)\n  - 加州大学伯克利分校CS285：深度强化学习，2020年秋季\n\n\n\n# 机器学习\n\n## 应用机器学习\n\n### 康奈尔大学CS5785：应用机器学习 | 2020年秋季\n\n康奈尔科技学院2020年秋季开设的应用机器学习课程的讲座视频及资源。该课程从最基础的内容讲起，涵盖重要的机器学习算法及其实际应用方法。所有材料均可运行，幻灯片均为Jupyter笔记本，其中的图表由程序自动生成。读者可以自行调整参数并重新生成图表。\n\n- [讲座系列，YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83)\n- [GitHub笔记本](https:\u002F\u002Fgithub.com\u002Fkuleshov\u002Fcornell-cs5785-applied-ml)\n\n来源：康奈尔大学\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_fdf7cb4dd389.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83)\n\n\n# 深度学习\n\n## 深度学习导论\n\n### 加州大学伯克利分校CS 182：深度学习 | 2021年春季\n\n- [网站](https:\u002F\u002Fcs182sp21.github.io\u002F)\n- [讲座系列](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfVmKkQHucjPAoRtIJYt8a5A)\n\n来源：伯克利大学\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_54fe3d2e76b7.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfVmKkQHucjPAoRtIJYt8a5A)\n\n\n### 麻省理工学院6.S191：深度学习导论 | 2020年\n[讲座系列](http:\u002F\u002Fintrotodeeplearning.com\u002F)\n\n麻省理工学院关于深度学习方法的入门课程，内容涉及计算机视觉、自然语言处理、生物学等领域！学生将掌握深度学习算法的基础知识，并通过TensorFlow实践构建神经网络。课程最后设有项目提案竞赛，由教师团队和行业赞助商组成的评审团进行点评。先修要求包括微积分（如求导）和线性代数（如矩阵乘法），其他内容将在课程中逐步讲解。具备Python编程经验者更佳，但非必需。欢迎所有听众！\n\n来源：麻省理工学院\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_1bc8c8552a1e.gif\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fintrotodeeplearning.com\u002F)\n\n# 用于视觉识别的卷积神经网络\n\n### 斯坦福大学CS231n：用于视觉识别的卷积神经网络，2019年春季\n[讲座系列](http:\u002F\u002Fcs231n.stanford.edu)\n\n计算机视觉在现代社会已十分普及，广泛应用于搜索、图像理解、各类应用程序、地图绘制、医学、无人机以及自动驾驶汽车等领域。这些应用的核心任务之一便是视觉识别，包括图像分类、定位和检测等。近年来，基于神经网络（即“深度学习”）的方法极大地提升了这些先进视觉识别系统的性能。本课程深入探讨深度学习架构的细节，重点在于端到端模型的学习，尤其是图像分类任务。在为期10周的课程中，学生将学习如何实现、训练和调试自己的神经网络，并深入了解计算机视觉领域的前沿研究。最终作业将要求训练一个拥有数百万参数的卷积神经网络，并将其应用于最大的图像分类数据集（ImageNet）。我们将着重讲解如何设定图像识别问题、学习算法（如反向传播）、训练和调优网络的实用工程技巧，并指导学生完成动手实践任务及期末项目。本课程的许多背景知识和材料均来源于ImageNet挑战赛。\n\n来源：斯坦福大学\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_8ff8490d1257.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fcs231n.stanford.edu)\n\n# 基于深度学习的自然语言处理\n\n### 斯坦福大学CS224n：基于深度学习的自然语言处理，2019年冬季\n[讲座系列](http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002Findex.html#schedule)\n\n自然语言处理（NLP）是人工智能（AI）的重要组成部分，用于模拟人类的信息交流方式。近年来，深度学习方法在许多NLP任务上取得了卓越成果。在本课程中，学生将全面了解用于NLP的前沿神经网络技术。\n\n来源：斯坦福大学\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_fa0a600a00b8.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002Findex.html#schedule)\n\n# 无监督学习\n\n### 加州大学伯克利分校CS294-158-SP20：深度无监督学习，2020年春季\n[讲座系列，YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLwRJQ4m4UJjPiJP3691u-qWwPGVKzSlNP)\n\n本课程涵盖深度学习中两种无需标注数据的领域：深度生成模型和自监督学习。近年来，生成模型的快速发展使得真实地建模高维原始数据成为可能，例如自然图像、音频波形和文本语料库。而自监督学习的进步则开始缩小有监督表示学习与无监督表示学习之间在适应未见任务方面的差距。本课程将介绍这些主题的理论基础以及它们所催生的新应用。\n\n- 来源：[加州大学伯克利分校](https:\u002F\u002Fsites.google.com\u002Fview\u002Fberkeley-cs294-158-sp20\u002Fhome)\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_4c69d81fa8b3.png\" width=\"600\">\u003C\u002Fp>](https:\u002F\u002Fsites.google.com\u002Fview\u002Fberkeley-cs294-158-sp20\u002Fhome)\n\n\n# 多任务与元学习\n\n### 斯坦福CS330：多任务学习与元学习 | 2019年\n[系列讲座，YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5)\n\n尽管深度学习在监督学习和强化学习任务中取得了显著成果，例如图像分类、语音识别和游戏博弈等，但这些模型在很大程度上仍局限于其训练的单一任务。本课程将探讨需要解决多个任务的情形，并研究如何利用多任务之间的结构来更高效或更有效地进行学习。具体内容包括：\n\n- 基于目标条件的强化学习技术，通过利用给定目标空间的结构，显著加快对多个任务的学习速度；\n- 元学习方法，旨在学习能够快速适应新任务的高效学习算法；\n- 课程学习与终身学习，即在需要依次学习一系列任务的情况下，利用这些任务间的共享结构实现知识迁移。\n\n来源：斯坦福大学CS330课程\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_d0b0d561167b.png\" width=\"600\">\u003C\u002Fp>](http:\u002F\u002Fcs330.stanford.edu\u002F)\n\n### DS-GA 1008：深度学习 | 2020年春季\n[系列讲座](https:\u002F\u002Fatcold.github.io\u002Fpytorch-Deep-Learning\u002F)\n\n本课程聚焦深度学习与表示学习领域的最新技术，重点讲解监督与非监督深度学习、嵌入方法、度量学习、卷积神经网络及循环神经网络，并探讨其在计算机视觉、自然语言理解以及语音识别中的应用。授课教师为Yann LeCun，整套讲座也以官方YouTube播放列表的形式提供，链接为：[https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLLHTzKZzVU9eaEyErdV26ikyolxOsz6mq](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLLHTzKZzVU9eaEyErdV26ikyolxOsz6mq)。\n\n来源：纽约大学数据科学中心\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_5944210df99a.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fatcold.github.io\u002Fpytorch-Deep-Learning\u002F)\n\n# 深度强化学习\n\n### CS285：深度强化学习，加州大学伯克利分校 | 2020年秋季\n[系列讲座，YouTube](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfURIIhCrlt-wj9ByIVpbfGc)\n\n[\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_readme_b7ec4767a0f4.png\" width=\"800\">\u003C\u002Fp>](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfURIIhCrlt-wj9ByIVpbfGc)","# AI_Curriculum 快速上手指南\n\n**工具简介**  \nAI_Curriculum 并非一个需要安装的软件包，而是一个由顶级高校（如斯坦福、MIT、伯克利等）的深度学习与强化学习公开课组成的精选课程清单。本指南将帮助你快速访问并利用这些高质量的学习资源。\n\n## 环境准备\n\n由于本项目主要是课程链接和笔记集合，无需复杂的系统环境，但为了运行部分课程提供的可执行代码（如 Jupyter Notebook），建议准备以下环境：\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux 均可\n*   **前置依赖**：\n    *   Python 3.8+\n    *   Git（用于克隆代码仓库）\n    *   Jupyter Lab \u002F Notebook\n    *   深度学习框架：PyTorch 或 TensorFlow（根据具体课程要求）\n*   **网络环境**：\n    *   部分视频托管于 YouTube，国内访问可能需要网络加速工具。\n    *   部分课程网站（如 Stanford CS231n）加载较慢，建议耐心等候或使用浏览器翻译插件辅助阅读。\n\n## 安装步骤\n\n你不需要通过 `pip` 安装此工具，只需克隆仓库获取课程笔记和索引，或直接访问在线链接。\n\n### 1. 克隆项目仓库\n打开终端，执行以下命令获取所有课程的 Notebook 代码和资源索引：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FMachine-Learning-Tokyo\u002FAI_Curriculum.git\ncd AI_Curriculum\n```\n\n### 2. 配置 Python 环境（以 Cornell CS5785 为例）\n部分课程（如康奈尔大学的 Applied Machine Learning）提供了可执行的 Jupyter Notebook。进入对应目录并安装依赖：\n\n```bash\n# 进入康奈尔课程笔记目录\ncd cornell-cs5785-applied-ml\n\n# 创建虚拟环境\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户请使用: venv\\Scripts\\activate\n\n# 安装依赖 (具体要求请参考各课程目录下的 requirements.txt)\npip install -r requirements.txt\n```\n\n> **提示**：不同课程的依赖包不同，请进入具体课程文件夹查看对应的 `requirements.txt` 或 `README` 文件进行安装。\n\n## 基本使用\n\n### 方式一：直接在线观看视频\n这是最快捷的学习方式。根据你想学习的领域，点击对应的播放列表链接：\n\n*   **机器学习基础**: [Cornell CS5785 (YouTube)](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83)\n*   **深度学习入门**: \n    *   [UC Berkeley CS 182](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfVmKkQHucjPAoRtIJYt8a5A)\n    *   [MIT 6.S191](http:\u002F\u002Fintrotodeeplearning.com\u002F)\n*   **计算机视觉 (CNN)**: [Stanford CS231n](http:\u002F\u002Fcs231n.stanford.edu)\n*   **自然语言处理 (NLP)**: [Stanford CS224n](http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002Findex.html#schedule)\n*   **无监督学习**: [UC Berkeley Deep Unsupervised Learning](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLwRJQ4m4UJjPiJP3691u-qWwPGVKzSlNP)\n*   **多任务与元学习**: [Stanford CS330](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5)\n*   **强化学习**: [UC Berkeley CS285](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PL_iWQOsE6TfURIIhCrlt-wj9ByIVpbfGc)\n\n### 方式二：本地运行交互式笔记\n以康奈尔大学的应用机器学习课程为例，启动 Jupyter 并修改参数重新生成图表：\n\n```bash\n# 确保已在对应虚拟环境中\njupyter notebook\n```\n\n1.  在浏览器打开的界面中，导航至 `lectures` 文件夹。\n2.  选择任意 `.ipynb` 文件（例如 `01_intro.ipynb`）。\n3.  修改代码单元格中的超参数。\n4.  点击 `Run` 按钮，观察模型训练结果和生成的图表变化。\n\n### 推荐学习路径\n1.  **初学者**：从 **MIT 6.S191** 或 **UC Berkeley CS 182** 开始，建立深度学习直觉。\n2.  **进阶专项**：\n    *   视觉方向必修 **Stanford CS231n**。\n    *   NLP 方向必修 **Stanford CS224n**。\n3.  **高阶研究**：学习 **UC Berkeley 无监督学习** 或 **Stanford 元学习** 课程。","某初创公司的算法工程师小李，需要在两周内为医疗影像项目构建一个高精度的肺部结节检测模型，但他对最新的卷积神经网络架构和训练技巧掌握不足。\n\n### 没有 AI_Curriculum 时\n- **资源分散难筛选**：需要在海量网络教程中盲目搜索斯坦福、MIT 等名校课程，难以辨别内容的新旧与权威性，浪费大量调研时间。\n- **理论与实践脱节**：找到的视频讲座往往缺乏配套代码，看懂了数学推导却无法在 PyTorch 或 TensorFlow 中复现模型，陷入“眼高手低”的困境。\n- **知识体系碎片化**：零散学习的知识点（如数据增强、损失函数优化）缺乏系统性串联，导致模型调优时不知道从何下手，实验失败率高。\n- **前沿技术滞后**：无法及时获取关于无监督学习或元学习等前沿领域的系统讲解，只能使用过时的基线模型，难以满足项目性能指标。\n\n### 使用 AI_Curriculum 后\n- **一站式权威导航**：直接通过 AI_Curriculum 定位到斯坦福 CS231n（视觉识别）和伯克利 CS285（深度强化学习）等顶级课程，瞬间获得经过验证的高质量学习路径。\n- **可执行代码复用**：利用康奈尔 CS5785 等课程提供的 Jupyter Notebook 源码，直接修改参数生成可视化图表，快速将理论转化为可运行的检测算法。\n- **系统化技能构建**：按照从基础深度学习到多任务学习的目录结构循序渐进，建立起完整的知识框架，能迅速诊断并解决模型不收敛的具体问题。\n- **紧跟学术前沿**：通过伯克利深度无监督学习等最新课程，引入先进的半监督训练策略，显著提升了在小样本医疗数据上的模型泛化能力。\n\nAI_Curriculum 将全球顶尖高校的 AI 教育资源整合为可执行的实战指南，让开发者能以最低成本站在巨人的肩膀上快速落地复杂算法。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMachine-Learning-Tokyo_AI_Curriculum_898fd03d.png","Machine-Learning-Tokyo","Machine Learning Tokyo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMachine-Learning-Tokyo_f4c33abc.png","Democratizing Machine Learning.",null,"suzana@mltokyo.ai","mltokyo.com","https:\u002F\u002Fgithub.com\u002FMachine-Learning-Tokyo",2565,394,"2026-03-31T23:31:47","","未说明",{"notes":90,"python":91,"dependencies":92},"该仓库主要是一个课程资源索引（包含视频链接和外部代码库链接），本身不包含可直接运行的核心代码，因此没有具体的系统环境、GPU 或内存硬性要求。具体环境需求需参考各大学课程对应的独立 GitHub 仓库（如 Cornell CS5785, Stanford CS231n 等）。部分课程（如 MIT 6.S191）使用 TensorFlow，部分（如 DS-GA 1008）使用 PyTorch。建议具备微积分和线性代数基础。","有帮助但非必需（针对 MIT 课程）",[93,94],"TensorFlow","PyTorch",[18],"2026-03-27T02:49:30.150509","2026-04-06T05:15:06.916103",[],[]]