[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lijin-THU--notes-machine-learning":3,"tool-lijin-THU--notes-machine-learning":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75489,"2026-04-13T11:13:28",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":80,"owner_website":80,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":80,"difficulty_score":29,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":99,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":100,"updated_at":101,"faqs":102,"releases":103},7163,"lijin-THU\u002Fnotes-machine-learning","notes-machine-learning","鉴于我没有时间继续写这个东西，这个项目暂时废止","notes-machine-learning 是一份基于 Jupyter Notebook 编写的机器学习学习笔记合集，由作者李金整理分享。它主要解决了机器学习初学者在研读经典教材时面临的理论抽象、代码复现困难等痛点。内容体系严谨，第一部分深度解读了 Christopher Bishop 的经典著作《模式识别与机器学习》（PRML），涵盖概率论基础、模型选择、决策理论及信息论等核心概念；第二部分则延伸至 Yoshua Bengio 的《深度学习》前沿内容。\n\n该项目最大的技术亮点在于“交互式学习”体验。所有笔记均以 `.ipynb` 格式呈现，将数学推导、原理讲解与可执行的 Python 代码完美结合。用户不仅可以阅读文字和公式，还能直接运行代码观察多项式拟合、高斯分布等算法的实际效果，从而更直观地理解复杂的数学逻辑。虽然作者已暂停更新，但其现存内容依然极具价值。\n\nnotes-machine-learning 非常适合高校学生、人工智能研究人员以及希望夯实理论基础的开发者使用。对于想要系统掌握机器学习底层逻辑，而不只是调用现成库的进阶学习者来说，这是一份不可多得的开源参考资料。建议通","notes-machine-learning 是一份基于 Jupyter Notebook 编写的机器学习学习笔记合集，由作者李金整理分享。它主要解决了机器学习初学者在研读经典教材时面临的理论抽象、代码复现困难等痛点。内容体系严谨，第一部分深度解读了 Christopher Bishop 的经典著作《模式识别与机器学习》（PRML），涵盖概率论基础、模型选择、决策理论及信息论等核心概念；第二部分则延伸至 Yoshua Bengio 的《深度学习》前沿内容。\n\n该项目最大的技术亮点在于“交互式学习”体验。所有笔记均以 `.ipynb` 格式呈现，将数学推导、原理讲解与可执行的 Python 代码完美结合。用户不仅可以阅读文字和公式，还能直接运行代码观察多项式拟合、高斯分布等算法的实际效果，从而更直观地理解复杂的数学逻辑。虽然作者已暂停更新，但其现存内容依然极具价值。\n\nnotes-machine-learning 非常适合高校学生、人工智能研究人员以及希望夯实理论基础的开发者使用。对于想要系统掌握机器学习底层逻辑，而不只是调用现成库的进阶学习者来说，这是一份不可多得的开源参考资料。建议通过 Nbviewer 在线查看以获得最佳阅读体验。","\n# 机器学习笔记\n\n## 简介\n\n> 作者：李金 \u003Cbr>\n> 版本：0.0.1\u003Cbr>\n> 邮件：lijinwithyou@gmail.com\n\n机器学习笔记，使用 `jupyter notebook (ipython notebook)` 进行展示。\n\n`Github` 加载 `.ipynb` 的速度较慢，建议在 [Nbviewer](http:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002Flijin-THU\u002Fnotes-machine-learning\u002Fblob\u002Fmaster\u002FReadMe.ipynb) 中查看该项目。\n\n----\n\n## 目录\n\n第一部分来自 `Bishop` 的经典书籍 `Pattern Recognition and Machine Learning`。\n\n第二部分来自 `Bengio` 的最新书籍 `Deep Learning`。\n\n### 第一部分 PRML 笔记\n\n- [1. 简介](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction)\n    - [1.1. 例子：多项式拟合](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-01-Example-Polynomial-Curve-Fitting.ipynb)\n    - [1.2. 概率论](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb)\n        - [1.2.1. 概率密度函数](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.1-概率密度函数)\n        - [1.2.2. 期望和方差](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.2-期望和方差)\n        - [1.2.3. Bayes 概率](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.3-Bayes-概率)\n        - [1.2.4. 高斯分布](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.4-高斯分布)\n        - [1.2.5. 重新理解曲线拟合](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.5-重新理解曲线拟合)\n        - [1.2.6. Bayes 曲线拟合](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-02-Probability-Theory.ipynb#1.2.6-Bayes-曲线拟合)\n    - [1.3. 模型选择](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-03-Model-Selection.ipynb)\n    - [1.4. 维数灾难](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-04-The-Curse-of-Dimensionality.ipynb)\n    - [1.5. 决策理论](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb)\n        - [1.5.1. 最小错误率决策](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb#1.5.1-最小错误率决策)\n        - [1.5.2. 最小风险决策](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb#1.5.2-最小风险决策)\n        - [1.5.3. 拒绝选项](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb#1.5.3-拒绝选项)\n        - [1.5.4. 推断和决策](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb#1.5.4-推断和决策)\n        - [1.5.5. 回归问题的损失函数](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-05-Decision-Theory.ipynb#1.5.5-回归问题的损失函数)\n    - [附录 D 变分法](Pattern-Recognition-and-Machine-Learning\u002FAppendix\u002FAppendix-D-Calculus-of-Variations.ipynb)\n    - [1.6. 信息论](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-06-Information-Theory.ipynb)\n        - [1.6.1. 相对熵和互信息](Pattern-Recognition-and-Machine-Learning\u002FChap-01-Introduction\u002F01-06-Information-Theory.ipynb#1.6.1-相对熵和互信息)\n    - [附录 E Lagrange 乘子](Pattern-Recognition-and-Machine-Learning\u002FAppendix\u002FAppendix-E-Lagrange-Multipliers.ipynb)\n- [2. 概率分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions)\n    - [2.1. 二元变量](PRML\u002FChap-02-Probability-Distributions\u002F02-01-Binary-Variables.ipynb)\n        - [2.1.1. Beta 分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-01-Binary-Variables.ipynb#2.1.1-Beta-分布)\n    - [2.2. 多元变量](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-02-Multinomial-Variables.ipynb)\n        - [2.2.1. 狄利克雷分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-02-Multinomial-Variables.ipynb#2.2.1-狄利克雷分布)\n    - [2.3. 高斯分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb)\n        - [2.3.1. 条件高斯分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.1-条件高斯分布)\n        - [2.3.2. 边缘高斯分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.2-边缘高斯分布)\n        - [2.3.3. 高斯变量的贝叶斯理论](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.3-高斯变量的贝叶斯理论)\n        - [2.3.4. 高斯分布最大似然](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.4-高斯分布最大似然)\n        - [2.3.5. 序列估计](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.5-序列估计)\n        - [2.3.6. 高斯分布的贝叶斯估计](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.6-高斯分布的贝叶斯估计)\n        - [2.3.7. 学生 t 分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.7-学生-t-分布)\n        - [2.3.8. 周期变量和 von Mises 分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.8-周期变量和-von-Mises-分布)\n        - [2.3.9. 高斯混合模型](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-03-The-Gaussian-Distribution.ipynb#2.3.9-高斯混合模型)\n    - [2.4. 指数族分布](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-04-The-Exponential-Family.ipynb)\n        - [2.4.1. 最大似然和充分统计量](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-04-The-Exponential-Family.ipynb#2.4.1-最大似然和充分统计量)\n        - [2.4.2. 共轭先验](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-04-The-Exponential-Family.ipynb#2.4.2-共轭先验)\n        - [2.4.3. 无信息先验](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-04-The-Exponential-Family.ipynb#2.4.3-无信息先验)\n    - [2.5. 非参数方法](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-05-Nonparametric-Methods.ipynb)\n        - [2.5.1. 核密度估计量](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-05-Nonparametric-Methods.ipynb#2.5.1-核密度估计量)\n        - [2.5.2. 近邻方法](Pattern-Recognition-and-Machine-Learning\u002FChap-02-Probability-Distributions\u002F02-05-Nonparametric-Methods.ipynb#2.5.2-近邻方法)\n- [3. 线性回归模型](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression)        \n    - [3.1. 线性基函数回归模型](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb)\n        - [3.1.1. 最大似然和最小二乘](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb#3.1.1-最大似然和最小二乘)\n        - [3.1.2. 最小二乘的几何表示](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb#3.1.2-最小二乘的几何表示)\n        - [3.1.3. 序贯学习](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb#3.1.3-序贯学习)\n        - [3.1.4. 带正则的最小二乘](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb#3.1.4-带正则的最小二乘)\n        - [3.1.5. 多维输出](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-01-Linear-Basis-Function-Models.ipynb#3.1.5-多维输出)\n    - [3.2 Bias-Variance 分解](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-02-The-Bias-Variance-Decomposition.ipynb)\n    - [3.3 Bayes 线性回归](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-03-Bayesian-Linear-Regression.ipynb)\n        - [3.3.1. 参数的分布](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-03-Bayesian-Linear-Regression.ipynb#3.3.1-参数的分布)\n        - [3.3.2. 预测值的分布](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-03-Bayesian-Linear-Regression.ipynb#3.3.2-预测值的分布)\n        - [3.3.3. 等价核](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-03-Bayesian-Linear-Regression.ipynb#3.3.3-等价核)\n    - [3.4 贝叶斯模型的比较](Pattern-Recognition-and-Machine-Learning\u002FChap-03-Linear-Models-for-Regression\u002F03-04-Bayesian-Model-Comparison.ipynb)\n- [4. 线性分类模型](Pattern-Recognition-and-Machine-Learning\u002FChap-04-Linear-Models-for-Classification)\n    - [4.1 判别函数](Pattern-Recognition-and-Machine-Learning\u002FChap-04-Linear-Models-for-Classification\u002F04-01-Discriminant-Functions.ipynb)\n\n### 第二部分 DP 笔记\n\n- [I 数学和机器学习基础](Deep-Learning\u002FPart-I)\n    - [2. 线性代数](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra)\n        - [2.1 标量，向量，矩阵和张量](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-01-Scalars-Vectors-Matrices-and-Tensors.ipynb)\n        - [2.2 矩阵乘法](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-02-Multiplying-Matrices-and-Vectors.ipynb)\n        - [2.2 单位矩阵和逆](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-03-Identity-and-Inverse-Matrices.ipynb)\n        - [2.4 线性无关和生成空间](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-04-Linear-Dependence-and-Span.ipynb)\n        - [2.5 范数](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-05-Norms.ipynb)\n        - [2.6 特殊矩阵和向量](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-06-Special-Kinds-of-Matrices-and-Vectors.ipynb)\n        - [2.7 特征值分解](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-07-Eigendecomposition.ipynb)\n        - [2.8 奇异值分解](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-08-Singular-Value-Decomposition.ipynb)\n        - [2.9 Moore-Penrose 伪逆](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-09-The-Moore-Penrose-Pseudoinverse.ipynb)\n        - [2.10 矩阵的迹](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-10-The-Trace-Operator.ipynb)\n        - [2.11 行列式](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-11-The-Determinant.ipynb)\n        - [2.12 例子：主成分分析](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-12-Example-Principal-Components-Analysis.ipynb)\n\n----\n\n## 参考资料和文献：\n\n[1] Christopher, M. Bishop. \"Pattern recognition and machine learning.\" Company New York 16.4 (2006): 049901.\n\n[2] Goodfellow I, Bengio Y, Courville A. Deep learning[J]. 2015, 2016.\n","# 机器学习笔记\n\n## 简介\n\n> 作者：李金 \u003Cbr>\n> 版本：0.0.1\u003Cbr>\n> 邮件：lijinwithyou@gmail.com\n\n机器学习笔记，使用 `jupyter notebook (ipython notebook)` 进行展示。\n\n`Github` 加载 `.ipynb` 的速度较慢，建议在 [Nbviewer](http:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002Flijin-THU\u002Fnotes-machine-learning\u002Fblob\u002Fmaster\u002FReadMe.ipynb) 中查看该项目。\n\n----\n\n## 目录\n\n第一部分来自 `Bishop` 的经典书籍 `Pattern Recognition and Machine Learning`。\n\n第二部分来自 `Bengio` 的最新书籍 `Deep Learning`。\n\n### 第一部分 PRML 笔记\n\n- [1. 简介](模式识别与机器学习\u002F第01章-简介)\n    - [1.1. 例子：多项式拟合](模式识别与机器学习\u002F第01章-简介\u002F01-01-多项式曲线拟合.ipynb)\n    - [1.2. 概率论](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb)\n        - [1.2.1. 概率密度函数](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.1-概率密度函数)\n        - [1.2.2. 期望和方差](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.2-期望和方差)\n        - [1.2.3. 贝叶斯概率](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.3-贝叶斯概率)\n        - [1.2.4. 高斯分布](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.4-高斯分布)\n        - [1.2.5. 重新理解曲线拟合](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.5-重新理解曲线拟合)\n        - [1.2.6. 贝叶斯曲线拟合](模式识别与机器学习\u002F第01章-简介\u002F01-02-概率论.ipynb#1.2.6-贝叶斯曲线拟合)\n    - [1.3. 模型选择](模式识别与机器学习\u002F第01章-简介\u002F01-03-模型选择.ipynb)\n    - [1.4. 维数灾难](模式识别与机器学习\u002F第01章-简介\u002F01-04-维数灾难.ipynb)\n    - [1.5. 决策理论](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb)\n        - [1.5.1. 最小错误率决策](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb#1.5.1-最小错误率决策)\n        - [1.5.2. 最小风险决策](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb#1.5.2-最小风险决策)\n        - [1.5.3. 拒绝选项](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb#1.5.3-拒绝选项)\n        - [1.5.4. 推断和决策](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb#1.5.4-推断和决策)\n        - [1.5.5. 回归问题的损失函数](模式识别与机器学习\u002F第01章-简介\u002F01-05-决策理论.ipynb#1.5.5-回归问题的损失函数)\n    - [附录 D 变分法](模式识别与机器学习\u002F附录\u002F附录-D-变分法.ipynb)\n    - [1.6. 信息论](模式识别与机器学习\u002F第01章-简介\u002F01-06-信息论.ipynb)\n        - [1.6.1. 相对熵和互信息](模式识别与机器学习\u002F第01章-简介\u002F01-06-信息论.ipynb#1.6.1-相对熵和互信息)\n    - [附录 E Lagrange 乘子](模式识别与机器学习\u002F附录\u002F附录-E-Lagrange-乘子.ipynb)\n- [2. 概率分布](模式识别与机器学习\u002F第02章-概率分布)\n    - [2.1. 二元变量](PRML\u002F第02章-概率分布\u002F02-01-二元变量.ipynb)\n        - [2.1.1. Beta 分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-01-二元变量.ipynb#2.1.1-Beta-分布)\n    - [2.2. 多元变量](模式识别与机器学习\u002F第02章-概率分布\u002F02-02-多项式变量.ipynb)\n        - [2.2.1. 狄利克雷分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-02-多项式变量.ipynb#2.2.1-狄利克雷分布)\n    - [2.3. 高斯分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb)\n        - [2.3.1. 条件高斯分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.1-条件高斯分布)\n        - [2.3.2. 边缘高斯分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.2-边缘高斯分布)\n        - [2.3.3. 高斯变量的贝叶斯理论](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.3-高斯变量的贝叶斯理论)\n        - [2.3.4. 高斯分布的最大似然估计](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.4-高斯分布的最大似然估计)\n        - [2.3.5. 序列估计](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.5-序列估计)\n        - [2.3.6. 高斯分布的贝叶斯估计](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.6-高斯分布的贝叶斯估计)\n        - [2.3.7. 学生 t 分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.7-学生-t-分布)\n        - [2.3.8. 周期变量和 von Mises 分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.8-周期变量和-von-Mises-分布)\n        - [2.3.9. 高斯混合模型](模式识别与机器学习\u002F第02章-概率分布\u002F02-03-高斯分布.ipynb#2.3.9-高斯混合模型)\n    - [2.4. 指数族分布](模式识别与机器学习\u002F第02章-概率分布\u002F02-04-指数族分布.ipynb)\n        - [2.4.1. 最大似然估计和充分统计量](模式识别与机器学习\u002F第02章-概率分布\u002F02-04-指数族分布.ipynb#2.4.1-最大似然估计和充分统计量)\n        - [2.4.2. 共轭先验](模式识别与机器学习\u002F第02章-概率分布\u002F02-04-指数族分布.ipynb#2.4.2-共轭先验)\n        - [2.4.3. 无信息先验](模式识别与机器学习\u002F第02章-概率分布\u002F02-04-指数族分布.ipynb#2.4.3-无信息先验)\n    - [2.5. 非参数方法](模式识别与机器学习\u002F第02章-概率分布\u002F02-05-非参数方法.ipynb)\n        - [2.5.1. 核密度估计量](模式识别与机器学习\u002F第02章-概率分布\u002F02-05-非参数方法.ipynb#2.5.1-核密度估计量)\n        - [2.5.2. 近邻方法](模式识别与机器学习\u002F第02章-概率分布\u002F02-05-非参数方法.ipynb#2.5.2-近邻方法)\n- [3. 线性回归模型](模式识别与机器学习\u002F第03章-用于回归的线性模型)        \n    - [3.1. 线性基函数回归模型](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb)\n        - [3.1.1. 最大似然估计和最小二乘法](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb#3.1.1-最大似然估计和最小二乘法)\n        - [3.1.2. 最小二乘法的几何表示](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb#3.1.2-最小二乘法的几何表示)\n        - [3.1.3. 顺序学习](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb#3.1.3-顺序学习)\n        - [3.1.4. 带正则化的最小二乘法](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb#3.1.4-带正则化的最小二乘法)\n        - [3.1.5. 多维输出](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-01-线性基函数模型.ipynb#3.1.5-多维输出)\n    - [3.2 偏差-方差分解](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-02-偏差-方差分解.ipynb)\n    - [3.3 贝叶斯线性回归](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-03-贝叶斯线性回归.ipynb)\n        - [3.3.1. 参数的分布](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-03-贝叶斯线性回归.ipynb#3.3.1-参数的分布)\n        - [3.3.2. 预测值的分布](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-03-贝叶斯线性回归.ipynb#3.3.2-预测值的分布)\n        - [3.3.3. 等价核](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-03-贝叶斯线性回归.ipynb#3.3.3-等价核)\n    - [3.4 贝叶斯模型的比较](模式识别与机器学习\u002F第03章-用于回归的线性模型\u002F03-04-贝叶斯模型比较.ipynb)\n- [4. 线性分类模型](模式识别与机器学习\u002F第04章-用于分类的线性模型)\n    - [4.1 判别函数](模式识别与机器学习\u002F第04章-用于分类的线性模型\u002F04-01-判别函数.ipynb)\n\n### 第二部分 深度学习笔记\n\n- [I 数学和机器学习基础](Deep-Learning\u002FPart-I)\n    - [2. 线性代数](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra)\n        - [2.1 标量、向量、矩阵和张量](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-01-Scalars-Vectors-Matrices-and-Tensors.ipynb)\n        - [2.2 矩阵乘法](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-02-Multiplying-Matrices-and-Vectors.ipynb)\n        - [2.3 单位矩阵和逆矩阵](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-03-Identity-and-Inverse-Matrices.ipynb)\n        - [2.4 线性无关与生成空间](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-04-Linear-Dependence-and-Span.ipynb)\n        - [2.5 范数](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-05-Norms.ipynb)\n        - [2.6 特殊矩阵与向量](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-06-Special-Kinds-of-Matrices-and-Vectors.ipynb)\n        - [2.7 特征值分解](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-07-Eigendecomposition.ipynb)\n        - [2.8 奇异值分解](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-08-Singular-Value-Decomposition.ipynb)\n        - [2.9 Moore-Penrose 伪逆](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-09-The-Moore-Penrose-Pseudoinverse.ipynb)\n        - [2.10 矩阵的迹](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-10-The-Trace-Operator.ipynb)\n        - [2.11 行列式](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-11-The-Determinant.ipynb)\n        - [2.12 例子：主成分分析](Deep-Learning\u002FPart-I\u002FChap-02-Linear-Algebra\u002F02-12-Example-Principal-Components-Analysis.ipynb)\n\n----\n\n## 参考资料和文献：\n\n[1] 克里斯托弗·M·毕晓普. “模式识别与机器学习.” 纽约公司, 16.4 (2006): 049901.\n\n[2] 戈德菲尔德 I，本吉奥 Y，库尔维尔 A. 深度学习[J]. 2015, 2016.","# notes-machine-learning 快速上手指南\n\n## 环境准备\n\n本项目基于 `Jupyter Notebook` (原 IPython Notebook) 展示机器学习笔记，内容涵盖经典教材《Pattern Recognition and Machine Learning》(PRML) 和《Deep Learning》(DP)。\n\n**系统要求：**\n- 操作系统：Windows \u002F macOS \u002F Linux\n- Python 版本：建议 Python 3.6+\n\n**前置依赖：**\n- Jupyter Notebook\n- 基础科学计算库：`numpy`, `scipy`, `matplotlib`, `pandas`\n\n## 安装步骤\n\n### 1. 克隆项目\n使用 Git 将仓库克隆到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flijin-THU\u002Fnotes-machine-learning.git\ncd notes-machine-learning\n```\n*国内用户加速方案：*\n```bash\ngit clone https:\u002F\u002Fgitee.com\u002Fmirrors\u002Fnotes-machine-learning.git\ncd notes-machine-learning\n```\n*(注：若 Gitee 镜像不可用，请使用官方 GitHub 地址)*\n\n### 2. 安装依赖\n推荐使用 `pip` 并配置国内镜像源（如清华源）以加快下载速度：\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n若项目中未提供 `requirements.txt`，可直接安装核心组件：\n```bash\npip install jupyter notebook numpy scipy matplotlib pandas -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 方式一：本地启动 Jupyter\n进入项目根目录，启动 Jupyter Notebook 服务：\n```bash\njupyter notebook\n```\n浏览器会自动打开首页，点击 `ReadMe.ipynb` 查看目录，或直接进入 `Pattern-Recognition-and-Machine-Learning` 或 `Deep-Learning` 文件夹选择对应的 `.ipynb` 文件进行学习。\n\n### 方式二：在线预览（推荐）\n由于 GitHub 加载 `.ipynb` 文件速度较慢且无法运行代码，建议通过 **Nbviewer** 在线浏览渲染后的笔记：\n- **项目总览**: [http:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002Flijin-THU\u002Fnotes-machine-learning\u002Fblob\u002Fmaster\u002FReadMe.ipynb](http:\u002F\u002Fnbviewer.jupyter.org\u002Fgithub\u002Flijin-THU\u002Fnotes-machine-learning\u002Fblob\u002Fmaster\u002FReadMe.ipynb)\n\n### 学习路径示例\n1. **基础入门**：打开 `Chap-01-Introduction` 下的 `01-01-Example-Polynomial-Curve-Fitting.ipynb`，了解多项式拟合实例。\n2. **理论深入**：依次学习概率论、模型选择及决策理论章节。\n3. **深度学习**：切换至 `Deep-Learning` 目录，从线性代数基础开始复习。","一名数据科学初学者正试图啃读 Bishop 的《模式识别与机器学习》和 Bengio 的《深度学习》，却卡在复杂的数学推导与代码实现之间。\n\n### 没有 notes-machine-learning 时\n- 面对书中抽象的贝叶斯曲线拟合公式，只能干瞪眼，无法直观理解概率密度函数如何影响模型结果。\n- 想复现“多项式拟合”案例时，需从零搭建 Jupyter 环境并手动推导公式，耗费数天仍因维度灾难问题调试失败。\n- 学习决策理论中的“最小风险决策”时，缺乏可交互的代码示例，难以将拉格朗日乘子等数学工具与实际损失函数对应起来。\n- 在 GitHub 直接打开 `.ipynb` 文件加载极慢，频繁的阅读中断导致学习思路支离破碎，最终放弃深入钻研经典理论。\n\n### 使用 notes-machine-learning 后\n- 通过李金整理的交互式笔记，直接运行调整参数后的贝叶斯拟合代码，瞬间看清高斯分布与过拟合之间的动态关系。\n- 直接复用项目中基于 PRML 第一章封装好的多项式拟合模板，几分钟内即可验证不同阶数下的模型表现，跳过繁琐的环境配置。\n- 结合附录中关于变分法和拉格朗日乘子的代码演示，轻松打通从数学推导到“回归问题损失函数”实现的最后一公里。\n- 利用 Nbviewer 链接流畅浏览结构化目录，从二元变量到狄利克雷分布的学习路径清晰连贯，大幅提升经典教材的消化效率。\n\nnotes-machine-learning 将晦涩难懂的机器学习经典理论转化为可执行、可视化的代码笔记，让学习者从“死磕公式”转向“动手验证”，极大降低了掌握核心算法的门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flijin-THU_notes-machine-learning_3308c05b.png","lijin-THU","Jin Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flijin-THU_8f89887f.jpg",null,"Alibaba Group","Beijing, China","lijinwithyou@gmail.com","https:\u002F\u002Fgithub.com\u002Flijin-THU",[86],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",100,860,313,"2026-04-13T09:58:50","未说明",{"notes":95,"python":93,"dependencies":96},"该项目为机器学习教材（PRML 和 Deep Learning）的笔记代码，主要使用 Jupyter Notebook (.ipynb) 格式展示。README 中未明确列出具体的 Python 版本、第三方科学计算库（如 NumPy, SciPy, Matplotlib 等）的版本要求或硬件配置需求。建议在本地安装 Jupyter 环境后运行，或直接通过 Nbviewer 在线查看。",[97,98],"jupyter notebook","ipython notebook",[18],"2026-03-27T02:49:30.150509","2026-04-14T00:00:33.725815",[],[]]