[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ljpzzz--machinelearning":3,"tool-ljpzzz--machinelearning":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75585,"2026-04-14T22:04:17",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":81,"owner_twitter":81,"owner_website":83,"owner_url":84,"languages":85,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":29,"env_os":101,"env_gpu":102,"env_ram":102,"env_deps":103,"category_tags":112,"github_topics":113,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":22,"created_at":116,"updated_at":117,"faqs":118,"releases":149},7589,"ljpzzz\u002Fmachinelearning","machinelearning","My blogs and code for machine learning. http:\u002F\u002Fcnblogs.com\u002Fpinard","machinelearning 是知名技术博主刘建平（Pinard）为其系列机器学习博客整理的配套代码仓库。该项目旨在解决读者在学习博客文章时，面对零散代码片段难以系统运行和复现的痛点，将理论与实战代码进行了系统化整合。\n\n内容覆盖极其全面，不仅包含机器学习基础、回归、分类、聚类、降维、集成学习等传统算法，还深入探讨了深度学习、自然语言处理以及篇幅宏大的强化学习专题（如 DQN、A3C、DDPG 及 AlphaGo Zero 原理等）。此外，项目还涉及数学统计、特征工程及算法落地等关键环节。大部分核心算法均提供了基于 Python 和 scikit-learn 等主流库的可执行代码，部分早期代码已适配 Python 3.6 环境。\n\nmachinelearning 非常适合机器学习开发者、算法研究人员以及高校学生使用。对于希望从理论推导过渡到代码实现的初学者，它提供了极佳的“文章 + 代码”对照学习路径；对于从业者，它则是一份涵盖经典与现代算法的实用参考手册。其独特的价值在于将深奥的算法原理通过清晰的中文讲解与规范的代码实现相结合，尤其是强化学习部分的系统性整理，在中文开源社区中具有较","machinelearning 是知名技术博主刘建平（Pinard）为其系列机器学习博客整理的配套代码仓库。该项目旨在解决读者在学习博客文章时，面对零散代码片段难以系统运行和复现的痛点，将理论与实战代码进行了系统化整合。\n\n内容覆盖极其全面，不仅包含机器学习基础、回归、分类、聚类、降维、集成学习等传统算法，还深入探讨了深度学习、自然语言处理以及篇幅宏大的强化学习专题（如 DQN、A3C、DDPG 及 AlphaGo Zero 原理等）。此外，项目还涉及数学统计、特征工程及算法落地等关键环节。大部分核心算法均提供了基于 Python 和 scikit-learn 等主流库的可执行代码，部分早期代码已适配 Python 3.6 环境。\n\nmachinelearning 非常适合机器学习开发者、算法研究人员以及高校学生使用。对于希望从理论推导过渡到代码实现的初学者，它提供了极佳的“文章 + 代码”对照学习路径；对于从业者，它则是一份涵盖经典与现代算法的实用参考手册。其独特的价值在于将深奥的算法原理通过清晰的中文讲解与规范的代码实现相结合，尤其是强化学习部分的系统性整理，在中文开源社区中具有较高的参考价值。","# 刘建平Pinard的博客配套代码\n\nhttp:\u002F\u002Fwww.cnblogs.com\u002Fpinard 刘建平Pinard\n\n之前不少朋友反应我博客中的代码都是连续的片段，不好学习，因此这里把文章和代码做一个整理。\n代码有部分来源于网络，已加上相关方版权信息。部分为自己原创，已加上我的版权信息。\n\n## 目录\n\n* [机器学习基础与回归算法](#2)\n\n* [机器学习分类算法](#3)\n\n* [机器学习聚类算法](#4)\n\n* [机器学习降维算法](#5)\n\n* [机器学习集成学习算法](#6)\n\n* [数学统计学](#7)\n\n* [机器学习关联算法](#8)\n\n* [机器学习推荐算法](#9)\n\n* [深度学习算法](#10)\n\n* [自然语言处理算法](#11)\n\n* [强化学习算法](#1)\n\n* [特征工程与算法落地](#12)\n\n## 注意\n\n2016-2017年写的博客使用的python版本是2.7， 2018年因为TensorFlow对Python3的一些要求，所以写博客使用的Python版本是3.6。少部分2016，2017年的博客代码无法找到，重新用Python3.6跑过上传，因此可能会出现和博客中代码稍有不一致的地方，主要涉及到print的语法和range的用法，若遇到问题，稍微修改即可跑通。\n\n## [赞助我](#13)\n\n\u003Ch3 id=\"1\">强化学习文章与代码：:\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[强化学习（一）模型基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9385570.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fintroduction.py)\n[强化学习（二）马尔科夫决策过程(MDP)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9426283.html) | 无\n[强化学习（三）用动态规划（DP）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9463815.html) | 无\n[强化学习（四）用蒙特卡罗法（MC）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9492980.html) | 无\n[强化学习（五）用时序差分法（TD）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9529828.html) | 无\n[强化学习（六）时序差分在线控制算法SARSA](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9614290.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fsarsa_windy_world.py)\n[强化学习（七）时序差分离线控制算法Q-Learning](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9669263.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fq_learning_windy_world.py)\n[强化学习（八）价值函数的近似表示与Deep Q-Learning](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9714655.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fdqn.py)\n[强化学习（九）Deep Q-Learning进阶之Nature DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9756075.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fnature_dqn.py)\n[强化学习（十）Double DQN (DDQN)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9778063.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddqn.py)\n[强化学习(十一) Prioritized Replay DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9797695.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddqn_prioritised_replay.py)\n[强化学习(十二) Dueling DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9923859.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fduel_dqn.py)\n[强化学习(十三) 策略梯度(Policy Gradient)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10137696.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fpolicy_gradient.py)\n[强化学习(十四) Actor-Critic](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10272023.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Factor_critic.py)\n[强化学习(十五) A3C](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10334127.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fa3c.py)\n[强化学习(十六) 深度确定性策略梯度(DDPG)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10345762.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddpg.py)\n[强化学习(十七) 基于模型的强化学习与Dyna算法框架](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10384424.html) | 无\n[强化学习(十八) 基于模拟的搜索与蒙特卡罗树搜索(MCTS)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10470571.html) | 无\n[强化学习(十九) AlphaGo Zero强化学习原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10609228.html) | 无\n\n\n\u003Ch3 id=\"2\">机器学习基础与回归算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[梯度下降（Gradient Descent）小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5970503.html) | 无\n[最小二乘法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5976811.html) |无\n[交叉验证(Cross Validation)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5992719.html) | 无\n[精确率与召回率，RoC曲线与PR曲线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5993450.html) |无\n[线性回归原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6004041.html) |无\n[机器学习研究与开发平台的选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6007200.html) | 无\n[scikit-learn 和pandas 基于windows单机机器学习环境的搭建](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6013484.html) |无\n[用scikit-learn和pandas学习线性回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6016029.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flinear-regression.ipynb)\n[Lasso回归算法： 坐标轴下降法与最小角回归法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6018889.html) | 无\n[用scikit-learn和pandas学习Ridge回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6023000.html) | [代码1](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fridge_regression_1.ipynb) [代码2](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fridge_regression.ipynb)\n[scikit-learn 线性回归算法库小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6026343.html)|无\n[异常点检测算法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9314198.html)|无\n\n\u003Ch3 id=\"3\">机器学习分类算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[逻辑回归原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6029432.html) |无\n[scikit-learn 逻辑回归类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6035872.html) |无\n[感知机原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6042320.html) |无\n[决策树算法原理(上)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6050306.html) |无\n[决策树算法原理(下)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6053344.html)|无\n[scikit-learn决策树算法类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6056319.html) |[代码1](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdecision_tree_classifier.ipynb) [代码2](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdecision_tree_classifier_1.ipynb)\n[K近邻法(KNN)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6061661.html) |无\n[scikit-learn K近邻法类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6065607.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fknn_classifier.ipynb)\n[朴素贝叶斯算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6069267.html) |无\n[scikit-learn 朴素贝叶斯类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6074222.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fnative_bayes.ipynb)\n[最大熵模型原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6093948.html)|无\n[支持向量机原理(一) 线性支持向量机](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6097604.html)|无\n[支持向量机原理(二) 线性支持向量机的软间隔最大化模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6100722.html)|无\n[支持向量机原理(三)线性不可分支持向量机与核函数](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6103615.html)|无\n[支持向量机原理(四)SMO算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6111471.html)|无\n[支持向量机原理(五)线性支持回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6113120.html)|无\n[scikit-learn 支持向量机算法库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6117515.html)|无\n[支持向量机高斯核调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6126077.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fsvm_classifier.ipynb)\n\n\u003Ch3 id=\"7\">数学统计学文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[机器学习算法的随机数据生成](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6047802.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Frandom_data_generation.ipynb)\n[MCMC(一)蒙特卡罗方法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6625739.html)|无\n[MCMC(二)马尔科夫链](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6632399.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_2.ipynb)\n[MCMC(三)MCMC采样和M-H采样](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6638955.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_3_4.ipynb)\n[MCMC(四)Gibbs采样](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6645766.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_3_4.ipynb)\n[机器学习中的矩阵向量求导(一) 求导定义与求导布局](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10750718.html)|无\n[机器学习中的矩阵向量求导(二) 矩阵向量求导之定义法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10773942.html)|无\n[机器学习中的矩阵向量求导(三) 矩阵向量求导之微分法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10791506.html)|无\n[机器学习中的矩阵向量求导(四) 矩阵向量求导链式法则](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10825264.html)|无\n[机器学习中的矩阵向量求导(五) 矩阵对矩阵的求导](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10930902.html)|无\n\n\n\u003Ch3 id=\"6\">机器学习集成学习文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[集成学习原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6131423.html) | 无\n[集成学习之Adaboost算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6133937.html) | 无\n[scikit-learn Adaboost类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6136914.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fadaboost-classifier.ipynb)\n[梯度提升树(GBDT)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6140514.html) | 无\n[scikit-learn 梯度提升树(GBDT)调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6143927.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fgbdt_classifier.ipynb)\n[Bagging与随机森林算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6156009.html) | 无\n[scikit-learn随机森林调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6160412.html) |  [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Frandom_forest_classifier.ipynb)\n[XGBoost算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10979808.html) | 无\n[XGBoost类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F11114748.html) |  [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fxgboost-example.ipynb)\n\n\n\u003Ch3 id=\"4\">机器学习聚类算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[K-Means聚类算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6164214.html)|无\n[用scikit-learn学习K-Means聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6169370.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fkmeans_cluster.ipynb)\n[BIRCH聚类算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6179132.html)|无\n[用scikit-learn学习BIRCH聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6200579.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fbirch_cluster.ipynb)\n[DBSCAN密度聚类算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6208966.html)|无\n[用scikit-learn学习DBSCAN聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6217852.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdbscan_cluster.ipynb)\n[谱聚类（spectral clustering）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6221564.html) |无\n[用scikit-learn学习谱聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6235920.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fspectral_cluster.ipynb)\n\n\u003Ch3 id=\"5\">机器学习降维算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[主成分分析（PCA）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6239403.html)|无\n[用scikit-learn学习主成分分析(PCA)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6243025.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fpca.ipynb)\n[线性判别分析LDA原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6244265.html)|无\n[用scikit-learn进行LDA降维](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6249328.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flda.ipynb)\n[奇异值分解(SVD)原理与在降维中的应用](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6251584.html)|无\n[局部线性嵌入(LLE)原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6266408.html)|无\n[用scikit-learn研究局部线性嵌入(LLE)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6273377.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flle.ipynb)\n\n\u003Ch3 id=\"8\">机器学习关联算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[典型关联分析(CCA)原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6288716.html)|无\n[Apriori算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6293298.html)|无\n[FP Tree算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6307064.html)|无\n[PrefixSpan算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6323182.html)|无\n[用Spark学习FP Tree算法和PrefixSpan算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6340162.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Ffp_tree_prefixspan.ipynb)\n[日志和告警数据挖掘经验谈](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6039099.html) | 无\n\n\u003Ch3 id=\"9\">机器学习推荐算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[协同过滤推荐算法总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6349233.html)|无\n[矩阵分解在协同过滤推荐算法中的应用](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6351319.html)|无\n[SimRank协同过滤推荐算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6362647.html)|无\n[用Spark学习矩阵分解推荐算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6364932.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fmatrix_factorization.ipynb)\n[分解机(Factorization Machines)推荐算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6370127.html)|无\n[贝叶斯个性化排序(BPR)算法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9128682.html)|无\n[用tensorflow学习贝叶斯个性化排序(BPR)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9163481.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fbpr.ipynb)\n\n\u003Ch3 id=\"10\">深度学习算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[深度神经网络（DNN）模型与前向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6418668.html)|无\n[深度神经网络（DNN）反向传播算法(BP)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6422831.html)|无\n[深度神经网络（DNN）损失函数和激活函数的选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6437495.html)|无\n[深度神经网络（DNN）的正则化](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6472666.html)|无\n[卷积神经网络(CNN)模型结构](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6483207.html)|无\n[卷积神经网络(CNN)前向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6489633.html)|无\n[卷积神经网络(CNN)反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6494810.html)|无\n[循环神经网络(RNN)模型与前向反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6509630.html)|无\n[LSTM模型与前向反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6519110.html)|无\n[受限玻尔兹曼机（RBM）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6530523.html)|无\n\n\u003Ch3 id=\"11\">自然语言处理文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[文本挖掘的分词原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6677078.html)|无\n[文本挖掘预处理之向量化与Hash Trick](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6688348.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fhash_trick.ipynb)\n[文本挖掘预处理之TF-IDF](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6693230.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Ftf-idf.ipynb)\n[中文文本挖掘预处理流程总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6744056.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fchinese_digging.ipynb)\n[英文文本挖掘预处理流程总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6756534.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fenglish_digging.ipynb)\n[文本主题模型之潜在语义索引(LSI)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6805861.html)|无\n[文本主题模型之非负矩阵分解(NMF)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6812011.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fnmf.ipynb)\n[文本主题模型之LDA(一) LDA基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6831308.html)|无\n[文本主题模型之LDA(二) LDA求解之Gibbs采样算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6867828.html)|无\n[文本主题模型之LDA(三) LDA求解之变分推断EM算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6873703.html)|无\n[用scikit-learn学习LDA主题模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6908150.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Flda.ipynb)\n[EM算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6912636.html)|无\n[隐马尔科夫模型HMM（一）HMM模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6945257.html)|无\n[隐马尔科夫模型HMM（二）前向后向算法评估观察序列概率](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6955871.html)|无\n[隐马尔科夫模型HMM（三）鲍姆-韦尔奇算法求解HMM参数](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6972299.html)|无\n[隐马尔科夫模型HMM（四）维特比算法解码隐藏状态序列](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6991852.html)|无\n[用hmmlearn学习隐马尔科夫模型HMM](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7001397.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fhmm.ipynb)\n[条件随机场CRF(一)从随机场到线性链条件随机场](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7048333.html)|无\n[条件随机场CRF(二) 前向后向算法评估标记序列概率](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7055072.html)|无\n[条件随机场CRF(三) 模型学习与维特比算法解码](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7068574.html)|无\n[word2vec原理(一) CBOW与Skip-Gram模型基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7160330.html)|无\n[word2vec原理(二) 基于Hierarchical Softmax的模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7243513.html)|无\n[word2vec原理(三) 基于Negative Sampling的模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7249903.html)|无\n[用gensim学习word2vec](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7278324.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fword2vec.ipynb)\n\n\u003Ch3 id=\"12\">特征工程与算法落地文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[特征工程之特征选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9032759.html)|无\n[特征工程之特征表达](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9061549.html)|无\n[特征工程之特征预处理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9093890.html)|无\n[用PMML实现机器学习模型的跨平台上线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9220199.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmodel-in-product\u002Fsklearn-jpmml)\n[tensorflow机器学习模型的跨平台上线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9251296.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmodel-in-product\u002Ftensorflow-java)\n\n\u003Ch3 id=\"13\">赞助我\u003C\u002Fh3>\n\n你的支持是我写作的动力(1.微信\u002F2.支付宝)：\n\n![微信赞助](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fljpzzz_machinelearning_readme_11ae0cb7f3d1.png)\n\n\n![支付宝赞助](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fljpzzz_machinelearning_readme_125aea0ea93c.png)\n\nLicense MIT.\n","# 刘建平Pinard的博客配套代码\n\nhttp:\u002F\u002Fwww.cnblogs.com\u002Fpinard 刘建平Pinard\n\n之前不少朋友反应我博客中的代码都是连续的片段，不好学习，因此这里把文章和代码做一个整理。\n代码有部分来源于网络，已加上相关方版权信息。部分为自己原创，已加上我的版权信息。\n\n## 目录\n\n* [机器学习基础与回归算法](#2)\n\n* [机器学习分类算法](#3)\n\n* [机器学习聚类算法](#4)\n\n* [机器学习降维算法](#5)\n\n* [机器学习集成学习算法](#6)\n\n* [数学统计学](#7)\n\n* [机器学习关联算法](#8)\n\n* [机器学习推荐算法](#9)\n\n* [深度学习算法](#10)\n\n* [自然语言处理算法](#11)\n\n* [强化学习算法](#1)\n\n* [特征工程与算法落地](#12)\n\n## 注意\n\n2016-2017年写的博客使用的python版本是2.7， 2018年因为TensorFlow对Python3的一些要求，所以写博客使用的Python版本是3.6。少部分2016，2017年的博客代码无法找到，重新用Python3.6跑过上传，因此可能会出现和博客中代码稍有不一致的地方，主要涉及到print的语法和range的用法，若遇到问题，稍微修改即可跑通。\n\n## [赞助我](#13)\n\n\u003Ch3 id=\"1\">强化学习文章与代码：:\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[强化学习（一）模型基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9385570.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fintroduction.py)\n[强化学习（二）马尔科夫决策过程(MDP)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9426283.html) | 无\n[强化学习（三）用动态规划（DP）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9463815.html) | 无\n[强化学习（四）用蒙特卡罗法（MC）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9492980.html) | 无\n[强化学习（五）用时序差分法（TD）求解](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9529828.html) | 无\n[强化学习（六）时序差分在线控制算法SARSA](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9614290.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fsarsa_windy_world.py)\n[强化学习（七）时序差分离线控制算法Q-Learning](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9669263.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fq_learning_windy_world.py)\n[强化学习（八）价值函数的近似表示与Deep Q-Learning](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9714655.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fdqn.py)\n[强化学习（九）Deep Q-Learning进阶之Nature DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9756075.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fnature_dqn.py)\n[强化学习（十）Double DQN (DDQN)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9778063.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddqn.py)\n[强化学习(十一) Prioritized Replay DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9797695.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddqn_prioritised_replay.py)\n[强化学习(十二) Dueling DQN](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9923859.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fduel_dqn.py)\n[强化学习(十三) 策略梯度(Policy Gradient)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10137696.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fpolicy_gradient.py)\n[强化学习(十四) Actor-Critic](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10272023.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Factor_critic.py)\n[强化学习(十五) A3C](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10334127.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fa3c.py)\n[强化学习(十六) 深度确定性策略梯度(DDPG)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10345762.html)  | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Freinforcement-learning\u002Fddpg.py)\n[强化学习(十七) 基于模型的强化学习与Dyna算法框架](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10384424.html) | 无\n[强化学习(十八) 基于模拟的搜索与蒙特卡罗树搜索(MCTS)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10470571.html) | 无\n[强化学习(十九) AlphaGo Zero强化学习原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10609228.html) | 无\n\n\n\u003Ch3 id=\"2\">机器学习基础与回归算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[梯度下降（Gradient Descent）小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5970503.html) | 无\n[最小二乘法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5976811.html) |无\n[交叉验证(Cross Validation)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5992719.html) | 无\n[精确率与召回率，RoC曲线与PR曲线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F5993450.html) |无\n[线性回归原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6004041.html) |无\n[机器学习研究与开发平台的选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6007200.html) | 无\n[scikit-learn 和pandas 基于windows单机机器学习环境的搭建](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6013484.html) |无\n[用scikit-learn和pandas学习线性回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6016029.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flinear-regression.ipynb)\n[Lasso回归算法： 坐标轴下降法与最小角回归法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6018889.html) | 无\n[用scikit-learn和pandas学习Ridge回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6023000.html) | [代码1](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fridge_regression_1.ipynb) [代码2](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fridge_regression.ipynb)\n[scikit-learn 线性回归算法库小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6026343.html)|无\n[异常点检测算法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9314198.html)|无\n\n\u003Ch3 id=\"3\">机器学习分类算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[逻辑回归原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6029432.html) |无\n[scikit-learn 逻辑回归类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6035872.html) |无\n[感知机原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6042320.html) |无\n[决策树算法原理(上)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6050306.html) |无\n[决策树算法原理(下)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6053344.html)|无\n[scikit-learn决策树算法类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6056319.html) |[代码1](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdecision_tree_classifier.ipynb) [代码2](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdecision_tree_classifier_1.ipynb)\n[K近邻法(KNN)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6061661.html) |无\n[scikit-learn K近邻法类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6065607.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fknn_classifier.ipynb)\n[朴素贝叶斯算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6069267.html) |无\n[scikit-learn 朴素贝叶斯类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6074222.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fnative_bayes.ipynb)\n[最大熵模型原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6093948.html)|无\n[支持向量机原理(一) 线性支持向量机](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6097604.html)|无\n[支持向量机原理(二) 线性支持向量机的软间隔最大化模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6100722.html)|无\n[支持向量机原理(三)线性不可分支持向量机与核函数](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6103615.html)|无\n[支持向量机原理(四)SMO算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6111471.html)|无\n[支持向量机原理(五)线性支持回归](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6113120.html)|无\n[scikit-learn 支持向量机算法库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6117515.html)|无\n[支持向量机高斯核调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6126077.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fsvm_classifier.ipynb)\n\n\u003Ch3 id=\"7\">数学统计学文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[机器学习算法的随机数据生成](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6047802.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Frandom_data_generation.ipynb)\n[MCMC(一)蒙特卡罗方法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6625739.html)|无\n[MCMC(二)马尔科夫链](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6632399.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_2.ipynb)\n[MCMC(三)MCMC采样和M-H采样](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6638955.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_3_4.ipynb)\n[MCMC(四)Gibbs采样](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6645766.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmathematics\u002Fmcmc_3_4.ipynb)\n[机器学习中的矩阵向量求导(一) 求导定义与求导布局](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10750718.html)|无\n[机器学习中的矩阵向量求导(二) 矩阵向量求导之定义法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10773942.html)|无\n[机器学习中的矩阵向量求导(三) 矩阵向量求导之微分法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10791506.html)|无\n[机器学习中的矩阵向量求导(四) 矩阵向量求导链式法则](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10825264.html)|无\n[机器学习中的矩阵向量求导(五) 矩阵对矩阵的求导](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10930902.html)|无\n\n\n\u003Ch3 id=\"6\">机器学习集成学习文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[集成学习原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6131423.html) | 无\n[集成学习之Adaboost算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6133937.html) | 无\n[scikit-learn Adaboost类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6136914.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fadaboost-classifier.ipynb)\n[梯度提升树(GBDT)原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6140514.html) | 无\n[scikit-learn 梯度提升树(GBDT)调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6143927.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fgbdt_classifier.ipynb)\n[Bagging与随机森林算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6156009.html) | 无\n[scikit-learn随机森林调参小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6160412.html) |  [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Frandom_forest_classifier.ipynb)\n[XGBoost算法原理小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F10979808.html) | 无\n[XGBoost类库使用小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F11114748.html) |  [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fensemble-learning\u002Fxgboost-example.ipynb)\n\n\n\u003Ch3 id=\"4\">机器学习聚类算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[K-Means聚类算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6164214.html)|无\n[用scikit-learn学习K-Means聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6169370.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fkmeans_cluster.ipynb)\n[BIRCH聚类算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6179132.html)|无\n[用scikit-learn学习BIRCH聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6200579.html) | [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fbirch_cluster.ipynb)\n[DBSCAN密度聚类算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6208966.html)|无\n[用scikit-learn学习DBSCAN聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6217852.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fdbscan_cluster.ipynb)\n[谱聚类（spectral clustering）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6221564.html) |无\n[用scikit-learn学习谱聚类](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6235920.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fspectral_cluster.ipynb)\n\n\u003Ch3 id=\"5\">机器学习降维算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[主成分分析（PCA）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6239403.html)|无\n[用scikit-learn学习主成分分析(PCA)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6243025.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fpca.ipynb)\n[线性判别分析LDA原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6244265.html)|无\n[用scikit-learn进行LDA降维](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6249328.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flda.ipynb)\n[奇异值分解(SVD)原理与在降维中的应用](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6251584.html)|无\n[局部线性嵌入(LLE)原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6266408.html)|无\n[用scikit-learn研究局部线性嵌入(LLE)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6273377.html) |[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Flle.ipynb)\n\n\u003Ch3 id=\"8\">机器学习关联算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[典型关联分析(CCA)原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6288716.html)|无\n[Apriori算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6293298.html)|无\n[FP Tree算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6307064.html)|无\n[PrefixSpan算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6323182.html)|无\n[用Spark学习FP Tree算法和PrefixSpan算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6340162.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Ffp_tree_prefixspan.ipynb)\n[日志和告警数据挖掘经验谈](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6039099.html) | 无\n\n\u003Ch3 id=\"9\">机器学习推荐算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[协同过滤推荐算法总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6349233.html)|无\n[矩阵分解在协同过滤推荐算法中的应用](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6351319.html)|无\n[SimRank协同过滤推荐算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6362647.html)|无\n[用Spark学习矩阵分解推荐算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6364932.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fmatrix_factorization.ipynb)\n[分解机(Factorization Machines)推荐算法原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6370127.html)|无\n[贝叶斯个性化排序(BPR)算法小结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9128682.html)|无\n[用tensorflow学习贝叶斯个性化排序(BPR)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9163481.html)| [代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fclassic-machine-learning\u002Fbpr.ipynb)\n\n\u003Ch3 id=\"10\">深度学习算法文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[深度神经网络（DNN）模型与前向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6418668.html)|无\n[深度神经网络（DNN）反向传播算法(BP)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6422831.html)|无\n[深度神经网络（DNN）损失函数和激活函数的选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6437495.html)|无\n[深度神经网络（DNN）的正则化](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6472666.html)|无\n[卷积神经网络(CNN)模型结构](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6483207.html)|无\n[卷积神经网络(CNN)前向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6489633.html)|无\n[卷积神经网络(CNN)反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6494810.html)|无\n[循环神经网络(RNN)模型与前向反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6509630.html)|无\n[LSTM模型与前向反向传播算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6519110.html)|无\n[受限玻尔兹曼机（RBM）原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6530523.html)|无\n\n\u003Ch3 id=\"11\">自然语言处理文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[文本挖掘的分词原理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6677078.html)|无\n[文本挖掘预处理之向量化与Hash Trick](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6688348.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fhash_trick.ipynb)\n[文本挖掘预处理之TF-IDF](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6693230.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Ftf-idf.ipynb)\n[中文文本挖掘预处理流程总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6744056.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fchinese_digging.ipynb)\n[英文文本挖掘预处理流程总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6756534.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fenglish_digging.ipynb)\n[文本主题模型之潜在语义索引(LSI)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6805861.html)|无\n[文本主题模型之非负矩阵分解(NMF)](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6812011.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fnmf.ipynb)\n[文本主题模型之LDA(一) LDA基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6831308.html)|无\n[文本主题模型之LDA(二) LDA求解之Gibbs采样算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6867828.html)|无\n[文本主题模型之LDA(三) LDA求解之变分推断EM算法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6873703.html)|无\n[用scikit-learn学习LDA主题模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6908150.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Flda.ipynb)\n[EM算法原理总结](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6912636.html)|无\n[隐马尔科夫模型HMM（一）HMM模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6945257.html)|无\n[隐马尔科夫模型HMM（二）前向后向算法评估观察序列概率](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6955871.html)|无\n[隐马尔科夫模型HMM（三）鲍姆-韦尔奇算法求解HMM参数](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6972299.html)|无\n[隐马尔科夫模型HMM（四）维特比算法解码隐藏状态序列](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6991852.html)|无\n[用hmmlearn学习隐马尔科夫模型HMM](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7001397.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fhmm.ipynb)\n[条件随机场CRF(一)从随机场到线性链条件随机场](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7048333.html)|无\n[条件随机场CRF(二) 前向后向算法评估标记序列概率](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7055072.html)|无\n[条件随机场CRF(三) 模型学习与维特比算法解码](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7068574.html)|无\n[word2vec原理(一) CBOW与Skip-Gram模型基础](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7160330.html)|无\n[word2vec原理(二) 基于Hierarchical Softmax的模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7243513.html)|无\n[word2vec原理(三) 基于Negative Sampling的模型](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7249903.html)|无\n[用gensim学习word2vec](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7278324.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fnatural-language-processing\u002Fword2vec.ipynb)\n\n\u003Ch3 id=\"12\">特征工程与算法落地文章与代码：\u003C\u002Fh3>\n\n|文章 | 代码|\n---|---\n[特征工程之特征选择](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9032759.html)|无\n[特征工程之特征表达](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9061549.html)|无\n[特征工程之特征预处理](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9093890.html)|无\n[用PMML实现机器学习模型的跨平台上线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9220199.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmodel-in-product\u002Fsklearn-jpmml)\n[tensorflow机器学习模型的跨平台上线](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9251296.html)|[代码](https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fblob\u002Fmaster\u002Fmodel-in-product\u002Ftensorflow-java)\n\n\u003Ch3 id=\"13\">赞助我\u003C\u002Fh3>\n\n你的支持是我写作的动力(1.微信\u002F2.支付宝)：\n\n![微信赞助](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fljpzzz_machinelearning_readme_11ae0cb7f3d1.png)\n\n\n![支付宝赞助](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fljpzzz_machinelearning_readme_125aea0ea93c.png)\n\n许可证：MIT。","# machinelearning 快速上手指南\n\n本仓库是刘建平 Pinard 博客（http:\u002F\u002Fwww.cnblogs.com\u002Fpinard）的配套代码整理，涵盖机器学习基础、分类、聚类、降维、集成学习、深度学习、强化学习及自然语言处理等算法的实现示例。\n\n## 环境准备\n\n*   **操作系统**：Windows \u002F Linux \u002F macOS\n*   **Python 版本**：\n    *   2016-2017 年的部分旧代码基于 **Python 2.7**。\n    *   2018 年及之后的代码（包括大部分深度学习与强化学习示例）基于 **Python 3.6+**。\n    *   **建议**：统一使用 **Python 3.6 或更高版本**。若运行旧代码遇到 `print` 语法或 `range` 用法错误，请根据 Python 3 语法稍作修改即可。\n*   **核心依赖库**：\n    *   `numpy`, `pandas`, `scikit-learn`, `matplotlib`\n    *   `tensorflow` (用于深度学习和部分推荐算法)\n    *   `torch` (部分现代实现可能需要，视具体文件而定)\n    *   `jupyter` (推荐使用 Jupyter Notebook 查看 `.ipynb` 示例)\n\n**国内加速建议**：\n安装依赖时推荐使用清华源或阿里源以提升下载速度。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning.git\n    cd machinelearning\n    ```\n\n2.  **安装 Python 依赖**\n    建议使用虚拟环境，并使用国内镜像源安装所需库：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *注：若根目录无 `requirements.txt`，可手动安装核心库：*\n    ```bash\n    pip install numpy pandas scikit-learn matplotlib jupyter tensorflow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n## 基本使用\n\n本项目主要包含两类文件：`.py` 脚本和 `.ipynb` (Jupyter Notebook) 教程。推荐使用 Jupyter Notebook 交互式学习。\n\n### 方式一：使用 Jupyter Notebook（推荐）\n\n大多数算法示例都提供了 Notebook 文件，便于逐步运行和观察结果。\n\n1.  启动 Jupyter：\n    ```bash\n    jupyter notebook\n    ```\n2.  在浏览器中进入对应的算法目录，例如经典机器学习分类算法：\n    *   路径：`classic-machine-learning\u002F`\n    *   示例文件：`decision_tree_classifier.ipynb` (决策树), `knn_classifier.ipynb` (KNN), `svm_classifier.ipynb` (支持向量机)\n3.  点击文件即可按单元格顺序执行代码，查看输出图表和模型评估结果。\n\n### 方式二：直接运行 Python 脚本\n\n针对部分独立的 `.py` 文件（如强化学习示例），可直接在终端运行。\n\n**示例：运行 Q-Learning 算法**\n```bash\ncd reinforcement-learning\npython q_learning_windy_world.py\n```\n\n**示例：运行线性回归**\n若需运行 notebook 对应的逻辑，可将其转换为 py 文件或直接在 notebook 中运行。对于纯脚本文件：\n```bash\ncd classic-machine-learning\n# 假设存在对应的 py 文件，否则请使用 jupyter 打开 ipynb 文件\npython linear-regression.py \n```\n\n### 目录结构速查\n\n*   `classic-machine-learning\u002F`: 包含回归、分类、聚类、降维等传统算法示例。\n*   `ensemble-learning\u002F`: 包含 Adaboost, GBDT, Random Forest, XGBoost 等集成算法。\n*   `reinforcement-learning\u002F`: 包含从 MDP 到 A3C, DDPG 等强化学习完整系列代码。\n*   `mathematics\u002F`: 包含 MCMC 采样、矩阵求导等数学基础代码。\n*   `deep-learning\u002F` & `nlp\u002F`: 包含深度学习与自然语言处理相关实现。\n\n> **提示**：运行代码前，请务必对照博客原文（README 中已提供链接）理解算法原理，代码旨在复现博客中的理论推导。","一位数据科学初学者正在自学强化学习，试图复现经典的 Q-Learning 和 DQN 算法以完成课程项目。\n\n### 没有 machinelearning 时\n- 阅读刘建平 Pinard 的博客文章时，只能看到零散的代码片段，无法直接运行，必须手动拼接和调试。\n- 不同年份的文章对应不同的 Python 版本（2.7 与 3.6），自行迁移代码时常因 `print` 语法或 `range` 用法差异报错，浪费大量时间在环境配置上。\n- 缺乏完整的工程化示例，难以理解从理论公式到“ windy world\"等具体环境落地的完整逻辑，导致学习曲线极其陡峭。\n- 找不到权威的实现参考，无法确认自己编写的算法（如 SARSA 或 Actor-Critic）是否正确，调试过程如同盲人摸象。\n\n### 使用 machinelearning 后\n- 直接获取与博客文章一一对应的完整源代码仓库，无需手动拼凑，克隆即可运行，立即验证理论效果。\n- 作者已统一将旧代码重构为 Python 3.6 版本，消除了版本兼容性障碍，让学习者能专注于算法逻辑而非语法修正。\n- 提供了从基础回归到前沿 A3C、DDPG 等复杂算法的落地实例，清晰展示了特征工程与环境交互的实现细节。\n- 依托高质量的开源实现作为“标准答案”，快速比对并修正自己的模型偏差，大幅缩短了从理解原理到掌握实战的周期。\n\nmachinelearning 将碎片化的博客理论转化为可执行的工程代码，彻底打通了机器学习从“读懂”到“跑通”的最后一公里。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fljpzzz_machinelearning_2f0fce62.png","ljpzzz","刘建平(Pinard Liu)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fljpzzz_d6611994.jpg","Never stop learning.",null,"Guangzhou, China","http:\u002F\u002Fcnblogs.com\u002Fpinard","https:\u002F\u002Fgithub.com\u002Fljpzzz",[86,90,93],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",97.9,{"name":91,"color":92,"percentage":10},"Python","#3572A5",{"name":94,"color":95,"percentage":96},"Java","#b07219",0.1,8705,3720,"2026-04-13T16:22:22","MIT","Windows, Linux, macOS","未说明",{"notes":104,"python":105,"dependencies":106},"该项目为刘建平 Pinard 博客的配套代码合集。2016-2017 年的代码基于 Python 2.7，2018 年后的代码（涉及 TensorFlow 部分）基于 Python 3.6。部分旧代码已用 Python 3.6 重写，主要差异在于 print 语法和 range 用法。部分算法（如 FP Tree、PrefixSpan、矩阵分解推荐）需要 Spark 环境；部分深度学习与强化学习代码依赖 TensorFlow。","2.7 或 3.6+",[107,108,109,110,111],"scikit-learn","pandas","TensorFlow","Spark","numpy",[18],[68,114,107,115],"algorithms","reinforcementlearning","2026-03-27T02:49:30.150509","2026-04-15T08:09:35.649513",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},34014,"如何理解 Python 列表推导式结合 enumerate 和随机选择的复杂语法？","这段代码 `np.random.choice([action_ for action_, value_ in enumerate(values_) if value_ == np.max(values_)])` 的含义是：如果最大的 Q 值对应的动作不止一个，则在这些具有最大 Q 值的动作中随机选择一个。如果不熟悉这种列表推导式写法，可以将其拆解为简单的 for 循环：先遍历所有动作和价值，记录最大价值，将对应最大价值的动作索引存入数组，最后在该数组中随机任选一个动作。这样拆分后代码更简单易懂。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},34015,"为什么作者不开通微信公众号来发布文章？","目前暂不考虑开通公众号，主要原因有两点：一是没有时间维护；二是微信公众号对 LaTeX 数学公式的支持非常不友好。由于文章包含大量文字和数学公式混杂的内容，转化为公众号文章需要将所有公式转为图片，这不仅工作量大，而且贴图后的公式阅读体验很差。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F3",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},34016,"在 DQN 算例中，为什么要覆写环境返回的 reward 值？","覆写 reward 是可选的。如果你希望重新设计环境的奖励函数以观察是否有效果提升，则可以覆写（例如代码中的 `reward = -1 if done else 0.1`）。如果仅仅是为了学习算法流程或跑通示例，则不需要覆写，直接使用 Gym 环境给出的原始 reward 即可。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F16",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},34017,"ID3、C4.5 和 CART 决策树在处理离散特征及区分特征类型时有何不同？","1. ID3 和 C4.5 是多叉树，若某多取值特征被选为分裂特征，则会为每个取值新建一颗子树（例如 100 个取值分 100 个分支），因效率问题实际使用少于 CART。\n2. CART 对离散特征采用子集划分，虽然计算量大，但该过程可并行化（使用多线程或多机器并发），因此不会成为工程瓶颈。\n3. 模型区分特征类型取决于任务：回归树会将所有特征转化为连续值以计算方差；分类树则根据输入数据类型判断，string 类型视为离散特征，数值类型视为连续特征。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F7",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},34018,"最小二乘法与平方损失函数以及梯度下降法之间有什么区别？","损失函数（如平方损失）是一个独立的概念，与优化方法无关。对于给定的平方损失函数，求解模型参数极值的方法有多种：最小二乘法是通过解析法直接求得解析解；而梯度下降法是一种数值法（启发式方法），通过迭代逼近最优解。两者目的相同但求解路径不同。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F4",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},34019,"运行代码时遇到 'No module named numpy.core._multiarray_umath' 错误怎么办？","该错误通常是由于 NumPy 版本与 TensorFlow 或其他依赖库不兼容，或者安装损坏导致的。虽然原讨论未给出具体命令，但此类问题的通用解决方案是：尝试卸载并重新安装 NumPy（`pip uninstall numpy` 然后 `pip install numpy`），或者检查 TensorFlow 版本要求的 NumPy 版本范围，确保安装的是兼容版本。如果在 PyCharm 中运行，还需检查解释器环境是否正确配置了相关模块。","https:\u002F\u002Fgithub.com\u002Fljpzzz\u002Fmachinelearning\u002Fissues\u002F6",[]]