[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Avik-Jain--100-Days-of-ML-Code-Chinese-Version":3,"tool-Avik-Jain--100-Days-of-ML-Code-Chinese-Version":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":81,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":46,"env_os":92,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":101,"github_topics":81,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":22,"created_at":102,"updated_at":103,"faqs":104,"releases":120},3188,"Avik-Jain\u002F100-Days-of-ML-Code-Chinese-Version","100-Days-of-ML-Code-Chinese-Version","Chinese Translation for Machine Learning Infographics","100-Days-of-ML-Code-Chinese-Version 是经典机器学习学习资源《100 Days of ML Code》的官方中文译本。它将原本英文的机器学习知识图谱、核心概念讲解及代码实现全面本地化，旨在消除语言障碍，帮助中文用户更顺畅地掌握人工智能技术。\n\n该项目主要解决了初学者在面对海量英文技术资料时遇到的理解困难和入门门槛高的问题。通过“每天一个知识点”的结构化路径，它系统性地涵盖了从数据预处理、线性回归、逻辑回归，到支持向量机（SVM）、决策树、随机森林以及聚类等监督与无监督学习算法。内容不仅包含直观的信息图（Infographics）来解释复杂原理，还提供了基于 Python 和 Scikit-Learn 的具体代码实现，实现了理论与实践的紧密结合。\n\n这套资源非常适合机器学习开发者、数据科学专业的学生以及希望转行进入 AI 领域的研究人员使用。对于具备一定编程基础但缺乏系统理论指导的普通技术爱好者，它也是一份极佳的自学指南。其独特的亮点在于将抽象的数学推导可视化，并配合每日进阶的代码练习，让用户能在 100 天内建立起完整的机器学习知识框架，稳步从入门走向","100-Days-of-ML-Code-Chinese-Version 是经典机器学习学习资源《100 Days of ML Code》的官方中文译本。它将原本英文的机器学习知识图谱、核心概念讲解及代码实现全面本地化，旨在消除语言障碍，帮助中文用户更顺畅地掌握人工智能技术。\n\n该项目主要解决了初学者在面对海量英文技术资料时遇到的理解困难和入门门槛高的问题。通过“每天一个知识点”的结构化路径，它系统性地涵盖了从数据预处理、线性回归、逻辑回归，到支持向量机（SVM）、决策树、随机森林以及聚类等监督与无监督学习算法。内容不仅包含直观的信息图（Infographics）来解释复杂原理，还提供了基于 Python 和 Scikit-Learn 的具体代码实现，实现了理论与实践的紧密结合。\n\n这套资源非常适合机器学习开发者、数据科学专业的学生以及希望转行进入 AI 领域的研究人员使用。对于具备一定编程基础但缺乏系统理论指导的普通技术爱好者，它也是一份极佳的自学指南。其独特的亮点在于将抽象的数学推导可视化，并配合每日进阶的代码练习，让用户能在 100 天内建立起完整的机器学习知识框架，稳步从入门走向实战。","# 机器学习100天\n\n英文原版请移步[Avik-Jain](https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-Of-ML-Code)。\n\n[中文最新版](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code)。常见问题解答见[FAQ](https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FFAQ.MD)。\n\n# 目录\n- 有监督学习\n  - [数据预处理](#数据预处理--第1天)\n  - [简单线性回归](#简单线性回归--第2天)\n  - [多元线性回归](#多元线性回归--第3天)\n  - [逻辑回归](#逻辑回归--第4天)\n  - [k近邻法(k-NN)](#k近邻法k-nn--第7天)\n  - [支持向量机(SVM)](#支持向量机svm--第12天)\n  - [决策树](#决策树--第23天)\n  - [随机森林](#随机森林--第33天)\n- 无监督学习\n  - [K-均值聚类](#k-均值聚类--第43天)\n  - [层次聚类](#层次聚类--第54天)\n\n## 数据预处理 | 第1天\n[数据预处理实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%201_Data_Preprocessing.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_920eea21b496.jpg\">\n\u003C\u002Fp>\n\n## 简单线性回归 | 第2天\n[简单线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%202_Simple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_093fe73b86af.jpg\">\n\u003C\u002Fp>\n\n## 多元线性回归 | 第3天\n[多元线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%203_Multiple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_f1a292800921.png\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第4天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_b3bed5d8677f.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第5天\n今天我深入研究了逻辑回归到底是什么，以及它背后的数学是什么。学习了如何计算代价函数，以及如何使用梯度下降法来将代价函数降低到最小。\u003Cbr>\n由于时间关系，我将隔天发布信息图。如果有人在机器学习领域有一定经验，并愿意帮我编写代码文档，也了解github的Markdown语法，请在领英联系我。\n\n## 逻辑回归 | 第6天\n[逻辑回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%206_Logistic_Regression.md)\n\n## K近邻法(k-NN) | 第7天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_a7c8fa6e24f7.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归背后的数学 | 第8天\n为了使我对逻辑回归的见解更加清晰，我在网上搜索了一些资源或文章，然后我就发现了Saishruthi Swaminathan的\u003Ca href = \"https:\u002F\u002Ftowardsdatascience.com\u002Flogistic-regression-detailed-overview-46c4da4303bc\">这篇文章\u003C\u002Fa>\u003Cbr>\n\n它给出了逻辑回归的详细描述。请务必看一看。\n\n## 支持向量机(SVM) | 第9天\n直观了解SVM是什么以及如何使用它来解决分类问题。\n\n## 支持向量机和K近邻法 | 第10天\n了解更多关于SVM如何工作和实现knn算法的知识。\n\n## K近邻法(k-NN) | 第11天\n[K近邻法(k-NN)实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2011_K-NN.md)\n\n## 支持向量机(SVM) | 第12天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_302d05597af0.jpg\">\n\u003C\u002Fp>\n\n## 支持向量机(SVM) | 第13天\n[SVM实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.md)\n\n## 支持向量机(SVM)的实现 | 第14天\n今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器，我们用它来完成这个任务。将在下一次实现时使用kernel-trick。Python代码见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.py),Jupyter notebook见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.ipynb)。\n\n## 朴素贝叶斯分类器(Naive Bayes Classifier)和黑盒机器学习(Black Box Machine Learning) | 第15天\n学习不同类型的朴素贝叶斯分类器同时开始\u003Ca href=\"https:\u002F\u002Fbloomberg.github.io\u002Ffoml\u002F#home\">Bloomberg\u003C\u002Fa>的课程。课程列表中的第一个是黑河机器学习。它给出了预测函数，特征提取，学习算法，性能评估，交叉验证，样本偏差，非平稳性，过度拟合和超参数调整的整体观点。\n\n## 通过内核技巧实现支持向量机 | 第16天\n使用Scikit-Learn库实现了SVM算法以及内核函数，该函数将我们的数据点映射到更高维度以找到最佳超平面。\n\n## 在Coursera开始深度学习的专业课程 | 第17天\n在1天内完成第1周和第2周内容以及学习课程中的逻辑回归神经网络。\n\n## 继续Coursera上的深度学习专业课程 | 第18天\n完成课程1。用Python自己实现一个神经网络。\n\n## 学习问题和Yaser Abu-Mostafa教授 | 第19天\n开始Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程1。这基本上是对即将到来的课程的一种介绍。他也介绍了感知算法。\n\n## 深度学习专业课程2 | 第20天\n完成改进深度神经网络第1周内容：参数调整，正则化和优化。\n\n## 网页搜罗 | 第21天\n观看了一些关于如何使用Beautiful Soup进行网络爬虫的教程，以便收集用于构建模型的数据。\n\n## 学习还可行吗? | 第22天\n完成Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程2。学习Hoeffding不等式。\n\n## 决策树 | 第23天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_3559f1d50095.jpg\">\n\u003C\u002Fp>\n\n## 统计学习理论的介绍 | 第24天\nBloomberg ML课程的第3课介绍了一些核心概念，如输入空间，动作空间，结果空间，预测函数，损失函数和假设空间。\n\n## 决策树 | 第25天\n[决策树实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2025_Decision_Tree.md)\n\n## 跳到复习线性代数 | 第26天\n发现YouTube一个神奇的频道[3Blue1Brown](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCYO_jab_esuFRV4b17AJtAw)，它有一个播放列表《线性代数的本质》。看完了4个视频，包括了向量，线性组合，跨度，基向量，线性变换和矩阵乘法。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第27天\n继续观看了4个视频，内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第28天\n继续观看了3个视频，内容包括点积和叉积。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第29天\n观看了剩余的视频12到14，内容包括特征向量和特征值，以及抽象向量空间。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 微积分的本质 | 第30天\n完成上一播放列表后，YouTube推荐了新内容《微积分的本质》，今天看完了其中的3个视频，包括导数、链式法则、乘积法则和指数导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第31天\n观看了2个视频，内容包括隐分化与极限。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第32天\n观看了剩余的4个视频，内容包括积分与高阶导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 随机森林 | 第33天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_81ff94e26a4a.png\">\n\u003C\u002Fp>\n\n## 随机森林 | 第34天\n[随机森林实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2034_Random_Forests.md)\n\n## 什么是神经网络？ | 深度学习，第1章 | 第 35天\nYoutube频道3Blue1Brown中有精彩的视频介绍神经网络。这个视频提供了很好的解释，并使用手写数字数据集演示基本概念。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 梯度下降法，神经网络如何学习 | 深度学习，第2章 | 第36天\nYoutube频道3Blue1Brown关于神经网络的第2部分，这个视频用有趣的方式解释了梯度下降法。推荐必须观看169.\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法究竟做什么？ | 深度学习，第3章 | 第37天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法演算 | 深度学习，第4章 | 第38天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 第1部分 | 深度学习基础Python，TensorFlow和Keras | 第39天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2039.ipynb)。\n\n## 第2部分 | 深度学习基础Python，TensorFlow和Keras | 第40天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2040.ipynb)。\n\n## 第3部分 | 深度学习基础Python，TensorFlow和Keras | 第41天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2041.ipynb)。\n\n## 第4部分 | 深度学习基础Python，TensorFlow和Keras | 第42天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2042.ipynb)。\n\n## K-均值聚类 | 第43天\n转到无监督学习，并研究了聚类。可在[作者网站](http:\u002F\u002Fwww.avikjain.me\u002F)查询。发现一个奇妙的[动画](http:\u002F\u002Fshabal.in\u002Fvisuals\u002Fkmeans\u002F6.html)有助于理解K-均值聚类。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_dc8e5cdd1856.jpg\">\n\u003C\u002Fp>\n\n## K-均值聚类 | 第44天\n实现（待添加代码）\n\n## 深入研究 | NUMPY | 第45天\n得到JK VanderPlas写的书《Python数据科学手册（Python Data Science HandBook）》，Jupyter notebooks在[这里](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook)。\n\u003Cbr>**[高清中文版pdf](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002FPython%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%E6%89%8B%E5%86%8C.zip)**\n\u003Cbr>第2章：NumPy介绍，包括数据类型、数组和数组计算。\n\u003Cbr>代码如下：\n\u003Cbr>[2 NumPy入门](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.00-Introduction-to-NumPy.ipynb)\n\u003Cbr>[2.1 理解Python中的数据类型](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.01-Understanding-Data-Types.ipynb)\n\u003Cbr>[2.2 NumPy数组基础](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.02-The-Basics-Of-NumPy-Arrays.ipynb)\n\u003Cbr>[2.3 NumPy数组的计算：通用函数](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.03-Computation-on-arrays-ufuncs.ipynb)\n\n## 深入研究 | NUMPY | 第46天\n第2章： 聚合, 比较运算符和广播。\n\u003Cbr>代码如下：\n\u003Cbr>[2.4 聚合：最小值、最大值和其他值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.04-Computation-on-arrays-aggregates.ipynb)\n\u003Cbr>[2.5 数组的计算：广播](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.05-Computation-on-arrays-broadcasting.ipynb)\n\u003Cbr>[2.6 比较、掩码和布尔运算](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.06-Boolean-Arrays-and-Masks.ipynb)\n\n## 深入研究 | NUMPY | 第47天\n第2章： 花哨的索引，数组排序，结构化数据。\n\u003Cbr>代码如下：\n\u003Cbr>[2.7 花哨的索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.07-Fancy-Indexing.ipynb)\n\u003Cbr>[2.8 数组的排序](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.08-Sorting.ipynb)\n\u003Cbr>[2.9 结构化数据：NumPy的结构化数组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.09-\u003Cbr>Structured-Data-NumPy.ipynb)\n\n## 深入研究 | PANDAS | 第48天\n第3章：Pandas数据处理\n\u003Cbr>包含Pandas对象，数据取值与选择，数值运算方法，处理缺失值，层级索引，合并数据集。\n\u003Cbr>代码如下：\n\u003Cbr>[3 Pandas数据处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.00-Introduction-to-Pandas.ipynb)\n\u003Cbr>[3.1 Pandas对象简介](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.01-Introducing-Pandas-Objects.ipynb)\n\u003Cbr>[3.2 数据取值与选择](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.02-Data-Indexing-and-Selection.ipynb)\n\u003Cbr>[3.3 Pandas数值运算方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.03-Operations-in-Pandas.ipynb)\n\u003Cbr>[3.4 处理缺失值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.04-Missing-Values.ipynb)\n\u003Cbr>[3.5 层级索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.05-Hierarchical-Indexing.ipynb)\n\u003Cbr>[3.6 合并数据集：ConCat和Append方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.06-Concat-And-Append.ipynb)\n\n## 深入研究 | PANDAS | 第49天\n第3章：完成剩余内容-合并与连接，累计与分组，数据透视表。\n\u003Cbr>代码如下：\n\u003Cbr>[3.7 合并数据集：合并与连接](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.07-Merge-and-Join.ipynb)\n\u003Cbr>[3.8 累计与分组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.08-Aggregation-and-Grouping.ipynb)\n\u003Cbr>[3.9 数据透视表](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.09-Pivot-Tables.ipynb)\n\n## 深入研究 | PANDAS | 第50天\n第3章：向量化字符串操作，处理时间序列。\n\u003Cbr>代码如下：\n\u003Cbr>[3.10 向量化字符串操作](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.10-Working-With-Strings.ipynb)\n\u003Cbr>[3.11 处理时间序列](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.11-Working-with-Time-Series.ipynb)\n\u003Cbr>[3.12 高性能Pandas：eval()与query()](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.12-Performance-Eval-and-Query.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第51天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习简易线形图, 简易散点图，密度图与等高线图.\n\u003Cbr>代码如下：\n\u003Cbr>[4 Matplotlib数据可视化](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.00-Introduction-To-Matplotlib.ipynb)\n\u003Cbr>[4.1 简易线形图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.01-Simple-Line-Plots.ipynb)\n\u003Cbr>[4.2 简易散点图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.02-Simple-Scatter-Plots.ipynb)\n\u003Cbr>[4.3 可视化异常处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.03-Errorbars.ipynb)\n\u003Cbr>[4.4 密度图与等高线图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.04-Density-and-Contour-Plots.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第52天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习直方图，配置图例，配置颜色条，多子图。\n\u003Cbr>代码如下： \n\u003Cbr>[4.5 直方图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.05-Histograms-and-Binnings.ipynb)\n\u003Cbr>[4.6 配置图例](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.06-Customizing-Legends.ipynb)\n\u003Cbr>[4.7 配置颜色条](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.07-Customizing-Colorbars.ipynb)\n\u003Cbr>[4.8 多子图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.08-Multiple-Subplots.ipynb)\n\u003Cbr>[4.9 文字与注释](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.09-Text-and-Annotation.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第53天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习三维绘图。\n\u003Cbr>[4.12 画三维图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.12-Three-Dimensional-Plotting.ipynb)\n\n## 层次聚类 | 第54天\n[动画演示](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002F%E5%B1%82%E6%AC%A1%E8%81%9A%E7%B1%BB.gif)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_4dc140ad5b86.jpg\">\n\u003C\u002Fp>\n","# 机器学习100天\n\n英文原版请移步[Avik-Jain](https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-Of-ML-Code)。\n\n[中文最新版](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code)。常见问题解答见[FAQ](https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FFAQ.MD)。\n\n# 目录\n- 有监督学习\n  - [数据预处理](#数据预处理--第1天)\n  - [简单线性回归](#简单线性回归--第2天)\n  - [多元线性回归](#多元线性回归--第3天)\n  - [逻辑回归](#逻辑回归--第4天)\n  - [k近邻法(k-NN)](#k近邻法k-nn--第7天)\n  - [支持向量机(SVM)](#支持向量机svm--第12天)\n  - [决策树](#决策树--第23天)\n  - [随机森林](#随机森林--第33天)\n- 无监督学习\n  - [K-均值聚类](#k-均值聚类--第43天)\n  - [层次聚类](#层次聚类--第54天)\n\n## 数据预处理 | 第1天\n[数据预处理实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%201_Data_Preprocessing.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_920eea21b496.jpg\">\n\u003C\u002Fp>\n\n## 简单线性回归 | 第2天\n[简单线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%202_Simple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_093fe73b86af.jpg\">\n\u003C\u002Fp>\n\n## 多元线性回归 | 第3天\n[多元线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%203_Multiple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_f1a292800921.png\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第4天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_b3bed5d8677f.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第5天\n今天我深入研究了逻辑回归到底是什么，以及它背后的数学是什么。学习了如何计算代价函数，以及如何使用梯度下降法来将代价函数降低到最小。\u003Cbr>\n由于时间关系，我将隔天发布信息图。如果有人在机器学习领域有一定经验，并愿意帮我编写代码文档，也了解github的Markdown语法，请在领英联系我。\n\n## 逻辑回归 | 第6天\n[逻辑回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%206_Logistic_Regression.md)\n\n## K近邻法(k-NN) | 第7天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_a7c8fa6e24f7.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归背后的数学 | 第8天\n为了使我对逻辑回归的见解更加清晰，我在网上搜索了一些资源或文章，然后我就发现了Saishruthi Swaminathan的\u003Ca href = \"https:\u002F\u002Ftowardsdatascience.com\u002Flogistic-regression-detailed-overview-46c4da4303bc\">这篇文章\u003C\u002Fa>\u003Cbr>\n\n它给出了逻辑回归的详细描述。请务必看一看。\n\n## 支持向量机(SVM) | 第9天\n直观了解SVM是什么以及如何使用它来解决分类问题。\n\n## 支持向量机和K近邻法 | 第10天\n了解更多关于SVM如何工作和实现knn算法的知识。\n\n## K近邻法(k-NN) | 第11天\n[K近邻法(k-NN)实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2011_K-NN.md)\n\n## 支持向量机(SVM) | 第12天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_302d05597af0.jpg\">\n\u003C\u002Fp>\n\n## 支持向量机(SVM) | 第13天\n[SVM实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.md)\n\n## 支持向量机(SVM)的实现 | 第14天\n今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器，我们用它来完成这个任务。将在下一次实现时使用kernel-trick。Python代码见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.py),Jupyter notebook见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.ipynb)。\n\n## 朴素贝叶斯分类器(Naive Bayes Classifier)和黑盒机器学习(Black Box Machine Learning) | 第15天\n学习不同类型的朴素贝叶斯分类器同时开始\u003Ca href=\"https:\u002F\u002Fbloomberg.github.io\u002Ffoml\u002F#home\">Bloomberg\u003C\u002Fa>的课程。课程列表中的第一个是黑河机器学习。它给出了预测函数，特征提取，学习算法，性能评估，交叉验证，样本偏差，非平稳性，过度拟合和超参数调整的整体观点。\n\n## 通过内核技巧实现支持向量机 | 第16天\n使用Scikit-Learn库实现了SVM算法以及内核函数，该函数将我们的数据点映射到更高维度以找到最佳超平面。\n\n## 在Coursera开始深度学习的专业课程 | 第17天\n在1天内完成第1周和第2周内容以及学习课程中的逻辑回归神经网络。\n\n## 继续Coursera上的深度学习专业课程 | 第18天\n完成课程1。用Python自己实现一个神经网络。\n\n## 学习问题和Yaser Abu-Mostafa教授 | 第19天\n开始Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程1。这基本上是对即将到来的课程的一种介绍。他也介绍了感知算法。\n\n## 深度学习专业课程2 | 第20天\n完成改进深度神经网络第1周内容：参数调整，正则化和优化。\n\n## 网页搜罗 | 第21天\n观看了一些关于如何使用Beautiful Soup进行网络爬虫的教程，以便收集用于构建模型的数据。\n\n## 学习还可行吗? | 第22天\n完成Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程2。学习Hoeffding不等式。\n\n## 决策树 | 第23天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_3559f1d50095.jpg\">\n\u003C\u002Fp>\n\n## 统计学习理论的介绍 | 第24天\nBloomberg ML课程的第3课介绍了一些核心概念，如输入空间，动作空间，结果空间，预测函数，损失函数和假设空间。\n\n## 决策树 | 第25天\n[决策树实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2025_Decision_Tree.md)\n\n## 跳到复习线性代数 | 第26天\n发现YouTube一个神奇的频道[3Blue1Brown](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCYO_jab_esuFRV4b17AJtAw)，它有一个播放列表《线性代数的本质》。看完了4个视频，包括了向量，线性组合，跨度，基向量，线性变换和矩阵乘法。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第27天\n继续观看了4个视频，内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第28天\n继续观看了3个视频，内容包括点积和叉积。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第29天\n观看了剩余的视频12到14，内容包括特征向量和特征值，以及抽象向量空间。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 微积分的本质 | 第30天\n完成上一播放列表后，YouTube推荐了新内容《微积分的本质》，今天看完了其中的3个视频，包括导数、链式法则、乘积法则和指数导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第31天\n观看了2个视频，内容包括隐分化与极限。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第32天\n观看了剩余的4个视频，内容包括积分与高阶导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 随机森林 | 第33天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_81ff94e26a4a.png\">\n\u003C\u002Fp>\n\n## 随机森林 | 第34天\n[随机森林实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2034_Random_Forests.md)\n\n## 什么是神经网络？ | 深度学习，第1章 | 第 35天\nYoutube频道3Blue1Brown中有精彩的视频介绍神经网络。这个视频提供了很好的解释，并使用手写数字数据集演示基本概念。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 梯度下降法，神经网络如何学习 | 深度学习，第2章 | 第36天\nYoutube频道3Blue1Brown关于神经网络的第2部分，这个视频用有趣的方式解释了梯度下降法。推荐必须观看169.\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法究竟做什么？ | 深度学习，第3章 | 第37天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法演算 | 深度学习，第4章 | 第38天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 第1部分 | 深度学习基础Python，TensorFlow和Keras | 第39天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2039.ipynb)。\n\n## 第2部分 | 深度学习基础Python，TensorFlow和Keras | 第40天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2040.ipynb)。\n\n## 第3部分 | 深度学习基础Python，TensorFlow和Keras | 第41天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2041.ipynb)。\n\n## 第4部分 | 深度学习基础Python，TensorFlow和Keras | 第42天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2042.ipynb)。\n\n## K-均值聚类 | 第43天\n转到无监督学习，并研究了聚类。可在[作者网站](http:\u002F\u002Fwww.avikjain.me\u002F)查询。发现一个奇妙的[动画](http:\u002F\u002Fshabal.in\u002Fvisuals\u002Fkmeans\u002F6.html)有助于理解K-均值聚类。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_dc8e5cdd1856.jpg\">\n\u003C\u002Fp>\n\n## K-均值聚类 | 第44天\n实现（待添加代码）\n\n## 深入研究 | NUMPY | 第45天\n得到JK VanderPlas写的书《Python数据科学手册（Python Data Science HandBook）》，Jupyter notebooks在[这里](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook)。\n\u003Cbr>**[高清中文版pdf](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002FPython%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%E6%89%8B%E5%86%8C.zip)**\n\u003Cbr>第2章：NumPy介绍，包括数据类型、数组和数组计算。\n\u003Cbr>代码如下：\n\u003Cbr>[2 NumPy入门](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.00-Introduction-to-NumPy.ipynb)\n\u003Cbr>[2.1 理解Python中的数据类型](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.01-Understanding-Data-Types.ipynb)\n\u003Cbr>[2.2 NumPy数组基础](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.02-The-Basics-Of-NumPy-Arrays.ipynb)\n\u003Cbr>[2.3 NumPy数组的计算：通用函数](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.03-Computation-on-arrays-ufuncs.ipynb)\n\n## 深入研究 | NUMPY | 第46天\n第2章： 聚合, 比较运算符和广播。\n\u003Cbr>代码如下：\n\u003Cbr>[2.4 聚合：最小值、最大值和其他值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.04-Computation-on-arrays-aggregates.ipynb)\n\u003Cbr>[2.5 数组的计算：广播](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.05-Computation-on-arrays-broadcasting.ipynb)\n\u003Cbr>[2.6 比较、掩码和布尔运算](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.06-Boolean-Arrays-and-Masks.ipynb)\n\n## 深入研究 | NUMPY | 第47天\n第2章： 花哨的索引，数组排序，结构化数据。\n\u003Cbr>代码如下：\n\u003Cbr>[2.7 花哨的索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.07-Fancy-Indexing.ipynb)\n\u003Cbr>[2.8 数组的排序](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.08-Sorting.ipynb)\n\u003Cbr>[2.9 结构化数据：NumPy的结构化数组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.09-\u003Cbr>Structured-Data-NumPy.ipynb)\n\n## 深入研究 | PANDAS | 第48天\n第3章：Pandas数据处理\n\u003Cbr>包含Pandas对象，数据取值与选择，数值运算方法，处理缺失值，层级索引，合并数据集。\n\u003Cbr>代码如下：\n\u003Cbr>[3 Pandas数据处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.00-Introduction-to-Pandas.ipynb)\n\u003Cbr>[3.1 Pandas对象简介](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.01-Introducing-Pandas-Objects.ipynb)\n\u003Cbr>[3.2 数据取值与选择](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.02-Data-Indexing-and-Selection.ipynb)\n\u003Cbr>[3.3 Pandas数值运算方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.03-Operations-in-Pandas.ipynb)\n\u003Cbr>[3.4 处理缺失值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.04-Missing-Values.ipynb)\n\u003Cbr>[3.5 层级索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.05-Hierarchical-Indexing.ipynb)\n\u003Cbr>[3.6 合并数据集：ConCat和Append方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.06-Concat-And-Append.ipynb)\n\n## 深入研究 | PANDAS | 第49天\n第3章：完成剩余内容-合并与连接，累计与分组，数据透视表。\n\u003Cbr>代码如下：\n\u003Cbr>[3.7 合并数据集：合并与连接](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.07-Merge-and-Join.ipynb)\n\u003Cbr>[3.8 累计与分组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.08-Aggregation-and-Grouping.ipynb)\n\u003Cbr>[3.9 数据透视表](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.09-Pivot-Tables.ipynb)\n\n## 深入研究 | PANDAS | 第50天\n第3章：向量化字符串操作，处理时间序列。\n\u003Cbr>代码如下：\n\u003Cbr>[3.10 向量化字符串操作](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.10-Working-With-Strings.ipynb)\n\u003Cbr>[3.11 处理时间序列](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.11-Working-with-Time-Series.ipynb)\n\u003Cbr>[3.12 高性能Pandas：eval()与query()](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.12-Performance-Eval-and-Query.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第51天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习简易线形图, 简易散点图，密度图与等高线图.\n\u003Cbr>代码如下：\n\u003Cbr>[4 Matplotlib数据可视化](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.00-Introduction-To-Matplotlib.ipynb)\n\u003Cbr>[4.1 简易线形图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.01-Simple-Line-Plots.ipynb)\n\u003Cbr>[4.2 简易散点图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.02-Simple-Scatter-Plots.ipynb)\n\u003Cbr>[4.3 可视化异常处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.03-Errorbars.ipynb)\n\u003Cbr>[4.4 密度图与等高线图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.04-Density-and-Contour-Plots.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第52天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习直方图，配置图例，配置颜色条，多子图。\n\u003Cbr>代码如下： \n\u003Cbr>[4.5 直方图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.05-Histograms-and-Binnings.ipynb)\n\u003Cbr>[4.6 配置图例](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.06-Customizing-Legends.ipynb)\n\u003Cbr>[4.7 配置颜色条](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.07-Customizing-Colorbars.ipynb)\n\u003Cbr>[4.8 多子图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.08-Multiple-Subplots.ipynb)\n\u003Cbr>[4.9 文字与注释](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.09-Text-and-Annotation.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第53天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习三维绘图。\n\u003Cbr>[4.12 画三维图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.12-Three-Dimensional-Plotting.ipynb)\n\n## 层次聚类 | 第54天\n[动画演示](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002F%E5%B1%82%E6%AC%A1%E8%81%9A%E7%B1%BB.gif)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_readme_4dc140ad5b86.jpg\">\n\u003C\u002Fp>","# 100-Days-of-ML-Code 中文快速上手指南\n\n本指南旨在帮助开发者快速启动“机器学习 100 天”学习计划。该项目并非单一的可安装软件包，而是一套结构化的学习路线、代码实现笔记和可视化图解集合。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Python 版本**：推荐 Python 3.8 及以上版本\n*   **核心依赖库**：\n    *   `numpy` (数值计算)\n    *   `pandas` (数据处理)\n    *   `matplotlib` \u002F `seaborn` (数据可视化)\n    *   `scikit-learn` (机器学习算法实现)\n    *   `jupyter` (交互式笔记本运行环境)\n    *   `tensorflow` \u002F `keras` (深度学习部分可选)\n\n**国内加速建议**：\n推荐使用清华源或阿里源安装依赖，以提升下载速度。\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n将中文版代码库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code.git\ncd 100-Days-Of-ML-Code\n```\n\n### 2. 创建虚拟环境（推荐）\n为了避免依赖冲突，建议创建独立的虚拟环境：\n\n```bash\npython -m venv ml_100_days\n# Windows\nml_100_days\\Scripts\\activate\n# macOS\u002FLinux\nsource ml_100_days\u002Fbin\u002Factivate\n```\n\n### 3. 安装依赖\n使用国内镜像源安装所需库：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy pandas matplotlib scikit-learn jupyter seaborn\n```\n\n*(注：若需进行深度学习章节学习，可额外安装 `tensorflow` 或 `torch`)*\n\n## 基本使用\n\n本项目按“天”组织内容，每天包含理论图解（Info-graphs）和代码实现（Code）。\n\n### 运行第一天的示例：数据预处理\n\n1.  **启动 Jupyter Notebook**：\n    在项目根目录下运行：\n    ```bash\n    jupyter notebook\n    ```\n\n2.  **导航至代码目录**：\n    在浏览器打开的界面中，进入 `Code` 文件夹。\n\n3.  **打开并运行笔记**：\n    找到 `Day 1_Data_Preprocessing.ipynb` (或对应的 `.md` 文件查看说明)，点击打开。\n    \n    或者直接在终端运行特定的 Python 脚本（以第 1 天为例，如果存在 `.py` 文件）：\n    ```bash\n    python Code\u002FDay_1_Data_Preprocessing.py\n    ```\n    *(注意：具体文件名请以仓库内实际文件为准，部分天数可能仅提供 .ipynb 文件)*\n\n### 学习路径建议\n\n*   **基础阶段 (第 1-14 天)**：重点掌握数据预处理、线性回归、逻辑回归及 SVM。请依次运行 `Code` 目录下的对应笔记。\n*   **进阶阶段 (第 23-42 天)**：学习决策树、随机森林及深度学习基础。此阶段建议结合 `Other Docs` 中的《Python 数据科学手册》中文版进行 NumPy 和 Pandas 的深入复习。\n*   **无监督学习 (第 43 天起)**：探索聚类算法等无监督学习方法。\n\n### 查看可视化图解\n每个主题对应的概念图解位于 `Info-graphs` 目录中，例如查看第 1 天的流程图：\n*   文件路径：`Info-graphs\u002FDay 1.jpg`\n*   可直接使用图片查看器打开，辅助理解算法流程。","某高校计算机专业的大二学生李明，计划利用暑假系统掌握机器学习核心算法，以便完成期末的客户流失预测项目，但他发现英文原版教程门槛过高，难以深入理解数学原理与代码实现。\n\n### 没有 100-Days-of-ML-Code-Chinese-Version 时\n- **语言障碍严重**：面对 Avik-Jain 的英文原版信息图和文档，专业术语（如“核技巧”、“梯度下降”）理解吃力，每天花费大量时间查词典而非学习算法。\n- **知识体系碎片化**：网上中文资料零散且质量参差不齐，缺乏像“第 1 天数据预处理”到“第 33 天随机森林”这样结构清晰的百日进阶路径。\n- **理论与实践脱节**：看懂了概念却不知如何用 Python 落地，找不到与理论讲解严格对应的 Scikit-Learn 代码实现，导致无法复现模型。\n- **数学原理畏难**：遇到逻辑回归或 SVM 背后的数学推导时，因缺乏母语详细解析而直接跳过，导致后续调参和优化时无从下手。\n\n### 使用 100-Days-of-ML-Code-Chinese-Version 后\n- **母语无障碍学习**：直接阅读高质量的中文翻译版信息图，快速掌握“支持向量机”和\"K 近邻法”等核心概念的本质，学习效率提升一倍。\n- **结构化进阶路线**：严格遵循“百日计划”目录，从监督学习到无监督学习按部就班，建立了完整的机器学习知识地图，不再迷茫。\n- **代码即时复用**：每天的理论课后直接参考对应的 Markdown 代码文档和 Jupyter Notebook，迅速将“多元线性回归”等算法应用到自己的流失预测数据中。\n- **深度理解原理**：通过中文版的数学详解（如逻辑回归代价函数推导），彻底搞懂算法黑盒，能够自信地进行模型优化和超参数调整。\n\n100-Days-of-ML-Code-Chinese-Version 通过提供结构化的中文学习路径与配套代码，成功消除了语言壁垒，让初学者能从理论到实践系统地掌握机器学习核心技能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAvik-Jain_100-Days-of-ML-Code-Chinese-Version_e4f99ebd.png","Avik-Jain","Avik Jain","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAvik-Jain_d34b15b8.jpg","Machine Learning Fanatic\r\n",null,"https:\u002F\u002Fgithub.com\u002FAvik-Jain",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,3520,943,"2026-04-01T10:06:01","MIT","未说明",{"notes":94,"python":92,"dependencies":95},"该项目为机器学习学习教程，涵盖数据预处理、回归、分类、聚类及深度学习基础。代码实现主要基于 Scikit-Learn、TensorFlow 和 Keras 库，并包含大量 Jupyter Notebook 示例。部分章节涉及网络爬虫（Beautiful Soup）和数学基础复习（线性代数、微积分）。由于是教学性质项目，对硬件无特殊高要求，普通开发环境即可运行大部分示例。",[51,96,97,98,99,59,100],"numpy","pandas","matplotlib","tensorflow","beautifulsoup4",[18],"2026-03-27T02:49:30.150509","2026-04-06T07:23:06.543580",[105,110,115],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},14694,"这个项目为什么好久没有更新了？","项目一直在另一个仓库中进行更新维护，请关注新的项目地址以获取最新内容。","https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-of-ML-Code-Chinese-Version\u002Fissues\u002F6",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},14695,"我想参与翻译贡献，应该直接提交 PR 吗？","在提交 PR 前，请先联系维护者确认该部分内容是否已被其他人翻译，避免重复工作。维护者会发送邀请或指引您查看现有进度。","https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-of-ML-Code-Chinese-Version\u002Fissues\u002F3",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},14693,"有英文原版吗？","有的，英文原版项目地址为：https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-Of-ML-Code","https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-of-ML-Code-Chinese-Version\u002Fissues\u002F7",[]]