[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MLEveryday--100-Days-Of-ML-Code":3,"tool-MLEveryday--100-Days-Of-ML-Code":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":75,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":159},8363,"MLEveryday\u002F100-Days-Of-ML-Code","100-Days-Of-ML-Code","100-Days-Of-ML-Code中文版","100-Days-Of-ML-Code 是一份广受欢迎的机器学习学习路线图，旨在帮助初学者在 100 天内系统掌握机器学习的核心知识与实战技能。该项目将复杂的学习过程拆解为每日任务，涵盖从数据预处理、线性回归、逻辑回归，到支持向量机、决策树、随机森林以及聚类等经典算法，内容兼顾理论推导与代码实现。\n\n它主要解决了新手入门机器学习时面临的“知识碎片化”和“无从下手”的痛点。通过结构化的日程安排，学习者可以避免在海量资源中迷失，按部就班地建立完整的知识体系。项目中不仅包含清晰的图解信息流（Info-graphs）来直观展示算法原理，还提供了基于 Python 和 Scikit-Learn 的详细代码示例，确保理论与实践紧密结合。\n\n这份资源非常适合想要转行或提升技能的开发者、数据科学专业的学生以及对人工智能感兴趣的自学者。无论你是希望夯实数学基础的研究预备人员，还是渴望快速上手项目的工程实践者，都能从中找到适合的学习节奏。其独特的“每日打卡”机制配合中英文对照的社区维护模式，让枯燥的算法学习变得更具互动性和可操作性，是开启机器学习之旅的理想指南。","# 机器学习100天\n\n英文原版请移步[Avik-Jain](https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-Of-ML-Code)。数据在[这里](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Ftree\u002Fmaster\u002Fdatasets)。\n\n翻译前请先阅读[规范](Translation%20specification.MD)。常见问题解答见[FAQ](FAQ.MD)。\n\n# 目录\n- 有监督学习\n  - [数据预处理](#数据预处理--第1天)\n  - [简单线性回归](#简单线性回归--第2天)\n  - [多元线性回归](#多元线性回归--第3天)\n  - [逻辑回归](#逻辑回归--第4天)\n  - [k近邻法(k-NN)](#k近邻法k-nn--第7天)\n  - [支持向量机(SVM)](#支持向量机svm--第12天)\n  - [决策树](#决策树--第23天)\n  - [随机森林](#随机森林--第33天)\n- 无监督学习\n  - [K-均值聚类](#k-均值聚类--第43天)\n  - [层次聚类](#层次聚类--第54天)\n\n## 数据预处理 | 第1天\n[数据预处理实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%201_Data_Preprocessing.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_920eea21b496.jpg\">\n\u003C\u002Fp>\n\n## 简单线性回归 | 第2天\n[简单线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%202_Simple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_093fe73b86af.jpg\">\n\u003C\u002Fp>\n\n## 多元线性回归 | 第3天\n[多元线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%203_Multiple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_f1a292800921.png\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第4天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_b3bed5d8677f.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第5天\n今天我深入研究了逻辑回归到底是什么，以及它背后的数学是什么。学习了如何计算代价函数，以及如何使用梯度下降法来将代价函数降低到最小。\u003Cbr>\n由于时间关系，我将隔天发布信息图。如果有人在机器学习领域有一定经验，并愿意帮我编写代码文档，也了解github的Markdown语法，请在领英联系我。\n\n## 逻辑回归 | 第6天\n[逻辑回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%206_Logistic_Regression.md)\n\n## K近邻法(k-NN) | 第7天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_a7c8fa6e24f7.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归背后的数学 | 第8天\n为了使我对逻辑回归的见解更加清晰，我在网上搜索了一些资源或文章，然后我就发现了Saishruthi Swaminathan的\u003Ca href = \"https:\u002F\u002Ftowardsdatascience.com\u002Flogistic-regression-detailed-overview-46c4da4303bc\">这篇文章\u003C\u002Fa>\u003Cbr>\n\n它给出了逻辑回归的详细描述。请务必看一看。\n\n## 支持向量机(SVM) | 第9天\n直观了解SVM是什么以及如何使用它来解决分类问题。\n\n## 支持向量机和K近邻法 | 第10天\n了解更多关于SVM如何工作和实现knn算法的知识。\n\n## K近邻法(k-NN) | 第11天\n[K近邻法(k-NN)实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2011_K-NN.md)\n\n## 支持向量机(SVM) | 第12天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_302d05597af0.jpg\">\n\u003C\u002Fp>\n\n## 支持向量机(SVM) | 第13天\n[SVM实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.md)\n\n## 支持向量机(SVM)的实现 | 第14天\n今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器，我们用它来完成这个任务。将在下一次实现时使用kernel-trick。Python代码见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.py),Jupyter notebook见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.ipynb)。\n\n## 朴素贝叶斯分类器(Naive Bayes Classifier)和黑盒机器学习(Black Box Machine Learning) | 第15天\n学习不同类型的朴素贝叶斯分类器同时开始\u003Ca href=\"https:\u002F\u002Fbloomberg.github.io\u002Ffoml\u002F#home\">Bloomberg\u003C\u002Fa>的课程。课程列表中的第一个是黑盒机器学习。它给出了预测函数，特征提取，学习算法，性能评估，交叉验证，样本偏差，非平稳性，过度拟合和超参数调整的整体观点。\n\n## 通过内核技巧实现支持向量机 | 第16天\n使用Scikit-Learn库实现了SVM算法以及内核函数，该函数将我们的数据点映射到更高维度以找到最佳超平面。\n\n## 在Coursera开始深度学习的专业课程 | 第17天\n在1天内完成第1周和第2周内容以及学习课程中的逻辑回归神经网络。\n\n## 继续Coursera上的深度学习专业课程 | 第18天\n完成课程1。用Python自己实现一个神经网络。\n\n## 学习问题和Yaser Abu-Mostafa教授 | 第19天\n开始Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程1。这基本上是对即将到来的课程的一种介绍。他也介绍了感知算法。\n\n## 深度学习专业课程2 | 第20天\n完成改进深度神经网络第1周内容：参数调整，正则化和优化。\n\n## 网页搜罗 | 第21天\n观看了一些关于如何使用Beautiful Soup进行网络爬虫的教程，以便收集用于构建模型的数据。\n\n## 学习还可行吗? | 第22天\n完成Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程2。学习Hoeffding不等式。\n\n## 决策树 | 第23天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_3559f1d50095.jpg\">\n\u003C\u002Fp>\n\n## 统计学习理论的介绍 | 第24天\nBloomberg ML课程的第3课介绍了一些核心概念，如输入空间，动作空间，结果空间，预测函数，损失函数和假设空间。\n\n## 决策树 | 第25天\n[决策树实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2025_Decision_Tree.md)\n\n## 跳到复习线性代数 | 第26天\n发现YouTube一个神奇的频道[3Blue1Brown](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCYO_jab_esuFRV4b17AJtAw)，它有一个播放列表《线性代数的本质》。看完了4个视频，包括了向量，线性组合，跨度，基向量，线性变换和矩阵乘法。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第27天\n继续观看了4个视频，内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第28天\n继续观看了3个视频，内容包括点积和叉积。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第29天\n观看了剩余的视频12到14，内容包括特征向量和特征值，以及抽象向量空间。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 微积分的本质 | 第30天\n完成上一播放列表后，YouTube推荐了新内容《微积分的本质》，今天看完了其中的3个视频，包括导数、链式法则、乘积法则和指数导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第31天\n观看了2个视频，内容包括隐分化与极限。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第32天\n观看了剩余的4个视频，内容包括积分与高阶导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 随机森林 | 第33天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_81ff94e26a4a.png\">\n\u003C\u002Fp>\n\n## 随机森林 | 第34天\n[随机森林实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2034_Random_Forests.md)\n\n## 什么是神经网络？ | 深度学习，第1章 | 第 35天\nYoutube频道3Blue1Brown中有精彩的视频介绍神经网络。这个视频提供了很好的解释，并使用手写数字数据集演示基本概念。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 梯度下降法，神经网络如何学习 | 深度学习，第2章 | 第36天\nYoutube频道3Blue1Brown关于神经网络的第2部分，这个视频用有趣的方式解释了梯度下降法。推荐必须观看169.\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法究竟做什么？ | 深度学习，第3章 | 第37天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法演算 | 深度学习，第4章 | 第38天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 第1部分 | 深度学习基础Python，TensorFlow和Keras | 第39天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2039.ipynb)。\n\n## 第2部分 | 深度学习基础Python，TensorFlow和Keras | 第40天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2040.ipynb)。\n\n## 第3部分 | 深度学习基础Python，TensorFlow和Keras | 第41天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2041.ipynb)。\n\n## 第4部分 | 深度学习基础Python，TensorFlow和Keras | 第42天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2042.ipynb)。\n\n## K-均值聚类 | 第43天\n转到无监督学习，并研究了聚类。可在[作者网站](http:\u002F\u002Fwww.avikjain.me\u002F)查询。发现一个奇妙的[动画](http:\u002F\u002Fshabal.in\u002Fvisuals\u002Fkmeans\u002F6.html)有助于理解K-均值聚类。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_dc8e5cdd1856.jpg\">\n\u003C\u002Fp>\n\n## K-均值聚类 | 第44天\n实现（待添加代码）\n\n## 深入研究 | NUMPY | 第45天\n得到JK VanderPlas写的书《Python数据科学手册（Python Data Science HandBook）》，Jupyter notebooks在[这里](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook)。\n\u003Cbr>**[高清中文版pdf](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002FPython%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%E6%89%8B%E5%86%8C.zip)**\n\u003Cbr>第2章：NumPy介绍，包括数据类型、数组和数组计算。\n\u003Cbr>代码如下：\n\u003Cbr>[2 NumPy入门](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.00-Introduction-to-NumPy.ipynb)\n\u003Cbr>[2.1 理解Python中的数据类型](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.01-Understanding-Data-Types.ipynb)\n\u003Cbr>[2.2 NumPy数组基础](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.02-The-Basics-Of-NumPy-Arrays.ipynb)\n\u003Cbr>[2.3 NumPy数组的计算：通用函数](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.03-Computation-on-arrays-ufuncs.ipynb)\n\n## 深入研究 | NUMPY | 第46天\n第2章： 聚合, 比较运算符和广播。\n\u003Cbr>代码如下：\n\u003Cbr>[2.4 聚合：最小值、最大值和其他值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.04-Computation-on-arrays-aggregates.ipynb)\n\u003Cbr>[2.5 数组的计算：广播](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.05-Computation-on-arrays-broadcasting.ipynb)\n\u003Cbr>[2.6 比较、掩码和布尔运算](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.06-Boolean-Arrays-and-Masks.ipynb)\n\n## 深入研究 | NUMPY | 第47天\n第2章： 花哨的索引，数组排序，结构化数据。\n\u003Cbr>代码如下：\n\u003Cbr>[2.7 花哨的索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.07-Fancy-Indexing.ipynb)\n\u003Cbr>[2.8 数组的排序](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.08-Sorting.ipynb)\n\u003Cbr>[2.9 结构化数据：NumPy的结构化数组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.09-\u003Cbr>Structured-Data-NumPy.ipynb)\n\n## 深入研究 | PANDAS | 第48天\n第3章：Pandas数据处理\n\u003Cbr>包含Pandas对象，数据取值与选择，数值运算方法，处理缺失值，层级索引，合并数据集。\n\u003Cbr>代码如下：\n\u003Cbr>[3 Pandas数据处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.00-Introduction-to-Pandas.ipynb)\n\u003Cbr>[3.1 Pandas对象简介](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.01-Introducing-Pandas-Objects.ipynb)\n\u003Cbr>[3.2 数据取值与选择](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.02-Data-Indexing-and-Selection.ipynb)\n\u003Cbr>[3.3 Pandas数值运算方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.03-Operations-in-Pandas.ipynb)\n\u003Cbr>[3.4 处理缺失值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.04-Missing-Values.ipynb)\n\u003Cbr>[3.5 层级索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.05-Hierarchical-Indexing.ipynb)\n\u003Cbr>[3.6 合并数据集：ConCat和Append方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.06-Concat-And-Append.ipynb)\n\n## 深入研究 | PANDAS | 第49天\n第3章：完成剩余内容-合并与连接，累计与分组，数据透视表。\n\u003Cbr>代码如下：\n\u003Cbr>[3.7 合并数据集：合并与连接](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.07-Merge-and-Join.ipynb)\n\u003Cbr>[3.8 累计与分组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.08-Aggregation-and-Grouping.ipynb)\n\u003Cbr>[3.9 数据透视表](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.09-Pivot-Tables.ipynb)\n\n## 深入研究 | PANDAS | 第50天\n第3章：向量化字符串操作，处理时间序列。\n\u003Cbr>代码如下：\n\u003Cbr>[3.10 向量化字符串操作](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.10-Working-With-Strings.ipynb)\n\u003Cbr>[3.11 处理时间序列](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.11-Working-with-Time-Series.ipynb)\n\u003Cbr>[3.12 高性能Pandas：eval()与query()](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.12-Performance-Eval-and-Query.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第51天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习简易线形图, 简易散点图，密度图与等高线图.\n\u003Cbr>代码如下：\n\u003Cbr>[4 Matplotlib数据可视化](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.00-Introduction-To-Matplotlib.ipynb)\n\u003Cbr>[4.1 简易线形图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.01-Simple-Line-Plots.ipynb)\n\u003Cbr>[4.2 简易散点图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.02-Simple-Scatter-Plots.ipynb)\n\u003Cbr>[4.3 可视化异常处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.03-Errorbars.ipynb)\n\u003Cbr>[4.4 密度图与等高线图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.04-Density-and-Contour-Plots.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第52天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习直方图，配置图例，配置颜色条，多子图。\n\u003Cbr>代码如下： \n\u003Cbr>[4.5 直方图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.05-Histograms-and-Binnings.ipynb)\n\u003Cbr>[4.6 配置图例](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.06-Customizing-Legends.ipynb)\n\u003Cbr>[4.7 配置颜色条](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.07-Customizing-Colorbars.ipynb)\n\u003Cbr>[4.8 多子图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.08-Multiple-Subplots.ipynb)\n\u003Cbr>[4.9 文字与注释](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.09-Text-and-Annotation.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第53天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习三维绘图。\n\u003Cbr>[4.12 画三维图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.12-Three-Dimensional-Plotting.ipynb)\n\n## 层次聚类 | 第54天\n[动画演示](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002F%E5%B1%82%E6%AC%A1%E8%81%9A%E7%B1%BB.gif)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_4dc140ad5b86.jpg\">\n\u003C\u002Fp>\n","# 机器学习100天\n\n英文原版请移步[Avik-Jain](https:\u002F\u002Fgithub.com\u002FAvik-Jain\u002F100-Days-Of-ML-Code)。数据在[这里](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Ftree\u002Fmaster\u002Fdatasets)。\n\n翻译前请先阅读[规范](Translation%20specification.MD)。常见问题解答见[FAQ](FAQ.MD)。\n\n# 目录\n- 有监督学习\n  - [数据预处理](#数据预处理--第1天)\n  - [简单线性回归](#简单线性回归--第2天)\n  - [多元线性回归](#多元线性回归--第3天)\n  - [逻辑回归](#逻辑回归--第4天)\n  - [k近邻法(k-NN)](#k近邻法k-nn--第7天)\n  - [支持向量机(SVM)](#支持向量机svm--第12天)\n  - [决策树](#决策树--第23天)\n  - [随机森林](#随机森林--第33天)\n- 无监督学习\n  - [K-均值聚类](#k-均值聚类--第43天)\n  - [层次聚类](#层次聚类--第54天)\n\n## 数据预处理 | 第1天\n[数据预处理实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%201_Data_Preprocessing.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_920eea21b496.jpg\">\n\u003C\u002Fp>\n\n## 简单线性回归 | 第2天\n[简单线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%202_Simple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_093fe73b86af.jpg\">\n\u003C\u002Fp>\n\n## 多元线性回归 | 第3天\n[多元线性回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%203_Multiple_Linear_Regression.md)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_f1a292800921.png\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第4天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_b3bed5d8677f.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归 | 第5天\n今天我深入研究了逻辑回归到底是什么，以及它背后的数学是什么。学习了如何计算代价函数，以及如何使用梯度下降法来将代价函数降低到最小。\u003Cbr>\n由于时间关系，我将隔天发布信息图。如果有人在机器学习领域有一定经验，并愿意帮我编写代码文档，也了解github的Markdown语法，请在领英联系我。\n\n## 逻辑回归 | 第6天\n[逻辑回归实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%206_Logistic_Regression.md)\n\n## K近邻法(k-NN) | 第7天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_a7c8fa6e24f7.jpg\">\n\u003C\u002Fp>\n\n## 逻辑回归背后的数学 | 第8天\n为了使我对逻辑回归的见解更加清晰，我在网上搜索了一些资源或文章，然后我就发现了Saishruthi Swaminathan的\u003Ca href = \"https:\u002F\u002Ftowardsdatascience.com\u002Flogistic-regression-detailed-overview-46c4da4303bc\">这篇文章\u003C\u002Fa>\u003Cbr>\n\n它给出了逻辑回归的详细描述。请务必看一看。\n\n## 支持向量机(SVM) | 第9天\n直观了解SVM是什么以及如何使用它来解决分类问题。\n\n## 支持向量机和K近邻法 | 第10天\n了解更多关于SVM如何工作和实现knn算法的知识。\n\n## K近邻法(k-NN) | 第11天\n[K近邻法(k-NN)实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2011_K-NN.md)\n\n## 支持向量机(SVM) | 第12天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_302d05597af0.jpg\">\n\u003C\u002Fp>\n\n## 支持向量机(SVM) | 第13天\n[SVM实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.md)\n\n## 支持向量机(SVM)的实现 | 第14天\n今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器，我们用它来完成这个任务。将在下一次实现时使用kernel-trick。Python代码见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.py),Jupyter notebook见[此处](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2013_SVM.ipynb)。\n\n## 朴素贝叶斯分类器(Naive Bayes Classifier)和黑盒机器学习(Black Box Machine Learning) | 第15天\n学习不同类型的朴素贝叶斯分类器同时开始\u003Ca href=\"https:\u002F\u002Fbloomberg.github.io\u002Ffoml\u002F#home\">Bloomberg\u003C\u002Fa>的课程。课程列表中的第一个是黑盒机器学习。它给出了预测函数，特征提取，学习算法，性能评估，交叉验证，样本偏差，非平稳性，过度拟合和超参数调整的整体观点。\n\n## 通过内核技巧实现支持向量机 | 第16天\n使用Scikit-Learn库实现了SVM算法以及内核函数，该函数将我们的数据点映射到更高维度以找到最佳超平面。\n\n## 在Coursera开始深度学习的专业课程 | 第17天\n在1天内完成第1周和第2周内容以及学习课程中的逻辑回归神经网络。\n\n## 继续Coursera上的深度学习专业课程 | 第18天\n完成课程1。用Python自己实现一个神经网络。\n\n## 学习问题和Yaser Abu-Mostafa教授 | 第19天\n开始Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程1。这基本上是对即将到来的课程的一种介绍。他也介绍了感知算法。\n\n## 深度学习专业课程2 | 第20天\n完成改进深度神经网络第1周内容：参数调整，正则化和优化。\n\n## 网页搜罗 | 第21天\n观看了一些关于如何使用Beautiful Soup进行网络爬虫的教程，以便收集用于构建模型的数据。\n\n## 学习还可行吗? | 第22天\n完成Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程2。学习Hoeffding不等式。\n\n## 决策树 | 第23天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_3559f1d50095.jpg\">\n\u003C\u002Fp>\n\n## 统计学习理论的介绍 | 第24天\nBloomberg ML课程的第3课介绍了一些核心概念，如输入空间，动作空间，结果空间，预测函数，损失函数和假设空间。\n\n## 决策树 | 第25天\n[决策树实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2025_Decision_Tree.md)\n\n## 跳到复习线性代数 | 第26天\n发现YouTube一个神奇的频道[3Blue1Brown](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCYO_jab_esuFRV4b17AJtAw)，它有一个播放列表《线性代数的本质》。看完了4个视频，包括了向量，线性组合，跨度，基向量，线性变换和矩阵乘法。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第27天\n继续观看了4个视频，内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第28天\n继续观看了3个视频，内容包括点积和叉积。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 跳到复习线性代数 | 第29天\n观看了剩余的视频12到14，内容包括特征向量和特征值，以及抽象向量空间。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=9450)。\n\n## 微积分的本质 | 第30天\n完成上一播放列表后，YouTube推荐了新内容《微积分的本质》，今天看完了其中的3个视频，包括导数、链式法则、乘积法则和指数导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第31天\n观看了2个视频，内容包括隐分化与极限。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 微积分的本质 | 第32天\n观看了剩余的4个视频，内容包括积分与高阶导数。\n\nB站播放列表在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=13407)。\n\n## 随机森林 | 第33天\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_81ff94e26a4a.png\">\n\u003C\u002Fp>\n\n## 随机森林 | 第34天\n[随机森林实现](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2034_Random_Forests.md)\n\n## 什么是神经网络？ | 深度学习，第1章 | 第 35天\nYoutube频道3Blue1Brown中有精彩的视频介绍神经网络。这个视频提供了很好的解释，并使用手写数字数据集演示基本概念。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 梯度下降法，神经网络如何学习 | 深度学习，第2章 | 第36天\nYoutube频道3Blue1Brown关于神经网络的第2部分，这个视频用有趣的方式解释了梯度下降法。推荐必须观看169.\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法究竟做什么？ | 深度学习，第3章 | 第37天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 反向传播法演算 | 深度学习，第4章 | 第38天\nYoutube频道3Blue1Brown关于神经网络的第3部分，这个视频主要介绍了偏导数和反向传播法。\n\nB站视频在[这里](https:\u002F\u002Fspace.bilibili.com\u002F88461692\u002F#\u002Fchannel\u002Fdetail?cid=26587)。\n\n## 第1部分 | 深度学习基础Python，TensorFlow和Keras | 第39天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2039.ipynb)。\n\n## 第2部分 | 深度学习基础Python，TensorFlow和Keras | 第40天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2040.ipynb)。\n\n## 第3部分 | 深度学习基础Python，TensorFlow和Keras | 第41天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2041.ipynb)。\n\n## 第4部分 | 深度学习基础Python，TensorFlow和Keras | 第42天\n视频地址在[这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=wQ8BIBpya2k&t=19s&index=2&list=PLQVvvaa0QuDfhTox0AjmQ6tvTgMBZBEXN)。\n\u003Cbr>中文文字版[notebook](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FCode\u002FDay%2042.ipynb)。\n\n## K-均值聚类 | 第43天\n转到无监督学习，并研究了聚类。可在[作者网站](http:\u002F\u002Fwww.avikjain.me\u002F)查询。发现一个奇妙的[动画](http:\u002F\u002Fshabal.in\u002Fvisuals\u002Fkmeans\u002F6.html)有助于理解K-均值聚类。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_dc8e5cdd1856.jpg\">\n\u003C\u002Fp>\n\n## K-均值聚类 | 第44天\n实现（待添加代码）\n\n## 深入研究 | NUMPY | 第45天\n得到JK VanderPlas写的书《Python数据科学手册（Python Data Science HandBook）》，Jupyter notebooks在[这里](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook)。\n\u003Cbr>**[高清中文版pdf](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002FPython%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%E6%89%8B%E5%86%8C.zip)**\n\u003Cbr>第2章：NumPy介绍，包括数据类型、数组和数组计算。\n\u003Cbr>代码如下：\n\u003Cbr>[2 NumPy入门](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.00-Introduction-to-NumPy.ipynb)\n\u003Cbr>[2.1 理解Python中的数据类型](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.01-Understanding-Data-Types.ipynb)\n\u003Cbr>[2.2 NumPy数组基础](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.02-The-Basics-Of-NumPy-Arrays.ipynb)\n\u003Cbr>[2.3 NumPy数组的计算：通用函数](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.03-Computation-on-arrays-ufuncs.ipynb)\n\n## 深入研究 | NUMPY | 第46天\n第2章： 聚合, 比较运算符和广播。\n\u003Cbr>代码如下：\n\u003Cbr>[2.4 聚合：最小值、最大值和其他值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.04-Computation-on-arrays-aggregates.ipynb)\n\u003Cbr>[2.5 数组的计算：广播](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.05-Computation-on-arrays-broadcasting.ipynb)\n\u003Cbr>[2.6 比较、掩码和布尔运算](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.06-Boolean-Arrays-and-Masks.ipynb)\n\n## 深入研究 | NUMPY | 第47天\n第2章： 花哨的索引，数组排序，结构化数据。\n\u003Cbr>代码如下：\n\u003Cbr>[2.7 花哨的索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.07-Fancy-Indexing.ipynb)\n\u003Cbr>[2.8 数组的排序](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.08-Sorting.ipynb)\n\u003Cbr>[2.9 结构化数据：NumPy的结构化数组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F02.09-Structured-Data-NumPy.ipynb)\n\n## 深入研究 | PANDAS | 第48天\n第3章：Pandas数据处理\n\u003Cbr>包含Pandas对象，数据取值与选择，数值运算方法，处理缺失值，层级索引，合并数据集。\n\u003Cbr>代码如下：\n\u003Cbr>[3 Pandas数据处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.00-Introduction-to-Pandas.ipynb)\n\u003Cbr>[3.1 Pandas对象简介](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.01-Introducing-Pandas-Objects.ipynb)\n\u003Cbr>[3.2 数据取值与选择](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.02-Data-Indexing-and-Selection.ipynb)\n\u003Cbr>[3.3 Pandas数值运算方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.03-Operations-in-Pandas.ipynb)\n\u003Cbr>[3.4 处理缺失值](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.04-Missing-Values.ipynb)\n\u003Cbr>[3.5 层级索引](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.05-Hierarchical-Indexing.ipynb)\n\u003Cbr>[3.6 合并数据集：ConCat和Append方法](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.06-Concat-And-Append.ipynb)\n\n## 深入研究 | PANDAS | 第49天\n第3章：完成剩余内容-合并与连接，累计与分组，数据透视表。\n\u003Cbr>代码如下：\n\u003Cbr>[3.7 合并数据集：合并与连接](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.07-Merge-and-Join.ipynb)\n\u003Cbr>[3.8 累计与分组](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.08-Aggregation-and-Grouping.ipynb)\n\u003Cbr>[3.9 数据透视表](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.09-Pivot-Tables.ipynb)\n\n## 深入研究 | PANDAS | 第50天\n第3章：向量化字符串操作，处理时间序列。\n\u003Cbr>代码如下：\n\u003Cbr>[3.10 向量化字符串操作](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.10-Working-With-Strings.ipynb)\n\u003Cbr>[3.11 处理时间序列](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.11-Working-with-Time-Series.ipynb)\n\u003Cbr>[3.12 高性能Pandas：eval()与query()](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F03.12-Performance-Eval-and-Query.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第51天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习简易线形图, 简易散点图，密度图与等高线图.\n\u003Cbr>代码如下：\n\u003Cbr>[4 Matplotlib数据可视化](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.00-Introduction-To-Matplotlib.ipynb)\n\u003Cbr>[4.1 简易线形图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.01-Simple-Line-Plots.ipynb)\n\u003Cbr>[4.2 简易散点图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.02-Simple-Scatter-Plots.ipynb)\n\u003Cbr>[4.3 可视化异常处理](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.03-Errorbars.ipynb)\n\u003Cbr>[4.4 密度图与等高线图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.04-Density-and-Contour-Plots.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第52天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习直方图，配置图例，配置颜色条，多子图。\n\u003Cbr>代码如下： \n\u003Cbr>[4.5 直方图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.05-Histograms-and-Binnings.ipynb)\n\u003Cbr>[4.6 配置图例](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.06-Customizing-Legends.ipynb)\n\u003Cbr>[4.7 配置颜色条](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.07-Customizing-Colorbars.ipynb)\n\u003Cbr>[4.8 多子图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.08-Multiple-Subplots.ipynb)\n\u003Cbr>[4.9 文字与注释](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.09-Text-and-Annotation.ipynb)\n\n## 深入研究 | MATPLOTLIB | 第53天\n第4章：Matplotlib数据可视化\n\u003Cbr>学习三维绘图。\n\u003Cbr>[4.12 画三维图](https:\u002F\u002Fgithub.com\u002Fjakevdp\u002FPythonDataScienceHandbook\u002Fblob\u002Fmaster\u002Fnotebooks\u002F04.12-Three-Dimensional-Plotting.ipynb)\n\n## 层次聚类 | 第54天\n[动画演示](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Fblob\u002Fmaster\u002FOther%20Docs\u002F%E5%B1%82%E6%AC%A1%E8%81%9A%E7%B1%BB.gif)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_readme_4dc140ad5b86.jpg\">\n\u003C\u002Fp>","# 100-Days-Of-ML-Code 快速上手指南\n\n本指南基于开源项目 **100-Days-Of-ML-Code**，旨在帮助开发者通过 100 天的系统化学习路径，掌握从数据预处理到深度学习的核心机器学习技能。该项目包含详细的每日学习计划、信息图（Info-graphs）以及 Python 代码实现。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Python 版本**：推荐 Python 3.8 及以上版本\n*   **核心依赖库**：\n    *   `numpy` (数值计算)\n    *   `pandas` (数据处理)\n    *   `matplotlib` & `seaborn` (数据可视化)\n    *   `scikit-learn` (机器学习算法实现)\n    *   `jupyter` (交互式笔记本运行环境)\n    *   `tensorflow` \u002F `keras` (深度学习部分，可选)\n\n> **国内加速建议**：推荐使用清华源或阿里源安装 Python 包，以提升下载速度。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n使用 Git 将项目仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code.git\ncd 100-Days-Of-ML-Code\n```\n\n### 2. 创建虚拟环境（推荐）\n为了避免依赖冲突，建议创建独立的虚拟环境：\n\n```bash\npython -m venv ml_env\n# Windows\nml_env\\Scripts\\activate\n# macOS\u002FLinux\nsource ml_env\u002Fbin\u002Factivate\n```\n\n### 3. 安装依赖\n项目根目录通常包含 `requirements.txt`（若不存在，可手动安装核心库）。建议使用国内镜像源加速安装：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果项目中未提供 `requirements.txt`，请直接安装核心科学计算栈：\n\n```bash\npip install numpy pandas matplotlib scikit-learn jupyter tensorflow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 4. 获取数据集\n项目所需的数据集位于 `datasets` 文件夹中。如果克隆时未包含数据（或因 LFS 限制），请手动下载：\n\n*   **GitHub 直接下载**：访问 [datasets 目录](https:\u002F\u002Fgithub.com\u002FMachineLearning100\u002F100-Days-Of-ML-Code\u002Ftree\u002Fmaster\u002Fdatasets) 下载所需 CSV 文件。\n*   **放置位置**：将下载的数据文件放入项目根目录下的 `datasets\u002F` 文件夹中，以确保代码中的相对路径引用正确。\n\n## 基本使用\n\n本项目按“天”组织内容，每一天对应一个特定的机器学习主题（如数据预处理、线性回归、SVM 等）。最简单的使用方式是进入对应的 `Code` 目录，运行当天的 Jupyter Notebook 或 Python 脚本。\n\n### 示例：运行第 1 天（数据预处理）\n\n1.  **启动 Jupyter Notebook**：\n    在项目根目录下运行：\n    ```bash\n    jupyter notebook\n    ```\n\n2.  **导航至代码目录**：\n    在浏览器打开的界面中，进入 `Code` 文件夹。\n\n3.  **选择并运行笔记**：\n    点击 `Day 1_Data_Preprocessing.ipynb` (或对应的 `.md` 文件查看说明)。\n    \n    或者，直接在终端运行对应的 Python 脚本（如果提供）：\n    ```bash\n    # 假设当前在 Code 目录下\n    python Day_1_Data_Preprocessing.py\n    ```\n\n### 示例：运行第 2 天（简单线性回归）\n\n按照同样的逻辑，进入 `Code` 目录并运行：\n\n```bash\n# 方式 A: 使用 Jupyter (推荐，可查看中间结果和图表)\njupyter notebook Day_2_Simple_Linear_Regression.ipynb\n\n# 方式 B: 直接运行脚本\npython Day_2_Simple_Linear_Regression.py\n```\n\n### 学习路径建议\n\n*   **基础阶段 (Day 1-14)**：重点掌握数据预处理、线性回归、逻辑回归及 SVM 的原理与 `scikit-learn` 实现。\n*   **进阶阶段 (Day 15-42)**：深入学习决策树、随机森林、神经网络基础及 TensorFlow\u002FKeras 框架。\n*   **无监督学习与深化 (Day 43+)**：探索聚类算法，并结合《Python 数据科学手册》深入复习 NumPy、Pandas 和 Matplotlib 的高级用法。\n\n> **提示**：每个文件夹下的 `Info-graphs` 目录包含了精美的知识总结图，建议在编写代码前先行阅读，以建立直观的理论认知。","某初创公司的数据分析师小李需要在两周内为电商客户构建一个用户流失预测模型，但他发现团队中多数成员缺乏系统的机器学习实战经验。\n\n### 没有 100-Days-Of-ML-Code 时\n- 学习路径支离破碎，团队成员在海量教程中迷失，难以确定从数据预处理到模型选择的正确顺序。\n- 理论代码脱节，大家虽然看懂了逻辑回归或 SVM 的数学公式，却无法快速将其转化为可运行的 Python 代码。\n- 调试效率低下，面对数据清洗中的缺失值处理或特征工程问题，往往需要花费数天时间搜索零散的解决方案。\n- 缺乏统一标准，不同成员编写的代码风格迥异，导致后续模型整合与复现困难重重。\n\n### 使用 100-Days-Of-ML-Code 后\n- 学习路线清晰明确，团队严格遵循“第 1 天数据预处理”到“第 4 天逻辑回归”的日程，按部就班地掌握了完整建模流程。\n- 理论与实战无缝衔接，直接参考项目中提供的 Scikit-Learn 实现代码（如第 13 天的 SVM 案例），迅速完成了核心算法落地。\n- 问题解决高效精准，遇到具体技术卡点时，直接查阅对应天数的详细文档和信息图，大幅缩短了试错周期。\n- 代码规范统一，全员基于同一套开源代码库进行开发，确保了模型结构的一致性和项目的高可复现性。\n\n100-Days-Of-ML-Code 将碎片化的机器学习知识重构为系统化的百日实战计划，帮助团队从零散摸索转向高效协同交付。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLEveryday_100-Days-Of-ML-Code_9a09c45e.png","MLEveryday","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMLEveryday_decd58dd.jpg","machine learning everyday",null,"zhyongquan@gmail.com","https:\u002F\u002Fmleveryday.github.io\u002F","https:\u002F\u002Fgithub.com\u002FMLEveryday",[80,84],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",96.3,{"name":85,"color":86,"percentage":87},"Python","#3572A5",3.7,22236,5538,"2026-04-16T10:59:55","MIT",1,"未说明",{"notes":95,"python":93,"dependencies":96},"该项目为机器学习学习路线图，涵盖数据预处理、回归、分类、聚类及深度学习基础。主要依赖 Scikit-Learn、TensorFlow、Keras、NumPy、Pandas 和 Matplotlib 等库进行算法实现和数据可视化。部分章节涉及网络爬虫（Beautiful Soup）和线性代数\u002F微积分的理论学习资源。代码以 Jupyter Notebook 形式提供，未明确指定具体的 Python 版本或硬件加速需求，适用于常规机器学习教学环境。",[97,98,99,100,101,102,103],"scikit-learn","numpy","pandas","matplotlib","tensorflow","keras","beautifulsoup4",[14],[106,107,108,109,110,111,112,101,102,113,114,115],"machine-learning","python","100-days-of-ml-code","chinese-simplified","infographics","tutorial","jupyter-notebook","supervised-learning","unsupervised-learning","deep-learning","2026-03-27T02:49:30.150509","2026-04-17T10:19:24.636843",[119,124,129,134,139,144,149,154],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},37427,"如何参与项目的翻译工作并提交贡献？","您可以先将仓库 Fork 到您的个人仓储中，完成翻译或修改后，通过 Pull Request (PR) 提交给主仓库。如果需要直接提交权限，可以在 Issue 中向维护者申请。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F1",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},37428,"项目是否有交流群供学习者加入？","有的，项目设有 QQ 群供大家交流讨论，群号为：565183368。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F59",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},37429,"项目翻译和文件命名有哪些具体规范？","主要规范包括：1. 图片命名为 `Day xxx.jpg`；2. 代码文件（md\u002Fpy\u002Fnotebook）需调试通过，数据引用路径统一为 `..\u002Fdatasets\u002Fxxxx.csv`，文件命名格式为 `Day xxx_xxxx_xxxx.md`；3. 编号一律使用阿拉伯数字（如步骤 1）；4. 标点符号除编号外均使用中文符号；5. 若英文术语认知度更高，翻译格式为 `中 (英)`（注意使用英文括号）。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F18",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},37430,"在机器学习中，特征缩放（Feature Scaling）和数据拆分（Splitting Data）的正确顺序是什么？","正确的顺序是先拆分数据集（分为训练集和测试集），再进行特征缩放。必须使用训练集的 fit 参数（规则）来转换测试集（即对测试集只使用 transform，不使用 fit_transform），以防止数据泄露并确保评估效果准确。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F41",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},37431,"为什么在 PyCharm 中运行代码无法弹出绘图窗口，而在 Jupyter Notebook 中可以？","在 PyCharm 等非交互式 IDE 中运行 matplotlib 代码时，必须在代码末尾显式添加 `plt.show()` 才能弹出绘图窗口。而在 Jupyter Notebook 环境中，通常会自动显示图表，无需额外添加该命令。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F5",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},37432,"如何处理 Markdown 文件中图片未居中或内容缺失的问题？","请检查 Markdown 语法，确保图片标签包含居中属性（如使用 HTML 标签 `\u003Cdiv align=\"center\">` 包裹图片）。如果内容缺失（如只有图片没有文字描述），需要根据原文补全对应的文本内容，并在提交前预览确认格式正确。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F36",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},37433,"项目是否提供 B 站双语视频教程？","是的，项目计划在 B 站提供深度学习基础（Python、TensorFlow 和 Keras 部分）的双语视频课程，部分章节（如 Day 41 & 42）已完成更新。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F52",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},37434,"翻译工作时是应该一人全包还是分工合作？","建议采用分工合作或按进度分批提交的方式。一种方案是翻译完 MD 文件后，一并上传对应的 PY 和 IPYNB 文件；另一种方案是按内容类型分工（如一人翻译文本，一人处理图片，一人负责代码）。目前推荐跟随项目进度，有时间即可逐步完善图片和代码的翻译，不必强求一次性全部完成。","https:\u002F\u002Fgithub.com\u002FMLEveryday\u002F100-Days-Of-ML-Code\u002Fissues\u002F39",[]]