[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wangyuGithub01--Machine_Learning_Resources":3,"tool-wangyuGithub01--Machine_Learning_Resources":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75370,"2026-04-11T11:15:34",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":80,"stars":82,"forks":83,"last_commit_at":84,"license":80,"difficulty_score":29,"env_os":85,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":91,"updated_at":92,"faqs":93,"releases":94},6665,"wangyuGithub01\u002FMachine_Learning_Resources","Machine_Learning_Resources",":fish::fish::fish: 机器学习面试复习资源","Machine_Learning_Resources 是一个专为机器学习求职者打造的面试复习资源库。它系统地整理了从特征工程、算法基础到经典机器学习模型的核心知识点，并汇聚了高质量的技术文章与实战链接。\n\n在准备技术面试时，候选人往往面临知识点分散、重点难以把握的困扰。Machine_Learning_Resources 通过结构化的分类，涵盖了特征预处理与选择、评价指标、正则化、损失函数、模型训练技巧（如 BN、Dropout）、优化算法以及 LR、SVM、GBDT、XGBoost 等主流算法的深度解析。特别值得一提的是，该资源库明确聚焦于“面试高频考点”与“进阶理解”，对于基础算法推导则引导读者参考经典教材，从而帮助使用者高效利用时间，直击面试核心。\n\n这份资源非常适合正在准备机器学习算法工程师岗位的开发者、研究生以及希望系统梳理知识体系的研究人员。无论是需要查漏补缺的资深从业者，还是即将步入职场的应届生，都能从中找到针对性的复习路径。其独特的价值在于不仅提供了理论链接，还包含了大量关于“为什么这么做”的深度探讨（如 Transformer 为何使用 LN 而非 BN），有助于用户","Machine_Learning_Resources 是一个专为机器学习求职者打造的面试复习资源库。它系统地整理了从特征工程、算法基础到经典机器学习模型的核心知识点，并汇聚了高质量的技术文章与实战链接。\n\n在准备技术面试时，候选人往往面临知识点分散、重点难以把握的困扰。Machine_Learning_Resources 通过结构化的分类，涵盖了特征预处理与选择、评价指标、正则化、损失函数、模型训练技巧（如 BN、Dropout）、优化算法以及 LR、SVM、GBDT、XGBoost 等主流算法的深度解析。特别值得一提的是，该资源库明确聚焦于“面试高频考点”与“进阶理解”，对于基础算法推导则引导读者参考经典教材，从而帮助使用者高效利用时间，直击面试核心。\n\n这份资源非常适合正在准备机器学习算法工程师岗位的开发者、研究生以及希望系统梳理知识体系的研究人员。无论是需要查漏补缺的资深从业者，还是即将步入职场的应届生，都能从中找到针对性的复习路径。其独特的价值在于不仅提供了理论链接，还包含了大量关于“为什么这么做”的深度探讨（如 Transformer 为何使用 LN 而非 BN），有助于用户在面试中展现出对技术原理的深刻理解。",":point_right: 此repo主要是为了整理机器学习面试相关知识点的有用链接\n（注：目前不打算将一些基础算法的内容加入这个repo里，比如LR、SVM算法在《统计学习方法》里已经得到了很好的解释，面试时可能考到的手推公式在书里已经写的很好了，所以推荐直接看书即可。）\n\n### 一、特征工程\n\n#### （一）特征预处理\n- [标准化、归一化、异常特征清洗、不平衡数据](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9093890.html)\n- [不平衡数据的处理方法](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F84635540)\n\n#### （二）特征表达\n- [缺失值、特殊特征(eg.时间)、离散特征、连续特征](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9061549.html)\n- [连续特征离散化的好处](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=024fa3dbabf4b5a07eb72c8021e60f62)\n- [什么样的模型对缺失值更敏感？](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88717220)\n\n#### （三）特征选择\n- [过滤法、包装法、嵌入法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9032759.html) \n- [Kaggle中的代码实战](https:\u002F\u002Fwww.kaggle.com\u002Fwillkoehrsen\u002Fintroduction-to-feature-selection)\n\n### 二、算法基础\n#### （一）评价指标\n- [PR曲线和F1 & ROC曲线和AUC](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=13d31b4a7dc317b3d4abd18bf42a74df)\n- [AUC & GAUC](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F84350940)\n\n#### （二）正则项\n- [正则化与数据先验分布的关系](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=2851b97199bcdc174001d72b1bec0372)\n- [L1在0点处不可导怎么办？](http:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6018889.html)可采用坐标轴下降、最小角回归法\n- [L1为什么比L2的解更稀疏](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F74874291)\n\n#### （三）损失函数\n- [常见损失函数](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F58883095)\n- [常见损失函数2](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F77686118)\n\n#### （四）模型训练\n- [经验误差与泛化误差、偏差与方差、欠拟合与过拟合、交叉验证](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=b629383adb3b09eb31b754c337f690b5)\n- [参数初始化为什么不能全零](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1535198)\n- [深度学习参数初始化 Lecunn、Xavier、He初始化](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1542736)\n- [dropout]()\n- [Batch Normalization](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1551518)\n- [dropout和BN在训练&预测时有什么不同](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F61725100)\n- [Layer Normalization](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F113233908)\n- [Transformer为什么用LN不用BN（LN和BN两者分别关注什么）](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F395811291\u002Fanswer\u002F2141681320)\n- [ResNet](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1591484)\n\n#### （五）优化算法\n- [梯度下降法、牛顿法和拟牛顿法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F37524275)\n- [深度学习优化算法SGD、Momentum、Adagrad等](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F22252270)\n- [最大似然估计 和 最大后验估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F61905474)\n- [最小二乘法 和 最大似然估计的对比联系](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88716699)\n- [最大似然估计 和 EM](https:\u002F\u002Fblog.csdn.net\u002Fzouxy09\u002Farticle\u002Fdetails\u002F8537620)\n- [浅谈最优化问题的KKT条件](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F26514613)\n\n#### （六）其他知识点\n- [先验概率 & 后验概率](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F38567891)\n- [MLE最大似然估计 & MAP最大后验估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F32480810)\n- [判别模型 vs 生成模型](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F20446337)\n- [参数模型 vs 非参数模型](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F26012348)\n- [参数估计 最大似然估计与贝叶斯估计](https:\u002F\u002Fblog.csdn.net\u002Fbitcarmanlee\u002Farticle\u002Fdetails\u002F52201858)\n- [交叉熵](https:\u002F\u002Fcolah.github.io\u002Fposts\u002F2015-09-Visual-Information\u002F)\n- [交叉熵 等价 KL散度 等价 MLE最大似然估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F346518942)\n- [向量间距离度量方式](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=ffba716f9f94f1cf3fac48fca300c198)\n- [余弦距离和欧氏距离的转换](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F19640394\u002Fanswer\u002F207795500)\n\n### 三、机器学习算法\n1. 线性回归、逻辑回归、SVM\n  - [LR优缺点](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Flr_pros_and_cons.md)\n  - [SVM、logistic regression、linear regression对比](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Fcompare_svm_lr.md)\n  - [KNN vs K-Means](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F31580379)\n  - [LR和最大熵模型的关系, LR的并行化](https:\u002F\u002Fblog.csdn.net\u002Fdp_BUPT\u002Farticle\u002Fdetails\u002F50568392)\n  - [为什么LR要用对数似然，而不是平方损失？](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88717326)\n  - [似然函数](https:\u002F\u002Fzh.wikipedia.org\u002Fwiki\u002F%E4%BC%BC%E7%84%B6%E5%87%BD%E6%95%B0)\n2. 树模型\n- [逻辑回归与决策树在分类上的区别](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F84841988)\n- [回归树、提升树、GBDT](https:\u002F\u002Fwww.jianshu.com\u002Fp\u002F005a4e6ac775)\n- [GBDT、XGBOOST、LightGBM讲解(强烈推荐看一下)](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Fgbdt_wepon.pdf)\n- [XGBOOST具体例子一步步推导，包括缺失值怎么处理（很细值得看）](https:\u002F\u002Fwww.jianshu.com\u002Fp\u002Fac1c12f3fba1) [(-> 这个链接包含前面文章内容，更全的总结](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F92837676)\n- [随机森林 GBDT  XGBOOST  LightGBM 比较](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=65790e27fd5737155c31af2c05df8985)\n- [树分裂：信息增益、信息增益率、基尼系数](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F245617910)\n\n3. 其他\n- [各种机器学习算法的应用场景](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F26726794)\n\n### 四、NLP相关\n- word2vec [文章1](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7160330.html)[文章2](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7243513.html) [文章3](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7249903.html)\n- [LSTM](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F34203833)\n- [LSTM为什么用tanh](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F46197687\u002Fanswer\u002F895834510)\n- [fasttext](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F32965521)\n- [Transformer、self-attention](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F54356280)\n- [Transformer图解](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F338817680)\n- [encode-decode attention和transformer self-attention对比](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F53682800)\n- [Transformer中的positional encoding](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F347678607\u002Fanswer\u002F864217252)\n- [Bert](https:\u002F\u002Ffancyerii.github.io\u002F2019\u002F03\u002F05\u002Fbert-prerequisites\u002F) 零基础入门，prerequisites很全\n- [XLNet](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F70257427)\n- [nlp中的词向量对比：word2vec\u002Fglove\u002FfastText\u002Felmo\u002FGPT\u002Fbert](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F56382372)\n- [NLP\u002FAI面试全记录](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F57153934)\n\n### 五、推荐系统 & 计算广告 相关\n- [LR & FTRL](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F55135954)\n- [FM算法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F37963267):讲的蛮细的\n- [FM算法结合推荐系统的讲解](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F58160982)\n- [DSSM模型](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F335112207)\n- [DSSM模型的损失函数（顺带讲了point-wise, list-wise, pair-wise损失函数）](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F322065156)\n- [在线最优化求解 Online Optimization](https:\u002F\u002Fgithub.com\u002Fwzhe06\u002FAd-papers\u002Fblob\u002Fmaster\u002FOptimization%20Method\u002F%E5%9C%A8%E7%BA%BF%E6%9C%80%E4%BC%98%E5%8C%96%E6%B1%82%E8%A7%A3%28Online%20Optimization%29-%E5%86%AF%E6%89%AC.pdf)\n\n### 六、推荐书籍\u002F笔记\u002F代码实现\n- [统计学习方法](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book\u002Fblob\u002Fmaster\u002F%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0%E6%96%B9%E6%B3%95(%E6%9D%8E%E8%88%AA).pdf) (注意这个pdf是第一版，其中的勘误可在[这里](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book\u002Fblob\u002Fmaster\u002F%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0%E6%96%B9%E6%B3%95%EF%BC%88%E5%8B%98%E8%AF%AF%EF%BC%89.pdf)查看)（[代码实现及ppt](https:\u002F\u002Fgithub.com\u002Ffengdu78\u002Flihang-code)）\n- [西瓜书的公式推导细节解析](https:\u002F\u002Fdatawhalechina.github.io\u002Fpumpkin-book\u002F#\u002F)\n- [deeplearning.ai深度学习课程的中文笔记](https:\u002F\u002Fgithub.com\u002Ffengdu78\u002Fdeeplearning_ai_books)\n- [机器学习训练秘籍 (Andrew NG)](https:\u002F\u002Fgithub.com\u002FAcceptedDoge\u002Fmachine-learning-yearning-cn)\n- [推荐系统实战](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book)\n\n### 七、推荐专栏\n- [刘建平Pinard](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002F)：很多高质量文章讲解基础的知识和算法\n- [华校专](http:\u002F\u002Fhuaxiaozhuan.com\u002F)：基础算法讲解，多而全（其实还没怎么看\n- [王喆的机器学习专栏](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fwangzhenotes)：结合论文+工业界的推荐系统应用，讲的很清晰 \n- [荐道馆](https:\u002F\u002Fwww.zhihu.com\u002Fcolumn\u002Flearningdeep)：讲推荐相关，文章写的比较透\n- [美团技术团队](https:\u002F\u002Ftech.meituan.com\u002Ftags\u002F%E7%AE%97%E6%B3%95.html)：美团的技术博客，新技术与实际应用相结合\n- [深度学习前沿笔记](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fc_188941548)：NLP相关较多，预训练技术讲解的多\n- [计算广告小觑](https:\u002F\u002Fblog.csdn.net\u002Fbreada\u002Farticle\u002Fdetails\u002F50572914)\n- [计算广告论文、学习资料、业界分享](https:\u002F\u002Fgithub.com\u002Fwzhe06\u002FAd-papers)\n\n### 八、面试问题汇总\n- [牛客网面经总结](https:\u002F\u002Fwww.nowcoder.com\u002Fdiscuss\u002F165930)\n\n### 九、其他面试常考\n- [海量数据判重](https:\u002F\u002Fwww.nowcoder.com\u002Fdiscuss\u002F153978)\n- [常考智力题\u002F逻辑题](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Resources\u002Fblob\u002Fmaster\u002Fpdf\u002FIQ.md)\n- [常考概率题](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Resources\u002Fblob\u002Fmaster\u002Fpdf\u002Fstatistic.md)\n\n### 十、C++相关\n- [STL详解及常见面试题](https:\u002F\u002Fblog.csdn.net\u002Fdaaikuaichuan\u002Farticle\u002Fdetails\u002F80717222)\n\n### 工作之后工程实践相关\n\n- [基于PQ量化的近似近邻搜索 (ANN) ](http:\u002F\u002Fxtf615.com\u002F2020\u002F08\u002F01\u002FEBR\u002F)\n- [ANN召回算法之IVFPQ(跟上面的差不多，这篇图第一张画的PQ图更清晰)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F378725270)\n",":point_right: 本仓库主要用于整理机器学习面试相关知识点的有用链接\n（注：目前不打算将一些基础算法的内容加入这个repo里，比如LR、SVM算法在《统计学习方法》里已经得到了很好的解释，面试时可能考到的手推公式在书里已经写的很好了，所以推荐直接看书即可。）\n\n### 一、特征工程\n\n#### （一）特征预处理\n- [标准化、归一化、异常特征清洗、不平衡数据](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9093890.html)\n- [不平衡数据的处理方法](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F84635540)\n\n#### （二）特征表达\n- [缺失值、特殊特征(eg.时间)、离散特征、连续特征](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9061549.html)\n- [连续特征离散化的好处](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=024fa3dbabf4b5a07eb72c8021e60f62)\n- [什么样的模型对缺失值更敏感？](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88717220)\n\n#### （三）特征选择\n- [过滤法、包装法、嵌入法](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F9032759.html) \n- [Kaggle中的代码实战](https:\u002F\u002Fwww.kaggle.com\u002Fwillkoehrsen\u002Fintroduction-to-feature-selection)\n\n### 二、算法基础\n#### （一）评价指标\n- [PR曲线和F1 & ROC曲线和AUC](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=13d31b4a7dc317b3d4abd18bf42a74df)\n- [AUC & GAUC](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F84350940)\n\n#### （二）正则项\n- [正则化与数据先验分布的关系](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=2851b97199bcdc174001d72b1bec0372)\n- [L1在0点处不可导怎么办？](http:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F6018889.html)可采用坐标轴下降、最小角回归法\n- [L1为什么比L2的解更稀疏](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F74874291)\n\n#### （三）损失函数\n- [常见损失函数](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F58883095)\n- [常见损失函数2](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F77686118)\n\n#### （四）模型训练\n- [经验误差与泛化误差、偏差与方差、欠拟合与过拟合、交叉验证](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=b629383adb3b09eb31b754c337f690b5)\n- [参数初始化为什么不能全零](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1535198)\n- [深度学习参数初始化 Lecunn、Xavier、He初始化](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1542736)\n- [dropout]()\n- [Batch Normalization](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1551518)\n- [dropout和BN在训练&预测时有什么不同](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F61725100)\n- [Layer Normalization](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F113233908)\n- [Transformer为什么用LN不用BN（LN和BN两者分别关注什么）](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F395811291\u002Fanswer\u002F2141681320)\n- [ResNet](https:\u002F\u002Fcloud.tencent.com\u002Fdeveloper\u002Farticle\u002F1591484)\n\n#### （五）优化算法\n- [梯度下降法、牛顿法和拟牛顿法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F37524275)\n- [深度学习优化算法SGD、Momentum、Adagrad等](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F22252270)\n- [最大似然估计 和 最大后验估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F61905474)\n- [最小二乘法 和 最大似然估计的对比联系](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88716699)\n- [最大似然估计 和 EM](https:\u002F\u002Fblog.csdn.net\u002Fzouxy09\u002Farticle\u002Fdetails\u002F8537620)\n- [浅谈最优化问题的KKT条件](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F26514613)\n\n#### （六）其他知识点\n- [先验概率 & 后验概率](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F38567891)\n- [MLE最大似然估计 & MAP最大后验估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F32480810)\n- [判别模型 vs 生成模型](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F20446337)\n- [参数模型 vs 非参数模型](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F26012348)\n- [参数估计 最大似然估计与贝叶斯估计](https:\u002F\u002Fblog.csdn.net\u002Fbitcarmanlee\u002Farticle\u002Fdetails\u002F52201858)\n- [交叉熵](https:\u002F\u002Fcolah.github.io\u002Fposts\u002F2015-09-Visual-Information\u002F)\n- [交叉熵 等价 KL散度 等价 MLE最大似然估计](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F346518942)\n- [向量间距离度量方式](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=ffba716f9f94f1cf3fac48fca300c198)\n- [余弦距离和欧氏距离的转换](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F19640394\u002Fanswer\u002F207795500)\n\n### 三、机器学习算法\n1. 线性回归、逻辑回归、SVM\n  - [LR优缺点](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Flr_pros_and_cons.md)\n  - [SVM、logistic regression、linear regression对比](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Fcompare_svm_lr.md)\n  - [KNN vs K-Means](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F31580379)\n  - [LR和最大熵模型的关系, LR的并行化](https:\u002F\u002Fblog.csdn.net\u002Fdp_BUPT\u002Farticle\u002Fdetails\u002F50568392)\n  - [为什么LR要用对数似然，而不是平方损失？](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F88717326)\n  - [似然函数](https:\u002F\u002Fzh.wikipedia.org\u002Fwiki\u002F%E4%BC%BC%E7%84%B6%E5%87%BD%E6%95%B0)\n2. 树模型\n- [逻辑回归与决策树在分类上的区别](https:\u002F\u002Fblog.csdn.net\u002Fzhang15953709913\u002Farticle\u002Fdetails\u002F84841988)\n- [回归树、提升树、GBDT](https:\u002F\u002Fwww.jianshu.com\u002Fp\u002F005a4e6ac775)\n- [GBDT、XGBOOST、LightGBM讲解(强烈推荐看一下)](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Notes\u002Fblob\u002Fmaster\u002Fpdf\u002Fgbdt_wepon.pdf)\n- [XGBOOST具体例子一步步推导，包括缺失值怎么处理（很细值得看）](https:\u002F\u002Fwww.jianshu.com\u002Fp\u002Fac1c12f3fba1) [(-> 这个链接包含前面文章内容，更全的总结](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F92837676)\n- [随机森林 GBDT  XGBOOST  LightGBM 比较](http:\u002F\u002Fnote.youdao.com\u002Fnoteshare?id=65790e27fd5737155c31af2c05df8985)\n- [树分裂：信息增益、信息增益率、基尼系数](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F245617910)\n\n3. 其他\n- [各种机器学习算法的应用场景](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F26726794)\n\n### 四、NLP相关\n- word2vec [文章1](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7160330.html)[文章2](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7243513.html) [文章3](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002Fp\u002F7249903.html)\n- [LSTM](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F34203833)\n- [LSTM为什么用tanh](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F46197687\u002Fanswer\u002F895834510)\n- [fasttext](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F32965521)\n- [Transformer、self-attention](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F54356280)\n- [Transformer图解](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F338817680)\n- [encode-decode attention和transformer self-attention对比](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F53682800)\n- [Transformer中的positional encoding](https:\u002F\u002Fwww.zhihu.com\u002Fquestion\u002F347678607\u002Fanswer\u002F864217252)\n- [Bert](https:\u002F\u002Ffancyerii.github.io\u002F2019\u002F03\u002F05\u002Fbert-prerequisites\u002F) 零基础入门，prerequisites很全\n- [XLNet](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F70257427)\n- [nlp中的词向量对比：word2vec\u002Fglove\u002FfastText\u002Felmo\u002FGPT\u002Fbert](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F56382372)\n- [NLP\u002FAI面试全记录](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F57153934)\n\n### 五、推荐系统 & 计算广告 相关\n- [LR & FTRL](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F55135954)\n- [FM算法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F37963267):讲的蛮细的\n- [FM算法结合推荐系统的讲解](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F58160982)\n- [DSSM模型](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F335112207)\n- [DSSM模型的损失函数（顺带讲了point-wise, list-wise, pair-wise损失函数）](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F322065156)\n- [在线最优化求解 Online Optimization](https:\u002F\u002Fgithub.com\u002Fwzhe06\u002FAd-papers\u002Fblob\u002Fmaster\u002FOptimization%20Method\u002F%E5%9C%A8%E7%BA%BF%E6%9C%80%E4%BC%98%E5%8C%96%E6%B1%82%E8%A7%A3%28Online%20Optimization%29-%E5%86%AF%E6%89%AC.pdf)\n\n### 六、推荐书籍\u002F笔记\u002F代码实现\n- [统计学习方法](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book\u002Fblob\u002Fmaster\u002F%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0%E6%96%B9%E6%B3%95(%E6%9D%8E%E8%88%AA).pdf) (注意这个pdf是第一版，其中的勘误可在[这里](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book\u002Fblob\u002Fmaster\u002F%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0%E6%96%B9%E6%B3%95%EF%BC%88%E5%8B%98%E8%AF%AB%EF%BC%89.pdf)查看)（[代码实现及ppt](https:\u002F\u002Fgithub.com\u002Ffengdu78\u002Flihang-code)）\n- [西瓜书的公式推导细节解析](https:\u002F\u002Fdatawhalechina.github.io\u002Fpumpkin-book\u002F#\u002F)\n- [deeplearning.ai深度学习课程的中文笔记](https:\u002F\u002Fgithub.com\u002Ffengdu78\u002Fdeeplearning_ai_books)\n- [机器学习训练秘籍 (Andrew NG)](https:\u002F\u002Fgithub.com\u002FAcceptedDoge\u002Fmachine-learning-yearning-cn)\n- [推荐系统实战](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FE-book)\n\n### 七、推荐专栏\n- [刘建平Pinard](https:\u002F\u002Fwww.cnblogs.com\u002Fpinard\u002F)：很多高质量文章讲解基础的知识和算法\n- [华校专](http:\u002F\u002Fhuaxiaozhuan.com\u002F)：基础算法讲解，多而全（其实还没怎么看\n- [王喆的机器学习专栏](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fwangzhenotes)：结合论文+工业界的推荐系统应用，讲的很清晰 \n- [荐道馆](https:\u002F\u002Fwww.zhihu.com\u002Fcolumn\u002Flearningdeep)：讲推荐相关，文章写的比较透\n- [美团技术团队](https:\u002F\u002Ftech.meituan.com\u002Ftags\u002F%E7%AE%97%E6%B3%95.html)：美团的技术博客，新技术与实际应用相结合\n- [深度学习前沿笔记](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fc_188941548)：NLP相关较多，预训练技术讲解的多\n- [计算广告小觑](https:\u002F\u002Fblog.csdn.net\u002Fbreada\u002Farticle\u002Fdetails\u002F50572914)\n- [计算广告论文、学习资料、业界分享](https:\u002F\u002Fgithub.com\u002Fwzhe06\u002FAd-papers)\n\n### 八、面试问题汇总\n- [牛客网面经总结](https:\u002F\u002Fwww.nowcoder.com\u002Fdiscuss\u002F165930)\n\n### 九、其他面试常考\n- [海量数据判重](https:\u002F\u002Fwww.nowcoder.com\u002Fdiscuss\u002F153978)\n- [常考智力题\u002F逻辑题](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Resources\u002Fblob\u002Fmaster\u002Fpdf\u002FIQ.md)\n- [常考概率题](https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Resources\u002Fblob\u002Fmaster\u002Fpdf\u002Fstatistic.md)\n\n### 十、C++相关\n- [STL详解及常见面试题](https:\u002F\u002Fblog.csdn.net\u002Fdaaikuaichuan\u002Farticle\u002Fdetails\u002F80717222)\n\n### 工作之后工程实践相关\n\n- [基于PQ量化的近似近邻搜索 (ANN) ](http:\u002F\u002Fxtf615.com\u002F2020\u002F08\u002F01\u002FEBR\u002F)\n- [ANN召回算法之IVFPQ(跟上面的差不多，这篇图第一张画的PQ图更清晰)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F378725270)","# Machine_Learning_Resources 快速上手指南\n\n本仓库并非一个可安装的软件工具，而是一个**机器学习面试知识点的精选链接合集**。它主要服务于准备算法岗面试的开发者，涵盖特征工程、算法基础、经典模型、NLP、推荐系统及工程实践等核心领域。\n\n由于本项目本质为文档索引，无需进行环境安装或依赖配置。以下是高效使用本资源的学习路径指南。\n\n## 一、环境准备\n\n本项目无系统要求或前置依赖，只需具备以下条件即可开始学习：\n- **浏览器**：任意现代浏览器（Chrome, Edge, Firefox 等）。\n- **基础知识**：建议具备基础的编程能力（Python\u002FC++）及高等数学基础。\n- **参考书籍（可选但推荐）**：\n  - 《统计学习方法》（李航）：用于查阅基础算法（如 LR, SVM）的理论推导。\n  - 《西瓜书》（周志华）：辅助理解机器学习基本概念。\n\n> **注意**：本仓库明确说明不包含基础算法的手推公式详解，相关内容请直接参阅上述经典教材。\n\n## 二、获取与访问步骤\n\n无需执行安装命令，直接通过以下方式获取内容：\n\n1. **访问仓库主页**\n   在浏览器中打开项目 GitHub 页面（或您所在的镜像源地址）。\n\n2. **浏览目录结构**\n   直接在网页端阅读 `README.md` 文件，内容已按模块分类整理。\n\n3. **下载离线资料（可选）**\n   若需离线阅读，可克隆仓库或下载特定 PDF 笔记：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FwangyuGithub01\u002FMachine_Learning_Resources.git\n   ```\n   *注：国内用户若遇网络问题，可使用 Gitee 镜像或代理加速。*\n\n## 三、基本使用指南\n\n本资源的核心价值在于**按需检索**与**体系化复习**。请根据您当前的学习阶段选择对应模块：\n\n### 1. 夯实基础（面试前必刷）\n重点攻克**特征工程**与**算法基础**，掌握核心概念与数学原理。\n- **特征处理**：查看“标准化\u002F归一化”、“缺失值处理”及“不平衡数据”解决方案。\n- **核心理论**：深入理解“偏差与方差”、“正则化（L1\u002FL2）”、“损失函数”及“优化算法（SGD, Adam 等）”。\n- **关键区别**：厘清“判别模型 vs 生成模型”、“参数估计（MLE vs MAP）”等易混淆点。\n\n### 2. 精通模型（核心考点）\n针对高频面试模型进行深度推导与对比分析。\n- **线性模型**：掌握 LR 的优缺点、并行化策略及与最大熵模型的关系。\n- **树模型**：重点研读 GBDT、XGBoost、LightGBM 的原理差异及 XGBoost 的缺失值处理机制。\n- **深度学习基础**：理解 Dropout、Batch Normalization (BN) 与 Layer Normalization (LN) 在训练\u002F预测时的区别，以及 Transformer 为何选用 LN。\n\n### 3. 领域进阶（NLP \u002F 推荐 \u002F 广告）\n根据目标岗位方向，专项突破领域知识。\n- **NLP 方向**：从 Word2Vec 到 Transformer、BERT、XLNet 的演进路线，重点关注 Self-Attention 机制及位置编码。\n- **推荐\u002F广告方向**：深入学习 FM、DSSM 模型，理解 Point-wise\u002FPair-wise\u002FList-wise 损失函数，以及在线最优化求解（Online Optimization）。\n\n### 4. 实战与面试冲刺\n- **代码实战**：参考 Kaggle 特征选择案例及 C++ STL 常见面试题。\n- **智力与概率**：刷题“常考智力题”与“概率题”，提升逻辑思维。\n- **面经汇总**：阅读牛客网面经总结，了解最新出题趋势。\n- **工程实践**：学习海量数据判重、PQ 量化近似近邻搜索（ANN）等工业界落地技术。\n\n### 5. 延伸阅读\n利用“推荐专栏”部分（如刘建平 Pinard、王喆的机器学习专栏、美团技术团队等）进行深度拓展，结合论文与工业界应用加深理解。","一名即将参加大厂算法岗面试的求职者，正在紧张地复习机器学习核心概念并准备手推公式与场景问答。\n\n### 没有 Machine_Learning_Resources 时\n- **资料分散且质量参差不齐**：需要在知乎、CSDN、博客园等多个平台碎片化搜索“特征选择”或\"XGBoost 推导”，耗费大量时间筛选低质内容。\n- **知识盲区难以自查**：对于\"Transformer 为何用 LN 不用 BN\"或\"L1 正则稀疏性原理”等深层面试题，缺乏系统性的指引，容易陷入死胡同或理解偏差。\n- **复习重点偏离实战**：容易在基础算法（如 LR、SVM）的教科书式定义上过度纠结，却忽略了面试中高频考察的特征工程技巧与模型调优细节。\n- **缺乏权威链接汇总**：遇到疑难知识点时，找不到经过社区验证的高质量解读文章，导致备考信心不足，焦虑感倍增。\n\n### 使用 Machine_Learning_Resources 后\n- **一站式获取高质资源**：直接通过目录索引访问关于特征预处理、不平衡数据处理及 KAGGLE 实战代码的精选链接，构建起完整的知识图谱。\n- **深度解析攻克难点**：利用仓库中关于正则项数学原理、损失函数对比及优化算法（如 EM、KKT 条件）的深度文章，迅速掌握面试官青睐的底层逻辑。\n- **聚焦高频考点**：依据仓库结构，跳过基础书本已涵盖的内容，精准突击 GBDT\u002FXGBoost\u002FLightGBM 的推导细节与差异对比，提升复习效率。\n- **建立系统化思维**：从特征工程到模型评估，再到具体算法优劣分析，形成闭环复习路径，能够从容应对从理论推导到场景落地的各类提问。\n\nMachine_Learning_Resources 将零散的面试知识点串联成体系，帮助求职者从“盲目刷题”转型为“精准突破”，极大提升了备战效率与通过率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FwangyuGithub01_Machine_Learning_Resources_4612d089.png","wangyuGithub01","Strace","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FwangyuGithub01_439f6c91.jpg",null,"https:\u002F\u002Fgithub.com\u002FwangyuGithub01",1237,182,"2026-04-09T09:55:29","","未说明",{"notes":88,"python":86,"dependencies":89},"该仓库并非可运行的软件工具或代码库，而是一份机器学习面试知识点的链接汇总（包含特征工程、算法基础、NLP、推荐系统等领域的文章、书籍和笔记链接）。因此，它没有操作系统、GPU、内存、Python 版本或依赖库等运行环境需求。用户只需通过浏览器访问提供的链接或下载相关的 PDF\u002F代码仓库即可学习。",[],[18],"2026-03-27T02:49:30.150509","2026-04-11T23:21:47.092816",[],[]]