[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tomepel--Technical_Book_DL":3,"tool-tomepel--Technical_Book_DL":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,2,"2026-04-06T11:09:19",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75097,"2026-04-07T22:51:14",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65697,"2026-04-07T23:34:58",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":80,"difficulty_score":46,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":96,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":97,"updated_at":98,"faqs":99,"releases":100},5493,"tomepel\u002FTechnical_Book_DL","Technical_Book_DL","This note presents in a technical though hopefully pedagogical way the three most common forms of neural network architectures: Feedforward, Convolutional and Recurrent.","Technical_Book_DL 是一份专注于深度学习核心架构的开源技术笔记，旨在以严谨且具教学意义的方式，系统解析前馈神经网络、卷积神经网络和循环神经网络这三大主流模型。它主要解决了现有教材中数学推导不够透明、矩阵维度定义模糊等痛点，帮助读者真正理解算法背后的逻辑而非仅仅套用公式。\n\n这份资料非常适合希望夯实理论基础的开发者、人工智能研究人员以及计算机专业的学生使用。其独特的技术亮点在于摒弃了有时显得晦涩的纯矩阵表述，转而采用带有详细索引的公式推导风格，确保每一个操作对象的维度都清晰可见。文档不仅详细拆解了各网络的基础构建模块，还完整推导了前向传播过程及反向传播算法的更新规则。作者将源自吴恩达、Hugo Larochelle 等顶尖学者课程中的精华内容进行了重新梳理与整合，并提供了完整的 PDF 文档、源码文件及高清图示。无论你是想深入探究 LSTM 的内部机制，还是需要一份清晰的梯度下降优化指南，Technical_Book_DL 都能为你提供坚实的理论支撑。","# Technical Book on Deep Learning\n\nThis note presents in a technical though hopefully pedagogical way the three most common forms of neural network architectures: Feedforward, Convolutional and Recurrent.\n\nFor each network, their fundamental building blocks are detailed. The forward pass and the update rules for the backpropagation algorithm are then derived in full.\n\nThe pdf of the whole document can be downloaded directly: [White_book.pdf](https:\u002F\u002Fgithub.com\u002Ftomepel\u002FTechnical_Book_DL\u002Fraw\u002Fmaster\u002FWhite_book.pdf).\n\nOtherwise, all the figures contained in the note are joined in this repo, as well as the tex files needed for compilation. Just don't forget to cite the source if you use any of this material! :)\n\nHope it can help others!\n\n# Acknowledgement\n\nThis work has no benefit nor added value to the deep learning topic on its own. It is just the reformulation of ideas of brighter researchers to fit a peculiar mindset: the one of preferring formulas with ten indices but where one knows precisely what one is manipulating rather than (in my opinion sometimes opaque) matrix formulations where the dimension of the objects are rarely if ever specified.\n\nAmong the brighter people from whom I learned online are Andrew Ng. His Coursera class (https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fmachine-learning) was the first contact I got with Neural Network, and this pedagogical introduction allowed me to build on solid ground.\n\nI also wish to particularly thanks Hugo Larochelle, who not only built a wonderful deep learning class (http:\u002F\u002Finfo.usherbrooke.ca\u002Fhlarochelle\u002Fneural_networks\u002Fcontent.html), but was also kind enough to answer emails from a complete beginner and stranger!\n\nThe Stanford class on convolutional networks (http:\u002F\u002Fcs231n.github.io\u002Fconvolutional-networks\u002F) proved extremely valuable to me, so did the one on Natural Language processing (http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002F).\n\nI also benefited greatly from Sebastian Ruder's blog (http:\u002F\u002Fruder.io\u002F#open), both from the blog pages on gradient descent optimization techniques and from the author himself.\n\nI learned more about LSTM on colah's blog (http:\u002F\u002Fcolah.github.io\u002Fposts\u002F2015-08-Understanding-LSTMs\u002F), and some of my drawings are inspired from there.\n\nI also thank Jonathan Del Hoyo for the great articles that he regularly shares on LinkedIn.\n\nMany thanks go to my collaborators at Mediamobile, who let me dig as deep as I wanted on Neural Networks. I am especially indebted to Clément, Nicolas, Jessica, Christine and Céline.\n\nThanks to Jean-Michel Loubes and Fabrice Gamboa, from whom I learned a great deal on probability theory and statistics.\n\nI end this list with my employer, Mediamobile, which has been kind enough to let me work on this topic with complete freedom. A special thanks to Philippe, who supervised me with the perfect balance of feedback and freedom!\n\n# Contact\n\nIf you detect any typo, error (as I am sure that there unfortunately still are), or feel that I forgot to cite an important source, don't hesitate to email me:  thomas.epelbaum@shift-technology.com\n","# 深度学习技术手册\n\n本笔记以技术性但力求通俗易懂的方式，介绍了三种最常见的神经网络架构：前馈网络、卷积网络和循环网络。\n\n对于每种网络，我们都详细阐述了其基本组成模块。随后，我们完整推导了前向传播过程以及反向传播算法的参数更新规则。\n\n整篇文档的PDF版本可直接下载：[White_book.pdf](https:\u002F\u002Fgithub.com\u002Ftomepel\u002FTechnical_Book_DL\u002Fraw\u002Fmaster\u002FWhite_book.pdf)。\n\n此外，本笔记中的所有图表均已收录在该仓库中，同时还提供了编译所需的TeX文件。如果您使用了其中的任何内容，请务必注明出处！ :)\n\n希望对大家有所帮助！\n\n# 致谢\n\n本工作本身并不具备独立的学术价值或对深度学习领域的实质性贡献。它只是将一些杰出研究者的思路重新组织和表达，以适应我个人的独特思维方式：即偏好使用带有多个下标的公式，因为这样可以清晰地了解每个符号所代表的具体含义；而非（在我看来有时较为晦涩的）矩阵形式表述，后者往往很少甚至从未明确说明各对象的维度。\n\n我在网上受益匪浅的优秀学者中，首推吴恩达。他的Coursera课程（https:\u002F\u002Fwww.coursera.org\u002Flearn\u002Fmachine-learning）是我初次接触神经网络的地方，正是这门极具教学性的入门课程，为我打下了坚实的基础。\n\n同时，我也要特别感谢于戈·拉罗谢尔，他不仅开设了一门精彩的深度学习课程（http:\u002F\u002Finfo.usherbrooke.ca\u002Fhlarochelle\u002Fneural_networks\u002Fcontent.html），还非常耐心地回复了一位完全陌生的新手发来的邮件！\n\n斯坦福大学关于卷积网络的课程（http:\u002F\u002Fcs231n.github.io\u002Fconvolutional-networks\u002F）对我帮助极大，同样地，自然语言处理课程（http:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Fcs224n\u002F）也让我受益匪浅。\n\n我还从塞巴斯蒂安·鲁德尔的博客（http:\u002F\u002Fruder.io\u002F#open）中获益良多，无论是关于梯度下降优化方法的文章，还是作者本人的指导，都令我深受启发。\n\n关于LSTM的更多知识，则来源于Colah的博客（http:\u002F\u002Fcolah.github.io\u002Fposts\u002F2015-08-Understanding-LSTMs\u002F），我的部分插图也受到了那里的启发。\n\n此外，还要感谢乔纳森·德尔·霍约，他在LinkedIn上定期分享的优质文章对我帮助很大。\n\n最后，我要衷心感谢Mediamobile的各位同事，他们允许我尽情深入研究神经网络。尤其要感谢克莱芒、尼古拉斯、杰西卡、克里斯汀和塞琳。\n\n同时，也要感谢让-米歇尔·卢贝斯和法布里斯·甘博阿，他们在我学习概率论和统计学的过程中给予了极大的指导。\n\n在此，我还要特别感谢我的雇主Mediamobile，他们给予我充分自由，让我能够全身心投入到这一课题的研究中。尤其是菲利普，他以恰到好处的反馈与放手相结合的方式指导着我，对此我深表感激！\n\n# 联系方式\n\n如果您发现任何错别字或错误（我相信其中仍不可避免地存在一些），或者认为我遗漏了重要的参考文献，请随时通过电子邮件与我联系：thomas.epelbaum@shift-technology.com","# Technical_Book_DL 快速上手指南\n\nTechnical_Book_DL 并非传统的软件工具或代码库，而是一份关于深度学习技术原理的开源书籍\u002F笔记。它详细推导了前馈神经网络、卷积神经网络（CNN）和循环神经网络（RNN）的核心构建块、前向传播及反向传播算法的数学公式。\n\n本指南将指导你如何获取文档源码及编译后的 PDF。\n\n## 环境准备\n\n由于本项目主要包含 LaTeX 源文件（`.tex`）和图片资源，若你需要重新编译文档，需准备以下环境：\n\n*   **操作系统**：Windows, macOS 或 Linux 均可。\n*   **核心依赖**：\n    *   **LaTeX 发行版**：用于编译 `.tex` 文件生成 PDF。\n        *   Windows: 推荐安装 [TeX Live](https:\u002F\u002Ftug.org\u002Ftexlive\u002F) 或 [MiKTeX](https:\u002F\u002Fmiktex.org\u002F)。\n        *   macOS: 推荐安装 [MacTeX](https:\u002F\u002Ftug.org\u002Fmactex\u002F)。\n        *   Linux: 使用包管理器安装 (例如 Ubuntu: `sudo apt-get install texlive-full`)。\n    *   **Git**：用于克隆仓库获取源码。\n*   **可选依赖**：任何标准的 PDF 阅读器（如 Adobe Acrobat, SumatraPDF, Preview 等）。\n\n> **提示**：如果你仅需阅读内容，无需安装 LaTeX 环境，直接下载预编译好的 PDF 即可（见“基本使用”章节）。\n\n## 安装步骤\n\n### 方式一：直接下载文档（推荐）\n如果你只需要阅读技术内容，无需修改源码，请直接下载官方提供的 PDF 文件：\n\n1.  访问以下链接直接下载：\n    [White_book.pdf](https:\u002F\u002Fgithub.com\u002Ftomepel\u002FTechnical_Book_DL\u002Fraw\u002Fmaster\u002FWhite_book.pdf)\n2.  使用本地 PDF 阅读器打开即可。\n\n### 方式二：克隆源码并编译\n如果你需要查看图表源文件、修改内容或重新编译文档：\n\n1.  **克隆仓库**\n    打开终端或命令行工具，执行以下命令：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ftomepel\u002FTechnical_Book_DL.git\n    cd Technical_Book_DL\n    ```\n\n2.  **编译文档**\n    进入目录后，使用 `pdflatex` 命令编译主文件（假设主文件名为 `White_book.tex`，具体文件名请以仓库内实际为准）：\n    ```bash\n    pdflatex White_book.tex\n    ```\n    *注：若文档包含参考文献或交叉引用，可能需要运行两次 `pdflatex` 或使用 `latexmk` 工具。*\n\n## 基本使用\n\n### 阅读技术内容\n打开下载的 `White_book.pdf`，你将看到关于以下三种主流神经网络架构的深度技术解析：\n*   **Feedforward Networks** (前馈神经网络)\n*   **Convolutional Networks** (卷积神经网络)\n*   **Recurrent Networks** (循环神经网络)\n\n文档特点在于摒弃了部分抽象的矩阵表述，转而使用带有明确索引的详细公式推导，适合希望深入理解反向传播算法底层数学原理的开发者。\n\n### 引用说明\n如果你在研究或工作中使用了本书中的图表、公式或观点，请务必按照学术规范注明出处。作者特别强调：\"Just don't forget to cite the source if you use any of this material!\"","一名算法工程师正在为团队新人编写内部培训文档，需要彻底讲清前馈、卷积和循环神经网络的数学推导细节。\n\n### 没有 Technical_Book_DL 时\n- 查阅资料时往往只能看到抽象的矩阵公式，难以确认每个向量的具体维度，导致新人对数据流向感到困惑。\n- 不同教程对反向传播更新规则的符号定义不统一，讲师需要花费大量时间手动对齐符号并验证推导过程。\n- 缺乏高质量且可自由使用的架构图，自行绘制精确的神经网络结构图耗时耗力，且容易出错。\n- 遇到复杂的索引运算（如含十个下标的公式）时，网上资料多一笔带过，缺乏逐步拆解的教学内容。\n\n### 使用 Technical_Book_DL 后\n- 直接引用书中详尽的“全索引”公式推导，清晰展示每一步操作的物体维度，让学员一眼看懂数据变换逻辑。\n- 利用书中完整推导的前向传播与反向传播更新规则，统一了团队内部的数学符号体系，消除了理解歧义。\n- 直接使用仓库中提供的高清矢量图和 LaTeX 源文件，快速生成专业教材插图，大幅缩短文档制作周期。\n- 参考书中对基础构建模块的细致拆解，将晦涩的梯度下降优化技术转化为通俗易懂的教学案例。\n\nTechnical_Book_DL 通过将深奥的矩阵运算还原为精确的索引推导，填补了从理论公式到工程落地之间的认知鸿沟。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftomepel_Technical_Book_DL_969a6e03.png","tomepel","Thomas Epelbaum","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftomepel_77764daf.jpg","Machine Learning Researcher at Shift Technology",null,"http:\u002F\u002Fwww.normalesup.org\u002F~epelbaum\u002F","https:\u002F\u002Fgithub.com\u002Ftomepel",[84],{"name":85,"color":86,"percentage":87},"TeX","#3D6117",100,1389,104,"2026-03-30T05:36:52","","未说明",{"notes":94,"python":92,"dependencies":95},"该项目并非可执行的 AI 软件工具，而是一本关于深度学习技术原理的电子书（包含 PDF、LaTeX 源码和图片）。内容主要涵盖前馈神经网络、卷积神经网络和循环神经网络的数学推导。用户无需配置运行环境、GPU 或安装 Python 依赖库，仅需使用 PDF 阅读器查看文档，或使用 LaTeX 编译器编译源码即可。",[],[18],"2026-03-27T02:49:30.150509","2026-04-08T19:01:51.631365",[],[]]