[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-christophM--interpretable-ml-book":3,"tool-christophM--interpretable-ml-book":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75812,"2026-04-17T10:36:11",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":29,"env_os":123,"env_gpu":123,"env_ram":123,"env_deps":124,"category_tags":128,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":129,"updated_at":130,"faqs":131,"releases":161},8474,"christophM\u002Finterpretable-ml-book","interpretable-ml-book","Book about interpretable machine learning","interpretable-ml-book 是一本专注于“可解释机器学习”的开源指南，旨在揭开复杂算法“黑盒”的神秘面纱。在当今社会，机器学习已深入日常生活的方方面面，但机器做出的决策往往缺乏直观的解释，这容易引发信任危机。本书核心解决了这一痛点：它帮助开发者和研究者判断模型是否真正学到了通用规律，还是仅仅记住了训练数据中的噪声与异常，从而提升对模型的信任度。\n\n内容编排上，本书先介绍如何构建和解读简单的可解释模型，随后深入探讨针对复杂黑盒模型的分析技术，提供了一套让算法决策变得透明、可理解的方法论。其独特亮点在于不仅涵盖理论，还结合了作者开发的 R 语言包（iml）及 SHAP 等前沿工具的实际应用案例，兼具学术深度与工程实践价值。\n\n这本书非常适合机器学习从业者、数据科学家、统计学家阅读，同时也推荐给需要评估算法风险的企业决策者。无论您是想调试模型的开发人员，还是关注算法伦理的研究者，interpretable-ml-book 都能助您跨越技术与理解的鸿沟，推动机器决策向更人性化、更透明的方向发展。目前该书提供免费在线阅读版本，并支持社区共同纠错与完善。","# Interpretable Machine Learning\n\nThis is the repository for the book Interpretable Machine Learning -- A Guide For Explaining Black Box Models.\n\n![Build Status](https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Factions\u002Fworkflows\u002FBook.yaml\u002Fbadge.svg)\n\nYou can read the book in the following ways:\n\n- [Online, for free](https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F)\n- [Buy the ebook](https:\u002F\u002Fleanpub.com\u002Finterpretable-machine-learning\u002F)\n- [But the paperback](https:\u002F\u002Fbookgoodies.com\u002Fa\u002F3911578032)\n\n## Summary\n\nYou can find the current version of the book here: https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F\n\nThis book is about interpretable machine learning. Machine learning is being built into many products and processes of our daily lives, yet decisions made by machines don't automatically come with an explanation. An explanation increases the trust in the decision and in the machine learning model. As the programmer of an algorithm you want to know whether you can trust the learned model. Did it learn generalizable features? Or are there some odd artifacts in the training data which the algorithm picked up? This book will give an overview over techniques that can be used to make black boxes as transparent as possible and explain decisions. In the first chapter algorithms that produce simple, interpretable models are introduced together with instructions how to interpret the output. The later chapters focus on analyzing complex models and their decisions.\nIn an ideal future, machines will be able to explain their decisions and make a transition into an algorithmic age more human. This books is recommended for machine learning practitioners, data scientists, statisticians and also for stakeholders deciding on the use of machine learning and intelligent algorithms.\n\n## Changelog  \n\nSee [CHANGELOG.md](CHANGELOG.md) for version history.\n\n# Citing this Book {#cite}\n\nIf you found this book useful for your blog post, research article or product, I would be grateful if you would cite this book.\nYou can cite the book like this:\n\n\n```\nMolnar, Christoph. *Interpretable Machine Learning: A Guide for Making Black Box Models Explainable*. 3rd ed., 2025. ISBN: 978-3-911578-03-5. Available at: \\url{https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book}.\n```\n\nOr use the following bibtex entry:\n\n```\n@book{molnar2025,\n  title={Interpretable Machine Learning},\n  subtitle={A Guide for Making Black Box Models Explainable},\n  author={Christoph Molnar},\n  year={2025},\n  edition={3},\n  isbn={978-3-911578-03-5},\n  url={https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book}\n}\n```\n\nI'm always curious about where and how interpretation methods are used in industry and research.\nIf you use the book as a reference, it would be great if you wrote me a line and told me what for.\nThis is, of course, optional and only serves to satisfy my own curiosity and to stimulate interesting exchanges.\nMy email is chris@christophmolnar.com\n\n\n## Contributing\n\nIf you find any errors in the book, I welcome your help in fixing them! To contribute:\n\n1. Fork the repository.\n1. Create a new branch for your fix.\n1. Address the error(s) you found.\n1. Submit a pull request with a clear description of the fix.\n\nAdditionally, if you have content suggestions or requests, feel free to open an issue. While I can't promise that all suggestions will be added, I appreciate the feedback.\n\nThank you for helping improve the book!\n\n\n# Further Resources:\n\n- Most R examples use the [iml R package](https:\u002F\u002Fgithub.com\u002Fgiuseppec\u002Fiml) that I developed\n- For a deep dive into SHAP, checkout my book [Interpreting Machine Learning Models with SHAP](https:\u002F\u002Fchristophmolnar.com\u002Fbooks\u002Fshap\u002F)\n\n\n\n","# 可解释机器学习\n\n这是《可解释机器学习——黑盒模型解释指南》一书的代码仓库。\n\n![构建状态](https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Factions\u002Fworkflows\u002FBook.yaml\u002Fbadge.svg)\n\n您可以通过以下方式阅读本书：\n\n- [在线免费阅读](https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F)\n- [购买电子书](https:\u002F\u002Fleanpub.com\u002Finterpretable-machine-learning\u002F)\n- [购买纸质版](https:\u002F\u002Fbookgoodies.com\u002Fa\u002F3911578032)\n\n## 摘要\n\n当前版本的书籍可以在这里找到：https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F\n\n本书探讨的是可解释机器学习。如今，机器学习已广泛应用于我们日常生活的诸多产品和流程中，然而机器做出的决策往往缺乏相应的解释。而解释能够增强人们对决策及机器学习模型的信任。作为算法的开发者，您需要了解所训练的模型是否可靠，它是否学习到了具有泛化能力的特征，抑或只是捕捉到了训练数据中的某些异常模式。本书将概述一系列技术，旨在尽可能地揭示“黑箱”的内部运作，并对决策进行解释。第一章介绍了能够生成简单、可解释模型的算法，并提供了如何解读其输出的指导；后续章节则聚焦于复杂模型及其决策的分析。\n\n在理想的未来，机器将能够解释自身的决策，从而推动人类社会迈向更加人性化的算法时代。本书适合机器学习从业者、数据科学家、统计学家，以及那些负责决策是否采用机器学习和智能算法的相关利益方阅读。\n\n## 更改日志  \n\n版本历史请参阅 [CHANGELOG.md](CHANGELOG.md)。\n\n# 引用本书 {#cite}\n\n如果您在博客文章、研究论文或产品开发中使用了本书的内容，我将不胜感激。您可以按如下方式引用本书：\n\n```\nMolnar, Christoph. 《可解释机器学习：让黑盒模型可解释的指南》. 第3版，2025年. ISBN: 978-3-911578-03-5. 可访问地址：\\url{https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book}.\n```\n\n或者使用以下 BibTeX 条目：\n\n```\n@book{molnar2025,\n  title={可解释机器学习},\n  subtitle={让黑盒模型可解释的指南},\n  author={Christoph Molnar},\n  year={2025},\n  edition={3},\n  isbn={978-3-911578-03-5},\n  url={https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book}\n}\n```\n\n我一直很想知道业界和学术界是如何应用解释方法的。如果您将本书作为参考文献，请不吝告知我具体用途，这对我来说既是满足个人好奇心的方式，也能促进有益的交流。我的邮箱是 chris@christophmolnar.com。\n\n## 贡献\n\n如果您发现书中存在任何错误，欢迎帮助我们修正！贡献步骤如下：\n\n1. 克隆本仓库。\n2. 创建一个新的分支用于修复。\n3. 解决您发现的问题。\n4. 提交包含清晰修复说明的拉取请求。\n\n此外，如果您有内容建议或需求，也欢迎随时提交议题。虽然我无法保证所有建议都会被采纳，但我非常感谢您的反馈。\n\n感谢您为改进本书所做的努力！\n\n# 更多资源：\n\n- 大多数 R 示例都使用了由我开发的 [iml R 包](https:\u002F\u002Fgithub.com\u002Fgiuseppec\u002Fiml)。\n- 如果想深入了解 SHAP 方法，可以阅读我的另一本书《用 SHAP 解释机器学习模型》(https:\u002F\u002Fchristophmolnar.com\u002Fbooks\u002Fshap\u002F)。","# Interpretable Machine Learning 快速上手指南\n\n`interpretable-ml-book` 并非一个传统的软件库，而是一本开源书籍及其配套代码仓库。它旨在指导开发者如何解释“黑盒”机器学习模型，提供从简单可解释模型到复杂模型分析的各种技术概览。\n\n## 环境准备\n\n本项目主要包含书籍内容（Markdown\u002FHTML）以及用于演示的 R 语言代码示例。\n\n*   **系统要求**：Windows、macOS 或 Linux 均可。\n*   **前置依赖**：\n    *   **阅读书籍**：无需安装任何软件，直接使用浏览器访问在线版即可。\n    *   **运行代码示例**：需要安装 [R](https:\u002F\u002Fcran.r-project.org\u002F) 和 [RStudio](https:\u002F\u002Fposit.co\u002Fdownload\u002Frstudio-desktop\u002F)。\n    *   **核心 R 包**：大部分示例依赖作者开发的 `iml` 包，以及常见的机器学习包（如 `randomForest`, `xgboost` 等）。\n\n> **注意**：目前书中示例主要以 R 语言为主。若需使用 Python 进行类似的可解释性分析，建议参考书中提到的方法论，并结合 Python 生态中的 `SHAP` 或 `LIME` 库使用。\n\n## 安装步骤\n\n### 方式一：在线阅读（推荐）\n无需安装，直接访问官方托管的最新版书籍：\n*   **在线阅读地址**：[https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F](https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F)\n\n### 方式二：本地获取源码与运行示例\n如果你希望本地浏览源码或运行书中的 R 代码示例：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book.git\n    cd interpretable-ml-book\n    ```\n\n2.  **安装 R 依赖包**\n    启动 R 或 RStudio，运行以下命令安装核心解释性包 `iml` 及其他常用依赖：\n    ```R\n    install.packages(\"iml\")\n    install.packages(c(\"randomForest\", \"xgboost\", \"ggplot2\", \"pdp\", \"ICEbox\"))\n    ```\n    *注：国内用户若下载缓慢，可临时切换至清华或中科大镜像源：*\n    ```R\n    options(repos = c(CRAN = \"https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002FCRAN\"))\n    install.packages(\"iml\")\n    ```\n\n3.  **本地构建书籍（可选）**\n    如果需要本地生成 HTML 版本的书籍，需安装 `bookdown` 包并运行构建脚本（需确保已安装 Pandoc）：\n    ```R\n    install.packages(\"bookdown\")\n    # 在项目根目录下运行\n    bookdown::render_book(\"index.Rmd\", output_format = \"bookdown::gitbook\")\n    ```\n\n## 基本使用\n\n本书的核心价值在于提供方法论和代码片段。以下是一个基于书中 `iml` 包的**最简单使用示例**，展示如何解释一个随机森林模型的预测结果。\n\n### 场景：解释黑盒模型的特征重要性\n\n假设你已经训练了一个随机森林模型，想要知道哪些特征对预测结果影响最大。\n\n```R\nlibrary(iml)\nlibrary(randomForest)\n\n# 1. 准备数据 (使用内置的 Boston 房价数据为例)\ndata(\"Boston\", package = \"MASS\")\nX \u003C- Boston[, -14] # 特征\ny \u003C- Boston$medv   # 目标变量\n\n# 2. 训练一个黑盒模型 (随机森林)\nmodel \u003C- randomForest(medv ~ ., data = Boston)\n\n# 3. 创建 iml 预测器对象\n# 这一步将模型封装为 iml 可识别的格式\npredictor \u003C- Predictor$new(\n  model = model,\n  data = X,\n  y = y\n)\n\n# 4. 计算特征重要性 (Feature Importance)\n# 使用置换重要性方法 (Permutation Importance)\nimp \u003C- FeatureImp$new(predictor, loss = \"mse\")\n\n# 5. 可视化结果\nplot(imp)\n```\n\n**输出说明**：\n运行上述代码后，将弹出一个图表，显示各个特征（如 `lstat`, `rm` 等）对模型预测误差的影响程度。条形图越长，表示该特征越重要。这是理解黑盒模型决策逻辑的第一步。\n\n---\n*更多高级用法（如 SHAP 值分析、局部依赖图 PDP、个体条件期望 ICE 等），请参阅在线书籍的对应章节。*","某金融科技公司数据科学团队正在开发一套自动审批小额信贷的机器学习模型，面临监管机构要求解释拒贷原因的合规压力。\n\n### 没有 interpretable-ml-book 时\n- 团队盲目尝试各种解释代码，却因缺乏系统理论指导，无法区分模型是学到了真实风险特征还是数据噪声。\n- 面对复杂的黑盒模型（如 XGBoost），开发人员只能输出冰冷的预测概率，无法向业务方和用户说明“为什么被拒”。\n- 在模型审计会议上，因无法提供可信的特征重要性分析，导致项目被风控部门叫停，信任度极低。\n- 团队成员对局部解释（LIME）和全局解释（SHAP）的适用场景混淆，导致生成的报告逻辑自相矛盾。\n\n### 使用 interpretable-ml-book 后\n- 团队依据书中指南构建了系统的解释框架，快速识别并剔除了模型依赖的异常数据伪影，确保特征泛化能力。\n- 利用书中提供的具体案例和代码逻辑，成功将黑盒决策转化为可视化的“拒贷理由单”，清晰展示收入、负债等关键影响因素。\n- 凭借书中关于公平性和稳健性的章节内容，顺利通过了内部算法审计，重建了业务部门对 AI 模型的信任。\n- 团队成员统一了方法论语言，准确针对不同受众选择局部或全局解释策略，输出了逻辑严密且一致的分析报告。\n\ninterpretable-ml-book 将晦涩的黑盒模型转化为透明、可信的决策依据，成为连接算法技术与商业合规的关键桥梁。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FchristophM_interpretable-ml-book_b5e45f46.png","christophM","Christoph Molnar","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FchristophM_887298a1.png","Interpretable Machine Learning researcher. Author of Interpretable Machine Learning Book: https:\u002F\u002Fchristophm.github.io\u002Finterpretable-ml-book\u002F",null,"Munich","https:\u002F\u002Fchristophm.github.io\u002F","https:\u002F\u002Fgithub.com\u002FchristophM",[85,89,93,97,101,104,108,112,116],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",89.7,{"name":90,"color":91,"percentage":92},"TeX","#3D6117",6.2,{"name":94,"color":95,"percentage":96},"Python","#3572A5",2.8,{"name":98,"color":99,"percentage":100},"R","#198CE7",0.4,{"name":102,"color":103,"percentage":100},"HTML","#e34c26",{"name":105,"color":106,"percentage":107},"CSS","#663399",0.3,{"name":109,"color":110,"percentage":111},"Makefile","#427819",0.2,{"name":113,"color":114,"percentage":115},"SCSS","#c6538c",0,{"name":117,"color":118,"percentage":115},"Shell","#89e051",5273,1093,"2026-04-14T05:49:04","NOASSERTION","未说明",{"notes":125,"python":123,"dependencies":126},"该项目主要是一本关于可解释机器学习的书籍及其代码示例仓库，而非单一的 AI 模型工具。根据文档，大多数代码示例使用 R 语言及 'iml' R 包编写，而非 Python。书中内容涵盖通用机器学习技术，不特定依赖深度学习框架（如 PyTorch 或 TensorFlow），因此无特定的 GPU、CUDA 或 Python 版本强制要求。用户需自行安装 R 环境及相应的机器学习库以运行示例。",[127],"iml (R package)",[18],"2026-03-27T02:49:30.150509","2026-04-17T21:45:05.314551",[132,137,142,146,151,156],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},37935,"书中解释 Shapley 值的图示是否已更新为更清晰的版本？","是的，原本手绘的 Shapley 值解释图示（包括联盟、实例干预等概念图）已被替换为计算机生成的更精美版本，并已集成到书的在线版本中，显著提升了可读性。","https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Fissues\u002F20",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},37934,"是否有用于计算决策树 SHAP 分数的多项式时间算法？","是的，已有研究提供了针对决策树及部分广义模型的多项式时间（polytime）算法来计算 SHAP 分数。相关详细证明和算法描述可参考论文：https:\u002F\u002Farxiv.org\u002Fpdf\u002F2007.14045.pdf。","https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Fissues\u002F142",{"id":143,"question_zh":144,"answer_zh":145,"source_url":141},37930,"TreeSHAP 算法在特征存在统计依赖性时是否能计算精确的 Shapley 值？","不能。虽然书中提到 TreeSHAP 能计算精确值且不受特征依赖影响，但实际上当特征间存在统计依赖时，TreeSHAP 同样面临问题。有研究证明 TreeSHAP 试图解决的问题属于 #P-hard 复杂度类。如果需要在不依赖背景数据集的情况下处理此问题，`tree_path_dependent` 模式是基于树中记录的数据覆盖率的最佳选择，但它条件化了树上方观察到的值，并非真正的部分依赖图（Partial Dependence Plot）。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},37931,"Shapley 值的蒙特卡洛（Monte-Carlo）估计算法中，随机排列顺序的具体作用是什么？","随机排列顺序仅是一种生成两个新数据实例的技巧，其中部分特征值来自实例 x，部分来自采样实例 z。在实际代码调用预测函数时，并不使用这个排列顺序，因为预测函数通常要求特征顺序固定。排列顺序的唯一作用是决定每个特征值是取自 x 还是 z。由于顺序是随机的，对于任意非目标特征 i，其值取自 x 或 z 的概率最终等效于各占 50%。","https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Fissues\u002F202",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},37932,"如何理解决策树转换为决策规则的图示？","该图示展示了决策树如何转化为决策规则的过程。目前该图形已更新为计算机生成的精美版本（支持 SVG、PNG 等格式），并已集成到书中，替代了早期的手绘版本，以便更清晰地展示规则提取逻辑。","https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Fissues\u002F9",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},37933,"书中关于 LIME 或局部解释示例（如 5.1.5 节）中“异常少或多”及“平均值”的描述令人困惑，具体含义是什么？","读者的反馈指出示例中缺乏具体实例数据和步骤导致理解困难。例如，“平均值”通常指训练数据的平均预测值或分布均值；特征贡献的大小是相对于该平均值而言的。维护者承认需要提供更清晰的逐步解释，包括提供具体实例数据、展示其如何映射到图表以及计算效应的过程，并建议参考 Python 的 Skater 包作为补充材料来辅助理解。","https:\u002F\u002Fgithub.com\u002FchristophM\u002Finterpretable-ml-book\u002Fissues\u002F82",[162,166,171,175],{"id":163,"version":164,"summary_zh":80,"released_at":165},306106,"v3","2025-03-13T12:33:42",{"id":167,"version":168,"summary_zh":169,"released_at":170},306107,"v2","第二版发行，包括电子书和平装本。","2022-03-04T06:54:11",{"id":172,"version":173,"summary_zh":80,"released_at":174},306108,"v1-print","2019-04-11T08:58:42",{"id":176,"version":177,"summary_zh":80,"released_at":178},306109,"v1.0","2019-02-21T15:01:19"]