[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ModelOriented--DALEX":3,"tool-ModelOriented--DALEX":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":99,"env_deps":100,"category_tags":114,"github_topics":116,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":135,"updated_at":136,"faqs":137,"releases":167},8686,"ModelOriented\u002FDALEX","DALEX","moDel Agnostic Language for Exploration and eXplanation","DALEX 是一款专为机器学习和人工智能模型设计的开源解释工具，支持 R 和 Python 双语言环境。它的核心使命是打破复杂模型的“黑箱”状态，让原本难以捉摸的预测过程变得透明可信。在深度学习、集成学习等高性能算法日益普及的今天，模型往往因结构复杂而缺乏可解释性，导致用户难以信任其决策结果，甚至阻碍了模型在医疗、金融等关键领域的落地应用。DALEX 通过提供一套与模型无关（Model Agnostic）的分析框架，能够轻松包裹各类主流模型（如 scikit-learn、Keras、XGBoost 等），并利用局部与全局解释器深入剖析变量对预测结果的具体影响。\n\n无论是数据科学家、算法工程师还是学术研究人员，都能借助 DALEX 直观地诊断模型行为、比较不同模型的表现，并验证输入特征与输出之间的逻辑关联。其独特的技术亮点在于统一的 `explain()` 接口设计，使得不同来源的模型可以使用同一套标准进行分析，极大降低了使用门槛。此外，DALEX 还是 DrWhy.AI 生态系统的重要基石，配套丰富的可视化图表和教育资源，帮助用户从理论到实践全面掌握可解释性人工智能（XAI）方法。如果","DALEX 是一款专为机器学习和人工智能模型设计的开源解释工具，支持 R 和 Python 双语言环境。它的核心使命是打破复杂模型的“黑箱”状态，让原本难以捉摸的预测过程变得透明可信。在深度学习、集成学习等高性能算法日益普及的今天，模型往往因结构复杂而缺乏可解释性，导致用户难以信任其决策结果，甚至阻碍了模型在医疗、金融等关键领域的落地应用。DALEX 通过提供一套与模型无关（Model Agnostic）的分析框架，能够轻松包裹各类主流模型（如 scikit-learn、Keras、XGBoost 等），并利用局部与全局解释器深入剖析变量对预测结果的具体影响。\n\n无论是数据科学家、算法工程师还是学术研究人员，都能借助 DALEX 直观地诊断模型行为、比较不同模型的表现，并验证输入特征与输出之间的逻辑关联。其独特的技术亮点在于统一的 `explain()` 接口设计，使得不同来源的模型可以使用同一套标准进行分析，极大降低了使用门槛。此外，DALEX 还是 DrWhy.AI 生态系统的重要基石，配套丰富的可视化图表和教育资源，帮助用户从理论到实践全面掌握可解释性人工智能（XAI）方法。如果你希望提升模型的透明度与可信度，DALEX 将是你不可或缺的得力助手。","# moDel Agnostic Language for Exploration and eXplanation \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_ced66fb543c3.png\" align=\"right\" width=\"150\"\u002F>\n\n[![R build status](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fworkflows\u002FR-CMD-check\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Factions?query=workflow%3AR-CMD-check)\n[![Coverage\nStatus](https:\u002F\u002Fimg.shields.io\u002Fcodecov\u002Fc\u002Fgithub\u002FModelOriented\u002FDALEX\u002Fmaster.svg)](https:\u002F\u002Fcodecov.io\u002Fgithub\u002FModelOriented\u002FDALEX?branch=master)\n[![CRAN_Status_Badge](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_08c623e716ff.png)](https:\u002F\u002Fcran.r-project.org\u002Fpackage=DALEX)\n[![Total Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_e9c857b75bcf.png)](http:\u002F\u002Fcranlogs.r-pkg.org\u002Fbadges\u002Fgrand-total\u002FDALEX)\n[![DrWhy-eXtrAI](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDrWhy-BackBone-373589)](http:\u002F\u002Fdrwhy.ai\u002F#BackBone)\n\n[![Python-check](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fworkflows\u002FPython-check\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Factions?query=workflow%3APython-check)\n[![Supported Python versions](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fdalex.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F)\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdalex.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdalex)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_f617c87ed07f.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdalex)\n\n\n## Overview\n\nUnverified black box model is the path to the failure. Opaqueness leads to distrust. Distrust leads to ignoration. Ignoration leads to rejection.\n\nThe `DALEX` package xrays any model and helps to explore and explain its behaviour, helps to understand how complex models are working. The main function `explain()` creates a wrapper around a predictive model. Wrapped models may then be explored and compared with a collection of local and global explainers. Recent developents from the area of Interpretable Machine Learning\u002FeXplainable Artificial Intelligence.\n\nThe philosophy behind `DALEX` explanations is described in the [Explanatory Model Analysis](https:\u002F\u002Fpbiecek.github.io\u002Fema\u002F) e-book. The `DALEX` package is a part of [DrWhy.AI](http:\u002F\u002FDrWhy.AI) universe.\n\nIf you work with `scikit-learn`, `keras`, `H2O`, `tidymodels`, `xgboost`, `mlr` or `mlr3` in R, you may be interested in the [DALEXtra](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEXtra) package, which is an extension of `DALEX` with easy to use `explain_*()` functions for models created in these libraries.\n\n**[Additional overview of the dalex Python package is available.](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Ftree\u002Fmaster\u002Fpython\u002Fdalex)**\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fpbiecek.github.io\u002Fema\u002Fintroduction.html#bookstructure\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_e56f1d630d0f.png\" width=\"800\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Installation\n\nThe `DALEX` **R** package can be installed from [CRAN](https:\u002F\u002Fcran.r-project.org\u002Fpackage=DALEX)\n\n```r\ninstall.packages(\"DALEX\")\n```\n\nThe `dalex` **Python** package is available on [PyPI](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F) and [conda-forge](https:\u002F\u002Fanaconda.org\u002Fconda-forge\u002Fdalex)\n\n```console\npip install dalex -U\n\nconda install -c conda-forge dalex\n```\n\n## Learn more\n\nMachine Learning models are widely used and have various applications in classification or regression tasks. Due to increasing computational power, availability of new data sources and new methods, ML models are more and more complex. Models created with techniques like boosting, bagging of neural networks are true black boxes. It is hard to trace the link between input variables and model outcomes. They are use because of high performance, but lack of interpretability is one of their weakest sides.\n\nIn many applications we need to know, understand or prove how input variables are used in the model and what impact do they have on final model prediction. `DALEX` is a set of tools that help to understand how complex models are working.\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_68c37619ebbd.png\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_68c37619ebbd.png\" width=\"500\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Resources\n\n* [Gentle introduction to DALEX with examples in R and Python](https:\u002F\u002Fpbiecek.github.io\u002Fema\u002F)\n\n### R package\n\n* [Introduction to Responsible Machine Learning @ useR! 2021](https:\u002F\u002Fgithub.com\u002FMI2DataLab\u002FResponsibleML-UseR2021)\n* DALEX + mlr3 [@ BioColl 2021](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FBioColl2021) & [@ Open-Forest-Training 2021](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FOpen-Forest-Training-2021\u002F)\n* [Materials from Explanatory Model Analysis Workshop @ eRum 2020](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FXAIatERUM2020), [cheatsheet](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FXAIatERUM2020\u002Fblob\u002Fmaster\u002FCheatsheet.pdf)\n* How to use DALEX with: [keras](https:\u002F\u002Frawgit.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_and_keras.html), [parsnip](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_parsnip.html), [caret](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_caret.html), [mlr](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_mlr.html), [H2O](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_h2o.html), [xgboost](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_and_xgboost.html)\n* [Compare GBM models created in different languages](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FMultilanguages_comparision.html): gbm and CatBoost in R \u002F gbm in h2o \u002F gbm in Python\n* [DALEX for fraud detection](https:\u002F\u002Frawgit.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEXverse%20and%20fraud%20detection.html)\n* [DALEX for teaching](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_teaching.html)\n* [XAI in the jungle of competing frameworks for machine learning](https:\u002F\u002Fmedium.com\u002F@ModelOriented\u002Fxai-in-the-jungle-of-competing-frameworks-for-machine-learning-fa6e96a99644)\n\n### Python package\n\n* Introduction to the `dalex` package: [Titanic: tutorial and examples](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-titanic.html)\n* Key features explained: [FIFA20: explain default vs tuned model with dalex](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-fifa.html)\n* How to use dalex with: [xgboost](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-xgboost.html), [tensorflow](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-tensorflow.html)\n* More explanations: [residuals, shap, lime](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-new.html)\n* Introduction to the [Fairness module in dalex](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-fairness.html)\n* Introduction to the [Arena: interactive dashboard for model exploration](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-arena.html)\n* Code in the form of [jupyter notebook](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX-docs\u002Ftree\u002Fmaster\u002Fjupyter-notebooks)\n* Changelog: [NEWS](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fblob\u002Fmaster\u002Fpython\u002Fdalex\u002FNEWS.md)\n\n### Talks about DALEX\n\n* [Talk with your model! at USeR 2020](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9WWn5ew8D8o)\n* [Talk about DALEX at Complexity Institute \u002F NTU February 2018](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_at_NTU_2018.pdf)\n* [Talk about DALEX at SER \u002F WTU April 2018](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FSER_DALEX.pdf)\n* [Talk about DALEX at STWUR May 2018 (in Polish)](https:\u002F\u002Fgithub.com\u002FSTWUR\u002FeRementarz-29-05-2018)\n* [Talk about DALEX at BayArea 2018](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_BayArea.pdf)\n* [Talk about DALEX at PyData Warsaw 2018](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_PyDataWarsaw2018.pdf)\n\n## Citation\n\nIf you use `DALEX` in R or `dalex` in Python, please cite our JMLR papers:\n\n```html\n@article{JMLR:v19:18-416,\n  author  = {Przemyslaw Biecek},\n  title   = {DALEX: Explainers for Complex Predictive Models in R},\n  journal = {Journal of Machine Learning Research},\n  year    = {2018},\n  volume  = {19},\n  number  = {84},\n  pages   = {1-5},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv19\u002F18-416.html}\n}\n\n@article{JMLR:v22:20-1473,\n  author  = {Hubert Baniecki and\n             Wojciech Kretowicz and\n             Piotr Piatyszek and \n             Jakub Wisniewski and \n             Przemyslaw Biecek},\n  title   = {dalex: Responsible Machine Learning \n             with Interactive Explainability and Fairness in Python},\n  journal = {Journal of Machine Learning Research},\n  year    = {2021},\n  volume  = {22},\n  number  = {214},\n  pages   = {1-7},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv22\u002F20-1473.html}\n}\n```\n\n## Why\n\n76 years ago Isaac Asimov devised [Three Laws of Robotics](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FThree_Laws_of_Robotics): 1) a robot may not injure a human being, 2) a robot must obey the orders given it by human beings and 3) A robot must protect its own existence. These laws impact discussion around [Ethics of AI](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FEthics_of_artificial_intelligence). Today’s robots, like cleaning robots, robotic pets or autonomous cars are far from being conscious enough to be under Asimov’s ethics.\n\nToday we are surrounded by complex predictive algorithms used for decision making. Machine learning models are used in health care, politics, education, judiciary and many other areas. Black box predictive models have far larger influence on our lives than physical robots. Yet, applications of such models are left unregulated despite many examples of their potential harmfulness. See *Weapons of Math Destruction* by Cathy O'Neil for an excellent overview of potential problems.\n\nIt's clear that we need to control algorithms that may affect us. Such control is in our civic rights. Here we propose three requirements that any predictive model should fulfill.\n\n-\t**Prediction's justifications**. For every prediction of a model one should be able to understand which variables affect the prediction and how strongly. Variable attribution to final prediction.\n-\t**Prediction's speculations**. For every prediction of a model one should be able to understand how the model prediction would change if input variables were changed. Hypothesizing about what-if scenarios.\n-\t**Prediction's validations** For every prediction of a model one should be able to verify how strong are evidences that confirm this particular prediction.\n\nThere are two ways to comply with these requirements.\nOne is to use only models that fulfill these conditions by design. White-box models like linear regression or decision trees. In many cases the price for transparency is lower performance.\nThe other way is to use approximated explainers – techniques that find only approximated answers, but work for any black box model. Here we present such techniques.\n\n\n## Acknowledgments\n\nWork on this package was financially supported by the `NCN Opus grant 2016\u002F21\u002FB\u002FST6\u002F02176` and `NCN Opus grant 2017\u002F27\u002FB\u002FST6\u002F01307`.\n","# 模型无关的探索与解释语言 \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_ced66fb543c3.png\" align=\"right\" width=\"150\"\u002F>\n\n[![R 构建状态](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fworkflows\u002FR-CMD-check\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Factions?query=workflow%3AR-CMD-check)\n[![覆盖率\n状态](https:\u002F\u002Fimg.shields.io\u002Fcodecov\u002Fc\u002Fgithub\u002FModelOriented\u002FDALEX\u002Fmaster.svg)](https:\u002F\u002Fcodecov.io\u002Fgithub\u002FModelOriented\u002FDALEX?branch=master)\n[![CRAN_状态_徽章](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_08c623e716ff.png)](https:\u002F\u002Fcran.r-project.org\u002Fpackage=DALEX)\n[![总下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_e9c857b75bcf.png)](http:\u002F\u002Fcranlogs.r-pkg.org\u002Fbadges\u002Fgrand-total\u002FDALEX)\n[![DrWhy-eXtrAI](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDrWhy-BackBone-373589)](http:\u002F\u002Fdrwhy.ai\u002F#BackBone)\n\n[![Python检查](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fworkflows\u002FPython-check\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Factions?query=workflow%3APython-check)\n[![支持的 Python 版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fdalex.svg)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F)\n[![PyPI 版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdalex.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdalex)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_f617c87ed07f.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdalex)\n\n\n## 概述\n\n未经验证的黑箱模型是失败的根源。不透明性导致不信任，不信任导致忽视，忽视则最终导致拒绝。\n\n`DALEX` 包可以对任何模型进行“透视”，帮助探索和解释其行为，从而理解复杂模型的工作原理。主要函数 `explain()` 会在预测模型周围创建一个包装器。被包装后的模型随后可以通过一系列局部和全局解释工具来进行探索和比较。这些方法源自可解释机器学习\u002F可解释人工智能领域的最新进展。\n\n`DALEX` 解释背后的哲学理念在电子书 [Explanatory Model Analysis](https:\u002F\u002Fpbiecek.github.io\u002Fema\u002F) 中有所阐述。`DALEX` 包是 [DrWhy.AI](http:\u002F\u002FDrWhy.AI) 生态系统的一部分。\n\n如果您在 R 中使用 `scikit-learn`、`keras`、`H2O`、`tidymodels`、`xgboost`、`mlr` 或 `mlr3`，那么您可能会对 [DALEXtra](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEXtra) 包感兴趣，它是 `DALEX` 的扩展，为这些库中创建的模型提供了易于使用的 `explain_*()` 函数。\n\n**[关于 dalex Python 包的更多概述请参见此处。](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Ftree\u002Fmaster\u002Fpython\u002Fdalex)**\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fpbiecek.github.io\u002Fema\u002Fintroduction.html#bookstructure\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_e56f1d630d0f.png\" width=\"800\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 安装\n\n`DALEX` **R** 包可以从 [CRAN](https:\u002F\u002Fcran.r-project.org\u002Fpackage=DALEX) 安装。\n\n```r\ninstall.packages(\"DALEX\")\n```\n\n`dalex` **Python** 包可在 [PyPI](https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F) 和 [conda-forge](https:\u002F\u002Fanaconda.org\u002Fconda-forge\u002Fdalex) 上获取。\n\n```console\npip install dalex -U\n\nconda install -c conda-forge dalex\n```\n\n## 了解更多\n\n机器学习模型应用广泛，在分类或回归任务中都有多种用途。随着计算能力的提升、新数据源的出现以及新方法的涌现，ML 模型变得越来越复杂。像梯度提升、随机森林和神经网络这样的技术所构建的模型往往被视为真正的黑箱。很难追踪输入变量与模型输出之间的关系。尽管它们性能优异，但缺乏可解释性却是其最薄弱的环节之一。\n\n在许多应用场景中，我们需要知道、理解或证明输入变量是如何被模型利用的，以及它们对最终预测结果有何影响。`DALEX` 是一套能够帮助我们理解复杂模型工作方式的工具。\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_68c37619ebbd.png\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_readme_68c37619ebbd.png\" width=\"500\"\u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 资源\n\n* [DALEX 的温和介绍，附 R 和 Python 示例](https:\u002F\u002Fpbiecek.github.io\u002Fema\u002F)\n\n### R 包\n\n* [useR! 2021 上的负责任机器学习简介](https:\u002F\u002Fgithub.com\u002FMI2DataLab\u002FResponsibleML-UseR2021)\n* DALEX + mlr3 [@ BioColl 2021](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FBioColl2021) & [@ Open-Forest-Training 2021](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FOpen-Forest-Training-2021\u002F)\n* [eRum 2020 可解释模型分析研讨会资料](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FXAIatERUM2020)，[备忘录](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FXAIatERUM2020\u002Fblob\u002Fmaster\u002FCheatsheet.pdf)\n* 如何使用 DALEX：[keras](https:\u002F\u002Frawgit.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_and_keras.html)、[parsnip](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_parsnip.html)、[caret](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_caret.html)、[mlr](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_mlr.html)、[H2O](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_h2o.html)、[xgboost](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_and_xgboost.html)\n* [比较不同语言中创建的 GBM 模型](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FMultilanguages_comparision.html)：R 中的 gbm 和 CatBoost \u002F H2O 中的 gbm \u002F Python 中的 gbm\n* [DALEX 用于欺诈检测](https:\u002F\u002Frawgit.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEXverse%20and%20fraud%20detection.html)\n* [DALEX 用于教学](https:\u002F\u002Fraw.githack.com\u002Fpbiecek\u002FDALEX_docs\u002Fmaster\u002Fvignettes\u002FDALEX_teaching.html)\n* [机器学习竞争框架丛林中的 XAI](https:\u002F\u002Fmedium.com\u002F@ModelOriented\u002Fxai-in-the-jungle-of-competing-frameworks-for-machine-learning-fa6e96a99644)\n\n### Python 包\n\n* `dalex` 包简介：[泰坦尼克号：教程和示例](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-titanic.html)\n* 关键特性详解：[FIFA20：用 dalex 解释默认模型与调优后的模型](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-fifa.html)\n* 如何使用 dalex：[xgboost](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-xgboost.html)、[tensorflow](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-tensorflow.html)\n* 更多解释：[残差、SHAP、LIME](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-new.html)\n* [dalex 中的公平性模块](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-fairness.html) 简介\n* [Arena：交互式模型探索仪表板](https:\u002F\u002Fdalex.drwhy.ai\u002Fpython-dalex-arena.html) 简介\n* 代码以 [jupyter notebook](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX-docs\u002Ftree\u002Fmaster\u002Fjupyter-notebooks) 形式提供\n* 更改记录：[NEWS](https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fblob\u002Fmaster\u002Fpython\u002Fdalex\u002FNEWS.md)\n\n### 有关 DALEX 的演讲\n\n* [与你的模型对话！在 USeR 2020 大会上](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9WWn5ew8D8o)\n* [2018年2月在 NTU 复杂性研究所的 DALEX 演讲](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_at_NTU_2018.pdf)\n* [2018年4月在 WTU 统计与经济研究协会的 DALEX 演讲](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FSER_DALEX.pdf)\n* [2018年5月在 STWUR 的 DALEX 演讲（波兰语）](https:\u002F\u002Fgithub.com\u002FSTWUR\u002FeRementarz-29-05-2018)\n* [2018年在 BayArea 的 DALEX 演讲](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_BayArea.pdf)\n* [2018年在 PyData 华沙大会上的 DALEX 演讲](https:\u002F\u002Fgithub.com\u002Fpbiecek\u002FTalks\u002Fblob\u002Fmaster\u002F2018\u002FDALEX_PyDataWarsaw2018.pdf)\n\n## 引用\n\n如果您在 R 中使用 `DALEX` 或在 Python 中使用 `dalex`，请引用我们的 JMLR 论文：\n\n```html\n@article{JMLR:v19:18-416,\n  author  = {Przemyslaw Biecek},\n  title   = {DALEX：R 中复杂预测模型的解释工具},\n  journal = {机器学习研究期刊},\n  year    = {2018},\n  volume  = {19},\n  number  = {84},\n  pages   = {1-5},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv19\u002F18-416.html}\n}\n\n@article{JMLR:v22:20-1473,\n  author  = {Hubert Baniecki、Wojciech Kretowicz、Piotr Piatyszek、Jakub Wisniewski 和 Przemyslaw Biecek},\n  title   = {dalex：Python 中具有交互式可解释性和公平性的负责任机器学习},\n  journal = {机器学习研究期刊},\n  year    = {2021},\n  volume  = {22},\n  number  = {214},\n  pages   = {1-7},\n  url     = {http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fv22\u002F20-1473.html}\n}\n```\n\n## 理由\n\n76年前，艾萨克·阿西莫夫提出了[机器人三定律](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FThree_Laws_of_Robotics)：1) 机器人不得伤害人类；2) 机器人必须服从人类的命令；3) 机器人必须保护自身的存在。这些定律对[人工智能伦理](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FEthics_of_artificial_intelligence)的讨论产生了深远影响。然而，如今的机器人，如扫地机器人、宠物机器人或自动驾驶汽车，远未达到能够遵循阿西莫夫伦理的高度。\n\n今天，我们被复杂的预测算法所包围，这些算法广泛应用于决策制定中。机器学习模型被用于医疗、政治、教育、司法等多个领域。与实体机器人相比，黑箱预测模型对我们生活的影响要大得多。然而，尽管有许多潜在危害的例子，这类模型的应用仍然缺乏监管。凯茜·奥尼尔的《数学毁灭武器》一书为我们提供了关于这些问题的绝佳概述。\n\n显然，我们需要对可能影响我们的算法进行有效控制。这种控制是我们公民权利的一部分。在此，我们提出任何预测模型都应满足的三项要求：\n\n- **预测的合理性解释**：对于模型的每一次预测，都应能够理解哪些变量对其产生影响以及影响的程度。即变量对最终预测的归因分析。\n- **预测的情景假设**：对于模型的每一次预测，都应能够设想如果输入变量发生变化，预测结果会如何改变。通过假设“如果……会怎样”的场景来探索可能性。\n- **预测的验证依据**：对于模型的每一次预测，都应能够核实支持该特定预测的证据是否充分。\n\n实现这些要求有两种方式。一种是仅使用从设计上就满足这些条件的模型，例如线性回归或决策树等白盒模型。但在许多情况下，透明性往往以牺牲模型性能为代价。\n另一种方式则是使用近似解释器——这类技术虽然只能提供近似的答案，但适用于任何黑箱模型。我们在此介绍的就是此类技术。\n\n\n## 致谢\n\n本软件包的研发工作得到了以下资助：NCN Opus 奖助金 2016\u002F21\u002FB\u002FST6\u002F02176 和 NCN Opus 奖助金 2017\u002F27\u002FB\u002FST6\u002F01307。","# DALEX 快速上手指南\n\nDALEX (moDel Agnostic Language for Exploration and eXplanation) 是一个用于探索和解释复杂机器学习模型的工具包。它支持 R 和 Python 语言，适用于任何“黑盒”模型（如 XGBoost, Random Forest, Neural Networks 等），帮助用户理解变量如何影响预测结果，实现可解释人工智能 (XAI)。\n\n## 环境准备\n\n*   **操作系统**: Windows, macOS, Linux\n*   **R 用户**:\n    *   R 版本 >= 3.5.0\n    *   推荐安装 RStudio\n*   **Python 用户**:\n    *   Python 版本 >= 3.6\n    *   核心依赖：`pandas`, `numpy`, `scikit-learn`, `matplotlib`, `plotly`\n*   **网络建议**: 国内用户建议在安装时配置清华或中科大镜像源以加速下载。\n\n## 安装步骤\n\n### R 语言安装\n\n通过 CRAN 直接安装：\n\n```r\ninstall.packages(\"DALEX\")\n```\n\n**国内加速方案（使用清华镜像）：**\n\n```r\noptions(repos = c(CRAN = \"https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002FCRAN\"))\ninstall.packages(\"DALEX\")\n```\n\n> **提示**: 如果你使用 `mlr3`, `caret`, `xgboost`, `h2o` 等特定包，建议额外安装扩展包 `DALEXtra` 以获得更便捷的接口：\n> ```r\n> install.packages(\"DALEXtra\")\n> ```\n\n### Python 安装\n\n通过 pip 或 conda 安装：\n\n```console\npip install dalex -U\n```\n\n或使用 conda：\n\n```console\nconda install -c conda-forge dalex\n```\n\n**国内加速方案（使用清华 pip 镜像）：**\n\n```console\npip install dalex -U -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\nDALEX 的核心工作流程分为两步：\n1.  使用 `explain()` 创建模型的解释器对象（Wrapper）。\n2.  调用特定的绘图或分析函数（如 `model_profile`, `shap_plot` 等）进行可视化分析。\n\n以下分别展示 R 和 Python 的最简示例。\n\n### R 语言示例\n\n假设你已经训练了一个线性回归模型 `model`，数据为 `apartments`。\n\n```r\nlibrary(DALEX)\n\n# 1. 创建解释器对象\n# model: 训练好的模型对象\n# data: 训练数据集\n# y: 真实标签向量\n# label: 模型的自定义名称，用于图表区分\nexplainer \u003C- explain(\n  model = model, \n  data = apartments[, -6], \n  y = apartments[, 6], \n  label = \"Linear Regression\"\n)\n\n# 2. 生成并绘制全局解释（变量重要性）\n# plot() 函数可直接展示可视化结果\nplot(model_profile(explainer))\n\n# 3. 生成并绘制局部解释（单次预测的贡献度，类似 SHAP\u002FLIME)\n# new_observation 是单行数据\nprediction \u003C- predict(explainer, new_observation)\nplot(break_down(explainer, new_observation))\n```\n\n### Python 示例\n\n假设你已经使用 `scikit-learn` 训练了一个随机森林模型 `rf_model`。\n\n```python\nimport dalex as dx\nfrom sklearn.datasets import load_boston\nfrom sklearn.ensemble import RandomForestRegressor\nfrom sklearn.model_selection import train_test_split\n\n# 准备数据\ndata = load_boston()\nX_train, X_test, y_train, y_test = train_test_split(data.data, data.target, random_state=42)\n\n# 训练模型 (此处仅为示例，实际请使用你已训练好的模型)\nrf_model = RandomForestRegressor(random_state=42)\nrf_model.fit(X_train, y_train)\n\n# 1. 创建解释器对象\nexplainer = dx.Explainer(\n    model=rf_model,\n    X=X_test,\n    y=y_test,\n    label=\"Random Forest\"\n)\n\n# 2. 生成并绘制变量重要性图\nimportance = explainer.model_parts()\nimportance.plot()\n\n# 3. 生成并绘制单次预测的归因分析 (Break Down)\n# 选取第一条数据进行解释\nobservation = X_test.iloc[0, :]\nbd = explainer.predict_parts(observation)\nbd.plot()\n```\n\n通过以上步骤，你可以快速获得模型的变量重要性排序以及具体预测值的归因分析，从而打开“黑盒”，理解模型行为。","某金融风控团队正在利用 XGBoost 构建信用卡欺诈检测模型，亟需向合规部门证明模型的决策逻辑符合监管要求。\n\n### 没有 DALEX 时\n- **黑盒焦虑**：面对复杂的集成模型，团队无法直观解释为何特定交易被标记为欺诈，只能盲目信任输出结果。\n- **沟通壁垒**：在向业务方汇报时，仅能展示准确率等宏观指标，无法用具体案例说明特征（如“单笔大额转账”）如何影响判定。\n- **调试低效**：当模型出现异常预测时，缺乏局部解释工具定位是数据噪声还是逻辑偏差，排查过程如同大海捞针。\n- **合规风险**：由于无法提供符合“可解释性”要求的证据链，模型面临无法通过审计甚至被强制下架的风险。\n\n### 使用 DALEX 后\n- **透视黑盒**：通过 `explain()` 函数快速包裹模型，利用累积依赖图（Accumulated Dependence Plots）清晰呈现各特征对预测分数的全局影响趋势。\n- **个案归因**：借助 SHAP 或 LIME 等局部解释器，精准量化每一笔可疑交易中各个特征的贡献度，轻松向业务方讲述“为什么这笔交易被拦截”。\n- **智能诊断**：利用残差分析和变量重要性排序，迅速发现模型过度依赖某个单一特征的问题，指导团队针对性优化数据清洗策略。\n- **合规通关**：自动生成包含全局与局部解释的可视化报告，以直观的图表证据满足监管对算法透明度的严苛要求。\n\nDALEX 将不可知的算法黑盒转化为透明的决策玻璃盒，让高性能模型在具备精准预测力的同时，也能赢得信任与合规通行证。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FModelOriented_DALEX_ced66fb5.png","ModelOriented","Model Oriented","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FModelOriented_12062155.png","",null,"https:\u002F\u002Fmi2.ai\u002F","https:\u002F\u002Fgithub.com\u002FModelOriented",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",74.8,{"name":86,"color":87,"percentage":88},"R","#198CE7",25.2,{"name":90,"color":91,"percentage":92},"Rez","#FFDAB3",0,1464,169,"2026-04-16T19:56:21","GPL-3.0",1,"Linux, macOS, Windows","未说明",{"notes":101,"python":102,"dependencies":103},"该工具同时提供 R 语言包和 Python 包。Python 版可通过 pip 或 conda 安装。它主要用于模型解释（XAI），本身不训练大型模型，因此对 GPU 无特殊强制要求，但其所解释的底层模型（如 Keras\u002FTensorFlow）可能有独立硬件需求。支持与 scikit-learn, xgboost, keras, H2O, mlr3 等多种机器学习框架集成。","支持多种版本 (具体见 PyPI badge)，通常兼容 Python 3.x",[104,105,106,107,108,109,110,111,112,113],"scikit-learn","keras","H2O","xgboost","tensorflow","pandas","numpy","matplotlib","ggplot2 (R)","tidymodels (R)",[14,115,16],"其他",[117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134],"machine-learning","interpretability","data-science","xai","iml","model-visualization","dalex","explanations","explainable-ai","explainable-artificial-intelligence","predictive-modeling","black-box","explainable-ml","interpretable-machine-learning","explanatory-model-analysis","responsible-ai","responsible-ml","fairness","2026-03-27T02:49:30.150509","2026-04-18T09:20:10.618784",[138,143,148,153,158,162],{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},38900,"DALEX 是否支持 H2O 模型？","是的，DALEX 已经通过 yhat 包装器添加了对 H2O 模型的支持。虽然这种方法需要将数据传输到 R 中，效率不是最高，但目前是可行的方案。用户可以参考官方文档中的多语言模型比较示例（Multilanguages_comparision.html）来了解具体用法。此外，社区也有相关博客文章介绍如何结合 DALEX 与 H2O 进行特征解释。","https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fissues\u002F8",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},38901,"在使用 mlr3 进行模型调优后，如何创建解释器（explainer）？","在使用 `explain_mlr3` 创建解释器时，需要注意两点：1. 必须确保模型已经经过训练（如果使用了 `benchmark()`，需确认模型已正确提取）；2. 数据集中不能包含字符型变量（character variables），否则会导致错误。解决方法是在创建任务前，从数据框中排除字符型列（例如：`df_subset = df[,-c(1, 2, 3)]`），仅保留数值型变量用于构建解释器。","https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fissues\u002F496",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},38902,"使用 LIME 方法进行实例级解释时报错\"undefined columns selected\"怎么办？","该问题通常是因为传入 `predict_surrogate` 函数的 `new_observation` 对象中包含了目标变量列（target column），而解释器的数据集中不包含该列。解决方法是确保 `new_observation` 只包含特征列，不包含目标值。此问题已在 DALEXtra 包中修复（参考 issue #73），建议更新到最新版本。如果问题依旧，请提供可复现的代码和数据以便进一步排查。","https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fissues\u002F487",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},38903,"如何解读实例级解释图（Instance-level explanation）中负向影响（红色条形）的含义？","在实例级解释图中，条形图的颜色和方向表示特征对预测值的贡献方向。如果预测值为 0.7（较低），而某些特征显示为红色（负向影响），这意味着如果这些特征的值减小，预测值会进一步降低（更接近 0）；反之，如果这些特征值增加，预测值会上升。简单来说，负向影响意味着该特征当前的值在将预测结果拉低。为了更深入理解，可以结合 Ceteris Paribus 剖面图来分析单个特征变化对预测的具体影响。","https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fissues\u002F430",{"id":159,"question_zh":160,"answer_zh":161,"source_url":157},38904,"iBreakDown 解释与 Shapley 值解释有什么区别？在什么场景下应该优先选择哪一种？","Shapley 值解释本质上是 BreakDown 解释在 B 次（如 10\u002F15\u002F20\u002F25 次）不同变量路径排序下的平均值，因此计算时间更长，但能通过箱线图展示每个变量重要性的不确定性。而 iBreakDown 解释旨在发现变量间的局部交互作用，这对于随机森林（Random Forests）和梯度提升机（GBM）等机器学习算法中常见的交互效应特别有用。如果需要捕捉变量间的交互影响，优先选择 iBreakDown；如果更关注变量重要性的稳健性和平均贡献，则选择 Shapley 值。",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},38905,"DALEX 是否支持 CatBoost 模型？如何使用？","是的，DALEX 可以通过 `numpy` 和 `pandas` 接口支持 CatBoost 模型。用户不需要特殊的包装器，只需确保输入数据格式为 pandas DataFrame 或 numpy 数组即可正常使用。目前社区也在期待对 CatBoost 原生 `Pool` 对象的直接支持，但当前版本通过标准数据格式已能正常工作。","https:\u002F\u002Fgithub.com\u002FModelOriented\u002FDALEX\u002Fissues\u002F367",[168,173,178,183],{"id":169,"version":170,"summary_zh":171,"released_at":172},314836,"python-v1.5.0","https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F1.5.0\u002F","2022-09-10T12:32:33",{"id":174,"version":175,"summary_zh":176,"released_at":177},314837,"v1.0.0","https:\u002F\u002Fpypi.org\u002Fproject\u002Fdalex\u002F1.0.0\u002F","2021-01-04T17:21:32",{"id":179,"version":180,"summary_zh":181,"released_at":182},314838,"v1.3","CRAN 上的 v1.3 版本","2020-07-02T19:26:24",{"id":184,"version":185,"summary_zh":77,"released_at":186},314839,"v0.1.1","2018-02-27T10:27:39"]