[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-EthicalML--xai":3,"tool-EthicalML--xai":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":75,"owner_website":81,"owner_url":82,"languages":83,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":23,"env_os":103,"env_gpu":103,"env_ram":103,"env_deps":104,"category_tags":109,"github_topics":110,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":171},3747,"EthicalML\u002Fxai","xai","XAI - An eXplainability toolbox for machine learning","XAI 是一个专为机器学习打造的可解释性工具箱，旨在让复杂的 AI 模型决策过程变得透明、易懂。它核心解决了“黑盒”模型难以理解的问题，帮助开发者识别数据中的潜在偏差（如性别或种族歧视），评估模型表现的合理性，并监控生产环境中的异常，从而确保人工智能系统符合伦理标准且值得信赖。\n\n这款工具非常适合机器学习工程师、数据科学家以及关注 AI 伦理的研究人员使用。无论是需要调试模型的开发者，还是希望验证算法公平性的领域专家，都能通过 XAI 获得直观的分析支持。\n\nXAI 的独特之处在于它不仅仅关注算法层面，而是将数据科学最佳实践与领域知识相结合，提供了一套涵盖“数据分析、模型评估、生产监控”的全流程解决方案。基于“负责任的机器学习”八大原则开发，它内置了多种可视化工具，能轻松发现数据不平衡问题，并提供具体方法来减轻不必要的偏见。目前该项目处于 Alpha 阶段，支持 Python 3.5 至 3.7 版本，采用宽松的 MIT 协议开源，是构建可信 AI 系统的得力助手。","![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRelease-ALPHA-yellow.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.0.5_ALPHA-lightgrey.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.5_|_3.6_|_3.7-blue.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-lightgrey.svg)\n\n# XAI - An eXplainability toolbox for machine learning \n\nXAI is a Machine Learning library that is designed with AI explainability in its core. XAI contains various tools that enable for analysis and evaluation of data and models. The XAI library is maintained by [The Institute for Ethical AI & ML](http:\u002F\u002Fethical.institute\u002F), and it was developed based on the [8 principles for Responsible Machine Learning](http:\u002F\u002Fethical.institute\u002Fprinciples.html).\n\nYou can find the documentation at [https:\u002F\u002Fethicalml.github.io\u002Fxai\u002Findex.html](https:\u002F\u002Fethicalml.github.io\u002Fxai\u002Findex.html). You can also check out our [talk at Tensorflow London](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=GZpfBhQJ0H4) where the idea was first conceived - the talk also contains an insight on the definitions and principles in this library.\n\n## YouTube video showing how to use XAI to mitigate undesired biases\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"30%\">\n        This \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vq8mDiDODhc\">video of the talk presented at the PyData London 2019 Conference \u003C\u002Fa> which provides an overview on the motivations for machine learning explainability as well as techniques to introduce explainability and mitigate undesired biases using the XAI Library.\n    \u003C\u002Ftd>\n    \u003Ctd width=\"70%\">\n        \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vq8mDiDODhc\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_f5a2443baa08.jpg\">\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd width=\"30%\">\n        Do you want to learn about more awesome machine learning explainability tools? Check out our community-built \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fawesome-machine-learning-operations\">\"Awesome Machine Learning Production & Operations\"\u003C\u002Fa> list which contains an extensive list of tools for explainability, privacy, orchestration and beyond.\n    \u003C\u002Ftd>\n    \u003Ctd width=\"70%\">\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fawesome-machine-learning-operations\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_bb1fd1ebc7fa.png\">\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n# 0.3.0\n\nIf you want to see a fully functional demo in action clone this repo and run the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fblob\u002Fmaster\u002Fexamples\u002FXAI%20Example%20Usage.ipynb\">Example Jupyter Notebook in the Examples folder\u003C\u002Fa>.\n\n## What do we mean by eXplainable AI?\n\nWe see the challenge of explainability as more than just an algorithmic challenge, which requires a combination of data science best practices with domain-specific knowledge. The XAI library is designed to empower machine learning engineers and relevant domain experts to analyse the end-to-end solution and identify discrepancies that may result in sub-optimal performance relative to the objectives required. More broadly, the XAI library is designed using the 3-steps of explainable machine learning, which involve 1) data analysis, 2) model evaluation, and 3) production monitoring. \n\nWe provide a visual overview of these three steps mentioned above in this diagram:\n\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_9deb9ff12205.png\">\n\n# XAI Quickstart\n\n## Installation\n\n### Prerequisites\n\nFirst, install [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv), a fast Python package manager:\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n### Install XAI\n\nThe XAI package is on PyPI. To install you can run:\n\n```bash\nuv pip install xai\n```\n\nAlternatively you can install from source by cloning the repo and running:\n\n```bash\nuv pip install -e .\n```\n\n### Additional Commands\n\nTo clean build artifacts and cache files:\n\n```bash\nuv run xai-clean\n```\n\n## Usage\n\nYou can find example usage in the examples folder.\n\n### 1) Data Analysis\n\nWith XAI you can identify imbalances in the data. For this, we will load the census dataset from the XAI library.\n\n``` python\nimport xai.data\ndf = xai.data.load_census()\ndf.head()\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_48bdac34d34c.jpg\">\n\n#### View class imbalances for all categories of one column\n``` python\nims = xai.imbalance_plot(df, \"gender\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_3ddcfe940848.jpg\">\n\n#### View imbalances for all categories across multiple columns\n``` python\nim = xai.imbalance_plot(df, \"gender\", \"loan\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_cfc9a12a4e28.jpg\">\n\n#### Balance classes using upsampling and\u002For downsampling\n``` python\nbal_df = xai.balance(df, \"gender\", \"loan\", upsample=0.8)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_35174db2f722.jpg\">\n\n#### Perform custom operations on groups\n``` python\ngroups = xai.group_by_columns(df, [\"gender\", \"loan\"])\nfor group, group_df in groups:    \n    print(group) \n    print(group_df[\"loan\"].head(), \"\\n\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_ba7eb03f637e.jpg\">\n\n#### Visualise correlations as a matrix\n``` python\n_ = xai.correlations(df, include_categorical=True, plot_type=\"matrix\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_43af0af628c6.jpg\">\n\n#### Visualise correlations as a hierarchical dendogram\n``` python\n_ = xai.correlations(df, include_categorical=True)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5f7948638d7a.jpg\">\n\n#### Create a balanced validation and training split dataset\n``` python\n# Balanced train-test split with minimum 300 examples of \n#     the cross of the target y and the column gender\nx_train, y_train, x_test, y_test, train_idx, test_idx = \\\n    xai.balanced_train_test_split(\n            x, y, \"gender\", \n            min_per_group=300,\n            max_per_group=300,\n            categorical_cols=categorical_cols)\n\nx_train_display = bal_df[train_idx]\nx_test_display = bal_df[test_idx]\n\nprint(\"Total number of examples: \", x_test.shape[0])\n\ndf_test = x_test_display.copy()\ndf_test[\"loan\"] = y_test\n\n_= xai.imbalance_plot(df_test, \"gender\", \"loan\", categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_668f5b4bbeff.jpg\">\n\n### 2) Model Evaluation\n\nWe are able to also analyse the interaction between inference results and input features. For this, we will train a single layer deep learning model.\n\n```\nmodel = build_model(proc_df.drop(\"loan\", axis=1))\n\nmodel.fit(f_in(x_train), y_train, epochs=50, batch_size=512)\n\nprobabilities = model.predict(f_in(x_test))\npredictions = list((probabilities >= 0.5).astype(int).T[0])\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5d57979ba1c7.png\">\n\n#### Visualise permutation feature importance\n``` python\ndef get_avg(x, y):\n    return model.evaluate(f_in(x), y, verbose=0)[1]\n\nimp = xai.feature_importance(x_test, y_test, get_avg)\n\nimp.head()\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_33315c0eb4bf.png\">\n\n#### Identify metric imbalances against all test data\n``` python\n_= xai.metrics_plot(\n        y_test, \n        probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_c42ceed92895.jpg\">\n\n#### Identify metric imbalances across a specific column\n``` python\n_ = xai.metrics_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[\"gender\"],\n    categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_4c2004e8432e.jpg\">\n\n#### Identify metric imbalances across multiple columns\n``` python\n_ = xai.metrics_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[\"gender\", \"ethnicity\"],\n    categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_cd0e7cf2380b.jpg\">\n\n#### Draw confusion matrix\n``` python\nxai.confusion_matrix_plot(y_test, pred)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_ff1e14df7ed0.jpg\">\n\n#### Visualise the ROC curve against all test data\n``` python\n_ = xai.roc_plot(y_test, probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_1e7ff22204dc.png\">\n\n#### Visualise the ROC curves grouped by a protected column\n``` python\nprotected = [\"gender\", \"ethnicity\", \"age\"]\n_ = [xai.roc_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[p],\n    categorical_cols=categorical_cols) for p in protected]\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_49bc71d25cf4.png\">\n\n#### Visualise accuracy grouped by probability buckets\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_aacd2288881e.png\">\n\n#### Visualise statistical metrics grouped by probability buckets\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities,\n    display_breakdown=True)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5a3f7ea8897d.png\">\n\n#### Visualise benefits of adding manual review on probability thresholds\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities,\n    bins=9,\n    threshold=0.75,\n    manual_review=0.375,\n    display_breakdown=False)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_d6f285e3bffd.png\">\n\n\n\n\n","![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRelease-ALPHA-yellow.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.0.5_ALPHA-lightgrey.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-3.5_|_3.6_|_3.7-blue.svg)\n![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-lightgrey.svg)\n\n# XAI - 机器学习可解释性工具箱\n\nXAI 是一个以人工智能可解释性为核心设计的机器学习库。它包含多种工具，可用于数据和模型的分析与评估。XAI 库由 [伦理人工智能与机器学习研究所](http:\u002F\u002Fethical.institute\u002F) 维护，并基于 [负责任机器学习的八项原则](http:\u002F\u002Fethical.institute\u002Fprinciples.html) 开发而成。\n\n您可以在 [https:\u002F\u002Fethicalml.github.io\u002Fxai\u002Findex.html](https:\u002F\u002Fethicalml.github.io\u002Fxai\u002Findex.html) 找到文档。此外，您还可以观看我们在 [TensorFlow 伦敦会议上的演讲](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=GZpfBhQJ0H4)，其中首次提出了这一理念——该演讲还深入探讨了本库中的定义与原则。\n\n## 展示如何使用 XAI 减少不良偏见的 YouTube 视频\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd width=\"30%\">\n        这段 \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vq8mDiDODhc\">在 PyData 伦敦 2019 大会上发表的演讲视频\u003C\u002Fa> 概述了机器学习可解释性的动机，以及如何利用 XAI 库引入可解释性并缓解不良偏见的技术。\n    \u003C\u002Ftd>\n    \u003Ctd width=\"70%\">\n        \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vq8mDiDODhc\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_f5a2443baa08.jpg\">\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd width=\"30%\">\n        想了解更多出色的机器学习可解释性工具吗？请查看我们社区共建的 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fawesome-machine-learning-operations\">“优秀机器学习生产与运维”\u003C\u002Fa> 列表，其中包含了大量用于可解释性、隐私保护、工作流编排等方面的工具。\n    \u003C\u002Ftd>\n    \u003Ctd width=\"70%\">\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fawesome-machine-learning-operations\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_bb1fd1ebc7fa.png\">\u003C\u002Fa>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\n# 0.3.0\n\n如果您想亲眼看到一个功能齐全的演示，请克隆此仓库并运行 [Examples 文件夹中的 XAI 示例使用笔记本](https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fblob\u002Fmaster\u002Fexamples\u002FXAI%20Example%20Usage.ipynb)。\n\n## 我们所说的可解释人工智能是什么意思？\n\n我们认为，可解释性的挑战不仅仅是一个算法层面的问题，它需要将数据科学的最佳实践与领域专业知识相结合。XAI 库旨在帮助机器学习工程师及相关领域的专家分析端到端解决方案，识别可能导致性能低于预期目标的偏差。更广泛地说，XAI 库的设计遵循可解释机器学习的三个步骤：1) 数据分析，2) 模型评估，以及 3) 生产环境监控。\n\n我们在下图中对这三个步骤进行了可视化概述：\n\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_9deb9ff12205.png\">\n\n# XAI 快速入门\n\n## 安装\n\n### 先决条件\n\n首先，安装 [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv)，一个快速的 Python 包管理器：\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n### 安装 XAI\n\nXAI 包已发布在 PyPI 上。您可以运行以下命令进行安装：\n\n```bash\nuv pip install xai\n```\n\n或者，您也可以通过克隆仓库并运行以下命令从源代码安装：\n\n```bash\nuv pip install -e .\n```\n\n### 其他命令\n\n要清理构建产物和缓存文件：\n\n```bash\nuv run xai-clean\n```\n\n## 使用\n\n您可以在 examples 文件夹中找到使用示例。\n\n### 1) 数据分析\n\n借助 XAI，您可以识别数据中的不平衡问题。为此，我们将加载 XAI 库中的人口普查数据集。\n\n``` python\nimport xai.data\ndf = xai.data.load_census()\ndf.head()\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_48bdac34d34c.jpg\">\n\n#### 查看某一列所有类别的类别不平衡\n``` python\nims = xai.imbalance_plot(df, \"gender\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_3ddcfe940848.jpg\">\n\n#### 查看多列中所有类别的不平衡情况\n``` python\nim = xai.imbalance_plot(df, \"gender\", \"loan\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_cfc9a12a4e28.jpg\">\n\n#### 使用过采样和\u002F或欠采样来平衡类别\n``` python\nbal_df = xai.balance(df, \"gender\", \"loan\", upsample=0.8)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_35174db2f722.jpg\">\n\n#### 对分组执行自定义操作\n``` python\ngroups = xai.group_by_columns(df, [\"gender\", \"loan\"])\nfor group, group_df in groups:    \n    print(group) \n    print(group_df[\"loan\"].head(), \"\\n\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_ba7eb03f637e.jpg\">\n\n#### 将相关性可视化为矩阵\n``` python\n_ = xai.correlations(df, include_categorical=True, plot_type=\"matrix\")\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_43af0af628c6.jpg\">\n\n#### 将相关性可视化为层次聚类树状图\n``` python\n_ = xai.correlations(df, include_categorical=True)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5f7948638d7a.jpg\">\n\n#### 创建平衡的验证集和训练集划分\n``` python\n# 平衡的训练-测试划分，确保目标变量 y 与性别列交叉的每个组合至少有 300 个样本\nx_train, y_train, x_test, y_test, train_idx, test_idx = \\\n    xai.balanced_train_test_split(\n            x, y, \"gender\", \n            min_per_group=300,\n            max_per_group=300,\n            categorical_cols=categorical_cols)\n\nx_train_display = bal_df[train_idx]\nx_test_display = bal_df[test_idx]\n\nprint(\"总样本数：\", x_test.shape[0])\n\ndf_test = x_test_display.copy()\ndf_test[\"loan\"] = y_test\n\n_= xai.imbalance_plot(df_test, \"gender\", \"loan\", categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_668f5b4bbeff.jpg\">\n\n### 2) 模型评估\n\n我们还可以分析推理结果与输入特征之间的交互作用。为此，我们将训练一个单层深度学习模型。\n\n```\nmodel = build_model(proc_df.drop(\"loan\", axis=1))\n\nmodel.fit(f_in(x_train), y_train, epochs=50, batch_size=512)\n\nprobabilities = model.predict(f_in(x_test))\npredictions = list((probabilities >= 0.5).astype(int).T[0])\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5d57979ba1c7.png\">\n\n#### 可视化排列特征重要性\n``` python\ndef get_avg(x, y):\n    return model.evaluate(f_in(x), y, verbose=0)[1]\n\nimp = xai.feature_importance(x_test, y_test, get_avg)\n\nimp.head()\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_33315c0eb4bf.png\">\n\n#### 识别针对所有测试数据的指标不平衡\n``` python\n_= xai.metrics_plot(\n        y_test, \n        probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_c42ceed92895.jpg\">\n\n#### 识别特定列上的指标不平衡\n``` python\n_ = xai.metrics_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[\"gender\"],\n    categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_4c2004e8432e.jpg\">\n\n#### 识别多列上的指标不平衡\n``` python\n_ = xai.metrics_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[\"gender\", \"ethnicity\"],\n    categorical_cols=categorical_cols)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_cd0e7cf2380b.jpg\">\n\n#### 绘制混淆矩阵\n``` python\nxai.confusion_matrix_plot(y_test, pred)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_ff1e14df7ed0.jpg\">\n\n#### 针对所有测试数据可视化ROC曲线\n``` python\n_ = xai.roc_plot(y_test, probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_1e7ff22204dc.png\">\n\n#### 按受保护列分组的ROC曲线可视化\n``` python\nprotected = [\"gender\", \"ethnicity\", \"age\"]\n_ = [xai.roc_plot(\n    y_test, \n    probabilities, \n    df=x_test_display, \n    cross_cols=[p],\n    categorical_cols=categorical_cols) for p in protected]\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_49bc71d25cf4.png\">\n\n#### 按概率区间分组的准确率可视化\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_aacd2288881e.png\">\n\n#### 按概率区间分组的统计指标可视化\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities,\n    display_breakdown=True)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_5a3f7ea8897d.png\">\n\n#### 可视化在概率阈值上增加人工审核的好处\n``` python\nd = xai.smile_imbalance(\n    y_test, \n    probabilities,\n    bins=9,\n    threshold=0.75,\n    manual_review=0.375,\n    display_breakdown=False)\n```\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_readme_d6f285e3bffd.png\">","# XAI 快速上手指南\n\nXAI 是一个专注于机器学习中可解释性（Explainability）的工具库，旨在帮助开发者分析数据偏差、评估模型表现并监控生产环境中的伦理风险。它基于“负责任的机器学习”原则开发，特别适用于需要识别和缓解数据偏见的项目。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.5, 3.6 或 3.7\n*   **包管理器**：推荐使用 `uv`（一个快速的 Python 包管理器）\n\n### 安装 uv (前置依赖)\n\n首先安装 `uv` 包管理器：\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n> **提示**：国内用户若下载缓慢，可尝试配置国内镜像源或使用代理加速上述脚本下载。\n\n## 安装步骤\n\nXAI 已发布在 PyPI 上，您可以直接通过 `uv` 进行安装。\n\n### 方式一：从 PyPI 安装（推荐）\n\n```bash\nuv pip install xai\n```\n\n> **国内加速建议**：如果遇到下载速度慢的问题，可以指定清华或阿里云镜像源：\n> ```bash\n> uv pip install xai -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 方式二：从源码安装\n\n如果您需要修改源码或体验最新开发版：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai.git\ncd xai\nuv pip install -e .\n```\n\n### 清理缓存（可选）\n\n如需清理构建产物和缓存文件：\n\n```bash\nuv run xai-clean\n```\n\n## 基本使用\n\nXAI 的核心功能涵盖**数据分析**（识别不平衡）、**模型评估**（可视化指标）和**生产监控**。以下是最基础的数据分析与偏差识别示例。\n\n### 1. 加载数据并查看概览\n\nXAI 内置了示例数据集（如人口普查数据），可直接加载用于测试。\n\n```python\nimport xai.data\n\n# 加载 census 数据集\ndf = xai.data.load_census()\n\n# 查看前几行数据\ndf.head()\n```\n\n### 2. 识别数据类别不平衡\n\n使用 `imbalance_plot` 快速可视化特定列（如性别）的类别分布，识别潜在偏差。\n\n```python\n# 查看 \"gender\" 列的类别不平衡情况\nims = xai.imbalance_plot(df, \"gender\")\n```\n\n您也可以同时分析多个维度的交叉不平衡（例如性别与贷款状态）：\n\n```python\n# 查看 \"gender\" 和 \"loan\" 列的交叉不平衡\nim = xai.imbalance_plot(df, \"gender\", \"loan\")\n```\n\n### 3. 平衡数据集\n\n如果发现数据存在严重偏差，可以使用 `balance` 函数通过上采样（upsampling）或下采样来平衡数据。\n\n```python\n# 对数据进行平衡处理，上采样比例为 0.8\nbal_df = xai.balance(df, \"gender\", \"loan\", upsample=0.8)\n```\n\n### 4. 模型评估与指标可视化\n\n在训练好模型并获得预测概率后，可以使用 XAI 评估不同群体间的性能差异。\n\n假设您已经有了测试集标签 `y_test` 和模型预测概率 `probabilities`，以及包含敏感特征的数据框 `df_test`：\n\n```python\n# 绘制整体指标图\n_ = xai.metrics_plot(y_test, probabilities)\n\n# 按特定列（如 gender）分组绘制指标，识别不同群体间的性能偏差\n_ = xai.metrics_plot(\n    y_test, \n    probabilities, \n    df=df_test, \n    cross_cols=[\"gender\"],\n    categorical_cols=[\"gender\", \"loan\"] # 替换为您实际的分类列列表\n)\n```\n\n### 5. 生成平衡的训练\u002F测试集分割\n\n为了确保模型训练的公平性，XAI 提供了专门的分层分割函数，保证每个组别都有足够的最小样本量。\n\n```python\n# 执行平衡的 train-test 分割，确保每组至少有 300 个样本\nx_train, y_train, x_test, y_test, train_idx, test_idx = \\\n    xai.balanced_train_test_split(\n            x, y, \"gender\", \n            min_per_group=300,\n            max_per_group=300,\n            categorical_cols=categorical_cols)\n```\n\n更多高级用法（如相关性矩阵、置换特征重要性、ROC 曲线分组分析等），请参考官方文档或运行项目 `examples` 文件夹中的 Jupyter Notebook 示例。","某金融科技公司风控团队正在构建自动信贷审批模型，急需确保算法决策符合监管合规要求并消除潜在歧视。\n\n### 没有 xai 时\n- 模型出现“黑箱”效应，当拒绝特定人群贷款申请时，团队无法向监管机构提供具体的决策依据。\n- 训练数据中隐含的性别或种族偏见难以被察觉，导致模型在上线后对弱势群体产生系统性不公。\n- 缺乏系统化的数据平衡性检查工具，只能依赖人工经验猜测数据分布是否均匀，效率低下且易出错。\n- 模型上线后若性能突然下降，工程师难以快速定位是数据漂移还是特征失效，排查周期长达数天。\n\n### 使用 xai 后\n- 利用 xai 的可解释性分析功能，团队能生成直观的归因报告，清晰展示每笔拒贷背后的关键特征权重，轻松应对审计。\n- 通过内置的偏差检测工具，自动识别并量化数据中的不公平模式，在训练前即可针对性地修正采样策略。\n- 调用数据不平衡分析模块，一键可视化各类别分布差异，用数据驱动的方式替代了盲目的人工猜测。\n- 建立端到端的监控流程，实时追踪生产环境中的模型表现，一旦检测到异常可立即回溯至具体数据环节进行修复。\n\nxai 将抽象的伦理原则转化为可执行的代码工具，让负责任的 AI 从理念真正落地为可信的生产力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEthicalML_xai_f5a2443b.jpg","EthicalML","The Institute for Ethical Machine Learning","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FEthicalML_2beff565.jpg","The Institute for Ethical Machine Learning is a think-tank that brings together with technology leaders, policymakers & academics to develop standards for ML.",null,"a@ethical.institute","http:\u002F\u002Fethical.institute","https:\u002F\u002Fgithub.com\u002FEthicalML",[84,88,92,95],{"name":85,"color":86,"percentage":87},"Python","#3572A5",98.3,{"name":89,"color":90,"percentage":91},"Makefile","#427819",0.8,{"name":93,"color":94,"percentage":91},"Batchfile","#C1F12E",{"name":96,"color":97,"percentage":98},"Shell","#89e051",0,1232,185,"2026-04-03T15:38:06","MIT","未说明",{"notes":105,"python":106,"dependencies":107},"该工具处于 ALPHA 阶段 (版本 0.0.5)。安装推荐使用快速包管理器 'uv'。主要功能涵盖数据分析（不平衡检测、相关性分析）、模型评估（特征重要性、指标分析、ROC 曲线）及生产监控。示例代码依赖 Jupyter Notebook 环境运行。","3.5, 3.6, 3.7",[108],"uv (包管理器)",[13,14,54,15],[111,67,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127],"explainability","ml","ai","bias","artificial-intelligence","bias-evaluation","explainable-ai","explainable-ml","machine-learning","machine-learning-explainability","interpretability","xai-library","evaluation","imbalance","upsampling","downsampling","feature-importance","2026-03-27T02:49:30.150509","2026-04-06T08:15:55.209508",[131,136,141,146,151,156,161,166],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},17149,"安装时遇到 matplotlib 错误或依赖冲突怎么办？","该问题通常由严格的版本锁定引起。维护者已更新依赖以解决此类冲突（参考 PR #13）。如果遇到类似错误，请确保升级到最新版本（v0.3.0+），或者尝试在虚拟环境中重新安装。如果问题依旧，请检查您的 Python 环境是否与要求的库版本兼容。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F5",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},17150,"报错 'AttributeError: module 'xai' has no attribute 'show_imbalances'' 如何解决？","这是因为函数名称已更改。原函数 `show_imbalances` 已被重命名为 `imbalance_plot`。请更新您的代码调用新的函数名即可解决此错误。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F4",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},17151,"为什么 requirements.txt 中的版本限制如此严格（使用 == 而不是 >=）？","这是一个常见的兼容性建议。维护者已接受建议并将版本限制从固定版本（==）改为最小版本（>=），以提高与其他库的兼容性。请拉取最新代码或安装最新版本以获得更宽松的依赖要求。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F3",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},17152,"无法通过 pip 或 setup.py 安装包，提示安装失败怎么办？","首先尝试在不同的机器或使用全新的虚拟环境（virtualenv\u002Fconda env）中进行安装，这通常能解决本地环境污染导致的问题。如果仍然失败，请提供具体的错误输出日志和您所在的操作系统环境信息，以便进一步排查。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F7",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},17153,"xai 与 catboost 或其他库存在 numpy 版本冲突怎么办？","这是由于 xai 旧版本锁定了特定的 numpy 版本（如 1.15.4），而其他库（如 catboost）需要更高版本。维护者已更新框架的所有依赖项以提高兼容性。请升级到 xai 的最新版本来解决此冲突。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F6",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},17154,"在 Python 3.11 上安装 xai 失败怎么办？","旧版本的依赖项不支持 Python 3.11。该问题已在 v0.3.0 版本中修复，所有依赖项已更新以兼容 Python 3.11。请将 xai 升级到 v0.3.0 或更高版本。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F16",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},17155,"如何运行示例代码或查找相关文档和论文？","项目中包含一个 `examples\u002F` 文件夹，其中提供了端到端的完整运行流程和示例代码。您可以直接查看该文件夹下的脚本来学习如何使用该方法处理样本输入。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F15",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},17156,"是否支持通过 conda 安装 xai？","社区曾推动将 xai 加入 conda-forge，但项目目前已迁移到使用 UV 进行包管理（v0.3.0）。建议优先使用 pip 或根据项目最新文档使用 UV 进行安装，以获取最佳支持。","https:\u002F\u002Fgithub.com\u002FEthicalML\u002Fxai\u002Fissues\u002F14",[172,177,182],{"id":173,"version":174,"summary_zh":175,"released_at":176},99343,"v0.3.0","# 发布版本 v0.3.0\n\n* 升级到最新版本的 Python\n* 包管理器迁移至 UV\n* 完整的端到端测试套件\n* 依赖项更新至最新且灵活的版本范围","2025-11-29T12:57:47",{"id":178,"version":179,"summary_zh":180,"released_at":181},99344,"v0.2.0","# 发布版本 v0.2.0 ","2025-11-29T11:15:16",{"id":183,"version":184,"summary_zh":185,"released_at":186},99345,"v0.1.0","# 发布版本 v0.1.0","2021-10-30T06:35:19"]