[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-automl--auto-sklearn":3,"tool-automl--auto-sklearn":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":32,"env_os":99,"env_gpu":99,"env_ram":99,"env_deps":100,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":147},8825,"automl\u002Fauto-sklearn","auto-sklearn","Automated Machine Learning with scikit-learn","auto-sklearn 是一款基于 scikit-learn 构建的自动化机器学习工具，旨在让模型构建过程变得简单高效。它主要解决了传统机器学习中繁琐且依赖专家经验的痛点，例如手动选择最佳算法、调整超参数以及设计数据预处理流程。用户无需具备深厚的机器学习背景，只需几行代码，auto-sklearn 就能自动搜索并组合出针对当前数据集表现最优的机器学习管道。\n\n这款工具特别适合希望快速验证想法的数据科学家、需要基准模型的研究人员，以及想要降低机器学习入门门槛的开发者。对于熟悉 scikit-learn 生态的用户而言，auto-sklearn 可以作为现有估算器的直接替代品，无缝集成到工作流中。\n\n其核心技术亮点在于结合了贝叶斯优化与元学习（Meta-Learning）策略。特别是在 auto-sklearn 2.0 版本中，系统能够利用过往在类似数据集上的成功经验来指导当前的搜索过程，从而大幅缩短寻找最优模型的时间，同时保证结果的稳健性。无论是处理分类还是回归任务，auto-sklearn 都能帮助用户从重复的参数调优工作中解放出来，将更多精力投入到数据理解与业务逻辑分析上。","# auto-sklearn\n\n**auto-sklearn** is an automated machine learning toolkit and a drop-in replacement for a [scikit-learn](https:\u002F\u002Fscikit-learn.org) estimator.\n\nFind the documentation **[here](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002F)**. Quick links:\n  * [Installation Guide](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Finstallation.html)\n  * [Releases](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Freleases.html)\n  * [Manual](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fmanual.html)\n  * [Examples](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fexamples\u002Findex.html)\n  * [API](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fapi.html)\n\n## auto-sklearn in one image\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_auto-sklearn_readme_5ced51e2b6f6.png)\n\n## auto-sklearn in four lines of code\n\n```python\nimport autosklearn.classification\ncls = autosklearn.classification.AutoSklearnClassifier()\ncls.fit(X_train, y_train)\npredictions = cls.predict(X_test)\n```\n\n## Relevant publications\n\nIf you use auto-sklearn in scientific publications, we would appreciate citations.\n\n**Efficient and Robust Automated Machine Learning**\n*Matthias Feurer, Aaron Klein, Katharina Eggensperger, Jost Springenberg, Manuel Blum and Frank Hutter*\nAdvances in Neural Information Processing Systems 28 (2015)\n\n[Link](https:\u002F\u002Fpapers.neurips.cc\u002Fpaper\u002F5872-efficient-and-robust-automated-machine-learning.pdf) to publication.\n```\n@inproceedings{feurer-neurips15a,\n    title     = {Efficient and Robust Automated Machine Learning},\n    author    = {Feurer, Matthias and Klein, Aaron and Eggensperger, Katharina and Springenberg, Jost and Blum, Manuel and Hutter, Frank},\n    booktitle = {Advances in Neural Information Processing Systems 28 (2015)},\n    pages     = {2962--2970},\n    year      = {2015}\n}\n```\n\n----------------------------------------\n\n**Auto-Sklearn 2.0: The Next Generation**\n*Matthias Feurer, Katharina Eggensperger, Stefan Falkner, Marius Lindauer and Frank Hutter**\narXiv:2007.04074 [cs.LG], 2020\n\n[Link](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.04074) to publication.\n```\n@article{feurer-arxiv20a,\n    title     = {Auto-Sklearn 2.0: Hands-free AutoML via Meta-Learning},\n    author    = {Feurer, Matthias and Eggensperger, Katharina and Falkner, Stefan and Lindauer, Marius and Hutter, Frank},\n    booktitle = {arXiv:2007.04074 [cs.LG]},\n    year      = {2020}\n}\n```\n\n----------------------------------------\n\nAlso, have a look at the blog on [automl.org](https:\u002F\u002Fautoml.org) where we regularly release blogposts.\n","# auto-sklearn\n\n**auto-sklearn** 是一个自动化机器学习工具包，可以作为 [scikit-learn](https:\u002F\u002Fscikit-learn.org) 估计器的直接替代品。\n\n文档请见 **[这里](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002F)**。快速链接：\n  * [安装指南](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Finstallation.html)\n  * [发行版本](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Freleases.html)\n  * [手册](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fmanual.html)\n  * [示例](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fexamples\u002Findex.html)\n  * [API](https:\u002F\u002Fautoml.github.io\u002Fauto-sklearn\u002Fmaster\u002Fapi.html)\n\n## 一张图看懂 auto-sklearn\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_auto-sklearn_readme_5ced51e2b6f6.png)\n\n## 四行代码搞定 auto-sklearn\n\n```python\nimport autosklearn.classification\ncls = autosklearn.classification.AutoSklearnClassifier()\ncls.fit(X_train, y_train)\npredictions = cls.predict(X_test)\n```\n\n## 相关论文\n\n如果您在科研论文中使用了 auto-sklearn，我们非常感谢您能予以引用。\n\n**高效且稳健的自动化机器学习**\n*马蒂亚斯·费乌尔、阿伦·克莱因、卡塔琳娜·埃根斯珀格、约斯特·施普林根贝格、曼努埃尔·布卢姆和弗兰克·胡特*\n神经信息处理系统进展第28卷（2015年）\n\n[论文链接](https:\u002F\u002Fpapers.neurips.cc\u002Fpaper\u002F5872-efficient-and-robust-automated-machine-learning.pdf)。\n```\n@inproceedings{feurer-neurips15a,\n    title     = {高效且稳健的自动化机器学习},\n    author    = {费乌尔，马蒂亚斯；克莱因，阿伦；埃根斯珀格，卡塔琳娜；施普林根贝格，约斯特；布卢姆，曼努埃尔；胡特，弗兰克},\n    booktitle = {神经信息处理系统进展第28卷（2015年）},\n    pages     = {2962--2970},\n    year      = {2015}\n}\n```\n\n----------------------------------------\n\n**Auto-Sklearn 2.0：下一代**\n*马蒂亚斯·费乌尔、卡塔琳娜·埃根斯珀格、斯特凡·法尔克纳、马里乌斯·林道尔和弗兰克·胡特*\narXiv:2007.04074 [cs.LG]，2020年\n\n[论文链接](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.04074)。\n```\n@article{feurer-arxiv20a,\n    title     = {Auto-Sklearn 2.0：通过元学习实现免手动的自动化机器学习},\n    author    = {费乌尔，马蒂亚斯；埃根斯珀格，卡塔琳娜；法尔克纳，斯特凡；林道尔，马里乌斯；胡特，弗兰克},\n    booktitle = {arXiv:2007.04074 [cs.LG]},\n    year      = {2020}\n}\n```\n\n----------------------------------------\n\n此外，欢迎访问 [automl.org](https:\u002F\u002Fautoml.org) 博客，我们会在那里定期发布博文。","# auto-sklearn 快速上手指南\n\nauto-sklearn 是一个自动化机器学习（AutoML）工具包，可作为 [scikit-learn](https:\u002F\u002Fscikit-learn.org) 估算器的直接替代品。它能自动搜索最佳的机器学习管道（包括预处理、模型选择和超参数优化），仅需几行代码即可构建高性能模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Linux (Ubuntu\u002FDebian) 或 macOS。Windows 用户建议使用 WSL2 或 Docker。\n*   **Python 版本**：3.8, 3.9, 3.10 或 3.11。\n*   **前置依赖**：\n    *   `scikit-learn`\n    *   `numpy`, `scipy`\n    *   `swig` (用于编译部分组件，Linux 下通常通过包管理器安装，如 `sudo apt-get install swig`)\n    *   C++ 编译器 (如 `g++`)\n\n> **注意**：auto-sklearn 强依赖于 SMAC 优化器，对系统资源有一定要求。建议在拥有多核 CPU 的环境中运行以获得最佳搜索效率。\n\n## 安装步骤\n\n### 方法一：使用 PyPI 安装（推荐）\n\n最简便的安装方式是通过 pip。国内开发者若遇到下载速度慢的问题，可使用清华或阿里镜像源加速。\n\n```bash\n# 使用默认源安装\npip install auto-sklearn\n\n# 或使用国内镜像源加速安装（推荐）\npip install auto-sklearn -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方法二：从源码安装\n\n如果需要最新开发版功能，可以从 GitHub 克隆源码安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn.git\ncd auto-sklearn\npip install .\n```\n\n## 基本使用\n\nauto-sklearn 的设计初衷是“开箱即用”。以下是最简单的分类任务示例，仅需四行核心代码即可完成模型训练与预测。\n\n### 最小化代码示例\n\n```python\nimport autosklearn.classification\n\n# 初始化自动分类器\n# time_left_for_this_task: 留给自动搜索的总时间（秒）\n# per_run_time_limit: 单个模型运行的时间限制（秒）\ncls = autosklearn.classification.AutoSklearnClassifier(\n    time_left_for_this_task=120,\n    per_run_time_limit=30\n)\n\n# 拟合数据 (X_train, y_train 需为 numpy 数组或 pandas DataFrame\u002FSeries)\ncls.fit(X_train, y_train)\n\n# 进行预测\npredictions = cls.predict(X_test)\n\n# 查看搜索到的最佳模型组合\nprint(cls.show_models())\n```\n\n### 关键说明\n*   **输入格式**：`fit` 方法接受的数据格式与 scikit-learn 完全兼容（Numpy 数组或 Pandas 对象）。\n*   **时间控制**：务必设置 `time_left_for_this_task`，否则搜索过程可能会无限期运行。对于演示目的，60-120 秒通常足够；生产环境建议设置为 1 小时以上以充分搜索。\n*   **回归任务**：如果是回归问题，只需将 `autosklearn.classification` 替换为 `autosklearn.regression`，类名改为 `AutoSklearnRegressor` 即可。","某电商数据团队需要在短时间内构建一个高精度的用户流失预测模型，以支持即将到来的季度营销活动。\n\n### 没有 auto-sklearn 时\n- 数据科学家需手动尝试数十种算法组合（如随机森林、SVM、XGBoost），并凭经验调整超参数，耗时数天甚至数周。\n- 特征预处理流程（如缺失值填充、编码方式）依赖人工编写代码，容易因疏忽导致数据泄露或处理不一致。\n- 模型选择过程缺乏系统性验证，往往陷入局部最优解，难以确保最终模型是全局最佳方案。\n- 重复性的调参工作占用了大量精力，导致团队无暇深入分析业务逻辑或进行特征工程创新。\n\n### 使用 auto-sklearn 后\n- auto-sklearn 自动搜索并评估上百种算法与超参数组合，在几小时内即可输出经过贝叶斯优化后的最佳模型配置。\n- 内置的自动化预处理管道智能处理缺失值和类别编码，消除了人为编码错误，确保了数据处理的鲁棒性。\n- 基于元学习（Meta-Learning）技术，auto-sklearn 能快速定位适合当前数据集的模型架构，显著提升了预测准确率上限。\n- 开发人员仅需四行代码即可完成从训练到预测的全流程，将原本繁琐的调参时间转化为业务策略分析时间。\n\nauto-sklearn 通过将复杂的机器学习流程自动化，让团队能以极低的时间成本获得工业级的高性能模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_auto-sklearn_a45212c7.png","automl","AutoML-Freiburg-Hannover","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fautoml_7ffe9a64.png","",null,"www.automl.org","https:\u002F\u002Fgithub.com\u002Fautoml",[80,84,88,91],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.5,{"name":85,"color":86,"percentage":87},"Shell","#89e051",0.2,{"name":89,"color":90,"percentage":87},"Makefile","#427819",{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0,8081,1324,"2026-04-12T08:40:04","BSD-3-Clause","未说明",{"notes":101,"python":99,"dependencies":102},"README 中未直接列出详细的运行环境需求（如操作系统、GPU、内存、Python 版本等），仅提到它是 scikit-learn 的替代品，并提供了安装指南的外部链接。具体依赖和版本需参考官方安装文档。",[103],"scikit-learn",[14],[72,103,106,107,108,109,110,111,112,113],"automated-machine-learning","hyperparameter-optimization","hyperparameter-tuning","hyperparameter-search","bayesian-optimization","metalearning","meta-learning","smac","2026-03-27T02:49:30.150509","2026-04-18T09:20:13.268011",[117,122,127,132,137,142],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},39570,"在 Linux 上安装 auto-sklearn 时，因 pyrfr 依赖项导致安装失败怎么办？","通常是因为缺少 SWIG 工具。请先安装 SWIG、Cython 和 numpy，然后再安装 auto-sklearn。具体命令如下：\n1. 安装 SWIG：`apt-get install swig -y`（Arch Linux 用户使用 `sudo pacman -S swig`）\n2. 安装基础依赖：`pip install Cython numpy`\n3. 安装 auto-sklearn：`pip install auto-sklearn`","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F101",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},39571,"如何在 macOS 上成功安装 auto-sklearn？","在 Mac 上安装 pyrfr 时常因编译器问题失败。解决方案是安装 clang 编译器并指定 CC 环境变量。步骤如下：\n1. 使用 conda 安装编译器：`conda install clang_osx-64` 和 `conda install clangxx_osx-64`\n2. 卸载旧版本（如有）：`pip uninstall pyrfr auto-sklearn`\n3. 指定编译器重新安装：`CC=\u002FUsers\u002Fusername\u002Fanaconda\u002Fbin\u002Fgcc pip install pyrfr auto-sklearn --no-cache-dir`（请将路径替换为你的实际 anaconda 路径）","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F155",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},39572,"运行 auto-sklearn 示例代码时出现“Segmentation fault”（段错误）导致程序退出，如何解决？","这通常与底层依赖或环境配置有关。维护者建议使用官方提供的 Docker 镜像来避免环境兼容性问题。你可以从 GitHub Packages 获取开发版镜像，或在后续发布中获取主分支版本的 Docker 镜像。地址：https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fpackages","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F688",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},39573,"auto-sklearn 是否支持多分类多输出（multiclass-multioutput）任务？","目前原生不支持该功能。社区建议的变通方法是将学习过程拆分为每个输出一个模型（即针对每个输出列单独训练一个 auto-sklearn 模型）。该功能已被列为增强需求并在追踪中，但尚未合并到主版本。","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F292",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},39574,"在 Anaconda 环境中安装 pyrfr 失败，提示 GCC 版本错误，如何处理？","这是因为 pyrfr 需要特定版本的 GCC 进行编译，而 Anaconda 默认环境的 GCC 版本可能不兼容。解决方法包括：\n1. 确保系统安装了兼容的 GCC 版本。\n2. 或者参考 Mac\u002FLinux 的通用解法，手动指定编译器路径进行安装。\n3. 如果问题依旧，建议直接使用维护者推荐的 Docker 环境以避免本地编译问题。","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F335",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},39575,"auto-sklearn 的贝叶斯优化超参数搜索是如何工作的？运行历史记录（run_history）是按什么顺序记录的？","auto-sklearn 使用贝叶斯优化进行超参数搜索。`run_history` 对象记录了配置的完成顺序，即按照模型配置执行完毕的顺序排列，而非开始顺序。如果你使用了自定义评分器（scorer），它应该会出现在 `run_history` 的 `additional_info` 字段中；如果缺失，可能是由于某些配置成本小于 0 或未找到优于随机猜测的模型导致记录不完整。","https:\u002F\u002Fgithub.com\u002Fautoml\u002Fauto-sklearn\u002Fissues\u002F1717",[148,153,158,163,167,172,177,182,187,191,196,201,206,211,215,220,225,230,235,240],{"id":149,"version":150,"summary_zh":151,"released_at":152},315520,"v0.15.0","\u003Ch2>版本 0.15.0\u003C\u002Fh2>\n\n新增 #1317、#1455、#1485、#1501、#1518、#1523：对多目标 Auto-sklearn 的初始支持。\n\n新增 #1300、#1410、#1414、#1415、#1420、#1468、#1500：对文本特征 Auto-sklearn 的初始支持。现在可以传入被标识为“字符串”类型的列，这些列将使用纯 sklearn 方法进行分词处理。\n\n新增 #1475：支持将 X 数据传递给指标，以满足 [fairlearn](https:\u002F\u002Fgithub.com\u002Ffairlearn\u002Ffairlearn) 指标的需要。\n\n新增 #1341、#1250：公开接口，用于在必要时与 Auto-sklearn 执行数据集压缩的方式进行交互。\n\n文档 #1304：添加了 Auto-sklearn 可用的 SMAC 回调函数的文档说明。\n\n文档 #1476：示例展示了如何通过回调函数中断 Auto-sklearn，并实现一种非常简单的提前停止策略。\n\n维护 #1364、#1473：通过将选择器模型的构建从导入时移至实例化时，优化了 Auto-sklearn 2 的导入时间。\n\n维护 #1425：更新 StopWatch 使其成为上下文管理器。\n\n维护 #1454：将内部布尔参数 categorical 重命名为 feat_type，以反映不同特征类型的实际用途。\n\n维护 #1474：从代码中移除“公共测试集”的遗留部分。这不会影响任何面向用户的代码。\n\n维护 #1487：替换已弃用的 DataFrame.append 方法。\n\n维护 #1504：将 rval 重命名为 return_value 或 run_value，以消除歧义。\n\n维护 #1506：增加元学习相关单元测试的时间限制，以减少 GitHub 上出现超时的情况。\n\n维护 #1527：放宽 MLPRegressor 单元测试的精度要求。\n\n维护 #1545：在训练评估器中添加显式的子样本下界检查。\n\n维护 #1551：修复与更新后的 scipy skew 相关的问题，请参阅 [此处](https:\u002F\u002Fgithub.com\u002Fscipy\u002Fscipy\u002Fissues\u002F16765)。\n\n维护 #1434：重构集成模型的构建过程。\n\n维护 #1464：改进测试，包括缓存（#1464）和模块化设计（#1417）。\n\n维护 #1358：引入 Mypy、Flake8、isort 和 black 等工具。\n\n修复 #741：如果特定数据模态不存在，则禁用其对应的超参数，例如，如果没有分类特征，则禁用独热编码。\n\n修复 #1365、#1369：修复 ensemble_size == 0 时出现的问题。\n\n修复 #1374：将随机种子传递给管道中的所有组件。\n\n修复 #1432：修复 AutoSklearnClassifier.leaderboard() 或 AutoSklearnRegressor.leaderboard() 可能无法正确显示结果的问题。\n\n修复 #1480：在发生异常或键盘中断时，正确终止 Auto-sklearn。\n\n修复 #1532：针对最新版本的 Dask，移除关闭时打印的异常信息。这些异常信息并不会影响性能，反而会让人误以为 Auto-sklearn 出现了故障，造成混淆。\n\n修复 #1547：修复 Auto-sklearn 2 中的一个错误，该错误可能导致在传入 pandas DataFrame 时无声地崩溃。\n\n修复 #1550：修复近期在使用 pandas Y 进行评估时出现的 bug。","2023-02-13T12:35:21",{"id":154,"version":155,"summary_zh":156,"released_at":157},315521,"v0.14.7","版本 0.14.7\n==============\n\n* 紧急修复 #1445：将 `ConfigSpace` 锁定至 `\u003C0.5.0`，并将 `smac` 锁定至 `\u003C1.3`。同时为 `automl` 相关包添加了版本上限，以帮助防止进一步的问题。\n\n贡献者 v0.14.7\n********************\n* 埃迪·伯格曼\n\n\n请注意，此版本虽然是稍后生成的，但已在 PyPI 上发布了一段时间。","2022-08-18T18:55:56",{"id":159,"version":160,"summary_zh":161,"released_at":162},315522,"v0.14.6","版本 0.14.6\r\n==============\r\n\r\n* 热修复 #1407：在 `SingleThreadedClient` 中捕获关键字参数，以防止它们被传递给正在执行的 `func` 函数。\r\n\r\n版本 0.14.6 的贡献者\r\n********************\r\n* 埃迪·伯格曼\r\n","2022-02-18T11:09:13",{"id":164,"version":165,"summary_zh":76,"released_at":166},315523,"v0.14.5","2022-01-25T22:31:56",{"id":168,"version":169,"summary_zh":170,"released_at":171},315532,"v0.12.4","# Version 0.12.4\r\n\r\n* ADD #660: Enable scikit-learn's power transformation for input features.\r\n* MAINT: Bump the ``pyrfr`` minimum dependency to 0.8.1 to automatically download wheels from pypi if possible.\r\n* FIX #732: Add a missing size check into the GMEANS clustering used for the NeurIPS 2015 paper.\r\n* FIX #1050: Add missing arguments to the ``AutoSklearn2Classifier`` signature.\r\n* FIX #1072: Fixes a bug where the ``AutoSklearn2Classifier`` could not be created due to trying to cache to the wrong directory.\r\n\r\n# Contributors v0.12.4\r\n\r\n* Matthias Feurer\r\n* Francisco Rivera\r\n* Maximilian Greil\r\n* Pepe Berba","2021-03-29T11:38:39",{"id":173,"version":174,"summary_zh":175,"released_at":176},315533,"v0.12.3","# Version 0.12.3\r\n\r\n* FIX #1061: Fixes a bug where the model could not be printed in a jupyter notebook.\r\n* FIX #1075: Fixes a bug where the ensemble builder would wrongly prune good models for loss functions (i.e. functions that need to be minimized such as ``logloss`` or ``mean_squared_error``.\r\n* FIX #1079: Fixes a bug where ``AutoMLClassifier.cv_results`` and ``AutoMLRegressor.cv_results`` could rank results in opposite order for loss functions (i.e. functions that need to be minimized such as ``logloss`` or ``mean_squared_error``.\r\n* FIX: Fixes a bug in offline meta-data generation that could lead to a deadlock.\r\n* MAINT #1076: Uses the correct multiprocessing context for computing meta-features\r\n* MAINT: Cleanup readme and main directory\r\n\r\n# Contributors v0.12.3\r\n\r\n* Matthias Feurer\r\n* ROHIT AGARWAL\r\n* Francisco Rivera","2021-02-17T13:56:10",{"id":178,"version":179,"summary_zh":180,"released_at":181},315534,"v0.12.2","# Version 0.12.2\r\n\r\n* ADD #1045: New example demonstrating how to log multiple metrics during a run of Auto-sklearn.\r\n* DOC #1052: Add links to mybinder\r\n* DOC #1059: Improved the example on manually starting workers for Auto-sklearn.\r\n* FIX #1046: Add the final result of the ensemble builder to the ensemble builder trajectory.\r\n* MAINT: Two log outputs of level warning about metadata were turned reduced to the info loglevel as they are not actionable for the user.\r\n* MAINT #1062: Use threads for local dask workers and forkserver to start subprocesses to reduce overhead.\r\n* MAINT #1053: Remove the restriction to guard single-core Auto-sklearn by `__main__ == \"__name__\"` again.\r\n\r\n# Contributors v0.12.2\r\n\r\n* Matthias Feurer\r\n* ROHIT AGARWAL\r\n* Francisco Rivera\r\n* Katharina Eggensperger\r\n\r\n","2021-02-03T12:54:59",{"id":183,"version":184,"summary_zh":185,"released_at":186},315535,"v0.12.1","# Version 0.12.1\r\n\r\n* ADD: A new heuristic which gives a warning and subsamples the data if it is too large for the given ``memory_limit``.\r\n* ADD #1024: Tune scikit-learn's ``MLPClassifier`` and ``MLPRegressor``.\r\n* MAINT #1017: Improve the logging server introduced in release 0.12.0.\r\n* MAINT #1024: Move to scikit-learn 0.24.X.\r\n* MAINT #1038: Use new datasets for regression and classification and also update the metadata used for Auto-sklearn 1.0.\r\n* MAINT #1040: Minor speed improvements in the ensemble selection algorithm.\r\n\r\n# Contributors v0.12.1\r\n\r\n* Matthias Feurer\r\n* Katharina Eggensperger\r\n* Francisco Rivera","2021-04-13T13:11:59",{"id":188,"version":189,"summary_zh":185,"released_at":190},315536,"v0.12.1rc1","2020-12-22T14:59:05",{"id":192,"version":193,"summary_zh":194,"released_at":195},315537,"v0.12.0","# Version 0.12.0\r\n\r\n* BREAKING: Auto-sklearn must now be guarded by `__name__ == \"__main__\"` due to the use of the  `spawn` multiprocessing context.\r\n* ADD #1026: Adds improved meta-data for Auto-sklearn 2.0 which results in strong improved performance.\r\n* MAINT #984 and #1008: Move to scikit-learn 0.23.X\r\n* MAINT #1004: Move from travis-ci to github actions.\r\n* MAINT 8b67af6: drop the requirement to the lockfile package.\r\n* FIX #990: Fixes a bug that made Auto-sklearn fail if there are missing values in a pandas DataFrame.\r\n* FIX #1007, #1012 and #1014: Log multiprocessing output via a new log server. Remove several potential deadlocks related to the joint use of multi-processing, multi-threading and logging.\r\n\r\n# Contributors v0.12.0\r\n\r\n* Matthias Feurer\r\n* ROHIT AGARWAL\r\n* Francisco Rivera","2020-12-08T13:16:23",{"id":197,"version":198,"summary_zh":199,"released_at":200},315538,"v0.11.1","Version 0.11.1\r\n==============\r\n\r\n* FIX #989: Fixes a bug where `y` was not passed to all data preprocessors which made 3rd party category encoders fail.\r\n* FIX #1001: Fixes a bug which could make Auto-sklearn fail at random.\r\n* MAINT #1000: Introduce a minimal version for `dask.distributed`.","2020-11-11T09:02:45",{"id":202,"version":203,"summary_zh":204,"released_at":205},315539,"v0.11.0","# Version 0.11.0\r\n\r\n* ADD #992: Move ensemble building from being a separate process to a job submitted to the dask cluster. This allows for better control of the memory used in multiprocessing settings. This change also removes the arguments `ensemble_memory_limit` and `ml_memory_limit` and replaces them by the single argument `memory_limit`.\r\n* FIX #905: Make ``AutoSklearn2Classifier`` picklable. \r\n* FIX #970: Fix a bug where Auto-sklearn would fail if categorical features are passed as a Pandas Dataframe.\r\n* MAINT #772: Improve error message in case of dummy prediction failure.\r\n* MAINT #948: Finally use Pandas >= 1.0.\r\n* MAINT #973: Improve meta-data by running meta-data generation for more time and separately for important metrics.\r\n* MAINT #997: Improve memory handling in the ensemble building process. This allows building ensembles for larger datasets.\r\n\r\n# Contributors v0.11.0\r\n\r\n* Matthias Feurer\r\n* Francisco Rivera\r\n* Karl Leswing\r\n* ROHIT AGARWAL","2020-11-06T13:17:03",{"id":207,"version":208,"summary_zh":209,"released_at":210},315524,"v0.14.4","版本 0.14.4\r\n==============\r\n\r\n* 修复 #1356：SVR 的度数超参数现在仅在使用“多项式”核时生效。\r\n* 新增 #1311：添加 Black 格式检查（非严格模式）。\r\n* 维护 #1306：运行历史现在每轮迭代都会保存。\r\n* 文档 #1309：更新文档常见问题解答，加入大量用例，并为早期用户提供了使用手册。\r\n* 文档 #1322：修正贡献指南中的拼写错误。\r\n* 维护 #1326：添加 isort 检查器（非严格模式）。\r\n* 维护 #1238、#1346、#1368、#1370：更新测试中的警告信息。\r\n* 维护 #1325：测试工作流现在可以手动触发。\r\n* 维护 #1332：更新 ``include`` 和 ``exclude`` 参数的文档字符串及类型注解。\r\n* 新增 #1260：支持 Python 3.10。\r\n* 新增 #1318：首次更新，将共享后端引入新的子模块 `automl_common \u003Chttps:\u002F\u002Fgithub.com\u002Fautoml\u002Fautoml_common>`_ 中使用。\r\n* 修复 #1339：解决与 ``sphinx_toolbox`` 的依赖问题。\r\n* 修复 #1335：修复部分回归算法在 #1297 中提出的输出维度不正确的问题。\r\n* 文档 #1340：更新预定义划分示例。\r\n* 修复 #1329：修复随机状态未传递给 ConfigurationSpace 的问题。\r\n* 维护 #1348：停止 GitHub 工作流的重复触发。\r\n* 文档 #1349：在文档中将 OSX 更名为 macOS。\r\n* 新增 #1321：将 ``show_models()`` 改为生成实际的管道对象，而非字符串。\r\n* 维护 #1361：移除 ``flaky`` 依赖。\r\n* 维护 #1366：使 ``SimpleClassificationPipeline`` 的测试更加确定性。 \r\n* 维护 #1367：使用较新版本的 NumPy 更新 ``MLPRegressor`` 的测试值。\r\n\r\n0.14.4 版本贡献者\r\n********************\r\n\r\n* Eddie Bergman\r\n* Matthias Feurer\r\n* Katharina Eggensperger\r\n* UserFindingSelf\r\n* partev","2022-01-25T15:34:30",{"id":212,"version":213,"summary_zh":76,"released_at":214},315525,"v0.14.3","2021-12-25T18:29:44",{"id":216,"version":217,"summary_zh":218,"released_at":219},315526,"v0.14.1","# 版本 0.14.1\n\n* 修复 #1248：允许稀疏的 `y_test`。\n* 修复 #1259：修复了一个问题，该问题可能导致由于选择了相对路径而导致 `setup.py` 无法正常工作。\n* 维护 #1261：添加 CITATION.cff 文件。\n* 维护 #1263：使单元测试具有确定性。\n* 文档 #1269：修复了关于扩展数据预处理的示例。\n* 文档 #1270：从文档中的代码示例中移除 `>>>`。\n* 文档 #1271：修复了文档中一个示例中的拼写错误。\n* 文档 #1282：添加贡献指南。\n\n# 贡献者\n\n* 爱德华·伯格曼\n* 迈克尔·贝克尔\n* 卡塔琳娜·埃根斯珀格","2021-11-09T09:49:43",{"id":221,"version":222,"summary_zh":223,"released_at":224},315527,"v0.14.0","# 版本 0.14.0\n\n* 新增 #900：使数据预处理更加可配置，例如允许完全禁用预处理。\n* 新增 #1128：添加新功能，无需额外代码即可从 Auto-sklearn 中获取随时间变化的准确率曲线数据。\n* 修复 #1149：阻止 Auto-sklearn 在关闭时打印奇怪的警告消息（`Exception ignored in [...]`）。\n* 修复 #1169：修复了一个导致交叉验证与多输出回归不兼容的 bug。\n* 修复 #1170：使所有预处理技术变为确定性。\n* 修复 #1190：修复了一个可能导致预测概率中类别数量不足的 bug，该问题发生在某一类别仅出现一次的情况下。\n* 修复 #1209：将随机种子传递给管道对象。\n* 修复 #1204：在 Auto-sklearn 2.0 中添加对稀疏数据的支持。\n* 修复 #1210：添加对稀疏 `y` 标签的支持。\n* 修复 #1245：修复了一个可能导致 Auto-sklearn 在某一类别仅出现一次时崩溃的 bug。\n* 文档 #532、#1242：简化安装说明。\n* 文档 #1144：记录通过 `conda` 安装的方法。\n* 文档 #1195、#1201、#1214：修正了一些拼写错误和链接，并将部分 HTTP 链接改为 HTTPS 链接。\n* 文档 #1200：修正示例中的变量名。\n* 文档 #1229：改进文档中的代码格式。\n* 文档 #1235：优化 Docker 启动命令，使其在 Windows 上也能正常运行。\n* 维护 #1198：在 GitHub Actions 中使用最新的 Ubuntu LTS 版本（20.04）。\n* 维护 #1231：`make linkcheck` 命令不再构建文档，从而加快链接检查速度。\n* 维护 #1233：在 GitHub Actions 中启用包含 3 个分类数据集和 3 个回归数据集的回归测试。\n* 维护 #1239：将 GitHub Actions 的超时时间延长至 60 分钟。\n\n# v0.14.0 贡献者\n\n* Pieter Gijsbers\n* Taneli Mielikäinen\n* Rohit Agarwal\n* hnishi\n* Francisco Rivera Valverde\n* Eddie Bergman\n* Satyam Jha\n* Joel Jose\n* Oli\n* Matthias Feurer","2021-09-14T15:50:27",{"id":226,"version":227,"summary_zh":228,"released_at":229},315528,"v0.13.0","# 版本 0.13.0\n\n* 新增 #1100：提供对 SMAC 回调函数的访问权限。\n* 新增 #1185：新增排行榜功能，用于可视化模型。\n* 修复 #1133：在错误信息中引用正确的属性。\n* 修复 #1154：允许在 32 位系统上运行 Auto-sklearn。\n* 维护 #924：现在需要传递采样策略的对象，而不是类。\n* 维护 #1108：通过 `threadpoolctl` 限制 numpy 和\u002F或 scikit-learn 使用的线程数。\n* 维护 #1135：简化 pandas 处理的内部流程。这使得 pandas 数据可以直接传递给 scikit-learn 模型，而无需在内部转换为 numpy 数组。然而，这一改动不应影响 Auto-sklearn 的行为或性能。\n* 维护 #1157：停止对 Python 3.6 的支持，启用对 Python 3.9 的支持。\n* 维护 #1159：移除分类器和回归器中的输出目录参数。尽管名为“输出目录”，但实际上并未使用，只是参与 AutoML 挑战时遗留下来的。\n* 维护 #1187：将 SMAC 的最低版本要求提升至 0.14。\n* 文档 #1109：添加常见问题解答。\n* 文档 #1126：添加关于如何使用 scikit-learn inspect 模块的新示例。\n* 文档 #1136：添加关于如何进行多输出回归的新示例。\n* 文档 #1152：在构建文档时启用链接检查。\n* 文档 #1158：新增关于如何配置 Auto-sklearn 日志记录器的示例。\n* 文档 #1165：改进 README 页面。\n\n# v0.13.0 贡献者\n\n* Francisco Rivera Valverde\n* Matthias Feurer\n* JJ Ben-Joseph\n* Isaac Chung\n* Katharina Eggensperger\n* bitsbuffer\n* Eddie Bergman\n* olehb007","2021-07-28T07:35:52",{"id":231,"version":232,"summary_zh":233,"released_at":234},315529,"v0.12.7","# 版本 0.12.7\n\n* 新增 #1178：当数据集过大超出给定内存限制时，降低精度。\n* 新增 #1179：通过为 `roc_auc` 和 `logloss` 这两个指标提供新的元数据，改进 Auto-sklearn 2.0 的元数据。\n* 文档：修复对 arXiv 论文的引用。\n* 维护 #1134、#1142、#1143：改进“过时机器人”功能——该机器人现在会将标记为 `feedback required` 的问题在 30 天内无任何进展的情况下标记为“过时”，再过 7 天后则自动关闭该问题。\n* 维护：新增了用于提问的问题模板。\n* 维护 #1168：将 scipy 的版本上限设置为 `1.6.3`，因为 `1.7.0` 与 `SMAC` 不兼容。\n* 维护 #1173：更新许可证文件，使其能被 GitHub 识别。\n\n# v0.12.7 贡献者\n","2021-07-20T21:32:42",{"id":236,"version":237,"summary_zh":238,"released_at":239},315530,"v0.12.6","# 版本 0.12.6\n\n* 新增 #886：提供新函数，允许仅拟合单个配置。\n* 文档 #1070：澄清关于 successive halving 和贝叶斯优化如何协同工作的示例。\n* 文档 #1112：修复类型错误。\n* 文档 #1122：在 Ubuntu 的安装命令中添加 Python 3。\n* 修复 #1114：修复导致打印虚拟模型失败的 bug。\n* 修复 #1117：修复之前导致 `memory_limit=None` 失败的 bug。\n* 修复 #1121：修复在 Auto-sklearn 2.0 中使用迭代拟合的交叉验证时可能降低性能的边缘情况。\n* 修复 #1123：修复 `autosklearn.metrics.calculate_score` 函数的一个 bug，该函数用于需要最小化的指标\u002F得分，此前它返回的是损失值而非得分。\n* 修复 #1115\u002F#1124：修复在多进程情况下阻止 Auto-sklearn 计算元特征的 bug。\n\n# v0.12.6 贡献者\n\n* Francisco Rivera Valverde\n* stock90975\n* Lucas Nildaimon dos Santos Silva\n* Matthias Feurer\n* Rohit Agarwal","2021-04-17T15:15:34",{"id":241,"version":242,"summary_zh":243,"released_at":244},315531,"v0.12.5","# 版本 0.12.5\n\n* 维护：移除 ``Cython`` 和 ``numpy`` 作为安装依赖。\n\n# 贡献者 0.12.5\n\n* 马蒂亚斯·费乌尔","2021-03-29T11:39:25"]