[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-reiinakano--xcessiv":3,"tool-reiinakano--xcessiv":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",152630,2,"2026-04-12T23:33:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":32,"env_os":102,"env_gpu":102,"env_ram":102,"env_deps":103,"category_tags":109,"github_topics":111,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":156},7047,"reiinakano\u002Fxcessiv","xcessiv","A web-based application for quick, scalable, and automated hyperparameter tuning and stacked ensembling in Python.","Xcessiv 是一款基于 Web 的 Python 应用，旨在让超参数调优和堆叠集成（Stacked Ensembling）变得快速、可扩展且自动化。在机器学习流程中，数据准备完成后，如何从海量算法与参数组合中找到最优解往往令人头疼，而理论上能显著提升效果的“堆叠集成”技术，因实施复杂度高，常让人望而却步。Xcessiv 正是为了解决这一痛点而生，它接管了繁琐的实施细节，让用户能专注于核心逻辑。\n\n这款工具特别适合机器学习开发者、数据科学家及研究人员使用。其核心亮点在于能够轻松管理成百上千种模型与超参数的组合实验。用户只需定义数据源、交叉验证策略及基础学习器（兼容任何遵循 Scikit-learn 接口的模型），Xcessiv 便能通过任务队列架构充分利用多核性能，结合贝叶斯优化自动搜索最佳参数。更独特的是，它支持一键生成堆叠集成模型，并通过贪婪前向选择自动构建集成方案，甚至能将最终模型导出为独立的 Python 文件以支持多层堆叠。此外，Xcessiv 还能与 TPOT 无缝集成，实现自动化管道构建。无论你是想挑战复杂的集成模型，还是仅仅需要一个高效的平台来追踪和管理大量实验结果，","Xcessiv 是一款基于 Web 的 Python 应用，旨在让超参数调优和堆叠集成（Stacked Ensembling）变得快速、可扩展且自动化。在机器学习流程中，数据准备完成后，如何从海量算法与参数组合中找到最优解往往令人头疼，而理论上能显著提升效果的“堆叠集成”技术，因实施复杂度高，常让人望而却步。Xcessiv 正是为了解决这一痛点而生，它接管了繁琐的实施细节，让用户能专注于核心逻辑。\n\n这款工具特别适合机器学习开发者、数据科学家及研究人员使用。其核心亮点在于能够轻松管理成百上千种模型与超参数的组合实验。用户只需定义数据源、交叉验证策略及基础学习器（兼容任何遵循 Scikit-learn 接口的模型），Xcessiv 便能通过任务队列架构充分利用多核性能，结合贝叶斯优化自动搜索最佳参数。更独特的是，它支持一键生成堆叠集成模型，并通过贪婪前向选择自动构建集成方案，甚至能将最终模型导出为独立的 Python 文件以支持多层堆叠。此外，Xcessiv 还能与 TPOT 无缝集成，实现自动化管道构建。无论你是想挑战复杂的集成模型，还是仅仅需要一个高效的平台来追踪和管理大量实验结果，Xcessiv 都能大幅降低门槛，提升工作效率。","# Xcessiv\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fxcessiv.svg)]()\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Freiinakano\u002Fxcessiv.svg)]()\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fxcessiv.svg)]()\n[![Build Status](https:\u002F\u002Ftravis-ci.org\u002Freiinakano\u002Fxcessiv.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Freiinakano\u002Fxcessiv)\n\n### Xcessiv is a tool to help you create the biggest, craziest, and most *excessive* stacked ensembles you can think of.\n\nStacked ensembles are simple in theory. You combine the predictions of smaller models and feed *those* into another model. However, in practice, implementing them can be a major headache.\n\nXcessiv holds your hand through all the implementation details of creating and optimizing stacked ensembles so you're free to fully define only the things you care about.\n\n## The Xcessiv process\n\n### Define your base learners and performance metrics\n\n![define_base_learner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_11a115ed733b.gif)\n\n### Keep track of hundreds of different model-hyperparameter combinations\n\n![list_base_learner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_37ddc966ba51.gif)\n\n### Effortlessly choose your base learners and create an ensemble with the click of a button\n\n![ensemble](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_0ba72e5ba6fa.gif)\n\n## Features\n\n* Fully define your data source, cross-validation process, relevant metrics, and base learners with Python code\n* Any model following the Scikit-learn API can be used as a base learner\n* Task queue based architecture lets you take full advantage of multiple cores and embarrassingly parallel hyperparameter searches\n* Direct integration with [TPOT](https:\u002F\u002Fgithub.com\u002Frhiever\u002Ftpot) for automated pipeline construction\n* Automated hyperparameter search through Bayesian optimization\n* Easy management and comparison of hundreds of different model-hyperparameter combinations\n* Automatic saving of generated secondary meta-features\n* Stacked ensemble creation in a few clicks\n* Automated ensemble construction through greedy forward model selection\n* Export your stacked ensemble as a standalone Python file to support multiple levels of stacking\n\n## Installation and Documentation\n\nYou can find installation instructions and detailed documentation hosted [here](http:\u002F\u002Fxcessiv.readthedocs.io\u002F).\n\n## FAQ\n\n#### Where does Xcessiv fit in the machine learning process?\n\nXcessiv fits in the model building part of the process after data preparation and feature engineering. At this point, there is no universally acknowledged way of determining which algorithm will work best for a particular dataset (see [No Free Lunch Theorem](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FNo_free_lunch_theorem)), and while heuristic optimization methods do exist, things often break down into trial and error as you try to find the best model-hyperparameter combinations. \n\nStacking is an almost surefire method to improve performance beyond that of any single model, however, the complexity of proper implementation often makes it impractical to apply them in practice outside of Kaggle competitions. Xcessiv aims to make the construction of stacked ensembles as painless as possible and lower the barrier for entry.\n\n#### I don't care about fancy stacked ensembles and what not, should I still use Xcessiv?\n\nAbsolutely! Even without the ensembling functionality, the sheer amount of utility provided by keeping track of the performance of hundreds, and even thousands of ML models and hyperparameter combinations is a huge boon.\n\n#### How does Xcessiv generate meta-features for stacking?\n\nYou can choose whether to generate meta-features through cross-validation (stacked generalization) or with a holdout set (blending). You can read about these two methods and a lot more about stacked ensembles in the [Kaggle Ensembling Guide](https:\u002F\u002Fmlwave.com\u002Fkaggle-ensembling-guide\u002F). It's a great article and provides most of the inspiration for this project.\n\n## Contributing\n\nXcessiv is in its very early stages and needs the open-source community to guide it along. \n\nThere are many ways to contribute to Xcessiv. You could report a bug, suggest a feature, submit a pull request, improve documentation, and many more. \n\nIf you would like to contribute something, please visit our [Contributor Guidelines](CONTRIBUTING.md).\n\n## Project Status\n\nXcessiv is currently in alpha and is unstable. Future versions are not guaranteed to be backwards-compatible with current project files.\n","# Xcessiv\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fxcessiv.svg)]()\n[![license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Freiinakano\u002Fxcessiv.svg)]()\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fxcessiv.svg)]()\n[![Build Status](https:\u002F\u002Ftravis-ci.org\u002Freiinakano\u002Fxcessiv.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Freiinakano\u002Fxcessiv)\n\n### Xcessiv 是一款工具，旨在帮助您构建最大、最疯狂、也最“过度”的堆叠集成模型。\n\n从理论上讲，堆叠集成模型非常简单：将多个小型模型的预测结果组合起来，再将这些组合后的预测输入到另一个模型中。然而，在实际应用中，实现堆叠集成却可能非常复杂且令人头疼。\n\nXcessiv 能够为您处理创建和优化堆叠集成的所有实现细节，让您只需专注于定义自己关心的部分即可。\n\n## Xcessiv 的工作流程\n\n### 定义您的基础学习器和性能指标\n\n![define_base_learner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_11a115ed733b.gif)\n\n### 跟踪数百种不同的模型-超参数组合\n\n![list_base_learner](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_37ddc966ba51.gif)\n\n### 轻松选择基础学习器，一键创建集成模型\n\n![ensemble](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_readme_0ba72e5ba6fa.gif)\n\n## 主要特性\n\n* 使用 Python 代码完全自定义数据源、交叉验证流程、相关评估指标以及基础学习器\n* 任何遵循 Scikit-learn API 的模型都可以用作基础学习器\n* 基于任务队列的架构，可充分利用多核处理器，并支持并行度极高的超参数搜索\n* 直接与 [TPOT](https:\u002F\u002Fgithub.com\u002Frhiever\u002Ftpot) 集成，实现自动化管道构建\n* 通过贝叶斯优化自动进行超参数搜索\n* 轻松管理和比较数百种不同的模型-超参数组合\n* 自动保存生成的二级元特征\n* 几步操作即可创建堆叠集成模型\n* 通过贪心前向模型选择自动构建集成模型\n* 可将堆叠集成模型导出为独立的 Python 文件，以支持多层堆叠\n\n## 安装与文档\n\n安装说明和详细文档请访问 [这里](http:\u002F\u002Fxcessiv.readthedocs.io\u002F)。\n\n## 常见问题解答\n\n#### Xcessiv 在机器学习流程中处于什么位置？\n\nXcessiv 属于模型构建阶段的一部分，位于数据预处理和特征工程之后。目前并没有一种通用的方法可以确定哪种算法最适合特定的数据集（参见 [无免费午餐定理](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FNo_free_lunch_theorem)），尽管存在一些启发式优化方法，但在寻找最佳模型-超参数组合时，往往还是需要通过反复试验来摸索。\n\n堆叠集成是一种几乎可以确保提升模型性能的方法，但其复杂的实现过程使得它在实际应用中并不常见，通常只在 Kaggle 竞赛中才会被广泛使用。Xcessiv 的目标就是尽可能简化堆叠集成的构建过程，降低使用门槛。\n\n#### 我对复杂的堆叠集成并不感兴趣，那我还需要使用 Xcessiv 吗？\n\n当然！即使不使用堆叠集成功能，仅凭 Xcessiv 能够帮助您跟踪数百甚至数千种机器学习模型及其超参数组合的性能表现这一特性，就已经非常有价值了。\n\n#### Xcessiv 如何生成用于堆叠的元特征？\n\n您可以选择通过交叉验证（堆叠泛化）或使用保留集（混合）来生成元特征。关于这两种方法以及更多关于堆叠集成的知识，请参阅 [Kaggle 集成指南](https:\u002F\u002Fmlwave.com\u002Fkaggle-ensembling-guide\u002F)。这篇文章非常出色，也是本项目的主要灵感来源之一。\n\n## 贡献\n\nXcessiv 尚处于非常早期的开发阶段，亟需开源社区的帮助和支持。\n\n您可以通过多种方式为 Xcessiv 做贡献，例如报告 bug、提出功能建议、提交 pull request、改进文档等。\n\n如果您有意参与贡献，请访问我们的 [贡献者指南](CONTRIBUTING.md)。\n\n## 项目状态\n\nXcessiv 目前仍处于 Alpha 阶段，尚不稳定。未来版本可能无法保证与当前项目文件的向后兼容性。","# Xcessiv 快速上手指南\n\nXcessiv 是一款用于构建和优化大规模堆叠集成（Stacked Ensembles）的 Python 工具。它能自动化处理基学习器的超参数搜索、元特征生成以及集成模型的构建，让你专注于核心逻辑而非繁琐的实现细节。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：支持 Python 3.x（具体兼容版本请参考 PyPI 徽章）\n*   **前置依赖**：\n    *   `scikit-learn`：Xcessiv 依赖 Scikit-learn API，所有符合该接口的模型均可作为基学习器。\n    *   `joblib` \u002F `multiprocessing`：用于多核并行任务队列。\n    *   (可选) `TPOT`：如需自动构建机器学习管道，可安装 TPOT 以进行深度集成。\n\n建议在使用前创建一个独立的虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv xcessiv_env\nsource xcessiv_env\u002Fbin\u002Factivate  # Windows 用户使用: xcessiv_env\\Scripts\\activate\n```\n\n## 安装步骤\n\n你可以直接通过 PyPI 使用 pip 进行安装。国内开发者推荐使用清华或阿里镜像源以加速下载。\n\n**使用默认源安装：**\n```bash\npip install xcessiv\n```\n\n**使用国内镜像源加速安装（推荐）：**\n```bash\npip install xcessiv -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：目前 Xcessiv 处于 Alpha 阶段，API 可能会在未来版本中发生变化，且文件可能不向后兼容。\n\n## 基本使用\n\nXcessiv 的核心工作流程分为三步：定义基学习器、执行超参数搜索、构建堆叠集成。以下是一个最小化的使用示例。\n\n### 1. 定义基学习器与配置\n\n首先，你需要编写一个 Python 脚本来定义数据源、评估指标以及基学习器。Xcessiv 允许你使用任何遵循 Scikit-learn API 的模型。\n\n```python\n# base_learners.py\nfrom xcessiv import XcessivBaseLearner\nfrom sklearn.ensemble import RandomForestClassifier\nfrom sklearn.linear_model import LogisticRegression\nfrom sklearn.datasets import load_iris\nfrom sklearn.model_selection import train_test_split\n\n# 加载数据\ndata = load_iris()\nX_train, X_test, y_train, y_test = train_test_split(data.data, data.target, test_size=0.2)\n\n# 定义基学习器配置\n# 这里演示定义两个简单的基学习器\nbase_learner_1 = XcessivBaseLearner(\n    model_class=RandomForestClassifier,\n    model_params={'n_estimators': 100},\n    name='RandomForest'\n)\n\nbase_learner_2 = XcessivBaseLearner(\n    model_class=LogisticRegression,\n    model_params={'max_iter': 1000},\n    name='LogisticRegression'\n)\n\n# 将配置保存到数据库（Xcessiv 使用 SQLite 管理实验）\n# 初始化项目\nfrom xcessiv import XcessivWorker\n\n# 注意：实际使用中通常通过命令行启动 worker 或通过 GUI\u002FWeb 界面管理\n# 此处仅为代码逻辑示意，完整流程通常结合 xcessiv create-project 命令使用\n```\n\n### 2. 启动任务与超参数搜索\n\nXcessiv 采用基于任务队列的架构。你需要先创建一个项目，然后启动 Worker 来执行耗时的超参数搜索（支持贝叶斯优化）。\n\n**创建新项目：**\n```bash\nxcessiv create-project my_ensemble_project\ncd my_ensemble_project\n```\n\n**启动 Worker 进行并行计算：**\n利用多核优势并行运行多个任务。\n```bash\n# 启动一个 worker 进程\nxcessiv worker start\n\n# 或在另一个终端再启动一个以利用多核\nxcessiv worker start\n```\n\n此时，你可以在 Xcessiv 提供的 Web 界面（默认通常在本地端口）中上传定义好的基学习器脚本，并触发大规模的超参数搜索。系统会自动记录数百种模型组合的性能。\n\n### 3. 构建堆叠集成\n\n当基学习器训练完成后，可以通过界面或代码一键生成堆叠模型。\n\n**通过代码导出集成模型：**\nXcessiv 支持将训练好的堆叠集成导出为独立的 Python 文件，便于部署或多层堆叠。\n\n```python\n# 假设你已经通过界面选择了最佳的基学习器组合\nfrom xcessiv import XcessivEnsemble\n\n# 加载已保存的元特征和模型配置\nensemble = XcessivEnsemble.from_file('best_ensemble_config.json')\n\n# 在测试集上进行预测\npredictions = ensemble.predict(X_test)\n\n# 导出为 standalone 脚本\nensemble.export_to_script('final_stacked_model.py')\n```\n\n生成的 `final_stacked_model.py` 是一个完全独立的文件，包含了所有必要的模型权重和预处理逻辑，可直接用于生产环境推理。\n\n---\n\n通过以上步骤，你可以快速利用 Xcessiv 完成从单一模型筛选到复杂堆叠集成的全过程，无需手动处理繁琐的交叉验证和元特征生成代码。","某金融风控团队正在构建信用卡欺诈检测模型，需要在有限时间内从数百种算法组合中挖掘出最高精度的预测方案。\n\n### 没有 xcessiv 时\n- 数据科学家需手动编写繁琐代码来管理成百上千组“模型 - 超参数”组合，实验记录混乱且难以回溯。\n- 尝试构建堆叠集成（Stacked Ensemble）时，必须手工处理交叉验证生成的元特征，极易因数据泄露导致模型虚高。\n- 超参数调优依赖人工试错或简单的网格搜索，无法利用多核并行加速，耗时数天仍难找到最优解。\n- 不同基学习器的预测结果分散在各个脚本中，缺乏统一界面进行横向对比和筛选，协作效率极低。\n- 将最终集成的模型部署到生产环境时，需要重新重构大量胶水代码，出错风险高且维护成本大。\n\n### 使用 xcessiv 后\n- 通过 Web 界面直观定义数据源与评估指标，自动追踪并可视化数百次实验结果，版本管理井井有条。\n- 一键自动生成基于交叉验证的元特征，彻底规避数据泄露风险，让复杂的堆叠集成构建变得像搭积木一样简单。\n- 内置贝叶斯优化与任务队列架构，充分利用多核资源并行搜索超参数，将原本数天的调优过程缩短至数小时。\n- 在图形化界面中轻松对比不同基学习器表现，支持贪心向前选择算法自动构建最优集成方案，决策依据清晰明确。\n- 直接将训练好的堆叠模型导出为独立的 Python 文件，无缝对接生产环境，大幅降低部署难度与维护门槛。\n\nxcessiv 将原本仅存在于 Kaggle 竞赛中的高阶集成建模技术，转化为日常开发中可落地、高效率的标准工作流。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Freiinakano_xcessiv_11a115ed.gif","reiinakano","Reiichiro Nakano","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Freiinakano_16bac7d2.jpg","I like working on awesome things with awesome people!",null,"San Francisco","https:\u002F\u002Freiinakano.github.io","https:\u002F\u002Fgithub.com\u002Freiinakano",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Python","#3572A5",59.5,{"name":87,"color":88,"percentage":89},"JavaScript","#f1e05a",39.1,{"name":91,"color":92,"percentage":93},"CSS","#663399",0.9,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",0.4,1268,106,"2026-04-12T12:06:03","Apache-2.0","未说明",{"notes":104,"python":105,"dependencies":106},"该工具处于 Alpha 阶段，不稳定且文件不保证向后兼容。架构基于任务队列，支持多核并行和超参数搜索。任何遵循 Scikit-learn API 的模型均可作为基学习器。详细安装文档需访问外部链接，README 中未列出具体版本依赖。","3.x (具体版本需参考 PyPI badge，文中仅提及支持 Python 3)",[107,108],"scikit-learn","TPOT",[16,110,14],"其他",[112,113,114,107,115,116,117],"machine-learning","ensemble-learning","stacked-ensembles","data-science","hyperparameter-optimization","automated-machine-learning","2026-03-27T02:49:30.150509","2026-04-13T16:41:56.464271",[121,126,131,136,141,146,151],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},31719,"如何导出堆叠集成模型以便在新数据上进行预测？","请将 Xcessiv 升级到 0.3.5 或更高版本。从该版本开始，支持将完整的堆叠集成导出为独立的 Python 包。升级后，请查阅最新文档以了解如何提取集成模型并使用它对新数据进行预测。如果您使用的是旧版本（如 0.2.2），则无法直接导出，只能查看交叉验证期间的指标。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F21",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},31720,"界面上找不到“导出”按钮怎么办？","这通常是因为您的 Xcessiv 版本过旧。导出功能自 0.3.7 版本起就已可用。请检查您的当前版本，并通过 pip 升级到最新版本（例如：pip install --upgrade xcessiv），升级后即可在构建完堆叠集成后看到导出按钮。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F40",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},31721,"Xcessiv 如何处理多进程下的内存管理问题？大数据集是否会因数据复制导致内存溢出？","Xcessiv 目前不会自动处理多进程间的数据共享内存问题。默认情况下，Python 会为每个进程创建数据副本，这对于大数据集确实是限制。维护者建议：对于大数据集，您应负责只启动能够适应您内存大小的工作进程数量（通常对于大数据集只能设置为 1 个 worker）。这与在 Jupyter 中对大数据集进行超参数优化时不运行多个 sklearn 进程的道理相同。如果需要更高效的内存利用，可能需要用户自行编写算法或调整数据加载方式。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F49",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},31722,"使用 Python 3 时，XGBRegressor 模型卡在“排队中”（Queued）状态无法运行，如何解决？","这是一个已知的兼容性问题，原因是开发者最初仅在 Python 2 上测试，未考虑到 Python 3 中 `map()` 函数返回的是迭代器而非列表。该问题已在 v0.2.5 版本中修复。解决方法是将 Xcessiv 升级到 0.2.5 或更高版本（可通过 PyPI 安装）。如果暂时无法升级，也可以临时切换到 Python 2 环境运行。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F17",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},31723,"导出的 Python 脚本在较新版本的 scikit-learn 中运行时报错，提示找不到 `_BasePipeline`，如何解决？","这是因为 scikit-learn 0.19.x 版本后将 Pipeline 的基类更改为 `_BaseComposition`。如果您遇到此错误，有两种解决方法：1. 等待官方修复更新；2. 临时手动修改导出的脚本，将脚本中所有的 `_BasePipeline` 替换为 `_BaseComposition`（通常有两处需要修改）。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F50",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},31724,"如何查看模型的训练误差和测试误差以判断是否过拟合？","Xcessiv 默认显示的指标是基于交叉验证（Cross Validation）计算的，这可以被视为一种更稳健的测试误差评估方式。如果您只想看单纯的测试误差，可以将交叉验证的折数（folds）设置为 1。至于训练误差，目前设计上暂不支持显示，因为维护者认为其在实际应用中参考价值有限。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F54",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},31725,"是否支持自动化的集成学习技术来自动选择基学习器？","是的，Xcessiv 在 v0.5.0 版本中已经添加了基于贪心前向模型选择（greedy forward model selection）的自动化集成功能。未来计划还包括添加更多优化方法（如 Hyperband），而不仅仅局限于贝叶斯优化。用户可以通过升级至 0.5.0 及以上版本来使用此功能。","https:\u002F\u002Fgithub.com\u002Freiinakano\u002Fxcessiv\u002Fissues\u002F34",[157,162,167,172,177,182,187,192,197,202,207,212,217,222,227,232,237,242,247,252],{"id":158,"version":159,"summary_zh":160,"released_at":161},238922,"v0.5.1","错误修复：\n* #51 修复了 #50，该 bug 是由 scikit-learn v0.19 中的更改引起的。\n\n新功能：\n* 由 @marcelmaatkamp 提供的 Docker Compose 文件，用于更轻松地进行 Docker 部署。","2017-08-21T00:53:25",{"id":163,"version":164,"summary_zh":165,"released_at":166},238923,"v0.5.0","功能特性\n* #43 自动集成终于来了！引入了贪心前向模型选择\n\n警告：v0.5.0 之前版本的项目文件将**无法在 v0.5.0 中使用**。","2017-06-23T18:09:33",{"id":168,"version":169,"summary_zh":170,"released_at":171},238924,"v0.4.0","特性\n* 第35项，由@menglewis贡献\n* 第37项：新增TPOT集成\n\n警告：v0.4 的项目文件与早期版本不兼容","2017-06-15T16:03:32",{"id":173,"version":174,"summary_zh":175,"released_at":176},238925,"v0.3.8","特性\n* #29 #30 移除了原有的复选框，并添加了 Identity Transformer 预设基学习器。","2017-06-07T19:40:07",{"id":178,"version":179,"summary_zh":180,"released_at":181},238926,"v0.3.7","特性\n* #27 由 @enisnazif 增加了更多估算器（回归器）\n* #28 将“将集成导出为 Python 包”更改为“将集成导出为 Python 文件”。此外，还新增了一个快捷方式，可直接将堆叠集成导出为基学习器配置。太棒了！\n","2017-06-07T16:23:12",{"id":183,"version":184,"summary_zh":185,"released_at":186},238927,"v0.3.6","特性\n* #23 由 @ryanliwag 添加更多预设的交叉验证器\n* #24 新增预设指标：中位数绝对误差、R² 分数和解释方差分数\n* #26 增加了存储先前参数搜索结果的功能，更多是用户体验方面的改进。","2017-06-06T17:20:10",{"id":188,"version":189,"summary_zh":190,"released_at":191},238928,"v0.3.5","新功能：\n* #22 增加了将堆叠集成模型导出为 Python 包的功能，以便在不同数据上使用。\n* #19 由 @jef5ez 添加平均绝对误差作为预设指标。\n\n文档：\n* #22 添加了关于如何使用导出的堆叠集成 Python 包的文档。\n* #20 添加了关于如何将 TPOT 与 Xcessiv 配合使用的文档。","2017-06-04T14:47:45",{"id":193,"version":194,"summary_zh":195,"released_at":196},238929,"v0.3.4","0.3.0 的热修复版本。由于 PyPI 问题，最终发布为 0.3.4。","2017-06-02T14:13:42",{"id":198,"version":199,"summary_zh":200,"released_at":201},238930,"v0.3.0","主要功能新增\n* #18 - 在网格搜索和随机搜索之外，新增了实验性的贝叶斯优化搜索，以实现超参数调优的一定程度自动化。","2017-06-02T12:02:25",{"id":203,"version":204,"summary_zh":205,"released_at":206},238931,"v0.2.5","Python 3 用户的补丁。","2017-05-31T11:04:39",{"id":208,"version":209,"summary_zh":210,"released_at":211},238932,"v0.2.3","* #16 Added a few new preset learners and metrics","2017-05-30T12:15:27",{"id":213,"version":214,"summary_zh":215,"released_at":216},238933,"v0.2.2","Hotfix for setuptools.","2017-05-29T19:09:21",{"id":218,"version":219,"summary_zh":220,"released_at":221},238934,"v0.2.1","Features \r\n* Dockerfile added\r\n* Startup script now raises explicit error for Windows OS.\r\n\r\nDocumentation\r\n* Documentation updated for Dockerfile\r\n","2017-05-29T15:55:00",{"id":223,"version":224,"summary_zh":225,"released_at":226},238935,"v0.2.0","Added features\r\n* #13 \r\n\r\nBreaking Change\r\n* Project folders created with Xcessiv\u003C0.2.0 will not work on Xcessiv>=0.2.0. This is due to #13 ","2017-05-28T15:58:14",{"id":228,"version":229,"summary_zh":230,"released_at":231},238936,"v0.1.6","* #12 \r\n\r\n* Brand new and more flexible way of defining cross-validation and meta-feature generation method","2017-05-28T06:48:25",{"id":233,"version":234,"summary_zh":235,"released_at":236},238937,"v0.1.5","* Fix UI, when deleting parent component e.g. base learner origin, make sure children components are refreshed (base learners and stacked ensembles\r\n\r\n* Major feature change: #11 ","2017-05-26T13:42:02",{"id":238,"version":239,"summary_zh":240,"released_at":241},238938,"v0.1.4","* #9 \r\n* #10 ","2017-05-25T15:09:10",{"id":243,"version":244,"summary_zh":245,"released_at":246},238939,"v0.1.3","* #8 ","2017-05-24T17:03:08",{"id":248,"version":249,"summary_zh":250,"released_at":251},238940,"v0.1.2","* Hotfix for #6 pointed out by @KhaledSharif","2017-05-24T01:56:23",{"id":253,"version":254,"summary_zh":77,"released_at":255},238941,"v0.1.1","2017-05-23T15:13:11"]