[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-automl--Auto-PyTorch":3,"tool-automl--Auto-PyTorch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":110,"github_topics":111,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":146},3860,"automl\u002FAuto-PyTorch","Auto-PyTorch","Automatic architecture search and hyperparameter optimization for PyTorch","Auto-PyTorch 是一款专为 PyTorch 打造的自动化深度学习工具，旨在让神经网络的设计与训练过程完全自动化。它巧妙地将“神经架构搜索”与“超参数优化”相结合，解决了传统自动机器学习框架难以兼顾网络结构设计与训练细节的痛点，帮助用户在无需深厚深度学习背景的情况下，也能构建出高性能模型。\n\n这款工具特别适合数据科学家、研究人员以及希望快速验证想法的开发者使用，尤其是那些处理表格数据（分类与回归）或时间序列预测任务的用户。Auto-PyTorch 的核心亮点在于其独特的“多保真度元学习”策略：它会先利用一组预置的优秀网络配置（Portfolio）进行热启动，再结合 SMAC 优化器与 Hyperband 算法动态分配计算资源。这种机制不仅大幅提升了搜索效率，还能自动评估传统机器学习基线模型，最终通过集成学习输出最优结果。从数据预处理、模型搜索到集成构建，Auto-PyTorch 提供了一站式的解决方案，让自动化深度学习变得更加稳健且高效。","# Auto-PyTorch\n\nCopyright (C) 2021  [AutoML Groups Freiburg and Hannover](http:\u002F\u002Fwww.automl.org\u002F)\n\nWhile early AutoML frameworks focused on optimizing traditional ML pipelines and their hyperparameters, another trend in AutoML is to focus on neural architecture search. To bring the best of these two worlds together, we developed **Auto-PyTorch**, which jointly and robustly optimizes the network architecture and the training hyperparameters to enable fully automated deep learning (AutoDL).\n\nAuto-PyTorch is mainly developed to support tabular data (classification, regression) and time series data (forecasting).\nThe newest features in Auto-PyTorch for tabular data are described in the paper [\"Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and Robust AutoDL\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.13799) (see below for bibtex ref).\nDetails about Auto-PyTorch for multi-horizontal time series forecasting tasks can be found in the paper [\"Efficient Automated Deep Learning for Time Series Forecasting\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.05511) (also see below for bibtex ref).\n\nAlso, find the documentation [here](https:\u002F\u002Fautoml.github.io\u002FAuto-PyTorch\u002Fmaster).\n\n\n***From v0.1.0, AutoPyTorch has been updated to further improve usability, robustness and efficiency by using SMAC as the underlying optimization package as well as changing the code structure. Therefore, moving from v0.0.2 to v0.1.0 will break compatibility. \nIn case you would like to use the old API, you can find it at [`master_old`](https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Ftree\u002Fmaster-old).***\n\n## Workflow\n\nThe rough description of the workflow of Auto-Pytorch is drawn in the following figure.\n\n![AutoPyTorch Workflow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_Auto-PyTorch_readme_b4c3ab03d220.png)\n\nIn the figure, **Data** is provided by user and\n**Portfolio** is a set of configurations of neural networks that work well on diverse datasets.\nThe current version only supports the *greedy portfolio* as described in the paper *Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and Robust AutoDL*\nThis portfolio is used to warm-start the optimization of SMAC.\nIn other words, we evaluate the portfolio on a provided data as initial configurations.\nThen API starts the following procedures:\n1. **Validate input data**: Process each data type, e.g. encoding categorical data, so that Auto-Pytorch can handled.\n2. **Create dataset**: Create a dataset that can be handled in this API with a choice of cross validation or holdout splits.\n3. **Evaluate baselines** \n   * ***Tabular dataset*** *1: Train each algorithm in the predefined pool with a fixed hyperparameter configuration and dummy model from `sklearn.dummy` that represents the worst possible performance.\n   * ***Time Series Forecasting dataset*** : Train a dummy predictor that repeats the last observed value in each series\n4. **Search by [SMAC](https:\u002F\u002Fgithub.com\u002Fautoml\u002FSMAC3)**:\\\n    a. Determine budget and cut-off rules by [Hyperband](https:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume18\u002F16-558\u002F16-558.pdf)\\\n    b. Sample a pipeline hyperparameter configuration *2 by SMAC\\\n    c. Update the observations by obtained results\\\n    d. Repeat a. -- c. until the budget runs out\n5. Build the best ensemble for the provided dataset from the observations and [model selection of the ensemble](https:\u002F\u002Fwww.cs.cornell.edu\u002F~caruana\u002Fctp\u002Fct.papers\u002Fcaruana.icml04.icdm06long.pdf).\n\n*1: Baselines are a predefined pool of machine learning algorithms, e.g. LightGBM and support vector machine, to solve either regression or classification task on the provided dataset\n\n*2: A pipeline hyperparameter configuration specifies the choice of components, e.g. target algorithm, the shape of neural networks, in each step and \n(which specifies the choice of components in each step and their corresponding hyperparameters.\n\n## Installation\n\n### PyPI Installation\n\n```sh\n\npip install autoPyTorch\n\n```\n\nAuto-PyTorch for Time Series Forecasting requires additional dependencies \n\n```sh\n\npip install autoPyTorch[forecasting]\n\n```\n\n### Manual Installation\n\nWe recommend using Anaconda for developing as follows:\n\n```sh\n# Following commands assume the user is in a cloned directory of Auto-Pytorch\n\n# We also need to initialize the automl_common repository as follows\n# You can find more information about this here:\n# https:\u002F\u002Fgithub.com\u002Fautoml\u002Fautoml_common\u002F\ngit submodule update --init --recursive\n\n# Create the environment\nconda create -n auto-pytorch python=3.8\nconda activate auto-pytorch\nconda install swig\npython setup.py install\n\n```\n\nSimilarly, to install all the dependencies for Auto-PyTorch-TimeSeriesForecasting:\n\n\n```sh\n\ngit submodule update --init --recursive\n\nconda create -n auto-pytorch python=3.8\nconda activate auto-pytorch\nconda install swig\npip install -e[forecasting]\n\n```\n\n## Examples\n\nIn a nutshell:\n\n```py\nfrom autoPyTorch.api.tabular_classification import TabularClassificationTask\n\n# data and metric imports\nimport sklearn.model_selection\nimport sklearn.datasets\nimport sklearn.metrics\nX, y = sklearn.datasets.load_digits(return_X_y=True)\nX_train, X_test, y_train, y_test = \\\n        sklearn.model_selection.train_test_split(X, y, random_state=1)\n\n# initialise Auto-PyTorch api\napi = TabularClassificationTask()\n\n# Search for an ensemble of machine learning algorithms\napi.search(\n    X_train=X_train,\n    y_train=y_train,\n    X_test=X_test,\n    y_test=y_test,\n    optimize_metric='accuracy',\n    total_walltime_limit=300,\n    func_eval_time_limit_secs=50\n)\n\n# Calculate test accuracy\ny_pred = api.predict(X_test)\nscore = api.score(y_pred, y_test)\nprint(\"Accuracy score\", score)\n```\n\nFor Time Series Forecasting Tasks\n```py\n\nfrom autoPyTorch.api.time_series_forecasting import TimeSeriesForecastingTask\n\n# data and metric imports\nfrom sktime.datasets import load_longley\ntargets, features = load_longley()\n\n# define the forecasting horizon\nforecasting_horizon = 3\n\n# Dataset optimized by APT-TS can be a list of np.ndarray\u002F pd.DataFrame where each series represents an element in the \n# list, or a single pd.DataFrame that records the series\n# index information: to which series the timestep belongs? This id can be stored as the DataFrame's index or a separate\n# column\n# Within each series, we take the last forecasting_horizon as test targets. The items before that as training targets\n# Normally the value to be forecasted should follow the training sets\ny_train = [targets[: -forecasting_horizon]]\ny_test = [targets[-forecasting_horizon:]]\n\n# same for features. For uni-variant models, X_train, X_test can be omitted and set as None\nX_train = [features[: -forecasting_horizon]]\n# Here x_test indicates the 'known future features': they are the features known previously, features that are unknown\n# could be replaced with NAN or zeros (which will not be used by our networks). If no feature is known beforehand,\n# we could also omit X_test\nknown_future_features = list(features.columns)\nX_test = [features[-forecasting_horizon:]]\n\nstart_times = [targets.index.to_timestamp()[0]]\nfreq = '1Y'\n\n# initialise Auto-PyTorch api\napi = TimeSeriesForecastingTask()\n\n# Search for an ensemble of machine learning algorithms\napi.search(\n    X_train=X_train,\n    y_train=y_train,\n    X_test=X_test, \n    optimize_metric='mean_MAPE_forecasting',\n    n_prediction_steps=forecasting_horizon,\n    memory_limit=16 * 1024,  # Currently, forecasting models use much more memories\n    freq=freq,\n    start_times=start_times,\n    func_eval_time_limit_secs=50,\n    total_walltime_limit=60,\n    min_num_test_instances=1000,  # proxy validation sets. This only works for the tasks with more than 1000 series\n    known_future_features=known_future_features,\n)\n\n# our dataset could directly generate sequences for new datasets\ntest_sets = api.dataset.generate_test_seqs()\n\n# Calculate test accuracy\ny_pred = api.predict(test_sets)\nscore = api.score(y_pred, y_test)\nprint(\"Forecasting score\", score)\n```\n\nFor more examples including customising the search space, parellising the code, etc, checkout the `examples` folder\n\n```sh\n$ cd examples\u002F\n```\n\n\nCode for the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.13799) is available under `examples\u002Fensemble` in the [TPAMI.2021.3067763](https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Ftree\u002FTPAMI.2021.3067763`) branch.\n\n## Contributing\n\nIf you want to contribute to Auto-PyTorch, clone the repository and checkout our current development branch\n\n```sh\n$ git checkout development\n```\n\n## License\n\nThis program is free software: you can redistribute it and\u002For modify\nit under the terms of the Apache license 2.0 (please see the LICENSE file).\n\nThis program is distributed in the hope that it will be useful,\nbut WITHOUT ANY WARRANTY; without even the implied warranty of\nMERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.\n\nYou should have received a copy of the Apache license 2.0\nalong with this program (see LICENSE file).\n\n## Reference\n\nPlease refer to the branch `TPAMI.2021.3067763` to reproduce the paper *Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and Robust AutoDL*.\n\n```bibtex\n  @article{zimmer-tpami21a,\n  author = {Lucas Zimmer and Marius Lindauer and Frank Hutter},\n  title = {Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and Robust AutoDL},\n  journal = {IEEE Transactions on Pattern Analysis and Machine Intelligence},\n  year = {2021},\n  note = {also available under https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.13799},\n  pages = {3079 - 3090}\n}\n```\n\n```bibtex\n@incollection{mendoza-automlbook18a,\n  author    = {Hector Mendoza and Aaron Klein and Matthias Feurer and Jost Tobias Springenberg and Matthias Urban and Michael Burkart and Max Dippel and Marius Lindauer and Frank Hutter},\n  title     = {Towards Automatically-Tuned Deep Neural Networks},\n  year      = {2018},\n  month     = dec,\n  editor    = {Hutter, Frank and Kotthoff, Lars and Vanschoren, Joaquin},\n  booktitle = {AutoML: Methods, Sytems, Challenges},\n  publisher = {Springer},\n  chapter   = {7},\n  pages     = {141--156}\n}\n```\n\n```bibtex\n@article{deng-ecml22,\n  author    = {Difan Deng and Florian Karl and Frank Hutter and Bernd Bischl and Marius Lindauer},\n  title     = {Efficient Automated Deep Learning for Time Series Forecasting},\n  year      = {2022},\n  booktitle = {Machine Learning and Knowledge Discovery in Databases. Research Track\n               - European Conference, {ECML} {PKDD} 2022},\n  url       = {https:\u002F\u002Fdoi.org\u002F10.48550\u002FarXiv.2205.05511},\n}\n```\n\n## Contact\n\nAuto-PyTorch is developed by the [AutoML Groups of the University of Freiburg and Hannover](http:\u002F\u002Fwww.automl.org\u002F).\n","# Auto-PyTorch\n\n版权所有 © 2021 [弗莱堡和汉诺威的AutoML小组](http:\u002F\u002Fwww.automl.org\u002F)\n\n早期的AutoML框架主要专注于优化传统的机器学习流水线及其超参数，而AutoML的另一发展趋势则是聚焦于神经架构搜索。为了将这两个领域的优势结合起来，我们开发了**Auto-PyTorch**，它能够联合且稳健地优化网络架构与训练超参数，从而实现完全自动化的深度学习（AutoDL）。\n\nAuto-PyTorch主要面向表格数据（分类、回归）和时间序列数据（预测）任务。针对表格数据的最新功能在论文《Auto-PyTorch Tabular: 多保真度元学习用于高效且鲁棒的AutoDL》中有所介绍（参见下方的BibTeX引用）。关于Auto-PyTorch在多水平时间序列预测任务中的详细内容，则可在论文《面向时间序列预测的高效自动化深度学习》中找到（同样请参阅下方的BibTeX引用）。\n\n此外，您还可以在此处查阅文档：[Auto-PyTorch文档](https:\u002F\u002Fautoml.github.io\u002FAuto-PyTorch\u002Fmaster)。\n\n***自v0.1.0版本起，AutoPyTorch通过采用SMAC作为底层优化工具，并对代码结构进行调整，进一步提升了易用性、鲁棒性和效率。因此，从v0.0.2升级到v0.1.0将导致兼容性中断。如果您希望继续使用旧版API，可以在[`master_old`](https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Ftree\u002Fmaster-old)分支中找到。***\n\n## 工作流程\n\nAuto-Pytorch的工作流程大致描述如下图所示。\n\n![AutoPyTorch工作流程](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_Auto-PyTorch_readme_b4c3ab03d220.png)\n\n图中，**数据**由用户提供，而**组合库**则是一组在多种数据集上表现良好的神经网络配置集合。当前版本仅支持论文《Auto-PyTorch Tabular: 多保真度元学习用于高效且鲁棒的AutoDL》中描述的“贪婪组合库”。该组合库用于为SMAC优化提供初始启动点。换言之，我们会先以提供的数据集对组合库中的配置进行评估，作为初始配置。随后，API将执行以下步骤：\n\n1. **验证输入数据**：对每种数据类型进行预处理，例如对类别型数据进行编码，以便Auto-Pytorch能够正确处理。\n2. **创建数据集**：根据用户选择的交叉验证或留出法划分方式，创建一个可被本API处理的数据集。\n3. **评估基准模型**\n   * ***表格数据集*** *1：使用预定义池中的每种算法，结合固定的超参数配置，以及来自`sklearn.dummy`的代表最差性能的哑模型进行训练。\n   * ***时间序列预测数据集***：训练一个重复各序列中最后一个观测值的简单预测器。\n4. **使用[SMAC](https:\u002F\u002Fgithub.com\u002Fautoml\u002FSMAC3)进行搜索**：\n   a. 根据[Hyperband](https:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume18\u002F16-558\u002F16-558.pdf)确定预算和终止规则。\n   b. 使用SMAC采样一个管道超参数配置 *2。\n   c. 根据获得的结果更新观测记录。\n   d. 重复a至c步骤，直至预算耗尽。\n5. 从观测结果中为所提供的数据集构建最佳集成模型，并采用[集成模型选择方法](https:\u002F\u002Fwww.cs.cornell.edu\u002F~caruana\u002Fctp\u002Fct.papers\u002Fcaruana.icml04.icdm06long.pdf)完成最终模型的选择。\n\n*1：基准模型是预先定义好的机器学习算法集合，例如LightGBM和支持向量机，用于解决所提供的表格数据集上的回归或分类任务。\n\n*2：管道超参数配置指定了每个步骤中组件的选择，例如目标算法、神经网络的结构等，以及相应的超参数。\n\n## 安装\n\n### PyPI安装\n\n```sh\npip install autoPyTorch\n```\n\n针对时间序列预测的Auto-PyTorch需要额外的依赖项：\n\n```sh\npip install autoPyTorch[forecasting]\n```\n\n### 手动安装\n\n我们建议使用Anaconda进行开发，具体步骤如下：\n\n```sh\n# 假设用户已在克隆的Auto-Pytorch目录下\n\n# 还需初始化automl_common仓库，更多信息请参考：\n# https:\u002F\u002Fgithub.com\u002Fautoml\u002Fautoml_common\u002F\ngit submodule update --init --recursive\n\n# 创建环境\nconda create -n auto-pytorch python=3.8\nconda activate auto-pytorch\nconda install swig\npython setup.py install\n\n```\n\n同样地，若要安装Auto-PyTorch-TimeSeriesForecasting的所有依赖项：\n\n```sh\ngit submodule update --init --recursive\n\nconda create -n auto-pytorch python=3.8\nconda activate auto-pytorch\nconda install swig\npip install -e[forecasting]\n\n```\n\n## 示例\n\n简而言之：\n\n```py\nfrom autoPyTorch.api.tabular_classification import TabularClassificationTask\n\n# 导入数据和评估指标\nimport sklearn.model_selection\nimport sklearn.datasets\nimport sklearn.metrics\nX, y = sklearn.datasets.load_digits(return_X_y=True)\nX_train, X_test, y_train, y_test = \\\n        sklearn.model_selection.train_test_split(X, y, random_state=1)\n\n# 初始化Auto-PyTorch API\napi = TabularClassificationTask()\n\n# 搜索机器学习算法的集成模型\napi.search(\n    X_train=X_train,\n    y_train=y_train,\n    X_test=X_test,\n    y_test=y_test,\n    optimize_metric='accuracy',\n    total_walltime_limit=300,\n    func_eval_time_limit_secs=50\n)\n\n# 计算测试准确率\ny_pred = api.predict(X_test)\nscore = api.score(y_pred, y_test)\nprint(\"准确率得分\", score)\n```\n\n对于时间序列预测任务：\n\n```py\nfrom autoPyTorch.api.time_series_forecasting import TimeSeriesForecastingTask\n\n# 导入数据和评估指标\nfrom sktime.datasets import load_longley\ntargets, features = load_longley()\n\n# 定义预测 horizon\nforecasting_horizon = 3\n\n# APT-TS优化后的数据集可以是包含多个np.ndarray或pd.DataFrame的列表，其中每个元素代表一个时间序列；也可以是一个记录所有时间序列的单个pd.DataFrame。\n# 时间步信息：每个时间步属于哪个序列？这些信息可以存储在DataFrame的索引中，或者单独的一列中。\n# 在每个序列中，我们将最后的forecasting_horizon作为测试目标，之前的部分作为训练目标。通常，待预测的值应遵循训练集中的模式。\ny_train = [targets[: -forecasting_horizon]]\ny_test = [targets[-forecasting_horizon:]]\n\n# 特征数据同理。对于单变量模型，X_train和X_test可以省略，设置为None。\nX_train = [features[: -forecasting_horizon]]\n# 此处x_test表示“已知的未来特征”：即此前已知的特征；未知的特征可以用NAN或零代替（我们的网络不会使用这些值）。如果事先没有任何已知特征，\n\n# 我们也可以省略 X_test\nknown_future_features = list(features.columns)\nX_test = [features[-forecasting_horizon:]]\n\nstart_times = [targets.index.to_timestamp()[0]]\nfreq = '1Y'\n\n# 初始化 Auto-PyTorch API\napi = TimeSeriesForecastingTask()\n\n# 搜索机器学习算法的集成模型\napi.search(\n    X_train=X_train,\n    y_train=y_train,\n    X_test=X_test, \n    optimize_metric='mean_MAPE_forecasting',\n    n_prediction_steps=forecasting_horizon,\n    memory_limit=16 * 1024,  # 目前，预测模型会占用大量内存\n    freq=freq,\n    start_times=start_times,\n    func_eval_time_limit_secs=50,\n    total_walltime_limit=60,\n    min_num_test_instances=1000,  # 代理验证集。此设置仅适用于包含超过1000个时间序列的任务\n    known_future_features=known_future_features,\n)\n\n# 我们的数据集可以直接为新数据集生成序列\ntest_sets = api.dataset.generate_test_seqs()\n\n# 计算测试准确率\ny_pred = api.predict(test_sets)\nscore = api.score(y_pred, y_test)\nprint(\"预测得分\", score)\n```\n\n更多示例，包括自定义搜索空间、并行化代码等，请查看 `examples` 文件夹。\n\n```sh\n$ cd examples\u002F\n```\n\n\n与论文相关的代码可在 [TPAMI.2021.3067763](https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Ftree\u002FTPAMI.2021.3067763) 分支下的 `examples\u002Fensemble` 目录中找到。\n\n## 贡献\n\n如果您想为 Auto-PyTorch 做出贡献，请克隆仓库并切换到当前开发分支：\n\n```sh\n$ git checkout development\n```\n\n## 许可证\n\n本程序是自由软件，您可以根据 Apache 许可证 2.0 的条款重新分发和修改它（请参阅 LICENSE 文件）。\n\n本程序以“按原样”提供，不提供任何明示或暗示的担保，包括适销性或特定用途适用性的担保。\n\n您应随本程序一起收到一份 Apache 许可证 2.0 的副本（请参阅 LICENSE 文件）。\n\n## 参考文献\n\n请参考 `TPAMI.2021.3067763` 分支，以复现论文《Auto-PyTorch Tabular: 多保真度元学习用于高效且鲁棒的自动深度学习》。\n\n```bibtex\n  @article{zimmer-tpami21a,\n  author = {Lucas Zimmer 和 Marius Lindauer 和 Frank Hutter},\n  title = {Auto-PyTorch Tabular: 多保真度元学习用于高效且鲁棒的自动深度学习},\n  journal = {IEEE 模式分析与机器智能汇刊},\n  year = {2021},\n  note = {也可在 https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.13799 上获取},\n  pages = {3079 - 3090}\n}\n```\n\n```bibtex\n@incollection{mendoza-automlbook18a,\n  author    = {Hector Mendoza 和 Aaron Klein 和 Matthias Feurer 和 Jost Tobias Springenberg 和 Matthias Urban 和 Michael Burkart 和 Max Dippel 和 Marius Lindauer 和 Frank Hutter},\n  title     = {迈向自动调优的深度神经网络},\n  year      = {2018},\n  month     = 12月,\n  editor    = {Frank Hutter 和 Lars Kotthoff 和 Joaquin Vanschoren},\n  booktitle = {AutoML：方法、系统、挑战},\n  publisher = {Springer},\n  chapter   = {7},\n  pages     = {141--156}\n}\n```\n\n```bibtex\n@article{deng-ecml22,\n  author    = {Difan Deng 和 Florian Karl 和 Frank Hutter 和 Bernd Bischl 和 Marius Lindauer},\n  title     = {用于时间序列预测的高效自动化深度学习},\n  year      = {2022},\n  booktitle = {机器学习与数据库中的知识发现。研究赛道——欧洲会议，ECML PKDD 2022},\n  url       = {https:\u002F\u002Fdoi.org\u002F10.48550\u002FarXiv.2205.05511},\n}\n```\n\n## 联系方式\n\nAuto-PyTorch 由弗赖堡大学和汉诺威大学的 [AutoML 团队](http:\u002F\u002Fwww.automl.org\u002F) 开发。","# Auto-PyTorch 快速上手指南\n\nAuto-PyTorch 是一个全自动深度学习（AutoDL）框架，旨在联合优化神经网络架构和训练超参数。它主要支持**表格数据**（分类、回归）和**时间序列预测**任务。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: 推荐 **Python 3.8** (官方开发环境基于此版本)\n*   **包管理器**: 推荐使用 **Conda** (Anaconda 或 Miniconda) 进行环境管理\n*   **系统依赖**: 需要安装 `swig` (用于构建部分依赖)\n\n## 安装步骤\n\n推荐使用 Conda 创建独立环境以避免依赖冲突。\n\n### 1. 创建并激活环境\n\n```bash\nconda create -n auto-pytorch python=3.8\nconda activate auto-pytorch\n```\n\n### 2. 安装系统依赖\n\n```bash\nconda install swig\n```\n\n### 3. 安装 Auto-PyTorch\n\n**选项 A：仅安装表格数据支持 (分类\u002F回归)**\n\n```bash\npip install autoPyTorch\n```\n\n**选项 B：安装时间序列预测支持 (包含额外依赖)**\n\n```bash\npip install \"autoPyTorch[forecasting]\"\n```\n\n> **提示**：国内用户若下载缓慢，可添加清华或阿里镜像源加速安装：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple autoPyTorch`\n\n## 基本使用\n\n以下是最简单的**表格数据分类**任务示例。Auto-PyTorch 会自动搜索最佳的神经网络架构和超参数组合。\n\n### 表格数据分类示例\n\n```py\nfrom autoPyTorch.api.tabular_classification import TabularClassificationTask\n\n# 导入数据和评估指标工具\nimport sklearn.model_selection\nimport sklearn.datasets\nimport sklearn.metrics\n\n# 加载示例数据 (手写数字识别)\nX, y = sklearn.datasets.load_digits(return_X_y=True)\nX_train, X_test, y_train, y_test = \\\n        sklearn.model_selection.train_test_split(X, y, random_state=1)\n\n# 初始化 Auto-PyTorch API (表格分类任务)\napi = TabularClassificationTask()\n\n# 开始搜索最优模型集成\n# total_walltime_limit: 总搜索时间限制 (秒)\n# func_eval_time_limit_secs: 单次模型评估时间限制 (秒)\napi.search(\n    X_train=X_train,\n    y_train=y_train,\n    X_test=X_test,\n    y_test=y_test,\n    optimize_metric='accuracy',\n    total_walltime_limit=300,\n    func_eval_time_limit_secs=50\n)\n\n# 使用找到的最佳模型进行预测\ny_pred = api.predict(X_test)\nscore = api.score(y_pred, y_test)\nprint(\"Accuracy score\", score)\n```\n\n### 时间序列预测示例 (简要)\n\n对于时间序列任务，需使用 `TimeSeriesForecastingTask`。核心区别在于数据格式（通常需将序列整理为列表或特定 DataFrame）以及需要指定预测步长 (`n_prediction_steps`) 和时间频率 (`freq`)。\n\n```py\nfrom autoPyTorch.api.time_series_forecasting import TimeSeriesForecastingTask\n\n# 初始化 API\napi = TimeSeriesForecastingTask()\n\n# 执行搜索 (参数根据具体数据调整)\napi.search(\n    X_train=X_train, # 特征列表\n    y_train=y_train, # 目标值列表\n    X_test=X_test, \n    optimize_metric='mean_MAPE_forecasting',\n    n_prediction_steps=3, # 预测未来 3 个时间点\n    total_walltime_limit=60,\n    func_eval_time_limit_secs=50,\n    # ... 其他必要参数如 freq, start_times 等\n)\n\n# 预测与评估\ntest_sets = api.dataset.generate_test_seqs()\ny_pred = api.predict(test_sets)\nscore = api.score(y_pred, y_test)\nprint(\"Forecasting score\", score)\n```\n\n更多高级用法（如自定义搜索空间、并行化配置）请参考官方 `examples` 文件夹或完整文档。","某金融科技公司数据团队正致力于构建一个高精度的用户信用违约预测模型，以应对复杂的表格型业务数据。\n\n### 没有 Auto-PyTorch 时\n- **架构设计门槛高**：资深算法工程师需耗费数周时间手动尝试不同的神经网络层数、节点数及激活函数，试错成本极高且依赖个人经验。\n- **超参数调优繁琐**：面对学习率、优化器选择等大量超参数，人工网格搜索或随机搜索效率低下，难以在有限算力下找到全局最优解。\n- **基线对比不充分**：往往直接套用固定深度学习模型，忽略了与 LightGBM 等传统机器学习算法的自动化基准对比，导致模型选型可能存在偏差。\n- **集成策略缺失**：单模型预测稳定性不足，缺乏自动化的多模型集成机制来进一步压榨性能上限，难以满足风控场景对鲁棒性的严苛要求。\n\n### 使用 Auto-PyTorch 后\n- **全自动架构搜索**：Auto-PyTorch 利用元学习预热启动，自动搜索并生成最适合当前数据分布的神经网络拓扑结构，将数周工作缩短至数小时。\n- **智能超参数优化**：内置 SMAC 与 Hyperband 算法，动态分配计算预算，高效锁定最佳训练配置，显著提升了模型收敛速度与最终精度。\n- **内置强力基线评估**：自动训练包括虚拟模型、SVM 及 LightGBM 在内的多种基线算法，确保最终选用的深度学习方案真正优于传统方法。\n- **自动生成集成模型**：基于搜索过程中的观测结果，自动构建并筛选出表现最佳的模型集成组合，大幅提升了预测的稳定性和泛化能力。\n\nAuto-PyTorch 通过将网络架构搜索与超参数优化合二为一，让团队无需深厚深度学习背景也能快速交付工业级的高鲁棒性表格数据模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautoml_Auto-PyTorch_7f1d9067.png","automl","AutoML-Freiburg-Hannover","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fautoml_7ffe9a64.png","",null,"www.automl.org","https:\u002F\u002Fgithub.com\u002Fautoml",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.9,{"name":88,"color":89,"percentage":90},"Shell","#89e051",0.1,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",0,2536,304,"2026-04-02T02:58:49","Apache-2.0",4,"未说明","16GB+ (时间序列预测任务明确建议设置内存限制为 16GB，因该任务内存消耗较大)",{"notes":103,"python":104,"dependencies":105},"1. 推荐使用 Anaconda 进行环境管理和安装。\n2. 安装前需初始化 'automl_common' 子模块 (git submodule update --init --recursive)。\n3. 时间序列预测功能需要额外安装依赖 (pip install autoPyTorch[forecasting])。\n4. 从 v0.0.2 升级到 v0.1.0 会导致 API 不兼容。","3.8",[106,107,108,109],"swig","SMAC3","scikit-learn","sktime (时间序列任务可选)",[13,51],[75,112,113,114],"deep-learning","tabular-data","pytorch","2026-03-27T02:49:30.150509","2026-04-06T05:16:08.209041",[118,123,128,133,138,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},17671,"遇到 'RuntimeError: No models fit during training' 错误怎么办？","该错误通常表示在指定的最大运行时间（max_runtime）或预算内没有模型成功完成训练。解决方法包括：1. 增加 max_runtime 或调整 budget_type（如设置为 'epochs' 并增大 max_budget）；2. 检查数据集格式是否正确，确保数据读取函数能正确处理 CSV 或其他格式文件；3. 确认输入数据形状是否符合要求，避免类似 'list' object has no attribute 'reshape' 的属性错误。如果问题持续，建议通过邮件联系维护者提供具体数据集以获取进一步指导。","https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fissues\u002F7",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},17672,"为什么无法导入 AutoNetClassification 或 AutoNetRegression？","在 AutoPyTorch v0.1.0 及更高版本中，API 发生了变化。旧的 `AutoNetClassification` 和 `AutoNetRegression` 类已被弃用或移动。建议使用新的 API：对于表格回归任务，请使用 `autoPyTorch.api.tabular_regression.TabularRegressionTask`；对于分类任务，请使用 `autoPyTorch.api.tabular_classification.TabularClassificationTask`。此外，请确保使用的是正确的分支（如 master），并注意 Python 版本兼容性（推荐 Python 3.8+），避免因环境不一致导致的导入错误。","https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fissues\u002F253",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},17673,"处理极长时间序列数据时出现评估失败（ValueError: Expected parameter df ...）如何解决？","当时间序列数据过长时，可能会触发内部统计分布参数的约束错误。解决方案包括：1. 尝试截断时间序列长度，仅使用前 N 个数据点进行测试，以验证是否是长度导致的问题；2. 使用论文复现专用的代码分支（如 https:\u002F\u002Fgithub.com\u002Fdengdifan\u002FAuto-PyTorch\u002Ftree\u002Fecml22_apt_ts），该分支针对长序列进行了优化；3. 注意某些指标（如 MASE）仅用于最终评估，训练时应使用负对数似然损失（DistributionLoss），避免在每个迭代步骤进行昂贵的验证推理。","https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fissues\u002F462",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},17674,"在大规模数据集上运行时出现 'Dummy prediction failed with run state StatusType.CRASHED' 错误怎么办？","该错误常出现在高维特征（如 20000 维）或大数据量场景下，可能由内存不足或临时文件写入失败引起。建议措施：1. 暂时改用 CPU 运行，因为 GPU 支持在大尺寸数据上可能尚不稳定；2. 设置环境变量限制线程数以减少资源竞争，例如：`os.environ['OMP_NUM_THREADS'] = '10'`、`os.environ['MKL_NUM_THREADS'] = '10'`；3. 显式指定临时文件夹路径：`os.environ['JOBLIB_TEMP_FOLDER'] = '\u002Ftmp'`；4. 在初始化任务时设置 `n_jobs=1` 或较小值，避免多进程冲突。","https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fissues\u002F391",{"id":139,"question_zh":140,"answer_zh":141,"source_url":137},17675,"如何正确配置 AutoPyTorch 以使用 GPU 加速搜索过程？","虽然可以设置 `cuda=True` 或在环境中指定 `CUDA_VISIBLE_DEVICES=0`，但在某些版本中 GPU 支持仍不完善，尤其对于大模型或高维数据。若发现 GPU 显存占用极低（如仅 256MiB）且无加速效果，建议先切换回 CPU 模式运行。如需尝试 GPU，请确保：1. 安装兼容的 PyTorch CUDA 版本；2. 在 `fit()` 或 `search()` 方法中明确启用 `cuda=True`；3. 限制并行线程数（如 `n_jobs=1`）以避免资源争抢。维护者提示目前优先保证 CPU 稳定性，GPU 功能仍在测试中。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":127},17676,"AutoPyTorch 不同版本之间有哪些主要差异？应该使用哪个版本？","AutoPyTorch v0.0.2 已不再维护，相关代码移至 `master-old` 分支。当前推荐使用 v0.1.0 或更新版本（位于 `master` 分支），其引入了全新的模块化 API（如 TabularClassificationTask）。旧版中的 AutoNet* 类在新版中可能被移除或重构。若需复现早期论文结果，可参考特定实验分支（如 ecml22_apt_ts）。升级时请注意检查导入路径变化，并重新配置超参数搜索空间以适应新接口。",[147,152,157,162],{"id":148,"version":149,"summary_zh":150,"released_at":151},107980,"v0.2.1","* [修复] 由@dengdifan在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F459中向pip数据文件添加预测初始化设计\n* 由@dengdifan在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F464中添加的时间序列数据集划分检查\n* [修复] 由@dengdifan在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F467中实现的时间序列预测任务数值稳定性缩放\n* [修复] 由@ravinkohli在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F466中修复的`fit_pipeline`中的管道选项\n* [修复] 由@ravinkohli在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F465中处理缺失测试数据的结果管理和可视化\n* [新增] 由@ravinkohli在https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F471中实现的在最终集成中以并行方式稳健地重新拟合模型\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fcompare\u002Fv0.2...0.2.1","2022-08-23T16:45:37",{"id":153,"version":154,"summary_zh":155,"released_at":156},107981,"v0.2","## 变更内容\n* 修复 #361，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F367 中完成\n* [新增] 测试评估器，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F368 中完成\n* [修复] 简单增强器中无训练的调试热修复，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F370 中完成\n* [修复] 将 ndarray 的 dtype 规范中的 int 更改为 np.int32，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F371 中完成\n* [新增] 方差阈值筛选，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F373 中完成\n* [新增] 来自 autosklearn 的缩放器，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F372 中完成\n* [修复] 移除冗余的类别型数据插补，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F375 中完成\n* [功能] 添加合并器，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F376 中完成\n* 修复：提交时的关键字参数，由 @eddiebergman 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F384 中完成\n* [修复] 内存中的数据管理器，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F382 中完成\n* [功能] 为 APT 添加新的任务推断功能，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F386 中完成\n* [修复] 更新 SMAC 版本，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F388 中完成\n* [新增] 数据集压缩，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F387 中完成\n* [重构] 修复 SparseMatrixType → spmatrix，并添加 ispandas，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F397 中完成\n* [新增] 来自 autosklearn 的特征预处理工具，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F378 中完成\n* [功能] 为 autoPyTorchEnum 添加 __str__ 方法，由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F405 中完成\n* [新增] 数据集子采样，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F398 中完成\n* 修复 GitHub 的 dist twine 检查，由 @dengdifan 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F439 中完成\n* 时间序列预测，由 @dengdifan 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F434 中完成\n* gluonts 中的 fit 更新，由 @dengdifan 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F445 中完成\n* 预测任务的文档，由 @dengdifan 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F443 中完成\n* [新增] 允许用户将特征类型传递给表格验证器，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F441 中完成\n* [发布] v0.2 版本的变更，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F446 中完成\n* [修复] 文档和 Docker 工作流文件，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F449 中完成\n* [新增] 发布版本的日志，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F450 中完成\n* [发布] v0.2 版本发布，由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F448 中完成\n\n## 新贡献者\n* @dengdifan 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F439 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fcompare\u002Fv0.1.1...v0.2","2022-07-18T11:07:31",{"id":158,"version":159,"summary_zh":160,"released_at":161},107982,"v0.1.1","## 变更内容\n* 由 @urbanmatthias 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F1 中修复了 README 文件。\n* 由 @LMZimmer 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F17 中将开发分支更新至 0.0.2 版本。\n* 由 @jonathanburns 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F36 中将填充值设置为完整数据集的最大值加 1。\n* 由 @thatch 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F47 中将缺失文件包含到 sdist 中。\n* 由 @ntnguyen-dev 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F43 中在将其添加为超参数之前对取值范围集合进行排序。\n* 由 @dwoiwode 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F73 中完成了完整的图像分类流程。\n* 由 @daikikatsuragawa 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F64 中进行了文档格式化。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F78 中允许在 include 中指定网络类型。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F80 中更新了搜索空间。\n* 由 @bastiscode 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F81 中清理了网络相关代码。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F82 中确保管道的性能至少为 0.8。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F83 中重构了开发文档。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F86 中实现了特征预处理器和损失策略。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F89 中处理了输入数据以适配 AutoPyTorch。\n* 由 @bastiscode 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F85 中添加了表格回归管道。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F94 中修复了加权损失问题。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F84 中降低了死锁发生的概率。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F118 中处理了分类列中的 NaN 值。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F112 中提前获取 OpenML 数据用于 pytest 测试。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F91 中实现了嵌入层。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F126 中修复了与 automlbenchmark 相关的问题。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F129 中修复了测试 API 中的 bug。\n* 由 @nabenabe0928 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F105 中重构了基础数据集。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F113 中将优化目标改为最小化问题。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F133 中修复了 FIX_123 问题。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F124 中增加了更多自定义 AutoPyTorch 的示例。\n* 由 @franchuterivera 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F141 中实现了更好的传统管道截止时间功能。\n* 由 @ravinkohli 在 https:\u002F\u002Fgithub.com\u002Fautoml\u002FAuto-PyTorch\u002Fpull\u002F146 中更新了超参数搜索空间，新增了常量和 include 功能。\n* 由 @franchuterivera 在 https: 中修复了传统管道中随机停止的问题。","2021-11-23T18:41:33",{"id":163,"version":164,"summary_zh":165,"released_at":166},107983,"v0.0.2","支持图像数据的 Auto-PyTorch 首个预Alpha版本","2019-10-09T18:19:44"]