[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-microsoft--FLAML":3,"tool-microsoft--FLAML":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":108,"forks":109,"last_commit_at":110,"license":111,"difficulty_score":112,"env_os":113,"env_gpu":113,"env_ram":113,"env_deps":114,"category_tags":123,"github_topics":124,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":144,"updated_at":145,"faqs":146,"releases":175},3936,"microsoft\u002FFLAML","FLAML","A fast library for AutoML and tuning. Join our Discord: https:\u002F\u002Fdiscord.gg\u002FCppx2vSPVP.","FLAML 是一款由微软研发的高效轻量级 Python 库，专注于自动化机器学习（AutoML）与超参数调优。它旨在解决传统 AI 工作流中模型选择繁琐、调参成本高以及在有限计算资源下难以快速获得优质模型的痛点。无论是常见的分类、回归任务，还是大语言模型的推理参数优化、MLOps 流程配置，FLAML 都能凭借智能算法在巨大的搜索空间中迅速找到最佳方案，显著降低时间与算力消耗。\n\n这款工具特别适合开发者、数据科学家及研究人员使用。对于希望快速构建基准模型的业务人员，或是需要深入定制算法的研究者，FLAML 都提供了灵活且平滑的扩展能力。其核心亮点在于独特的“经济型”自动化策略：它能根据用户设定的资源约束（如时间或内存），动态调整搜索策略，兼顾效率与效果。此外，FLAML 不仅支持从 Python 3.10 到 3.12 的最新环境，还深度集成了 MLflow，并拥有坚实的学术研究背景。只需几行代码，用户即可将其作为 scikit-learn 风格的接口轻松接入现有项目，让复杂的模型调优变得简单可控。","[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FFLAML.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FFLAML)\n![Conda version](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fconda-forge\u002Fflaml)\n[![Build](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Factions\u002Fworkflows\u002Fpython-package.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Factions\u002Fworkflows\u002Fpython-package.yml)\n[![PyPI - Python Version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002FFLAML)](https:\u002F\u002Fpypi.org\u002Fproject\u002FFLAML\u002F)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_FLAML_readme_334768c2f0ff.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fflaml)\n[![](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1025786666260111483?logo=discord&style=flat)](https:\u002F\u002Fdiscord.gg\u002FCppx2vSPVP)\n\n\u003C!-- [![Join the chat at https:\u002F\u002Fgitter.im\u002FFLAMLer\u002Fcommunity](https:\u002F\u002Fbadges.gitter.im\u002FFLAMLer\u002Fcommunity.svg)](https:\u002F\u002Fgitter.im\u002FFLAMLer\u002Fcommunity?utm_source=badge&utm_medium=badge&utm_campaign=pr-badge&utm_content=badge) -->\n\n# A Fast Library for Automated Machine Learning & Tuning\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fblob\u002Fmain\u002Fwebsite\u002Fstatic\u002Fimg\u002Fflaml.svg\"  width=200>\n    \u003Cbr>\n\u003C\u002Fp>\n\n:fire: FLAML supports AutoML and Hyperparameter Tuning in [Microsoft Fabric Data Science](https:\u002F\u002Flearn.microsoft.com\u002Fen-us\u002Ffabric\u002Fdata-science\u002Fautomated-machine-learning-fabric). In addition, we've introduced Python 3.11 and 3.12 support, along with a range of new estimators, and comprehensive integration with MLflow—thanks to contributions from the Microsoft Fabric product team.\n\n:fire: Heads-up: [AutoGen](https:\u002F\u002Fmicrosoft.github.io\u002Fautogen\u002F) has moved to a dedicated [GitHub repository](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fautogen). FLAML no longer includes the `autogen` module—please use AutoGen directly.\n\n## What is FLAML\n\nFLAML is a lightweight Python library for efficient automation of machine\nlearning and AI operations. It automates workflow based on large language models, machine learning models, etc.\nand optimizes their performance.\n\n- FLAML enables economical automation and tuning for ML\u002FAI workflows, including model selection and hyperparameter optimization under resource constraints.\n- For common machine learning tasks like classification and regression, it quickly finds quality models for user-provided data with low computational resources. It is easy to customize or extend. Users can find their desired customizability from a smooth range.\n- It supports fast and economical automatic tuning (e.g., inference hyperparameters for foundation models, configurations in MLOps\u002FLMOps workflows, pipelines, mathematical\u002Fstatistical models, algorithms, computing experiments, software configurations), capable of handling large search space with heterogeneous evaluation cost and complex constraints\u002Fguidance\u002Fearly stopping.\n\nFLAML is powered by a series of [research studies](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FResearch\u002F) from Microsoft Research and collaborators such as Penn State University, Stevens Institute of Technology, University of Washington, and University of Waterloo.\n\nFLAML has a .NET implementation in [ML.NET](http:\u002F\u002Fdot.net\u002Fml), an open-source, cross-platform machine learning framework for .NET.\n\n## Installation\n\nThe latest version of FLAML requires **Python >= 3.10 and \u003C 3.14**. While other Python versions may work for core components, full model support is not guaranteed. FLAML can be installed via `pip`:\n\n```bash\npip install flaml\n```\n\nMinimal dependencies are installed without extra options. You can install extra options based on the feature you need. For example, use the following to install the dependencies needed by the [`automl`](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML) module.\n\n```bash\npip install \"flaml[automl]\"\n```\n\nFind more options in [Installation](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FInstallation).\nEach of the [`notebook examples`](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Ftree\u002Fmain\u002Fnotebook) may require a specific option to be installed.\n\n## Quickstart\n\n- With three lines of code, you can start using this economical and fast\n  AutoML engine as a [scikit-learn style estimator](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML).\n\n```python\nfrom flaml import AutoML\n\nautoml = AutoML()\nautoml.fit(X_train, y_train, task=\"classification\")\n```\n\n- You can restrict the learners and use FLAML as a fast hyperparameter tuning\n  tool for XGBoost, LightGBM, Random Forest etc. or a [customized learner](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML#estimator-and-search-space).\n\n```python\nautoml.fit(X_train, y_train, task=\"classification\", estimator_list=[\"lgbm\"])\n```\n\n- You can also run generic hyperparameter tuning for a [custom function](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTune-User-Defined-Function).\n\n```python\nfrom flaml import tune\n\ntune.run(\n    evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600\n)\n```\n\n- [Zero-shot AutoML](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FZero-Shot-AutoML) allows using the existing training API from lightgbm, xgboost etc. while getting the benefit of AutoML in choosing high-performance hyperparameter configurations per task.\n\n```python\nfrom flaml.default import LGBMRegressor\n\n# Use LGBMRegressor in the same way as you use lightgbm.LGBMRegressor.\nestimator = LGBMRegressor()\n# The hyperparameters are automatically set according to the training data.\nestimator.fit(X_train, y_train)\n```\n\n## Documentation\n\nYou can find a detailed documentation about FLAML [here](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002F).\n\nIn addition, you can find:\n\n- [Research](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FResearch) and [blogposts](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fblog) around FLAML.\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FCppx2vSPVP).\n\n- [Contributing guide](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FContribute).\n\n- ML.NET documentation and tutorials for [Model Builder](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Ftutorials\u002Fpredict-prices-with-model-builder), [ML.NET CLI](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Ftutorials\u002Fsentiment-analysis-cli), and [AutoML API](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Fhow-to-guides\u002Fhow-to-use-the-automl-api).\n\n## Contributing\n\nThis project welcomes contributions and suggestions. Most contributions require you to agree to a\nContributor License Agreement (CLA) declaring that you have the right to, and actually do, grant us\nthe rights to use your contribution. For details, visit \u003Chttps:\u002F\u002Fcla.opensource.microsoft.com>.\n\nIf you are new to GitHub [here](https:\u002F\u002Fhelp.github.com\u002Fcategories\u002Fcollaborating-with-issues-and-pull-requests\u002F) is a detailed help source on getting involved with development on GitHub.\n\nWhen you submit a pull request, a CLA bot will automatically determine whether you need to provide\na CLA and decorate the PR appropriately (e.g., status check, comment). Simply follow the instructions\nprovided by the bot. You will only need to do this once across all repos using our CLA.\n\nThis project has adopted the [Microsoft Open Source Code of Conduct](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002F).\nFor more information see the [Code of Conduct FAQ](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002Ffaq\u002F) or\ncontact [opencode@microsoft.com](mailto:opencode@microsoft.com) with any additional questions or comments.\n\n## Contributors Wall\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fflaml\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_FLAML_readme_9204c734fea7.png\" \u002F>\n\u003C\u002Fa>\n","[![PyPI版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FFLAML.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FFLAML)\n![Conda版本](https:\u002F\u002Fimg.shields.io\u002Fconda\u002Fvn\u002Fconda-forge\u002Fflaml)\n[![构建](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Factions\u002Fworkflows\u002Fpython-package.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Factions\u002Fworkflows\u002Fpython-package.yml)\n[![PyPI - Python版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002FFLAML)](https:\u002F\u002Fpypi.org\u002Fproject\u002FFLAML\u002F)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_FLAML_readme_334768c2f0ff.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fflaml)\n[![](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1025786666260111483?logo=discord&style=flat)](https:\u002F\u002Fdiscord.gg\u002FCppx2vSPVP)\n\n\u003C!-- [![加入聊天 https:\u002F\u002Fgitter.im\u002FFLAMLer\u002Fcommunity](https:\u002F\u002Fbadges.gitter.im\u002FFLAMLer\u002Fcommunity.svg)](https:\u002F\u002Fgitter.im\u002FFLAMLer\u002Fcommunity?utm_source=badge&utm_medium=badge&utm_campaign=pr-badge&utm_content=badge) -->\n\n# 一个用于自动化机器学习与调参的快速库\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fblob\u002Fmain\u002Fwebsite\u002Fstatic\u002Fimg\u002Fflaml.svg\"  width=200>\n    \u003Cbr>\n\u003C\u002Fp>\n\n:fire: FLAML 支持在 [Microsoft Fabric 数据科学](https:\u002F\u002Flearn.microsoft.com\u002Fen-us\u002Ffabric\u002Fdata-science\u002Fautomated-machine-learning-fabric) 中进行 AutoML 和超参数调优。此外，我们还引入了对 Python 3.11 和 3.12 的支持，并新增了一系列估算器，同时与 MLflow 实现了全面集成——这得益于 Microsoft Fabric 产品团队的贡献。\n\n:fire: 注意：[AutoGen](https:\u002F\u002Fmicrosoft.github.io\u002Fautogen\u002F) 已迁移到专门的 [GitHub 仓库](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fautogen)。FLAML 现已不再包含 `autogen` 模块，请直接使用 AutoGen。\n\n## FLAML 是什么\n\nFLAML 是一个轻量级的 Python 库，用于高效自动化机器学习和 AI 操作。它能够基于大型语言模型、机器学习模型等自动执行工作流，并优化其性能。\n\n- FLAML 能够在资源受限的情况下，经济高效地实现 ML\u002FAI 工作流的自动化与调优，包括模型选择和超参数优化。\n- 对于分类和回归等常见机器学习任务，FLAML 可以在计算资源有限的情况下，快速为用户提供高质量的模型。它易于自定义或扩展，用户可以在平滑的范围内找到所需的自定义程度。\n- 它支持快速且经济高效的自动调优（例如，基础模型的推理超参数、MLOps\u002FLMOps 工作流中的配置、管道、数学\u002F统计模型、算法、计算实验、软件配置等），能够处理具有异构评估成本和复杂约束\u002F指导条件\u002F提前停止机制的大搜索空间。\n\nFLAML 的背后是一系列来自微软研究院以及宾夕法尼亚州立大学、史蒂文斯理工学院、华盛顿大学和滑铁卢大学等合作机构的[研究](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FResearch\u002F)成果。\n\nFLAML 在 [ML.NET](http:\u002F\u002Fdot.net\u002Fml) 中也有 .NET 实现，ML.NET 是一个面向 .NET 的开源跨平台机器学习框架。\n\n## 安装\n\n最新版本的 FLAML 需要 **Python >= 3.10 且 \u003C 3.14**。虽然其他 Python 版本可能适用于核心组件，但无法保证完全支持所有模型。FLAML 可以通过 `pip` 安装：\n\n```bash\npip install flaml\n```\n\n不带额外选项时会安装最小依赖项。您可以根据所需功能安装额外选项。例如，使用以下命令安装 [`automl`](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML) 模块所需的依赖项。\n\n```bash\npip install \"flaml[automl]\"\n```\n\n更多选项请参阅 [安装指南](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FInstallation)。每个 [`notebook 示例`](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Ftree\u002Fmain\u002Fnotebook) 可能需要安装特定的选项。\n\n## 快速入门\n\n- 仅需三行代码，您就可以将这个经济高效、快速的 AutoML 引擎作为 [scikit-learn 风格的估算器](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML) 使用。\n\n```python\nfrom flaml import AutoML\n\nautoml = AutoML()\nautoml.fit(X_train, y_train, task=\"classification\")\n```\n\n- 您可以限制使用的模型类型，将 FLAML 用作 XGBoost、LightGBM、随机森林等的快速超参数调优工具，或者作为 [自定义估算器](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTask-Oriented-AutoML#estimator-and-search-space)。\n\n```python\nautoml.fit(X_train, y_train, task=\"classification\", estimator_list=[\"lgbm\"])\n```\n\n- 您还可以针对 [自定义函数](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FTune-User-Defined-Function) 运行通用的超参数调优。\n\n```python\nfrom flaml import tune\n\ntune.run(\n    evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600\n)\n```\n\n- [零样本 AutoML](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FZero-Shot-AutoML) 允许您在使用 lightgbm、xgboost 等现有训练 API 的同时，享受 AutoML 带来的优势，为每项任务选择高性能的超参数配置。\n\n```python\nfrom flaml.default import LGBMRegressor\n\n# 以与 lightgbm.LGBMRegressor 相同的方式使用 LGBMRegressor。\nestimator = LGBMRegressor()\n# 超参数会根据训练数据自动设置。\nestimator.fit(X_train, y_train)\n```\n\n## 文档\n\n您可以在 [这里](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002F) 找到关于 FLAML 的详细文档。\n\n此外，您还可以找到：\n\n- 关于 FLAML 的[研究](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FResearch)和[博客文章](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fblog)。\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FCppx2vSPVP)。\n\n- [贡献指南](https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FContribute)。\n\n- ML.NET 文档和教程，包括 [Model Builder](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Ftutorials\u002Fpredict-prices-with-model-builder)、[ML.NET CLI](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Ftutorials\u002Fsentiment-analysis-cli) 以及 [AutoML API](https:\u002F\u002Flearn.microsoft.com\u002Fdotnet\u002Fmachine-learning\u002Fhow-to-guides\u002Fhow-to-use-the-automl-api)。\n\n## 贡献\n\n本项目欢迎贡献和建议。大多数贡献都需要您签署贡献者许可协议（CLA），声明您有权且确实将您的贡献使用权授予我们。有关详细信息，请访问 \u003Chttps:\u002F\u002Fcla.opensource.microsoft.com>。\n\n如果您是 GitHub 新手，[这里](https:\u002F\u002Fhelp.github.com\u002Fcategories\u002Fcollaborating-with-issues-and-pull-requests\u002F) 提供了关于如何参与 GitHub 开发的详细帮助文档。\n\n当您提交拉取请求时，CLA 机器人会自动判断您是否需要提供 CLA，并相应地为 PR 添加标记（例如状态检查、评论）。请按照机器人提供的指示操作即可。对于使用我们 CLA 的所有仓库，您只需执行一次此操作。\n\n本项目已采用 [微软开源行为准则](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002F)。更多信息请参阅 [行为准则常见问题解答](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002Ffaq\u002F)，或如有任何其他问题或意见，请联系 [opencode@microsoft.com](mailto:opencode@microsoft.com)。\n\n## 贡献者墙\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002Fflaml\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_FLAML_readme_9204c734fea7.png\" \u002F>\n\u003C\u002Fa>","# FLAML 快速上手指南\n\nFLAML 是一个轻量级的 Python 库，旨在高效自动化机器学习（AutoML）和超参数调优过程。它能在资源受限的情况下，快速为分类、回归等任务找到高质量模型，并支持大语言模型推理参数调优及复杂工作流配置。\n\n## 环境准备\n\n- **操作系统**：Windows, Linux, macOS\n- **Python 版本**：要求 **Python >= 3.10 且 \u003C 3.14**\n  > 注意：虽然其他版本可能运行核心组件，但无法保证完整的模型支持。\n- **前置依赖**：无特殊系统级依赖，安装时会自动处理最小化 Python 依赖包。\n\n## 安装步骤\n\n推荐使用国内镜像源加速安装（如清华大学开源软件镜像站）。\n\n### 1. 基础安装\n仅安装核心功能，依赖最少：\n```bash\npip install flaml -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 按需安装扩展功能\n根据具体使用场景安装额外依赖。例如，使用 AutoML 模块进行任务导向型自动机器学习：\n```bash\npip install \"flaml[automl]\" -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> 提示：不同的 Notebook 示例可能需要特定的扩展选项，请参考官方文档获取更多安装组合。\n\n## 基本使用\n\nFLAML 的使用非常简洁，以下是最常见的几种用法：\n\n### 1. 快速启动 AutoML（三行代码）\n像使用 scikit-learn 一样训练模型，自动完成模型选择和超参数调优：\n```python\nfrom flaml import AutoML\n\nautoml = AutoML()\nautoml.fit(X_train, y_train, task=\"classification\")\n```\n\n### 2. 指定模型进行调优\n限制搜索范围，仅对特定算法（如 LightGBM）进行快速超参数调优：\n```python\nautoml.fit(X_train, y_train, task=\"classification\", estimator_list=[\"lgbm\"])\n```\n\n### 3. 自定义函数调优\n对任意自定义函数进行通用的超参数搜索：\n```python\nfrom flaml import tune\n\ntune.run(\n    evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600\n)\n```\n\n### 4. 零样本 AutoML (Zero-shot AutoML)\n直接使用熟悉的 API（如 lightgbm），但自动获得针对当前数据集优化后的超参数配置：\n```python\nfrom flaml.default import LGBMRegressor\n\n# 用法与原生的 lightgbm.LGBMRegressor 完全一致\nestimator = LGBMRegressor()\n# 超参数会根据训练数据自动设定\nestimator.fit(X_train, y_train)\n```","某电商数据团队需要在有限算力下，快速为百万级用户行为数据构建高精度的流失预测模型。\n\n### 没有 FLAML 时\n- **选型困难且耗时**：数据科学家需手动尝试随机森林、XGBoost、LightGBM 等多种算法，凭经验猜测最佳模型，过程繁琐且容易遗漏更优解。\n- **调参效率低下**：面对几十个超参数组合，传统网格搜索或随机搜索消耗大量计算资源和时间，往往数天才能完成一轮实验。\n- **资源浪费严重**：在缺乏智能早停机制的情况下，大量无效的参数组合会跑完整个训练周期，导致昂贵的 GPU\u002FCPU 算力被低效占用。\n- **门槛高不可攀**：初级分析师因缺乏深厚的调参经验，难以独立产出高质量模型，过度依赖资深专家。\n\n### 使用 FLAML 后\n- **自动模型优选**：FLAML 根据数据特征自动搜索并锁定表现最佳的算法（如自动发现 CatBoost 在该场景下最优），无需人工逐一试错。\n- **极速超参数优化**：利用基于成本的贝叶斯优化策略，FLAML 能在几分钟内找到接近最优的超参数组合，比传统方法快数十倍。\n- **智能资源调度**：内置的低成本优先搜索与早停机制，自动跳过表现差的配置，将计算资源集中在有潜力的模型上，大幅降低云成本。\n- **开箱即用**：仅需三行代码即可启动自动化流程，让初级成员也能轻松构建出媲美专家水平的机器学习模型。\n\nFLAML 通过智能化的自动机器学习流程，将原本需要数天的模型迭代工作压缩至分钟级，显著降低了 AI 落地的时间与经济成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_FLAML_b112f06a.png","microsoft","Microsoft","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmicrosoft_4900709c.png","Open source projects and samples from Microsoft",null,"opensource@microsoft.com","OpenAtMicrosoft","https:\u002F\u002Fopensource.microsoft.com","https:\u002F\u002Fgithub.com\u002Fmicrosoft",[85,89,93,97,101,104],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",75.6,{"name":90,"color":91,"percentage":92},"Python","#3572A5",23.7,{"name":94,"color":95,"percentage":96},"MDX","#fcb32c",0.5,{"name":98,"color":99,"percentage":100},"JavaScript","#f1e05a",0.1,{"name":102,"color":103,"percentage":100},"CSS","#663399",{"name":105,"color":106,"percentage":107},"Dockerfile","#384d54",0,4316,555,"2026-04-04T19:42:45","MIT",1,"未说明",{"notes":115,"python":116,"dependencies":117},"基础安装仅包含最小依赖，需根据具体功能（如 automl 模块）通过 pip install \"flaml[extra_option]\" 安装额外依赖。AutoGen 模块已移除，需单独安装。支持在资源受限环境下运行，旨在降低计算资源消耗。",">=3.10, \u003C3.14",[118,119,120,121,122],"flaml","scikit-learn (隐含依赖)","lightgbm (可选)","xgboost (可选)","mlflow (可选)",[51,26,54,13],[125,126,127,128,129,130,131,132,133,134,135,136,137,138,139,140,141,142,143],"automl","hyperparam","automated-machine-learning","machine-learning","data-science","python","jupyter-notebook","hyperparameter-optimization","random-forest","scikit-learn","deep-learning","natural-language-processing","natural-language-generation","timeseries-forecasting","classification","regression","tuning","finetuning","tabular-data","2026-03-27T02:49:30.150509","2026-04-06T08:35:13.809491",[147,152,157,162,167,171],{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},17970,"如何通过 Conda 安装 FLAML？","FLAML 现在支持通过 Conda 安装。您可以运行 `conda install flaml` 或 `conda -c conda-forge install flaml` 将 FLAML 安装到当前的 Conda 环境中。注意：由于 catboost 在 Conda 中不可用，为了构建 Conda 包，已将其从依赖项中移除。如果您需要使用 catboost，可能需要单独安装它。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fissues\u002F194",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},17971,"运行 FLAML 示例时出现 'Segmentation fault: 11' 错误怎么办？","该问题通常与 Python 3.9.6 环境下的 lightgbm 库有关，直接调用 lightgbm 也可能导致段错误。解决方案是使用 Conda 环境重新安装和运行。维护者确认：'我能够通过 Conda 成功运行我的示例'。建议创建一个干净的 Conda 环境并安装 FLAML 及其依赖项来避免此问题。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fissues\u002F223",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},17972,"为什么我在 FLAML 中设置的 `starting_points` 参数没有生效？","这是一个已知问题，用户反馈传入 `starting_points` 后，模型仍然使用内部默认值从头开始训练，未应用优化后的参数。维护者已确认该问题并提交了 PR 进行修复。在修复前，建议检查日志或通过调试模式确认对象是否包含优化参数。如果数据量较大且使用了优化参数，求解时间应有显著减少，否则说明参数未被加载。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fissues\u002F1318",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},17973,"如何在 AzureML 中使用 Ray 分布式运行 FLAML 并通过 mlflow 注册最佳模型？","在 AzureML 中使用 mlflow 记录模型时，不需要将 `automl.fit` 包裹在 `with mlflow.start_run()` 上下文中。您应该在 `fit` 执行完毕后，在上下文外部调用 `mlflow.sklearn.log_model` 来获取模型 URI 并注册模型。例如：先运行 `automl.fit(...)`，然后使用 `mlflow.sklearn.log_model(automl.best_model_for_estimator('LearnerA'), \"BestModelLearnerA\")` 记录模型，最后通过 `mlflow.register_model` 进行注册。如果在 `with` 块内执行 fit 可能会引发错误。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fissues\u002F769",{"id":168,"question_zh":169,"answer_zh":170,"source_url":156},17974,"FLAML 的 Conda 包中是否包含 catboost？","不包含。维护者明确指出：'catboost 在 Conda 中不可用，因此我们必须将其从依赖项中移除以制作 Conda 包'。如果您在 Conda 环境中需要使用 catboost 作为估计器，必须单独安装它（例如通过 pip 或其他渠道），但它不会随 `conda install flaml` 自动安装。",{"id":172,"question_zh":173,"answer_zh":174,"source_url":166},17975,"如何更改 FLAML 日志文件的存储目录？","虽然具体配置参数未在对话中详细展开，但用户可以通过 `automl_settings` 中的 `log_file_name` 参数指定日志文件的路径。例如：设置 `\"log_file_name\": \"custom_path\u002Fmy_log.log\"` 可以将日志保存到指定目录。确保该目录具有写入权限，否则可能导致日志记录失败。",[176,181,186,191,196,201,206,211,216,221,226,231,236,241,246,251,256,261,266,271],{"id":177,"version":178,"summary_zh":179,"released_at":180},108345,"v2.5.0","此版本新增对 Python 3.13 的支持，修复了搜索、配置处理和估算器预处理中的多个 bug，并提升了整体的鲁棒性。此外，还对文档进行了重大更新，涵盖了指标、估算器、最佳实践以及层次化搜索空间等内容。大部分工作由 @Copilot 贡献。\n\n## 变更内容\n* 修复最佳实践未显示的问题，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1483 中完成。\n* 修复 isinstance 使用问题，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1488 中完成。\n* 添加对 Python 3.13 的支持，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1486 中完成。\n* 为 LGBMEstimator 搜索空间添加 objective 参数，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1474 中完成。\n* 修复 BlendSearch OptunaSearch 在非层次化空间中使用 Ray Tune 域时的警告，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1477 中完成。\n* 修复：在 best_config_per_estimator 中保留 FLAML_sample_size，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1475 中完成。\n* 将版本号提升至 2.5.0，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1492 中完成。\n* 为 AutoML 文档字符串添加全面的指标文档及 URL 引用，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1471 中完成。\n* 扩展文档以包含所有 flaml 化的估算器，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1472 中完成。\n* 修复 Task-Oriented-AutoML.md 中的缩进问题，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1493 中完成。\n* 修复 SearchThread 中嵌套字典合并时丢失采样超参数的问题，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1494 中完成。\n* 为 FLAML 仓库添加 GitHub Copilot 使用说明，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1502 中完成。\n* 修复带有分类特征的 XGBoost 估算器的 eval_set 预处理问题，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1470 中完成。\n* 记录 AutoML 估算器的缺失值处理行为，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1473 中完成。\n* 文档明确集成模型中的 final_estimator 参数不会被自动调优，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1499 中完成。\n* 为 custom_metric 参数添加验证并提供清晰的错误信息，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1500 中完成。\n* 在日志输出中使用科学计数法显示最佳误差，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1498 中完成。\n* 为分类留出策略添加可配置的标签重叠处理方式，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1491 中完成。\n* 明确时间序列预测中的 period 参数及自动标签滞后功能，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1495 中完成。\n* 将任务级和估算器级的预处理器作为公共 API 公开，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1497 中完成。\n* 添加层次化搜索空间文档，由 @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1496 中完成。\n* 更新 Copilot 使用说明，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1505 中完成。\n\n\n**完整变更日志**：https:\u002F\u002F","2026-01-21T08:49:04",{"id":182,"version":183,"summary_zh":184,"released_at":185},108346,"v2.4.1","本次发布包含了全面的文档更新，以反映项目近期的各项变更；新增了最佳实践页面；引入了对整个 AutoML 实例进行序列化（pickling）的支持；并修复了若干 bug。\n\n## 变更内容\n* 更新 README 文件，并通过 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1478 中为 macOS 测试启用了所有 Python 版本。\n* 为测试添加超时机制，并移除 macOS 测试环境，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1479 中完成。\n* 支持对整个 AutoML 实例进行序列化，同步 Fabric 至 0d4ab16f 提交，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1481 中实现。\n* 更新文档、将版本号提升至 2.4.1，并同步 Fabric 至 088cfb98 提交，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1482 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.4.0...v2.4.1","2026-01-13T04:57:32",{"id":187,"version":188,"summary_zh":189,"released_at":190},108347,"v2.4.0","## 新增对 Python 3.12 的支持\n本次发布正式引入了对 Python 3.12 的支持，并包含多项 bug 修复和功能增强，以提升稳定性、性能及整体用户体验。\n\n感谢 @Sm1Ling、@konabuta 以及其他所有贡献者提交的拉取请求、报告的问题、代码评审和测试工作。\n\n欢迎 @Sm1Ling 和 @konabuta 加入社区！\n\n## 变更内容\n* 由 @Sm1Ling 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1455 中修复 OSError: [Errno 24] 打开的文件过多：'nul' 错误。\n* @thinkall 将版本号升级至 2.3.7，详见 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1457。\n* @konabuta 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1458 中将 loc 方法的第二个参数更新为列名。\n* 在 \u002Fwebsite 中，由 @dependabot[bot] 将 algoliasearch-helper 从 3.11.1 升级至 3.26.0，详见 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1461。\n* @thinkall 更新了 README 文件，将版本号升级至 2.4.0，并修复了 CI 构建错误，详情见 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1466。\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1467 中新增对 Python 3.12 的支持，并同步 Fabric 至 dc382961 提交。\n* @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1469 中修复了导致时间序列模型出现 IndexError 的 log_training_metric 问题。\n\n## 新晋贡献者\n* @Sm1Ling 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1455 中完成了首次贡献。\n* @konabuta 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1458 中完成了首次贡献。\n* @Copilot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1469 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.6...v2.4.0","2026-01-10T10:49:23",{"id":192,"version":193,"summary_zh":194,"released_at":195},108348,"v2.3.6","本次发布修复了一个 bug，并优化了文档，以提供更流畅、更友好的用户体验。\n\n## 变更内容\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1448 中改进 FAQ 文档\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1450 中修复自定义 k-fold 方法中需要 'y' 参数的 TypeError\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1451 中将版本号升级至 2.3.6\n* 由 @dependabot[bot] 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1453 中将 brace-expansion 从 1.1.11 升级至 1.1.12，并更新 \u002Fwebsite 目录下的依赖\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.5...v2.3.6","2025-08-15T02:33:00",{"id":197,"version":198,"summary_zh":199,"released_at":200},108349,"v2.3.5","本次发布包含多项错误修复和功能增强，旨在提升整体用户体验。主要更新如下：\n\n- **改进的 MLflow 日志记录**：MLflow 日志记录现为部分异步模式，显著提升了日志记录性能。\n\n- **新增工具函数**：\n\n  - 添加了 `get_random_dataframe`，用于生成随机测试数据。\n  \n  - 添加了 `auto_convert_dtypes_spark` 和 `auto_convert_dtypes_pandas`，用于自动进行数据类型转换。\n\n  > 这些工具函数现已集成至 `flaml.automl.data` 模块中。\n\n- **Python 3.8 已弃用**：自本版本起，正式停止对 Python 3.8 的支持。\n\n感谢 @SkBlaz、@Stickic-cyber、@hexiang-x、@murunlin 以及所有其他贡献者提交的 Pull Request、报告的问题、代码评审和测试工作。\n\n同时，热烈欢迎 @SkBlaz、@Stickic-cyber、@hexiang-x 和 @murunlin 加入社区！\n\n## 变更内容\n* 版本升级至 2.3.5，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1409 中完成。\n* 升级 setuptools 以修复 Python 3.8 和 3.9 中的流水线错误，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1410 中完成。\n* 改进无 scikit-learn 时的错误处理，由 @SkBlaz 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1402 中完成。\n* 将 \u002Fwebsite 目录下的 @babel\u002Fruntime-corejs3 从 7.20.1 升级至 7.26.10，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1412 中完成。\n* 将 \u002Fwebsite 目录下的 prismjs 从 1.29.0 升级至 1.30.0，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1411 中完成。\n* 将 \u002Fwebsite 目录下的 @babel\u002Fruntime 从 7.20.1 升级至 7.26.10，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1414 中完成。\n* 将 \u002Fwebsite 目录下的 @babel\u002Fhelpers 从 7.20.1 升级至 7.26.10，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1413 中完成。\n* 修复当 `max_iter=1` 时出现“列表索引超出范围”的问题，由 @Stickic-cyber 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1419 中完成。\n* 目前尚不支持 NumPy 2.x，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1424 中提出。\n* 撤销“目前尚不支持 NumPy 2.x”的说明，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1426 中完成。\n* 将 \u002Fwebsite 目录下的 http-proxy-middleware 从 2.0.7 升级至 2.0.9，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1425 中完成。\n* 修复：当同时设置 `use_spark = True` 和 `mlflow_logging = True` 时，在记录最佳模型时会报错：“NoneType”对象没有属性 ‘save’——某处存在问题，由 @hexiang-x 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1432 中完成。\n* 修复：`best_model_for_estimator` 返回的特征重要性与 `automl.model` 不一致的问题，由 @murunlin 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1429 中完成。\n* 同步 Fabric 至 2cd1c3da 提交，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1433 中完成。\n* 为参数 ‘verbose’ 添加详细说明，由 @murunlin 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1435 中完成。\n* 同步 Fabric 至 deb6dbee 提交，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1438 中完成。\n* 在 GitHub Actions 中将 Python 3.8 升级至 3.10，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1440 中完成。\n* 修复 CD 流程中的问题，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpu","2025-05-28T05:03:08",{"id":202,"version":203,"summary_zh":204,"released_at":205},108350,"v2.3.4","本次发布修复了一些 bug，并提升了用户体验。\n\n感谢 @drwillcharles、@dannycg1996 以及所有其他贡献者提交的 PR、报告的问题、代码评审和测试工作。\n\n欢迎 @drwillcharles 加入社区！\n\n## 变更内容\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1389 中将版本号升级至 2.3.4\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1406 中修复了测试卡死问题\n* 由 @drwillcharles 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1392 中针对 ray>=2 修改了 tune.report 的导入方式\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1407 中将 \u002Fwebsite 目录下的 serialize-javascript 从 6.0.0 升级至 6.0.2\n* 修复：由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1405 中修复了分组折叠与样本权重无法同时使用的问题\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1408 中修复了 params pop 抛出错误的问题\n\n## 新加入的贡献者\n* @drwillcharles 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1392 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.3...v2.3.4","2025-02-17T08:54:50",{"id":207,"version":208,"summary_zh":209,"released_at":210},108351,"v2.3.3","本次发布修复了一些 bug，并提升了用户体验。\n\n感谢 @kernelmethod、@EgorKraevTransferwise、@dannycg1996 以及所有其他贡献者提交的 PR、报告的问题、参与代码评审和测试。\n\n欢迎 @kernelmethod 加入社区！\n\n## 变更内容\n* 由 @kernelmethod 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1377 中修复了在导入 FLAML 时可能出现的日志记录问题。\n* 由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1378 中将版本号升级至 2.3.3。\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1379 中将 \u002Fwebsite 目录下的 cross-spawn 依赖从 7.0.3 升级至 7.0.6。\n* 由 @EgorKraevTransferwise 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1382 中将 cost_attr 和 cost_budget 参数从 flaml.tune.run() 传递给搜索算法。\n* 修复：由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1383 中修复了与 CatBoost 和分组相关的问题。\n* 由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1387 中将 \u002Fwebsite 目录下的 nanoid 依赖从 3.3.6 升级至 3.3.8。\n* 修复：当为回归任务使用 groupfolds 时，不再出现 KeyError 错误。由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1385 中完成。\n\n## 新贡献者\n* @kernelmethod 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1377 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.2...v2.3.3","2024-12-18T02:15:02",{"id":212,"version":213,"summary_zh":214,"released_at":215},108352,"v2.3.2","本次发布提升了多个模型的可复现性。非常感谢 @dannycg1996！\n\n感谢 @dannycg1996、@smty2018、@Programmer-RD-AI 以及所有其他贡献者，感谢你们提交的 PR、报告的问题、代码评审和测试工作。\n\n## 变更内容\n* 修复：交叉验证流程并非总是能够完整执行，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1360 中完成。\n* 测试：添加测试以验证模型的可复现性，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1362 中完成。\n* 修复：FLAML 中的 CatBoost 指标不可复现，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1364 中修复。\n* 文档中补充说明：当 retrain_full = True 时，不会将用户提供的验证数据纳入训练集。#1228，由 @smty2018 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1245 中完成。\n* 移除过时注释，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1366 中完成。\n* 将 \u002Fwebsite 目录下的 http-proxy-middleware 从 2.0.6 升级至 2.0.7，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1370 中完成。\n* 版本升级至 2.3.2，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1372 中完成。\n* 修复数据转换问题、Spark log_loss 指标的计算错误以及 json.dumps 的 TypeError（Sync Fabric 至 3c545e67），由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1371 中完成。\n* 修复：确保 ElasticNetEstimator 的可复现性，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1374 中完成。\n* 修复：LinearSVC 的结果现在可复现，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1376 中完成。\n* 添加关于 `automl.model.estimator` 使用方法的文档，由 @Programmer-RD-AI 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1311 中完成。\n* FLAML：修复 LGBM 的可复现性，由 @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1369 中完成。\n\n## 新贡献者\n* @dannycg1996 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1360 中完成了首次贡献。\n* @smty2018 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1245 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.1...v2.3.2","2024-11-01T02:22:28",{"id":217,"version":218,"summary_zh":219,"released_at":220},108353,"v2.3.1","热修复版本，用于解决两个紧急问题。\n\n感谢 @ianhelle 和 @harupy 报告这些问题。也感谢 @harupy 和 @leafy-lee 对拉取请求的评审。\n\n## 变更内容\n* 添加贡献者墙，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1341 中完成\n* 添加 2024 年自动化机器学习教程信息，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1344 中完成\n* 将 \u002Fwebsite 目录下的 micromatch 从 4.0.5 升级至 4.0.8，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1343 中完成\n* 将 \u002Fwebsite 目录下的 webpack 从 5.76.1 升级至 5.94.0，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1342 中完成\n* 删除临时 pickle 文件，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1354 中完成\n* 支持在没有自动化机器学习依赖的情况下使用 logger_formatter，由 @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1356 中完成\n* 将 \u002Fwebsite 目录下的 express 从 4.19.2 升级至 4.21.0，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1357 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.3.0...v2.3.1","2024-09-22T03:08:44",{"id":222,"version":223,"summary_zh":224,"released_at":225},108354,"v2.3.0","本次发布新增了多个估算器，并实现了与 MLflow 的全面集成。此外，还进行了一些修复和改进。\n\n欢迎 @gkhngyk 加入社区！感谢 @Borda、@gkhngyk、@leafy-lee 以及所有其他贡献者提交的拉取请求、代码评审和测试工作。特别感谢 @levscaut 在添加估算器和 MLflow 集成方面所做的工作。\n\n## 变更内容\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1330 中添加了 Python 3.11 图标。\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1335 中修复了 nltk 和 numpy 的测试错误。\n* @Borda 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1334 中修复了新 `datasets` 包中缺失的必填参数问题。\n* @Borda 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1333 中配置并应用了 `py3.8+` 版本的 pyupgrade 工具。\n* @Borda 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1332 中更新了从 PyPI 获取的 Python 版本依赖。\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1336 中将 \u002Fwebsite 目录下的 braces 从 3.0.2 升级至 3.0.3。\n* @gkhngyk 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1296 中修复了文档中的失效链接。\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1291 中将 \u002Fwebsite 目录下的 follow-redirects 从 1.15.4 升级至 1.15.6。\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1292 中将 \u002Fwebsite 目录下的 webpack-dev-middleware 从 5.3.3 升级至 5.3.4。\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1293 中将 \u002Fwebsite 目录下的 express 从 4.18.2 升级至 4.19.2。\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1331 中改进了 MLflow 集成，并增加了更多模型。\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1337 中更新了问题模板。\n* @thinkall 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1338 中更新了版本号和 README 文件。\n\n## 新贡献者\n* @gkhngyk 在 https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1296 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.2.0...v2.3.0","2024-08-23T00:22:13",{"id":227,"version":228,"summary_zh":229,"released_at":230},108355,"v2.2.0","This release adds support for python 3.11 and optuna 3. There are also some other fixes and improvements.\r\n\r\nWelcome @Programmer-RD-AI, @leafy-lee, @Atry and @chocolatevanille to the community! Thank you @Borda, @Programmer-RD-AI, @leafy-lee, @Atry, @chocolatevanille and all the other contributors for the PRs, reviewing and testing.\r\n\r\n## What's Changed\r\n* precommit: introduce `mdformat` by @Borda in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1276\r\n* Fix typos, upgrade yarn packages, add some improvements by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1290\r\n* Fix typo in ts_model.py: change train_df.y to train_df[target_col] by @Programmer-RD-AI in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1312\r\n* Upgrade Optuna to 3.6.1 by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1321\r\n* Handle Deprecation Args for Optuna Update by @leafy-lee in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1324\r\n* Add example of how to get best config and convert it to parameters by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1323\r\n* Add support to python 3.11 by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1326\r\n* Fix test mac os python 3.11 by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1328\r\n* Don't pass `callbacks=None` to `XGBoostSklearnEstimator._fit` by @Atry in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1322\r\n* Keep searching hyperparameters when `r2_score` raises an error by @Atry in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1325\r\n* Doc and comment typos improvements by @chocolatevanille in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1319\r\n* Bump version to 2.2.0 by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1329\r\n\r\n## New Contributors\r\n* @Programmer-RD-AI made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1312\r\n* @leafy-lee made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1324\r\n* @Atry made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1322\r\n* @chocolatevanille made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1319\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.1.2...v2.2.0","2024-08-08T03:25:03",{"id":232,"version":233,"summary_zh":234,"released_at":235},108356,"v2.1.2","## What's Changed\r\n* Update README.md with autogen links by @aindree-2005 in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1235\r\n* Bump postcss from 8.4.18 to 8.4.31 in \u002Fwebsite by @dependabot in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1238\r\n* Bump @babel\u002Ftraverse from 7.20.1 to 7.23.2 in \u002Fwebsite by @dependabot in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1248\r\n* [ENH] Add support for sklearn HistGradientBoostingEstimator by @glevv in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1230\r\n* Update Installation.md  (for a Typo) by @ScottzCodez in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1258\r\n* Fix spark errors by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1274\r\n* docs: fix link to reference by @Borda in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1263\r\n* Update AutoML-NLP.md by @dhruvthakur2000 in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1239\r\n* Don't specify a pre-release in the numpy dependency by @jackgerrits in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1286\r\n* Np.inf by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1289\r\n* Bump follow-redirects from 1.15.2 to 1.15.4 in \u002Fwebsite by @dependabot in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1266\r\n* Add ruff sort to pre-commit and sort imports in the library by @glevv in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1259\r\n\r\n## New Contributors\r\n* @aindree-2005 made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1235\r\n* @glevv made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1230\r\n* @ScottzCodez made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1258\r\n* @dhruvthakur2000 made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1239\r\n* @jackgerrits made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1286\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.1.1...v2.1.2","2024-03-13T04:07:31",{"id":237,"version":238,"summary_zh":239,"released_at":240},108357,"v2.1.1","This release adds support for xgboost 2.0, and improves the docstr of preprocessors.\r\nWelcome @domoritz to the community!\r\n\r\n## What's Changed\r\n* support xgboost 2.0 by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1219\r\n* fix ref to research by @domoritz in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1218\r\n* Fix typo Whetehr -> Whether by @domoritz in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1220\r\n* Update autogen links by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1214\r\n* improve docstr of preprocessors by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1227\r\n\r\n## New Contributors\r\n* @domoritz made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1218\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.1.0...v2.1.1","2023-10-02T05:39:54",{"id":242,"version":243,"summary_zh":244,"released_at":245},108358,"v2.1.0","This update renames a few classes and methods.\r\n\r\n## What's Changed\r\n* Migration headsup by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1204\r\n* group chat for visualization by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1213\r\n* rename human to user_proxy by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1215\r\n* Rename Responsive -> Conversable by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1202\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.3...v2.1.0","2023-09-14T03:24:51",{"id":247,"version":248,"summary_zh":249,"released_at":250},108359,"v2.0.3","This release adds support for model name suffix \"-0613\" and allows admin takeover in the group chat, plus a more complex group chat example.\r\nThanks @qingyun-wu @LeoLjl @JieyuZ2 @skzhang1 @pcdeadeasy @LittleLittleCloud for code review.\r\n\r\n## What's Changed\r\n* suffix in model name by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1206\r\n* fix typo by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1210\r\n* admin takeover in group chat by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1209\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.2...v2.0.3","2023-09-07T15:47:46",{"id":252,"version":253,"summary_zh":254,"released_at":255},108360,"v2.0.2","This release contains an improvement to the assistant agent prompt, and doc update.\r\nThanks @thinkall for the contribution and @BeibinLi @qingyun-wu @kevin666aa for reviewing and testing.\r\n\r\n## What's Changed\r\n* Update readme and AutoGen docs by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1183\r\n* Prompt improvement by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1203\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.1...v2.0.2","2023-08-30T16:20:23",{"id":257,"version":258,"summary_zh":259,"released_at":260},108361,"v2.0.1","This release contains prompt improvement and bug fix. In the next version, we will rename ResponsiveAgent to ConversableAgent.\r\n\r\nThanks @kevin666aa for the contribution, and @skzhang1 @LittleLittleCloud @JieyuZ2 @gagb for reviewing.\r\n\r\n## What's Changed\r\n* Cover function calls with no arguments by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1185\r\n* fix generate_reply when sender is None. by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1186\r\n* prompt improvement by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1188\r\n* document response fields by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1199\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.0...v2.0.1","2023-08-28T15:51:17",{"id":262,"version":263,"summary_zh":264,"released_at":265},108362,"v2.0.0","Prepare for a roller coaster ride of innovation with the launch of FLAML v2.0.0! This is not just another update but a culmination of numerous enhancements, novel features, and exciting improvements we've made from v2.0.0rc1 to v2.0.0rc5, leading to the grand v2.0.0 release.\r\n* With v2.0.0rc1, we embarked on a major refactor with the creation of an [automl] option to declutter dependencies for `autogen` and `tune`.\r\n* In v2.0.0rc2, we supercharged FLAML with support for new OpenAI gpt-3.5-turbo and gpt-4 models in `autogen` and rolled out the extensibility of autogen agents.\r\n* With v2.0.0rc3, we upped the ante by adding new OpenAI models' support of functions in agents and provided a handy code example in a dedicated notebook.\r\n* v2.0.0rc4 brought a host of improvements to the `agentchat` framework, enabling many new applications.\r\n* v2.0.0rc5 pushed the boundaries further by making auto-reply methods pluggable and supporting an asynchronous mode in agents.\r\n\r\nFinally, we arrive at the grand v2.0.0 release! This version boasts of numerous feature enhancements in `autogen`, like multi-agent chat framework (in preview), expanded OpenAI model support, enhanced integration with Spark, and much more.\r\n\r\nDocumentation for AutoGen: https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FUse-Cases\u002FAutogen\r\nExamples: https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fdocs\u002FExamples\u002FAutoGen-AgentChat\r\nBlogposts: https:\u002F\u002Fmicrosoft.github.io\u002FFLAML\u002Fblog\r\n\r\nA huge shoutout to @qingyun-wu @kevin666aa @skzhang1 @ekzhu @BeibinLi @thinkall @LittleLittleCloud @JieyuZ2 @gagb @EgorKraevTransferwise @markharley @int-chaos @levscaut @feiran-jia @liususan091219 @royninja @pcdeadeasy as well as our new contributors @badjouras, @LeoLjl, @xiaoboxia, and @minghao51 who joined us during this journey. Your contributions have played a pivotal role in shaping this release.\r\n\r\n## What's Changed\r\n* Blogpost for adaptation in HumanEval by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1048\r\n* Improve messaging in documentation by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1050\r\n* create an automl option to remove unnecessary dependency for autogen and tune by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1007\r\n* docs: 📝 Fix link to installation section in Task-Oriented-AutoML.md by @badjouras in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1051\r\n* doc and test update by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1053\r\n* remove redundant doc and add tutorial by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1004\r\n* add agent notebook and documentation by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1052\r\n* Support more azure openai api_type by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1059\r\n* suppress warning message of pandas_on_spark to_spark by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1058\r\n* Agent notebook example with human feedback; Support shell command and multiple code blocks; Improve the system message for assistant agent; Improve utility functions for config lists; reuse docker image  by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1056\r\n* Fix documentation by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1075\r\n* encode timeout msg in bytes by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1078\r\n* Add pands requirement in benchmark option by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1070\r\n* Fix pyspark tests in workflow by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1071\r\n* Docmentation for agents by @qingyun-wu in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1057\r\n* Links to papers by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1084\r\n* update openai model support by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1082\r\n* string to array by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1086\r\n* Factor out time series-related functionality into a time series Task object by @EgorKraevTransferwise in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F989\r\n* An agent implementation of MathChat by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1090\r\n* temp solution for joblib 1.3.0 issue by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1100\r\n* support string alg in tune by @skzhang1 in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1093\r\n* update flaml version in MathChat notebook by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1095\r\n* doc update by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1089\r\n* Update OptunaSearch  by @skzhang1 in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1106\r\n* Support function_call in `autogen\u002Fagent` by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1091\r\n* update notebook with new models by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1112\r\n* Enhance Integration with Spark by @levscaut in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1097\r\n* Add Funccall notebook and document by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1110\r\n* Update docstring for oai.completion. by @LeoLjl in https:\u002F\u002Fgithub.c","2023-08-15T00:52:20",{"id":267,"version":268,"summary_zh":269,"released_at":270},108363,"v2.0.0rc5","This version makes auto-reply methods pluggable and supports asynchronous mode in agents. An example of handling data steams is added.\r\nThanks to @qingyun-wu @ekzhu for laying the foundation and reviewing!\r\n\r\n## What's Changed\r\n* Make auto reply method pluggable by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1177\r\n* support async in agents by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1178\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.0rc4...v2.0.0rc5","2023-08-09T18:13:12",{"id":272,"version":273,"summary_zh":274,"released_at":275},108364,"v2.0.0rc4","This pre-release makes lots of improvements in the agentchat framework. Many new applications are enabled.\r\nThanks @JieyuZ2 @gagb @thinkall @BeibinLi @ekzhu @LittleLittleCloud @kevin666aa @qingyun-wu @LeoLjl and others for your contributions!\r\n\r\n## What's Changed\r\n* update colab link by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1118\r\n* fix bug in math_user_proxy_agent by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1124\r\n* Add log metric by @thinkall in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1125\r\n* Update assistant agent by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1121\r\n* suppress printing data split type by @xiaoboxia in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1126\r\n* change price ratio by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1130\r\n* simplify the initiation of chat by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1131\r\n* Update docs on how to interact with local LLM by @LeoLjl in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1128\r\n* Json config list, agent refactoring and new notebooks by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1133\r\n* unify auto_reply; bug fix in UserProxyAgent; reorg agent hierarchy by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1142\r\n* rename GenericAgent -> ResponsiveAgent by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1146\r\n* Bump semver from 5.7.1 to 5.7.2 in \u002Fwebsite by @dependabot in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1119\r\n* autogen.agent -> autogen.agentchat by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1148\r\n* MathChat blog post by @kevin666aa in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1096\r\n* Commenting use_label_encoder - xgboost by @minghao51 in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1122\r\n* raise error when msg is invalid; fix docstr; improve ResponsiveAgent; update doc and packaging; capture ipython output; configurable default reply by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1154\r\n* consecutive auto reply, history, template, group chat, class-specific reply by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1165\r\n* Improve auto reply registration by @sonichi in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1170\r\n\r\n## New Contributors\r\n* @xiaoboxia made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1126\r\n* @minghao51 made their first contribution in https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fpull\u002F1122\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FFLAML\u002Fcompare\u002Fv2.0.0rc3...v2.0.0rc4","2023-08-04T16:23:56"]