[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-JuliaAI--MLJ.jl":3,"tool-JuliaAI--MLJ.jl":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":23,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":96,"github_topics":97,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":112,"updated_at":113,"faqs":114,"releases":144},4074,"JuliaAI\u002FMLJ.jl","MLJ.jl","A Julia machine learning framework","MLJ.jl 是专为 Julia 语言打造的机器学习工具箱，旨在为开发者提供一个统一、高效的建模环境。它解决了 Julia 生态中机器学习模型接口分散、标准不一的痛点，通过定义通用的交互界面，让用户能够无缝调用超过 200 种来自 Julia 及其他语言的算法模型。\n\n无论是数据科学家、研究人员还是工程开发者，都能利用 MLJ.jl 轻松完成模型选择、超参数调优、性能评估及复杂流程的组合与对比。其核心亮点在于强大的“元算法”能力，支持将不同模型灵活组装成流水线，并自动处理跨语言模型的集成工作。作为整个 Julia 机器学习生态的枢纽，MLJ.jl 不仅屏蔽了底层实现的差异，还让实验复现和模型比较变得简单规范。如果你希望在享受 Julia 高性能计算优势的同时，拥有类似 Scikit-learn 般流畅的建模体验，MLJ.jl 将是理想的选择。","\u003Cdiv align=\"center\">\n    \u003Cimg src=\"material\u002FMLJLogo2.svg\" alt=\"MLJ\" width=\"200\">\n\u003C\u002Fdiv>\n\n\u003Ch2 align=\"center\">A Machine Learning Toolbox for Julia\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Factions\">\n    \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fworkflows\u002FCI\u002Fbadge.svg\"\n         alt=\"Build Status\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fdev\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-dev-blue.svg\"\n         alt=\"dev documentation\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-stable-blue.svg\"\n         alt=\"stable documentation\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yelllow\"\n       alt=\"bibtex\">\n  \u003C\u002Fa>\n  \u003Ca href=\"BIBLIOGRAPHY.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcite-BibTeX-blue\"\n       alt=\"bibtex\">\n  \u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003C\u002Fh2>\n\n\nMLJ (Machine Learning in Julia) is a toolbox written in Julia providing a common interface\nand meta-algorithms for selecting, tuning, evaluating, composing and comparing over [200\nmachine learning\nmodels](https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002Fmodel_browser\u002F#Model-Browser) written in\nJulia and other languages.\n\nThe MLJ.jl package is an umbrella package for components distributed in a number of [other packages](https:\u002F\u002Fjuliaml.ai\u002Fecosystem). \n\n**New to MLJ?** Start [here](https:\u002F\u002Fjuliaml.ai).\n\n**Documentation** is [here](https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002F).\n\n**Integrating an existing machine learning model into the MLJ\nframework?** Start [here](https:\u002F\u002Fjuliaai.github.io\u002FMLJModelInterface.jl\u002Fstable\u002F).\n\n\n\n","\u003Cdiv align=\"center\">\n    \u003Cimg src=\"material\u002FMLJLogo2.svg\" alt=\"MLJ\" width=\"200\">\n\u003C\u002Fdiv>\n\n\u003Ch2 align=\"center\">Julia 的机器学习工具箱\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Factions\">\n    \u003Cimg src=\"https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fworkflows\u002FCI\u002Fbadge.svg\"\n         alt=\"构建状态\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fdev\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-dev-blue.svg\"\n         alt=\"开发文档\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-stable-blue.svg\"\n         alt=\"稳定版文档\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yelllow\"\n       alt=\"许可证\">\n  \u003C\u002Fa>\n  \u003Ca href=\"BIBLIOGRAPHY.md\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcite-BibTeX-blue\"\n       alt=\"引用\">\n  \u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003C\u002Fh2>\n\n\nMLJ（Julia 中的机器学习）是一个用 Julia 编写的工具箱，它为选择、调参、评估、组合和比较超过 [200 种机器学习模型](https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002Fmodel_browser\u002F#Model-Browser) 提供了一个通用接口和元算法，这些模型既可以用 Julia 编写，也可以用其他语言编写。\n\nMLJ.jl 包是一个总括性包，包含了分布在多个 [其他包](https:\u002F\u002Fjuliaml.ai\u002Fecosystem) 中的组件。\n\n**刚接触 MLJ？** 请从 [这里](https:\u002F\u002Fjuliaml.ai) 开始。\n\n**文档** 请见 [这里](https:\u002F\u002FJuliaAI.github.io\u002FMLJ.jl\u002Fstable\u002F)。\n\n**想将现有的机器学习模型集成到 MLJ 框架中吗？** 请从 [这里](https:\u002F\u002Fjuliaai.github.io\u002FMLJModelInterface.jl\u002Fstable\u002F) 开始。","# MLJ.jl 快速上手指南\n\nMLJ (Machine Learning in Julia) 是一个用 Julia 编写的机器学习工具箱，提供统一的接口和元算法，用于选择、调优、评估、组合和比较超过 200 种机器学习模型。\n\n## 环境准备\n\n*   **操作系统**: Windows, macOS 或 Linux\n*   **前置依赖**: 已安装 **Julia** (推荐版本 1.6 或更高)\n    *   下载地址：[https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F](https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F)\n    *   *国内加速*: 如遇下载缓慢，可尝试清华源镜像：[https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fjulia-releases\u002F](https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fjulia-releases\u002F)\n\n## 安装步骤\n\n启动 Julia REPL（交互式命令行），进入包管理模式并安装 MLJ：\n\n```julia\njulia> ]\npkg> add MLJ\n```\n\n安装完成后，退出包管理模式（按 Backspace 键）并在代码中加载库：\n\n```julia\njulia> using MLJ\n```\n\n> **提示**：首次加载时，Julia 会自动预编译相关依赖，可能需要几分钟时间。\n\n## 基本使用\n\n以下示例演示如何加载内置数据集、选择模型、构建机器（Machine）、训练模型并进行预测。\n\n### 1. 加载数据与模型\n我们使用内置的波士顿房价数据集（回归任务）和一个决策树模型。\n\n```julia\nusing MLJ, PrettyPrinting\n\n# 加载内置数据集\nX, y = @load_boston;\n\n# 选择模型 (决策树回归器)\n@load DecisionTreeRegressor pkg=DecisionTree\nmodel = DecisionTreeRegressor()\n```\n\n### 2. 构建机器并训练\n在 MLJ 中，需要将模型与数据绑定为“机器”（Machine），然后进行拟合。\n\n```julia\n# 将模型与数据绑定\nmach = machine(model, X, y)\n\n# 划分训练集和测试集 (70% 训练，30% 测试)\ntrain, test = partition(eachindex(y), 0.7, shuffle=true, rng=123)\n\n# 训练模型\nfit!(mach, rows=train)\n```\n\n### 3. 预测与评估\n使用训练好的模型对测试集进行预测，并计算均方根误差 (RMSE)。\n\n```julia\n# 进行预测\ny_hat = predict(mach, rows=test)\n\n# 评估性能\nrms(y[test], y_hat) |> round(digits=2)\n```\n\n输出结果即为模型的 RMSE 值。你可以轻松替换 `model` 变量为其他任何兼容 MLJ 的模型（如线性回归、神经网络等），而无需更改后续代码逻辑。","某量化交易团队正在利用 Julia 语言构建高频股票预测模型，需要从超过 200 种算法中快速筛选并组合出最优策略。\n\n### 没有 MLJ.jl 时\n- **接口碎片化严重**：不同机器学习包（如 DecisionTree.jl, ScikitLearn.jl）的数据输入格式和调用方式各异，开发者需编写大量“胶水代码”进行适配。\n- **调参流程重复造轮子**：每更换一种模型，都要手动重写交叉验证和网格搜索逻辑，导致实验迭代周期长达数天。\n- **模型对比困难**：缺乏统一的评估标准，难以在同一框架下公平比较传统统计模型与深度学习模型的性能差异。\n- **组合建模复杂**：想要尝试堆叠（Stacking）或流水线（Pipeline）等高级策略时，需自行处理数据流转和异常捕获，极易出错。\n\n### 使用 MLJ.jl 后\n- **统一交互界面**：MLJ.jl 为所有支持的模型提供了标准化的 `fit!` 和 `predict` 接口，切换算法仅需修改一行模型定义代码。\n- **自动化元算法支持**：内置强大的自动调参和交叉验证机制，一键即可对任意模型执行超参数优化，将实验时间缩短至小时级。\n- **标准化评估体系**：提供一致的残差分析和性能度量工具，能直接生成多模型对比报告，快速锁定最佳候选者。\n- **声明式模型组合**：通过简单的宏语法即可构建复杂的训练流水线，轻松实现特征工程与模型预测的无缝串联。\n\nMLJ.jl 通过消除生态碎片化，让研究人员能将精力从繁琐的工程适配回归到核心的算法创新上。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FJuliaAI_MLJ.jl_6952d9eb.png","JuliaAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FJuliaAI_a8177e2e.png","Home for repositories of the MLJ (Machine Learning in Julia) project",null,"https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl","https:\u002F\u002Fgithub.com\u002FJuliaAI",[82],{"name":83,"color":84,"percentage":85},"Julia","#a270ba",100,1908,159,"2026-04-02T16:56:22","NOASSERTION","","未说明",{"notes":93,"python":94,"dependencies":95},"该工具是基于 Julia 语言编写的机器学习工具箱，并非 Python 库。它作为一个元包（umbrella package），统一接口并集成了超过 200 种用 Julia 及其他语言编写的机器学习模型。具体运行环境取决于所选用的底层模型包，建议参考官方文档获取特定模型的依赖详情。","不适用",[83],[13,51,54],[98,99,100,101,102,103,104,105,106,107,108,109,110,111],"machine-learning","julia","pipelines","tuning","data-science","tuning-parameters","predictive-modeling","classification","regression","statistics","clustering","stacking","ensemble-learning","pipeline","2026-03-27T02:49:30.150509","2026-04-06T09:05:30.286851",[115,120,125,130,135,140],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},18558,"遇到 'unsupported `const` declaration on local variable' 语法错误该如何修复？","该错误通常是由于依赖包版本过旧导致的。请更新 `MLJModels.jl` 包。维护者已提交修复补丁（PR #344），您需要确保注册表已更新或手动更新包版本以获取修复后的代码。运行 `] up MLJModels` 尝试更新。","https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fissues\u002F715",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},18556,"如何在 MLJ 中获取概率模型的联合预测（处理相关响应）？","MLJ 现已支持 `JointProbabilistic` 模型类型和 `predict_joint` 通用函数，用于处理预测值之间存在相关性的情况（例如贝叶斯模型的后验分布）。如果您需要获取联合分布而不是独立的单变量分布列表，请使用实现了 `JointProbabilistic` 接口的模型并调用 `predict_joint` 方法。","https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fissues\u002F552",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},18557,"如何加载和使用 EvoTrees.jl 作为 MLJ 模型？","EvoTrees.jl 已集成到 MLJ 中。您可以直接使用 `@load` 宏加载特定模型，例如：\n```julia\nusing MLJ\nmodel = @load EvoTreeRegressor verbosity=1\n```\n加载后可用 `evaluate(model, X, y)` 进行评估。支持的模型包括 `EvoTreeClassifier`, `EvoTreeCount`, `EvoTreeGaussian`, 和 `EvoTreeRegressor`。","https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fissues\u002F122",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},18559,"触发新版本注册后，如何正确创建 Git 标签？","在注册拉取请求合并后，建议为仓库创建对应的版本标签。如果安装了 Julia TagBot GitHub Action，这将自动完成。若需手动操作，可执行以下命令：\n```bash\ngit tag -a v0.23.0 -m \"\u003C版本描述>\" \u003Ccommit_hash>\ngit push origin v0.23.0\n```\n请将 `v0.23.0` 替换为实际版本号，`\u003Ccommit_hash>` 替换为对应的提交哈希。","https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fissues\u002F571",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},18560,"MLJ 中的 Task（任务）设计是否支持与数据分离的问题定义？","根据目前的讨论和设计方向，MLJ 暂不计划将 Task 定义与数据完全分离。当前的实现倾向于将任务与具体数据绑定。对于更通用的问题规范（不涉及具体数据表），建议使用学习网络（Learning Networks）并通过 `@from_network` 宏导出为通用模型类型，其字段（超参数）可包含组件模型并支持替换，从而间接实现灵活的问题定义。","https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fissues\u002F166",{"id":141,"question_zh":142,"answer_zh":143,"source_url":139},18561,"MLJ 0.5.0 之后如何处理学习网络（Learning Networks）的可变性？","在 MLJ 0.5.0 中，导出的学习网络重新变为可变对象。虽然学习网络本身绑定于特定的组件模型选择，但在使用 `@from_network` 宏导出后，您会获得一个新的模型类型实例。该实例的字段即为组件模型（作为超参数），允许您直接替换这些字段的值来更改策略，而无需重新构建整个网络。",[145,150,155,160,165,170,175,180,185,190,195,200,205,210,215,220,225,230,235,240],{"id":146,"version":147,"summary_zh":148,"released_at":149},109124,"v0.23.0","## MLJ v0.23.0\n\n[与 v0.22.0 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.22.0...v0.23.0)\n\n- (**破坏性更改**) 移除 MLJFlow 作为 MLJ 的依赖项。旧的行为现在需要使用 `using MLJFlow` (#1192)\n\n**已合并的拉取请求：**\n- 将 actions\u002Fcheckout 从 5 升级到 6 (#1187) (@dependabot[bot])\n- 重新生成 MLJ 手册，因为最近更新了 MLJ 模型注册表 (#1190) (@ablaom)\n- 将 julia-actions\u002Fcache 从 2 升级到 3 (#1191) (@dependabot[bot])\n- 从 MLJ 的依赖中移除 MLJFlow (#1192) (@ablaom)\n- 为 0.23 版本做准备 (#1193) (@ablaom)\n\n**已关闭的问题：**\n- [跟踪] 更新依赖至 CategoricalArrays 1.0 (#1172)\n- OneClassSVM 无法转换为概率型异常分类器 (#1188)\n- 文档中的链接损坏 (#1189)","2026-03-24T03:20:24",{"id":151,"version":152,"summary_zh":153,"released_at":154},109125,"v0.22.0","## MLJ v0.22.0\n\n[与 v0.21.0 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.21.0...v0.22.0)\n\n- (**轻微破坏性更改**) `CategoricalArray` 上的 `levels` 和 `unique` 方法的行为已更改。（此类数组在 MLJ 中创建，例如通过 `coerce(array, Multiclass)` 或 `coerce(array, OrderedFactor)`。）现在，`levels` 和 `unique` 方法会返回一个 `CategoricalVector`，而之前它们返回的是“原始”值的向量。因此，之前运行 `levels(array)` 等同于现在运行 `CategoricalArrays.unwrap.(levels(array))`。这种新行为是由于 MLJ.jl 所依赖的 CategoricalArrays.jl 发生了破坏性更改所致（#1172）。\n\n**已合并的拉取请求：**\n- 将 actions\u002Fcheckout 从 4 升级到 5 (#1175) (@dependabot[bot])\n- 重新生成文档。未发布新版本。(#1182) (@ablaom)\n- 重新生成开发文档 (#1183) (@ablaom)\n- 恢复 BetaML 的部分集成测试。(#1184) (@ablaom)\n- 升级 CategoricalArrays 等，并进行重大测试变更 😱 (#1185) (@ablaom)\n- 为 0.22 版本做准备 (#1186) (@ablaom)\n\n**已关闭的问题：**\n- 恢复 CatBoost 集成测试 (#1092)\n- 恢复 scikit-learn 模型的集成测试 (#1119)\n- 恢复 SymbolicRegression 的集成测试？(#1152)\n- 恢复异常检测模型 s (#1153)\n- 加载 `ContinuousEncoder` 时出现错误 (#1181)","2025-11-20T20:09:53",{"id":156,"version":157,"summary_zh":158,"released_at":159},109126,"v0.21.0","## MLJ v0.21.0\n\n[与 v0.20.9 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.9...v0.21.0)\n\n- (**新增模型**) 从 MLJTransforms.jl 中添加以下模型，并使其立即可供 MLJ 用户使用（用户无需再通过 `@load` 来加载这些模型）：`OrdinalEncoder`、`FrequencyEncoder`、`TargetEncoder`、`ContrastEncoder`、`CardinalityReducer`、`MissingnessEncoder`。\n- (**轻微破坏性变更**) 将以下内置模型的提供方由 MLJModels.jl 改为 MLJTransforms.jl，这些模型的行为保持不变：`ContinuousEncoder`、`FillImputer`、`InteractionTransformer`、`OneHotEncoder`、`Standardizer`、`UnivariateBoxCoxTransformer`、`UnivariateDiscretizer`、`UnivariateFillImputer`、`UnivariateTimeTypeToContinuous`、`Standardizer`。\n\n**可能引起破坏的指南：** 虽然在之前版本中，只要先运行 `using MLJ`，就无需使用 `@load` 来加载上述列表中的任何模型，但许多用户并未意识到这一点，经常看到类似 `@load OneHotEncoder pkg=MLJModels` 的用法，而本次发布将导致此类代码失效。如果在调用前已经执行了 `using MLJ` 或 `using MLJTransforms`，则可以直接移除加载命令（直接使用 `OneHotEncoder()` 即可），或者改用 `@load OneHotEncoder pkg=MLJTransforms`。\n\n**已合并的拉取请求：**\n- 更新以反映因新增 MLJTransforms.jl 而进行的代码重组 (#1177) (@ablaom)\n- 准备 0.21 版本 (#1180) (@ablaom)\n\n**已关闭的问题：**\n- ScikitLearn.jl 中的决策树不可用 (#545)\n- 记录递归特征消除文档 (#1162)","2025-09-10T07:33:45",{"id":161,"version":162,"summary_zh":163,"released_at":164},109127,"v0.20.9","## MLJ v0.20.9\n\n[自 v0.20.8 以来的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.8...v0.20.9)\n\n\n**已合并的拉取请求：**\n- 从 Project.toml 中移除 SymbolicRegression (#1168) (@ablaom)\n- 为 0.20.9 版本发布 (#1169) (@ablaom)\n\n**已关闭的问题：**\n- 头脑风暴：用于特征元数据\u002F辅助信息的 API (#480)\n- 可能是错误的链接 (#1170)","2025-07-14T20:39:04",{"id":166,"version":167,"summary_zh":168,"released_at":169},109128,"v0.20.8","## MLJ v0.20.8\n\n[与 v0.20.7 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.7...v0.20.8)\n\n\n**已合并的拉取请求：**\n- 添加治理文档草案 (#1116) (@ablaom)\n- 更新 target_transformations.md (#1137) (@era127)\n- 更新第三方日志平台的文档页面 (#1139) (@ablaom)\n- 更新手册 (#1140) (@ablaom)\n- 组织相关链接 (#1142) (@pebeto)\n- 初次提交，用于添加近邻传播算法 (#1147) (@Yuan-Ru-Lin)\n- 更新文档。不发布新版本。(#1148) (@ablaom)\n- 从 GOVERNANCE.md 文档中移除“DRAFT”标签 (#1149) (@ablaom)\n- 治理：添加咨询委员会成员 (#1150) (@ablaom)\n- 一些 minor 修复 (#1151) (@ablaom)\n- 更新 mlj_cheatsheet.md (#1156) (@besp-kt)\n- 将新的 landing page 集成到文档中 (#1159) (@ablaom)\n- 升级 StatisticalMeasures 的依赖版本 (#1160) (@ablaom)\n- 生成更新后的文档。不发布新版本。(#1161) (@ablaom)\n- 创建 dependabot.yml 并更新 action 版本 (#1163) (@abhro)\n- 创建文档站点的 favicon (#1164) (@abhro)\n- 从集成测试中移除符号回归 (#1165) (@ablaom)\n- 为 0.20.8 版本做准备 (#1167) (@ablaom)\n\n**已关闭的问题：**\n- 重新导出 `CompactPerformanceEvaluation` 和 `InSample` (#1111)\n- [跟踪] 为 MLJ 添加默认日志记录器 (#1124)\n- 添加缺失值编码转换器 (#1133)\n- 使用预计算 SVM 的 TunedModel 失败 (#1141)\n- `RecursiveFeatureElimination` + `EvoTreeClassifier` 出现错误 (#1145)\n- 在 cheat sheet 中删除版本号的提及 (#1154)\n- 从文档中移除 PartialLeastSquaresRegressor (#1157)\n- 关于注册表中识别 UUID 5ae90465-5518-4432-b9d2-8a1def2f0cab 时出现的问题 (#1158)","2025-06-03T10:21:22",{"id":171,"version":172,"summary_zh":173,"released_at":174},109129,"v0.20.7","## MLJ v0.20.7\n\n[与 v0.20.6 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.6...v0.20.7)\n\n\n**已合并的拉取请求：**\n- 使手动侧边栏中的子页面可折叠。无新版本发布（仅更新文档）(#1131) (@ablaom)\n- 重新生成文档。(#1132) (@ablaom)\n- 更新 FeatureSelection 的兼容性 (#1136) (@ablaom)\n- 准备 0.20.7 版本 (#1138) (@ablaom)\n\n**已关闭的问题：**\n- 递归特征消除 RFE - 功能请求？(#426)\n- 为 0.17 版本准备 (#864)\n- 需要查看目标变量的转换器（例如，递归特征消除）(#874)\n- MLJ 是否有用于缺失值插补的 API？(#950)\n- [跟踪问题] 添加 `raw_training_scores` 访问函数 (#960)\n- 提取阈值化模型的概率 (#981)\n- 加载支持 Tables.jl 接口的数据 (#988)\n- 将新的 scikit-learn 模型添加到文档中 (#1066)\n- 通过增加层级结构改进文档 (#1094)\n- 在手册或计划中的教程界面中，将交叉验证递归特征消除的示例链接起来。(#1129)\n- UnivariateFinite 文档字符串中的损坏链接 (#1130)\n- 为在 `fit` 中包含目标变量的 `Unsupervised` 模型添加管道支持 (#1134)\n- “转换器及其他…”手册页面中缺少 InteractionTransformer (#1135)","2024-07-19T02:14:12",{"id":176,"version":177,"summary_zh":178,"released_at":179},109130,"v0.20.6","## MLJ v0.20.6\n\n[自 v0.20.5 以来的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.5...v0.20.6)\n\n- (**新功能**) 添加 `RecursiveFeatureElimination` 模型包装器。\n\n**已合并的拉取请求：**\n- CompatHelper：将 MLJFlow 的兼容版本提升至 0.5 (#1122) (@github-actions[bot])\n- 将模型包装器添加到模型浏览器 (#1127) (@ablaom)\n- 为 0.20.6 版本发布 (#1128) (@ablaom)\n\n**已关闭的问题：**\n- 请求在模型浏览器中更好地展示 MLJFlux (#1110)\n- 从备忘单中移除 `info(rms)` (#1117)\n- 允许模型包装器进入 MLJ 模型注册表 (#1125)","2024-06-06T02:34:28",{"id":181,"version":182,"summary_zh":183,"released_at":184},109131,"v0.20.5","## MLJ v0.20.5\n\n[自 v0.20.4 以来的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.4...v0.20.5)\n\n\n**已合并的拉取请求：**\n- 再次调整速查表 (#1121) (@ablaom)\n- 为 0.20.5 版本发布 (#1123) (@ablaom)","2024-05-22T04:58:07",{"id":186,"version":187,"summary_zh":188,"released_at":189},109132,"v0.20.4","## MLJ v0.20.4\n\n[与 v0.20.3 的差异](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJ.jl\u002Fcompare\u002Fv0.20.3...v0.20.4)\n\n- 将 MLFlow 的依赖版本提升至 0.4.2。这在技术上属于破坏性变更（但未标记为破坏性，因为 MLJFlow 集成仍被视为实验性）。在安装了最新版 MLFlowClient 后，过去您会这样定义 `logger=MLJFlow.Logger(\"http:\u002F\u002F127.0.0.1:5000\u002F\")`，现在则必须改为 `logger=MLJFlow.Logger(\"http:\u002F\u002F127.0.0.1:5000\u002Fapi\")` 或类似配置；更多信息请参阅 https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLFlowClient.jl\u002Freleases\u002Ftag\u002Fv0.5.1。\n\n**已合并的拉取请求：**\n- 将 PartionedLS.jl 模型添加到文档和浏览器中 (#1103) (@ablaom)\n- 更新文档。不发布新版本。(#1104) (@ablaom)\n- 更新 ROADMAP.md (#1106) (@ablaom)\n- 在示例中使用 REPL 语言标签 (#1107) (@abhro)\n- 更新备忘录和工作流文档 (#1109) (@ablaom)\n- 强制更新文档。不发布新版本。(#1112) (@ablaom)\n- 在 MLJ.jl 迁移到 JuliaAI GitHub 组织后进行更新 (#1113) (@DilumAluthge)\n- 移除电信行业示例 (#1114) (@ablaom)\n- 在集成测试中抑制模型生成的警告 (#1115) (@ablaom)\n- 将 MLJFlow.jl 升级至 v0.4.2 (#1118) (@pebeto)\n- 为 0.20.4 版本做准备 (#1120) (@ablaom)\n\n**已关闭的问题：**\n- 精选模型列表 (#716)\n- 是否将 MLJ 从 alan-turing-institute 迁移至 JuliaAI？(#829)\n- 更新 MLJ 的 Binder 示例 (#851)\n- 添加聚类算法的封装器以实现统一接口 (#982)\n- adding_models_for_general_use.md 中令人困惑的 Julia 代码 (#1061)\n- 包含 XGBoost 的 Pipeline 的 feature_importances 无法正常工作 (#1100)\n- 最近添加到 TunedModel 历史记录中的性能评估对象体积过大 (#1105)\n- 更新备忘录中已弃用的 `@from_network` 代码实例 (#1108)","2024-05-20T09:33:05",{"id":191,"version":192,"summary_zh":193,"released_at":194},109133,"v0.20.3","## MLJ v0.20.3\n\n[与 v0.20.2 的差异](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.20.2...v0.20.3)\n\n- 将 MLJFlow 的兼容性版本提升至 0.4，以适配 `MLJBase.save` 方法歧义修复（在 MLJFlow 0.4.1 中）。\n\n**已合并的拉取请求：**\n- 明确静态模型的 `input_scitype` (#1076) (@ablaom)\n- 文档更新 (#1077) (@ablaom)\n- 添加集成测试 (#1079) (@ablaom)\n- 测试新的集成测试。不发布新版本。(#1080) (@ablaom)\n- 修复集成测试 (#1081) (@DilumAluthge)\n- 将 EvoLinear 移至其应有的 `[extras]` 部分 (#1083) (@ablaom)\n- CI：将集成测试拆分为单独的作业 (#1086) (@DilumAluthge)\n- CI 细节调整 (#1087) (@ablaom)\n- 更新 betaml 的支持模型列表 (#1089) (@sylvaticus)\n- 更新 ModelDescriptors.toml 文件以适应 BetaML 模型 (#1090) (@sylvaticus)\n- 更新文档以反映近期的 BetaML 重组 (#1091) (@ablaom)\n- 用指向新版 MLJModelInterface 文档的链接替换手册中的相关部分。(#1095) (@ablaom)\n- 更新文档。不发布新版本 (#1096) (@ablaom)\n- 更新 getting_started.md，避免第 338 行出现错误 (#1098) (@caesquerre)\n- 准备 0.20.3 版本发布 (#1102) (@ablaom)\n\n**已关闭的问题：**\n- 元问题：与 UCL 合作的可能性相关问题 (#673)\n- 集成测试失败：分类器 (#939)\n- 过采样与欠采样 (#983)\n- 添加 AutoEncoderMLJ 模型（BetaML 的一部分）(#1074)\n- 添加新的模型描述符以修复文档生成失败 (#1084)\n- 更新 BetaML 模型列表 (#1088)\n- 更新 ROADMAP.md (#1093)\n- 当原子模型重载了 `save\u002Frestore` 方法时，`TunedModel` 等包装器会出现反序列化失败 (#1099)","2024-03-08T06:49:14",{"id":196,"version":197,"summary_zh":198,"released_at":199},109134,"v0.20.2","## MLJ v0.20.2\n\n[Diff since v0.20.1](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.20.1...v0.20.2)\n\n- Replace `MLFlowLogger` with `MLJFlow.Logger`; see [here](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJFlow.jl\u002Freleases\u002Ftag\u002Fv0.3.0). So a logger instance is now instantiated with `using MLJFlow; logger = MLJFlow.Logger(baseuri)`. This is technically breaking but not tagged as such, because MLFlow integration is still [experimental](https:\u002F\u002Falan-turing-institute.github.io\u002FMLJ.jl\u002Fdev\u002Flogging_workflows\u002F#Logging-Workflows).\n\n**Merged pull requests:**\n- Fix MLJTuning.jl links (#1068) (@jd-foster)\n- CompatHelper: add new compat entry for Statistics at version 1, (keep existing compat) (#1070) (@github-actions[bot])\n- Bump compat: MLJFlow 0.3  (#1072) (@ablaom)\n- For a 0.20.2 release (#1073) (@ablaom)\n\n**Closed issues:**\n- Export the name `MLJFlow` (#1067)\n- `evaluate` errors  (#1069)","2023-11-21T03:37:20",{"id":201,"version":202,"summary_zh":203,"released_at":204},109135,"v0.20.1","## MLJ v0.20.1\n\n[Diff since v0.20.0](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.20.0...v0.20.1)\n\n- (**new feature**) Add the `BalancedModel` wrapper from MLJBalancing.jl (#1064)\n- (**docs**) Add the over\u002Fundersampling models from Imbalance.jl to the Model Browser  (#1064)\n\n**Merged pull requests:**\n- Add MLJBalancing to MLJ and add class imbalance docs (#1064) (@ablaom)\n- For a 0.20.1 release (#1065) (@ablaom)\n\n**Closed issues:**\n- Oversampling and undersampling (#661)\n- [Tracking] Migration of measures MLJBase.jl -> StatisticalMeasures.jl (#1053)\n- Include MLJBalancing.jl in MLJ and re-export it's names.  (#1062)\n- Update docs for new class imbalance support (#1063)","2023-10-10T22:15:59",{"id":206,"version":207,"summary_zh":208,"released_at":209},109136,"v0.20.0","## MLJ v0.20.0\n\n[Diff since v0.19.5](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.5...v0.20.0)\n\n-  (**breaking**) Adapt to the migration of measures from MLJBase.jl to StatisticalMeasures.jl (#1054). See the [MLJBase 1.0 migration guide](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fblob\u002Fdev\u002Fdocs\u002Fsrc\u002Fperformance_measures.md#migration-guide-for-changes-to-measures-in-mljbase-10) for details.\n\n**Merged pull requests:**\n- CI: fix the YAML syntax for the docs job, and thus properly surface any docbuild failures (#1046) (@DilumAluthge)\n- Update docs (#1048) (@ablaom)\n- Try again to generate the documentation (#1049) (@ablaom)\n- `docs\u002Fmake.jl`: set `devbranch` to `master`, which means that the docs will be deployed for pushes to `master (#1051) (@DilumAluthge)\n- Try to deploy docs again x 3 (#1052) (@ablaom)\n- Adapt to migration of measures MLJBase.jl -> StatisticalMeasures.jl (#1054) (@ablaom)\n- For a 0.20 release (#1060) (@ablaom)\n\n**Closed issues:**\n- Julia crashes when fitting a SVC (#1030)\n- Update deprecated document example in \"Transformers ...\" section of manual (#1040)\n- `fit!` not exported in 0.19.3\u002F0.19.4? (#1041)\n- Doc generation is failing silently (#1045)","2023-09-29T01:13:30",{"id":211,"version":212,"summary_zh":213,"released_at":214},109137,"v0.19.5","## MLJ v0.19.5\n\n[Diff since v0.19.4](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.4...v0.19.5)\n\n- Correct problem with previous version in which some methods were not exported, namely: `source`, `node`, `fit!`, `freeze!`, `thaw!`, `Node`, `sources`, `origins` (#1043) @pebeto\n\n**Closed issues:**\n- Is the Averager documentation deprecated? (#1039)\n\n**Merged pull requests:**\n- Adding necessary exports (#1043) (@pebeto)\n- For a 0.19.5 release (#1044) (@ablaom)","2023-08-27T23:07:00",{"id":216,"version":217,"summary_zh":218,"released_at":219},109138,"v0.19.4","## MLJ v0.19.4\n\n[Diff since v0.19.3](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.3...v0.19.4)\n\n\n\n**Merged pull requests:**\n- Updating MLJBase.jl dep to last version (#1037) (@pebeto)","2023-08-24T08:46:54",{"id":221,"version":222,"summary_zh":223,"released_at":224},109139,"v0.19.3","## MLJ v0.19.3\n\n[Diff since v0.19.2](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.2...v0.19.3)\n\n\n**Closed issues:**\n- SymbolicRegression.jl — registry update (#1032)\n\n**Merged pull requests:**\n- feat: Update ROADMAP.md be more understandable (#1031) (@MelihDarcanxyz)\n- add sirus.jl and symbolicregression.jl models to model browser (#1033) (@OkonSamuel)\n- Add MLJFlow for integration with MLflow logging platform (#1034) (@ablaom)","2023-08-24T03:59:50",{"id":226,"version":227,"summary_zh":228,"released_at":229},109140,"v0.19.2","## MLJ v0.19.2\n\n[Diff since v0.19.1](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.1...v0.19.2)\n\n\n**Closed issues:**\n- `@from_network` does more strange `eval` stuff (#703)\n- Create new package for MLJ-universe-wide integration tests (#885)\n- Stack of TunedModels (#980)\n- Please add CatBoost or any alternate package (pure Julia) which can beat it (#992)\n- Update list of models for BetaML (#993)\n- Update List of Supported Models `Clustering.jl` Section (#1000)\n- `predict` should work on `DataFrameRow` (#1004)\n- Documentation generation fails silently (#1007)\n- Clarify and fix documentation around `reformat`. (#1010)\n- Reporting a vulnerability (#1015)\n- What causes the Distributed.ProcessExitedException(3) error in Julia and how can I resolve it in my Pluto notebook? (#1018)\n- Add link to Mt Everest blog (#1021)\n- Remove \"experimental\" label for acceleration API docs (#1026)\n\n**Merged pull requests:**\n- Fix TransformedTarget example in manual (no new release) (#999) (@ablaom)\n- updating Clustering.jl model list to address #1000 (#1001) (@john-waczak)\n- Add CatBoost to list of models and 3rd party packages (#1002) (@ablaom)\n- Some small documentations improvements. Not to trigger a new release. (#1003) (@ablaom)\n- Add auto-generated Model Browser section to the manual (#1005) (@ablaom)\n- Add new auto-generated Model Browser section to the manual. Not to trigger new release. (#1006) (@ablaom)\n- Add Model Browser entry for SelfOrganizingMap (#1008) (@ablaom)\n- Update documentation (#1009) (@ablaom)\n- Clarify data front-end in docs (#1011) (@ablaom)\n- Doc fixes. No new release. (#1012) (@ablaom)\n- Update model browser and list of models to reflect addition of CatBoost.jl and some OutlierDetectionPython.jl models (#1013) (@ablaom)\n- Update to the manual. No new release. (#1014) (@ablaom)\n- Make docs fail on error (#1017) (@rikhuijzer)\n- Cleaned up Adding Models for General Use documentation (#1019) (@antoninkriz)\n- CompatHelper: bump compat for StatsBase to 0.34, (keep existing compat) (#1020) (@github-actions[bot])\n- Remove CatBoost.jl from third party packages (#1024) (@tylerjthomas9)","2023-06-16T01:01:01",{"id":231,"version":232,"summary_zh":233,"released_at":234},109141,"v0.19.1","## MLJ v0.19.1\n\n[Diff since v0.19.0](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.19.0...v0.19.1)\n\n\n**Closed issues:**\n- Support for `ProbabilisticSet` type in `MLJModelInterface.jl` (#978)\n- question about Isotonic Regression  (#986)\n- predict_mode of pipeline model return a UnivariateFinite after upgrade to 0.19.0 (#987)\n- MLJ Tuning optimizers are no working with julia 1.8.3 and julia 1.9.0 (#990)\n- WARNING: both MLJBase and DataFrames export \"transform\"; uses of it in module Main must be qualified (#991)\n- CURANDError: kernel launch failure (code 201, CURAND_STATUS_LAUNCH_FAILURE) (#997)\n\n**Merged pull requests:**\n- Document changes and sundries.  No new release. (#985) (@ablaom)\n- (re) updated model names of BetaML (#994) (@sylvaticus)\n- Exclude `bib`, `md`, and `drawio` from repo stats (#995) (@rikhuijzer)\n- For a 0.19.1 release (#998) (@ablaom)","2023-01-08T23:32:38",{"id":236,"version":237,"summary_zh":238,"released_at":239},109142,"v0.19.0","## MLJ v0.19.0\n\n[Diff since v0.18.6](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.18.6...v0.19.0)\n\nMLJBase compatibility is bumped to 0.21 and MLJModels compatibility is bumped to 0.16. This makes a new simplified method for exporting learning networks available but also introduces some breaking changes:\n\n- (**mildy breaking**) The `value` method is no longer exported by MLJ as essentially private (#891)\n- [MLJBase 0.21 release notes](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJBase.jl\u002Freleases\u002Ftag\u002Fv0.21.0)\n- [MLJModels 0.16 release notes](https:\u002F\u002Fgithub.com\u002FJuliaAI\u002FMLJModels.jl\u002Freleases\u002Ftag\u002Fv0.16.0)\n\n**Closed issues:**\n- Do not re-export `value` (#891)\n- Large models name change in BetaML (#963)\n- Add ConformalPrediction.jl to list of 3rd party packages (#967)\n- Documentation for BinaryThresholdPredictor (#973)\n\n**Merged pull requests:**\n- Update docs for new learning network export method (#972) (@ablaom)\n- added to docs (#979) (@pat-alt)\n- For a 0.19 release (#984) (@ablaom)","2022-11-07T23:18:17",{"id":241,"version":242,"summary_zh":243,"released_at":244},109143,"v0.18.6","## MLJ v0.18.6\n\n[Diff since v0.18.5](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl\u002Fcompare\u002Fv0.18.5...v0.18.6)\n\n\n**Closed issues:**\n- DBSCAN from Clustering.jl not registered (#845)\n- Update manual re new `reporting_operations` trait (#956)\n- Improvement in the Preparing Data part (#964)\n- `serializable` and `restore!` should be \"safe\" to use any time (#965)\n- Adds EvoLinearRegressor to list of models (#966)\n- export InteractionTransformer from MLJModels (#969)\n- Encoders for feature engineering (#970)\n- Clarify meaning of \"table\"  in documentation (#971)\n- re-export `serializable` and `restore!` (#975)\n\n**Merged pull requests:**\n- Updated names of BetaML models (#968) (@sylvaticus)\n- add the interface package to add (#974) (@xgdgsc)\n- Minor doc improvements and new exports (#976) (@ablaom)\n- For a 0.18.6 release (#977) (@ablaom)","2022-10-26T23:44:10"]