ludwig
Ludwig 是一个专为构建自定义大语言模型(LLM)及各类深度神经网络设计的低代码框架。它旨在解决传统深度学习开发中编码复杂、配置繁琐以及大规模训练难以优化的痛点,让用户无需编写大量底层代码,仅通过声明式的 YAML 配置文件即可轻松完成从数据输入到模型训练的全过程。
这款工具非常适合希望快速验证想法的 AI 研究人员、需要高效交付模型的开发者,以及想要尝试定制大模型但受限于工程能力的技术团队。Ludwig 的核心亮点在于其“乐高积木”般的模块化设计,支持多任务与多模态学习,并能自动处理批量大小选择、分布式训练(如 DeepSpeed)、参数高效微调(PEFT)及 4-bit 量化等高级技术。此外,它还提供了从超参数优化到模型可解释性的专家级控制能力,并原生支持 Ray 和 Kubernetes,便于直接部署到生产环境。无论是微调 Llama、Mistral 等主流大模型,还是构建独特的神经网络的架构,Ludwig 都能以极高的效率和扩展性助你一臂之力。
使用场景
某电商初创公司的数据团队急需基于用户评论数据微调一个专属的大语言模型,以自动识别产品缺陷并生成改进建议。
没有 ludwig 时
- 工程师需编写数百行复杂的 PyTorch 代码来处理数据加载、分布式训练及混合精度计算,开发周期长达数周。
- 尝试不同的模型架构(如从 Llama 切换到 Mistral)或调整量化策略时,必须大幅重构底层训练逻辑,试错成本极高。
- 缺乏统一的配置管理,团队成员间难以复现实验结果,且容易因参数组合错误导致训练中途崩溃。
- 部署模型到生产环境需要手动转换格式并编写推理服务代码,运维门槛高且容易出错。
使用 ludwig 后
- 仅需编写一份声明式 YAML 配置文件,即可自动完成从数据预处理到 SOTA 大模型微调的全流程,将开发时间缩短至几天。
- 通过修改配置中的几行参数,就能轻松切换模型骨干、启用 4-bit 量化(QLoRA)或开启多任务学习,灵活探索最优方案。
- 内置的配置验证机制自动拦截无效参数组合,配合详细的指标可视化,确保实验过程稳定且结果可复现。
- 利用一条命令即可将训练好的模型导出为 Torchscript 或 Triton 格式,甚至直接上传至 HuggingFace,无缝衔接生产部署。
ludwig 通过低代码声明式配置,让团队无需深陷底层代码泥潭,专注于数据与业务逻辑,实现了大模型定制的高效落地。
运行环境要求
- Linux
- macOS
- Windows
- 非绝对必需(支持本地 CPU 运行),但训练 LLM 或大规模模型时推荐 NVIDIA GPU
- 示例中使用了 Nvidia T4,要求至少 12 GiB 显存
- 支持分布式训练 (DDP, DeepSpeed) 和量化技术以降低显存需求
未说明(取决于数据集大小和模型规模,支持大于内存的数据集处理)

快速开始
📖 Ludwig 是什么?
Ludwig 是一个 低代码 框架,用于构建 自定义 的 AI 模型,例如 LLM 和其他深度神经网络。
主要特性:
- 🛠 轻松构建自定义模型: 只需一个声明式的 YAML 配置文件,即可在您的数据上训练出最先进的 LLM。支持多任务和多模态学习。全面的配置验证能够检测无效的参数组合,并防止运行时错误。
- ⚡ 针对规模化与效率优化: 自动批量大小选择、分布式训练(DDP、DeepSpeed)、参数高效的微调(PEFT)、4位量化(QLoRA)、分页及8位优化器,以及超出内存容量的数据集。
- 📐 专家级控制: 您可以完全掌控模型的每一个细节,包括激活函数等。支持超参数优化、可解释性分析以及丰富的指标可视化。
- 🧱 模块化与可扩展性: 仅需在配置中进行少量参数调整,即可尝试不同的模型架构、任务、特征和模态。就像搭建深度学习的积木一样。
- 🚢 专为生产环境设计: 提供预构建的 Docker 容器,原生支持使用 Ray 在 Kubernetes 上运行,可将模型导出为 Torchscript 和 Triton,并可通过一条命令上传至 HuggingFace。
Ludwig 由 Linux 基金会人工智能与数据组织 托管。
技术栈: Python 3.12 | PyTorch 2.7+ | Pydantic 2 | Transformers 5 | Ray 2.54

💾 安装
从 PyPI 安装。请注意,Ludwig 需要 Python 3.12 或更高版本。
pip install ludwig
或者安装包含所有可选依赖项的版本:
pip install ludwig[full]
更多详细的安装说明,请参阅 贡献指南。
🚂 入门
想快速了解 Ludwig 的一些功能吗?请查看这个 Colab 笔记本 🚀
想要微调 LLM 吗?请查看以下笔记本:
如需完整教程,请参阅官方的 入门指南 或查看端到端的 示例。
大型语言模型微调
让我们对一个预训练的 LLM 进行微调,使其能够像聊天机器人一样遵循指令(“指令微调”)。
前提条件
- HuggingFace API Token
- 对所选基础模型的访问权限(例如,Llama-3.1-8B)
- 至少配备 12 GiB 显存的 GPU(我们在测试中使用了 Nvidia T4)
运行步骤
我们将使用 Stanford Alpaca 数据集,该数据集将被格式化为类似表格的文件,内容如下:
| 指令 | 输入 | 输出 |
|---|---|---|
| 给出三条保持健康的建议。 | 1. 保持均衡饮食,并确保摄入... | |
| 将下列物品按顺序排列:蛋糕、我、吃 | 蛋糕、我、吃 | 我正在吃蛋糕。 |
| 写一段关于著名人物的介绍性段落... | 米歇尔·奥巴马 | 米歇尔·奥巴马是一位鼓舞人心的女性,她... |
| ... | ... | ... |
创建一个名为 model.yaml 的 YAML 配置文件,内容如下:
model_type: llm
base_model: meta-llama/Llama-3.1-8B
quantization:
bits: 4
adapter:
type: lora
prompt:
template: |
下面是一条描述任务的指令,以及可能提供进一步上下文的输入。
请撰写一个恰当回应请求的内容。
### 指令:
{instruction}
### 输入:
{input}
### 回答:
input_features:
- name: prompt
type: text
output_features:
- name: output
type: text
trainer:
type: finetune
learning_rate: 0.0001
batch_size: 1
gradient_accumulation_steps: 16
epochs: 3
learning_rate_scheduler:
decay: cosine
warmup_fraction: 0.01
preprocessing:
sample_ratio: 0.1
backend:
type: local
现在让我们开始训练模型:
export HUGGING_FACE_HUB_TOKEN = "<api_token>"
ludwig train --config model.yaml --dataset "ludwig://alpaca"
监督学习
让我们构建一个神经网络,用于预测给定的电影评论家在烂番茄上的影评是正面还是负面。
我们的数据集将是一个看起来像这样的CSV文件:
| 电影标题 | 内容分级 | 类型 | 片长 | 权威影评人 | 影评内容 | 是否推荐 |
|---|---|---|---|---|---|---|
| 拯救恶灵 | R | 动作与冒险、恐怖 | 117.0 | TRUE | 导演斯科特·德里克森和他的联合编剧保罗·哈里斯·博德曼带来了一部平庸的程序化影片,惊悚效果乏善可陈。 | 0 |
| 巴巴拉 | PG-13 | 艺术片与国际片、剧情片 | 105.0 | FALSE | 在这个感人至深的故事中,芭芭拉设法坚守自己的原则、人性与勇气,奋力拯救一位正被共产党试图摧毁生命的年轻女异议分子。 | 1 |
| 糟糕老板们 | R | 喜剧 | 98.0 | FALSE | 这些老板既无法为谋杀辩护,也无法留下令人难忘的喜剧记忆,从而彻底破坏了一出本可以很出色的闹剧,最终却只沦为平庸之作。 | 0 |
| ... | ... | ... | ... | ... | ... | ... |
从这里下载该数据集的样本。
wget https://ludwig.ai/latest/data/rotten_tomatoes.csv
接下来,创建一个名为model.yaml的YAML配置文件,内容如下:
input_features:
- name: genres
type: set
preprocessing:
tokenizer: comma
- name: content_rating
type: category
- name: top_critic
type: binary
- name: runtime
type: number
- name: review_content
type: text
encoder:
type: embed
output_features:
- name: recommended
type: binary
就这些!现在让我们训练模型:
ludwig train --config model.yaml --dataset rotten_tomatoes.csv
祝建模愉快
尝试将Ludwig应用于你的数据。如果你有任何问题,请通过Discord联系我们。
❓ 为什么你应该使用Ludwig
极简的机器学习样板代码
Ludwig开箱即用地处理了机器学习中的工程复杂性,使研究科学家能够专注于在最高抽象层次上构建模型。数据预处理、超参数优化、设备管理以及针对
torch.nn.Module模型的分布式训练都完全免费提供。轻松构建基准测试
创建最先进的基线并与新模型进行比较,只需简单的配置更改即可。
轻松将新架构应用于多个问题和数据集
将新模型应用于Ludwig支持的广泛任务和数据集。Ludwig包含一个对任何用户开放的完整基准测试工具包,只需简单配置即可在多个数据集上运行多种模型的实验。
高度可配置的数据预处理、建模和指标
模型架构、训练循环、超参数搜索以及后端基础设施的任何方面都可以作为声明式配置中的附加字段进行修改,以定制流水线来满足你的需求。有关可配置内容的详细信息,请参阅Ludwig配置文档。
开箱即用的多模态、多任务学习
无需编写代码,即可将表格数据、文本、图像甚至音频混合搭配成复杂的模型配置。
丰富的模型导出与跟踪功能
自动使用Tensorboard、Comet ML、Weights & Biases、MLFlow和Aim Stack等工具跟踪所有试验和指标。
自动将训练扩展到多GPU、多节点集群
无需更改代码,即可从本地机器上的训练过渡到云端。
低代码接口,适用于最先进的模型,包括预训练的Huggingface Transformers
Ludwig还原生集成预训练模型,例如Huggingface Transformers中提供的模型。用户可以从大量最先进的预训练PyTorch模型中选择,而无需编写任何代码。例如,使用Ludwig训练基于BERT的情感分析模型非常简单:
ludwig train --dataset sst5 --config_str "{input_features: [{name: sentence, type: text, encoder: bert}], output_features: [{name: label, type: category}]}"低代码接口,用于AutoML
Ludwig AutoML允许用户仅提供数据集、目标列和时间预算即可获得训练好的模型。
auto_train_results = ludwig.automl.auto_train(dataset=my_dataset_df, target=target_column_name, time_limit_s=7200)易于生产部署
Ludwig使深度学习模型的部署变得容易,包括在GPU上部署。为你的Ludwig训练好的模型启动一个REST API。
ludwig serve --model_path=/path/to/modelLudwig还支持将模型导出为高效的Torchscript捆绑包。
ludwig export_torchscript -–model_path=/path/to/model
📚 教程
🔬 示例用例
- 命名实体识别标注
- 自然语言理解
- 机器翻译
- 基于序列到序列的闲聊对话建模
- 情感分析
- 使用暹罗网络进行一次学习
- 视觉问答
- 语音数字识别
- 说话人验证
- 二分类(泰坦尼克号)
- 时间序列预测
- 时间序列预测(天气)
- 电影评分预测
- 多标签分类
- 多任务学习
- 简单回归:燃油效率预测
- 欺诈检测
💡 更多信息
阅读我们在 Ludwig、声明式机器学习 以及 Ludwig 的 SOTA 基准测试 方面的论文。
了解更多关于 Ludwig 的工作原理、如何开始使用 的信息,并查看更多 示例。
如果您有兴趣 参与贡献,或有任何问题、意见和想法想要分享,亦或是希望随时了解最新动态,请考虑 加入我们的社区 Discord,并关注我们在 X 上的账号!
🤝 加入社区,与我们一起构建 Ludwig
Ludwig 是一个由社区积极维护的开源项目,其发展离不开像您这样的贡献者。欢迎加入活跃的 Ludwig 贡献者团队,共同让 Ludwig 成为一个更加易用、功能更丰富的框架,惠及每一位用户!
星标历史
👋 如何参与
版本历史
v0.12.02026/04/04v0.11.42026/04/02v0.11.32026/04/01v0.11.22026/02/28v0.11.12026/02/27v0.11.02026/02/27v0.10.42024/07/30v0.10.32024/04/08v0.10.22024/03/21v0.10.12024/02/28v0.10.02024/02/22v0.9.32024/01/23v0.9.22024/01/16v0.9.12023/12/20v0.92023/12/19v0.8.62023/10/13v0.8.52023/10/09v0.8.42023/09/19v0.8.32023/09/12v0.8.22023/09/01常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

