lora-scripts
lora-scripts(又名 SD-Trainer)是一款专为 Stable Diffusion 模型训练打造的开源工具集。它基于知名的 kohya-ss 训练框架,提供了 LoRA 和 Dreambooth 两种主流微调技术的完整解决方案,旨在让用户轻松定制专属的 AI 绘画模型。
对于许多希望训练模型但畏惧复杂命令行操作的用户而言,配置环境和编写脚本往往是一道高门槛。lora-scripts 通过提供“一键式”安装脚本和直观的 WebUI 图形界面,完美解决了这一痛点。用户无需手动处理繁琐的依赖项或记忆复杂的参数指令,只需在浏览器中点点鼠标,即可完成从数据打标、参数设置到启动训练的全过程。此外,它还集成了 TensorBoard 可视化监控、WD 1.4 自动打标及标签编辑等实用功能,构建了一个真正的“一站式”训练工作室。
这款工具非常适合各类人群使用:既适合想要快速上手模型训练的普通爱好者和设计师,也适合需要高效验证实验的研究人员。其独特的技术亮点在于将强大的后端脚本能力封装在友好的前端界面中,同时保留了直接运行脚本的传统模式以满足高级用户的定制需求。无论你是 Windows 还是 Linux 用户,都能通过简单的几步操作,享受流畅的模型训练体验。
使用场景
一位独立游戏开发者希望将自己绘制的原创角色训练成 Stable Diffusion 模型,以便快速生成该角色在不同场景下的立绘素材。
没有 lora-scripts 时
- 环境配置繁琐:需要手动安装 Python 依赖、配置 kohya-ss 脚本库,常因版本冲突导致训练环境搭建失败。
- 命令行门槛高:必须手写复杂的训练命令参数,稍有不慎(如路径错误或参数遗漏)就会导致训练中断且难以排查。
- 数据处理低效:缺乏集成的打标工具,需单独运行其他软件为图片生成标签,再手动整理文件夹结构,耗时耗力。
- 过程监控困难:无法直观查看训练损失曲线,只能等待训练结束后查看日志,一旦过拟合或欠拟合只能重新来过。
使用 lora-scripts 后
- 一键部署环境:运行
install.ps1即可自动创建虚拟环境并安装所有必要依赖,彻底解决配置报错问题。 - 可视化操作界面:通过内置的 WebUI 图形界面勾选参数、填写路径,无需记忆任何命令行代码,大幅降低出错率。
- 全流程集成工具:直接在界面中调用 WD 1.4 Tagger 自动打标并提供编辑功能,实现了从数据预处理到启动训练的一站式完成。
- 实时训练监控:集成 TensorBoard 面板,可实时观察损失变化趋势,随时调整策略,显著提升了模型收敛的成功率。
lora-scripts 将原本晦涩难懂的代码训练流程转化为直观的图形化操作,让创作者能专注于内容本身而非技术细节。
运行环境要求
- Windows
- Linux
未说明(基于 kohya-ss/sd-scripts,通常训练 LoRA/Dreambooth 需要 NVIDIA GPU,但 README 未明确具体型号或显存要求)
未说明

快速开始
SD-Trainer
✨ 尽情享受 Stable Diffusion 训练吧! ✨
LoRA-scripts(又名 SD-Trainer)
针对 kohya-ss/sd-scripts 的 LoRA 和 Dreambooth 训练 GUI、脚本预设以及一键式训练环境。
✨ 新:训练 WebUI
真正的 Stable Diffusion 训练工作室。一切尽在一款 WebUI 中。
请按照下方的安装指南安装 GUI,然后运行 run_gui.ps1(Windows)或 run_gui.sh(Linux)以启动 GUI。

| TensorBoard | WD 1.4 标签器 | 标签编辑器 |
|---|---|---|
![]() |
![]() |
![]() |
使用方法
必需依赖
Python 3.10 和 Git
克隆包含子模块的仓库
git clone --recurse-submodules https://github.com/Akegarasu/lora-scripts
✨ SD-Trainer GUI
Windows
安装
运行 install.ps1 将自动为您创建一个虚拟环境并安装必要的依赖项。如果您在中国大陆,请使用 install-cn.ps1。
训练
运行 run_gui.ps1,程序将自动打开 http://127.0.0.1:28000。
Linux
安装
运行 install.bash 将创建一个虚拟环境并安装必要的依赖项。
训练
运行 bash run_gui.sh,程序将自动打开 http://127.0.0.1:28000。
通过手动运行脚本进行传统训练
Windows
安装
运行 install.ps1 将自动为您创建一个虚拟环境并安装必要的依赖项。
训练
编辑 train.ps1,然后运行它。
Linux
安装
运行 install.bash 将创建一个虚拟环境并安装必要的依赖项。
训练
训练脚本 train.sh 不会为您激活虚拟环境。您需要先手动激活虚拟环境。
source venv/bin/activate
编辑 train.sh,然后运行它。
TensorBoard
运行 tensorboard.ps1 将在 http://localhost:6006/ 启动 TensorBoard。
程序参数
| 参数名称 | 类型 | 默认值 | 描述 |
|---|---|---|---|
--host |
str | "127.0.0.1" | 服务器的主机名 |
--port |
int | 28000 | 服务器运行的端口 |
--listen |
bool | false | 启用服务器的监听模式 |
--skip-prepare-environment |
bool | false | 跳过环境准备步骤 |
--disable-tensorboard |
bool | false | 禁用 TensorBoard |
--disable-tageditor |
bool | false | 禁用标签编辑器 |
--tensorboard-host |
str | "127.0.0.1" | 运行 TensorBoard 的主机 |
--tensorboard-port |
int | 6006 | 运行 TensorBoard 的端口 |
--localization |
str | 界面的语言设置 | |
--dev |
bool | false | 开发者模式,会禁用部分检查 |
版本历史
v1.10.02024/10/05v1.9.02024/08/31v1.8.32024/01/15v1.8.22024/01/02v1.8.02023/11/15v1.7.32023/10/12v1.7.02023/10/03v1.6.02023/09/01v1.4.02023/07/13v1.1.02023/06/01v0.2.02023/03/05v0.1.02023/03/03常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
tesseract
Tesseract 是一款历史悠久且备受推崇的开源光学字符识别(OCR)引擎,最初由惠普实验室开发,后由 Google 维护,目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据,有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题,是数字化归档和信息自动化的重要基础工具。 在技术层面,Tesseract 展现了强大的适应能力。从版本 4 开始,它引入了基于长短期记忆网络(LSTM)的神经网络 OCR 引擎,显著提升了行识别的准确率;同时,为了兼顾旧有需求,它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码,开箱即用即可识别超过 100 种语言,并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面,它灵活支持纯文本、hOCR、PDF、TSV 等多种格式,方便后续数据处理。 Tesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库(libtesseract),不包含图形用户界面(GUI),因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中


