notebooks
notebooks 是 Unsloth 团队精心打造的开源项目,汇集了超过 250 个针对文本、视觉、音频、嵌入模型及语音合成(TTS)的微调与强化学习(RL)实战笔记。它主要解决了 AI 开发者在模型定制过程中面临的环境配置复杂、代码复用难以及从数据准备到推理全流程打通门槛高等痛点。
无论是希望快速上手的初学者,还是需要高效实验的资深研究人员与工程师,都能从中受益。用户无需从零编写底层代码,即可直接基于 Google Colab 或本地环境,对 Gemma、Qwen 等主流大模型进行可视化微调、对话训练甚至复杂的 GRPO 强化学习。
其核心亮点在于“开箱即用”的完整性:每个笔记都涵盖了数据预处理、模型训练到最终推理的全部环节,并针对 Unsloth 的高性能优化特性进行了适配。通过提供清晰的模型分类索引和一键运行链接,notebooks 极大地缩短了算法验证周期,让创作者能更专注于策略调整与应用创新,而非繁琐的工程实现细节。
使用场景
一家初创教育科技公司希望快速构建一个能理解数学公式并讲解解题步骤的专属多模态 AI 助教,团队仅有一名算法工程师且算力资源有限。
没有 notebooks 时
- 环境配置耗时极长:工程师需手动排查 PyTorch、CUDA 版本兼容性,安装视觉与语言模型的复杂依赖库往往耗费数天时间。
- 代码复用率低:从数据预处理、QLoRA 微调到推理验证,每个环节都需从零编写样板代码,极易出现难以调试的底层错误。
- 多模态适配困难:让模型同时处理图像(题目截图)和文本(解题逻辑)需要深厚的架构知识,自行修改注意力机制风险极高。
- 试错成本高昂:在本地或云端反复尝试不同参数组合时,因缺乏优化导致显存溢出,频繁中断训练进程。
使用 notebooks 后
- 一键启动开发:直接打开针对 Qwen3.5-VL 等视觉模型的 Colab 笔记本,预置好所有依赖与环境,几分钟内即可开始数据加载。
- 全流程模板化:利用内置的数据清洗、Unsloth 加速训练及推理代码块,工程师只需替换数据集路径即可跑通完整微调链路。
- 多模态能力开箱即用:调用现成的 Vision 类型笔记本,无需修改底层架构即可实现“看图说话”的数学题讲解功能。
- 高效资源利用:借助笔记中集成的显存优化技术,在单张 T4 GPU 上也能流畅训练 8B 甚至更大参数的多模态模型。
notebooks 将原本需要数周的环境搭建与原型验证工作压缩至几小时,让小型团队也能低成本落地垂直领域的多模态大模型应用。
运行环境要求
- Linux
- macOS
- Windows
需要 NVIDIA GPU(推荐 T4, A100, H100 或本地 RTX 3090/4090),显存需求视模型大小而定(2B 模型约 6GB+,20B 模型需 24GB+ 或使用量化/Offload 技术),支持 CUDA 11.8+ 及 BF16/FP8 精度
最低 12GB,推荐 24GB+(取决于加载的模型参数量)

快速开始
📒 微调笔记本
以下是按模型分类的 Colab 笔记本。你也可以在我们的文档中查看所有 笔记本。
这些笔记本可以在本地运行,包含数据准备、训练和推理等内容。请阅读我们的 微调指南。
主要笔记本
GRPO 与强化学习笔记本
工具调用笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Qwen2.5 Coder (1.5B) | 工具调用 | |
| FunctionGemma (270M) | 工具调用 | |
| FunctionGemma (270M) | 移动操作 | |
| FunctionGemma (270M) | 推理 | |
| FunctionGemma (270M) | 对话 |
文本转语音(TTS)笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Spark TTS (0.5B) | TTS | |
| Orpheus (3B) | TTS | |
| Llasa TTS (3B) | TTS | |
| Llasa TTS (1B) | TTS | |
| Sesame CSM (1B) | TTS | |
| Oute TTS (1B) | TTS |
视觉(多模态)笔记本
嵌入笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ModernBert | ||
| Qwen3 Embedding (4B) | ||
| Qwen3 Embedding (0.6B) | ||
| EmbeddingGemma (300M) | ||
| BGE M3 | ||
| ModernBERT (Large) | 分类 | |
| All MiniLM L6 v2 |
语音转文本(STT)笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Whisper (Large) | 微调 |
OCR笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Deepseek OCR (3B) | 微调 | |
| Deepseek OCR (3B) | 评估 | |
| Deepseek OCR (3B) | 测试 | |
| Deepseek OCR 2 (3B) | ||
| Paddle OCR (1B) | 视觉 |
BERT笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ModernBert | ||
| ModernBERT (Large) | 分类 |
Deepseek笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Deepseek OCR (3B) | 微调 | |
| Deepseek OCR (3B) | 评估 | |
| Deepseek OCR (3B) | 测试 | |
| Deepseek OCR 2 (3B) |
ERNIE笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ERNIE 4.5 VL 28B A3B PT | 视觉 | |
| ERNIE 4.5 21B A3B PT | 对话 |
GLM笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| (A100) GLM Flash(80GB) |
GPT-OSS 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| gpt oss MXFP4 (20B) | 推理 | |
| gpt oss (20B) | 微调 | |
| gpt oss (20B) | 微调 | |
| gpt oss BNB (20B) | 推理 | |
| (A100) gpt oss (120B) | 微调 |
Gemma 4 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Gemma4 (E4B) | 视觉 | |
| Gemma4 (E4B) | 对话 | |
| Gemma4 (E4B) | 音频 | |
| Gemma4 (E2B) | 视觉 | |
| Gemma4 (E2B) | 音频 | |
| Gemma4 (E2B) | 对话 | |
| Gemma4 (26B A4B) | 对话 | |
| Gemma4 (26B A4B) | 视觉 | |
| Gemma4 (31B) | 视觉 | |
| Gemma4 (31B) | 对话 |
Gemma 笔记本
Granite 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Granite4.0 (3B) | 对话 | |
| Granite4.0 (350M) | 对话 |
混合注意力笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| LFM2.5 (1.2B) | 对话 | |
| LFM2.5 VL (1.6B) | 视觉 | |
| Liquid LFM2 (1.2B) | 对话 | |
| Liquid LFM2 | 对话 | |
| LFM2.5 (1.2B) | ||
| Falcon H1 (0.5B) | Alpaca | |
| Falcon H1 | Alpaca |
Llama 笔记本
Mistral 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Mistral v0.3 (7B) | 对话 | |
| Magistral (24B) | 理性对话 | |
| Pixtral (12B) | 视觉 | |
| Mistral Small (22B) | Alpaca | |
| Ministral3 VL (3B) | 视觉 | |
| Mistral v0.3 (7B) | Alpaca | |
| Mistral Nemo (12B) | Alpaca |
Nemotron 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| (A100) Nemotron Nano 3 30B A3B | ||
| (A100) Nemotron 3 Nano 30B A3B |
Paddle 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Paddle OCR (1B) | 视觉 |
Phi 笔记本
| 型号 | 类型 | 笔记本链接 |
|---|---|---|
| Phi 4 | 对话型 | |
| Phi 3.5 Mini | 对话型 | |
| Phi 3 Medium | 对话型 |
通义千问笔记本
文本补全 / 继续预训练笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| LFM2.5 (1.2B) | 文本补全 | |
| Mistral v0.3 (7B) | CPT | |
| Mistral (7B) | 文本补全 |
特定用例笔记本
| 用例 | 模型 | 笔记本链接 |
|---|---|---|
| 文本分类 | Llama 3.1 (8B) | |
| 工具调用 | Qwen2.5-Coder (1.5B) | |
| 多数据集 | ||
| KTO | Qwen2.5-Instruct (1.5B) | |
| 推理聊天界面 | LLaMa 3.2 Vision | |
| 对话式 | LLaMa 3.2 (1B 和 3B) | |
| ChatML | Mistral (7B) | |
| 文本补全 | Mistral (7B) |
其他笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| CodeForces cot 微调 用于 CodeForces 上的推理 |
推理 | |
| 合成数据黑客马拉松 | 合成数据 | |
| Unsloth | 工作室 |
📒 Kaggle 笔记本
点击查看我们按模型分类的所有 Kaggle 笔记本:
GRPO 与强化学习笔记本
工具调用笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Qwen2.5 Coder (1.5B) | 工具调用 |
文本转语音(TTS)笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Spark TTS (0.5B) | TTS | |
| Orpheus (3B) | TTS | |
| Llasa TTS (3B) | TTS | |
| Llasa TTS (1B) | TTS | |
| Sesame CSM (1B) | TTS | |
| Oute TTS (1B) | TTS |
视觉(多模态)笔记本
嵌入模型笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ModernBert | ||
| Qwen3 Embedding (4B) | ||
| Qwen3 Embedding (0.6B) | ||
| EmbeddingGemma (300M) | ||
| BGE M3 | ||
| ModernBERT (Large) | 分类 | |
| All MiniLM L6 v2 |
语音转文本(STT)笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Whisper (Large) | 微调 |
OCR笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Deepseek OCR (3B) | 微调 | |
| Deepseek OCR (3B) | 评估 | |
| Deepseek OCR (3B) | 评测 | |
| Deepseek OCR 2 (3B) | ||
| Paddle OCR (1B) | 视觉 |
BERT笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ModernBert | ||
| ModernBERT (Large) | 分类 |
Deepseek笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Deepseek OCR (3B) | 微调 | |
| Deepseek OCR (3B) | 评估 | |
| Deepseek OCR (3B) | 评测 | |
| Deepseek OCR 2 (3B) |
ERNIE 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| ERNIE 4.5 VL 28B A3B PT | 视觉 | |
| ERNIE 4.5 21B A3B PT | 对话 |
GPT-OSS 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| gpt oss MXFP4 (20B) | 推理 | |
| gpt oss (20B) | 微调 | |
| gpt oss (20B) | 微调 | |
| gpt oss BNB (20B) | 推理 | |
| (A100) gpt oss (120B) | 微调 |
Gemma 笔记本
石英笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| 石英4.0 (3B) | 对话型 | |
| 石英4.0 (350M) | 对话型 |
混合注意力笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| 液态LFM2 (1.2B) | 对话型 | |
| 猎鹰H1 (0.5B) | 阿尔帕卡 |
羊驼笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| 羊驼3.1 (8B) | 推理 | |
| 羊驼3 (8B) | Ollama | |
| 羊驼3 (8B) | 阿尔帕卡 | |
| 羊驼3.2 (1B和3B) | 对话型 | |
| 羊驼3.2 (1B) | RAFT | |
| 羊驼3.1 (8B) | 阿尔帕卡 | |
| (A100) 羊驼3.3 (70B) | 对话型 | |
| 羊驼3.2 (11B) | 视觉 | |
| 羊驼3 (8B) | 对话型 | |
| 小羊驼 (1.1B) | 阿尔帕卡 |
Mistral 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Mistral v0.3 (7B) | 对话型 | |
| Magistral (24B) | 推理对话型 | |
| Pixtral (12B) | 视觉型 | |
| Mistral Small (22B) | Alpaca 型 | |
| Ministral3 VL (3B) | 视觉型 | |
| Mistral v0.3 (7B) | Alpaca 型 | |
| Mistral Nemo (12B) | Alpaca 型 |
Nemotron 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| (A100) Nemotron Nano 3 30B A3B | ||
| (A100) Nemotron 3 Nano 30B A3B |
Paddle 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Paddle OCR (1B) | 视觉型 |
Phi 笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Phi 4 | 对话型 | |
| Phi 3.5 Mini | 对话型 | |
| Phi 3 Medium | 对话型 |
通义千问笔记本
文本补全 / 继续预训练笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| Mistral v0.3 (7B) | CPT | |
| Mistral (7B) | 文本补全 |
其他笔记本
| 模型 | 类型 | 笔记本链接 |
|---|---|---|
| CodeForces cot 微调 用于 CodeForces 上的推理 |
推理 | |
| Unsloth | 工作室 |
已知问题 / 环境说明
- NumPy 2.x ↔ soxr: NumPy 2.x 会破坏 soxr,导致 Unsloth 导入失败。可通过固定
numpy<2来解决。如果需要,可以使用pip install --force-reinstall "numpy<2"。影响:无法运行 Unsloth。 - soxr 重新安装:如果不使用
--no-deps,pip install --force-reinstall soxr可能会再次引入 NumPy 2.x。应使用pip install --force-reinstall --no-deps soxr来避免此问题。影响:可能重新引入 NumPy 2.x 并破坏 Unsloth 的导入。 - typing_extensions:较旧版本的 typing_extensions 可能会导致 torch 导入失败(缺少 TypeIs),直到升级为止。请使用
pip install --upgrade typing_extensions进行升级。影响:无法正确导入 PyTorch。 - 解析器警告:固定
numpy<2可能会在与 SciPy/Numba 一起使用时引发 pip 解析器警告;通常这些警告不会造成严重问题。影响:仅为外观上的警告,不影响功能。 - ROCm / triton_key:在 ROCm 上使用
torch.compile时,如果 Triton 缺少triton_key,LoRA 的反向传播可能会崩溃。目前的解决方法是在 ROCm 上禁用 Inductor/compile(代码中已处理,但仍需注意)。影响:在使用 torch.compile 时,可能导致 AMD GPU 上的训练崩溃。
✨ 参与笔记本贡献
如果您想为我们的笔记本贡献内容,以下是一个入门指南:
- 找到模板:我们在该项目的根目录下提供了一个名为
Template_Notebook.ipynb的模板笔记本。该模板包含了本系列所有笔记本的基本结构和格式规范。 - 创建您的笔记本:
- 复制
Template_Notebook.ipynb。 - 按照以下命名规则重命名复制后的文件:
- LLM 笔记本:
<模型名称>-<类型>.ipynb(例如:Mistral_v0.3_(7B)-Alpaca.ipynb) - 视觉笔记本:
<模型名称>-Vision.ipynb(例如:Llava_v1.6_(7B)-Vision.ipynb) - 类型示例:
Alpaca、对话式、CPT、DPO、ORPO、文本补全、CSV、推理、Unsloth_Studio
- LLM 笔记本:
- 复制
- 放入
original_template目录:当您的笔记本准备就绪后,将其移动到original_template目录。 - 更新笔记本:在终端中运行以下命令:
该脚本将自动执行以下操作:python update_all_notebooks.py- 将您的笔记本从
original_template目录复制到notebooks目录。 - 更新笔记本内部的各个部分(如安装、新闻等),以确保一致性。
- 将您的笔记本添加到本
README.md文件中的相应列表中。
- 将您的笔记本从
- 创建拉取请求:完成后,只需创建一个拉取请求(PR)以合并您的更改,使您的内容对所有人可见!
- 我们非常感谢您的贡献,并期待审阅您的笔记本!
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器