[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huggingface--smol-course":3,"tool-huggingface--smol-course":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,2,"2026-04-13T23:32:16",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":32,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":103,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":138},7340,"huggingface\u002Fsmol-course","smol-course","A course on aligning smol models.","smol-course 是一门专注于小型语言模型（SLM）对齐的实战课程，旨在帮助用户将开源模型调整为适应特定业务场景的专用助手。它解决了大型模型资源消耗高、定制难度大以及数据隐私难以保障等痛点，让开发者能在普通本地设备上完成从指令微调、偏好对齐到多模态适配的全流程，无需依赖昂贵的 GPU 集群或付费云服务。\n\n本课程特别适合具备一定 Python 和机器学习基础的开发者、研究人员及高校学生。对于希望低成本探索大模型应用、注重数据隐私或从事绿色计算项目的团队，smol-course 提供了极佳的入门路径。其核心亮点在于围绕 SmolLM3 和 SmolVLM2 等轻量级模型构建，不仅涵盖了监督微调、人类偏好对齐（如 DPO 算法）及评估基准等关键技术，还创新性地采用了“开放同行评审”模式：学习者可通过提交代码、优化模型并参与排行榜竞争来共同完善课程内容。这种社区驱动的方式既降低了学术研究与工程落地的门槛，也促进了知识的快速迭代与共享。","![smolcourse image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smol-course_readme_427170cdbdeb.png)\n\n# a smol course\n\nThis is a practical course on aligning language models for your specific use case. It's a handy way to get started with aligning language models, because everything runs on most local machines. There are minimal GPU requirements and no paid services. The course is built around the [SmolLM3](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fsmollm3) and [SmolVLM2](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fsmolvlm2) models, but the skills you'll learn can be applied to larger models or other small LLMs\u002FVLMs as well.\n\n\u003Cdiv style=\"background: linear-gradient(to right, #e0f7fa, #e1bee7, orange); padding: 20px; border-radius: 5px; margin-bottom: 20px; color: purple;\">\n    \u003Ch2>smol course v2 is live!\u003C\u002Fh2>\n    \u003Cp>This course is open and peer reviewed. To get involved with the course \u003Cstrong>open a pull request\u003C\u002Fstrong> and submit your work for review. Here are the steps:\u003C\u002Fp>\n    \u003Col>\n        \u003Cli>Follow the \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fsmol-course\">Hugging Face Hub org\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>Read the material, make changes, do the exercises, add your own examples.\u003C\u002Fli>\n        \u003Cli>Submit a model to the leaderboard\u003C\u002Fli>\n        \u003Cli>Climb the leaderboard\u003C\u002Fli>\n    \u003C\u002Fol>\n    \u003Cp>This should help you learn and to build a community-driven course that is always improving.\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\n\u003Ca href=\"http:\u002F\u002Fhf.co\u002Fjoin\u002Fdiscord\">\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-7289DA?&logo=discord&logoColor=white\"\u002F>\n\u003C\u002Fa>\n\n\n\n\n## Future of this course\n\nThis course will soon be re-released on Hugging Face Learn! Stay tuned for updates.\n\n## Course Outline\n\nThis course provides a practical, hands-on approach to working with small language models, from initial training through to production deployment.\n\n| # | Topic | Description | Released |\n| - | ----- | ----------- | -------- |\n| 1 | Instruction Tuning | Supervised fine-tuning, chat templates, instruction following | ✅ |\n| 2 | Evaluation | Benchmarks and custom domain evaluation | ✅ |\n| 3 | Preference Alignment | Aligning models to human preferences with algorithms like DPO. | ✅ |\n| 4 | Vision Language Models | Adapt and use multimodal models | ✅ |\n| 5 | Reinforcement Learning | Optimizing models with based on reinforcement policies. | October 2025 |\n| 6 | Synthetic Data | Generate synthetic datasets for custom domains | November 2025 |\n| 7 | Award Ceremony | Showcase projects and celebrate | December 2025 |\n\n\n## Why Small Language Models?\n\nWhile large language models have shown impressive capabilities, they often require significant computational resources and can be overkill for focused applications. Small language models offer several advantages for domain-specific applications:\n\n- **Efficiency**: Require significantly less computational resources to train and deploy\n- **Customization**: Easier to fine-tune and adapt to specific domains\n- **Control**: Better understanding and control of model behavior\n- **Cost**: Lower operational costs for training and inference\n- **Privacy**: Can be run locally without sending data to external APIs\n- **Green Technology**: Advocates efficient usage of resources with reduced carbon footprint\n- **Easier Academic Research Development**: Provides an easy starter for academic research with cutting-edge LLMs with less logistical constraints\n\n## Prerequisites\n\nBefore starting, ensure you have the following:\n- Basic understanding of machine learning and natural language processing.\n- Familiarity with Python, PyTorch, and the `transformers` library.\n- Access to a pre-trained language model and a labeled dataset.\n\n## v1 of the course\n\nThe first version of the course used GithHub markdown and Jupyter notebooks. You can find it in the [v1](.\u002Fv1) directory.\n\n","![smolcourse 图片](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smol-course_readme_427170cdbdeb.png)\n\n# 一个小型课程\n\n这是一个针对您的特定用例对语言模型进行对齐的实用课程。它提供了一种便捷的方式开始语言模型的对齐工作，因为所有内容都可以在大多数本地机器上运行。所需的 GPU 资源极少，也不需要任何付费服务。本课程围绕 [SmolLM3](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fsmollm3) 和 [SmolVLM2](https:\u002F\u002Fhuggingface.co\u002Fblog\u002Fsmolvlm2) 模型展开，但您所学到的技能同样可以应用于更大的模型或其他小型 LLM\u002FVLM。\n\n\u003Cdiv style=\"background: linear-gradient(to right, #e0f7fa, #e1bee7, orange); padding: 20px; border-radius: 5px; margin-bottom: 20px; color: purple;\">\n    \u003Ch2>smol course v2 已上线！\u003C\u002Fh2>\n    \u003Cp>本课程是开放且经过同行评审的。要参与本课程，请\u003Cstrong>打开一个拉取请求\u003C\u002Fstrong>并提交您的作品以供审查。以下是具体步骤：\u003C\u002Fp>\n    \u003Col>\n        \u003Cli>关注 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fsmol-course\">Hugging Face Hub 组织\u003C\u002Fa>\u003C\u002Fli>\n        \u003Cli>阅读材料、进行修改、完成练习，并添加您自己的示例。\u003C\u002Fli>\n        \u003Cli>将模型提交到排行榜\u003C\u002Fli>\n        \u003Cli>提升您的排行榜排名\u003C\u002Fli>\n    \u003C\u002Fol>\n    \u003Cp>这将帮助您学习，并构建一个由社区驱动、不断改进的课程。\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n\n\u003Ca href=\"http:\u002F\u002Fhf.co\u002Fjoin\u002Fdiscord\">\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-7289DA?&logo=discord&logoColor=white\"\u002F>\n\u003C\u002Fa>\n\n\n\n\n## 本课程的未来\n\n本课程很快将在 Hugging Face Learn 上重新发布！敬请期待后续更新。\n\n## 课程大纲\n\n本课程提供了一种实用、动手的操作方式，从初始训练到生产部署，全面讲解如何使用小型语言模型。\n\n| 序号 | 主题 | 描述 | 发布日期 |\n| - | ----- | ----------- | -------- |\n| 1 | 指令微调 | 监督式微调、聊天模板、指令遵循 | ✅ |\n| 2 | 评估 | 基准测试与自定义领域的评估 | ✅ |\n| 3 | 偏好对齐 | 使用 DPO 等算法将模型对齐到人类偏好。 | ✅ |\n| 4 | 视觉语言模型 | 适配并使用多模态模型 | ✅ |\n| 5 | 强化学习 | 基于强化学习策略优化模型。 | 2025年10月 |\n| 6 | 合成数据 | 为自定义领域生成合成数据集 | 2025年11月 |\n| 7 | 颁奖典礼 | 展示项目并庆祝 | 2025年12月 |\n\n\n## 为什么选择小型语言模型？\n\n尽管大型语言模型展现了令人印象深刻的性能，但它们通常需要大量的计算资源，对于一些专注的应用来说可能过于强大。小型语言模型在特定领域应用中具有以下优势：\n\n- **高效性**：训练和部署所需计算资源显著减少。\n- **可定制性**：更容易针对特定领域进行微调和适应。\n- **可控性**：能够更好地理解和控制模型的行为。\n- **成本**：训练和推理的运营成本更低。\n- **隐私性**：可以在本地运行，无需将数据发送到外部 API。\n- **绿色技术**：倡导高效利用资源，减少碳足迹。\n- **更易开展学术研究**：为学术研究提供了一个简单的起点，使用前沿的 LLM 进行研究时，后勤限制更少。\n\n## 先决条件\n\n在开始之前，请确保您具备以下条件：\n- 对机器学习和自然语言处理有基本的了解。\n- 熟悉 Python、PyTorch 和 `transformers` 库。\n- 可访问预训练的语言模型和标注数据集。\n\n## 课程 v1 版本\n\n课程的第一版使用了 GitHub Markdown 和 Jupyter 笔记本。您可以在 [v1](.\u002Fv1) 目录中找到它。","# smol-course 快速上手指南\n\n`smol-course` 是一门专注于**小型语言模型（Small Language Models）**对齐的实战课程。它旨在帮助开发者在本地机器上低成本地完成从指令微调到偏好对齐的全流程，无需昂贵的 GPU 集群或付费服务。课程基于 `SmolLM3` 和 `SmolVLM2` 模型构建，所学技能可迁移至其他大模型或小模型场景。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n### 系统要求\n- **硬件**：大多数本地机器即可运行（最低 GPU 要求，甚至部分任务可在 CPU 上完成）。\n- **操作系统**：Linux, macOS 或 Windows (WSL2 推荐)。\n\n### 前置知识与依赖\n- **知识储备**：具备基础的机器学习与自然语言处理（NLP）概念。\n- **编程技能**：熟悉 Python、PyTorch 及 Hugging Face `transformers` 库。\n- **数据准备**：能够访问预训练语言模型及标注数据集。\n\n### 软件依赖安装\n建议创建独立的虚拟环境并安装核心依赖：\n\n```bash\npython -m venv smol-env\nsource smol-env\u002Fbin\u002Factivate  # Windows 用户使用: smol-env\\Scripts\\activate\n\npip install torch transformers datasets accelerate peft trl evaluate\n```\n\n> **国内加速提示**：如果遇到下载缓慢，建议使用国内镜像源安装依赖：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch transformers datasets accelerate peft trl evaluate\n> ```\n\n## 安装步骤\n\n本课程以开源仓库形式托管，主要通过克隆代码库获取学习材料（Notebooks 和脚本）。\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course.git\n   cd smol-course\n   ```\n\n2. **配置 Hugging Face Token（可选但推荐）**\n   若需上传模型至 leaderboard 或使用 gated models，请登录 HF 账号：\n   ```bash\n   huggingface-cli login\n   ```\n\n3. **验证环境**\n   进入课程目录，检查是否有对应的章节文件夹（如 `unit1`, `unit2` 等），确认 Jupyter Notebook 或 Python 脚本可被识别。\n\n## 基本使用\n\n本课程采用模块化结构，每个单元对应一个具体的对齐技术（如指令微调、DPO 偏好对齐等）。以下以最简单的**指令微调（Instruction Tuning）**为例展示使用流程。\n\n### 1. 加载示例数据与模型\n在对应的单元目录（例如 `unit1`）中，通常包含完整的 Notebook。你可以直接运行以下核心代码逻辑来启动微调：\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\nfrom datasets import load_dataset\nfrom trl import SFTTrainer\n\n# 1. 加载小型预训练模型 (例如 SmolLM3)\nmodel_name = \"HuggingFaceTB\u002FSmolLM3-135M\"\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name)\n\n# 2. 加载指令数据集\ndataset = load_dataset(\"mlabonne\u002Fguanaco-llama2-1k\", split=\"train\")\n\n# 3. 配置训练参数\ntraining_args = {\n    \"output_dir\": \".\u002Fsmol-finetuned\",\n    \"per_device_train_batch_size\": 4,\n    \"num_train_epochs\": 3,\n    \"learning_rate\": 2e-4,\n}\n\n# 4. 初始化 Trainer 并开始训练\ntrainer = SFTTrainer(\n    model=model,\n    tokenizer=tokenizer,\n    train_dataset=dataset,\n    dataset_text_field=\"text\",\n    args=training_args,\n)\n\ntrainer.train()\n```\n\n### 2. 参与社区与提交成果\n`smol-course` v2 版本强调社区共建。完成练习后，你可以：\n1. 将微调后的模型上传至 Hugging Face Hub。\n2. 在课程对应的 Org 下提交 Pull Request 以更新课程内容或添加你的示例。\n3. 将模型提交至排行榜（Leaderboard）以查看排名。\n\n```bash\n# 示例：使用 huggingface-cli 上传模型\nhuggingface-cli upload \u003Cyour-username>\u002Fsmol-my-finetuned .\u002Fsmol-finetuned\n```\n\n通过上述步骤，你即可完成第一个小型模型的对齐实验，并逐步深入探索多模态适配、强化学习等高级主题。","一家初创医疗科技公司希望将最新的临床指南整合进内部医生助手，但受限于预算和数据隐私法规，无法调用大型云端模型。\n\n### 没有 smol-course 时\n- **硬件门槛高**：团队误以为对齐模型必须依赖昂贵的 A100 集群，导致项目因算力成本过高而搁置。\n- **技术路径迷茫**：缺乏系统的微调指南，工程师在指令微调、DPO 偏好对齐等关键步骤上反复试错，耗时数周仍无法收敛。\n- **数据隐私风险**：为寻求外部技术支持，不得不考虑将脱敏不彻底的病历数据发送至第三方 API，存在合规隐患。\n- **领域适配困难**：直接使用的通用小模型在医学术语理解上表现糟糕，且团队不知如何构建有效的自定义评估基准。\n\n### 使用 smol-course 后\n- **本地轻松运行**：遵循课程中关于 SmolLM3 的实践，团队发现仅需单张消费级显卡即可完成从训练到部署的全流程。\n- **标准化对齐流程**：按部就班完成“指令微调”与“偏好对齐”章节，快速掌握了让模型准确遵循医疗问答规范的技术细节。\n- **数据完全闭环**：利用课程强调的本地化优势，所有敏感病历数据均在内部服务器处理，彻底消除了隐私泄露风险。\n- **精准效果验证**：应用课程提供的“自定义领域评估”方法，构建了专门的医疗基准测试，确保模型在特定场景下的可靠性。\n\nsmol-course 通过低门槛、全流程的实战指导，让资源有限的团队也能在本地安全地打造出高度定制化的专业小模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_smol-course_427170cd.png","huggingface","Hugging Face","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuggingface_90da21a4.png","The AI community building the future.",null,"https:\u002F\u002Fhuggingface.co\u002F","https:\u002F\u002Fgithub.com\u002Fhuggingface",[80,84,88],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",99.4,{"name":85,"color":86,"percentage":87},"Python","#3572A5",0.6,{"name":89,"color":90,"percentage":91},"MDX","#fcb32c",0.1,6628,2294,"2026-04-13T16:48:27","Apache-2.0","未说明","非必需（可在大多数本地机器上运行，对 GPU 要求极低）",{"notes":99,"python":96,"dependencies":100},"本课程专为在普通本地机器上运行设计，无需付费服务。主要围绕 SmolLM3 和 SmolVLM2 小型模型进行教学，但也适用于其他小型或大型语言\u002F视觉模型。前置知识要求包括机器学习基础、Python、PyTorch 及 transformers 库的使用经验。",[101,102],"transformers","PyTorch",[35,14,104],"其他","2026-03-27T02:49:30.150509","2026-04-14T12:27:58.192724",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},32971,"在 T4 GPU 实例上运行 DPO 训练时出现显存不足（Out of Memory）错误如何解决？","可以通过减少 `DPOConfig` 中的 `max_tokens` 参数或降低 `max_length` 来解决显存不足的问题。虽然这可能会影响输出质量，但能让训练在有限显存下运行。此外，后续可以尝试使用 PEFT（参数高效微调）技术来优化资源使用。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F141",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},32970,"SFT 笔记本链接（1_instruction_tuning）无法打开或显示丢失怎么办？","笔记本已被恢复。如果仍然遇到链接问题，可以尝试切换到特定的提交版本来访问旧版笔记本，运行命令：`git checkout daed87f8cfcdc03ae046b852307d8a4d21866e9c`。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F224",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},32972,"SmolLM3 模型的工具调用（Tool Calling）格式与文档示例不符，是 Bug 吗？","这不是 Bug，而是格式差异。文档示例使用的是 OpenAI 风格的工具调用（包含 `tool_calls` 列表），但 SmolLM3-3B 的分词器聊天模板实际上使用的是 XML 风格。正确的格式应将工具调用直接嵌入 `content` 字段中，例如：`\"content\": \"...\\n\\n\u003Ctool_call>\\n{\\\"name\\\": \\\"get_weather\\\", ...}\\n\u003C\u002Ftool_call>\"`。在使用 `apply_chat_template` 时需注意模型特定的模板风格。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F259",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},32973,"完成本课程所需的最低硬件配置是什么？CPU 可以运行吗？","仅使用 CPU 进行推理非常缓慢（生成回答需数分钟），且几乎不可能进行模型训练。建议使用带有 Metal 支持的 Mac 或 GPU 实例。对于免费资源，可以尝试 Google Colab 的免费 tier，但如果需要更稳定的训练体验，建议使用付费 tier 或短期租赁 GPU。对于低配硬件，可以考虑使用 LoRA 和 Unsloth 库进行参数高效微调作为替代方案。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F70",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},32974,"在 SFT 练习中，如何将数据集转换为 ChatML 格式？输出应该是文本还是 Token？","该练习曾存在描述不清的问题并已修复。通常情况下，如果数据集（如 `HuggingFaceTB\u002Fsmoltalk`）已经是包含 'role' 和 'content' 键值对的字典列表格式，则无需额外转换。若需应用聊天模板，应使用分词器的 `apply_chat_template` 方法。具体实现可参考课程中的 `sft_finetuning_example.ipynb` 笔记本，其中展示了如何处理非 ChatML 格式的数据集。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F30",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},32975,"在进行 SFT 微调时，是否需要对 Prompt（提示词）部分进行掩码（Masking）处理？","默认情况下，Prompt 部分可能不会被自动掩码（即模型也会学习预测 Prompt 内容）。为了获得更好的微调效果，特别是对于小模型，建议手动设置 `labels` 来对 Prompt 部分进行掩码，使模型只学习回复部分的损失。用户可以通过创建 PR 或参考相关指南来实现这一关键步骤。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fsmol-course\u002Fissues\u002F23",[]]