happy-llm

GitHub
28.7k 2.7k 简单 1 次阅读 今天NOASSERTIONAgent语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

Happy-LLM 是由 Datawhale 社区推出的开源学习项目,旨在帮助学习者从零开始系统掌握大语言模型(LLM)的核心原理与构建流程。针对许多初学者在了解大模型应用后,渴望深入理解其底层架构与训练机制却缺乏系统指引的痛点,该项目提供了一套完整的理论与实践教程。

内容涵盖从 NLP 基础、Transformer 架构解析,到预训练语言模型原理及 LLM 训练策略的全链路知识。其独特亮点在于“授人以渔”的实战导向:不仅讲解理论,更引导用户亲手实现一个完整的 LLaMA2 模型,并演练从分词器训练、预训练到有监督微调(SFT)、LoRA 高效微调的全过程,同时涉及 RAG 检索增强与 Agent 智能体等前沿应用。

Happy-LLM 非常适合希望深入 AI 底层的开发者、研究生及对大模型技术有浓厚兴趣的学习者使用。无论你是想夯实算法基础,还是计划动手搭建自己的大模型,都能通过这套免费、中文友好且持续更新的教程,循序渐进地探索大模型的浩瀚世界,将理论知识转化为实际的工程能力。

使用场景

某高校人工智能实验室的研究生团队正试图复现 LLaMA2 架构,以深入理解大模型从预训练到微调的全流程机制。

没有 happy-llm 时

  • 理论脱节实践:团队成员虽熟读 Transformer 论文,但面对从零搭建编码器 - 解码器架构时,不知如何将注意力机制转化为可运行代码。
  • 资料碎片化严重:需在全网搜寻分散的教程拼凑预训练、Tokenizer 训练及 LoRA 微调知识,缺乏系统性的学习路径指引。
  • 试错成本高昂:在自行摸索模型训练流程时,常因超参数设置错误或数据预处理不当导致训练失败,却难以定位核心原因。
  • 前沿应用盲区:仅停留在基础模型构建,对 RAG 检索增强和 Agent 智能体等落地技术缺乏实操演练机会。

使用 happy-llm 后

  • 手把手代码实现:依托第五章内容,团队逐行复现了完整的 LLaMA2 模型,将抽象的注意力机制原理直接映射为可调试的工程代码。
  • 系统化进阶路径:跟随从 NLP 基础到大模型应用的七章教程,清晰掌握了从预训练到有监督微调的标准化全流程。
  • 高效避坑指南:结合主流代码框架的实战演练,快速解决了训练不稳定等问题,显著缩短了从环境搭建到模型收敛的周期。
  • 全栈技术覆盖:通过第七章及 Extra Blog 的最新案例,成功将模型应用于 RAG 问答系统,实现了从“懂原理”到“能落地”的跨越。

happy-llm 不仅是一本教程,更是一座连接大模型理论与工程实战的桥梁,让开发者真正具备从零构建并优化专属大模型的核心能力。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes本项目为系统性 LLM 学习教程,涵盖从原理到实战(预训练、微调、RAG、Agent)的全流程。第 5 章需基于 PyTorch 从零搭建模型,第 6 章使用 Transformers 框架进行高效微调。建议学习者具备深度学习及 NLP 基础知识。项目提供 215M 参数量的模型供下载和实践。
python建议具备 Python 编程经验,具体版本未说明
PyTorch
Transformers
happy-llm hero image

快速开始

alt text

Happy-LLM

GitHub stars GitHub forks Language GitHub Project SwanLab
datawhalechina%2Fhappy-llm | Trendshift

📚 在线阅读地址

📚 从零开始构建大模型

深入理解 LLM 核心原理,动手实现你的第一个大模型


🎯 项目介绍

  很多小伙伴在看完 Datawhale开源项目: self-llm 开源大模型食用指南 后,感觉意犹未尽,想要深入了解大语言模型的原理和训练过程。于是我们(Datawhale)决定推出《Happy-LLM》项目,旨在帮助大家深入理解大语言模型的原理和训练过程。

  本项目是一个系统性的 LLM 学习教程,将从 NLP 的基本研究方法出发,根据 LLM 的思路及原理逐层深入,依次为读者剖析 LLM 的架构基础和训练过程。同时,我们会结合目前 LLM 领域最主流的代码框架,演练如何亲手搭建、训练一个 LLM,期以实现授之以鱼,更授之以渔。希望大家能从这本书开始走入 LLM 的浩瀚世界,探索 LLM 的无尽可能。

✨ 你将收获什么?

  • 📚 Datawhale 开源免费 完全免费的学习本项目所有内容
  • 🔍 深入理解 Transformer 架构和注意力机制
  • 📚 掌握 预训练语言模型的基本原理
  • 🧠 了解 现有大模型的基本结构
  • 🏗️ 动手实现 一个完整的 LLaMA2 模型
  • ⚙️ 掌握训练 从预训练到微调的全流程
  • 🚀 实战应用 RAG、Agent 等前沿技术

📖 内容导航

章节 关键内容 状态
前言 本项目的缘起、背景及读者建议
第一章 NLP 基础概念 什么是 NLP、发展历程、任务分类、文本表示演进
第二章 Transformer 架构 注意力机制、Encoder-Decoder、手把手搭建 Transformer
第三章 预训练语言模型 Encoder-only、Encoder-Decoder、Decoder-Only 模型对比
第四章 大语言模型 LLM 定义、训练策略、涌现能力分析
第五章 动手搭建大模型 实现 LLaMA2、训练 Tokenizer、预训练小型 LLM
第六章 大模型训练实践 预训练、有监督微调、LoRA/QLoRA 高效微调 🚧
第七章 大模型应用 模型评测、RAG 检索增强、Agent 智能体
Extra Chapter LLM Blog 优秀的大模型 学习笔记/Blog ,欢迎大家来 PR ! 🚧

Extra Chapter LLM Blog

  如果大家在学习 Happy-LLM 项目或 LLM 相关知识中有自己独到的见解、认知、实践,欢迎大家 PR 在 Extra Chapter LLM Blog 中。请遵守 Extra Chapter LLM Blog 的 PR 规范,我们会视 PR 内容的质量和价值来决定是否合并或补充到 Happy-LLM 正文中来。

模型下载

模型名称 下载地址
Happy-LLM-Chapter5-Base-215M 🤖 ModelScope
Happy-LLM-Chapter5-SFT-215M 🤖 ModelScope

ModelScope 创空间体验地址:🤖 创空间

PDF 版本下载

  本 Happy-LLM PDF 教程完全开源免费。为防止各类营销号加水印后贩卖给大模型初学者,我们特地在 PDF 文件中预先添加了不影响阅读的 Datawhale 开源标志水印,敬请谅解~

Happy-LLM PDF : https://github.com/datawhalechina/happy-llm/releases/tag/v1.0.2

PPT 资源下载

  本项目配套教学讲义PPT课件资源获取链接:https://github.com/HZAI-ZJNU/happy-llm-ppt 或可在本项目的 Releases 页面下载。

💡 如何学习

  本项目适合大学生、研究人员、LLM 爱好者。在学习本项目之前,建议具备一定的编程经验,尤其是要对 Python 编程语言有一定的了解。最好具备深度学习的相关知识,并了解 NLP 领域的相关概念和术语,以便更轻松地学习本项目。

  本项目分为两部分——基础知识与实战应用。第1章~第4章是基础知识部分,从浅入深介绍 LLM 的基本原理。其中,第1章简单介绍 NLP 的基本任务和发展,为非 NLP 领域研究者提供参考;第2章介绍 LLM 的基本架构——Transformer,包括原理介绍及代码实现,作为 LLM 最重要的理论基础;第3章整体介绍经典的 PLM,包括 Encoder-Only、Encoder-Decoder 和 Decoder-Only 三种架构,也同时介绍了当前一些主流 LLM 的架构和思想;第4章则正式进入 LLM 部分,详细介绍 LLM 的特点、能力和整体训练过程。第5章~第7章是实战应用部分,将逐步带领大家深入 LLM 的底层细节。其中,第5章将带领大家者基于 PyTorch 层亲手搭建一个 LLM,并实现预训练、有监督微调的全流程;第6章将引入目前业界主流的 LLM 训练框架 Transformers,带领学习者基于该框架快速、高效地实现 LLM 训练过程;第7章则将介绍 基于 LLM 的各种应用,补全学习者对 LLM 体系的认知,包括 LLM 的评测、检索增强生成(Retrieval-Augmented Generation,RAG)、智能体(Agent)的思想和简单实现。你可以根据个人兴趣和需求,选择性地阅读相关章节。

  在阅读本书的过程中,建议你将理论和实际相结合。LLM 是一个快速发展、注重实践的领域,我们建议你多投入实战,复现本书提供的各种代码,同时积极参加 LLM 相关的项目与比赛,真正投入到 LLM 开发的浪潮中。我们鼓励你关注 Datawhale 及其他 LLM 相关开源社区,当遇到问题时,你可以随时在本项目的 issue 区提问。

  最后,欢迎每一位读者在学习完本项目后加入到 LLM 开发者的行列。作为国内 AI 开源社区,我们希望充分聚集共创者,一起丰富这个开源 LLM 的世界,打造更多、更全面特色 LLM 的教程。星火点点,汇聚成海。我们希望成为 LLM 与普罗大众的阶梯,以自由、平等的开源精神,拥抱更恢弘而辽阔的 LLM 世界。

🤝 如何贡献

我们欢迎任何形式的贡献!

  • 🐛 报告 Bug - 发现问题请提交 Issue
  • 💡 功能建议 - 有好想法就告诉我们
  • 📝 内容完善 - 帮助改进教程内容
  • 🔧 代码优化 - 提交 Pull Request

🙏 致谢

核心贡献者

Extra-Chapter 贡献者

特别感谢

  • 感谢 @Sm1les 对本项目的帮助与支持
  • 感谢所有为本项目做出贡献的开发者们 ❤️

星标历史

Datawhale

⭐ 如果这个项目对你有帮助,请给我们一个 Star!

关于 Datawhale

Datawhale

扫描二维码关注 Datawhale 公众号,获取更多优质开源内容


📜 开源协议

本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。

版本历史

v1.0.22026/01/29
v1.0.12025/07/27
PDF2025/06/10

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

153.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|3天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|4天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架