paper-reading
paper-reading 是一个专注于深度学习领域的论文精读项目,旨在通过视频形式逐段拆解经典与前沿的学术文章。面对大模型时代海量且晦涩的技术论文,许多学习者和从业者往往难以快速抓住核心逻辑与实现细节,paper-reading 正是为了解决这一痛点而生。它将复杂的理论推导、模型架构设计及训练基础设施等内容,转化为通俗易懂的视频讲解,帮助观众高效吸收知识。
该项目特别适合人工智能研究人员、算法工程师、高校学生以及对深度学习有浓厚兴趣的开发者使用。无论是想深入理解 Llama 3.1 的训练全过程、探究 Sora 作为世界模拟器的原理,还是回顾 GPT-4 的技术突破,都能在这里找到系统化的解读内容。其独特亮点在于“逐段精读”的深度模式,不仅覆盖模型结构、预训练数据等关键技术点,还包含科研思路分享,部分热门视频已在 B 站和 YouTube 获得广泛关注。对于希望在有限时间内掌握高质量技术内容的用户而言,paper-reading 提供了一条清晰、可靠的学习路径。
使用场景
某 AI 算法工程师正急需复现 Sora 或 Llama 3.1 的核心机制,面对长达数十页、充满复杂公式与专业术语的英文论文,感到无从下手。
没有 paper-reading 时
- 语言与术语壁垒高:非英语母语者需频繁查阅词典,对"World Simulators"或特定训练架构术语理解吃力,阅读速度极慢。
- 核心逻辑难以捕捉:容易陷入数学推导的细节迷宫,花费数小时仍无法理清模型训练的整体流程和数据构建思路。
- 时间成本高昂:精读一篇如 GPT-4 或 Llama 3.1 的重磅论文往往需要整整一个周末,严重挤占代码复现与实验调试的时间。
- 缺乏直观认知:仅靠文字描述难以想象视频生成模型的世界模拟过程或大规模集群的训练拓扑,理解停留在抽象层面。
使用 paper-reading 后
- 逐段精讲破障碍:直接观看针对 OpenAI Sora 或 Llama 3.1 的逐段精读视频,专家用中文通俗拆解术语,瞬间扫清语言盲区。
- 脉络梳理更清晰:通过视频中对“预训练数据”、“训练 Infra"及“模型架构”的分章节深度剖析,快速掌握技术演进的关键路径。
- 学习效率倍增:利用 20-60 分钟的高质量视频内容,即可替代数天的啃书过程,将节省下的时间投入到实际的代码验证中。
- 可视化辅助理解:结合封面图示与视频讲解,将抽象的“世界模拟器”概念转化为具象的认知,深刻理解数据如何驱动模型生成。
paper-reading 通过将晦涩的学术文献转化为结构化的视频课程,让开发者能以最低的时间成本穿透技术迷雾,直达深度学习前沿的核心逻辑。
运行环境要求
未说明
未说明

快速开始
深度学习论文精读
录制完成的论文
| 日期 | 标题 | 封面 | 时长 | 视频(播放数) |
|---|---|---|---|---|
| 1/10/25 | OpenAI Sora 上 (包含Movie Gen和HunyuanVideo) |
![]() |
1:04:18 | |
| 9/04/24 | Llama 3.1论文精读 · 5. 模型训练过程 | ![]() |
10:41 | |
| 8/28/24 | Llama 3.1论文精读 · 4. 训练infra | ![]() |
25:04 | |
| 8/13/24 | Llama 3.1论文精读 · 3. 模型 | ![]() |
26:14 | |
| 8/05/24 | Llama 3.1论文精读 · 2. 预训练数据 | ![]() |
23:37 | |
| 7/31/24 | Llama 3.1论文精读 · 1. 导言 | ![]() |
18:53 | |
| 3/30/23 | GPT-4 | ![]() |
1:20:38 | |
| 3/23/23 | 大模型时代下做科研的四个思路 | ![]() |
1:06:29 | |
| 3/10/23 | Anthropic LLM | ![]() |
1:01:51 | |
| 1/20/23 | Helm 全面语言模型评测 | ![]() |
1:23:37 | |
| 1/11/23 | 多模态论文串讲·下 | ![]() |
1:03:29 | |
| 12/29/22 | Instruct GPT | ![]() |
1:07:10 | |
| 12/19/22 | Neural Corpus Indexer 文档检索 | ![]() |
55:47 | |
| 12/12/22 | 多模态论文串讲·上 | ![]() |
1:12:27 | |
| 11/14/22 | OpenAI Whisper 精读 | ![]() |
1:12:16 | |
| 11/07/22 | 在讲 OpenAI Whisper 前先做了一个剪视频小工具 | ![]() |
23:39 | |
| 10/23/22 | Chain of Thought 论文、代码和资源 | ![]() |
33:21 | |
| 9/17/22 | CLIP 改进工作串讲(下) | ![]() |
1:04:26 | |
| 9/2/22 | CLIP 改进工作串讲(上) | ![]() |
1:14:43 | |
| 7/29/22 | ViLT 论文精读 | ![]() |
1:03:26 | |
| 7/22/22 | 理由、论据和担保【研究的艺术·四】 | ![]() |
44:14 | |
| 7/15/22 | 如何讲好故事、故事里的论点【研究的艺术·三】 | ![]() |
43:56 | |
| 7/8/22 | DALL·E 2 逐段精读 | ![]() |
1:27:54 | |
| 7/1/22 | 明白问题的重要性【研究的艺术·二】 | ![]() |
1:03:40 | |
| 6/24/22 | 跟读者建立联系【研究的艺术·一】 | ![]() |
45:01 | |
| 6/17/22 | Zero 逐段精读 | ![]() |
52:21 | |
| 6/10/22 | DETR 逐段精读 | ![]() |
54:22 | |
| 6/3/22 | Megatron LM 逐段精读 | ![]() |
56:07 | |
| 5/27/22 | GPipe 逐段精读 | ![]() |
58:47 | |
| 5/5/22 | Pathways 逐段精读 | ![]() |
1:02:13 | |
| 4/28/22 | 视频理解论文串讲(下) | ![]() |
1:08:32 | |
| 4/21/22 | 参数服务器(Parameter Server) 逐段精读 | ![]() |
1:37:40 | |
| 4/14/22 | 视频理解论文串讲(上) | ![]() |
51:15 | |
| 3/31/22 | I3D 论文精读 | ![]() |
52:31 | |
| 3/24/22 | 斯坦福 2022 年 AI 指数报告 精读 | ![]() |
1:19:56 | |
| 3/17/22 | AlphaCode 论文精读 | ![]() |
44:00 | |
| 3/10/22 | OpenAI Codex 论文精读 | ![]() |
47:58 | |
| 3/3/22 | GPT, GPT-2, GPT-3 精读 | ![]() |
1:29:58 | |
| 2/24/22 | Two-Stream 逐段精读 | ![]() |
52:57 | |
| 2/10/22 | CLIP 逐段精读 | ![]() |
1:38:25 | |
| 2/6/22 | 你(被)吐槽过论文不够 novel 吗? | ![]() |
14:11 | |
| 1/23/22 | AlphaFold 2 精读 | ![]() |
1:15:28 | |
| 1/18/22 | 如何判断(你自己的)研究工作的价值 | ![]() |
9:59 | |
| 1/15/22 | Swin Transformer 精读 | ![]() |
1:00:21 | |
| 1/7/22 | 指导数学直觉 | ![]() |
52:51 | |
| 1/5/22 | AlphaFold 2 预告 | ![]() |
03:28 | |
| 12/20/21 | 对比学习论文综述 | ![]() |
1:32:01 | |
| 12/15/21 | MoCo 逐段精读 | ![]() |
1:24:11 | |
| 12/9/21 | 如何找研究想法 1 | ![]() |
5:34 | |
| 12/8/21 | MAE 逐段精读 | ![]() |
47:04 | |
| 11/29/21 | ViT 逐段精读 | ![]() |
1:11:30 | |
| 11/18/21 | BERT 逐段精读 | ![]() |
45:49 | |
| 11/9/21 | GAN 逐段精读 | ![]() |
46:16 | |
| 11/3/21 | 零基础多图详解 图神经网络(GNN/GCN) | ![]() |
1:06:19 | |
| 10/27/21 | Transformer 逐段精读 (视频中提到的文献 [^transformer]) |
![]() |
1:27:05 | |
| 10/22/21 | ResNet 论文逐段精读 | ![]() |
53:46 | |
| 10/21/21 | 撑起计算机视觉半边天的 ResNet | ![]() |
11:50 | |
| 10/15/21 | AlexNet 论文逐段精读 | ![]() |
55:21 | |
| 10/14/21 | 9年后重读深度学习奠基作之一:AlexNet | ![]() |
19:59 | |
| 10/06/21 | 如何读论文 | ![]() |
06:39 |
[^transformer]: 1 斯坦福100+作者的200+页综述,2 对LayerNorm的新研究,3 对Attention在Transformer里面作用的研究
所有论文
包括已经录制完成和之后将要介绍的论文。选取的原则是10年内深度学习里有影响力文章(必读文章),或者近期比较有意思的文章。当然这十年里重要的工作太多了,不可能一一过一遍。在选取的时候我会偏向一些之前 直播课 中没讲到过的。 欢迎大家在 讨论区 里提供建(点)议(歌)。
总论文数 67,录制完成数 32
(这里引用采用的是 semanticscholar,是因为它提供 API 可以自动获取,不用手动更新。)
计算机视觉 - CNN
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2012 | AlexNet | 深度学习热潮的奠基作 | |
| 2014 | VGG | 使用 3x3 卷积构造更深的网络 | ||
| 2014 | GoogleNet | 使用并行架构构造更深的网络 | ||
| ✅ | 2015 | ResNet | 构建深层网络都要有的残差连接。 | |
| 2017 | MobileNet | 适合终端设备的小CNN | ||
| 2019 | EfficientNet | 通过架构搜索得到的CNN | ||
| 2021 | Non-deep networks | 让不深的网络也能在ImageNet刷到SOTA |
计算机视觉 - Transformer
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2020 | ViT | Transformer杀入CV界 | |
| ✅ | 2021 | Swin Transformer | 多层次的Vision Transformer | |
| 2021 | MLP-Mixer | 使用MLP替换self-attention | ||
| ✅ | 2021 | MAE | BERT的CV版 |
生成模型
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2014 | GAN | 生成模型的开创工作 | |
| 2015 | DCGAN | 使用CNN的GAN | ||
| 2016 | pix2pix | |||
| 2016 | SRGAN | 图片超分辨率 | ||
| 2017 | WGAN | 训练更加容易 | ||
| 2017 | CycleGAN | |||
| 2018 | StyleGAN | |||
| 2019 | StyleGAN2 | |||
| 2020 | DDPM | Diffusion Models | ||
| 2021 | Improved DDPM | 改进的 DDPM | ||
| 2021 | Guided Diffusion Models | 号称超越 GAN | ||
| 2021 | StyleGAN3 | |||
| ✅ | 2022 | DALL.E 2 | CLIP + Diffusion models,文本生成图像新高度 | |
| ✅ | 2024 | Sora | 开启视频生成热潮 | |
| ✅ | 2024 | Movie Gen | 精确的文本指导视频编辑、个性化视频生成 | |
| ✅ | 2025 | HunyuanVideo | 开源视频生成框架 |
计算机视觉 - 目标检测
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| 2014 | R-CNN | 两阶段 | ||
| 2015 | Fast R-CNN | |||
| 2015 | Faster R-CNN | |||
| 2016 | SSD | 单阶段 | ||
| 2016 | YOLO | |||
| 2017 | Mask R-CNN | |||
| 2017 | YOLOv2 | |||
| 2018 | YOLOv3 | |||
| 2019 | CenterNet | 无锚点 | ||
| ✅ | 2020 | DETR | 变压器 |
计算机视觉 - 对比学习
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2018 | InstDisc | 提出实例判别和memory bank做对比学习 | |
| ✅ | 2018 | CPC | 对比预测编码,图像语音文本强化学习全都能做 | |
| ✅ | 2019 | InvaSpread | 一个编码器的端到端对比学习 | |
| ✅ | 2019 | CMC | 多视角下的对比学习 | |
| ✅ | 2019 | MoCov1 | 无监督训练效果也很好 | |
| ✅ | 2020 | SimCLRv1 | 简单的对比学习 (数据增强 + MLP head + 大batch训练久) | |
| ✅ | 2020 | MoCov2 | MoCov1 + improvements from SimCLRv1 | |
| ✅ | 2020 | SimCLRv2 | 大的自监督预训练模型很适合做半监督学习 | |
| ✅ | 2020 | BYOL | 不需要负样本的对比学习 | |
| ✅ | 2020 | SWaV | 聚类对比学习 | |
| ✅ | 2020 | SimSiam | 化繁为简的孪生表征学习 | |
| ✅ | 2021 | MoCov3 | 如何更稳定的自监督训练ViT | |
| ✅ | 2021 | DINO | transformer加自监督在视觉也很香 |
计算机视觉 - 视频理解
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2014 | DeepVideo | 提出sports1M数据集,用深度学习做视频理解 | |
| ✅ | 2014 | Two-stream | 引入光流做时序建模,神经网络首次超越手工特征 | |
| ✅ | 2014 | C3D | 比较深的3D-CNN做视频理解 | |
| ✅ | 2015 | Beyond-short-snippets | 尝试使用LSTM | |
| ✅ | 2016 | Convolutional fusion | 做early fusion来加强时空间建模 | |
| ✅ | 2016 | TSN | 超级有效的视频分段建模,bag of tricks in video | |
| ✅ | 2017 | I3D | 提出Kinetics数据集,膨胀2D网络到3D,开启3D-CNN时代 | |
| ✅ | 2017 | R2+1D | 拆分3D卷积核,使3D网络容易优化 | |
| ✅ | 2017 | Non-local | 引入自注意力做视觉问题 | |
| ✅ | 2018 | SlowFast | 快慢两支提升效率 | |
| ✅ | 2021 | TimeSformer | 视频中第一个引入transformer,开启video transformer时代 |
多模态学习
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2021 | CLIP | 图片和文本之间的对比学习 | |
| ✅ | 2021 | ViLT | 第一个摆脱了目标检测的视觉文本模型 | |
| ✅ | 2021 | ViLD | CLIP蒸馏帮助开集目标检测 | |
| ✅ | 2021 | GLIP | 联合目标检测和文本定位 | |
| ✅ | 2021 | CLIP4Clip | 拿CLIP直接做视频文本retrieval | |
| ✅ | 2021 | ActionCLIP | 用多模态对比学习有监督的做视频动作分类 | |
| ✅ | 2021 | PointCLIP | 3D变2D,巧妙利用CLIP做点云 | |
| ✅ | 2022 | LSeg | 有监督的开集分割 | |
| ✅ | 2022 | GroupViT | 只用图像文本对也能无监督做分割 | |
| ✅ | 2022 | CLIPasso | CLIP跨界生成简笔画 | |
| ✅ | 2022 | DepthCLIP | 用文本跨界估计深度 |
自然语言处理 - Transformer
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2017 | Transformer | 继MLP、CNN、RNN后的第四大类架构 | |
| ✅ | 2018 | GPT | 使用 Transformer 解码器来做预训练 | |
| ✅ | 2018 | BERT | Transformer一统NLP的开始 | |
| ✅ | 2019 | GPT-2 | 更大的 GPT 模型,朝着zero-shot learning迈了一大步 | |
| ✅ | 2020 | GPT-3 | 100倍更大的 GPT-2,few-shot learning效果显著 | |
| ✅ | 2024 | Llama 3.1 | 强大的Meta开源模型 - 动态扩展,多模态学习,零样本学习,高效计算 |
系统
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2014 | 参数服务器 | 支持千亿参数的传统机器学习模型 | |
| ✅ | 2018 | GPipe | 流水线(Pipeline)并行 | |
| ✅ | 2019 | Megatron-LM | 张量(Tensor)并行 | |
| ✅ | 2019 | Zero | 参数分片 | |
| ✅ | 2022 | Pathways | 将Jax拓展到上千TPU核上 |
图神经网络
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| ✅ | 2021 | 图神经网络介绍 | GNN的可视化介绍 |
优化算法
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| 2014 | Adam | 深度学习里最常用的优化算法之一 | ||
| 2016 | 为什么超大的模型泛化性不错 | |||
| 2017 | 为什么Momentum有效 | Distill的可视化介绍 |
新领域应用
| 已录制 | 年份 | 名字 | 简介 | 引用 |
|---|---|---|---|---|
| 2016 | AlphaGo | 强化学习出圈 | ||
| 2020 | AlphaFold | 赢得比赛的的蛋白质3D结构预测 | ||
| ✅ | 2021 | AlphaFold 2 | 原子级别精度的蛋白质3D结构预测 | |
| ✅ | 2021 | Codex | 使用注释生成代码 | |
| ✅ | 2021 | 指导数学直觉 | 分析不同数学物体之前的联系来帮助发现新定理 | |
| ✅ | 2022 | AlphaCode | 媲美一般程序员的编程解题水平 |
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备



























































