llm-resource
llm-resource 是一个专为大语言模型(LLM)领域打造的全栈资源导航库,被誉为"LLM 百宝箱”。面对大模型技术迭代快、知识体系庞杂且资料分散的痛点,它将海量优质内容进行了系统化梳理与整合。
该工具覆盖了从理论基础到工程落地的完整链路,内容涵盖 Transformer 等核心算法原理、模型训练与微调策略、推理加速、数据工程、模型压缩及评测体系。此外,它还深入涉及 AI 基础设施(如芯片、CUDA)、编译器优化、主流框架以及 LLMOps 等关键领域,并提供了丰富的源码解析链接和前沿技术文章集锦。
无论是希望夯实基础的研究人员、需要快速定位技术方案的开发者,还是关注行业趋势的技术管理者,都能在这里找到极具价值的学习路径和实战参考。其独特亮点在于不仅罗列资源,更按技术栈逻辑构建了清晰的知识地图,帮助用户高效跨越从理论理解到代码实现的鸿沟,是探索大模型世界不可或缺的得力助手。
使用场景
某初创公司算法团队正计划基于 MoE 架构微调开源大模型以构建垂直领域客服助手,但在技术选型与资料搜集阶段陷入困境。
没有 llm-resource 时
- 资料分散难检索:团队成员需分别在 GitHub、知乎、公众号及论文库中碎片化搜索"MoE 并行训练”或"LLM 量化”教程,耗费数天仍难以拼凑完整知识图谱。
- 源码实现无头绪:面对复杂的 Transformer 变体,缺乏从原理图解到 PyTorch/TensorFlow 逐行源码解析的连贯指引,导致复现经典模型(如 GPT-2)时频频报错。
- 前沿动态易遗漏:难以及时获取如 NExT-GPT 等多模态最新进展或国产芯片适配方案,技术栈规划滞后于社区发展。
- 试错成本高昂:因缺乏系统的测评基准与数据工程指南,团队在数据清洗格式和推理加速方案上反复踩坑,严重拖慢项目进度。
使用 llm-resource 后
- 全栈资源一站式获取:直接通过目录定位到"MOE 大模型”与"LLM 推理”板块,瞬间获得从理论详解到分布式并行技术的精选文章列表,调研时间缩短 80%。
- 原理代码无缝衔接:利用"Transformer 源码详解”与"nanoGPT"等链接,成员可对照高质量博客快速理解注意力机制并跑通基线代码,大幅降低入门门槛。
- 技术视野同步前沿:借助“下一代大模型”与“多模态”专栏,团队迅速掌握 Any-to-Any 架构趋势,及时调整技术路线以兼容未来需求。
- 避坑指南精准导航:参考"LLM 测评”与“数据工程”中的最佳实践,快速选定高效的数据处理流水线与推理后端,显著减少无效实验次数。
llm-resource 将散落的珍珠串成项链,让开发者从“大海捞针”的信息焦虑中解脱,专注于核心算法的创新与落地。
运行环境要求
未说明
未说明

快速开始
llm-resource(LLM 百宝箱)
LLM全栈优质资源汇总
非常欢迎大家也参与进来,收集更多优质大模型相关资源。
目录
- 🐼 LLM算法
- 🐘 LLM训练
- 🔥 LLM推理
- :palm_tree: LLM数据工程(Data Engineering)
- 📡 LLM压缩
- 🐰 LLM测评
- 🐘 AI基础知识
- 📡 AI基础设施
- 🐘 AI编译器
- 🐰 AI框架
- 📡 LLM应用开发
- 🐘 LLMOps
- 📡 LLM实践
- 📡微信公众号文章集锦
LLM算法
Transformer
原理:
- Transformer模型详解(图解最完整版
- OpenAI ChatGPT(一):十分钟读懂 Transformer
- Transformer的结构是什么样的?各个子模块各有什么作用?
- 以Transformer结构为基础的大模型参数量、计算量、中间激活以及KV cache剖析
- Transformer 一起动手编码学原理
- 为什么transformer(Bert)的多头注意力要对每一个head进行降维?
- Decoder-Only Transformers: The Workhorse of Generative LLMs
源码:
- OpenAI ChatGPT(一):Tensorflow实现Transformer
- OpenAI ChatGPT(一):十分钟读懂 Transformer
- GPT (一)transformer原理和代码详解
- Transformer源码详解(Pytorch版本)
- 搞懂Transformer结构,看这篇PyTorch实现就够了
GPT1
GPT2
GPT2 源码:https://github.com/huggingface/transformers/blob/main/src/transformers/models/gpt2/modeling_gpt2.py
GPT2 源码解析:https://zhuanlan.zhihu.com/p/630970209
nanoGPT:https://github.com/karpathy/nanoGPT/blob/master/model.py
7.3 GPT2模型深度解析:http://121.199.45.168:13013/7_3.html
GPT(三)GPT2原理和代码详解: https://zhuanlan.zhihu.com/p/637782385
GPT2参数量剖析: https://zhuanlan.zhihu.com/p/640501114
ChatGPT
GLM
LLaMA
MOE 大模型
- Mixtral-8x7B MoE大模型微调实践,超越Llama2-65B
- 大模型分布式训练并行技术(八)-MOE并行
- MoE架构模型爆发或将带飞国产AI芯片
- 大模型的模型融合方法概述
- 混合专家模型 (MoE) 详解
- 群魔乱舞:MoE大模型详解
- 大模型LLM之混合专家模型MoE(上-基础篇)
- 大模型LLM之混合专家模型MoE(下-实现篇)
下一代大模型
- https://github.com/NExT-GPT/NExT-GPT
- https://next-gpt.github.io/
- Introduction to NExT-GPT: Any-to-Any Multimodal Large Language Model
多模态大模型
A Survey on Multimodal Large Language Models:https://arxiv.org/pdf/2306.13549 Efficient-Multimodal-LLMs-Survey:https://github.com/lijiannuist/Efficient-Multimodal-LLMs-Survey
其他
LLM训练
Transformer Math 101 - 如何计算显存消耗?
Megatron-LM 第三篇Paper总结——Sequence Parallelism & Selective Checkpointing
学习率(warmup, decay):
LLM微调
LLM对齐
- MOSS-RLHF
- 模型调优(RLHF/DPO/ORPO)- 终极指南
- DPO: Direct Preference Optimization 论文解读及代码实践
- 强化学习入门:基本思想和经典算法
- 人人都能看懂的PPO原理与源码解读
- 关于Instruct GPT复现的一些细节与想法
- 【RLHF】RL 究竟是如何与 LLM 做结合的?
- 【RLHF】想训练ChatGPT?得先弄明白Reward Model怎么训(附源码)
- Reinforcement Learning from Human Feedback 全家桶(RL 侧)
paper:
LLM推理
- 使用HuggingFace的Accelerate库加载和运行超大模型 : device_map、no_split_module_classes、 offload_folder、 offload_state_dict
- 借助 PyTorch,Accelerate 如何运行超大模型
- 使用 DeepSpeed 和 Accelerate 进行超快 BLOOM 模型推理
- LLM七种推理服务框架总结
- LLM投机采样(Speculative Sampling)为何能加速模型推理
- 大模型推理妙招—投机采样(Speculative Decoding)
- https://github.com/flexflow/FlexFlow/tree/inference
- TensorRT-LLM(3)--架构
- NLP(十八):LLM 的推理优化技术纵览:https://zhuanlan.zhihu.com/p/642412124
- 揭秘NVIDIA大模型推理框架:TensorRT-LLM:https://zhuanlan.zhihu.com/p/680808866
- 如何生成文本: 通过 Transformers 用不同的解码方法生成文本 | How to generate text: using different decoding methods for language generation with Transformers
- DeepSeek-V3 / R1 推理系统概览
大模型推理优化技术
KV Cache:
使用HuggingFace的Accelerate库加载和运行超大模型 : device_map、no_split_module_classes、 offload_folder、 offload_state_dict
NLP(十八):LLM 的推理优化技术纵览:https://zhuanlan.zhihu.com/p/642412124
揭秘NVIDIA大模型推理框架:TensorRT-LLM:https://zhuanlan.zhihu.com/p/680808866
如何生成文本: 通过 Transformers 用不同的解码方法生成文本 | How to generate text: using different decoding methods for language generation with Transformers
大模型推理优化技术
KV Cache:
解码优化:
vLLM
- vLLM(六)源码解读下 @HelloWorld
- 猛猿:图解大模型计算加速系列:vLLM源码解析1,整体架构
- LLM推理2:vLLM源码学习 @ akaihaoshuai
- 大模型推理框架 vLLM 源码解析(一):框架概览
LLM数据工程
LLM压缩
- Awesome Model Quantization
- Efficient-LLMs-Survey
- Awesome LLM Compression
- 模型转换、模型压缩、模型加速工具汇总
- AI 框架部署方案之模型转换
- Pytorch 模型转 TensorRT (torch2trt 教程)
LLM测评
- CLiB中文大模型能力评测榜单
- huggingface Open LLM Leaderboard
- HELM:https://github.com/stanford-crfm/helm
- HELM:https://crfm.stanford.edu/helm/latest/
- lm-evaluation-harness:https://github.com/EleutherAI/lm-evaluation-harness/
- CLEVA:http://www.lavicleva.com/#/homepage/overview
- CLEVA:https://github.com/LaVi-Lab/CLEVA/blob/main/README_zh-CN.md
提示工程
- 做数据关键步骤:怎么写好prompt?
- 从1000+模板中总结出的10大提示工程方法助你成为提示词大师!
- 一文搞懂提示工程的原理及前世今生
- Effective Prompt: 编写高质量Prompt的14个有效方法
- 提示工程和提示构造技巧
- 一文带你了解提示攻击!
综合
- 通向AGI之路:大型语言模型(LLM)技术精要
- 大语言模型的涌现能力:现象与解释
- NLP(十八):LLM 的推理优化技术纵览
- 并行计算3:并行计算模型
- 大模型“幻觉”,看这一篇就够了 | 哈工大华为出品
- 深入理解语言模型的困惑度(perplexity)
safetensors:
- bin和safetensors区别是什么?
- Safetensors:保存模型权重的新格式
- github: safetensors
- huggingface: safetensors
- Safetensors: a simple, safe and faster way to store and distribute tensors.
- https://huggingface.co/docs/safetensors/index
- https://github.com/huggingface/safetensors/tree/v0.3.3
- 手把手教你:LLama2原始权重转HF模型
AI框架
PyTorch
- PyTorch 源码解读系列 @ OpenMMLab 团队
- [源码解析] PyTorch 分布式 @ 罗西的思考
- PyTorch 分布式(18) --- 使用 RPC 的分布式流水线并行 @ 罗西的思考
- 【Pytorch】model.train() 和 model.eval() 原理与用法
DeepSpeed
Megatron-LM
- Megatron-LM 近期的改动
- 深入理解 Megatron-LM(1)基础知识 @ 简枫
- 深入理解 Megatron-LM(2)原理介绍
- [源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础 @ 罗西的思考
- [源码解析] 模型并行分布式训练Megatron (2) --- 整体架构
- [细读经典]Megatron论文和代码详细分析(1) @迷途小书僮
- [细读经典]Megatron论文和代码详细分析(2)
Megatron-DeepSpeed
Huggingface Transformers
AI基础知识
AI基础设施
AI芯片
- 业界AI加速芯片浅析(一)百度昆仑芯
- NVIDIA CUDA-X AI:https://www.nvidia.cn/technologies/cuda-x/
- Intel,Nvidia,AMD三大巨头火拼GPU与CPU
- 处理器与AI芯片-Google-TPU:https://zhuanlan.zhihu.com/p/646793355
- 一文看懂国产AI芯片玩家
- 深度 | 国产AI芯片,玩家几何
CUDA
AI编译器
LLM应用开发
- 动手学大模型应用开发
- langchain java
- 大模型主流应用RAG的介绍——从架构到技术细节
- 基于检索的大语言模型和应用(陈丹琦)
- 大模型bad case修复方案思考
- 《综述:全新大语言模型驱动的Agent》——4.5万字详细解读复旦NLP和米哈游最新Agent Survey
LLMOps
- MLOps Landscape in 2023: Top Tools and Platforms
- What Constitutes A Large Language Model Application? :LLM Functionality Landscape
- AI System @吃果冻不吐果冻皮
RAG
书籍
- 大语言模型原理与工程 @杨青
- 大语言模型从理论到实践 @张奇 :https://intro-llm.github.io/
- 动手学大模型
LLM实践
- minGPT @karpathy
- llm.c @karpathy: LLM training in simple, raw C/CUDA
- LLM101n
- llama2.c: Inference Llama 2 in one file of pure C
- nanoGPT
- Baby-Llama2-Chinese
- 从0到1构建一个MiniLLM
- gpt-fast 、blog
- CSE 234: Data Systems for Machine Learning
- DSC 291: Machine Learning Systems
大模型汇总资料
- Awesome-Chinese-LLM
- Awesome-LLM-Survey
- Large Language Model Course
- Awesome-Quantization-Papers
- Awesome Model Quantization (GitHub)
- Awesome Transformer Attention (GitHub)
- 语言模型数据选择综述
- Awesome Knowledge Distillation of LLM Papers
- Awasome-Pruning @ghimiredhikura
- Awesome-Pruning @he-y
- awesome-pruning @hrcheng1066
- Awesome-LLM-Inference
微信公众号文章集锦
其他
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器