ComfyUI-3D-Pack
ComfyUI-3D-Pack 是一套功能强大的节点扩展包,旨在让 ComfyUI 像生成图像和视频一样轻松、高效地创建 3D 资产。它解决了传统 3D 内容制作门槛高、流程复杂的问题,通过集成前沿算法(如 3DGS、NeRF)和先进模型(包括 InstantMesh、CRM、TripoSR 等),让用户能够直接在熟悉的节点式工作流中处理网格、UV 纹理等 3D 输入。
这套工具特别适合希望将 AI 能力延伸至 3D 领域的设计师、数字艺术家以及技术研究人员。对于熟悉 ComfyUI 的用户,它可以无缝融入现有工作流;对于开发者,其模块化的节点设计也便于二次开发和实验。其独特亮点在于支持从单张图片或场景图直接生成带有部件分割的精细 3D 网格(基于 PartCrafter 技术),并能输出合并后的完整模型或独立的部件文件,极大地丰富了生成内容的可控性与实用性。无论是快速原型设计还是复杂的场景构建,ComfyUI-3D-Pack 都提供了一站式的解决方案,让 3D 生成变得前所未有的便捷。
使用场景
独立游戏开发者小林需要为一款奇幻 RPG 快速制作带有可交互部件(如可拆卸盔甲、分节机械臂)的 3D 角色资产,但手头只有一张概念设计图。
没有 ComfyUI-3D-Pack 时
- 流程割裂严重:必须先在 Blender 中手动建模,再导出到外部软件进行 UV 展开和贴图绘制,最后返回引擎调整,反复切换工具耗时极长。
- 部件拆分困难:若想实现“盔甲可脱落”效果,需人工精细切割网格并重新拓扑,对建模师的专业技能要求极高且极易出错。
- 迭代成本高昂:一旦美术风格调整,整个建模和贴图流程几乎需要推倒重来,无法像生成 2D 图像那样快速尝试不同方案。
- 技术门槛过高:整合 NeRF 或 3DGS 等前沿算法需要编写复杂的 Python 脚本并配置独立的深度学习环境,普通开发者难以上手。
使用 ComfyUI-3D-Pack 后
- 工作流一体化:直接在 ComfyUI 中加载单张概念图,通过 PartCrafter 节点一键生成带完整 UV 和贴图的 3D 网格,无需离开节点编辑器。
- 智能部件分割:利用其单物体模式,自动识别并将角色拆分为独立的部件网格(如头盔、胸甲),直接输出合并模型与包含各部件的 ZIP 包。
- 敏捷迭代验证:修改提示词或输入图后,几分钟内即可重新生成整套资产,让开发者能迅速对比多种设计风格并选定最优解。
- 开箱即用算法:内置 InstantMesh、TripoSR 等先进模型,自动处理依赖与环境配置,让前沿 3D 生成技术像生成图片一样简单便捷。
ComfyUI-3D-Pack 将原本繁琐数天的 3D 资产制作流程压缩至分钟级,真正实现了“像生成图片一样高效地生成可交互 3D 资产”。
运行环境要求
- Windows
- Linux
需要 NVIDIA GPU (CUDA 12.4),部分模型(如 Era3D)需至少 16GB 显存,预构建版本基于 torch 2.5.1+cu124
未说明 (建议根据具体 3D 生成模型需求配置,部分高负载模型可能需较大内存)

快速开始
ComfyUI-3D-Pack
让 ComfyUI 中的 3D 资源生成像生成图像/视频一样简单便捷!
这是一个功能强大的节点套件,使 ComfyUI 能够使用前沿算法(3DGS、NeRF 等)和模型(InstantMesh、CRM、TripoSR 等)处理 3D 输入(网格与 UV 纹理等)。
安装:
可以直接从 ComfyUI-Manager 安装🚀
或者,您也可以下载由 YanWenKun 制作的 Comfy3D-WinPortable
- 预编译版本适用于:
- Windows 10/11
- Python 3.12
- CUDA 12.4
- torch 2.5.1+cu124
- install.py 将根据您的运行环境自动下载并安装预编译版本;如果找不到对应的预编译版本,则会自动启动构建脚本。若自动构建对您不起作用,请参阅半自动构建指南。
- 如果在任何开放的 Comfy3D 工作流中缺少节点,可以尝试直接点击 ComfyUI-Manager 中的安装缺失自定义节点。
- 若缺少某些 Python 库,您可以查看我开发环境中的所有 Python 依赖项。
- 如果由于某种原因您的 Comfy3D 无法自动下载预训练模型,您可以随时手动下载并将它们放入 Checkpoints 目录下的正确文件夹中,但请务必不要覆盖现有的 .json 文件。
- Docker 安装请参考 DOCKER_INSTRUCTIONS.md。
- 注意:目前,为了使
InstantNGP和使用 NeRF 与 Marching_Cubes 将 3DGS 转换为网格节点正常工作,您仍然需要安装 适用于 Windows 的 Visual Studio Build Tools 以及 为 Linux 安装gcc g++,因为这两个节点使用了在运行时构建的 JIT torch cpp 扩展。不过,我计划替换这些节点。
手动安装方法
# 获取最新版 Comfy3D
cd 您的 ComfyUI 根目录\ComfyUI\custom_nodes\
git clone https://github.com/MrForExample/ComfyUI-3D-Pack.git
cd ComfyUI-3D-Pack
# 安装所有依赖项
您的 ComfyUI 根目录\python_embeded\python.exe -s -m pip install -r requirements.txt
您的 ComfyUI 根目录\python_embeded\python.exe install.py
特性:
使用场景请参阅 示例工作流。[最后更新:2025年6月5日]
- 注意:您需要将 示例输入文件及文件夹 放置在 ComfyUI 根目录\ComfyUI\input 文件夹下,才能运行示例工作流。
PartCrafter:wgsxm/PartCrafter
- 双模型流程:
- 单物体模式:
- 单张图片 → 带有部件分割的 3D 网格
- 输出:
- 合并后的完整网格
- 包含各个部件网格的 ZIP 压缩包
- 场景模式:
- 场景图片 → 多个 3D 部件网格
- 输出:
- 合并后的完整场景网格
- 包含各个对象网格的 ZIP 压缩包
- 单物体模式:
- 模型权重:
- 工作流:
- 双模型流程:
Hunyuan3D_2.1:Tencent-Hunyuan/Hunyuan3D-2.1
- 更新后的两阶段流程:
- 单张图片 → 3D 网格(形状生成)
- 3D 网格 + 参考图片 → 带 RGB 纹理的 3D 网格
- 模型权重:https://huggingface.co/tencent/Hunyuan3D-2.1
- 工作流:完整、形状生成、纹理生成
- 更新后的两阶段流程:
MV-Adapter:huanngzh/MV-Adapter
- 两种生成方式:
- IG2MV:单张图片 + 3D 网格生成多视角图像
- TG2MV:文本提示 + 3D 网格生成多视角图像
- 纹理化:网格图像 + 3D 网格生成带纹理的网格
- 模型权重:https://huggingface.co/huanngzh/mv-adapter
- 工作流:IG2MV、T2MV、纹理化
- 两种生成方式:
Stable3DGen: Stable-X/Stable3DGen
- 两阶段模型流程:
- Stable3DGen:单张图像生成3D网格
- StableNormal:用于法线贴图生成的图像处理
- 模型权重:
- Stable3DGen:https://huggingface.co/Stable-X/trellis-normal-v0-1
- StableNormal:https://huggingface.co/Stable-X/yoso-normal-v1-8-1
- 工作流
- 两阶段模型流程:
Hunyuan3D_V2:turbo、mini、fast、multiview
- 单张图像生成3D网格
- 多视角图像结合RGB纹理生成3D网格
- 模型权重:https://huggingface.co/tencent/Hunyuan3D-2,https://huggingface.co/tencent/Hunyuan3D-2mini
- 工作流
TripoSG: VAST-AI-Research/TripoSG
TRELLIS: microsoft/TRELLIS
- 单张图像生成带有RGB纹理的3D网格
- 模型权重:https://huggingface.co/jetx/TRELLIS-image-large
Hunyuan3D_V2 tencent/Hunyuan3D-2
- 两阶段流程:
- 单张图像仅生成3D网格形状
- 结合3D网格形状和一张参考图生成带有RGB纹理的3D网格
- 模型权重:https://huggingface.co/tencent/Hunyuan3D-2/tree/main
- 工作流
- 两阶段流程:
Hunyuan3D_V1 tencent/Hunyuan3D-1
- 两阶段流程:
- 单张图像生成多视角图像
- 多视角图像结合RGB纹理生成3D网格
- 模型权重:https://huggingface.co/tencent/Hunyuan3D-1/tree/main
- 两阶段流程:
StableFast3D: Stability-AI/stable-fast-3d
- 单张图像生成带有RGB纹理的3D网格
- 注意:在下载模型权重之前,您需要同意Stability AI的使用条款。如果您手动下载了模型权重,则需要将其放置在[Checkpoints/StableFast3D]目录下;否则,您可以将您的Hugging Face令牌添加到[Configs/system.conf]中。
- 模型权重:https://huggingface.co/stabilityai/stable-fast-3d/tree/main
CharacterGen: zjp-shadow/CharacterGen
- 单张任意姿势的人物正面图像
- 可与Unique3D工作流结合使用以获得更好的效果
- 模型权重:https://huggingface.co/zjpshadow/CharacterGen/tree/main
Unique3D: AiuniAI/Unique3D
- 四阶段流程:
- 单张图像生成4张分辨率为256×256的多视角图像
- 将一致的多视角图像超分辨率至512×512,并进一步超分辨率至2048×2048
- 将多视角图像生成分辨率为512×512的法线贴图,并进一步超分辨率至2048×2048
- 将多视角图像和法线贴图结合生成带纹理的3D网格
- 要使用全阶段Unique3D工作流,请下载以下模型:
- sdv1.5-pruned-emaonly并将其放入
您的ComfyUI根目录/ComfyUI/models/checkpoints - fine-tuned controlnet-tile并将其放入
您的ComfyUI根目录/ComfyUI/models/controlnet - ip-adapter_sd15并将其放入
您的ComfyUI根目录/ComfyUI/models/ipadapter - OpenCLIP-ViT-H-14,重命名为OpenCLIP-ViT-H-14.safetensors并将其放入
您的ComfyUI根目录/ComfyUI/models/clip_vision - RealESRGAN_x4plus并将其放入
您的ComfyUI根目录/ComfyUI/models/upscale_models
- sdv1.5-pruned-emaonly并将其放入
- 模型权重:https://huggingface.co/spaces/Wuvin/Unique3D/tree/main/ckpt
- 四阶段流程:
Era3D MVDiffusion Model: pengHTYX/Era3D
- 单张图像生成6张分辨率为512×512的多视角图像及法线贴图
- 注:运行此模型至少需要16GB显存
- 模型权重:https://huggingface.co/pengHTYX/MacLab-Era3D-512-6view/tree/main
InstantMesh重建模型: TencentARC/InstantMesh
- 带有白色背景的稀疏多视角图像生成带有RGB纹理的3D网格
- 可与任意MVDiffusion模型配合使用(可能与Zero123++效果最佳,但也适用于CRM MVDiffusion模型)
- 模型权重:https://huggingface.co/TencentARC/InstantMesh/tree/main
Zero123++: SUDO-AI-3D/zero123plus
- 单张图像生成6张分辨率为320×320的视角图像
卷积重建模型:thu-ml/CRM
- 三阶段流程:
- 单张图像转为6视角图像(前、后、左、右、上、下)
- 单张图像及6视角图像转为6个相同视角的CCM(规范坐标映射)
- 6视角图像及CCM转为3D网格
- 注意:对于显存较低的电脑,如果无法将各阶段的三个模型全部加载到显存中,可以将这三个阶段拆分到不同的ComfyUI工作流中分别运行
- 模型权重:https://huggingface.co/sudo-ai/zero123plus-v1.2
- 三阶段流程:
TripoSR:VAST-AI-Research/TripoSR | ComfyUI-Flowty-TripoSR
- 生成NeRF表示,并使用Marching Cubes将其转换为3D网格
- 模型权重:https://huggingface.co/stabilityai/TripoSR/tree/main
- tripoSR层叠扩散工作流由@Consumption提供
Wonder3D:xxlong0/Wonder3D
- 从单张图像生成空间一致的6视角图像及法线贴图
- 模型权重:https://huggingface.co/flamehaze1115/wonder3d-v1.0/tree/main

大型多视角高斯模型:3DTopia/LGM
- 在RTX3080显卡上,可在不到30秒内实现单张图像到3D高斯的转换,随后还可将3D高斯转换为网格
- 模型权重:https://huggingface.co/ashawkey/LGM/tree/main
三平面高斯变换器:VAST-AI-Research/TriplaneGaussian
- 在RTX3080显卡上,可在不到10秒内实现单张图像到3D高斯的转换,随后也可将3D高斯转换为网格
- 模型权重:https://huggingface.co/VAST-AI/TriplaneGaussian/tree/main
预览3DGS和3D网格:在ComfyUI内部进行3D可视化:
- 使用gsplat.js和three.js分别用于3DGS和3D网格的可视化
- 可自定义背景,基于JS库:mdbassit/Coloris
堆栈轨道相机位姿:自动生成所有范围的相机位姿组合
可用于对StableZero123(需先下载检查点)进行条件控制,在一个提示词中包含全范围的相机位姿
也可用于生成轨道相机位姿,并直接输入到其他3D处理节点(如GaussianSplatting和BakeTextureToMesh)
示例用法:

坐标系统:
- 方位角:在俯视图中,从角度0开始以-90度为步长旋转360度,得到(0, -90, -180/180, 90, 0),此时相机顺时针旋转,反之亦然。
- 仰角:相机水平向前时为0度,指向地面则为负角度,反之亦然。
FlexiCubes:nv-tlabs/FlexiCubes
- 输入多视角深度图及掩码(可选法线贴图)
- 导出为3D网格
- 使用指南:
- voxel_grids_resolution:决定网格分辨率/质量
- depth_min_distance 和 depth_max_distance:物体与相机之间的距离,渲染中距离相机比depth_min_distance(depth_max_distance)更近(更远)的部分将以纯白色(黑色)RGB值1, 1, 1(0, 0, 0)渲染
- mask_loss_weight:控制重建后的3D网格轮廓
- depth_loss_weight:控制重建后的3D网格形状,该损失还会影响表面的细节变形,因此结果取决于深度图的质量
- normal_loss_weight:可选。用于细化表面的细节变形
- sdf_regularizer_weight:有助于去除未受应用目标监督区域中的浮动体,例如仅使用图像监督时的内部面
- remove_floaters_weight:若在平坦区域观察到伪影,可适当增加此权重
- cube_stabilizer_weight:在优化单个形状时影响不大,但在某些情况下有助于稳定训练
即时NGP:nerfacc
- 输入多视角图像
- 使用Marching Cubes导出为3D网格
3D高斯泼溅
- 改进的微分高斯光栅化
- 更好的基于紧凑性的致密化方法来自Gsgen,
- 支持从给定的3D网格初始化高斯点(可选)
- 支持小批量优化
- 输入多视角图像
- 导出为标准的3DGS .ply格式
高斯泼溅轨道渲染器
- 根据给定的3DGS文件和由堆栈轨道相机位姿节点生成的相机位姿,将3DGS渲染为图像序列或视频
网格轨道渲染器
- 根据给定的网格文件和由堆栈轨道相机位姿节点生成的相机位姿,将3D网格渲染为图像序列或视频
多视角图像拟合网格
- 使用Nvdiffrast将多视角图像烘焙到给定3D网格的UV纹理中,支持:
- 导出为.obj、.ply、.glb
保存与加载3D文件
- .obj、.ply、.glb用于3D网格
- .ply用于3DGS
切换 3DGS 和 3D 网格的坐标轴
- 由于不同的算法可能使用不同的坐标系,因此能够重新映射坐标轴对于在不同节点之间传递生成的结果至关重要。
-
- 自定义客户端 IP 地址
- 添加你的 Hugging Face 用户令牌
路线图:
集成 CharacterGen
改进 3DGS/Nerf 到 Mesh 的转换算法:
- 寻找更好的方法将 3DGS 或点云转换为网格(也许可以重建法线贴图?)
增加并改进一些最佳的 MVS 算法(例如 2DGS 等)
增加从原始多视角图像中估计相机位姿的功能
开发
如何贡献
- 分支该项目
- 进行改进/添加新功能
- 向 dev 分支 提交拉取请求
项目结构
包含所有 Comfy3D 节点的接口代码(即你在 ComfyUI 中实际可以看到并使用的节点),你可以在这里添加新的节点
一个包含所有生成模型/系统的代码的文件夹(例如多视角扩散模型、3D 重建模型)。新的 3D 生成模块应在此处添加
一个包含所有多视图立体算法的代码的文件夹,即那些接收多视角图像并将其转换为 3D 表示(例如高斯分布、MLP 或网格)的算法(如 Gaussian Splatting、NeRF 和 FlexiCubes)。新的 MVS 算法应在此处添加
- web:
一个包含所有与浏览器 UI 相关的文件和代码(html、js、css)的文件夹(例如 HTML 布局、样式以及预览 3D 网格和高斯分布的核心逻辑)。新的 Web UI 应在此处添加
一个包含与浏览器通信代码的文件夹,即处理 Web 客户端请求的代码(例如,在特定 URL 路由请求时向客户端发送 3D 网格)。新的 Web 服务器相关功能应在此处添加
一个包含不同模块的不同配置文件的文件夹,新的配置应在此处添加,如果单个模块有多个配置,则使用子文件夹(例如 Unique3D、CRM)
一个包含所有预训练模型以及 diffusers 所需的部分模型架构配置文件的文件夹。如果新的检查点可以通过 Load_Diffusers Pipeline 节点自动下载,则应将其添加到此文件夹中
主安装脚本,会根据你的运行环境自动下载并安装 Pre-builds。如果找不到相应的 Pre-builds,则会自动启动 build script,该脚本由 ComfyUI-Manager 在使用 pip 安装完 requirements.txt 中列出的依赖项后调用。
如果你尝试添加的新模块需要一些无法简单添加到 requirements.txt 和 build_config.remote_packages 中的额外软件包,则可以通过修改此脚本进行添加。
一个包含构建所有所需依赖项的文件和代码的文件夹。如果你想预先构建一些额外的依赖项,请查看 _Pre_Builds/README.md 获取更多信息。
小贴士
- OpenGL(Three.js、Blender)的世界和相机坐标系:
世界 相机 +y 上方 目标 | | / | | / |______+x |/______右侧 / / / / / / +z 正面 z 轴指向你,并且是从屏幕内指向外的 仰角:在 (-90, 90) 之间,从 +y 到 +x 是 (-90, 0) 方位角:在 (-180, 180) 之间,从 +z 到 +x 是 (0, 90) - 如果遇到 OpenGL 错误(例如
[F glutil.cpp:338] eglInitialize() failed),则在相应节点上将force_cuda_rasterize设置为 true - 如果安装后,你的 ComfyUI 在启动或运行时卡住,可以按照以下链接中的说明解决问题:在 GPU 上评估神经元模型时代码无限期挂起
- 修复 "nvcc fatal : 使用 'C:/Program Files (x86)/Microsoft Visual Studio/.../vcvars64.bat' 无法设置 Microsoft Visual Studio 的环境"
支持者
版本历史
v0.1.62025/08/07v0.1.42025/01/24v0.1.32024/12/18v0.1.22024/11/09v0.1.12024/10/18常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备