matgl
MatGL(Materials Graph Library)是一个专为材料科学设计的图深度学习开源库。它将材料的原子结构自然地转化为数学图数据,利用先进的图神经网络模型,高效预测各类材料属性,从而作为传统昂贵计算方法的强力替代方案。
对于材料领域的研究人员和开发者而言,MatGL 解决了从原子结构到性能预测的建模难题,显著降低了探索新材料的计算成本与时间门槛。无论是需要快速筛选候选材料的研究团队,还是致力于开发新算法的 AI 工程师,都能通过 MatGL 灵活地构建、训练并分享自己的模型。
该工具的技术亮点在于其持续的架构演进与广泛的兼容性。最新版本默认采用 PyTorch Geometric (PyG) 后端,以确保持续的技术支持,同时仍保留对 DGL 框架的兼容。MatGL 不仅内置了 M3GNet、MEGNet、CHGNet 等经典架构,还引入了最新的 QET 和 TensorNet 模型,并提供丰富的预训练权重,让用户仅需一行代码即可加载高性能模型,轻松开启材料智能发现之旅。
使用场景
某新能源电池材料研发团队正致力于从数万种候选晶体结构中,快速筛选出具有高离子电导率且热力学稳定的新型固态电解质。
没有 matgl 时
- 计算成本高昂:依赖传统密度泛函理论(DFT)计算每个候选材料的能量和性质,单个结构需耗时数小时,完成万级筛选需数月甚至更久。
- 模型复现困难:团队试图复现最新的 M3GNet 或 CHGNet 论文模型,但需手动处理复杂的图数据结构转换,代码调试周期长达数周。
- 框架迁移痛苦:随着主流图神经网络库从 DGL 向 PyTorch Geometric (PyG) 迁移,原有基于旧框架的代码面临重构风险,缺乏平滑过渡方案。
- 预训练资源缺失:缺乏高质量、开箱即用的通用势函数预训练模型,从头训练小样本数据导致预测精度极低,无法指导实验。
使用 matgl 后
- 推理速度飞跃:直接调用 matgl 内置的 M3GNet 预训练模型作为代理模型,将单结构预测时间从小时级压缩至毫秒级,万级筛选任务一天内即可完成。
- 开发效率倍增:利用 matgl 统一的 API 接口,仅需一行代码即可加载经过验证的 SOTA 架构(如 TensorNet、QET),免去了底层图构建的繁琐工作。
- 无缝拥抱新技术:借助 matgl v2.0 对 PyG 后端的原生支持,团队无需重写代码即可享受最新框架的性能优化,彻底摆脱了 DGL 停止维护的担忧。
- 精度即时可用:直接使用官方提供的在大规模 MatPES 数据集上预训练的势能模型,即使在少量私有数据微调下,也能获得接近 DFT 的计算精度。
matgl 通过将前沿的图深度学习架构转化为开箱即用的工业级工具,让材料科学家能将精力从繁琐的代码工程中解放出来,专注于真正的科学发现。
运行环境要求
- Linux
- macOS
- Windows
- 非必需
- 若需加速训练,支持 NVIDIA GPU,需安装对应 CUDA 版本的 PyTorch 和 DGL(示例中提及 CUDA 12.1 和 CUDA 11.x),具体显存需求取决于模型大小和数据集,未明确说明最低要求
未说明

快速开始
材料图库 
官方文档
简介
MatGL(材料图库)是一个用于材料科学的图深度学习库。数学中的图结构天然适用于表示原子集合。研究表明,图深度学习模型在材料性质预测的代理模型中始终表现出色。MatGL 的目标是成为一个可扩展的平台,用于开发和共享材料图深度学习模型。
MatGL 的第一个版本由 Materialyze.AI 和英特尔实验室合作开发。
MatGL 是 MatML 生态系统的一部分,该生态系统包括 MatGL(材料图库)、maml(材料机器学习)软件包、MatPES(材料势能面)数据集以及 MatCalc(材料计算器)。
当前状态
以下总结了主要里程碑,请参阅 [变更日志] 获取详细信息。
- v2.0.0(2025年11月13日):新增 QET 架构。PyG 后端现为默认设置。
- v1.3.0(2025年8月12日):添加预训练分子势能模型及 PyG 框架。
- v1.1.0(2024年5月7日):实现 CHGNet 并提供预训练模型。
- v1.0.0(2024年2月14日):实现 TensorNet 和 SO3Net。
- v0.5.1(2023年6月9日):实现了模型版本管理。
- v0.5.0(2023年6月8日):简化了模型的保存与加载,现在只需一行代码即可加载模型!
- v0.4.0(2023年6月7日):功能接近原始 TensorFlow 实现。重新训练的 M3Gnet 通用势能现已可用。
- v0.1.0(2023年2月16日):完成了 M3GNet 和 MEGNet 架构的初步实现。可能存在一些 bug!
重大更新:v2.0.0(2025年11月12日)
我们正逐步从 Deep Graph Library (DGL) 框架迁移到 PyTorch Geometric (PyG),甚至完全采用纯 PyTorch 框架。这一调整的动机在于 DGL 已不再积极维护。目前,PYG 和 DGL 两种框架的模型均可使用。
自 v2.0.0 起,MatGL 将默认使用 PyG 后端,DGL 不再是必需依赖项。目前,仅 TensorNet 已在 PYG 中重新实现。若要使用基于 DGL 的模型(包括新的 QET),您需要手动安装 DGL 相关依赖项。这通常需要约 10 分钟,具体时间取决于所需 GPU 包的下载速度:
pip install "numpy<2"
pip install dgl==2.2.0
pip install torch==2.3.0
pip install "torchdata<=0.8.0"
然后通过环境变量 MATGL_BACKEND=DGL 或者使用以下 Python 代码设置后端:
import matgl
matgl.set_backend("DGL")
当前架构
图:M3GNet/MEGNet 示意图
在此,我们总结了 MatGL 中目前已实现的架构。需要强调的是,这绝非详尽无遗的列表,我们预计未来将由 MatGL 核心团队及其他贡献者不断添加新的架构。
- QET(仅支持 DGL,PYG 即将推出),发音为“ket”,是一种电荷平衡张量网络架构。它是一种等变、考虑电荷效应的架构,通过可解析求解的电荷平衡方案实现了与体系规模的线性 scaling。现已提供预训练的 QET-MatQ FP,该 FP 在标准材料性能基准测试中达到最先进水平,但在以电荷转移为主导的体系中,如 NaCl–\ce{CaCl2} 离子液体、Li/\ce{Li6PS5Cl} 固态电解质界面处的反应过程等,其预测结果与其他 FP 存在显著差异,并且支持在施加电化学势下的模拟。
- TensorNet(PYG 和 DGL)是一种 O(3) 等变的消息传递神经网络架构,利用笛卡尔张量表示。它是 SO3Net 架构的推广,后者是一种极简的 SO(3) 等变神经网络。总体而言,TensorNet 被证明比其他等变架构具有更高的数据和参数效率。目前,它已成为 [Materials Virtual Lab] 的默认架构。
- 晶体哈密顿图网络 (CHGNet)(仅支持 DGL)是一种基于图神经网络的 MLIP。CHGNet 使用原子图捕捉原子键合关系,并使用键图捕捉角度信息。其专长在于通过学习和预测 DFT 原子磁矩来捕捉原子电荷。详见 原始实现。
- 材料三体图网络 (M3GNet) 是一种包含三体相互作用的不变图神经网络架构。另一个区别在于,它引入了原子坐标以及晶体中的 3×3 晶格矩阵,这些对于通过自动微分获得力和应力等张量量是必需的。作为框架,M3GNet 具有广泛的应用,包括 原子间势能开发。在相同的训练数据下,M3GNet 的表现与最先进的机器学习原子间势能(MLIPs)相当。然而,图表示的一个关键优势在于其能够灵活扩展到不同的化学空间。M3GNet 的一项重要成果是开发了一种 基础势能,该势能通过对 Materials Project 中进行的弛豫计算进行训练,可在整个元素周期表范围内适用。与之前的 MEGNet 架构类似,M3GNet 可用于开发属性预测的代理模型,在许多情况下其精度优于或与其它最先进的机器学习模型相当。
- 材料图网络 (MEGNet)(仅支持 DGL)是 DeepMind 的 图网络 在材料科学机器学习中的实现。我们已证明其在 分子和晶体 的广泛属性预测中均能实现较低的预测误差。最新版本还包括我们在 多保真度材料属性建模 方面的最新工作。图 1 展示了图网络的顺序更新步骤,其中键、原子和全局状态属性会相互交换信息并进行更新,从而生成输出图。
有关详细的性能基准测试,请参阅 参考文献 部分的出版物。
安装
Matgl 可通过 pip 安装:
pip install matgl
若需使用 DGL,建议在安装 matgl 之前先安装最新版本的 DGL。
pip install dgl -f https://data.dgl.ai/wheels/torch-2.4/repo.html
CUDA(GPU)安装
若打算使用 CUDA(GPU)加速训练,务必安装适当版本的 PyTorch 和 DGL。以下为基本说明,但若遇到任何问题,建议查阅 PyTorch 文档 和 DGL 文档。
pip install torch==2.2.0 --index-url https://download.pytorch.org/whl/cu121
pip install dgl -f https://data.dgl.ai/wheels/cu121/repo.html
pip install dglgo -f https://data.dgl.ai/wheels-test/repo.html
Docker 镜像
现已为 matgl 打造了 Docker 镜像,并支持 LAMMPS。这些镜像可在 [Materials Virtual Lab Docker 仓库] 获取。若希望将 MatGL 与 LAMMPS 结合使用,这可能是最简便的方式。
使用方法
现已有针对 Materials Project 形成能及多保真度带隙的预训练 M3GNet 通用势能和 MEGNet 模型可供使用。
命令行(自 v0.6.2 起)
现在提供了一个 CLI 工具,可用于使用预训练模型进行快速弛豫或预测,以及执行其他简单管理任务(如清除缓存)。以下是一些简单示例:
进行弛豫时,
mgl relax --infile Li2O.cif --outfile Li2O_relax.cif使用其中一个预训练的属性模型时,
mgl predict --model M3GNet-MP-2018.6.1-Eform --infile Li2O.cif清除缓存时,
mgl clear
如需了解所有选项,请使用 mgl -h。
代码
对于只想开箱即用的用户,可以使用新实现的 matgl.load_model 便捷方法。以下是 CsCl 形成能预测的示例。
from pymatgen.core import Lattice, Structure
import matgl
model = matgl.load_model("MEGNet-MP-2018.6.1-Eform")
# 这是从 Materials Project 获取的结构。
struct = Structure.from_spacegroup("Pm-3m", Lattice.cubic(4.1437), ["Cs", "Cl"], [[0, 0, 0], [0.5, 0.5, 0.5]])
eform = model.predict_structure(struct)
print(f"CsCl 的预测形成能为 {float(eform.numpy()):.3f} eV/atom。")
要获取可用的预训练模型列表,
import matgl
print(matgl.get_available_pretrained_models())
Pytorch Hub
预训练模型也可在 Pytorch Hub 上获取。要使用这些模型,只需安装 matgl 并执行以下命令:
import torch
# 获取模型列表
torch.hub.list("materialsvirtuallab/matgl", force_reload=True)
# 加载模型
model = torch.hub.load("materialyzeai/matgl", 'm3gnet_universal_potential')
模型训练
在 PES 训练中,训练集、验证集和测试集中能量、力以及应力(可选)的单位必须与 MatGL 中使用的单位保持一致。
- 能量:以 eV 为单位的能量列表。
- 力:以 eV/Å 为单位的 nx3 力矩阵列表,其中 n 是每个结构中的原子数。不同结构的 n 可以不同。
- 应力:以 GPa 为单位的 3x3 应力矩阵列表(可选)。
注意:对于应力,我们采用压缩应力为负值的约定。从 VASP 计算得到的应力(默认单位为 kBar)需要乘以 -0.1,才能直接用于模型。
教程
我们编写了关于如何使用 MatGL 的[教程]。这些教程由[Jupyter 笔记本]生成,可以直接在Google Colab上运行。
资源
- 所有类和方法的API 文档。
- 开发者指南概述了
matgl的关键设计要素,尤其适合希望训练和贡献matgl模型的开发者。 - AdvancedSoft 已实现了M3GNet 的 LAMMPS 接口,分别适用于 M3GNet 的 TF 版本和 MatGL 版本。
参考文献
MatGL 的论文已发表在 npj Computational Materials 上,请引用以下内容:
MatGL
Ko, T. W.; Deng, B.; Nassar, M.; Barroso-Luque, L.; Liu, R.; Qi, J.; Thakur, A. C.; Mishra, A. R.; Liu, E.; Ceder, G.; Miret, S.; Ong, S. P. 材料图库(MatGL),一个面向材料科学和化学的开源图深度学习库。 npj Comput Mater 11, 253 (2025). DOI: https://doi.org/10.1038/s41524-025-01742-y.
如果您正在使用任何预训练模型,请引用以下相关工作:
MEGNet
Chen, C.; Ye, W.; Zuo, Y.; Zheng, C.; Ong, S. P. 图网络作为分子和晶体的通用机器学习框架。 Chem. Mater. 2019, 31 (9), 3564–3572. DOI: 10.1021/acs.chemmater.9b01294.
多精度 MEGNet
Chen, C.; Zuo, Y.; Ye, W.; Li, X.; Ong, S. P. 从多精度数据中学习有序和无序材料的性质。 Nature Computational Science, 2021, 1, 46–53. DOI: 10.1038/s43588-020-00002-x.
M3GNet
Chen, C., Ong, S.P. 一种适用于元素周期表的通用图深度学习原子间势能。 Nature Computational Science, 2023, 2, 718–728. DOI: 10.1038/s43588-022-00349-3.
CHGNet
Deng, B., Zhong, P., Jun, K. 等. CHGNet:一种用于电荷信息原子尺度建模的预训练通用神经网络势能。 Nat Mach Intell 5, 1031–1041 (2023). DOI: 10.1038/s42256-023-00716-3
TensorNet
Simeon, G. De Fabritiis, G. Tensornet:用于高效学习分子势能的笛卡尔张量表示。 Adv. Neural Info. Process. Syst. 36, (2024). DOI: 10.48550/arXiv.2306.06482
SO3Net
Schütt, K. T., Hessmann, S. S. P., Gebauer, N. W. A., Lederer, J., Gastegger, M. SchNetPack 2.0:用于原子尺度机器学习的神经网络工具箱。 J. Chem. Phys. 158, 144801 (2023). DOI: 10.1063/5.0138367
QET
Ko, T. W., Liu, R., Mishra, A. R., Yu, Z., Qi, J., Ong, S. P. 一种快速、准确且具有反应性的等变基础势能。 arXiv 预印本 arXiv:2511.07249 (2025). DOI: 10.48550/arXiv.2511.07249
常见问题解答
M3GNet-MP-2021.2.8-PES与原始 TensorFlow (TF) 实现不同!答:
M3GNet-MP-2021.2.8-PES是经过重新调整的模型,包含一些数据改进和轻微的架构变化。将 TF 版本的权重移植到 DGL/PyTorch 并不简单。我们进行了合理的基准测试,以确保新实现能够重现原始 TF 实现的大致误差特征(参见jupyternb中的示例)。然而,它并不一定能完全复制 TF 版本。这个重新调整的模型是未来模型改进的基础。我们认为没有必要投入大量资源来精确复制 TF 版本。我在使用
matgl.load_model()时遇到错误!答: 最可能的原因是你缓存了旧版本的模型。我们经常重构模型以确保最佳实现。通常可以通过将
matgl更新到最新版本,并使用以下命令清除缓存mgl clear来解决这个问题。下次运行时,将会下载最新的模型。自 v0.5.2 起,我们引入了模型版本控制机制,可以检测代码与模型版本之间的冲突,并向用户发出警告。我应该使用哪些预训练模型?
答: 并没有一个确定的答案。一般来说,架构和数据集越新,模型的表现往往越好。但也要注意,运行在更广泛数据集上的模型可能会在特定体系上的性能有所妥协。最好的办法是查看每个模型附带的 README 文件,并针对你感兴趣的体系进行一些测试。
我如何为 matgl 做贡献?
答: 对于代码贡献,请先 fork 项目并提交 pull 请求。建议阅读开发者指南,了解总体设计规范。我们也欢迎预训练模型的贡献,同样需要通过 PR 提交。请遵循预训练模型的文件夹结构。特别地,我们期望所有模型都附带一个
README.md和一个记录其使用方法及关键性能指标的笔记本。此外,我们期待新的属性或体系方面的贡献,或者显著优于现有模型的贡献。未来我们将开发另一种模型共享方式。你们的任何模型都无法满足我的需求。我可以在哪里获得帮助?
答: 请简要描述您的需求,联系Prof Ong。对于简单的问题,我们很乐意提供建议并为您指明方向。对于更复杂的问题,我们始终愿意开展学术合作或项目。我们还为有特殊需求的企业提供咨询服务,包括但不限于定制数据生成、模型开发和材料设计。
致谢
本工作主要得到了Materials Project的支持,该计划由美国能源部科学办公室基础能源科学局材料科学与工程处资助,合同编号为DE-AC02-05-CH11231:Materials Project项目KC23MP。本研究使用了极端科学与工程发现环境(XSEDE)的Expanse超级计算集群,该集群由美国国家科学基金会资助,资助号为ACI-1548562。
我们还感谢NVIDIA Alchemi团队,特别是Roman Zubatyuk (@zubatyuk)和Alireza Moradzadeh (@moradza),他们为TensorNet的warp加速做出了贡献,使速度和内存使用效率提升了约2至3倍。
版本历史
v2.1.12026/03/15v2.1.02026/03/13v2.0.92026/03/05v2.0.82026/03/05v2.0.72026/03/05v2.0.62025/12/14v2.0.52025/12/08v2.0.42025/11/26v2.0.32025/11/25v2.0.22025/11/13v2.0.12025/11/13v2.0.02025/11/13v1.3.02025/08/12v1.2.72025/05/18v1.2.62025/04/07v1.2.52025/04/03v1.2.42025/04/03v1.2.12025/03/17v1.2.02025/03/17v1.1.32024/08/07常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
