deepmd-kit
DeePMD-kit 是一款专为分子模拟设计的深度学习软件包,旨在构建高精度的原子间势能模型并执行分子动力学模拟。它巧妙地将深度学习的强大拟合能力与传统物理模拟相结合,有效解决了计算科学中长期存在的“精度与效率难以兼得”的难题:既拥有接近量子力学计算的准确性,又具备经典力场的高效性,让研究者能够以更低的成本模拟更复杂的体系。
这款工具非常适合计算化学、材料科学及生物物理领域的研究人员使用,同时也欢迎希望开发新型势函数的算法开发者参与。无论是研究有机小分子、金属合金,还是半导体与绝缘体材料,DeePMD-kit 都能提供强有力的支持。
其技术亮点在于极高的灵活性与兼容性:它不仅内置了成熟的 Deep Potential 系列模型,还无缝对接 TensorFlow、PyTorch、JAX 等主流深度学习框架,使训练过程高度自动化。此外,它能轻松连接 LAMMPS、GROMACS、CP2K 等高性能模拟引擎,并全面支持 GPU 加速与 MPI 并行计算,确保在大规模集群上也能高效运行。凭借模块化设计,用户还可以轻松定制不同的描述符,探索前沿的势能面表达方法。
使用场景
某材料实验室团队正致力于研发新型固态电池电解质,需要模拟锂离子在复杂晶格结构中的长时程扩散行为以评估离子电导率。
没有 deepmd-kit 时
- 精度与效率难以兼得:使用传统经验势函数(Force Field)计算速度虽快,但无法准确描述复杂的化学键断裂与生成;若采用第一性原理(DFT)计算,精度虽高但算力消耗巨大,仅能模拟皮秒级时长,无法捕捉离子扩散全过程。
- 模型构建门槛极高:研究人员需手动编写复杂的势函数代码或依赖昂贵的商业软件接口,难以灵活调整模型架构以适应特定的金属 - 非金属混合体系。
- 大规模并行困难:在尝试扩大模拟体系至数千原子时,传统量子力学方法因计算复杂度呈立方级增长而彻底失效,导致无法复现真实的宏观材料环境。
使用 deepmd-kit 后
- 突破“精度 - 效率”瓶颈:利用深度势能(Deep Potential)模型,团队在保持接近 DFT 计算精度的同时,将分子动力学模拟速度提升了数个数量级,成功完成了纳秒级的长时程轨迹追踪。
- 自动化建模与多后端支持:借助其对接 TensorFlow 和 PyTorch 等主流框架的能力,研究人员通过少量配置即可自动训练出适配锂硫体系的高保真势函数,大幅降低了算法开发难度。
- 高效扩展至工业级规模:依托 deepmd-kit 对 MPI 和 GPU 的原生支持,团队轻松将模拟体系扩展至上万个原子,在超算集群上实现了高效并行,精准揭示了锂离子在晶界处的迁移机制。
deepmd-kit 通过深度学习重构了原子间相互作用势,让科研人员得以在量子级精度下探索以往无法触及的宏观时空尺度。
运行环境要求
- Linux
- macOS
- 非必需但强烈推荐用于高性能计算
- 支持 NVIDIA GPU (CUDA) 和 AMD GPU (ROCm)
- 具体型号和显存大小取决于模型规模和系统原子数,未明确指定最低要求
未说明(取决于模拟系统的原子数量和模型复杂度)

快速开始
DeePMD-kit
关于DeePMD-kit
DeePMD-kit是一个用Python/C++编写的软件包,旨在最大限度地减少构建基于深度学习的原子间势能和力场模型以及进行分子动力学(MD)模拟所需的工作量。这为解决分子模拟中精度与效率之间的矛盾带来了新的希望。DeePMD-kit的应用范围涵盖了从有限分子到扩展体系,从金属体系到化学键合体系。
欲了解更多信息,请参阅文档。
突出特点
- 与多种后端框架兼容,包括TensorFlow、PyTorch、JAX和Paddle等最流行的深度学习框架,使训练过程高度自动化且高效。
- 与高性能经典MD及量子(路径积分)MD软件包集成,如LAMMPS、i-PI、AMBER、CP2K、GROMACS、OpenMM和ABACUS等。
- 实现了Deep Potential系列模型,这些模型已成功应用于有限体系和扩展体系,包括有机分子、金属、半导体、绝缘体等。
- 支持MPI和GPU加速,使其在高性能并行和分布式计算中表现出色。
- 高度模块化,易于适应不同的描述符,用于构建基于深度学习的势能模型。
许可证与致谢
DeePMD-kit项目采用GNU LGPLv3.0许可证。如果您在未来的研究成果中使用了本代码,请引用以下通用文献:
- Han Wang, Linfeng Zhang, Jiequn Han, and Weinan E. "DeePMD-kit: A deep learning package for many-body potential energy representation and molecular dynamics." Computer Physics Communications 228 (2018): 178-184.

- Jinzhe Zeng, Duo Zhang, Denghui Lu, Pinghui Mo, Zeyu Li, Yixiao Chen, Marián Rynik, Li'ang Huang, Ziyao Li, Shaochen Shi, Yingze Wang, Haotian Ye, Ping Tuo, Jiabin Yang, Ye Ding, Yifan Li, Davide Tisi, Qiyu Zeng, Han Bao, Yu Xia, Jiameng Huang, Koki Muraoka, Yibo Wang, Junhan Chang, Fengbo Yuan, Sigbjørn Løland Bore, Chun Cai, Yinnian Lin, Bo Wang, Jiayan Xu, Jia-Xin Zhu, Chenxing Luo, Yuzhi Zhang, Rhys E. A. Goodall, Wenshuo Liang, Anurag Kumar Singh, Sikai Yao, Jingchao Zhang, Renata Wentzcovitch, Jiequn Han, Jie Liu, Weile Jia, Darrin M. York, Weinan E, Roberto Car, Linfeng Zhang, Han Wang. "DeePMD-kit v2: A software package for deep potential models." J. Chem. Phys. 159 (2023): 054801.

- Jinzhe Zeng, Duo Zhang, Anyang Peng, Xiangyu Zhang, Sensen He, Yan Wang, Xinzijian Liu, Hangrui Bi, Yifan Li, Chun Cai, Chengqian Zhang, Yiming Du, Jia-Xin Zhu, Pinghui Mo, Zhengtao Huang, Qiyu Zeng, Shaochen Shi, Xuejian Qin, Zhaoxi Yu, Chenxing Luo, Ye Ding, Yun-Pei Liu, Ruosong Shi, Zhenyu Wang, Sigbjørn Løland Bore, Junhan Chang, Zhe Deng, Zhaohan Ding, Siyuan Han, Wanrun Jiang, Guolin Ke, Zhaoqing Liu, Denghui Lu, Koki Muraoka, Hananeh Oliaei, Anurag Kumar Singh, Haohui Que, Weihong Xu, Zhangmancang Xu, Yong-Bin Zhuang, Jiayu Dai, Timothy J. Giese, Weile Jia, Ben Xu, Darrin M. York, Linfeng Zhang, Han Wang. "DeePMD-kit v3: A Multiple-Backend Framework for Machine Learning Potentials." J. Chem. Theory Comput. 21 (2025): 4375-4385.

此外,请参考CITATIONS.bib文件,以引用您所使用的方法。
主要版本亮点
初版
Deep Potential 的目标是利用深度学习技术,构建一个通用、精确、计算高效且可扩展的原子间势能模型。其核心在于通过为每个原子分配局部参考系和局部环境,来尊重势能模型的广延性和对称不变性。每个环境包含有限数量的原子,其局部坐标以保持对称的方式排列。这些局部坐标随后通过一个子网络转换为所谓的“原子能量”。将所有原子能量相加即可得到系统的总势能。
最初的概念验证发表在 Deep Potential 论文中,该论文采用了一种仅使用势能进行神经网络训练的方法。然而,对于典型的从头算分子动力学(AIMD)数据集而言,这种方法不足以重现轨迹。Deep Potential Molecular Dynamics(DeePMD)模型克服了这一局限性。此外,得益于引入灵活的损失函数族,DeePMD 的学习过程相比 Deep Potential 方法有了显著提升。以此构建的神经网络势能能够准确地再现经典和量子(路径积分)AIMD 轨迹,适用于扩展体系和有限体系,且计算成本随系统规模线性增长,始终比同等 AIMD 模拟低几个数量级。
尽管效率极高,但原始的 Deep Potential 模型在满足势能模型的广延性和对称不变性的同时,也引入了模型中的不连续性。这在正则系综采样中对轨迹的影响可以忽略,但在计算动力学和力学性质时可能不够充分。基于这些考虑,我们开发了 Deep Potential-Smooth Edition(DeepPot-SE)模型,用平滑且自适应的嵌入网络替代了非平滑的局部框架。DeepPot-SE 在模拟物理、化学、生物学和材料科学等领域中感兴趣的多种体系方面表现出色。
除了构建势能模型外,DeePMD-kit 还可用于构建粗粒化模型。在这些模型中,我们需要参数化的量是粗粒化粒子的自由能或粗粒化势能。更多细节请参阅 DeePCG 论文。
v1
- 代码重构,使其高度模块化。
- 支持 GPU 计算描述符。
v2
- 模型压缩。使模型推理效率提升 4 至 15 倍。
- 新型描述符。包括
se_e2_r、se_e3和se_atten(DPA-1)。 - 描述符混合。通过拼接多个描述符构建混合描述符。
- 原子类型嵌入。启用原子类型嵌入以降低训练复杂度并提升性能。
- 电偶极矩(向量)和极化率(矩阵)的训练与推理。
- 训练集和验证集的分离。
- 针对 GPU 的优化训练,包括 CUDA 和 ROCm。
- 非冯·诺依曼架构。
- C API,用于与第三方软件包对接。
有关 v2.2.3 之前所有功能的详细信息,请参阅我们的 v2 论文。
v3
- 支持多种后端。新增 PyTorch 和 JAX 后端。
- DPA2 和 DPA3 模型。
- 外部模型插件机制。
有关 v3.0 之前所有功能的详细信息,请参阅我们的 v3 论文。
安装与使用 DeePMD-kit
只需 1 秒钟复制粘贴并运行即可。
curl -fsSL https://dp1s.deepmodeling.com | bash
有关详细信息及替代安装方法,请阅读 在线文档。
接下来,我们将简要介绍 DeePMD-kit 的使用方法。您可以从第一步开始:
dp
代码结构
代码组织如下:
examples: 示例。deepmd: DeePMD-kit Python 模块。source/lib: 核心库源代码。source/op: 算子(OP)实现。source/api_cc: DeePMD-kit C++ API 源代码。source/api_c: C API 源代码。source/nodejs: Node.js API 源代码。source/ipi: i-PI 客户端源代码。source/lmp: LAMMPS 模块源代码。
贡献
请参阅 DeePMD-kit 贡献指南,成为我们的贡献者吧! 🤓
版本历史
v3.1.32026/03/19v3.1.22025/12/12v3.1.12025/09/30v3.1.02025/06/11v3.1.0rc02025/05/31v3.0.32025/05/23v3.1.0a02025/03/30v3.0.22025/03/02v3.0.12024/12/23v3.0.02024/11/23v3.0.0rc02024/11/14v3.0.0b42024/09/25v3.0.0b32024/07/27v3.0.0b22024/07/26v3.0.0b12024/07/14v2.2.112024/07/03v3.0.0b02024/07/03v2.2.102024/04/06v3.0.0a02024/03/03v2.2.92024/02/04相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
