ferminet
FermiNet 是一款基于深度神经网络的开源科研工具,专为原子和分子的从头算(ab-initio)电子结构计算而设计。它利用变分蒙特卡洛方法,致力于高精度地学习并求解多电子系统的薛定谔方程,从而获得原子与分子的基态波函数。
在传统计算方法难以兼顾精度与效率的复杂量子多体问题中,FermiNet 通过神经网络强大的拟合能力,提供了一种新的解决思路,能够以极高的准确度模拟电子行为。其核心亮点在于将费米子交换反对称性直接融入神经网络架构中,确保了物理规律的自然满足;同时,项目基于 Google JAX 框架重构,支持 GPU 加速,显著提升了训练与计算效率。
由于目前仍处于活跃开发的研究阶段,且需要用户编写配置文件或脚本来定义分子系统及超参数,FermiNet 主要面向计算化学、凝聚态物理领域的研究人员以及具备深度学习背景的开发者。对于希望探索人工智能在量子力学中应用前沿的科研团队而言,这是一个极具价值的实验平台,但尚不适合无需编程基础的普通用户直接使用。
使用场景
某材料科学实验室的研究团队正致力于预测新型锂基电池催化剂的电子基态性质,以加速高性能材料的筛选过程。
没有 ferminet 时
- 依赖传统的密度泛函理论(DFT)或配置相互作用方法,在处理强关联电子系统时精度不足,导致能量计算误差较大。
- 为了获得更高精度,不得不使用极其昂贵的耦合簇理论(如 CCSD(T)),计算成本随电子数呈指数级增长,难以应用于稍大的分子体系。
- 波函数 Ansatz 通常基于固定的物理模型,缺乏灵活性,难以捕捉复杂的多体量子纠缠效应。
- 调整计算方法以适应不同原子构型需要大量手动推导公式和重写代码,研发迭代周期长达数周。
- 在普通计算集群上运行高精度模拟往往需要数天甚至数周才能收敛,严重拖慢实验验证进度。
使用 ferminet 后
- 利用费米子神经网络直接学习高精度的基态波函数,无需预设近似模型,显著提升了强关联体系的能量计算准确度。
- 借助变分蒙特卡洛方法与 JAX 的 GPU 加速能力,以多项式级别的计算成本实现了接近基准方法的精度,大幅降低了算力门槛。
- 神经网络架构自动适应复杂的电子相关性,灵活捕捉传统方法难以描述的多体纠缠特征,结果更贴近真实物理图像。
- 仅需修改简单的 Python 配置文件即可定义新的原子或分子系统(如从锂原子切换到氢分子),将新体系的搭建时间缩短至几分钟。
- 在单块 GPU 上即可快速完成训练与收敛,将原本数周的模拟任务压缩至数小时,极大加快了材料筛选的迭代速度。
ferminet 通过深度学习重构了量子多体问题的求解范式,让研究人员能在可承受的计算成本下获得前所未有的电子结构计算精度。
运行环境要求
- Linux
- macOS
- 非必需但强烈推荐(用于快速训练)
- 需支持 CUDA 的 NVIDIA GPU,具体版本需与安装的 jaxlib 匹配(示例中提及 CUDA 11.0),支持多 GPU 并行
未说明(但在处理大原子/分子及大批次时需求较高)

快速开始
FermiNet:费米子神经网络
FermiNet 是一种基于变分蒙特卡洛方法的神经网络,用于学习原子和分子的高精度基态波函数。
本仓库包含了首次发表于《使用深度神经网络求解多电子薛定谔方程的从头计算法》(David Pfau、James S. Spencer、Alex G de G Matthews 和 W.M.C. Foulkes,《物理评论·研究》2, 033429 (2020))中的算法实现及实验,并涵盖了后续的研究与进展。
警告:这是一个 JAX 实现的研究级版本,目前仍在积极开发中。原始的 TensorFlow 实现可在 tf 分支中找到。
安装
运行 pip install -e . 将安装所有必需的依赖项。建议在 虚拟环境 中进行此操作。
virtualenv ~/venv/ferminet
source ~/venv/ferminet/bin/activate
pip install -e .
如果您有 GPU 可用(强烈推荐以加快训练速度),则可以安装支持 CUDA 的 JAX,例如:
pip install --upgrade jax jaxlib==0.1.57+cuda110 -f
https://storage.googleapis.com/jax-releases/jax_releases.html
请注意,jaxlib 的版本必须与您希望使用的现有 CUDA 安装相匹配。更多详细信息请参阅 JAX 文档。
测试最简单的方法是使用 pytest:
pip install -e '.[testing]'
python -m pytest
使用
ferminet 使用来自 ml_collections 的 ConfigDict 来配置系统。ferminet/configs/ 目录下包含了一些示例脚本,这些脚本主要用于测试,因此在生产级计算中可能需要额外的设置。
ferminet --config ferminet/configs/atom.py --config.system.atom Li --config.batch_size 256 --config.pretrain.iterations 100
或者
python3 ferminet/main.py --config ferminet/configs/atom.py --config.system.atom Li --config.batch_size 256 --config.pretrain.iterations 100
将训练 FermiNet 以寻找锂原子的基态波函数,使用 1024 个 MCMC 配置(在变分蒙特卡洛语言中称为“游走者”)作为批次大小,并进行 100 次预训练迭代(对于如此小的系统,默认的 1000 次预训练显然过于冗余)。可以通过修改配置文件或(对于一次性更改,更推荐的方式)使用命令行标志来控制系统和超参数。有关标志语法的更多信息,请参阅 ml_collections 的文档。所有可用配置选项的详细信息请参见 ferminet/base_config.py。
其他系统也可以轻松设置,只需创建一个新的配置文件或使用 ferminet 工具,或者编写自定义的训练脚本。例如,要对 H2 分子进行计算,您可以创建一个包含以下内容的配置文件:
from ferminet import base_config
from ferminet.utils import system
# 配置文件中的设置通过执行 get_config 函数加载。
def get_config():
# 获取默认选项。
cfg = base_config.default()
# 设置分子
cfg.system.electrons = (1,1)
cfg.system.molecule = [system.Atom('H', (0, 0, -1)), system.Atom('H', (0, 0, 1))]
# 设置训练超参数
cfg.batch_size = 256
cfg.pretrain.iterations = 100
return cfg
然后使用以下命令运行:
ferminet --config /path/to/h2_config.py
或者等效地编写如下脚本(或交互式执行):
import sys
from absl import logging
from ferminet.utils import system
from ferminet import base_config
from ferminet import train
# 可选,用于将训练进度打印到标准输出。
# 如果运行脚本,也可以直接使用 --alsologtostderr 标志。
logging.get_absl_handler().python_handler.stream = sys.stdout
logging.set_verbosity(logging.INFO)
# 定义 H2 分子
cfg = base_config.default()
cfg.system.electrons = (1,1) # (α电子,β电子)
cfg.system.molecule = [system.Atom('H', (0, 0, -1)), system.Atom('H', (0, 0, 1))]
# 设置训练参数
cfg.batch_size = 256
cfg.pretrain.iterations = 100
train.train(cfg)
此外,您还可以直接传入一个 PySCF 的 'Molecule' 对象。可以使用以下代码创建 PySCF 分子:
from pyscf import gto
mol = gto.Mole()
mol.build(
atom = 'H 0 0 1; H 0 0 -1',
basis = 'sto-3g', unit='bohr')
一旦有了这个分子,就可以将其直接传递给配置对象,运行如下代码:
from ferminet import base_config
from ferminet import train
# 添加 H2 分子
cfg = base_config.default()
cfg.system.pyscf_mol = mol
# 设置训练参数
cfg.batch_size = 256
cfg.pretrain.iterations = 100
train.train(cfg)
注意:对于较大原子和分子的训练,尤其是当批次大小较大时,多 GPU 并行化至关重要。这可通过 JAX 的 pmap 功能实现。如果有多个 GPU 可用,它们将被自动检测并使用。
推断
训练完成后,在参数固定的情况下,对能量和其他可观测量进行多次时间步长的计算,有助于积累低方差的物理量估计值。为此,只需使用与训练相同的命令,但添加 --config.optim.optimizer 'none' 标志即可。请确保 cfg.log.save_path 的值保持不变,或者将 cfg.log.restore_path 设置为原始训练运行时的 cfg.log.save_path 值。
此外,在推断时收集原始训练中未包含的可观测量统计数据也很有用。如果配置文件中未启用,可以通过在命令行中添加 --config.observables.s2、--config.observables.dipole 和 --config.observables.density 来跟踪自旋模量、偶极矩和密度矩阵。
激发态
系统的激发态性质可以使用以下两种方法之一来计算:VMC 的自然激发态算法 (NES-VMC) 或 系综惩罚方法。要计算系统的 k 个状态,只需在配置文件中设置 cfg.system.states=k 即可。默认情况下使用 NES-VMC,但若要启用系综惩罚方法,则需在配置中添加 cfg.optim.objective='vmc_overlap'。NES-VMC 没有需要设置的参数,而系综惩罚方法则允许自由选择能量和重叠惩罚项的权重,这些权重可以在 cfg.optim.overlap 中设定。如果配置中未为各状态的能量设置权重,系统会自动将其设为 1/k。我们发现,NES-VMC 通常比系综惩罚方法更为准确,但为了完整性,我们同时提供了这两种方法。介绍 NES-VMC 的论文中所有实验的配置文件都位于 configs/excited 文件夹中,所有实验都可以通过运行 tests/excited_test.py 在较小的网络上进行测试。
输出
结果目录包含 train_stats.csv 文件,其中记录了每次迭代的局域能量和 MCMC 接受概率;此外还有 checkpoints 目录,用于存储训练过程中生成的检查点。在计算激发态的可观测量或基态密度矩阵时,还会将 .npy 文件保存到同一文件夹中。每次优化迭代都会将一个 NumPy 数组保存到同一个文件中。分析这些输出的 Colab 笔记本示例位于 notebooks/excited_states_analysis.ipynb 中。
致谢
如果您在工作中使用了此代码,请引用相关论文。最初的论文详细介绍了架构及其在多种体系上的结果:
@article{pfau2020ferminet,
title={基于深度神经网络的多电子薛定谔方程从头计算解},
author={D. Pfau 和 J.S. Spencer、A.G. de G. Matthews、W.M.C. Foulkes},
journal={Phys. Rev. Research},
year={2020},
volume={2},
issue = {3},
pages={033429},
doi = {10.1103/PhysRevResearch.2.033429},
url = {https://link.aps.org/doi/10.1103/PhysRevResearch.2.033429}
}
一篇 NeurIPS 工作坊“机器学习与物理”会议论文描述了 JAX 实现:
@misc{spencer2020better,
title={更好、更快的费米子神经网络},
author={James S. Spencer、David Pfau、Aleksandar Botev 和 W. M.C. Foulkes},
year={2020},
eprint={2011.07125},
archivePrefix={arXiv},
primaryClass={physics.comp-ph},
url={https://arxiv.org/abs/2011.07125}
}
PsiFormer 架构则在 2023 年 ICLR 论文中进行了详细说明:
@misc{vonglehn2023psiformer,
title={一种用于从头量子化学的自注意力 Ansatz},
author={Ingrid von Glehn、James S Spencer 和 David Pfau},
journal={ICLR},
year={2023},
}
周期性边界条件最初是在《物理评论快报》的一篇文章中提出的:
@article{cassella2023discovering,
title={利用费米子神经网络发现量子相变},
author={Cassella, Gino、Sutterud, Halvard、Azadi, Sam、Drummond, ND、Pfau, David、Spencer, James S、Foulkes, W Matthew C},
journal={物理评论快报},
volume={130},
number={3},
pages={036401},
year={2023},
publisher={APS}
}
Wasserstein QMC(感谢 Kirill Neklyudov)则在 2023 年 NeurIPS 论文中有所介绍:
@article{neklyudov2023wasserstein,
title={Wasserstein 量子蒙特卡洛:求解量子多体薛定谔方程的一种新方法},
author={Neklyudov, Kirill、Nys, Jannes、Thiede, Luca、Carrasquilla, Juan、Liu, Qiang、Welling, Max、Makhzani, Alireza},
journal={NeurIPS},
year={2023}
}
自然激发态则在这篇文章中被提出,这也是我们团队首次使用赝势的论文:
@article{pfau2024excited,
title={利用神经网络精确计算量子激发态},
author={Pfau, David、Axelrod, Simon、Sutterud, Halvard、von Glehn, Ingrid、Spencer, James S},
journal={Science},
volume={385},
number={6711},
pages={eadn0137},
year={2024},
url={https://doi.org/10.1126/science.adn0137},
}
本仓库可按如下方式引用:
@software{ferminet_github,
author = {James S. Spencer、David Pfau 和 FermiNet 贡献者},
title = {{FermiNet}},
url = {http://github.com/deepmind/ferminet},
year = {2020},
}
免责声明
本项目并非 Google 官方产品。
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。