[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-atomistic-machine-learning--schnetpack":3,"tool-atomistic-machine-learning--schnetpack":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":32,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":108,"github_topics":109,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":115,"updated_at":116,"faqs":117,"releases":138},5178,"atomistic-machine-learning\u002Fschnetpack","schnetpack","SchNetPack - Deep Neural Networks for Atomistic Systems","SchNetPack 是一款专为原子系统设计的深度学习工具箱，致力于利用神经网络预测分子和材料的势能面及其他量子化学性质。它有效解决了传统计算方法在处理复杂原子体系时成本高、效率低的难题，为新材料发现和药物研发提供了高效的模拟手段。\n\n这款工具特别适合计算化学领域的研究人员、材料科学家以及从事原子尺度机器学习的开发者使用。通过 SchNetPack，用户可以轻松构建、训练并评估最新的原子神经网络模型，无需从零开始编写底层代码。\n\n其技术亮点在于内置了多种前沿架构，如端到端的连续滤波卷积神经网络 SchNet，以及具备等变特性的消息传递网络 PaiNN。此外，SchNetPack 还集成了偶极矩、极化率、应力等物理性质的输出模块，并支持静电相互作用及加速的分子动力学模拟。配合灵活的命令行接口和 Hydra 配置系统，用户能够便捷地调用常见基准数据集，快速复现实验或探索新模型，是连接深度学习与原子模拟的强大桥梁。","# SchNetPack - Deep Neural Networks for Atomistic Systems\n[![Code style: black](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcode%20style-black-000000.svg)](https:\u002F\u002Fgithub.com\u002Fpython\u002Fblack)\n[![](https:\u002F\u002Fshields.io\u002Fbadge\u002F-Lightning--Hydra--Template-017F2F?style=flat&logo=github&labelColor=303030)](https:\u002F\u002Fgithub.com\u002Fhobogalaxy\u002Flightning-hydra-template)\n\n\nSchNetPack is a toolbox for the development and application of deep neural networks to the prediction of potential energy surfaces and other quantum-chemical properties of molecules and materials. It contains basic building blocks of atomistic neural networks, manages their training and provides simple access to common benchmark datasets. This allows for an easy implementation and evaluation of new models.\n\nThe documentation can be found [here](https:\u002F\u002Fschnetpack.readthedocs.io).\n\n##### Features\n\n- SchNet - an end-to-end continuous-filter CNN for molecules and materials [1-3]\n- PaiNN - equivariant message-passing for molecules and materials [4]\n- Output modules for dipole moments, polarizability, stress, and general response properties\n- Modules for electrostatics, Ewald summation, ZBL repulsion\n- GPU-accelerated molecular dynamics code incl. path-integral MD, thermostats, barostats\n\n## Installation\n\n### Install with pip\n\nThe simplest way to install SchNetPack is through pip which will automatically get the source code from PyPI:\n```\npip install schnetpack\n```\n\n### Install from source\n\nYou can also install the most recent code from our repository:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack.git\ncd schnetpack\npip install .\n```\n\n### Visualization with Tensorboard\n\nSchNetPack supports multiple logging backends via PyTorch Lightning. The default logger is Tensorboard. SchNetPack also supports TensorboardX.\n\n\n## Getting started\n\nThe best place to get started is training a SchNetPack model on a common benchmark dataset via the command line\ninterface (CLI).\nWhen installing SchNetPack, the training script `spktrain` is added to your PATH.\nThe CLI uses [Hydra](https:\u002F\u002Fhydra.cc\u002F) and is based on the PyTorch Lightning\u002FHydra template that can be found\n[here](https:\u002F\u002Fgithub.com\u002Fashleve\u002Flightning-hydra-template).\nThis enables a flexible configuration of the model, data and training process.\nTo fully take advantage of these features, it might be helpful to have a look at the Hydra and PyTorch Lightning docs.\n\n### Example 1: QM9\n\nIn the following, we focus on using the CLI to train on the QM9 dataset, but the same\nprocedure applies for the other benchmark datasets as well.\nFirst, create a working directory, where all data and runs will be stored:\n\n```\nmkdir spk_workdir\ncd spk_workdir\n```\n\nThen, the training of a SchNet model with default settings for QM9 can be started by:\n\n```\nspktrain experiment=qm9_atomwise\n```\n\nThe script prints the defaults for the experiment config `qm9_atomwise`.\nThe dataset will be downloaded automatically to `spk_workdir\u002Fdata`, if it does not exist yet.\nThen, the training will be started.\n\nAll values of the config can be changed from the command line, including the directories for run and data.\nBy default, the model is stored in a directory with a unique run id hash as a subdirectory of `spk_workdir\u002Fruns`.\nThis can be changed as follows:\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u002Fmy\u002Fdata\u002Fdir run.path=~\u002Fall_my_runs run.id=this_run\n```\n\nIf you call `spktrain experiment=qm9_atomwise --help`, you can see the full config with all the parameters\nthat can be changed.\nNested parameters can be changed as follows:\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> data.batch_size=64\n```\n\nHydra organizes parameters in config groups which allows hierarchical configurations consisting of multiple\nyaml files. This allows to easily change the whole dataset, model or representation.\nFor instance, changing from the default SchNet representation to PaiNN, use:\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> model\u002Frepresentation=painn\n```\n\nIt is a bit confusing at first when to use \".\" or \"\u002F\". The slash is used, if you are loading a preconfigured config\ngroup, while the dot is used changing individual values. For example, the config group \"model\u002Frepresentation\"\ncorresponds to the following part of the config:\n\n```\n    model:\n      representation:\n        _target_: schnetpack.representation.PaiNN\n        n_atom_basis: 128\n        n_interactions: 3\n        shared_interactions: false\n        shared_filters: false\n        radial_basis:\n          _target_: schnetpack.nn.radial.GaussianRBF\n          n_rbf: 20\n          cutoff: ${globals.cutoff}\n        cutoff_fn:\n          _target_: schnetpack.nn.cutoff.CosineCutoff\n          cutoff: ${globals.cutoff}\n```\n\nIf you would want to additionally change some value of this group, you could use:\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> model\u002Frepresentation=painn model.representation.n_interactions=5\n```\n\nFor more details on config groups, have a look at the\n[Hydra docs](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Ftutorials\u002Fbasic\u002Fyour_first_app\u002Fconfig_groups\u002F).\n\n\n### Example 2: Potential energy surfaces\n\nThe example above uses `AtomisticModel` internally, which is a\n`pytorch_lightning.LightningModule`, to predict single properties.\nThe following example will use the same class to predict potential energy surfaces,\nin particular energies with the appropriate derivates to obtain forces and stress tensors.\nThis works since the pre-defined configuration for the MD17 dataset,\nprovided from the command line by `experiment=md17`, is selecting the representation and output modules that\n`AtomisticModel` is using.\nA more detailed description of the configuration and how to build your custom configs can be\nfound [here](https:\u002F\u002Fschnetpack.readthedocs.io\u002Fen\u002Flatest\u002Fuserguide\u002Fconfigs.html).\n\nThe `spktrain` script can be used to train a model for a molecule from the MD17 datasets\n\n```\nspktrain experiment=md17 data.molecule=uracil\n```\n\nIn the case of MD17, reference calculations of energies and forces are available.\nTherefore, one needs to set weights for the losses of those properties.\nThe losses are defined as part of output definitions in the `task` config group:\n\n```\n    task:\n      outputs:\n        - _target_: schnetpack.task.ModelOutput\n          name: ${globals.energy_key}\n          loss_fn:\n            _target_: torch.nn.MSELoss\n          metrics:\n            mae:\n              _target_: torchmetrics.regression.MeanAbsoluteError\n            mse:\n              _target_: torchmetrics.regression.MeanSquaredError\n          loss_weight: 0.005\n        - _target_: schnetpack.task.ModelOutput\n          name: ${globals.forces_key}\n          loss_fn:\n            _target_: torch.nn.MSELoss\n          metrics:\n            mae:\n              _target_: torchmetrics.regression.MeanAbsoluteError\n            mse:\n              _target_: torchmetrics.regression.MeanSquaredError\n          loss_weight: 0.995\n```\n\nFor a training on *energies** and *forces*, we recommend to put a stronger\nweight on the loss of the force prediction during training.\nBy default, the loss weights are set to 0.005 for the energy and 0.995 for forces.\nThis can be changed as follow:\n\n```\nspktrain experiment=md17 data.molecule=uracil task.outputs.0.loss_weight=0.005 task.outputs.1.loss_weight=0.995\n```\n\n### Logging\n\nBeyond the output of the command line, SchNetPack supports multiple logging backends over PyTorch Lightning.\nBy default, the Tensorboard logger is activated.\nIf TensorBoard is installed, the results can be shown by calling:\n\n```\ntensorboard --logdir=\u003Crundir>\n```\n\nFurthermore, SchNetPack comes with configs for a CSV logger and [Aim](https:\u002F\u002Fgithub.com\u002Faimhubio\u002Faim).\nThese can be selected as follows:\n\n```\nspktrain experiment=md17 logger=csv\n```\n\n## LAMMPS interface\n\nSchNetPack comes with an interface to LAMMPS. A detailed installation guide is linked in the [How-To section of our documentation](https:\u002F\u002Fschnetpack.readthedocs.io\u002Fen\u002Flatest\u002Fhowtos\u002Flammps.html).\n\n## Extensions\n\nSchNetPack can be used as a base for implementations of advanced atomistic neural networks and training tasks.\nFor example, there exists an [extension package](https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack-gschnet) called `schnetpack-gschnet` for the most recent version of cG-SchNet [5], a conditional generative model for molecules.\nIt demonstrates how a complex training task can be implemented in a few custom classes while leveraging the hierarchical configuration and automated training procedure of the SchNetPack framework.\n\n\n## Citation\n\nIf you are using SchNetPack in your research, please cite:\n\nK.T. Schütt, S.S.P. Hessmann, N.W.A. Gebauer, J. Lederer, M. Gastegger.\nSchNetPack 2.0: A neural network toolbox for atomistic machine learning.\nJ. Chem. Phys. 2023, 158 (14): 144801.\n[10.1063\u002F5.0138367](https:\u002F\u002Fdoi.org\u002F10.1063\u002F5.0138367).\n\nK.T. Schütt, P. Kessel, M. Gastegger, K. Nicoli, A. Tkatchenko, K.-R. Müller.\nSchNetPack: A Deep Learning Toolbox For Atomistic Systems.\nJ. Chem. Theory Comput. 2019, 15 (1): 448-455.\n[10.1021\u002Facs.jctc.8b00908](http:\u002F\u002Fdx.doi.org\u002F10.1021\u002Facs.jctc.8b00908).\n\n    @article{schutt2023schnetpack,\n        author = {Sch{\\\"u}tt, Kristof T. and Hessmann, Stefaan S. P. and Gebauer, Niklas W. A. and Lederer, Jonas and Gastegger, Michael},\n        title = \"{SchNetPack 2.0: A neural network toolbox for atomistic machine learning}\",\n        journal = {The Journal of Chemical Physics},\n        volume = {158},\n        number = {14},\n        pages = {144801},\n        year = {2023},\n        month = {04},\n        issn = {0021-9606},\n        doi = {10.1063\u002F5.0138367},\n        url = {https:\u002F\u002Fdoi.org\u002F10.1063\u002F5.0138367},\n        eprint = {https:\u002F\u002Fpubs.aip.org\u002Faip\u002Fjcp\u002Farticle-pdf\u002Fdoi\u002F10.1063\u002F5.0138367\u002F16825487\u002F144801\\_1\\_5.0138367.pdf},\n    }\n    @article{schutt2019schnetpack,\n        author = {Sch{\\\"u}tt, Kristof T. and Kessel, Pan and Gastegger, Michael and Nicoli, Kim A. and Tkatchenko, Alexandre and Müller, Klaus-Robert},\n        title = \"{SchNetPack: A Deep Learning Toolbox For Atomistic Systems}\",\n        journal = {Journal of Chemical Theory and Computation},\n        volume = {15},\n        number = {1},\n        pages = {448-455},\n        year = {2019},\n        doi = {10.1021\u002Facs.jctc.8b00908},\n        URL = {https:\u002F\u002Fdoi.org\u002F10.1021\u002Facs.jctc.8b00908},\n        eprint = {https:\u002F\u002Fdoi.org\u002F10.1021\u002Facs.jctc.8b00908},\n    }\n\n\n\n## Acknowledgements\n\nCLI and hydra configs for PyTorch Lightning are adapted from this template: [![](https:\u002F\u002Fshields.io\u002Fbadge\u002F-Lightning--Hydra--Template-017F2F?style=flat&logo=github&labelColor=303030)](https:\u002F\u002Fgithub.com\u002Fhobogalaxy\u002Flightning-hydra-template)\n\n\n## References\n\n* [1] K.T. Schütt. F. Arbabzadah. S. Chmiela, K.-R. Müller, A. Tkatchenko.\n*Quantum-chemical insights from deep tensor neural networks.*\nNature Communications **8**. 13890 (2017) [10.1038\u002Fncomms13890](http:\u002F\u002Fdx.doi.org\u002F10.1038\u002Fncomms13890)\n\n* [2] K.T. Schütt. P.-J. Kindermans, H. E. Sauceda, S. Chmiela, A. Tkatchenko, K.-R. Müller.\n*SchNet: A continuous-filter convolutional neural network for modeling quantum interactions.*\nAdvances in Neural Information Processing Systems 30, pp. 992-1002 (2017) [Paper](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6700-schnet-a-continuous-filter-convolutional-neural-network-for-modeling-quantum-interactions)\n\n* [3] K.T. Schütt. P.-J. Kindermans, H. E. Sauceda, S. Chmiela, A. Tkatchenko, K.-R. Müller.\n*SchNet - a deep learning architecture for molecules and materials.*\nThe Journal of Chemical Physics 148(24), 241722 (2018) [10.1063\u002F1.5019779](https:\u002F\u002Fdoi.org\u002F10.1063\u002F1.5019779)\n\n* [4] K. T. Schütt, O. T. Unke, M. Gastegger\n*Equivariant message passing for the prediction of tensorial properties and molecular spectra.*\nInternational Conference on Machine Learning (pp. 9377-9388). PMLR, [Paper](https:\u002F\u002Fproceedings.mlr.press\u002Fv139\u002Fschutt21a.html).\n\n* [5] N. W. A. Gebauer, M. Gastegger, S. S. P. Hessmann, K.-R. Müller, K. T. Schütt\n*Inverse design of 3d molecular structures with conditional generative neural networks.*\nNature Communications **13**. 973 (2022) [10.1038\u002Fs41467-022-28526-y](https:\u002F\u002Fdoi.org\u002F10.1038\u002Fs41467-022-28526-y)\n","# SchNetPack - 用于原子系统深度神经网络\n[![代码风格：black](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcode%20style-black-000000.svg)](https:\u002F\u002Fgithub.com\u002Fpython\u002Fblack)\n[![](https:\u002F\u002Fshields.io\u002Fbadge\u002F-Lightning--Hydra--Template-017F2F?style=flat&logo=github&labelColor=303030)](https:\u002F\u002Fgithub.com\u002Fhobogalaxy\u002Flightning-hydra-template)\n\n\nSchNetPack 是一个工具箱，用于开发和应用深度神经网络来预测分子和材料的势能面及其他量子化学性质。它包含原子尺度神经网络的基本构建模块，管理其训练过程，并提供对常见基准数据集的简单访问。这使得新模型的实现和评估变得非常容易。\n\n文档可以在这里找到 [这里](https:\u002F\u002Fschnetpack.readthedocs.io)。\n\n##### 特性\n\n- SchNet - 一种端到端连续滤波卷积神经网络，适用于分子和材料 [1-3]\n- PaiNN - 等变消息传递网络，适用于分子和材料 [4]\n- 用于偶极矩、极化率、应力及一般响应性质的输出模块\n- 用于静电相互作用、Ewald 求和、ZBL 排斥力的模块\n- GPU 加速分子动力学代码，包括路径积分 MD、热浴和压浴\n\n## 安装\n\n### 使用 pip 安装\n\n安装 SchNetPack 最简单的方式是通过 pip，它会自动从 PyPI 获取源代码：\n```\npip install schnetpack\n```\n\n### 从源码安装\n\n你也可以从我们的仓库安装最新代码：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack.git\ncd schnetpack\npip install .\n```\n\n### 使用 TensorBoard 可视化\n\nSchNetPack 通过 PyTorch Lightning 支持多种日志记录后端。默认的日志记录器是 TensorBoard。SchNetPack 也支持 TensorBoardX。\n\n## 开始使用\n\n开始的最佳方式是通过命令行界面 (CLI) 在常见的基准数据集中训练一个 SchNetPack 模型。\n在安装 SchNetPack 时，训练脚本 `spktrain` 会被添加到你的 PATH 中。\nCLI 使用 [Hydra](https:\u002F\u002Fhydra.cc\u002F)，并基于 PyTorch Lightning\u002FHydra 模板，该模板可以在 [这里](https:\u002F\u002Fgithub.com\u002Fashleve\u002Flightning-hydra-template) 找到。\n这使得模型、数据和训练过程的配置非常灵活。为了充分利用这些特性，建议查看 Hydra 和 PyTorch Lightning 的文档。\n\n### 示例 1：QM9\n\n下面我们将重点介绍如何使用 CLI 在 QM9 数据集上进行训练，但同样的步骤也适用于其他基准数据集。\n首先，创建一个工作目录，所有数据和运行结果都将存储在这个目录中：\n\n```\nmkdir spk_workdir\ncd spk_workdir\n```\n\n然后，可以使用默认设置训练一个 SchNet 模型来处理 QM9 数据集：\n\n```\nspktrain experiment=qm9_atomwise\n```\n\n该脚本会打印出实验配置 `qm9_atomwise` 的默认值。如果数据尚未下载，数据集将自动下载到 `spk_workdir\u002Fdata` 目录下。随后，训练将开始。\n\n可以通过命令行更改配置中的所有值，包括运行和数据的目录。默认情况下，模型会存储在 `spk_workdir\u002Fruns` 目录下的一个带有唯一运行 ID 哈希值的子目录中。你可以按如下方式更改：\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u002Fmy\u002Fdata\u002Fdir run.path=~\u002Fall_my_runs run.id=this_run\n```\n\n如果你运行 `spktrain experiment=qm9_atomwise --help`，可以看到完整的配置以及所有可更改的参数。\n嵌套参数可以按如下方式更改：\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> data.batch_size=64\n```\n\nHydra 将参数组织成配置组，从而允许由多个 YAML 文件组成的层次化配置。这使得更改整个数据集、模型或表示方法变得非常容易。例如，要从默认的 SchNet 表示方法切换到 PaiNN，请使用：\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> model\u002Frepresentation=painn\n```\n\n刚开始可能会有些混淆，什么时候用“.”，什么时候用“\u002F”。当加载预配置的配置组时使用斜杠，而当更改单个值时则使用点。例如，“model\u002Frepresentation”配置组对应于以下部分的配置：\n\n```\n    model:\n      representation:\n        _target_: schnetpack.representation.PaiNN\n        n_atom_basis: 128\n        n_interactions: 3\n        shared_interactions: false\n        shared_filters: false\n        radial_basis:\n          _target_: schnetpack.nn.radial.GaussianRBF\n          n_rbf: 20\n          cutoff: ${globals.cutoff}\n        cutoff_fn:\n          _target_: schnetpack.nn.cutoff.CosineCutoff\n          cutoff: ${globals.cutoff}\n```\n\n如果你想进一步更改该组中的某个值，可以这样操作：\n\n```\nspktrain experiment=qm9_atomwise run.data_dir=\u003Cpath> model\u002Frepresentation=painn model.representation.n_interactions=5\n```\n\n有关配置组的更多详细信息，请参阅\n[Hydra 文档](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Ftutorials\u002Fbasic\u002Fyour_first_app\u002Fconfig_groups\u002F)。\n\n### 示例 2：势能面\n\n上面的示例在内部使用了 `AtomisticModel`，它是一个 `pytorch_lightning.LightningModule`，用于预测单个属性。下面的示例将使用相同的类来预测势能面，特别是包含适当导数的能量，以便获得力和应力张量。之所以可行，是因为通过命令行参数 `experiment=md17` 提供的 MD17 数据集预定义配置，选择了 `AtomisticModel` 正在使用的表征模块和输出模块。有关配置的更详细说明以及如何构建自定义配置，请参阅[此处](https:\u002F\u002Fschnetpack.readthedocs.io\u002Fen\u002Flatest\u002Fuserguide\u002Fconfigs.html)。\n\n可以使用 `spktrain` 脚本为 MD17 数据集中的一种分子训练模型：\n\n```\nspktrain experiment=md17 data.molecule=uracil\n```\n\n对于 MD17 数据集，能量和力的参考计算结果是可用的。因此，需要为这些属性的损失函数设置权重。损失函数作为 `task` 配置组中输出定义的一部分进行定义：\n\n```\n    task:\n      outputs:\n        - _target_: schnetpack.task.ModelOutput\n          name: ${globals.energy_key}\n          loss_fn:\n            _target_: torch.nn.MSELoss\n          metrics:\n            mae:\n              _target_: torchmetrics.regression.MeanAbsoluteError\n            mse:\n              _target_: torchmetrics.regression.MeanSquaredError\n          loss_weight: 0.005\n        - _target_: schnetpack.task.ModelOutput\n          name: ${globals.forces_key}\n          loss_fn:\n            _target_: torch.nn.MSELoss\n          metrics:\n            mae:\n              _target_: torchmetrics.regression.MeanAbsoluteError\n            mse:\n              _target_: torchmetrics.regression.MeanSquaredError\n          loss_weight: 0.995\n```\n\n对于同时训练*能量*和*力*的情况，我们建议在训练过程中为力预测的损失赋予更高的权重。默认情况下，能量的损失权重设置为 0.005，而力的损失权重则为 0.995。可以通过以下方式更改这些权重：\n\n```\nspktrain experiment=md17 data.molecule=uracil task.outputs.0.loss_weight=0.005 task.outputs.1.loss_weight=0.995\n```\n\n### 日志记录\n\n除了命令行输出之外，SchNetPack 还支持通过 PyTorch Lightning 使用多种日志记录后端。默认情况下，TensorBoard 日志记录器已启用。如果已安装 TensorBoard，则可以通过以下命令查看结果：\n\n```\ntensorboard --logdir=\u003Crundir>\n```\n\n此外，SchNetPack 还提供了用于 CSV 日志记录以及 [Aim](https:\u002F\u002Fgithub.com\u002Faimhubio\u002Faim) 的配置。可以通过以下方式选择这些日志记录器：\n\n```\nspktrain experiment=md17 logger=csv\n```\n\n## LAMMPS 接口\n\nSchNetPack 自带与 LAMMPS 的接口。详细的安装指南链接位于我们文档的[操作指南部分](https:\u002F\u002Fschnetpack.readthedocs.io\u002Fen\u002Flatest\u002Fhowtos\u002Flammps.html)。\n\n## 扩展功能\n\nSchNetPack 可以用作实现高级原子尺度神经网络和训练任务的基础。例如，存在一个名为 `schnetpack-gschnet` 的[扩展包](https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack-gschnet)，用于最新版本的 cG-SchNet [5]——一种用于分子的条件生成模型。它展示了如何在利用 SchNetPack 框架的层次化配置和自动化训练流程的同时，通过几个自定义类实现复杂的训练任务。\n\n\n## 引用\n\n如果您在研究中使用了 SchNetPack，请引用以下文献：\n\nK.T. Schütt, S.S.P. Hessmann, N.W.A. Gebauer, J. Lederer, M. Gastegger.\nSchNetPack 2.0：用于原子尺度机器学习的神经网络工具箱。\nJ. Chem. Phys. 2023, 158 (14): 144801。\n[10.1063\u002F5.0138367](https:\u002F\u002Fdoi.org\u002F10.1063\u002F5.0138367)。\n\nK.T. Schütt, P. Kessel, M. Gastegger, K. Nicoli, A. Tkatchenko, K.-R. Müller。\nSchNetPack：用于原子尺度系统的深度学习工具箱。\nJ. Chem. Theory Comput. 2019, 15 (1): 448-455。\n[10.1021\u002Facs.jctc.8b00908](http:\u002F\u002Fdx.doi.org\u002F10.1021\u002Facs.jctc.8b00908)。\n\n    @article{schutt2023schnetpack,\n        author = {Sch{\\\"u}tt, Kristof T. and Hessmann, Stefaan S. P. and Gebauer, Niklas W. A. and Lederer, Jonas and Gastegger, Michael},\n        title = \"{SchNetPack 2.0：用于原子尺度机器学习的神经网络工具箱}\",\n        journal = {The Journal of Chemical Physics},\n        volume = {158},\n        number = {14},\n        pages = {144801},\n        year = {2023},\n        month = {04},\n        issn = {0021-9606},\n        doi = {10.1063\u002F5.0138367},\n        url = {https:\u002F\u002Fdoi.org\u002F10.1063\u002F5.0138367},\n        eprint = {https:\u002F\u002Fpubs.aip.org\u002Faip\u002Fjcp\u002Farticle-pdf\u002Fdoi\u002F10.1063\u002F5.0138367\u002F16825487\u002F144801\\_1\\_5.0138367.pdf},\n    }\n    @article{schutt2019schnetpack,\n        author = {Sch{\\\"u}tt, Kristof T. and Kessel, Pan and Gastegger, Michael and Nicoli, Kim A. and Tkatchenko, Alexandre and Müller, Klaus-Robert},\n        title = \"{SchNetPack：用于原子尺度系统的深度学习工具箱}\",\n        journal = {Journal of Chemical Theory and Computation},\n        volume = {15},\n        number = {1},\n        pages = {448-455},\n        year = {2019},\n        doi = {10.1021\u002Facs.jctc.8b00908},\n        URL = {https:\u002F\u002Fdoi.org\u002F10.1021\u002Facs.jctc.8b00908},\n        eprint = {https:\u002F\u002Fdoi.org\u002F10.1021\u002Facs.jctc.8b00908},\n    }\n\n\n\n## 致谢\n\nPyTorch Lightning 的 CLI 和 hydra 配置改编自此模板：[![](https:\u002F\u002Fshields.io\u002Fbadge\u002F-Lightning--Hydra--Template-017F2F?style=flat&logo=github&labelColor=303030)](https:\u002F\u002Fgithub.com\u002Fhobogalaxy\u002Flightning-hydra-template)\n\n## 参考文献\n\n* [1] K.T. Schütt, F. Arbabzadah, S. Chmiela, K.-R. Müller, A. Tkatchenko.\n*基于深度张量神经网络的量子化学见解。*\n《自然·通讯》**8**卷，13890页（2017年）[10.1038\u002Fncomms13890](http:\u002F\u002Fdx.doi.org\u002F10.1038\u002Fncomms13890)\n\n* [2] K.T. Schütt, P.-J. Kindermans, H. E. Sauceda, S. Chmiela, A. Tkatchenko, K.-R. Müller。\n*SchNet：用于模拟量子相互作用的连续滤波卷积神经网络。*\n《神经信息处理系统进展》第30卷，第992–1002页（2017年）[论文](http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6700-schnet-a-continuous-filter-convolutional-neural-network-for-modeling-quantum-interactions)\n\n* [3] K.T. Schütt, P.-J. Kindermans, H. E. Sauceda, S. Chmiela, A. Tkatchenko, K.-R. Müller。\n*SchNet——一种用于分子和材料的深度学习架构。*\n《化学物理学报》第148卷第24期，241722页（2018年）[10.1063\u002F1.5019779](https:\u002F\u002Fdoi.org\u002F10.1063\u002F1.5019779)\n\n* [4] K. T. Schütt, O. T. Unke, M. Gastegger\n*用于预测张量性质和分子光谱的等变消息传递。*\n国际机器学习会议（第9377–9388页）。PMLR出版社，[论文](https:\u002F\u002Fproceedings.mlr.press\u002Fv139\u002Fschutt21a.html)。\n\n* [5] N. W. A. Gebauer, M. Gastegger, S. S. P. Hessmann, K.-R. Müller, K. T. Schütt\n*利用条件生成神经网络进行三维分子结构的逆向设计。*\n《自然·通讯》第13卷，973页（2022年）[10.1038\u002Fs41467-022-28526-y](https:\u002F\u002Fdoi.org\u002F10.1038\u002Fs41467-022-28526-y)","# SchNetPack 快速上手指南\n\nSchNetPack 是一个用于开发和应用深度神经网络的工具箱，旨在预测分子和材料的势能面及其他量子化学性质。它内置了 SchNet、PaiNN 等主流原子神经网络模块，并提供了便捷的训练流程和基准数据集访问接口。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)\n*   **Python**: 版本 3.8 或更高\n*   **依赖项**: \n    *   PyTorch (需预先安装与您的 CUDA 版本匹配的 PyTorch)\n    *   PyTorch Lightning\n    *   Hydra (用于配置管理)\n\n> **提示**：建议先根据 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 指引安装好 PyTorch，再安装 SchNetPack。\n\n## 安装步骤\n\n您可以通过 `pip` 直接安装稳定版，或者从源码安装最新版本。\n\n### 方式一：使用 pip 安装（推荐）\n\n这是最简单的安装方式，将自动从 PyPI 获取源代码。\n\n```bash\npip install schnetpack\n```\n\n> **国内加速**：如果您在中国大陆，建议使用清华或阿里镜像源以加快下载速度：\n> ```bash\n> pip install schnetpack -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 方式二：从源码安装\n\n如果您需要最新的开发版功能：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack.git\ncd schnetpack\npip install .\n```\n\n## 基本使用\n\n安装完成后，`spktrain` 命令行工具将自动添加到您的环境变量中。SchNetPack 基于 **Hydra** 配置系统，允许通过命令行灵活调整模型、数据和训练参数。\n\n### 1. 快速训练示例 (QM9 数据集)\n\n以下命令将使用默认配置在 QM9 数据集上训练一个 SchNet 模型。如果本地没有数据，脚本会自动下载。\n\n```bash\n# 创建工作目录\nmkdir spk_workdir\ncd spk_workdir\n\n# 开始训练\nspktrain experiment=qm9_atomwise\n```\n\n### 2. 自定义配置\n\n您可以直接在命令行修改配置参数，无需编辑文件。\n\n*   **修改数据路径和运行目录**：\n    ```bash\n    spktrain experiment=qm9_atomwise run.data_dir=\u002Fmy\u002Fdata\u002Fdir run.path=~\u002Fall_my_runs run.id=this_run\n    ```\n\n*   **修改超参数（如批次大小）**：\n    ```bash\n    spktrain experiment=qm9_atomwise data.batch_size=64\n    ```\n\n*   **切换模型架构（例如从 SchNet 切换到 PaiNN）**：\n    注意：加载预配置组使用 `\u002F`，修改具体参数值使用 `.`。\n    ```bash\n    spktrain experiment=qm9_atomwise model\u002Frepresentation=painn\n    ```\n\n*   **组合修改（切换模型并调整层数）**：\n    ```bash\n    spktrain experiment=qm9_atomwise model\u002Frepresentation=painn model.representation.n_interactions=5\n    ```\n\n### 3. 查看帮助与完整配置\n\n若要查看所有可配置的参数列表：\n\n```bash\nspktrain experiment=qm9_atomwise --help\n```\n\n### 4. 查看训练日志\n\nSchNetPack 默认使用 TensorBoard 记录训练过程。训练开始后，在新终端运行以下命令即可可视化结果：\n\n```bash\ntensorboard --logdir=\u003Crundir>\n```\n*(请将 `\u003Crundir>` 替换为实际的运行目录路径，通常位于 `spk_workdir\u002Fruns\u002F` 下)*\n\n---\n更多高级用法（如 MD17 势能面训练、LAMMPS 接口等）请参阅官方文档：https:\u002F\u002Fschnetpack.readthedocs.io","某材料实验室的研究团队正致力于筛选新型有机光伏分子，需要快速预测成千上万种候选分子的势能面与偶极矩，以评估其光电转换效率。\n\n### 没有 schnetpack 时\n- 研究人员依赖传统的密度泛函理论（DFT）计算，单个分子的能量预测耗时数小时，无法应对大规模虚拟筛选需求。\n- 构建深度学习模型需从零编写原子环境描述符和神经网络架构，代码复现论文算法的难度极大且容易出错。\n- 缺乏统一的框架管理训练流程，调整超参数或切换数据集（如从 QM9 换到 MD17）需要大量手动修改脚本。\n- 难以直接获取偶极矩、极化率等关键量子化学性质的预测模块，需额外开发复杂的输出层代码。\n\n### 使用 schnetpack 后\n- 利用预置的 SchNet 或 PaiNN 模型，团队在 GPU 上将分子性质预测速度提升了数个数量级，实现了高通量筛选。\n- 通过简单的命令行指令（如 `spktrain`）即可调用端到端的连续滤波卷积网络，无需重复造轮子，大幅降低开发门槛。\n- 借助 Hydra 配置系统，仅需修改一行参数即可灵活切换数据集、模型架构或批处理大小，实验迭代效率显著提高。\n- 直接调用内置的输出模块，轻松获得偶极矩、应力张量等复杂物理量，并支持集成分子动力学模拟进行动态分析。\n\nschnetpack 将繁琐的原子系统建模转化为高效的标准化流程，让研究人员能专注于材料发现本身而非底层代码实现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fatomistic-machine-learning_schnetpack_f8d34065.png","atomistic-machine-learning","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fatomistic-machine-learning_956d7b7f.png","",null,"https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",98.4,{"name":83,"color":84,"percentage":85},"C++","#f34b7d",1.4,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.2,914,251,"2026-04-03T01:16:18","NOASSERTION","未说明","支持 GPU 加速（用于分子动力学和训练），具体型号、显存及 CUDA 版本未在文档中明确指定，需依赖 PyTorch 的 GPU 环境配置",{"notes":97,"python":94,"dependencies":98},"该工具是基于 PyTorch Lightning 和 Hydra 构建的原子系统深度学习工具箱。安装后可通过 'spktrain' 命令行工具进行模型训练。支持多种日志后端（默认 TensorBoard）。包含与 LAMMPS 的接口（需单独配置）。若需使用特定功能（如路径积分分子动力学），需确保底层 PyTorch 环境已正确配置相应的 CUDA 版本以支持 GPU 加速。",[99,100,101,102,103,104,105,106,107],"torch","pytorch-lightning","hydra-core","tensorboard","numpy","scipy","ase","h5py","torchmetrics",[14],[110,111,112,113,114],"machine-learning","neural-network","quantum-chemistry","condensed-matter","molecular-dynamics","2026-03-27T02:49:30.150509","2026-04-08T01:59:03.710032",[118,123,128,133],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},23477,"为什么 Schnetpack 2.0 的训练速度比 1.0 版本慢很多？","这通常与 Python 版本有关。用户反馈在使用 Python 3.9 时训练速度显著变慢（每个 epoch 超过 300 秒），而切换到 Python 3.8 环境后，训练速度恢复正常（每个 epoch 约 2 分钟）。此外，建议检查 PyTorch 和 CUDA 版本，确保它们与您的 GPU（如 V100 或 A100）兼容，必要时更新到最新版本。","https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fissues\u002F433",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},23478,"在训练周期性系统时，如果力（forces）预测效果不佳且损失函数发散，该如何解决？","如果在计算应力张量（stress tensor）时遇到损失函数变为无穷大（inf）的问题，特别是针对特定批次大小（batch size），可以尝试在 `AtomsLoader` 中设置 `drop_last=True`。虽然这不是评估测试数据时的理想方案，但能有效解决训练过程中的数值不稳定问题。此外，维护者建议对于大多数情况，优先使用 PaiNN 模型代替默认的 SchNet 模型，因为它在处理周期性边界条件（PBC）和力预测方面表现更好。","https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fissues\u002F165",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},23479,"如何改善周期性系统中原子力的学习效果和预测精度？","如果发现力被持续低估或验证损失迅速增加，建议尝试以下策略：1. 更换模型架构，维护者强烈推荐使用 PaiNN 表示法作为默认模型，它在处理周期性系统和力预测方面通常优于 SchNet。2. 调整数据集，移除大部分接近零的低力结构可能有助于改善分布。3. 增加训练数据量（例如从 1,000 增加到 10,000 个结构）可以显著降低误差并改善分布拟合。4. 进行超参数优化，默认参数可能不足以应对复杂的力场学习。","https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fissues\u002F407",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},23480,"在 Materials Project 数据集上训练形成能时，MAE 远高于论文报告值，可能的原因是什么？","如果 MAE 停滞在较高水平（如 0.6 eV\u002Fatom 而非预期的 0.041 eV\u002Fatom），请检查以下配置：1. 特征数量（features）：尝试减小特征维度（例如设为 32），有用户反馈小值效果更好。2. 电子密度相关参数（rho）：根据具体案例调整 rho 的设置可能非常关键。3. 截断半径（cutoff）和单位：确保单位正确，并检查截断半径设置是否合理。4. 增加训练集点数也可能提升性能。","https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fissues\u002F226",[139,144,149,154,159,164,169,174,179,184,189],{"id":140,"version":141,"summary_zh":142,"released_at":143},144969,"v2.2.0","## 变更内容\n* @stefaanhessmann 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F664 中更新了 default_trainer.yaml\n* @ken-sc01 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F665 中更新了 TensorBoard 日志目录和格式\n* @stefaanhessmann 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F653 中添加了按元素统计的功能\n* @ken-sc01 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F670 中修复了 LAMMPS 的 PBC 问题\n* @WardLT 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F673 中强调了输入中应包含应变的位置\n* @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F675 中修复了数据集拆分为训练集、验证集和测试集的问题\n* @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F676 中修复了 cli.py 中的错误信息，并提供了正确的建议\n* @lkkmpn 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F686 中移除了冗余的 SQLite 连接\n* @ken-sc01 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F683 中对教程进行了一些小的修复\n* @sundusaijaz 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F687 中进行了若干 Bug 修复\n* @jamesETsmith 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F689 中发现 QM7X 数据集中缺少 `GroupSplit`\n* @ken-sc01 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F691 中调整了 qm7x 数据配置\n* @sundusaijaz 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F692 中新增了对下一代 Materials Project API 的支持\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F694 中实现了运行时更改工作目录的功能\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F697 中更新了 schnetpack 的依赖项\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F701 中将 weights_only 的默认值设置为 False\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F707 中将 key_value_pairs 改为列表形式\n* @stefaanhessmann 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F711 中修复了 Python 版本相关的问题\n* @sundusaijaz 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F710 中删除了学习率调度器中的 verbose 参数\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F709 中修改了 spkcalculator，使其既可以接受模型路径，也可以接受 torch.nn.Module 模型\n* @yu2C 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F714 中指出了 base.py 中的一个拼写错误\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F708 中修复了拆分不匹配的错误\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F716 中确保 self.conn 在被调用之前已被定义\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F720 中更新了 getstarted.rst 文件\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F719 中提升了 spkcalc 的运行速度\n* 启用了 Jupyter Black 和 Jupyter Notebook 输出功能","2025-12-19T15:08:45",{"id":145,"version":146,"summary_zh":147,"released_at":148},144970,"v2.1.1","## 变更内容\n* 修复了一个 bug：由于 Python 新版本的引入，`hydra config_dir` 无法被找到。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv2.1.0...v2.1.1","2024-09-05T11:34:51",{"id":150,"version":151,"summary_zh":152,"released_at":153},144971,"v2.1.0","## 变更内容\n* 更新 README.md，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F574 中完成\n* 修复 Windows 下索引张量相关问题，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F579 中完成\n* 所有教程均在 CPU 上运行，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F580 中完成\n* 修复 ISO17 数据库问题，由 @stefaanhessmann 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F582 中完成\n* 文档：README：多项小修复，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F586 中完成\n* 修正拼写错误：property -> property，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F584 中完成\n* 依赖项：添加 pytest-benchmark，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F585 中完成\n* requirements.txt 已链接到 setup.py，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F588 中完成\n* [进行中] README：移除过时或不重要的信息，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F595 中完成\n* torch.testing：更新已弃用的 assert_allclose，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F594 中完成\n* hydra：将 _self_ 添加到 defaults 列表以避免警告，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F593 中完成\n* 文档：在 README 中提前放置文档链接，并添加测试 README，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F597 中完成\n* 向 lightning 模块的 self.log() 方法提供 batch size，以防止警告，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F598 中完成\n* 使用 pyproject.toml 替代 setup.py，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F596 中完成\n* 解锁依赖项版本并进行清理，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F599 中完成\n* 保存模型时忽略超参数，因为它们已在检查点保存时记录，由 @M Baltimore 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F600 中完成\n* 随机拆分成为默认设置，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F606 中完成\n* 实现分层采样器，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F539 中完成\n* 添加 wandb 日志记录器，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F610 中完成\n* 快速保存模型补丁，由 @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F614 中完成\n* 在配置文件中添加为 PyTorch 定义矩阵乘法精度的功能，由 @khaledkah 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F611 中完成\n* 基于 SpookyNet 实现嵌入自旋多重度和电荷，由 @epens94 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F608 中完成\n* 修复向后兼容性并进行清理，由 @stefaanhessmann 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F617 中完成\n* 修复 qm9 教程中的设备（CPU），由 @jnsLs 在 https:\u002F\u002Fgith","2024-08-28T16:57:04",{"id":155,"version":156,"summary_zh":157,"released_at":158},144972,"v2.0.4","更新了文档和要求，并修复了一些小 bug。\n\n## 变更内容\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F528 中更新了软件论文的引用。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F530 中修复了 md22 的下载方法。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F532 中修复了 md22 相关问题。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F531 中实现了按批次优化器的功能。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F533 中添加了当计算器中传入数组作为能量时抛出异常并添加类型提示的功能。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F544 中实现了部署模型时指定设备的功能。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F545 中修复了阿司匹林 LAMMPS 示例中的原子质量问题。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F550 中实现了将旧版 schnet 数据转换为新输入维度的功能。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F552 中修复了计算器应力相关的 bug。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F557 中修复了训练参数相关的问题。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F558 中更新了尿嘧啶数据的 URL。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F559 中修复了教程 03 - clean 中的设备相关 bug。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F560 中更新了 pytorch-lightning 的依赖版本。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F562 中更新了教程 1。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F564 中更新了材料教程中的数据维度。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F566 中更新了 requirements.txt 文件。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F572 和 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F573 中分别更新了 setup.py 文件。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv2.0.3...v2.0.4","2023-09-29T14:31:19",{"id":160,"version":161,"summary_zh":162,"released_at":163},144973,"v2.0.3","## 变更内容\n* 修复 bug：Atomwise 中的 per_atom_output_key，由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F527 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv2.0.2...v2.0.3","2023-04-25T11:23:00",{"id":165,"version":166,"summary_zh":167,"released_at":168},144974,"v2.0.2","更新了 PyTorch Lightning，更新了 LAMMPS 接口，增强了批处理优化功能，并修复了一些常规的小 bug。\n\n## 变更内容\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F508 中改进了批处理优化功能。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F515 中允许将 `num_val_workers` 和 `num_test_workers` 设置为 0。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F517 中适配了新的 PyTorch Lightning 版本。\n* @Vosatorp 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F523 中修复了 Atomwise 中 `per_atom_output_key` 的使用问题。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F524 中允许将 `data.load_properties` 设置为空列表。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F522 中增加了对更高版本 LAMMPS 的支持。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F525 中更新了批处理计算器。\n\n## 新贡献者\n* @Vosatorp 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F523 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv2.0.1...v2.0.2","2023-04-24T09:39:46",{"id":170,"version":171,"summary_zh":172,"released_at":173},144975,"v2.0.1","更新了 SchNetPack 2.0 版本，修复了一系列 bug，并新增了与 LAMMPS 的接口。\n\n## 变更内容\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F479 中将材料教程添加到文档索引。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F481 中修复了 OMDB 数据集中的 bug。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F483 中更新了 MD17 数据集的下载地址。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F486 中更新了 default_run.yaml 文件。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F489 中更新了 README.md 文件。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F491 中修复了 LightningLoggerBase 在 Lightning 1.9 中被移除的问题。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F492 中修复并增加了对 spkpredict 中力模型的支持。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F493 中修复了 sh\u002Fspkpredict 相关问题。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F498 中修复了 Materials Project 数据集的数据类型问题。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F499 中检查了 Materials Project 中是否使用了旧版 API 密钥。\n* @jnsLs 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F500 中审查了 LAMMPS 文档文件。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F501 中修复了 jl\u002Flammps 相关问题。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F502 中修复了 Niklas Gebauer 的文档字符串。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F503 中修复了 MD 模块中的 bug。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F504 中移除了已弃用的参数。\n* @NiklasGebauer 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F505 中将 schnetpack-gschnet 扩展添加到了 README。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F506 中更新了 README，并修复了已弃用的 NumPy 数据类型。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv2.0.0...v2.0.1","2023-03-07T18:20:49",{"id":175,"version":176,"summary_zh":177,"released_at":178},144976,"v2.0.0","## 注释\r\n\r\n这是 SchNetPack 2.0 的首个版本，采用了 Hydra 配置框架、PyTorch Lightning 以及一种新的索引方案。此外，还包含改进的数据流水线、等变神经网络模块以及分子动力学的 PyTorch 实现。\n\n## 变更内容\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F267 中提交了 v1 重写版本的初始代码。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F271 中实现了中心变换。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F274 中添加了 Mg\u002Ftorch 环境配置。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F275 中实现了 QM9 数据模块。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F277 中开发了基于 Hydra+Lightning 的训练脚本。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F278 中实现了势能面的训练。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F282 中添加了数据集划分文件。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F284 中实现了 PaiNN 表征。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F285 中添加了后处理工具和 TorchScript 支持。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F287 中实现了对称函数相关功能。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F293 中编写了初始 API 文档。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F294 中修复了新版本 Lightning 中变换相关的问题。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F292 中实现了应力计算及自定义实验。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F295 中更新了文档，并修复了后处理中的一个错误。\n* @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F296 中实现了计算模块。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F297 中重构了模型结构。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F298 中修复了一个小 bug。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F300 中整理了数据集相关代码。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F299 中提出了 MultiPropertyModel 的设计方案。\n* @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F301 中为 PaiNN 添加了 epsilon 参数。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F305 中进行了一些小幅更新。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F306 中修正了 API 文档。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F309 中统一了模型类，并重构了配置文件。\n* @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F310 中修复了 ModelOutput 包的相关问题。\n* 添加贝塞尔表示","2022-12-15T17:05:01",{"id":180,"version":181,"summary_zh":182,"released_at":183},144977,"v2.0.0-dev0","## 变更内容\n* 初始提交：v1 重写，由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F267 中完成  \n* 中心变换：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F271 中实现  \n* Mg\u002Ftorch 环境：由 @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F274 中添加  \n* Kts\u002Fqm9 数据模块：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F275 中实现  \n* 基于 Hydra+Lightning 的训练脚本：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F277 中开发  \n* 实现势能面的训练：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F278 中完成  \n* 添加划分文件：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F282 中实现  \n* PaiNN 表征：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F284 中实现  \n* 后处理程序与 TorchScript：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F285 中添加  \n* Mg\u002F对称函数：由 @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F287 中实现  \n* 初步 API 文档：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F293 中编写  \n* 修复新版本 Lightning 中的变换问题：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F294 中解决  \n* 应力与自定义实验：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F292 中实现  \n* 更新文档（并修复后处理错误）：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F295 中完成  \n* Mg 计算器：由 @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F296 中添加  \n* 重构模型：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F297 中完成  \n* 修复小 bug：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F298 中解决  \n* Sh\u002F数据集：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F300 中实现  \n* MultiPropertyModel 提案：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F299 中提出  \n* 为 PaiNN 添加 epsilon 参数：由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F301 中完成  \n* 若干小幅更新：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F305 中进行  \n* 修复 API 文档：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F306 中完成  \n* 统一模型类并重构配置：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F309 中实施  \n* 修复 ModelOutput 包：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F310 中完成  \n* 为未来 PaiNN 使用添加贝塞尔表征：由 @Divide-By-0 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F311 中实现  \n* 更新示例并添加数据工作目录：由 @ktschuett 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F314 中完成  \n* 偶极矩与极化率：由 @ktschuett 在","2022-12-07T14:32:41",{"id":185,"version":186,"summary_zh":187,"released_at":188},144978,"v1.0.1","## 变更内容\n* 由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F360 中合并的 Sh\u002Fep 设备支持\n* 由 @chgaul 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F357 中修复的 AtomsDataSubset，使其可在 ConcatAtomsData 内部使用\n* 由 @mgastegger 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F375 中针对新的 YAML 行为进行的更新\n* 由 @bartolsthoorn 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F373 中修复的 OMDB _convert 数据集准备问题\n* 由 @Stefaanhess 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F399 中将已弃用的代码更新为新版本的 PyTorch\n\n## 新贡献者\n* @chgaul 在 https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F357 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv1.0.0...v1.0.1","2022-10-26T15:31:44",{"id":190,"version":191,"summary_zh":192,"released_at":193},144979,"v1.0.0","## Note\r\nThis is the last release before a major update. In the next version, we plan to adopt Hydra and PyTorch Lightning, switch to indexing instead of masking and make the networks compatible with TorchScript. Therefore, there will be breaking changes.\r\n\r\n## New Contributors\r\n* @heytitle made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F12\r\n* @pankessel made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F14\r\n* @bartolsthoorn made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F26\r\n* @WardLT made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F38\r\n* @RoberTnf made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F40\r\n* @FarnazH made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F76\r\n* @Dom1L made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F101\r\n* @lmj1029123 made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F117\r\n* @nzhan made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F158\r\n* @jan-janssen made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F164\r\n* @dumkar made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F174\r\n* @giadefa made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F205\r\n* @zyt0y made their first contribution in https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fpull\u002F266\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fatomistic-machine-learning\u002Fschnetpack\u002Fcompare\u002Fv0.2.1...v1.0.0","2021-10-12T15:16:14"]