[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mir-group--nequip":3,"tool-mir-group--nequip":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":147},4163,"mir-group\u002Fnequip","nequip","NequIP is a code for building E(3)-equivariant interatomic potentials","NequIP 是一款专为构建 E(3) 等变原子间势函数而设计的开源代码库，旨在利用深度学习技术高精度地模拟原子间的相互作用。它有效解决了传统分子动力学模拟中经验势函数精度不足，而第一性原理计算又过于耗时昂贵的痛点，让研究者能在保持量子力学级精度的同时，大幅提升大规模体系模拟的效率。\n\n这款软件主要面向计算材料学、化学及物理领域的研究人员与开发者。无论是需要探索新材料性质的科学家，还是希望开发自定义势函数架构的算法工程师，都能从中受益。NequIP 的核心亮点在于其严格的几何等变性设计，确保了模型对旋转和平移操作的物理一致性。此外，它支持编译加速训练与推理、多 GPU 并行计算，并集成了 OpenEquivariance 和 CuEquivariance 等前沿加速库。通过无缝对接 ASE 和 LAMMPS 等主流模拟软件，NequIP 极大地降低了从模型训练到实际部署的门槛，是连接人工智能与科学计算的强大桥梁。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmir-group_nequip_readme_e9d550ce19c7.png\" width=\"50%\" title=\"NequIP\" alt=\"NequIP\"\u002F>\n\u003C\u002Fp>\n\n\u003Cbr\u002F>\n\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmir-group_nequip_readme_13d664e1afd7.png)](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)  [![PyPI version](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fnequip.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fnequip\u002F)  [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002F348154786.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.18200066)\n\n\n\n# NequIP\n\nNequIP is an open-source code for building E(3)-equivariant interatomic potentials.\n\n - [Installation and usage](#installation-and-usage)\n - [Tutorial](#tutorial)\n - [Pre-trained models](#pre-trained-models)\n - [Highlighted Features](#highlighted-features)\n - [Extension Packages](#extension-packages)\n - [References & citing](#references--citing)\n - [Authors](#authors)\n - [Community, contact, questions, and contributing](#community-contact-questions-and-contributing)\n\n> [!IMPORTANT]\n> A [major backwards-incompatible update](.\u002Fdocs\u002Fguide\u002Fupgrading.md) to the `nequip` package was released on April 23rd 2025 as version v0.7.0. The previous version v0.6.2 can still be found for use with existing config files in the GitHub Releases and on PyPI.\n\n## Installation and usage\n\nInstallation instructions and user guides can be found in our [docs](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002F).\n\n## Tutorial\n\nThe best way to learn how to use NequIP is through the [tutorial notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmir-group\u002Fnequip-tutorial\u002Fblob\u002Fmain\u002FNequIP_Tutorial.ipynb). This will run entirely on Google Colab's cloud virtual machine; you do not need to install or run anything locally.\n\n## Pre-trained models\n\nPre-trained models can be found at [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F).\n\n## Highlighted Features\n\nThe following are some notable features, with quick links for more details:\n\n- [Compiled training](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fpt2_compilation.html) and [compiled inference](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Fgetting-started\u002Fworkflow.html#compilation)\n- [Multi-GPU training](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fddp_training.html)\n- [GPU kernel accelerations](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fgpu_kernel_modifiers.html) with [OpenEquivariance](https:\u002F\u002Fgithub.com\u002FPASSIONLab\u002FOpenEquivariance) and [CuEquivariance](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FcuEquivariance) (alpha)\n- [ASE calculator integration](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Fase.html) and [LAMMPS integrations](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Findex.html) through the pair styles in [`pair_nequip_allegro`](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Fpair_styles.html) and our LAMMPS [ML-IAP integration](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Fmliap.html).\n\n## Extension Packages\n\nThe NequIP software framework is designed to be flexible and extensible: you can build custom architectures, implement new training techniques, and develop additional methods on top of it through extension packages.\nIf you're interested in developing your own extension package, please refer to the [extension package docs](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fdev\u002Fextension_packages.html) and consider [joining our Zulip](https:\u002F\u002Fforms.gle\u002FmEuonVCHdsgTtLXy7) for developer-focused discussions and collaborations.\n\nA notable example of a NequIP framework extension package is the [`allegro`](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fallegro) package that implements the strictly local equivariant interatomic potential architecture, [Allegro](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-023-36329-y). More extension packages can be found at https:\u002F\u002Fwww.nequip.net\u002Fextensions.\n\n## References & citing\n\n**Any and all use of this software, in whole or in part, should clearly acknowledge and link to this repository.**\n\nIf you use this code in your academic work, please cite:\n\n 1. The [preprint describing the NequIP software framework](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.16068):\n    > Chuin Wei Tan, Marc L. Descoteaux, Mit Kotak, Gabriel de Miranda Nascimento, Seán R. Kavanagh, Laura Zichi, Menghang Wang, Aadit Saluja, Yizhong R. Hu, Tess Smidt, Anders Johansson, William C. Witt, Boris Kozinsky, Albert Musaelian. \u003Cbr\u002F>\n    > \"High-performance training and inference for deep equivariant interatomic potentials.\" \u003Cbr\u002F>\n    > https:\u002F\u002Fdoi.org\u002F10.48550\u002FarXiv.2504.16068\n\nAnd also consider citing:\n\n 2. The [original NequIP paper](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-022-29939-5)\n    > Simon Batzner, Albert Musaelian, Lixin Sun, Mario Geiger, Jonathan P. Mailoa, Mordechai Kornbluth, Nicola Molinari, Tess E. Smidt, and Boris Kozinsky. \u003Cbr\u002F>\n    > \"E(3)-equivariant graph neural networks for data-efficient and accurate interatomic potentials.\" \u003Cbr\u002F>\n    > Nature Communications 13, no. 1 (2022): 2453\n\n 3. The [computational scaling paper](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3581784.3627041) that discusses optimized LAMMPS MD\n    > Albert Musaelian, Anders Johansson, Simon Batzner, and Boris Kozinsky. \u003Cbr\u002F>\n    > \"Scaling the leading accuracy of deep equivariant models to biomolecular simulations of realistic size.\" \u003Cbr\u002F>\n    > In Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis, pp. 1-12. 2023.\n\n 4. The `e3nn` equivariant neural network package used by NequIP, through its [preprint](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09453) and\u002For [code](https:\u002F\u002Fgithub.com\u002Fe3nn\u002Fe3nn)\n\n**Extension packages like [Allegro](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fallegro) have their own additional relevant citations.**\n\nBibTeX entries for a number of the relevant papers are provided for convenience in [`CITATION.bib`](.\u002FCITATION.bib).\n\n## Authors\n\nPlease see [`AUTHORS.md`](.\u002FAUTHORS.md).\n\n## Community, contact, questions, and contributing\n\nIf you find a bug or have a proposal for a feature, please post it in the [Issues](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues).\nIf you have a self-contained question or other discussion topic, try our [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fdiscussions).\n\nActive users and interested developers are invited to join us on the NequIP community chat server, which is hosted on the excellent [Zulip](https:\u002F\u002Fzulip.com\u002F) software.\nZulip is organized a little bit differently than chat software like Slack or Discord that you may be familiar with: please review [their introduction](https:\u002F\u002Fzulip.com\u002Fhelp\u002Fintroduction-to-topics) before posting.\n[Fill out the interest form for the NequIP community here](https:\u002F\u002Fforms.gle\u002FmEuonVCHdsgTtLXy7).\n\nIf you want to contribute to the code, please read [\"Contributing to NequIP\"](docs\u002Fdev\u002Fcontributing.md).\n\nWe can also be reached by email at allegro-nequip@g.harvard.edu.\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmir-group_nequip_readme_e9d550ce19c7.png\" width=\"50%\" title=\"NequIP\" alt=\"NequIP\"\u002F>\n\u003C\u002Fp>\n\n\u003Cbr\u002F>\n\n[![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmir-group_nequip_readme_13d664e1afd7.png)](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)  [![PyPI版本](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fnequip.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fnequip\u002F)  [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002F348154786.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.18200066)\n\n\n\n# NequIP\n\nNequIP 是一个用于构建 E(3) 等变原子间势的开源代码。\n\n - [安装与使用](#installation-and-usage)\n - [教程](#tutorial)\n - [预训练模型](#pre-trained-models)\n - [亮点功能](#highlighted-features)\n - [扩展包](#extension-packages)\n - [参考文献与引用](#references--citing)\n - [作者](#authors)\n - [社区、联系、问题与贡献](#community-contact-questions-and-contributing)\n\n> [!重要]\n> `nequip` 软件包于 2025 年 4 月 23 日发布了 [一次重大的向后不兼容更新](.\u002Fdocs\u002Fguide\u002Fupgrading.md)，版本号为 v0.7.0。旧版本 v0.6.2 仍可在 GitHub 发布页面和 PyPI 上找到，可用于现有的配置文件。\n\n## 安装与使用\n\n安装说明和用户指南请参阅我们的 [文档](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002F)。\n\n## 教程\n\n学习如何使用 NequIP 的最佳方式是通过 [教程笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmir-group\u002Fnequip-tutorial\u002Fblob\u002Fmain\u002FNequIP_Tutorial.ipynb)。该笔记本完全在 Google Colab 的云端虚拟机上运行，您无需在本地安装或运行任何东西。\n\n## 预训练模型\n\n预训练模型可在 [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 上找到。\n\n## 亮点功能\n\n以下是一些值得注意的功能，并附有详细信息的快速链接：\n\n- [编译式训练](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fpt2_compilation.html) 和 [编译式推理](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Fgetting-started\u002Fworkflow.html#compilation)\n- [多 GPU 训练](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fddp_training.html)\n- [GPU 内核加速](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fgpu_kernel_modifiers.html) 与 [OpenEquivariance](https:\u002F\u002Fgithub.com\u002FPASSIONLab\u002FOpenEquivariance) 和 [CuEquivariance](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FcuEquivariance)（alpha 版）\n- [ASE 计算器集成](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Fase.html) 和 [LAMMPS 集成](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Findex.html) 通过 [`pair_nequip_allegro`](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Fpair_styles.html) 中的对势样式以及我们提供的 LAMMPS [ML-IAP 集成](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Fmliap.html)。\n\n## 扩展包\n\nNequIP 软件框架设计灵活且可扩展：您可以构建自定义架构、实现新的训练技术，并通过扩展包在其基础上开发额外的方法。\n如果您有兴趣开发自己的扩展包，请参阅 [扩展包文档](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fdev\u002Fextension_packages.html)，并考虑 [加入我们的 Zulip 讨论组](https:\u002F\u002Fforms.gle\u002FmEuonVCHdsgTtLXy7)，以进行开发者相关的讨论与合作。\n\nNequIP 框架的一个著名扩展包是 [`allegro`](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fallegro) 包，它实现了严格局部等变的原子间势架构——Allegro（见《Nature》文章：[https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-023-36329-y](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-023-36329-y)）。更多扩展包可在 https:\u002F\u002Fwww.nequip.net\u002Fextensions 上找到。\n\n## 参考文献与引用\n\n**无论整体还是部分使用本软件，都应明确注明并链接到本仓库。**\n\n如果您在学术工作中使用了此代码，请引用以下文献：\n\n 1. 描述 NequIP 软件框架的 [预印本](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.16068)：\n    > Chuin Wei Tan, Marc L. Descoteaux, Mit Kotak, Gabriel de Miranda Nascimento, Seán R. Kavanagh, Laura Zichi, Menghang Wang, Aadit Saluja, Yizhong R. Hu, Tess Smidt, Anders Johansson, William C. Witt, Boris Kozinsky, Albert Musaelian. \u003Cbr\u002F>\n    > “高性能深度等变原子间势的训练与推理。” \u003Cbr\u002F>\n    > https:\u002F\u002Fdoi.org\u002F10.48550\u002FarXiv.2504.16068\n\n同时建议引用：\n\n 2. 原始的 NequIP 论文（发表于《Nature Communications》）：\n    > Simon Batzner, Albert Musaelian, Lixin Sun, Mario Geiger, Jonathan P. Mailoa, Mordechai Kornbluth, Nicola Molinari, Tess E. Smidt, and Boris Kozinsky. \u003Cbr\u002F>\n    > “用于数据高效且精确的原子间势的 E(3) 等变图神经网络。” \u003Cbr\u002F>\n    > Nature Communications 第 13 卷第 1 期 (2022)：2453\n\n 3. 关于优化 LAMMPS 分子动力学模拟的 [计算规模论文](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3581784.3627041)：\n    > Albert Musaelian, Anders Johansson, Simon Batzner, and Boris Kozinsky. \u003Cbr\u002F>\n    > “将深度等变模型的领先精度扩展到真实尺度的生物分子模拟中。” \u003Cbr\u002F>\n    > 2023 年国际高性能计算、网络、存储与分析会议论文集，第 1–12 页。\n\n 4. NequIP 使用的等变神经网络包 `e3nn`，可通过其 [预印本](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.09453) 和\u002F或 [代码](https:\u002F\u002Fgithub.com\u002Fe3nn\u002Fe3nn) 进行引用。\n\n**像 Allegro 这样的扩展包也有其自身的相关引用。**\n\n为了方便起见，我们在 [`CITATION.bib`](.\u002FCITATION.bib) 文件中提供了若干相关论文的 BibTeX 条目。\n\n## 作者\n\n详情请参阅 [`AUTHORS.md`](.\u002FAUTHORS.md)。\n\n## 社区、联系、问题与贡献\n\n如果您发现 bug 或有功能建议，请在 [Issues](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues) 中提交。\n如果您有独立的问题或其他讨论主题，可以尝试访问我们的 [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fdiscussions)。\n\n欢迎活跃用户和感兴趣的开发者加入 NequIP 社区聊天服务器，该服务器基于优秀的 [Zulip](https:\u002F\u002Fzulip.com\u002F) 软件搭建。\nZulip 的组织方式与您可能熟悉的 Slack 或 Discord 等聊天软件略有不同：请在发帖前阅读他们的 [主题介绍](https:\u002F\u002Fzulip.com\u002Fhelp\u002Fintroduction-to-topics)。\n[请点击此处填写 NequIP 社区兴趣表单](https:\u002F\u002Fforms.gle\u002FmEuonVCHdsgTtLXy7)。\n\n如果您想为代码做出贡献，请阅读 [\"Contributing to NequIP\"](docs\u002Fdev\u002Fcontributing.md)。\n\n您也可以通过电子邮件 allegro-nequip@g.harvard.edu 与我们联系。","# NequIP 快速上手指南\n\nNequIP 是一个用于构建 E(3)-等变原子间势（Interatomic Potentials）的开源代码库，支持高性能训练与推理，并广泛集成于 ASE、LAMMPS 等主流模拟软件中。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS。\n*   **Python 版本**: Python 3.8 - 3.11。\n*   **硬件加速**: 推荐使用 NVIDIA GPU 以获得最佳训练和推理性能（需安装对应的 CUDA 驱动）。\n*   **前置依赖**:\n    *   `pip` (包管理工具)\n    *   `git` (版本控制工具)\n    *   (可选) Conda\u002FMamba 环境管理器（推荐用于隔离环境）\n\n> **注意**：2025 年 4 月发布的 v0.7.0 版本包含重大不兼容更新。如果您需要使用旧的配置文件，请选择 v0.6.2 版本。本指南默认基于最新稳定版。\n\n## 安装步骤\n\n建议使用虚拟环境进行安装，以避免依赖冲突。\n\n### 1. 创建并激活虚拟环境\n\n```bash\npython -m venv nequip-env\nsource nequip-env\u002Fbin\u002Factivate  # Linux\u002FmacOS\n# 或在 Windows 上: nequip-env\\Scripts\\activate\n```\n\n### 2. 安装 NequIP\n\n您可以直接从 PyPI 安装最新版本：\n\n```bash\npip install nequip\n```\n\n如果需要利用国内镜像源加速下载（如清华大学源）：\n\n```bash\npip install nequip -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若需使用特定旧版本（如 v0.6.2）以兼容旧配置：\n\n```bash\npip install nequip==0.6.2\n```\n\n### 3. 验证安装\n\n安装完成后，可通过以下命令检查版本：\n\n```bash\npython -c \"import nequip; print(nequip.__version__)\"\n```\n\n## 基本使用\n\n学习 NequIP 最快捷的方式是通过官方提供的教程笔记本，或者参考以下核心工作流。\n\n### 方式一：在线体验（无需本地安装）\n\nNequIP 提供了完整的 Google Colab 教程，您可以在云端直接运行所有示例，无需配置本地环境。\n\n*   **教程地址**: [NequIP Tutorial on Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmir-group\u002Fnequip-tutorial\u002Fblob\u002Fmain\u002FNequIP_Tutorial.ipynb)\n\n### 方式二：本地命令行工作流\n\n典型的 NequIP 工作流程包括：数据准备 -> 配置编写 -> 模型训练 -> 势函数部署。\n\n#### 1. 准备数据集\n确保您拥有符合 ASE 格式的训练数据（如 `.extxyz` 文件），包含原子结构、能量和受力信息。\n\n#### 2. 编写配置文件\n创建一个 YAML 格式的配置文件（例如 `config.yaml`），定义网络架构、超参数和数据路径。以下是一个极简示例：\n\n```yaml\n# config.yaml\nseed: 12345\ndataset:\n  r_max: 5.0\n  file: \"data\u002Ftrain.extxyz\"\nmodel:\n  num_basis: 8\n  num_radial_cutoff: 6\n  parity: true\n  num_features: 32\n  l_max: 2\ntrain:\n  batch_size: 16\n  max_epochs: 100\n  learning_rate: 0.01\n```\n\n#### 3. 启动训练\n使用 `nequip-train` 命令开始训练：\n\n```bash\nnequip-train config.yaml\n```\n\n训练过程中，模型权重和日志将自动保存到指定目录。\n\n#### 4. 在模拟软件中使用\n训练完成的模型可轻松集成到分子动力学软件中：\n\n*   **ASE (Python)**:\n    ```python\n    from nequip.ase import NequIPCalculator\n    calc = NequIPCalculator.from_deployed_model(\"models\u002Fbest_model.pt\")\n    atoms.set_calculator(calc)\n    ```\n*   **LAMMPS**: 通过 `pair_nequip_allegro` 风格或 ML-IAP 接口调用（需编译支持）。\n\n---\n*更多高级功能（如多 GPU 训练、模型编译加速、自定义扩展包开发）请参阅 [官方文档](https:\u002F\u002Fnequip.readthedocs.io\u002F)。*","某材料科学团队正在研发新型固态电池电解质，需要高精度模拟锂离子在复杂晶格中的迁移路径以预测离子电导率。\n\n### 没有 nequip 时\n- 依赖传统经验势函数（如 Lennard-Jones），无法准确描述复杂的量子力学相互作用，导致模拟结果与实验数据偏差巨大。\n- 若改用第一性原理计算（DFT）获取高精度数据，单次模拟耗时数天，根本无法覆盖离子迁移所需的纳秒级时间尺度。\n- 构建的模型缺乏旋转和平移等对称性约束，需要在训练数据中人为扩充大量冗余样本，极大增加了数据准备成本。\n- 难以将高精度模型直接嵌入 LAMMPS 等主流分子动力学软件，工程落地需编写大量自定义接口代码。\n\n### 使用 nequip 后\n- 利用 E(3)-等变神经网络构建原子间势函数，仅需少量 DFT 数据即可捕捉高精度量子效应，模拟误差降低一个数量级。\n- 借助编译加速和多 GPU 训练特性，推理速度比 DFT 快数万倍，成功完成了微秒级的长时程离子扩散模拟。\n- 内置的等变性架构自动满足物理对称性要求，无需数据增强即可保证模型泛化能力，显著减少了数据采集工作量。\n- 通过原生的 ASE 和 LAMMPS 接口，直接将训练好的模型部署到现有工作流中，无缝衔接大规模并行计算任务。\n\nnequip 让研究人员在保持第一性原理精度的同时，获得了传统经验势函数的计算效率，彻底打破了高精度材料模拟的速度瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmir-group_nequip_e9d550ce.png","mir-group","MIR@Harvard","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmir-group_ca76beee.png","Materials Intelligence Group @ Harvard University ",null,"Materials_Intel","https:\u002F\u002Fmir.g.harvard.edu\u002F","https:\u002F\u002Fgithub.com\u002Fmir-group",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,888,208,"2026-04-03T07:41:14","MIT","未说明","训练和加速推理需要 NVIDIA GPU（支持多 GPU 分布式训练）；具体型号、显存大小及 CUDA 版本未在文档中明确说明，但提及支持通过 OpenEquivariance 和 CuEquivariance 进行 GPU 内核加速。",{"notes":95,"python":92,"dependencies":96},"该工具主要用于构建 E(3) 等变原子间势函数。2025 年 4 月发布了不兼容的重大更新 (v0.7.0)，旧版配置需使用 v0.6.2。提供 Google Colab 教程无需本地安装即可体验。支持编译模式以加速训练和推理。可通过 ASE 和 LAMMPS 进行集成使用。开发者可通过扩展包机制自定义架构。",[97,98,99,100,101,102],"torch (PyTorch)","e3nn","ase (Atomic Simulation Environment)","LAMMPS (用于分子动力学集成)","OpenEquivariance (可选加速)","CuEquivariance (可选加速，Alpha 版)",[62,13],[105,106,107,108,109,110,111,112,113,114],"machine-learning","atomistic-simulations","molecular-dynamics","computational-chemistry","deep-learning","interatomic-potentials","force-fields","pytorch","drug-discovery","materials-science","2026-03-27T02:49:30.150509","2026-04-06T11:57:48.436945",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},18969,"NequIP 是否支持计算应力张量以进行 NPT 系综模拟？","是的，NequIP 支持应力张量计算。您需要拉取最新的 `develop` 分支（注意：这可能导致无法直接加载此前训练的含应力模型，但修复容易）。配置方法是在您的 YAML 配置文件中复制一份，并添加来自 `minimal_stress.yaml` 的 `model_builders` 以及 `load_model_state` 构建器。具体操作包括引入 `SimpleIrrepsConfig` 等模块，并在配置中启用应力输出选项，从而在推理模式下也能计算能量对晶胞的导数（即应力）。","https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F69",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},18966,"NequIP 是否支持多 GPU 训练？如何配置？","是的，从 v0.7.0 版本开始，NequIP 官方支持分布式数据并行（DDP）训练，并可结合 `torch.compile` 进行加速。您可以参考文档中的“分布式数据并行训练”章节进行配置。此外，在 `develop` 分支中也有基于 PyTorch Lightning 和 torchmetrics 的 DDP 实现。对于旧版用户，也曾有基于 Horovod 的分支可用，其 Slurm 提交脚本示例包括设置 `NCCL_DEBUG=INFO`、`NCCL_IB_HCA` 等环境变量，并使用 `srun nequip-train config.yaml` 启动训练。","https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F210",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},18967,"如何在 OpenMM 中使用 NequIP 进行分子动力学模拟？","NequIP 现已支持与 OpenMM 集成。相关讨论和最新的集成进展可以在 GitHub Issue #588 以及 OpenMM 官方讨论区找到。OpenMM 允许使用单精度计算力而积分步骤使用双精度，通常这是可接受的；NequIP 模型内部也处理了精度问题。对于混合 ML\u002FMM 系统，该集成方案同样适用。建议查看相关线程以获取最新的配置指南和代码示例。","https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F288",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},18968,"如何使用 OpenMM 运行长时 MD 模拟（需要邻居列表支持）？","为了在 OpenMM 中使用 TorchScript 模型，必须将邻居列表计算包含在模块内。目前已有解决方案：@felixmusil 实现了一个支持 TorchScript 的邻居列表库 `torch_nl`，其通用性与 ASE 相当且速度更快。该功能已整合进 NequIP 对 OpenMM 的支持中，使得输入仅为位置和盒子矢量即可输出能量，从而实现在 GPU 上进行高效的长时模拟。","https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F76",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},18970,"在对微调后的模型进行打包或编译时遇到 state_dict 错误怎么办？","该问题已在最新版本中修复。如果您在使用 `nequip-compile` 或 `nequip-package` 处理来自早期版本的微调模型检查点时遇到错误，请尝试升级到最新的 NequIP 版本。此外，手动更新的打包模型现已发布在 Zenodo 上，您可以从中下载兼容的模型文件。小规模和中等规模的 NequIP OAM 模型也已包含在内。","https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F572",{"id":144,"question_zh":145,"answer_zh":146,"source_url":132},18971,"在 OpenMM 中使用 NequIP 时，位置坐标和预测值是否需要避免降级为 float32？","通常情况下，力可以用单精度（float32）计算，而积分过程使用双精度（float64），这是可接受的做法。在 OpenMM 端，位置坐标的精度取决于您选择的模拟设置（'mixed' 和 'double' 精度模式均对位置使用 float64）。NequIP 的预测值也应保持为 float64。虽然在不同软件（如 ASE 和 OpenMM）之间比较结果时需考虑数值差异，但对于混合 ML\u002FMM 系统，这种精度处理方式能够正常工作且稳定。",[148,153,158,163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243],{"id":149,"version":150,"summary_zh":151,"released_at":152},116364,"v0.17.1","## [0.17.1]\n\n### 新增\n- `dataset` 作为内置的 `AtomicDataDict` 图\u002F长字段（`AtomicDataDict.DATASET_KEY`），以及用于多数据集工作流的 `nequip.data.transforms.DatasetIndexTransform`\n\n### 修复\n- 与 `alchemiops` v0.3.0 邻近列表的兼容性","2026-03-25T18:46:18",{"id":154,"version":155,"summary_zh":156,"released_at":157},116365,"v0.17.0","# 亮点\n\n## 预训练模型\n\n小型和中型 NequIP-OAM 模型现已在 [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 上提供。它们也可以从 [Zenodo](https:\u002F\u002Fzenodo.org\u002Frecords\u002F18775904) 下载。\n\n新增了一个提升开发体验的 `cutoff_radius_from_package` 工具，用于微调：\n```yaml\ncutoff_radius: ${cutoff_radius_from_package:path\u002Fto\u002Fmodel.nequip.zip}\n\ndata:\n  # ...\n  transforms:\n    - _target_: nequip.data.transforms.NeighborListTransform\n      r_max: ${cutoff_radius}\n      # ...\n```\n更多详细信息请参阅微调指南：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Ftraining-techniques\u002Ffine_tuning.html\n\n\n## 集成\n\nNequIP 框架的 OpenMM 接口已更新至新架构（感谢 @peastman 和 @JMorado）。更多详情请参阅此处说明：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Fopenmm.html\n\n我们还集成了来自 [NVIDIA ALCHEMI Toolkit-Ops](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fnvalchemi-toolkit-ops) 的支持批处理和 GPU 的邻居列表，通过批处理的 [torch-sim](https:\u002F\u002Fgithub.com\u002FTorchSim\u002Ftorch-sim) 仿真引擎，可在 GPU 批量工作负载上实现加速。一些早期基准测试结果可在此处找到：[这里](https:\u002F\u002Fgithub.com\u002FTorchSim\u002Ftorch-sim\u002Fdiscussions\u002F452#discussioncomment-15937036)。\n更多详情请参阅我们的 `torch-sim` 文档：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Ftorchsim.html\n\n---\n\n# 迁移\n\n一项重大变更在于，`NequIPCalculator` 的导入路径现为 `nequip.integrations.ase.NequIPCalculator`，以保持与我们日益增多的第三方仿真引擎集成的一致性。`nequip.ase.NequIPCalculator` 仍作为已弃用的兼容性适配层存在，并会发出 `FutureWarning` 警告，但建议用户尽快迁移。\n\n`NEQUIP_NL` 环境变量不再用于控制邻居列表后端的选择。现在可以通过 `NeighborListTransform(..., backend=\"...\")` 显式设置邻居列表后端。不过，训练和 ASE 计算器集成的默认后端仍未改变（`matscipy`）。\n\n---\n\n# v0.17.0 更改日志\n\n### 新增\n- 支持具有不同输入输出键签名的模型进行训练时编译——允许同时保存多个具有不同签名的已编译模型\n- 新增关于已知 PyTorch 版本问题的文档章节\n- 提供便捷解析器 `${cutoff_radius_from_package:${model_path}}`，可在配置文件中直接提取用于微调的截断半径\n- 新增 `PresetNequIPGNNModel` 模型构建器，配备 `S`\u002F`M`\u002F`L`\u002F`XL` 架构预设，并支持显式参数覆盖\n- 更新后的 OpenMM 集成文档链接\n- 添加对 `alchemiops` 邻居列表后端的支持\n\n### 变更\n- 全面重构了 `NonperiodicCellTransform`，提升了处理能力\n- 用于训练的编译模型现在会生成完整的急切模式输出字典条目\n- `NequIPCalculator` 的标准导入路径现为 `nequip.integrations.ase.NequIPCalculator`；`nequip.ase.NequIPCalculator` 仍作为已弃用的兼容性接口存在。","2026-03-04T01:49:52",{"id":159,"version":160,"summary_zh":161,"released_at":162},116366,"v0.16.3","## [0.16.3]\n\n### 新增\n- Zenodo 存档功能\n\n### 修复\n- `CITATION.cff` 文件中的语法，已使用 `cffconvert --validate -i CITATION.cff` 验证","2026-01-09T15:29:06",{"id":164,"version":165,"summary_zh":166,"released_at":167},116367,"v0.16.2","## [0.16.2]\n\n### 新增\n- 为 NequIP GNN 模型配置非线性读出 MLP 的功能\n\n### 变更\n- 将 e3nn 的最低版本号提升至 0.5.9\n\n### 修复\n- 由 @ManasviGoyal 在 `TM23DataModule` 中添加了缺失的 `Ru` 元素\n- 修复了 @Pourasad 提出的 https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fissues\u002F578 问题","2026-01-09T08:04:45",{"id":169,"version":170,"summary_zh":171,"released_at":172},116368,"v0.16.1","## [0.16.1]\n\n### 修复\n- 将 torch-sim 集成改为可选：从 `nequip.integrations.__init__.py` 中移除了 `torchsim` 的导入，以防止在未安装 `torch_sim` 时出现导入错误。此举使得其他集成工具（例如 `nequip-prepare-lmp-mliap`）无需将 `torch_sim` 作为依赖即可正常工作。\n","2025-12-01T14:06:51",{"id":174,"version":175,"summary_zh":176,"released_at":177},116369,"v0.16.0","# 亮点\n\n## 预训练模型使用体验的提升\n\n本次发布通过新增对下载模型的自动缓存功能，改进了对 https:\u002F\u002Fwww.nequip.net\u002F 上预训练模型的处理。采用 `nequip.net: syntax` 编译的模型现在会被缓存在 `~\u002F.nequip\u002Fmodel_cache` 目录下（可通过 `NEQUIP_CACHE_DIR` 环境变量进行配置）。首次编译时会下载模型；后续编译则会立即复用缓存副本。\n\n更多详情请参阅文档：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Fgetting-started\u002Fworkflow.html#compiling-models-from-nequip-net。\n\n此外，本次发布还对 `ChemicalSpeciesToAtomTypeMapper` 和 `NequIPCalculator` 的 API 进行了破坏性变更，以提高在使用预训练模型时的清晰度和安全性，尤其是在管理化学物种与原子类型映射方面。\n\n在微调已打包的模型时，现在需要确保原子类型与原始训练时使用的原子类型一致。新的 `type_names_from_package` 解析器使这一过程变得简单明了：\n```yaml\nmodel_type_names: ${type_names_from_package:path\u002Fto\u002Fmodel.nequip.zip}\n\ndata:\n  # ...\n  transforms:\n    - _target_: nequip.data.transforms.ChemicalSpeciesToAtomTypeMapper\n      model_type_names: ${model_type_names}\n      # ...\n  stats_manager:\n    type_names: ${model_type_names}\n```\n\n更多详情请参阅微调指南：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Ftraining-techniques\u002Ffine_tuning.html\n\n## `torch-sim` 集成\n\n[torch-sim](https:\u002F\u002Fgithub.com\u002FTorchSim\u002Ftorch-sim) 是一个基于 PyTorch 构建的原子尺度模拟引擎，支持自动批处理以及针对机器学习势函数的 GPU 加速推理。本次发布通过 [NequIPTorchSimCalc](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fapi\u002Ftorchsim.html#nequip.integrations.torchsim.NequIPTorchSimCalc) 添加了对 `torch-sim` 的支持，从而可以直接在 `torch-sim` 工作流中使用 NequIP 模型，并利用提前编译（AOTI）技术实现高效的批量推理。\n\n您可以通过添加 `--target batch` 标志来编译适用于 `torch-sim` 批量评估的模型：\n```bash\nnequip-compile path\u002Fto\u002Fmodel.ckpt path\u002Fto\u002Fcompiled_model.nequip.pt2 \\\n  --device cuda \\  # 或 \"cpu\"\n  --mode aotinductor \\\n  --target batch\n```\n\n详细信息请参阅集成指南：\n👉 https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Ftorchsim.html\n\n## OpenEquivariance 与 AOTInductor 编译兼容（PyTorch ≥ 2.9）\n自 PyTorch 2.9 起，[OpenEquivariance](https:\u002F\u002Fgithub.com\u002FPASSIONLab\u002FOpenEquivariance) 内核可与 NequIP 模型结合使用 AOT Inductor 编译，从而加速 ASE 和 `torch-sim` 中的推理。\n```bash\nnequip-compile \u002Fpath\u002Fto\u002Fmodel.ckpt \u002Fpath\u002Fto\u002Fcompiled_model.nequip.pt2 \\\n  --mode aotinductor \\\n  --device cuda \\\n  --target ase \\\n  --modifiers enable_OpenEquivariance\n```\n\n## 为每个 Irrep 阶数指定不同的多重度\n\n用户现在可以为每个 Irrep 阶数分配不同的特征","2025-11-20T17:05:07",{"id":179,"version":180,"summary_zh":181,"released_at":182},116370,"v0.15.0","# [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 已上线\n\n该网站托管了我们全新的 NequIP 和 Allegro 基础势函数，它们在 [Matbench Discovery 排行榜](https:\u002F\u002Fmatbench-discovery.materialsproject.org\u002F) 上位列最精确的模型之列。这些势函数包括仅基于 MPTrj 训练的合规模型，以及基于 OMat24 训练的非合规模型。\n\n\u003Cimg width=\"2060\" height=\"1274\" alt=\"image\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fea1ef0ba-28c1-4e46-ad67-d43ac77d2631\" \u002F>\n\n# 下载与使用预训练势函数\n[打包好的模型文件](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Fgetting-started\u002Ffiles.html#package-files) 可从 [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 下载，并可在标准的 NequIP 工作流中使用。此外，我们还提供了便捷命令，可自动下载并 [编译](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Fgetting-started\u002Fworkflow.html#compilation) 模型，以便在我们的 [ASE](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Fase.html) 和 [LAMMPS](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Findex.html) 集成中进行推理。您可以在 [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 上，点击进入每个模型的页面，找到这些命令的示例。以下是一个为 ASE 推理编译 AOT Inductor 的示例：\n```bash\nnequip-compile \\\n  nequip.net:mir-group\u002FNequIP-OAM-L:0.1 \\\n  mir-group__NequIP-OAM-L__0.1.nequip.pt2 \\\n  --mode aotinductor \\\n  --device cuda \\\n  --target ase\n```\n\n---\n\n## [0.15.0] 更改日志\n\n### 新增\n- 现在可以使用 `ChainedScheduler` 和 `SequentialLR` 进行学习率调度。\n- 提供了从 [nequip.net](https:\u002F\u002Fwww.nequip.net\u002F) 自动下载预训练势函数的功能。\n\n### 变更\n- 放宽了 LAMMPS ML-IAP 对绝对路径的限制，并允许在 ML-IAP 运行时无需确保原始检查点或打包文件位于完全相同的位置。\n\n### 修复\n- 修复了使用 PyTorch 2.8 时 OpenEquivariance 加速编译训练的问题。\n- 放宽了 `NequIPCalculator` 的使用限制，例如在混合使用 ASE 计算器时。","2025-09-10T02:56:53",{"id":184,"version":185,"summary_zh":186,"released_at":187},116371,"v0.14.0-bump","## [0.14.0]\n\n### 新增\n- 为 NequIP GNN 模型引入 CuEquivariance 加速\n- ScheduleFreeLightningModule：一个新的 LightningModule 子类，集成了 Facebook 的 Schedule-Free 优化器，由 @vu-blaze-12 实现，可在 NequIP 中启用无学习率调度训练\n- `TestTimeXYZFileWriter` 现在接受 `extra_fields` 参数\n- 添加 `WaterDataModule` 和 `COLLDataModule`\n\n### 变更\n- NequIP GNN 模型现在利用 LAMMPS ML-IAP 中的幽灵节点截断（优化）\n- 改进了 ML-IAP 的错误处理\n- 【破坏性变更】禁止为每种类型的能量标度和偏移使用列表输入；仅允许标量或字典\n- 【破坏性变更】忽略配置文件中的 `global_options`；在训练过程中，配置 TF32 设置的唯一方式是使用 `TF32Scheduler`\n\n### 修复\n- 在 PyTorch 2.8 下运行 `nequip-compile --mode aotinductor` 会失败（由于常量折叠所致——因此 AOTI 的常量折叠功能现已始终关闭）","2025-08-24T21:04:56",{"id":189,"version":190,"summary_zh":191,"released_at":192},116372,"v0.13.0","## [0.13.0]：LAMMPS ML-IAP 接口\n\n此前，LAMMPS 中用于 NequIP GNN 模型或 [Allegro](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fallegro) 模型的唯一插件是 [pair_nequip_allegro](https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fpair_nequip_allegro) 仓库，其中包含了 `pair_nequip` 和 `pair_allegro` 这两种 LAMMPS 成对样式。虽然 `pair_allegro` 能够实现分子动力学模拟的多秩[可扩展性](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3581784.3627041)，并支持诸如我们[自定义的 Triton 张量积内核](https:\u002F\u002Fnequip.readthedocs.io\u002Fprojects\u002Fallegro\u002Fen\u002Flatest\u002Fguide\u002Ftriton.html)等[加速技术](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.16068)，但 `pair_nequip` 仅提供单秩推理，且没有任何加速选项。\n\n本次发布引入了适用于 NequIP 框架模型（包括 NequIP GNN 和 Allegro 模型，后者默认支持 `torch.compile`）的 [LAMMPS ML-IAP](https:\u002F\u002Fdocs.lammps.org\u002FPackages_details.html#pkg-ml-iap) 集成。关于 `pair_nequip_allegro` 与我们的 LAMMPS ML-IAP 接口之间差异的总结，请参阅[此处](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Findex.html)。其显著特性包括：\n\n- 通过 LAMMPS ML-IAP 接口，可使用基于消息传递的 NequIP GNN 模型进行多秩 LAMMPS 模拟；\n- 可采用 `pair_nequip_allegro` 目前不支持的推理加速选项，例如针对 NequIP GNN 模型的 [`enable_OpenEquivariance`](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fopenequivariance.html) 修饰符，以及针对 Allegro 模型的 [`enable_CuEquivarianceContracter`](https:\u002F\u002Fnequip.readthedocs.io\u002Fprojects\u002Fallegro\u002Fen\u002Flatest\u002Fguide\u002Fcuequivariance.html) 修饰符。\n\n需要注意的是，针对 Allegro 模型的 [`enable_TritonContracter`](https:\u002F\u002Fnequip.readthedocs.io\u002Fprojects\u002Fallegro\u002Fen\u002Flatest\u002Fguide\u002Ftriton.html) 修饰符在 `pair_nequip_allegro` 和本 LAMMPS ML-IAP 接口中均可使用。\n\n## 使用 LAMMPS ML-IAP\n有关如何使用 NequIP 框架的 LAMMPS ML-IAP 集成，请参阅我们的[用户指南](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fintegrations\u002Flammps\u002Fmliap.html)。简而言之，在构建支持 ML-IAP 的 LAMMPS 并将其安装到您的 Python 环境后，您可以按照以下步骤准备 LAMMPS ML-IAP 模型：\n```bash\nnequip-prepare-lmp-mliap \\\n  $PWD\u002Fckpt_file_or_package_file \\\n  $PWD\u002Foutput.nequip.lmp.pt \\\n  --modifiers modifier_to_apply\n```\n请注意，加速修饰符（如针对 NequIP GNN 模型的 [`enable_OpenEquivariance`](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fopenequivariance.html) 修饰符，以及针对 Allegro 模型的 [`enable_CuEquivarianceContracter`](https:\u002F\u002Fnequip.readthedocs.io\u002Fprojects\u002Fallegro\u002Fen\u002Flatest\u002Fguide\u002Fcuequivariance.html) 修饰符）均需在使用 `nequip-prepare-lmp-mliap` 准备模型时进行配置。\n\n随后，您可以在 LAMMPS 输入文件中使用已准备好的模型文件：\n```bash\npair_style    mliap unified output.nequip.lmp.pt 0\npair_coeff    * * H O\n```","2025-08-04T17:22:59",{"id":194,"version":195,"summary_zh":196,"released_at":197},116373,"v0.12.1","## [0.12.1]\n\n### 新增\n- `MaximumAbsoluteError` 指标\n\n### 变更\n- 更新 `SoftAdapt` 回调，使其根据所选的（初始）损失系数来更新权重损失系数。\n\n### 修复\n- `PerTypeScaleShift` 模型修饰符的形状错误\n- `WandbWatch` 回调文档字符串中的拼写错误\n- 教程\u002F示例中用于获取 `fcu.xyz` 示例数据集的链接失效问题\n- `nequip-package` 现在即使在包安装时未安装 OEQ，也会始终加载 OEQ 文件","2025-07-20T21:23:06",{"id":199,"version":200,"summary_zh":201,"released_at":202},116374,"v0.12.0","## [0.12.0]\r\n\r\n### Added\r\n- `SAMD23DataModule` for Samsung's SAMD23 dataset (HfO and SiN systems) by @vu-blaze-12 \r\n\r\n### Fixed\r\n- Train-time compile compatibility of OpenEquivariance accelerated NequIP models\r\n\r\n### Removed\r\n- [Breaking] Python 3.9 support has been removed","2025-07-01T02:52:30",{"id":204,"version":205,"summary_zh":206,"released_at":207},116375,"v0.11.1","## [0.11.1]\r\n\r\n### Fixed\r\n- Fixed per-edge-type cutoff metadata parsing when loading compiled models\r\n\r\n### Changed\r\n- Change to make train-time compile work with PyTorch 2.8.0 -- train-time compile won't work with PyTorch 2.8.0 and NequIP versions before v0.11.1\r\n","2025-06-23T03:21:05",{"id":209,"version":210,"summary_zh":211,"released_at":212},116376,"v0.11.0","## [0.11.0]\r\n\r\nWe now provide dedicated [energy-only model and training support](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Freference\u002Ffaq.html#energy-only-training).\r\n\r\n---\r\n## CHANGELOG\r\n\r\n### Added\r\n- Energy-only training support: `NequIPGNNEnergyModel`, `EnergyOnlyDataStatisticsManager`, `EnergyOnlyLoss`, and `EnergyOnlyMetrics` for datasets without force labels\r\n- Per-edge-type cutoff handling in ASE Calculator\r\n\r\n### Removed\r\n- [Future] Python 3.9 support will be removed in the coming releases. For now, users will be warned to upgrade if using NequIP with Python 3.9.\r\n\r\n### Changed\r\n- [Breaking] Hide `NequIPCalculator.from_checkpoint_model` and `NequIPCalculator.from_packaged_model` methods by making them private; users should only ever use `NequIPCalculator.from_compiled_model`\r\n","2025-06-11T18:35:25",{"id":214,"version":215,"summary_zh":216,"released_at":217},116377,"v0.10.0","## [0.10.0]\r\n\r\nWe are proud to announce the integration of [OpenEquivariance](https:\u002F\u002Fgithub.com\u002FPASSIONLab\u002FOpenEquivariance), presented in [[“An Efficient Sparse Kernel Generator for O(3)-Equivariant Deep Networks”](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.13986)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.13986) to the NequIP framework for accelerating NequIP GNN models, thanks to @vbharadwaj-bk and @asglover. \r\n\r\nInformation on how to use it can be found in the [OpenEquivariance guide page](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002Fguide\u002Faccelerations\u002Fopenequivariance.html).\r\n\r\nAt a glance, OpenEquivariance can be used for accelerating training by using `nequip.model.modify` in the config file:\r\n```yaml\r\ntraining_module:\r\n  _target_: nequip.train.EMALightningModule\r\n  \r\n  # ... other training module configurations ...\r\n  \r\n  model:\r\n    _target_: nequip.model.modify\r\n    modifiers:\r\n      - modifier: enable_OpenEquivariance\r\n    model:\r\n      _target_: nequip.model.NequIPGNNModel\r\n      seed: 123\r\n      model_dtype: float32\r\n      type_names: [C, H, O, Cu]\r\n      r_max: 5.0\r\n      num_layers: 4\r\n      l_max: 2\r\n      num_features: 32\r\n      # ... your standard model configuration ...\r\n```\r\n\r\nOpenEquivariance can be used to accelerate TorchScript inference in ASE by doing `nequip-compile` with `--modifiers enable_OpenEquivariance`:\r\n```yaml\r\nnequip-compile \u002Fpath\u002Fto\u002Fmodel.ckpt \u002Fpath\u002Fto\u002Fcompiled_model.nequip.pth \\\r\n  --mode torchscript \\\r\n  --device cuda \\\r\n  --target ase \\\r\n  --modifiers enable_OpenEquivariance\r\n```\r\n\r\n\r\n----\r\n\r\n### Changed\r\n- Restructured user guide docs\r\n\r\n### Added\r\n- OpenEquivariance acceleration for NequIP GNN models\r\n- `SortedNeighborListTransform` for sorted neighborlists with permutation indices to get a sorted transpose\r\n- Per-edge-type cutoff-aware neighborlist transform","2025-06-03T22:12:29",{"id":219,"version":220,"summary_zh":221,"released_at":222},116378,"v0.9.1","## [0.9.1]\r\n\r\n### Changed\r\n- Revamped docs\r\n","2025-06-02T13:19:55",{"id":224,"version":225,"summary_zh":226,"released_at":227},116379,"v0.9.0","## [0.9.0]\r\n\r\n### Changed\r\n- [Breaking] `nequip-compile` CLI: `--input-path` and `--output-path` are now positional arguments instead of flags\r\n- [Breaking] `nequip-package build` CLI: `--ckpt-path` and `--output-path` are now positional arguments instead of flags\r\n","2025-05-30T04:05:03",{"id":229,"version":230,"summary_zh":231,"released_at":232},116380,"v0.8.0","## [0.8.0]\r\n\r\n### Added\r\n- MD22 datamodule\r\n- `PerTypeScaleShift` model modifier to enable changing the per-type atomic energy scales and shifts of a pretrained model for fine-tuning\r\n\r\n### Changed\r\n- [Breaking] packaged model file metadata format: NOTE that packaged models before this version will no longer be compatible, and models must be repackaged from checkpoints\r\n- [Breaking] `nequip-package` API: users must now specify `nequip-package build` to construct packaged model files or `nequip-package info` to inspect the metadata of packaged model files\r\n- `per_type_energy_scales` and `per_type_energy_shifts` are expected to be in dict format; warnings will be thrown if they are provided as lists, and this will become errors in later major releases\r\n- [Breaking] `InteractionBlock` of NequIP model refactored such that checkpoint files from previous versions will not work with this version\r\n\r\n### Removed\r\n- [Breaking] train-time TorchScript","2025-05-27T16:50:41",{"id":234,"version":235,"summary_zh":236,"released_at":237},116381,"v0.7.1","## [0.7.1]\r\n\r\n### Fixed\r\n- Update outdated descriptions for `parity_plot.py`\r\n\r\n### Added\r\n- Increase docs coverage\r\n- `StressSignFlipTransform` as a data transform to flip the sign of datasets that come with the opposite stress sign convention as used in the NequIP framework\r\n- `int_div` and `int_mul` resolvers for integer arithmetic in config files, e.g. `half_width: ${int_div:${width},2}`\r\n\r\n### Changed\r\n- Renamed `examples` -> `misc` directory","2025-05-07T13:30:11",{"id":239,"version":240,"summary_zh":241,"released_at":242},116382,"v0.7.0","A major update to the NequIP framework discussed in [this preprint](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.16068).\r\n\r\n[The docs](https:\u002F\u002Fnequip.readthedocs.io\u002Fen\u002Flatest\u002F) contain information on the new user interface.\r\n\r\nPlease note that this update is not backwards compatible.","2025-04-23T23:08:10",{"id":244,"version":245,"summary_zh":246,"released_at":247},116383,"v0.6.2","## [0.6.2] - 2025-3-23\r\n\r\n### Fixed\r\n - Early stopping bug fixed by @ESEberhard in https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fpull\u002F465\r\n - PyTorch version bug fixed by @anjohan in https:\u002F\u002Fgithub.com\u002Fmir-group\u002Fnequip\u002Fpull\u002F467","2025-03-23T18:51:45"]