[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--materials_discovery":3,"tool-google-deepmind--materials_discovery":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75753,"2026-04-16T23:11:21",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":69,"owner_location":69,"owner_email":69,"owner_twitter":69,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":105,"github_topics":69,"view_count":10,"oss_zip_url":69,"oss_zip_packed_at":69,"status":22,"created_at":106,"updated_at":107,"faqs":108,"releases":129},8229,"google-deepmind\u002Fmaterials_discovery","materials_discovery",null,"Materials Discovery: GNoME 是一个致力于加速无机晶体发现的研究项目，旨在利用机器学习解决材料科学中从芯片到电池、光伏等领域的核心难题。该项目通过扩展机器学习方法的规模，成功预测并分享了超过 38 万种新型稳定材料结构；截至 2024 年 8 月，数据集已进一步扩充至逾 52 万种能量极接近理论稳定态的材料，为科研人员提供了宝贵的“凸包”参考上下文。\n\n其核心技术亮点在于采用了名为 GNoME 的消息传递图神经网络架构，该模型在训练后实现了 21meV\u002Fatom 的顶尖预测精度，大幅降低了筛选新材料的计算成本。此外，项目还集成了 Nequip 架构以学习原子间势能及材料动力学特性，并提供了基于 JAX 的实现代码。配套的数据集不仅包含详细的成分与能量信息，还通过 Colab 笔记本提供了便捷的交互接口，方便用户探索化学体系或计算分解能。\n\nMaterials Discovery: GNoME 主要面向材料科学研究人员、计算化学家以及 AI 领域的开发者。对于希望利用数据驱动方法加速新材料研发、验证理论模型或探索未知化学空间的团队而言，这是一个极具价值的开源资源。","Materials Discovery: GNoME 是一个致力于加速无机晶体发现的研究项目，旨在利用机器学习解决材料科学中从芯片到电池、光伏等领域的核心难题。该项目通过扩展机器学习方法的规模，成功预测并分享了超过 38 万种新型稳定材料结构；截至 2024 年 8 月，数据集已进一步扩充至逾 52 万种能量极接近理论稳定态的材料，为科研人员提供了宝贵的“凸包”参考上下文。\n\n其核心技术亮点在于采用了名为 GNoME 的消息传递图神经网络架构，该模型在训练后实现了 21meV\u002Fatom 的顶尖预测精度，大幅降低了筛选新材料的计算成本。此外，项目还集成了 Nequip 架构以学习原子间势能及材料动力学特性，并提供了基于 JAX 的实现代码。配套的数据集不仅包含详细的成分与能量信息，还通过 Colab 笔记本提供了便捷的交互接口，方便用户探索化学体系或计算分解能。\n\nMaterials Discovery: GNoME 主要面向材料科学研究人员、计算化学家以及 AI 领域的开发者。对于希望利用数据驱动方法加速新材料研发、验证理论模型或探索未知化学空间的团队而言，这是一个极具价值的开源资源。需要注意的是，该项目属于前沿研究性质，数据与代码仍在持续迭代中，欢迎社区共同探索与反馈。","# Materials Discovery: GNoME\n\n[**Dataset**](#dataset)\n| [**Models**](#models)\n| [**Colabs**](#colabs)\n| [**License**](#license)\n| [**Disclaimer**](#disclaimer)\n| [**Upcoming**](#upcoming)\n| [**Citing**](#citing)\n\n### What is Materials Discovery: GNoME?\n\nFrom microchips to batteries and photovoltaics, discovery of inorganic crystals\nis a fundamental problem in materials science. Graph Networks for Materials\nScience (GNoME) is a project centered around scaling machine learning methods\nto tackle this core task. With results recently published, this repository\nserves to share the discovery of 381,000 novel stable materials with the wider\nmaterials science community and hopefully enable exciting new research via the\nupdated convex hull.\n\nAs of August 2024, we have expanded the dataset to release all materials\nmeasured to be within 1 meV\u002Fatom from the convex hull. We hope that this\nprovides greater context to the convex hulls in chemical families of interest,\nfor a total of >520,000 materials.\n\nThis is a research project, not an official Google product. Expect bugs as the\nrepository expands and sharp edges. Please help by exploring the structures\nand let us know what you think!\n\n### Contents\n* [**Dataset**](#dataset)\n* [**Models**](#models)\n* [**Colabs**](#colabs)\n* [**License**](#license)\n* [**Disclaimer**](#disclaimer)\n* [**Upcoming**](#upcoming)\n* [**Citing**](#citing)\n\n### Dataset\n\nThe dataset described in the original paper is provided across multiple file\nformats. For more details, including how to download the dataset, please see\nour dataset descriptor file in DATASET.md.\n\n**Summarized** A summary of the dataset is provided in CSV format. This file\ncontains compositions and raw energies from Density Functional Theory (DFT)\ncalculations, as well as other popular measurements (e.g. formation energy and\ndecomposition energy).\n\n**Structure** Loading of structures is slightly more cumbersome due to file\nsizes involved. Due to the organization of the convex hull, only one structure\nis needed per composition, so results from the summary can be used to pull\nfrom the compressed data directory available in the linked Cloud Bucket. An\nalternative approach to extract individual files from the compressed ZIP\n(so as to only extract necessary files) is exemplified in the visualization\ncolab.\n\n**r²SCAN** Baseline calculations were performed via PBE functional for the\ncalculations. The paper also reports metrics for binaries and tenaries with\nthe r²SCAN functional. A summary of calculated energies and associated\nmetrics is included for these calculations.\n\n### Models\n\nWe provide model definitions for the two sets of models used in the paper.\n\n**GNoME** were the predominant model behind new materials\ndiscovery. This simple message passing architecture was optimized by training\non a snapshot of Materials Project from 2018, leading to state-of-the-art results\nof 21meV\u002Fatom.\n\n**Nequip** corresponds to the architecture created by Batzner et al. (2022).\nThis architecture was used to train the interatomic potentials described in the\npaper to learn the dynamics from the large dataset. We provide an implementation\nin JAX as well as basic configuration parameters for the corresponding\narchitecture.\n\n### Colabs\n\nColab examples of how to interact with the dataset provide an interface for\nexploring various chemical systems or computing decomposition energies.\n\n### License\n\nThe Colab notebooks and associated code provided in this repository are licensed\nunder the Apache License, Version 2.0. You may obtain a copy of the License at\nhttps:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0.\n\nData contained in the Graph Networks for Materials Exploration Database is available for use under the terms of the Creative Commons Attribution Noncommercial 4.0 International Licence (CC BY NC 4.0).  You may obtain a copy of the License at\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F. The dataset was created using\nthe Vienna Ab initio Simulation Package (VASP) in order to run calculations\nfrom Density Functional Theory.\n\n### Upcoming\n\n- [ ] Reference structures and search paths\n- [ ] Model training colabs and configs\n- [ ] Additional material properties (e.g. electronic band structure)\n\n### Disclaimer\n\nThis is not an official Google product.\n\nGraph Networks for Materials Exploration Database, Copyright, Google LLC, (2023).\n\nData in the Graph Networks for Materials Exploration Database is for theoretical modeling only, caution should be exercised in its use. The Graph Networks for Materials Exploration Database is not  intended for, and is not approved for, any medical or clinical use.  The Graph Networks for Materials Exploration Database is experimental in nature and provided on an “as is” basis. To the maximum extent permitted at law, Google disclaims all representations, conditions and warranties, whether express or implied, in relation to the Graph Networks for Materials Exploration Database (including without limitation for non-infringement of third party intellectual property rights, satisfactory quality, merchantability or fitness for a particular purpose), and the user shall hold Google free and harmless in connection with their use of such content.\n\n### Citing\n\nIf you are using this resource please cite our\n[paper](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06735-9)\n\n```latex\n  @article{merchant2023scaling,\n    title={Scaling deep learning for materials discovery},\n    author={Amil Merchant and Simon Batzner and Samuel S. Schoenholz and Muratahan Aykol and Gowoon Cheon and Ekin Dogus Cubuk},\n    journal={Nature},\n    year={2023},\n    doi={10.1038\u002Fs41586-023-06735-9},\n    href={https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06735-9},\n}\n```\n","# 材料发现：GNoME\n\n[**数据集**](#dataset)\n| [**模型**](#models)\n| [**Colab 笔记本**](#colabs)\n| [**许可证**](#license)\n| [**免责声明**](#disclaimer)\n| [**即将推出**](#upcoming)\n| [**引用**](#citing)\n\n### 什么是材料发现：GNoME？\n\n从微芯片到电池和光伏器件，无机晶体的发现是材料科学中的一个基本问题。材料科学中的图网络（GNoME）项目旨在通过扩展机器学习方法来解决这一核心任务。该项目近期发表了研究成果，本仓库旨在与更广泛的材料科学界共享对381,000种新型稳定材料的发现，并希望通过更新的凸包结构促进令人兴奋的新研究。\n\n截至2024年8月，我们已扩展数据集，发布了所有能量距离凸包小于1 meV\u002F原子的材料。我们希望这能为感兴趣的化学家族中的凸包提供更丰富的背景信息，使总材料数量超过520,000种。\n\n这是一个研究项目，并非谷歌的官方产品。随着仓库内容的不断扩展，可能会出现一些错误和不完善之处。请帮助我们探索这些结构，并告诉我们您的想法！\n\n### 目录\n* [**数据集**](#dataset)\n* [**模型**](#models)\n* [**Colab 笔记本**](#colabs)\n* [**许可证**](#license)\n* [**免责声明**](#disclaimer)\n* [**即将推出**](#upcoming)\n* [**引用**](#citing)\n\n### 数据集\n\n原始论文中描述的数据集以多种文件格式提供。有关详细信息，包括如何下载数据集，请参阅 DATASET.md 中的数据集说明文件。\n\n**摘要版** 数据集摘要以 CSV 格式提供。该文件包含基于密度泛函理论（DFT）计算得到的成分和原始能量，以及其他常用指标（如形成能和分解能）。\n\n**结构文件** 由于文件体积较大，加载结构文件稍显复杂。鉴于凸包的组织方式，每种成分只需一个结构，因此可以使用摘要文件中的信息从链接的云存储桶中提取压缩数据目录。另一种方法是从压缩的 ZIP 文件中单独提取所需文件（仅提取必要的文件），可视化 Colab 笔记本中对此进行了示例说明。\n\n**r²SCAN** 基线计算采用 PBE 泛函进行。论文还报告了使用 r²SCAN 泛函计算的二元和三元体系的相关指标。我们为此类计算提供了计算能量及相应指标的摘要。\n\n### 模型\n\n我们提供了论文中使用的两组模型的定义。\n\n**GNoME** 是新材料发现的主要模型。这种简单的消息传递架构通过对2018年 Materials Project 数据快照进行训练而优化，最终实现了21 meV\u002F原子的先进性能。\n\n**Nequip** 对应于 Batzner 等人（2022）提出的架构。该架构用于训练论文中描述的原子间势函数，从而从大规模数据集中学习动力学特性。我们提供了基于 JAX 的实现以及相应架构的基本配置参数。\n\n### Colab 笔记本\n\n这些 Colab 示例展示了如何与数据集交互，为探索各种化学体系或计算分解能提供了接口。\n\n### 许可证\n\n本仓库中提供的 Colab 笔记本及相关代码采用 Apache License, Version 2.0 许可证授权。您可以在 https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0 获取该许可证的副本。\n\n材料探索图网络数据库中的数据可根据知识共享署名-非商业性使用4.0国际许可协议（CC BY NC 4.0）使用。您可以在 https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F 获取该许可证的副本。该数据集是使用 Vienna Ab initio Simulation Package (VASP) 运行密度泛函理论计算而创建的。\n\n### 即将推出\n- [ ] 参考结构和搜索路径\n- [ ] 模型训练 Colab 和配置\n- [ ] 其他材料属性（例如电子能带结构）\n\n### 免责声明\n本项目并非谷歌的官方产品。\n\n材料探索图网络数据库，版权属于 Google LLC，(2023)。\n\n材料探索图网络数据库中的数据仅供理论建模使用，在使用时应谨慎。该数据库并非用于且未获批准用于任何医疗或临床用途。材料探索图网络数据库具有实验性质，按“现状”提供。在法律允许的最大范围内，Google 对材料探索图网络数据库不作任何明示或暗示的陈述、条件或保证（包括但不限于不侵犯第三方知识产权、质量合格、适销性或特定用途适用性），用户应就其使用此类内容承担全部责任，并使 Google 免受任何损害。\n\n### 引用\n如果您使用本资源，请引用我们的论文：\n```latex\n  @article{merchant2023scaling,\n    title={Scaling deep learning for materials discovery},\n    author={Amil Merchant and Simon Batzner and Samuel S. Schoenholz and Muratahan Aykol and Gowoon Cheon and Ekin Dogus Cubuk},\n    journal={Nature},\n    year={2023},\n    doi={10.1038\u002Fs41586-023-06735-9},\n    href={https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06735-9},\n}\n```","# Materials Discovery (GNoME) 快速上手指南\n\n## 环境准备\n\n本项目主要涉及数据集加载、模型定义及 JAX 环境的配置。请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Linux (Ubuntu 20.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**：Python 3.9 或更高版本。\n*   **硬件要求**：\n    *   **CPU**：用于数据预处理和基础分析。\n    *   **GPU**：强烈推荐配备 NVIDIA GPU（需安装 CUDA），以便运行 `Nequip` 模型训练或大规模推理。\n*   **前置依赖**：\n    *   `pip` 包管理工具\n    *   `git`\n    *   Google Cloud Storage 访问权限（用于下载大型数据集）\n\n> **注意**：由于核心计算库 `JAX` 对 GPU 支持有特定要求，建议先根据 [JAX 官方安装指南](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax#installation) 配置好带有 CUDA\u002FcuDNN 支持的 JAX 环境。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    获取项目源代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmaterials_discovery.git\n    cd materials_discovery\n    ```\n\n2.  **创建虚拟环境并安装依赖**\n    推荐使用 `venv` 或 `conda` 隔离环境。以下为使用 `pip` 的标准安装流程：\n    ```bash\n    python -m venv gnome_env\n    source gnome_env\u002Fbin\u002Factivate  # Windows 用户使用: gnome_env\\Scripts\\activate\n    \n    # 安装基础依赖\n    pip install -r requirements.txt\n    \n    # 安装 JAX (示例：安装支持 CUDA 的版本，请根据实际硬件调整)\n    pip install \"jax[cuda12_pip]\" -f https:\u002F\u002Fstorage.googleapis.com\u002Fjax-releases\u002Fjax_cuda_releases.html\n    ```\n\n3.  **获取数据集**\n    项目包含超过 520,000 种材料数据，文件较大，需从 Google Cloud Bucket 下载。\n    *   详细下载说明和描述文件请参阅项目根目录下的 `DATASET.md`。\n    *   数据集许可协议为 **CC BY-NC 4.0**（非商业用途）。\n    \n    通常需要使用 `gsutil` 工具下载：\n    ```bash\n    # 确保已安装 google-cloud-storage 包\n    pip install google-cloud-storage\n    \n    # 示例：下载摘要数据 (具体路径请参考 DATASET.md)\n    # gsutil cp gs:\u002F\u002Fgnome-dataset\u002Fsummary.csv .\u002Fdata\u002F\n    ```\n\n## 基本使用\n\n本项目最便捷的使用方式是通过 **Google Colab** 进行交互式探索，无需本地配置复杂环境。若需在本地运行，可参考以下逻辑加载数据。\n\n### 方式一：使用 Colab 笔记本（推荐）\n项目提供了现成的 Colab 示例，用于探索化学系统或计算分解能。\n1.  访问项目 README 中的 **[Colabs]** 部分链接。\n2.  在 Colab 中打开笔记本，按照单元格顺序执行。\n3.  笔记本演示了如何从压缩数据包中提取特定结构，并可视化凸包（Convex Hull）数据。\n\n### 方式二：本地代码示例\n以下是一个简化的 Python 示例，展示如何读取数据集摘要（CSV 格式）并查看材料形成能：\n\n```python\nimport pandas as pd\n\n# 1. 加载摘要数据 (假设已下载 summary.csv 到本地 data 目录)\ndf = pd.read_csv('data\u002Fsummary.csv')\n\n# 2. 查看前几行数据\nprint(df.head())\n\n# 3. 筛选稳定材料 (例如：分解能 \u003C 0 的材料)\nstable_materials = df[df['decomposition_energy'] \u003C 0]\n\nprint(f\"发现稳定材料数量：{len(stable_materials)}\")\n\n# 4. 查看特定化学组成的能量信息\n# 注意：完整结构文件位于压缩目录中，需根据 composition 索引提取\ntarget_composition = \"LiFePO4\" # 示例组成\nresult = df[df['composition'] == target_composition]\nif not result.empty:\n    print(f\"找到 {target_composition}, 形成能：{result['formation_energy'].values[0]} eV\u002Fatom\")\nelse:\n    print(f\"未找到 {target_composition}\")\n```\n\n### 模型使用提示\n*   **GNoME 模型**：用于预测新材料稳定性，基于 2018 年 Materials Project 快照训练。\n*   **Nequip 模型**：用于学习原子间势能及动力学，提供 JAX 实现。\n*   具体的模型加载和推理配置请参考 `models\u002F` 目录下的定义文件及后续更新的训练 Colab。\n\n---\n**引用说明**：若在研究中使用本资源，请务必引用原文献：\n*Merchant et al., \"Scaling deep learning for materials discovery\", Nature (2023).*","某新能源实验室的研究团队正致力于寻找一种高稳定性、低成本的固态电池电解质材料，需要在数百万种可能的化学组合中筛选出具备实际应用潜力的候选晶体。\n\n### 没有 materials_discovery 时\n- 研究人员依赖传统的密度泛函理论（DFT）逐个计算候选材料的稳定性，筛选一个化学体系往往需要数周甚至数月的超算时间。\n- 由于缺乏大规模预计算数据支持，团队极易陷入“局部最优”，错过那些位于凸包（convex hull）边缘但极具潜力的新型稳定结构。\n- 面对海量的化学空间，团队只能凭经验缩小搜索范围，导致大量潜在的突破性材料因未被纳入测试列表而永远被埋没。\n- 每次尝试新的元素组合都需要重新搭建计算流程，重复劳动繁多且难以复用历史数据，研发迭代周期极其漫长。\n\n### 使用 materials_discovery 后\n- 团队直接调用 GNoME 发布的超过 52 万种已验证稳定材料的数据库，瞬间锁定数百个符合能量标准的候选者，将筛选时间从数月缩短至几分钟。\n- 借助更新后的凸包数据，研究人员能清晰识别出距离理论稳定态仅 1 meV\u002Fatom 以内的微稳态材料，大幅扩展了可探索的化学家族边界。\n- 利用提供的 Colab 示例和预训练模型，团队可快速计算特定体系的分解能，无需从头训练模型或运行昂贵的 DFT 基准测试。\n- 基于现成的结构化数据和 JAX 实现的 Nequip 架构，团队能迅速模拟材料动力学行为，将原本线性的研发流程转变为并行的多方案验证模式。\n\nmaterials_discovery 通过将机器学习规模化的预测能力转化为现成的海量数据集，彻底打破了传统材料发现中的算力与时间瓶颈，让科学家能从繁琐的计算中解放出来，专注于真正的科学创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_materials_discovery_fb1b709d.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","","https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[84,88],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",87,{"name":89,"color":90,"percentage":91},"Python","#3572A5",13,1160,182,"2026-04-16T10:11:48","Apache-2.0",4,"未说明","需要 GPU（用于 JAX 加速），具体型号、显存大小及 CUDA 版本未在文档中明确说明","未说明（文档提及结构文件加载因文件大小而复杂，暗示可能需要较大内存）",{"notes":101,"python":97,"dependencies":102},"该项目主要提供数据集和模型定义。其中 Nequip 模型提供了基于 JAX 的实现。代码和笔记本在 Apache 2.0 许可下发布，但数据集遵循 CC BY-NC 4.0（非商业性）许可。文档提到结构文件较大，建议参考 Colab 示例学习如何从压缩数据中提取特定文件以避免加载全部数据。这是一个研究项目而非官方 Google 产品，可能存在缺陷。",[103,104],"JAX","Nequip",[18],"2026-03-27T02:49:30.150509","2026-04-17T08:25:14.108677",[109,114,119,124],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},36831,"离子弛豫数据集（ionic relaxation dataset）是否会向社区开放？","截至该 Issue 关闭时，维护者尚未正式回应或发布该数据集。多位用户表达了强烈需求，建议持续关注仓库更新或直接联系论文作者获取最新进展。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmaterials_discovery\u002Fissues\u002F10",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},36832,"使用 gsutil 下载数据集时出现反复重试错误怎么办？","这通常是由于网络问题导致的（特别是特定地区）。如果后续下载成功，则问题已自动解决；若持续失败，建议检查网络连接、更换网络环境或使用代理后再尝试执行命令：gsutil -m cp -r gs:\u002F\u002Fgdm_materials_discovery\u002F data\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmaterials_discovery\u002Fissues\u002F13",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},36833,"nequip 和 GNoME 模型文件代码完全一样，它们是相同的模型吗？","不是。这是由于开源迁移过程中的失误导致文件重复。维护者已修复 gnome.py（主要用于工具函数），并将晶体能量模型的定义移至 crystal.py 和 gnn.py 中。请以这两个新文件中的定义为准。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmaterials_discovery\u002Fissues\u002F4",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},36834,"A-lab 的设计和配置会开源吗？","目前该仓库未计划开源 A-lab 的设计与配置。建议直接联系 A-lab 相关论文的负责人获取更多信息（论文链接：https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06734-w）。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmaterials_discovery\u002Fissues\u002F2",[]]