[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-chainer--chainer-chemistry":3,"tool-chainer--chainer-chemistry":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":78,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":111,"github_topics":112,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":119,"updated_at":120,"faqs":121,"releases":151},3866,"chainer\u002Fchainer-chemistry","chainer-chemistry","Chainer Chemistry: A Library for Deep Learning in Biology and Chemistry","Chainer Chemistry 是一个专为生物与化学领域打造的深度学习库，基于灵活的 Chainer 框架构建。它致力于解决分子数据难以直接应用于传统神经网络的核心难题，帮助研究人员高效预测化合物的各种化学性质。\n\n该工具特别适合从事药物发现、材料科学的研究人员以及需要处理分子结构数据的 AI 开发者使用。其核心亮点在于原生支持图卷积神经网络（GCNN）等前沿模型，能够直接将分子视为图结构数据进行学习，从而更精准地捕捉原子间的复杂关系。此外，Chainer Chemistry 还集成了多种先进的化学信息学算法，并提供了丰富的预置模型，大幅降低了从数据处理到模型训练的门槛。\n\n需要注意的是，使用该库通常需要配合 RDKit 进行分子特征处理，且随着主框架 Chainer 进入维护模式，Chainer Chemistry 目前也主要专注于稳定性维护与关键修复。对于希望深入探索分子深度学习机制、或需要在现有 Chainer 生态中开展生化研究的团队来说，它依然是一个功能扎实、文档详尽的得力助手。","# Chainer Chemistry: A Library for Deep Learning in Biology and Chemistry\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchainer-chemistry.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fchainer-chemistry)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fpfnet-research\u002Fchainer-chemistry.svg)](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fblob\u002Fmaster\u002FLICENSE)\n[![travis](https:\u002F\u002Fimg.shields.io\u002Ftravis\u002Fpfnet-research\u002Fchainer-chemistry\u002Fmaster.svg)](https:\u002F\u002Ftravis-ci.org\u002Fpfnet-research\u002Fchainer-chemistry)\n[![Read the Docs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchainer_chainer-chemistry_readme_6bf48b3e9a6d.png)](http:\u002F\u002Fchainer-chemistry.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchainer_chainer-chemistry_readme_7a2936eaf888.png\" alt=\"Chainer Chemistry Overview\" width=\"600\" \u002F>\n\u003C\u002Fp>\n\nChainer Chemistry is a deep learning framework (based on Chainer) with\napplications in Biology and Chemistry. It supports various state-of-the-art\nmodels (especially GCNN - Graph Convolutional Neural Network) for chemical property prediction.\n\nFor more information, please refer to the [documentation](http:\u002F\u002Fchainer-chemistry.readthedocs.io\u002Fen\u002Flatest\u002Findex.html).\nAlso, a quick introduction to deep learning for molecules and Chainer Chemistry\nis available [here](https:\u002F\u002Fwww.slideshare.net\u002FKentaOono\u002Fdeep-learning-for-molecules-introduction-to-chainer-chemistry-93288837).\n\n## Dependencies\n\nChainer Chemistry depends on the following packages:\n\n - [`chainer`](https:\u002F\u002Fdocs.chainer.org\u002Fen\u002Fstable\u002Findex.html)\n - [`pandas`](https:\u002F\u002Fpandas.pydata.org)\n - [`scikit-learn`](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n - [`tqdm`](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Ftqdm)\n - [`h5py`](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fh5py)\n\nThese are automatically added to the system when installing the library via the\n`pip` command (see _Installation_). However, the following  needs to be\ninstalled manually:\n\n - [`rdkit (release 2019.03.2.0)`](https:\u002F\u002Fgithub.com\u002Frdkit\u002Frdkit)\n\nPlease refer to the RDKit [documentation](http:\u002F\u002Fwww.rdkit.org\u002Fdocs\u002FInstall.html)\nfor more information regarding the installation steps.\n\nNote that only the following versions of Chainer Chemistry's dependencies are\ncurrently supported:\n\n| Chainer Chemistry   | Chainer         | RDKit          | Python           |\n| ------------------: | --------------: | -------------: | ---------------: |\n| v0.1.0 ~ v0.3.0     | v2.0 ~ v3.0     | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.4.0              | v3.0 ~ v4.0 *1  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.5.0              | v3.0 ~ v5.0 *2  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.6.0              | v6.0 ~      *3  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.7.0 ~ v0.7.1     | v7.0 ~          | 2019.03.2.0    | 3.6, 3.7      *4 |\n| master branch    *5 | v7.0 ~          | 2019.03.2.0    | 3.6, 3.7         |\n\n\n[Footnote]\n\n*1: We used `FunctionNode` in [this PR](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fpull\u002F190),\nwhich is introduced after chainer v3. See [this issue](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fissues\u002F192) for details.\n\n*2: Saliency modules only work after chainer v5.\n\n*3: Chainer v6 is released and [ChainerX](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2018\u002F12\u002F03\u002Fchainerx.html) is newly introduced.\n    In order to support this new feature & API, we broke backward compatibility for chainer chemistry v0.6.0 release.\n    See [ChainerX Documentation](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2018\u002F12\u002F03\u002Fchainerx.html) for details.\n\n*4: python 2.x support is dropped, following the same policy with `chainer` and `rdkit`.\n\n*5: As [announced in chainer blog](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2019\u002F12\u002F05\u002Freleased-v7.html),\n    further development will be limited to only serious bug-fixes and maintenance.\n\n## Installation\n\nChainer Chemistry can be installed using the `pip` command, as follows:\n\n```\npip install chainer-chemistry\n```\n\nExample to install rdkit with conda:\n```bash\n# newer conda version is necessary to install rdkit 2019.03.2.0\nconda install -n base conda==4.6.14\nconda install -c rdkit rdkit==2019.03.2.0\n```\n\nIf you would like to use the latest sources, please checkout the master branch\nand install with the following commands:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry.git\npip install -e chainer-chemistry\n```\n\n## Sample Code\n\nSample code is provided with this repository. This includes, but is not limited\nto, the following:\n\n- Training a new model on a given dataset\n- Performing inference on a given dataset, using a pretrained model\n- Evaluating and reporting performance metrics of different models on a given\ndataset\n\nPlease refer to the `examples` directory for more information.\n\n## Supported Models\n\nThe following graph convolutional neural networks are currently supported:\n\n- NFP: Neural Fingerprint [2, 3]\n- GGNN: Gated Graph Neural Network [4, 3]\n- WeaveNet [5, 3]\n- SchNet [6]\n- RSGCN: Renormalized Spectral Graph Convolutional Network [10]\u003Cbr\u002F>\n \\* The name is not from the original paper - see [PR #89](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fpull\u002F89) for the naming convention.\n- RelGCN: Relational Graph Convolutional Network [14]\n- GAT: Graph Attention Networks [15]\n- GIN: Graph Isomorphism Networks [17]\n- MPNN: Message Passing Neural Networks [3]\n- Set2Set [19]\n- GNN-FiLM: Graph Neural Networks with Feature-wise Linear Modulation [20]\n- MEGNet: MatErials Graph Network [24]\n- CGCNN: Crystal Graph Convolutional Neural Networks [25]\n\nWe test supporting the brand-new Graph Warp Module (GWM) [18]-attached models for:\n- NFP ('nfp_gwm')\n- GGNN ('ggnn_gwm')\n- RSGCN ('rsgcn_gwm')\n- GIN ('gin_gwm')\n\nIn the directory `examples\u002Fmolnet_wle`, we have implemented the new preprocessing ''Weisfeiler-Lehman Embedding for Molecular Graph Neural Networks'' [26] for several GNN architectures. Please find the Readme in that directory for the usage and the details. \n\n## Supported Datasets\n\nThe following datasets are currently supported:\n\n### Chemical\n- QM9 [7, 8]\n- Tox21 [9]\n- MoleculeNet [11]\n- ZINC (only 250k dataset) [12, 13]\n- User (own) dataset\n\n### Network\n- cora [21]\n- citeseer [22]\n- reddit [23]\n\n## Research Projects\n\nIf you use Chainer Chemistry in your research, feel free to submit a\npull request and add the name of your project to this list:\n\n - BayesGrad: Explaining Predictions of Graph Convolutional Networks ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.01985), [code](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fbayesgrad))\n - Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networks ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.01020), [code](https:\u002F\u002Fgithub.com\u002Fk-ishiguro\u002Fchainer-chemistry\u002Ftree\u002Fgwm_for_CC))\n - GraphNVP: An Invertible Flow Model for Generating Molecular Graphs ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.11600), [code](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fgraph-nvp))\n - Graph Residual Flow for Molecular Graph Generation ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13521))\n\n## Useful Links\n\nChainer Chemistry:\n\n - [Documentation](https:\u002F\u002Fchainer-chemistry.readthedocs.io)\n - [Research Blog](https:\u002F\u002Fpreferredresearch.jp\u002F2017\u002F12\u002F18\u002Fchainer-chemistry-beta-release\u002F)\n\nOther Chainer frameworks:\n\n - [Chainer: A Flexible Framework of Neural Networks for Deep Learning](https:\u002F\u002Fchainer.org\u002F)\n - [ChainerRL: Deep Reinforcement Learning Library Built on Top of Chainer](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainerrl)\n - [ChainerCV: A Library for Deep Learning in Computer Vision](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainercv)\n - [ChainerMN: Scalable Distributed Deep Learning with Chainer](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainermn)\n - [ChainerUI: User Interface for Chainer](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainerui)\n\n## License\n\nThis project is released under the MIT License. Please refer to the\n[this page](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fblob\u002Fmaster\u002FLICENSE)\nfor more information.\n\nPlease note that Chainer Chemistry is still in experimental development.\nWe continuously strive to improve its functionality and performance, but at\nthis stage we cannot guarantee the reproducibility of any results published in\npapers. Use the library at your own risk.\n\n\n## References\n\n[1] Seiya Tokui, Kenta Oono, Shohei Hido, and Justin Clayton. Chainer: a next-generation open source framework for deep learning. In *Proceedings of Workshop on Machine Learning Systems (LearningSys) in Advances in Neural Information Processing System (NIPS) 28*, 2015.\n\n[2] David K Duvenaud, Dougal Maclaurin, Jorge Iparraguirre, Rafael Bombarell, Timothy Hirzel, Alan Aspuru-Guzik, and Ryan P Adams. Convolutional networks on graphs for learning molecular fingerprints. In C. Cortes, N. D. Lawrence, D. D. Lee, M. Sugiyama, and R. Garnett, editors, *Advances in Neural Information Processing Systems (NIPS) 28*, pages 2224–2232. Curran Asso- ciates, Inc., 2015.\n\n[3] Justin Gilmer, Samuel S Schoenholz, Patrick F Riley, Oriol Vinyals, and George E Dahl. Neural message passing for quantum chemistry. *arXiv preprint arXiv:1704.01212*, 2017.\n\n[4] Yujia Li, Daniel Tarlow, Marc Brockschmidt, and Richard Zemel. Gated graph sequence neural networks. *arXiv preprint arXiv:1511.05493*, 2015.\n\n[5] Steven Kearnes, Kevin McCloskey, Marc Berndl, Vijay Pande, and Patrick Riley. Molecular graph convolutions: moving beyond fingerprints. *Journal of computer-aided molecular design*, 30(8):595–608, 2016.\n\n[6] Kristof Schütt, Pieter-Jan Kindermans, Huziel Enoc Sauceda Felix, Stefan Chmiela, Alexandre Tkatchenko, and Klaus-Rober Müller. Schnet: A continuous-filter convolutional neural network for modeling quantum interactions. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, *Advances in Neural Information Processing Systems (NIPS) 30*, pages 992–1002. Curran Associates, Inc., 2017.\n\n[7] Lars Ruddigkeit, Ruud Van Deursen, Lorenz C Blum, and Jean-Louis Reymond. Enumeration of 166 billion organic small molecules in the chemical universe database gdb-17. *Journal of chemical information and modeling*, 52(11):2864–2875, 2012.\n\n[8] Raghunathan Ramakrishnan, Pavlo O Dral, Matthias Rupp, and O Anatole Von Lilienfeld. Quantum chemistry structures and properties of 134 kilo molecules. *Scientific data*, 1:140022, 2014.\n\n[9] Ruili Huang, Menghang Xia, Dac-Trung Nguyen, Tongan Zhao, Srilatha Sakamuru, Jinghua Zhao, Sampada A Shahane, Anna Rossoshek, and Anton Simeonov. Tox21challenge to build predictive models of nuclear receptor and stress response pathways as mediated by exposure to environmental chemicals and drugs. *Frontiers in Environmental Science*, 3:85, 2016.\n\n[10] Kipf, Thomas N. and Welling, Max. Semi-Supervised Classification with Graph Convolutional Networks. *International Conference on Learning Representations (ICLR)*, 2017.\n\n[11] Zhenqin Wu, Bharath Ramsundar, Evan N. Feinberg, Joseph Gomes, Caleb Geniesse, Aneesh S. Pappu, Karl Leswing, Vijay Pande, MoleculeNet: A Benchmark for Molecular Machine Learning, arXiv preprint, arXiv: 1703.00564, 2017.\n\n[12] J. J. Irwin, T. Sterling, M. M. Mysinger, E. S. Bolstad, and R. G. Coleman. Zinc: a free tool to discover chemistry for biology. *Journal of chemical information and modeling*, 52(7):1757–1768, 2012.\n\n[13] Preprocessed csv file downloaded from https:\u002F\u002Fraw.githubusercontent.com\u002Faspuru-guzik-group\u002Fchemical_vae\u002Fmaster\u002Fmodels\u002Fzinc_properties\u002F250k_rndm_zinc_drugs_clean_3.csv\n\n[14] Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne van den Berg, Ivan Titov, Max Welling. Modeling Relational Data with Graph Convolutional Networks. *Extended Semantic Web Conference (ESWC)*, 2018.\n\n[15] Veličković, P., Cucurull, G., Casanova, A., Romero, A., Liò, P., & Bengio, Y. (2017). Graph Attention Networks. arXiv preprint arXiv:1710.10903.\n\n[16] Dan Busbridge, Dane Sherburn, Pietro Cavallo and Nils Y. Hammerla. (2019). Relational Graph Attention Networks. https:\u002F\u002Fopenreview.net\u002Fforum?id=Bklzkh0qFm\n\n[17] Keyulu Xu, Weihua Hu, Jure Leskovec, Stefanie Jegelka, ``How Powerful are Graph Neural Networks?'', \tarXiv:1810.00826 [cs.LG], 2018 (to appear at ICLR19).\n\n[18] K. Ishiguro, S. Maeda, and M. Koyama, ``Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networks'', arXiv:1902.01020 [cs.LG], 2019.\n\n[19] Oriol Vinyals, Samy Bengio, Manjunath Kudlur. Order Matters: Sequence to sequence for sets. *arXiv preprint arXiv:1511.06391*, 2015.\n\n[20] Marc Brockschmidt, ``GNN-FiLM: Graph Neural Networks with Feature-wise Linear Modulation'', arXiv:1906.12192 [cs.ML], 2019.\n\n[21] McCallum, Andrew Kachites and Nigam, Kamal and Rennie, Jason and Seymore, Kristie, Automating the Construction of Internet Portals with Machine Learning. *Information Retrieval*, 2000.\n\n[22] C. Lee Giles and Kurt D. Bollacker and Steve Lawrence, CiteSeer: An Automatic Citation Indexing System. *Proceedings of the Third ACM Conference on Digital Libraries*, 1998.\n\n[23] William L. Hamilton and Zhitao Ying and Jure Leskovec, Inductive Representation Learning on Large Graphs. *Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017*\n\n[24] Chi Chen, Weike Ye, Yunxing Zuo, Chen Zheng, and Shyue Ping Ong. Graph networks as a universal machine learning framework for molecules and crystals. *Chemistry of Materials*, 31(9):3564–3572, 2019.\n\n[25] Tian Xie and Jeffrey C Grossman. Crystal graph convolutional neural networks for an accurate and interpretable prediction of material properties. *Physical review letters*, 120(14):145301, 2018.\n\n[26] Katsuhiko Ishiguro, Kenta Oono, and Kohei Hayashi, \"Weisfeiler-Lehman Embedding for Molecular Graph Neural Networks\", arXiv: 2006.06909, 2020. [paper link](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.06909)\n","# Chainer Chemistry：用于生物和化学领域的深度学习库\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchainer-chemistry.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fchainer-chemistry)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fpfnet-research\u002Fchainer-chemistry.svg)](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fblob\u002Fmaster\u002FLICENSE)\n[![travis](https:\u002F\u002Fimg.shields.io\u002Ftravis\u002Fpfnet-research\u002Fchainer-chemistry\u002Fmaster.svg)](https:\u002F\u002Ftravis-ci.org\u002Fpfnet-research\u002Fchainer-chemistry)\n[![Read the Docs](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchainer_chainer-chemistry_readme_6bf48b3e9a6d.png)](http:\u002F\u002Fchainer-chemistry.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchainer_chainer-chemistry_readme_7a2936eaf888.png\" alt=\"Chainer Chemistry 概览\" width=\"600\" \u002F>\n\u003C\u002Fp>\n\nChainer Chemistry 是一个基于 Chainer 的深度学习框架，专为生物学和化学领域设计。它支持多种最先进的模型（尤其是 GCNN——图卷积神经网络），用于化学性质预测。\n\n如需更多信息，请参阅 [文档](http:\u002F\u002Fchainer-chemistry.readthedocs.io\u002Fen\u002Flatest\u002Findex.html)。此外，关于分子深度学习及 Chainer Chemistry 的简要介绍也可在此处找到：[这里](https:\u002F\u002Fwww.slideshare.net\u002FKentaOono\u002Fdeep-learning-for-molecules-introduction-to-chainer-chemistry-93288837)。\n\n## 依赖项\n\nChainer Chemistry 依赖于以下软件包：\n\n - [`chainer`](https:\u002F\u002Fdocs.chainer.org\u002Fen\u002Fstable\u002Findex.html)\n - [`pandas`](https:\u002F\u002Fpandas.pydata.org)\n - [`scikit-learn`](http:\u002F\u002Fscikit-learn.org\u002Fstable\u002F)\n - [`tqdm`](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Ftqdm)\n - [`h5py`](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fh5py)\n\n这些依赖项在通过 `pip` 命令安装该库时会自动添加到系统中（参见“安装”部分）。然而，以下内容需要手动安装：\n\n - [`rdkit (版本 2019.03.2.0)`](https:\u002F\u002Fgithub.com\u002Frdkit\u002Frdkit)\n\n有关安装步骤的详细信息，请参阅 RDKit 的 [文档](http:\u002F\u002Fwww.rdkit.org\u002Fdocs\u002FInstall.html)。\n\n请注意，目前仅支持以下版本的 Chainer Chemistry 依赖项：\n\n| Chainer Chemistry   | Chainer         | RDKit          | Python           |\n| ------------------: | --------------: | -------------: | ---------------: |\n| v0.1.0 ~ v0.3.0     | v2.0 ~ v3.0     | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.4.0              | v3.0 ~ v4.0 *1  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.5.0              | v3.0 ~ v5.0 *2  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.6.0              | v6.0 ~      *3  | 2017.09.3.0    | 2.7, 3.5, 3.6    |\n| v0.7.0 ~ v0.7.1     | v7.0 ~          | 2019.03.2.0    | 3.6, 3.7      *4 |\n| 主分支    *5 | v7.0 ~          | 2019.03.2.0    | 3.6, 3.7         |\n\n\n[脚注]\n\n*1：我们在 [此 PR](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fpull\u002F190) 中使用了 `FunctionNode`，该功能是在 Chainer v3 之后引入的。详情请参阅 [此问题](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fissues\u002F192)。\n\n*2：显著性模块仅在 Chainer v5 及以上版本中可用。\n\n*3：Chainer v6 已发布，并新引入了 `ChainerX`（https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2018\u002F12\u002F03\u002Fchainerx.html）。为了支持这一新特性和 API，我们对 Chainer Chemistry v0.6.0 版本进行了不兼容的更新。详情请参阅 [ChainerX 文档](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2018\u002F12\u002F03\u002Fchainerx.html)。\n\n*4：根据与 `chainer` 和 `rdkit` 相同的政策，不再支持 Python 2.x。\n\n*5：正如 [Chainer 官方博客宣布](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2019\u002F12\u002F05\u002Freleased-v7.html)，后续开发将仅限于严重的错误修复和维护工作。\n\n## 安装\n\nChainer Chemistry 可以通过以下 `pip` 命令进行安装：\n\n```\npip install chainer-chemistry\n```\n\n使用 conda 安装 rdkit 的示例：\n```bash\n# 需要较新的 conda 版本才能安装 rdkit 2019.03.2.0\nconda install -n base conda==4.6.14\nconda install -c rdkit rdkit==2019.03.2.0\n```\n\n如果您希望使用最新源代码，请检出主分支并使用以下命令进行安装：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry.git\npip install -e chainer-chemistry\n```\n\n## 示例代码\n\n本仓库提供了示例代码，其中包括但不限于以下内容：\n\n- 在给定数据集上训练新模型\n- 使用预训练模型对给定数据集进行推理\n- 对不同模型在给定数据集上的性能指标进行评估和报告\n\n更多信息请参阅 `examples` 目录。\n\n## 支持的模型\n\n目前支持以下图卷积神经网络：\n\n- NFP：神经指纹 [2, 3]\n- GGNN：门控图神经网络 [4, 3]\n- WeaveNet [5, 3]\n- SchNet [6]\n- RSGCN：归一化谱图卷积网络 [10]\u003Cbr\u002F>\n \\* 该名称并非源自原始论文——命名规范请参阅 [PR #89](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fpull\u002F89)。\n- RelGCN：关系图卷积网络 [14]\n- GAT：图注意力网络 [15]\n- GIN：图同构网络 [17]\n- MPNN：消息传递神经网络 [3]\n- Set2Set [19]\n- GNN-FiLM：特征线性调制的图神经网络 [20]\n- MEGNet：材料图网络 [24]\n- CGCNN：晶体图卷积神经网络 [25]\n\n我们正在测试支持全新图扭曲模块（GWM）[18]的以下模型：\n- NFP（'nfp_gwm'）\n- GGNN（'ggnn_gwm'）\n- RSGCN（'rsgcn_gwm'）\n- GIN（'gin_gwm'）\n\n在 `examples\u002Fmolnet_wle` 目录中，我们为几种 GNN 架构实现了新的预处理方法“分子图神经网络的魏斯费勒-莱曼嵌入”[26]。请参阅该目录中的 README 文件以获取使用说明和详细信息。\n\n## 支持的数据集\n\n目前支持以下数据集：\n\n### 化学类\n- QM9 [7, 8]\n- Tox21 [9]\n- MoleculeNet [11]\n- ZINC（仅 25 万数据集）[12, 13]\n- 用户自定义数据集\n\n### 网络类\n- cora [21]\n- citeseer [22]\n- reddit [23]\n\n## 研究项目\n\n如果您在研究中使用了 Chainer Chemistry，请随时提交拉取请求，并将您的项目名称添加到此列表中：\n\n - BayesGrad：解释图卷积神经网络的预测结果（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.01985), [代码](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fbayesgrad))\n - 图扭曲模块：用于提升图神经网络性能的辅助模块（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.01020), [代码](https:\u002F\u002Fgithub.com\u002Fk-ishiguro\u002Fchainer-chemistry\u002Ftree\u002Fgwm_for_CC))\n - GraphNVP：用于生成分子图的可逆流模型（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.11600), [代码](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fgraph-nvp))\n - 用于分子图生成的图残差流（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.13521)）\n\n## 有用链接\n\nChainer Chemistry：\n\n - [文档](https:\u002F\u002Fchainer-chemistry.readthedocs.io)\n - [研究博客](https:\u002F\u002Fpreferredresearch.jp\u002F2017\u002F12\u002F18\u002Fchainer-chemistry-beta-release\u002F)\n\n其他 Chainer 框架：\n\n - [Chainer：用于深度学习的灵活神经网络框架](https:\u002F\u002Fchainer.org\u002F)\n - [ChainerRL：基于 Chainer 构建的深度强化学习库](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainerrl)\n - [ChainerCV：计算机视觉领域深度学习的库](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainercv)\n - [ChainerMN：使用 Chainer 实现可扩展的分布式深度学习](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainermn)\n - [ChainerUI：Chainer 的用户界面](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainerui)\n\n## 许可证\n\n本项目采用 MIT 许可证发布。更多信息请参阅\n[此页面](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fblob\u002Fmaster\u002FLICENSE)。\n\n请注意，Chainer Chemistry 目前仍处于实验性开发阶段。我们不断努力改进其功能和性能，但在现阶段无法保证论文中所发表结果的可重复性。请自行承担使用该库的风险。\n\n\n## 参考文献\n\n[1] Seiya Tokui, Kenta Oono, Shohei Hido, and Justin Clayton. Chainer: a next-generation open source framework for deep learning. In *Proceedings of Workshop on Machine Learning Systems (LearningSys) in Advances in Neural Information Processing System (NIPS) 28*, 2015.\n\n[2] David K Duvenaud, Dougal Maclaurin, Jorge Iparraguirre, Rafael Bombarell, Timothy Hirzel, Alan Aspuru-Guzik, and Ryan P Adams. Convolutional networks on graphs for learning molecular fingerprints. In C. Cortes, N. D. Lawrence, D. D. Lee, M. Sugiyama, and R. Garnett, editors, *Advances in Neural Information Processing Systems (NIPS) 28*, pages 2224–2232. Curran Asso- ciates, Inc., 2015.\n\n[3] Justin Gilmer, Samuel S Schoenholz, Patrick F Riley, Oriol Vinyals, and George E Dahl. Neural message passing for quantum chemistry. *arXiv preprint arXiv:1704.01212*, 2017.\n\n[4] Yujia Li, Daniel Tarlow, Marc Brockschmidt, and Richard Zemel. Gated graph sequence neural networks. *arXiv preprint arXiv:1511.05493*, 2015.\n\n[5] Steven Kearnes, Kevin McCloskey, Marc Berndl, Vijay Pande, and Patrick Riley. Molecular graph convolutions: moving beyond fingerprints. *Journal of computer-aided molecular design*, 30(8):595–608, 2016.\n\n[6] Kristof Schütt, Pieter-Jan Kindermans, Huziel Enoc Sauceda Felix, Stefan Chmiela, Alexandre Tkatchenko, and Klaus-Rober Müller. Schnet: A continuous-filter convolutional neural network for modeling quantum interactions. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, *Advances in Neural Information Processing Systems (NIPS) 30*, pages 992–1002. Curran Associates, Inc., 2017.\n\n[7] Lars Ruddigkeit, Ruud Van Deursen, Lorenz C Blum, and Jean-Louis Reymond. Enumeration of 166 billion organic small molecules in the chemical universe database gdb-17. *Journal of chemical information and modeling*, 52(11):2864–2875, 2012.\n\n[8] Raghunathan Ramakrishnan, Pavlo O Dral, Matthias Rupp, and O Anatole Von Lilienfeld. Quantum chemistry structures and properties of 134 kilo molecules. *Scientific data*, 1:140022, 2014.\n\n[9] Ruili Huang, Menghang Xia, Dac-Trung Nguyen, Tongan Zhao, Srilatha Sakamuru, Jinghua Zhao, Sampada A Shahane, Anna Rossoshek, and Anton Simeonov. Tox21challenge to build predictive models of nuclear receptor and stress response pathways as mediated by exposure to environmental chemicals and drugs. *Frontiers in Environmental Science*, 3:85, 2016.\n\n[10] Kipf, Thomas N. and Welling, Max. Semi-Supervised Classification with Graph Convolutional Networks. *International Conference on Learning Representations (ICLR)*, 2017.\n\n[11] Zhenqin Wu, Bharath Ramsundar, Evan N. Feinberg, Joseph Gomes, Caleb Geniesse, Aneesh S. Pappu, Karl Leswing, Vijay Pande, MoleculeNet: A Benchmark for Molecular Machine Learning, arXiv preprint, arXiv: 1703.00564, 2017.\n\n[12] J. J. Irwin, T. Sterling, M. M. Mysinger, E. S. Bolstad, and R. G. Coleman. Zinc: a free tool to discover chemistry for biology. *Journal of chemical information and modeling*, 52(7):1757–1768, 2012.\n\n[13] 预处理过的 CSV 文件，下载自 https:\u002F\u002Fraw.githubusercontent.com\u002Faspuru-guzik-group\u002Fchemical_vae\u002Fmaster\u002Fmodels\u002Fzinc_properties\u002F250k_rndm_zinc_drugs_clean_3.csv\n\n[14] Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne van den Berg, Ivan Titov, Max Welling. Modeling Relational Data with Graph Convolutional Networks. *Extended Semantic Web Conference (ESWC)*, 2018。\n\n[15] Veličković, P., Cucurull, G., Casanova, A., Romero, A., Liò, P., & Bengio, Y. (2017). Graph Attention Networks. arXiv preprint arXiv:1710.10903。\n\n[16] Dan Busbridge, Dane Sherburn, Pietro Cavallo and Nils Y. Hammerla. (2019). Relational Graph Attention Networks. https:\u002F\u002Fopenreview.net\u002Fforum?id=Bklzkh0qFm\n\n[17] Keyulu Xu, Weihua Hu, Jure Leskovec, Stefanie Jegelka, ``How Powerful are Graph Neural Networks?'', \tarXiv:1810.00826 [cs.LG], 2018 (to appear at ICLR19)。\n\n[18] K. Ishiguro, S. Maeda, and M. Koyama, ``Graph Warp Module: an Auxiliary Module for Boosting the Power of Graph Neural Networks'', arXiv:1902.01020 [cs.LG], 2019。\n\n[19] Oriol Vinyals, Samy Bengio, Manjunath Kudlur. Order Matters: Sequence to sequence for sets. *arXiv preprint arXiv:1511.06391*, 2015。\n\n[20] Marc Brockschmidt, ``GNN-FiLM: Graph Neural Networks with Feature-wise Linear Modulation'', arXiv:1906.12192 [cs.ML], 2019。\n\n[21] McCallum, Andrew Kachites and Nigam, Kamal and Rennie, Jason and Seymore, Kristie, Automating the Construction of Internet Portals with Machine Learning. *Information Retrieval*, 2000。\n\n[22] C. Lee Giles and Kurt D. Bollacker and Steve Lawrence, CiteSeer: An Automatic Citation Indexing System. *Proceedings of the Third ACM Conference on Digital Libraries*, 1998。\n\n[23] William L. Hamilton and Zhitao Ying and Jure Leskovec, Inductive Representation Learning on Large Graphs. *Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017*\n\n[24] Chi Chen, Weike Ye, Yunxing Zuo, Chen Zheng, and Shyue Ping Ong. Graph networks as a universal machine learning framework for molecules and crystals. *Chemistry of Materials*, 31(9):3564–3572, 2019。\n\n[25] Tian Xie and Jeffrey C Grossman. Crystal graph convolutional neural networks for an accurate and interpretable prediction of material properties. *Physical review letters*, 120(14):145301, 2018。\n\n[26] Katsuhiko Ishiguro, Kenta Oono, and Kohei Hayashi, \"Weisfeiler-Lehman Embedding for Molecular Graph Neural Networks\", arXiv: 2006.06909, 2020。[论文链接](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.06909)","# Chainer Chemistry 快速上手指南\n\nChainer Chemistry 是一个基于 Chainer 的深度学习框架，专为生物学和化学领域设计，支持多种先进的图卷积神经网络（GCNN）模型，用于化学性质预测等任务。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **Python 版本**：推荐使用 Python 3.6 或 3.7（v0.7.0+ 已不再支持 Python 2.x）。\n*   **核心依赖**：安装库时会自动处理 `chainer`, `pandas`, `scikit-learn`, `tqdm`, `h5py`。\n*   **手动依赖 (重要)**：**RDKit** 必须手动安装。\n    *   推荐版本：`2019.03.2.0`\n    *   注意：RDKit 在部分 Linux 发行版或 Windows 上直接通过 pip 安装可能较困难，强烈建议使用 **Conda** 进行安装。\n\n## 安装步骤\n\n### 1. 安装 RDKit (使用 Conda)\n\n首先确保安装了较新版本的 Conda，然后执行以下命令安装指定版本的 RDKit：\n\n```bash\n# 更新 conda 基础环境 (如需)\nconda install -n base conda==4.6.14\n\n# 安装 rdkit\nconda install -c rdkit rdkit==2019.03.2.0\n```\n\n> **国内加速提示**：如果下载速度较慢，可以使用清华或中科大镜像源。例如：\n> `conda install -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Frdkit rdkit==2019.03.2.0`\n\n### 2. 安装 Chainer Chemistry\n\nRDKit 安装完成后，使用 pip 安装主库：\n\n```bash\npip install chainer-chemistry\n```\n\n*(可选) 若想使用最新开发版代码：*\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry.git\npip install -e chainer-chemistry\n```\n\n## 基本使用\n\n以下是一个最简单的示例，展示如何加载数据集并构建一个图卷积模型（以 NFP 模型为例）。\n\n### 示例：加载数据与构建模型\n\n```python\nimport chainer\nfrom chainer_chemistry import datasets\nfrom chainer_chemistry.links import NFPUpdate, NFPReadout\nfrom chainer_chemistry.models import NFP\n\n# 1. 加载内置数据集 (例如 QM9)\n# dataset 包含分子图和对应的属性标签\ndataset, preprocess_method = datasets.get_qm9(preprocess_method='nfp')\n\n# 获取第一个样本作为示例\nexample = dataset[0]\natoms = example['atoms']      # 原子类型数组\nadj = example['adj']          # 邻接矩阵\n\n# 2. 定义模型参数\nn_unit = 32       # 隐藏层单元数\nn_label = 12      # 原子类型数量 (QM9 中通常为 12)\nn_out = 1         # 输出维度 (回归任务)\n\n# 3. 实例化模型\n# NFP 模型由更新层 (Update) 和读出层 (Readout) 组成\nmodel = NFP(\n    update_func=NFPUpdate(n_unit=n_unit, n_label=n_label),\n    readout_func=NFPReadout(n_unit=n_unit, n_out=n_out),\n    n_unit=n_unit,\n    n_label=n_label\n)\n\n# 4. 准备优化器并开始训练 (伪代码)\noptimizer = chainer.optimizers.Adam()\noptimizer.setup(model)\n\n# 在实际训练中，您需要使用 Iterator 遍历 dataset 并进行 forward\u002Fbackward 计算\n# 详细训练流程请参考 examples 目录下的完整脚本\nprint(\"模型初始化成功！\")\n```\n\n### 下一步\n更多高级用法（如训练循环、预训练模型推理、自定义数据集加载）请参考仓库中的 `examples` 目录或官方文档。","某制药公司的 AI 研发团队正致力于从海量化合物库中快速筛选出具有特定抗癌活性的候选分子，以加速新药发现进程。\n\n### 没有 chainer-chemistry 时\n- 研究人员需手动编写复杂的代码将分子结构转换为图数据，并自行实现图卷积神经网络（GCNN）架构，开发周期长达数周。\n- 缺乏统一的生物化学数据处理接口，每次实验前都要花费大量时间清洗格式各异的分子描述符和活性标签。\n- 难以直接复用学术界最新的分子预测模型，团队不得不重复造轮子，导致算法迭代速度远落后于前沿研究。\n- 模型训练过程缺乏针对化学领域的优化，收敛困难且预测准确率不稳定，严重拖慢了虚拟筛选的效率。\n\n### 使用 chainer-chemistry 后\n- 团队直接调用内置的 GCNN 等先进模型接口，仅需几行代码即可完成分子图构建与模型搭建，原型开发缩短至几天内。\n- 利用其集成的 RDKit 数据处理管道，自动完成分子标准化、特征提取及数据集划分，大幅减少了预处理的人力投入。\n- 轻松加载并微调社区预训练的化学属性预测模型，迅速将最新科研成果转化为实际生产力，提升了模型基线性能。\n- 依托专为化学数据优化的深度学习框架，模型训练更加稳定高效，显著提高了对化合物生物活性的预测精度。\n\nchainer-chemistry 通过提供标准化的分子深度学习基础设施，让研发团队从繁琐的工程实现中解放出来，专注于核心药物发现逻辑的创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fchainer_chainer-chemistry_35330c42.png","chainer","Chainer","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fchainer_68d2d3fc.png","",null,"https:\u002F\u002Fchainer.org","https:\u002F\u002Fgithub.com\u002Fchainer",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",98.6,{"name":88,"color":89,"percentage":90},"Dockerfile","#384d54",1.1,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.3,692,132,"2026-03-29T16:49:26","MIT",4,"未说明",{"notes":102,"python":103,"dependencies":104},"RDKit (2019.03.2.0) 需要手动安装，推荐使用 conda 进行安装。Chainer Chemistry 目前处于实验性开发阶段，不保证论文结果的可复现性。自 v0.7.0 起已放弃对 Python 2.x 的支持。该库基于 Chainer 框架，而 Chainer 目前已停止主要功能开发，仅进行严重错误修复和维护。","2.7, 3.5, 3.6 (v0.1.0-v0.6.0); 3.6, 3.7 (v0.7.0+)",[105,106,107,108,109,110],"chainer>=2.0","pandas","scikit-learn","tqdm","h5py","rdkit==2019.03.2.0",[13],[113,114,115,116,75,117,118],"deep-learning","chemistry","neural-network","biology","python","graph-convolutional-networks","2026-03-27T02:49:30.150509","2026-04-06T08:45:31.794613",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},17695,"如何使用预训练模型或进行迁移学习？","可以提取图卷积网络部分进行迁移学习。请使用 `predictor.graph_conv` 来获取仅包含图卷积网络的部分，然后将其包装在新的预测器中。例如：`new_predictor = GraphConvPredictor(predictor.graph_conv, MLP(out_dim=class_num, hidden_dim=n_unit))`。参考代码位置：chainer_chemistry\u002Fmodels\u002Fprediction\u002Fgraph_conv_predictor.py。","https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fissues\u002F407",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},17696,"加载数据集时遇到 'ValueError: Object arrays cannot be loaded when allow_pickle=False' 错误怎么办？","这通常与 NumPy 版本兼容性有关。在加载 `.npz` 文件时，可能需要显式允许 pickle。如果是在运行教程示例时遇到此问题，请确保您的环境依赖（如 NumPy）版本与库兼容。此外，如果是自定义模型训练，需注意模型定义后需要使用 `Regressor`（回归任务）或 `Classifier`（分类任务）类进行包装，因为它们定义了损失计算和 `predict` 方法，才能用于训练和预测。","https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fissues\u002F406",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},17697,"使用 SDF 文件进行分类训练时，出现 'InvalidType: Expect: in_types[1].dtype.kind == i, Actual: O != i' 错误如何解决？","该错误通常是因为指标函数（metrics_fun）选择不当导致的。在使用 `SigmoidCrossEntropy` 作为损失函数进行二分类时，指标函数应设置为 `F.binary_accuracy` 而不是 `F.f1_score`。请将代码修改为：`classifier = Classifier(model, lossfun=F.sigmoid_cross_entropy, metrics_fun=F.binary_accuracy, device=device)`。","https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fissues\u002F258",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},17698,"运行单元测试时出现断言错误（如数据集长度不匹配），原因是什么？","此类问题通常由 RDKit 库的版本差异引起。具体原因是 RDKit 在生成 SMILES 字符串时的行为变化。解决方案是在预处理代码中将 `Chem.MolToSmiles(mol)` 修改为 `Chem.MolToSmiles(mol, isometricSmiles=False)`，以确保 SMILES 顺序与输入特征顺序一致。该问题已在 RDKit 2018.03.1 版本中被标记，需调整 chainer-chemistry 的预处理逻辑来适配。","https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fissues\u002F191",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},17699,"WeaveNet 模型预测输出行数少于输入行数，且训练精度较低怎么办？","WeaveNet 和 SchNet 模型在某些版本中存在已知问题。SchNet 可能出现指数溢出（exponenta overflow），而 WeaveNet 的训练损失可能比其他模型（如 NFP, GGNN）高约 10 倍。对于回归任务，用户报告通过修改损失函数解决；对于分类任务，可以通过添加 `postprocess_label` 函数进行后处理来解决标签对齐问题。如果问题持续，建议检查是否使用了修正后的损失函数或考虑使用其他更稳定的模型。","https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fissues\u002F180",{"id":148,"question_zh":149,"answer_zh":150,"source_url":131},17700,"如何基于自定义模型进行训练和预测，教程中的命令行参数似乎不起作用？","教程中的命令行参数（如 `--method nfp`）主要用于调用示例脚本中预定义的模型设置。如果您定义了自定义模型，需要手动完成以下步骤：1. 实例化模型，例如 `model = GraphConvPredictor(NFP(...), MLP(...))`；2. 使用 `Regressor` 或 `Classifier` 包装模型以定义损失和预测方法；3. 编写训练循环或使用 Chainer 的 Trainer API。示例代码可参考 `examples\u002Fqm9\u002Ftrain_qm9.py` 中的 `set_up_predictor` 方法及后续的优化器设置部分。",[152,157,162,167,172,177,182,187],{"id":153,"version":154,"summary_zh":155,"released_at":156},108013,"v0.7.1","这是 v0.7.1 的发布说明。\n\n# 亮点\n论文《用于分子图神经网络的 Weisfeiler-Lehman 嵌入》的官方实现 (#422，感谢 @k-ishiguro！)\n - 论文链接：https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.06909\n - 示例：https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Ftree\u002Fv0.7.1\u002Fexamples\u002Fmolnet_wle\n\n# 新特性\n\n## 数据\n - 支持 WLE（Weisfeiler-Lehman 嵌入）预处理 (#422)\n - DeepChemScaffoldSplitter (#422)\n\n## 模型\n - WLE、CWLE、GWLE 的神经网络实现 (#422)\n\n# 示例\n - molnet_wle (#422)","2020-08-17T03:29:27",{"id":158,"version":159,"summary_zh":160,"released_at":161},108014,"v0.7.0","这是 v0.7.0 的发布说明。完整的已解决问题和已合并的 PR 列表请参见 [这里](https:\u002F\u002Fgithub.com\u002Fchainer\u002Fchainer-chemistry\u002Fmilestone\u002F8?closed=1)。\n\n**请注意，这被计划为最后一个主要版本。** 正如 [Chainer 博客中所宣布](https:\u002F\u002Fchainer.org\u002Fannouncement\u002F2019\u002F12\u002F05\u002Freleased-v7.html)，后续开发将仅限于严重的 bug 修复和维护工作。\n\n# 亮点\n- 新增了支持稀疏模式的图卷积神经网络，并引入 SNS 数据集以支持大规模稀疏图数据的训练 (#398，感谢 @knshnb！)\n  - 更多信息请参阅 [博客（日语）](https:\u002F\u002Ftech.preferred.jp\u002Fja\u002Fblog\u002Fgraph-neural-network-with-sparse-data-structure\u002F) 和 [SlideShare](https:\u002F\u002Fwww.slideshare.net\u002Fpfi\u002F20190930-pfn-internship-2019-extension-of-chainerchemistry-for-large-amp-sparse-graphkenshin-abe)\n- 支持 MEGNet 和 CGCNN 模型 (#396，感谢 @nd-02110114！)\n\n# 不兼容的变更\n- 在 SchNet 中使用移位 Softplus 函数 (#395)\n\n# 新特性\n\n## 模型\n- SparseRelGCN (#398，感谢 @knshnb！)\n- SparseGIN (#398，感谢 @knshnb！)\n- 使用 COO 矩阵的 GIN (#398，感谢 @knshnb！)\n- MEGNet (#396、#405、#409，感谢 @nd-02110114！)\n- CGCNN (#396、#405，感谢 @nd-02110114！)\n\n## 数据集\n- 新增 SNS 数据集支持，用于尝试大规模稀疏图数据的训练\n- 引入引用网络数据集：Cora、Citeseer (#398、#402，感谢 @knshnb！)\n- Reddit 数据集 (#398、#402，感谢 @knshnb！)\n\n## 数据集类\n- SparseGraphDataset (#398，感谢 @knshnb！)\n- PaddingGraphDataset (#398，感谢 @knshnb！)\n\n使用方法见下表：\n\n| | 化学 | 网络 |\n|----|----|----|\n| 邻接矩阵 | `NumpyTupleDataset` | **`PaddingGraphDataset`** |\n| 散射操作 | **`SparseGraphDataset`** | **`SparseGraphDataset`** |\n| 稀疏矩阵乘法 | 不支持 | **`PaddingGraphDataset (use_coo=True)`** |\n\n## 功能\n- 添加移位 Softplus 函数 (#395)\n  - 用于 SchNet 模型\n\n# 示例\n- 新增 `network_graph` 示例，用于训练 Cora、Citeseer 和 Reddit 数据集 (#398，感谢 @knshnb！)","2019-12-10T09:38:38",{"id":163,"version":164,"summary_zh":165,"released_at":166},108015,"v0.6.0","这是 v0.6.0 的发布说明。完整的已解决问题和已合并的 PR 列表请参见 [这里](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fmilestone\u002F7?closed=1)。\n\n# 不兼容的变更\n - [重大变更] 统一模型、更新和读出中的参数 (#368)\n \n - 在 `MolVisualizer` 和 `SmilesVisualizer` 中返回 SVG 文本，而非 IPython 的 SVG 对象 (#388)\n - 支持 ChainerX (#376)\n - 修复拼写错误 (#358，感谢 @shllln)\n\n# 重构：\n- 将模块链接分离 (#270, #301, #305)\n  - 这样用户可以更方便地定义自己的网络。\n\n# 新功能\n\n## 模型、链接\n - 添加消息传递神经网络 (MPNN) (#312)\n - 添加稀疏 GGNN (#342，感谢 @ir5)\n - 添加 GNN-FiLM (#386)\n - 添加 GraphWarpModule (GWM) (#321, #340, #368, #372)\n - 添加 GWMGraphConvModel\n - 添加图同构网络 (GIN) (#321, #337, #345, #371，感谢 @TaizoAyase)\n\n## 归一化器\n - FlowScaler (#318)\n - StandardScaler 支持超过 3 维的数组 (#348)\n - MinMaxScaler (#351)\n - MaxAbsScaler (#350)\n\n## 工具\n - GraphConvPredictor (#317)\n - set_up_predictor (#336)\n - AutoPrintReport (#373)\n - 训练工具 (#382)\n\n## Docker\n - 添加官方 Dockerfile (#364, #365, #374, #381，感谢 @cks-coil、@zaltoprofen)\n\n## 开发工具\n - typing 模块 (#331)\n - 文档检查器 (#332)\n\n# 错误修复\n - SchNet 预处理中添加氢原子 (#390)\n - weave 预处理器 (#360)\n - 修复 R2ScoreEvaluator 返回值的类型 (#339)\n\n# 测试\n - 使用 FlexCI (#378, #381)\n - GWMPreprocessor 测试 (#383)\n - 修复部分测试 (#377)\n\n","2019-09-11T07:49:45",{"id":168,"version":169,"summary_zh":170,"released_at":171},108016,"v0.5.0","这是 v0.5.0 的发布说明。完整的已解决问题和已合并的 PR 列表请参见 [这里](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fmilestone\u002F6)。\n\n# 独立的图卷积层\n- 模块链接分离 (#270, #301, #305)\n  - 这便于用户轻松定义自己的网络。\n\n# 新特性\n\n## Model、Link\n- 添加 RelGCN (#269, #316)\n- 添加 RelGAT (#217, #299, #302, #315)\n- GGNN：支持将 num_edge_type 作为参数传入 (#294)\n- 添加 StandardScaler 链接 (#309)\n- 添加 GraphMLP (#295)\n\n- GGNN 输入尺寸不变性支持 (#297)\n- NFP 输入尺寸不变性支持 (#296)\n\n## Functions\n- 带掩码的 softmax (#306)\n\n## Dataset\n- 添加 PDBBind 数据集（在 MoleculeNet 中）(#255)\n- 添加 Zinc 250k 数据集 (#276)\n- 在预处理器中添加 `kekulize` 选项 (#262)\n\n## 梯度显著性模块\n- 添加梯度显著性模块 (#283, #284, #286)\n\n## Utils\n- 用于将文件保存\u002F加载为 JSON 格式的工具函数 (#303)\n\n## Evaluator\n- 添加 R2 分数评估器 (#253)\n\n## Splitter\n- 添加时间顺序拆分器 (#254)\n\n# 不兼容的变更\n- 解析器始终返回规范化的 SMILES 字符串 (#264)\n- 将 `construct_discrete_edge_matrix` 移至 `common` 模块 (#260)\n- 模块链接分离 (#270)\n\n# Bug 修复\n- 对预测值进行反向缩放 (#250，感谢 @kazuyaujihara)\n- 修复 `permute_adj` 中的 FutureWarning (#277)\n- 将指标报告为标量 (#282)\n- 为 Chainer v6 重命名 `BaseForwardModel` 内的 `device_id` (#280)\n\n# 测试\n- 日常测试改进 (#243)\n- 慢速预处理器测试改进 (#263)\n\n# 示例\n- 添加自定义数据集示例 (#249)\n- 更新示例的 Shell 脚本 (#266, #273, #275)\n- QM9\n  - 在 QM9 示例中对输出标签进行缩放 (#256)\n  - 分别评估每个标签 (#314)\n\n# 其他\n- 修复文档 (#241, #242)\n- 支持长度为 0 的特征索引器 (#246)\n- 更新 README (#265)\n  - 修复 RDKit 版本问题 (#247)\n  - 添加研究项目列表 (#248)","2019-02-07T09:01:03",{"id":173,"version":174,"summary_zh":175,"released_at":176},108017,"v0.4.0","这是 v0.4.0 的发布说明。完整的已解决问题和已合并的 PR 列表请参见 [这里](https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\u002Fmilestone\u002F5?closed=1)。\n\n# 新特性\n- MoleculeNet 数据集支持 (#165, #179, #181, #182, #187, #205, #209, #216, #230, #233)\n  - 同时提供了使用 MoleculeNet 数据集的示例。\n  - 使用了 [原论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.00564) 中推荐的设置。\n- 分割器支持\n  - `RandomSplitter` (#196)\n  - `StratifiedSplitter` (#201)\n  - `ScaffoldSplitter` (#202)\n- 处理 NaN 值的损失函数实现\n  - `mean_squared_error` (#190)\n  - `mean_absolute_error` (#193)\n- 更多评估器\n  - `BatchEvaluator` (#210)\n  - `PRCAUCEvaluator` (#210)\n- 更多解析器\n  - `DataFrameParser` (#203, #207)\n  - `SMILESParser` (#204)\n- 为解析器添加 `return_is_successful` 选项 (#219, #220)\n- 添加 `extract_total_num` (#221)\n- 为 `ROCAUCEvaluator` 添加 `raise_value_error` 选项 (#157)\n\n# 不兼容的更改\n- 为 `examples\u002Fown_dataset\u002Ftrain.py` 脚本选项设置默认参数 (#171)\n- 修复 `NumpyTupleDataset` 中当 `data_index` 为长度为 1 的列表时的索引行为 (#200)\n- 修改 `SDFFileParser` 的总数统计行为，仅影响日志输出 (#220)\n\n# Bug 修复\n- 使用非等价 SMILES 表达式 (#237, #240)\n- 当 `out_size` 大于原子数时，移除邻接矩阵中的 NaN 值 (#169，感谢 @mihainorariu)\n\n# 测试\n- 改进示例测试脚本 (#158, #188)\n- 其他测试改进\n  - #170, #197, #208, #223, #234\n  - #163, #168, #174, #175（感谢 @mihaimorariu）\n\n# 支持版本\n- 从 Travis CI 测试中移除 Chainer v2 (#194)，并添加 Chainer v3 (#195)\n- 将 Travis CI 中 RDKit 的版本固定为 2017.09.3.0 (#227)\n- 添加对支持库版本的说明 (#232)\n\n# 示例\n- 模型评估脚本\n  - Tox21 (#147)\n  - QM9 (#189, #225, #226，感谢 @mihaimorariu)\n- 从 Tox21 示例中移除 `InferenceLoop` (#184, #222)\n- 从 Tox21 和 QM9 示例中移除对 `Classifier` 的条件导入 (#185)\n\n# 其他\n- 更改预处理器的断言信息 (#162，感谢 @mihaimorariu)\n- 修复 `datasets\u002Fqm9.py` 中的拼写错误 (#176，感谢 @natsukium)\n- 在 setup.py 中无需使用 `imp` 即可获取版本号 (#198)\n- 将 `.pytest_cache` 添加到 `.gitignore` 文件中 (#199)\n- 修复文档格式 (#218)","2018-07-19T09:53:45",{"id":178,"version":179,"summary_zh":180,"released_at":181},108018,"v0.3.0","# 新特性\n- 分类器 (#124, #137, #151)，支持 `predict` 和 `predict_proba` 方法\n- 回归器 (#129, #137, #151)，支持 `predict` 方法\n- BaseForwardModel (#137, #151)，并为其添加了 `save_pickle` 和 `load_pickle` 方法 (#139)\n- 在 `CSVFileParser` 和 `SDFFileParser` 的 `parse` 方法中添加 `target_index` 参数 (#131)\n- 为 `CSVFileParser` 和 `SDFFileParser` 添加 `extract_total_num` 方法 (#131)\n- 为 `get_qm9` 添加 `target_index` 选项 (#131)\n- 为 `get_tox21` 添加 `train_target_index`、`val_target_index` 和 `test_target_index` 参数 (#131)\n- 为 `RSGCN.__init__` 添加 `dropout_ratio` 参数 (#146)。\n\n# 不兼容的变更\n- 已移除 `chainer_chemistry.dataset.preprocessors.weavenet_preprocessor.DEFAULT_NUM_MAX_ATOMS`。请改用 `chainer_chemistry.WEAVE_DEFAULT_NUM_MAX_ATOMS` (#127)。\n\n# Bug 修复\n- 修复 GGNN 的 `concat hidden` 参数行为 (#117, #118)\n- **修复 GGNN 的转置顺序** (#143)\n  - **这是一个严重 bug，曾导致 GGNN 性能显著下降。** (感谢 @ir5 提供的 bug 报告！)\n- 修复示例代码，使其能在 Python 2.7 下运行 (#144) (感谢 @mihaimorariu)\n\n# 示例\n- 添加使用自定义数据集的示例 (#114)\n- 添加基于 Tox21 数据集的分类器示例（包含使用 pickle 保存模型的功能）(#124, #125, #136, #141, #152, #156)\n- 为 QM9 示例添加预测脚本 (#140)\n- 添加基于 QM9 数据集的回归器示例（包含使用 pickle 保存模型的功能）(#129, #152, #156)。\n\n# 其他\n- 改进 concat_mols 的文档 (#116)\n- 实现无需安装 RDKit 即可导入的功能 (#119, #123)\n- 在 README 中添加介绍性幻灯片 (#130)\n- 加快示例测试脚本的运行速度 (#132)\n- 添加检查图卷积网络在图同构下的不变性的测试 (#145)\n- 添加 RSGCN 的测试 (#146)\n- 移除 matplotlib 的导入 (#148)\n- 添加关于模型可移植性的注释 (#150)\n- 应用 flake8 检查 (#155)\n\n同时，感谢 @mihaimorariu (#144) 和 @ir5 在实现、文档编写、bug 报告以及示例改进方面所做的贡献！","2018-04-24T10:10:35",{"id":183,"version":184,"summary_zh":185,"released_at":186},108019,"v0.2.0","这是 v0.2.0 版本的发布。\n\n# 新特性\n- 添加 `RSGCN`（重归一化谱图卷积网络）(#89，感谢 @anaruse!)\n- 为不平衡数据训练添加 `BalancedSerialIterator` (#59)\n- 为二分类任务评估添加 `ROCAUCEvaluator` (#62)\n- 在 `construct_adj_array` 中添加 `self_connection` 选项 (#100)\n\n# 不兼容的变更\n- `return_smiles` 现在返回 `numpy.ndarray`，而非 `list` (#79)\n- `csv_file_parser.parse` 和 `sdf_file_parser.parse` 方法现在返回包含数据集和 SMILES 的 `dict`，而不是可变长度的 `tuple` (#94)\n\n# Bug 修复\n- 修复 QM9 数据集的顺序问题 (#107)\n\n# 示例\n- 在 tox21 示例中支持 `SchNet` 推理示例 (#103)\n- 在 QM9 和 tox21 示例中添加 `RSGCN` 示例 (#89, #104)\n- 在 tox21 示例中添加 `BalancedSerialIterator` 和 `ROCAUCEvaluator` 的使用示例 (#60, #62)\n\n# 其他\n- 在 QM9 和 tox21 示例中提供数据集探索笔记本 (#78)\n- 增加了大量测试。\n\n同时感谢 @amaotone (#50)、@kazuyaujihara (#85)、@msakai (#88) 和 @anaruse (#89)，感谢你们对实现、文档和示例的改进！","2018-03-01T10:19:52",{"id":188,"version":189,"summary_zh":190,"released_at":191},108020,"v0.1.0","这是 Chainer Chemistry 的首个发布版本。\n\n- GitHub 仓库：https:\u002F\u002Fgithub.com\u002Fpfnet-research\u002Fchainer-chemistry\n- 文档：http:\u002F\u002Fchainer-chemistry.readthedocs.io\u002Fen\u002Flatest\u002F\n\n我们将遵循 [语义化版本控制 2.0.0](https:\u002F\u002Fsemver.org)，这意味着在 1.0.0 版本发布之前，任何 API 都可能随时发生变化。","2017-12-14T10:59:33"]