[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-benedekrozemberczki--SimGNN":3,"tool-benedekrozemberczki--SimGNN":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":134,"updated_at":135,"faqs":136,"releases":166},2167,"benedekrozemberczki\u002FSimGNN","SimGNN","A PyTorch implementation of  \"SimGNN: A Neural Network Approach to Fast Graph Similarity Computation\" (WSDM 2019). ","SimGNN 是一个基于 PyTorch 开发的开源项目，旨在利用神经网络技术快速计算图结构之间的相似度。在传统应用中，如化学化合物检索或分子结构分析，精确计算图编辑距离（GED）等指标往往耗时巨大，难以满足大规模数据处理的实时性需求。SimGNN 正是为了解决这一计算瓶颈而生，它能在保持高精度的同时，显著降低计算成本。\n\n该工具特别适合从事图数据挖掘、化学信息学研究的科研人员，以及需要高效处理图相似度任务的算法开发者。其核心技术亮点在于创新性地结合了两种策略：首先，设计了一种可学习的嵌入函数，将每个图映射为向量以获取全局摘要，并引入注意力机制来突出对相似度判断至关重要的节点；其次，通过成对节点比较方法，补充了细粒度的节点级信息。这种“全局 + 局部”的双重架构，使得 SimGNN 在面对未见过的图数据时具有出色的泛化能力，且在最坏情况下的运行时间仅与节点数量的平方成正比。相比传统的近似算法和其他图神经网络模型，SimGNN 在多个真实数据集上均展现了更低的误差率和极高的运行效率，为图相似度计算领域提供了新的研究方向。","SimGNN\n=======================\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fgraph-edit-distance-computation-via-graph\u002Fgraph-similarity-on-imdb)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fgraph-similarity-on-imdb?p=graph-edit-distance-computation-via-graph) [![codebeat badge](https:\u002F\u002Fcodebeat.co\u002Fbadges\u002F3f5b0686-92d0-4afb-9c7a-cd36bb5bd80f)](https:\u002F\u002Fcodebeat.co\u002Fprojects\u002Fgithub-com-benedekrozemberczki-simgnn-master) [![repo size](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002Fbenedekrozemberczki\u002FSimGNN.svg)](https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Farchive\u002Fmaster.zip)⠀[![benedekrozemberczki](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fbenrozemberczki?style=social&logo=twitter)](https:\u002F\u002Ftwitter.com\u002Fintent\u002Ffollow?screen_name=benrozemberczki)⠀⠀\n\n\n \nA **PyTorch** implementation of *SimGNN: A Neural Network Approach to Fast Graph Similarity Computation (WSDM 2019)*. \n\u003Cp align=\"center\">\n  \u003Cimg width=\"800\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenedekrozemberczki_SimGNN_readme_a68ca5f120a3.jpg\">\n\u003C\u002Fp>\n\t\n### Abstract\n\u003Cp align=\"justify\">\nGraph similarity search is among the most important graph-based applications, e.g. finding the chemical compounds that are most similar to a query compound. Graph similarity\u002Fdistance computation, such as Graph Edit Distance (GED) and Maximum Common Subgraph (MCS), is the core operation of graph similarity search and many other applications, but very costly to compute in practice. Inspired by the recent success of neural network approaches to several graph applications, such as node or graph classification, we propose a novel neural network based approach to address this classic yet challenging graph problem, aiming to alleviate the computational burden while preserving a good performance. The proposed approach, called SimGNN, combines two strategies. First, we design a learnable embedding function that maps every graph into an embedding vector, which provides a global summary of a graph. A novel attention mechanism is proposed to emphasize the important nodes with respect to a specific similarity metric. Second, we design a pairwise node comparison method to sup plement the graph-level embeddings with fine-grained node-level information. Our model achieves better generalization on unseen graphs, and in the worst case runs in quadratic time with respect to the number of nodes in two graphs. Taking GED computation as an example, experimental results on three real graph datasets demonstrate the effectiveness and efficiency of our approach. Specifically, our model achieves smaller error rate and great time reduction compared against a series of baselines, including several approximation algorithms on GED computation, and many existing graph neural network based models. Our study suggests SimGNN provides a new direction for future research on graph similarity computation and graph similarity search.\u003C\u002Fp>\n\nThis repository provides a PyTorch implementation of SimGNN as described in the paper:\n\n> SimGNN: A Neural Network Approach to Fast Graph Similarity Computation.\n> Yunsheng Bai, Hao Ding, Song Bian, Ting Chen, Yizhou Sun, Wei Wang.\n> WSDM, 2019.\n> [[Paper]](http:\u002F\u002Fweb.cs.ucla.edu\u002F~yzsun\u002Fpapers\u002F2019_WSDM_SimGNN.pdf)\n\nA reference Tensorflow implementation is accessible [[here]](https:\u002F\u002Fgithub.com\u002Fyunshengb\u002FSimGNN) and another implementation is [[here]](https:\u002F\u002Fgithub.com\u002FNightlyJourney\u002FSimGNN).\n\n### Requirements\nThe codebase is implemented in Python 3.5.2. package versions used for development are just below.\n```\nnetworkx          2.4\ntqdm              4.28.1\nnumpy             1.15.4\npandas            0.23.4\ntexttable         1.5.0\nscipy             1.1.0\nargparse          1.1.0\ntorch             1.1.0\ntorch-scatter     1.4.0\ntorch-sparse      0.4.3\ntorch-cluster     1.4.5\ntorch-geometric   1.3.2\ntorchvision       0.3.0\nscikit-learn      0.20.0\n```\n### Datasets\n\u003Cp align=\"justify\">\nThe code takes pairs of graphs for training from an input folder where each pair of graph is stored as a JSON. Pairs of graphs used for testing are also stored as JSON files. Every node id and node label has to be indexed from 0. Keys of dictionaries are stored strings in order to make JSON serialization possible.\u003C\u002Fp>\n\nEvery JSON file has the following key-value structure:\n\n```javascript\n{\"graph_1\": [[0, 1], [1, 2], [2, 3], [3, 4]],\n \"graph_2\":  [[0, 1], [1, 2], [1, 3], [3, 4], [2, 4]],\n \"labels_1\": [2, 2, 2, 2, 2],\n \"labels_2\": [2, 3, 2, 2, 2],\n \"ged\": 1}\n```\n\u003Cp align=\"justify\">\nThe **graph_1** and **graph_2** keys have edge list values which descibe the connectivity structure. Similarly, the **labels_1**  and **labels_2** keys have labels for each node which are stored as list - positions in the list correspond to node identifiers. The **ged** key has an integer value which is the raw graph edit distance for the pair of graphs.\u003C\u002Fp>\n\n### Options\n\u003Cp align=\"justify\">\nTraining a SimGNN model is handled by the `src\u002Fmain.py` script which provides the following command line arguments.\u003C\u002Fp>\n\n#### Input and output options\n```\n  --training-graphs   STR    Training graphs folder.      Default is `dataset\u002Ftrain\u002F`.\n  --testing-graphs    STR    Testing graphs folder.       Default is `dataset\u002Ftest\u002F`.\n```\n#### Model options\n```\n  --filters-1             INT         Number of filter in 1st GCN layer.       Default is 128.\n  --filters-2             INT         Number of filter in 2nd GCN layer.       Default is 64. \n  --filters-3             INT         Number of filter in 3rd GCN layer.       Default is 32.\n  --tensor-neurons        INT         Neurons in tensor network layer.         Default is 16.\n  --bottle-neck-neurons   INT         Bottle neck layer neurons.               Default is 16.\n  --bins                  INT         Number of histogram bins.                Default is 16.\n  --batch-size            INT         Number of pairs processed per batch.     Default is 128. \n  --epochs                INT         Number of SimGNN training epochs.        Default is 5.\n  --dropout               FLOAT       Dropout rate.                            Default is 0.5.\n  --learning-rate         FLOAT       Learning rate.                           Default is 0.001.\n  --weight-decay          FLOAT       Weight decay.                            Default is 10^-5.\n  --histogram             BOOL        Include histogram features.              Default is False.\n```\n### Examples\n\u003Cp align=\"justify\">\nThe following commands learn a neural network and score on the test set. Training a SimGNN model on the default dataset.\u003C\u002Fp>\n\n```\npython src\u002Fmain.py\n```\n\u003Cp align=\"center\">\n\u003Cimg style=\"float: center;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenedekrozemberczki_SimGNN_readme_9b326cd5fc80.jpg\">\n\u003C\u002Fp>\n\nTraining a SimGNN model for a 100 epochs with a batch size of 512.\n```\npython src\u002Fmain.py --epochs 100 --batch-size 512\n```\nTraining a SimGNN with histogram features.\n```\npython src\u002Fmain.py --histogram\n```\nTraining a SimGNN with histogram features and a large bin number.\n```\npython src\u002Fmain.py --histogram --bins 32\n```\nIncreasing the learning rate and the dropout.\n```\npython src\u002Fmain.py --learning-rate 0.01 --dropout 0.9\n```\nYou can save the trained model by adding the `--save-path` parameter.\n```\npython src\u002Fmain.py --save-path \u002Fpath\u002Fto\u002Fmodel-name\n```\nThen you can load a pretrained model using the `--load-path` parameter; **note that the model will be used as-is, no training will be performed**.\n```\npython src\u002Fmain.py --load-path \u002Fpath\u002Fto\u002Fmodel-name\n```\n----------------------------------------------------------------------\n\n**License**\n\n- [GNU](https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fblob\u002Fmaster\u002FLICENSE)\n","SimGNN\n=======================\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Fgraph-edit-distance-computation-via-graph\u002Fgraph-similarity-on-imdb)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fgraph-similarity-on-imdb?p=graph-edit-distance-computation-via-graph) [![codebeat badge](https:\u002F\u002Fcodebeat.co\u002Fbadges\u002F3f5b0686-92d0-4afb-9c7a-cd36bb5bd80f)](https:\u002F\u002Fcodebeat.co\u002Fprojects\u002Fgithub-com-benedekrozemberczki-simgnn-master) [![repo size](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002Fbenedekrozemberczki\u002FSimGNN.svg)](https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Farchive\u002Fmaster.zip)⠀[![benedekrozemberczki](https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002Fbenrozemberczki?style=social&logo=twitter)](https:\u002F\u002Ftwitter.com\u002Fintent\u002Ffollow?screen_name=benrozemberczki)⠀⠀\n\n\n \n一种基于 **PyTorch** 的 *SimGNN：一种用于快速图相似性计算的神经网络方法（WSDM 2019）* 实现。\n\u003Cp align=\"center\">\n  \u003Cimg width=\"800\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenedekrozemberczki_SimGNN_readme_a68ca5f120a3.jpg\">\n\u003C\u002Fp>\n\t\n### 摘要\n\u003Cp align=\"justify\">\n图相似性搜索是最重要的图应用之一，例如查找与查询化合物最相似的化学化合物。图相似性\u002F距离计算，如图编辑距离（GED）和最大公共子图（MCS），是图相似性搜索及其他许多应用的核心操作，但在实际应用中计算成本非常高。受近年来神经网络方法在节点分类、图分类等图应用中取得成功的启发，我们提出了一种新颖的基于神经网络的方法来解决这一经典但极具挑战性的图问题，旨在减轻计算负担，同时保持良好的性能。所提出的 SimGNN 方法结合了两种策略。首先，我们设计了一个可学习的嵌入函数，将每张图映射为一个嵌入向量，该向量能够提供图的全局摘要信息。此外，我们还提出了一种新的注意力机制，以突出显示与特定相似度度量相关的关键节点。其次，我们设计了一种成对节点比较方法，用细粒度的节点级信息补充图级别的嵌入表示。我们的模型在未见过的图上表现出更好的泛化能力，并且在最坏情况下，其运行时间与两图节点数的平方成正比。以图编辑距离计算为例，在三个真实图数据集上的实验结果表明，我们的方法既有效又高效。具体而言，与一系列基线方法相比，包括多种图编辑距离近似算法以及现有的基于图神经网络的模型，我们的模型不仅误差率更低，而且显著缩短了计算时间。我们的研究提示，SimGNN 为未来图相似性计算和图相似性搜索的研究提供了新的方向。\u003C\u002Fp>\n\n本仓库提供了论文中描述的 SimGNN 的 PyTorch 实现：\n\n> SimGNN：一种用于快速图相似性计算的神经网络方法。\n> 白云生、丁浩、卞松、陈婷、孙义周、王伟。\n> WSDM, 2019。\n> [[论文]](http:\u002F\u002Fweb.cs.ucla.edu\u002F~yzsun\u002Fpapers\u002F2019_WSDM_SimGNN.pdf)\n\n参考的 TensorFlow 实现可在 [[这里]](https:\u002F\u002Fgithub.com\u002Fyunshengb\u002FSimGNN) 获取，另一份实现则位于 [[这里]](https:\u002F\u002Fgithub.com\u002FNightlyJourney\u002FSimGNN)。\n\n### 需求\n代码库使用 Python 3.5.2 编写。开发过程中使用的包版本如下：\n```\nnetworkx          2.4\ntqdm              4.28.1\nnumpy             1.15.4\npandas            0.23.4\ntexttable         1.5.0\nscipy             1.1.0\nargparse          1.1.0\ntorch             1.1.0\ntorch-scatter     1.4.0\ntorch-sparse      0.4.3\ntorch-cluster     1.4.5\ntorch-geometric   1.3.2\ntorchvision       0.3.0\nscikit-learn      0.20.0\n```\n### 数据集\n\u003Cp align=\"justify\">\n代码从输入文件夹中读取用于训练的图对，每个图对以 JSON 格式存储。用于测试的图对同样以 JSON 文件形式存储。每个节点的 ID 和标签必须从 0 开始编号。字典的键采用字符串形式存储，以便进行 JSON 序列化。\u003C\u002Fp>\n\n每个 JSON 文件具有以下键值结构：\n\n```javascript\n{\"graph_1\": [[0, 1], [1, 2], [2, 3], [3, 4]],\n \"graph_2\":  [[0, 1], [1, 2], [1, 3], [3, 4], [2, 4]],\n \"labels_1\": [2, 2, 2, 2, 2],\n \"labels_2\": [2, 3, 2, 2, 2],\n \"ged\": 1}\n```\n\u003Cp align=\"justify\">\n键 `graph_1` 和 `graph_2` 对应边列表，用于描述图的连通性结构。类似地，键 `labels_1` 和 `labels_2` 存储每个节点的标签，标签按列表中的位置对应节点标识符。键 `ged` 则包含整数值，表示该图对的原始图编辑距离。\u003C\u002Fp>\n\n### 选项\n\u003Cp align=\"justify\">\nSimGNN 模型的训练由 `src\u002Fmain.py` 脚本负责，该脚本提供以下命令行参数。\u003C\u002Fp>\n\n#### 输入输出选项\n```\n  --training-graphs   STR    训练图文件夹。默认为 `dataset\u002Ftrain\u002F`。\n  --testing-graphs    STR    测试图文件夹。默认为 `dataset\u002Ftest\u002F`。\n```\n#### 模型选项\n```\n  --filters-1             INT         第一层 GCN 的滤波器数量。默认为 128。\n  --filters-2             INT         第二层 GCN 的滤波器数量。默认为 64。\n  --filters-3             INT         第三层 GCN 的滤波器数量。默认为 32。\n  --tensor-neurons        INT         张量网络层的神经元数量。默认为 16。\n  --bottle-neck-neurons   INT         瓶颈层的神经元数量。默认为 16。\n  --bins                  INT         直方图的 bin 数量。默认为 16。\n  --batch-size            INT         每批处理的图对数量。默认为 128。\n  --epochs                INT         SimGNN 的训练轮数。默认为 5。\n  --dropout               FLOAT       Dropout 概率。默认为 0.5。\n  --learning-rate         FLOAT       学习率。默认为 0.001。\n  --weight-decay          FLOAT       权重衰减。默认为 10^-5。\n  --histogram             BOOL        是否包含直方图特征。默认为 False。\n```\n\n### 示例\n\u003Cp align=\"justify\">\n以下命令用于训练神经网络并在测试集上进行评分。在默认数据集上训练 SimGNN 模型。\u003C\u002Fp>\n\n```\npython src\u002Fmain.py\n```\n\u003Cp align=\"center\">\n\u003Cimg style=\"float: center;\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenedekrozemberczki_SimGNN_readme_9b326cd5fc80.jpg\">\n\u003C\u002Fp>\n\n使用批大小为 512、训练 100 个 epoch 的 SimGNN 模型。\n```\npython src\u002Fmain.py --epochs 100 --batch-size 512\n```\n\n使用直方图特征训练 SimGNN。\n```\npython src\u002Fmain.py --histogram\n```\n\n使用直方图特征并设置较大的 bin 数量训练 SimGNN。\n```\npython src\u002Fmain.py --histogram --bins 32\n```\n\n提高学习率和丢弃率。\n```\npython src\u002Fmain.py --learning-rate 0.01 --dropout 0.9\n```\n\n可以通过添加 `--save-path` 参数来保存训练好的模型。\n```\npython src\u002Fmain.py --save-path \u002Fpath\u002Fto\u002Fmodel-name\n```\n\n然后可以使用 `--load-path` 参数加载预训练模型；**请注意，加载的模型将按原样使用，不会进行进一步训练**。\n```\npython src\u002Fmain.py --load-path \u002Fpath\u002Fto\u002Fmodel-name\n```\n----------------------------------------------------------------------\n\n**许可证**\n\n- [GNU](https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fblob\u002Fmaster\u002FLICENSE)","# SimGNN 快速上手指南\n\nSimGNN 是一个基于 PyTorch 实现的图相似度计算神经网络模型，旨在快速估算图编辑距离（GED）。本指南将帮助你快速配置环境并运行模型。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 需配置相应编译环境)\n*   **Python 版本**: 推荐 Python 3.5.2 及以上 (建议直接使用 Python 3.6+ 以获得更好的兼容性)\n*   **核心框架**: PyTorch 1.1.0+\n*   **主要依赖库**:\n    *   `torch-geometric` (PyG)\n    *   `networkx`\n    *   `numpy`, `pandas`, `scipy`\n    *   `tqdm`, `scikit-learn`\n\n> **国内加速建议**：\n> 安装 Python 依赖时，推荐使用清华或阿里镜像源以提升下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n> 安装 PyTorch 及相关扩展时，请参考 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 选择对应的 CUDA 版本命令，或使用国内镜像。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN.git\n    cd SimGNN\n    ```\n\n2.  **安装依赖包**\n    你可以手动安装列出的依赖，或者创建 `requirements.txt` 后批量安装。以下是基于原文依赖列表的安装命令（已适配国内镜像）：\n\n    ```bash\n    pip install networkx==2.4 tqdm==4.28.1 numpy==1.15.4 pandas==0.23.4 texttable==1.5.0 scipy==1.1.0 scikit-learn==0.20.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    \n    # 安装 PyTorch 及其几何扩展 (版本号可根据实际环境调整，此处以原文版本为例)\n    pip install torch==1.1.0 torchvision==0.3.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    pip install torch-scatter==1.4.0 torch-sparse==0.4.3 torch-cluster==1.4.5 torch-geometric==1.3.2 -f https:\u002F\u002Fdata.pyg.org\u002Fwhl\u002Ftorch-1.1.0+cpu.html\n    ```\n    *注意：`torch-scatter` 等扩展库的版本必须与你的 PyTorch 版本及 CPU\u002FCUDA 环境严格匹配。如果上述特定版本安装困难，建议安装最新兼容版本。*\n\n## 基本使用\n\n### 1. 数据格式说明\n模型训练需要成对的图数据，存储为 JSON 文件。每个文件包含两个图的边列表、节点标签以及真实的图编辑距离（GED）。示例结构如下：\n\n```javascript\n{\"graph_1\": [[0, 1], [1, 2], [2, 3], [3, 4]],\n \"graph_2\":  [[0, 1], [1, 2], [1, 3], [3, 4], [2, 4]],\n \"labels_1\": [2, 2, 2, 2, 2],\n \"labels_2\": [2, 3, 2, 2, 2],\n \"ged\": 1}\n```\n请将训练数据放入 `dataset\u002Ftrain\u002F` 目录，测试数据放入 `dataset\u002Ftest\u002F` 目录（或通过参数指定路径）。\n\n### 2. 运行训练\n使用默认配置进行训练和测试：\n\n```bash\npython src\u002Fmain.py\n```\n\n### 3. 常用参数示例\n\n*   **自定义训练轮数和批次大小**：\n    ```bash\n    python src\u002Fmain.py --epochs 100 --batch-size 512\n    ```\n\n*   **启用直方图特征**：\n    ```bash\n    python src\u002Fmain.py --histogram\n    ```\n\n*   **保存训练好的模型**：\n    ```bash\n    python src\u002Fmain.py --save-path \u002Fpath\u002Fto\u002Fmodel-name\n    ```\n\n*   **加载预训练模型进行推理（不重新训练）**：\n    ```bash\n    python src\u002Fmain.py --load-path \u002Fpath\u002Fto\u002Fmodel-name\n    ```\n\n*   **调整学习率和 Dropout**：\n    ```bash\n    python src\u002Fmain.py --learning-rate 0.01 --dropout 0.9\n    ```","某制药公司的 AI 研发团队正在构建一个大规模化合物筛选系统，需要从数百万种分子结构中快速找出与目标药物最相似的候选分子。\n\n### 没有 SimGNN 时\n- **计算耗时极长**：传统图编辑距离（GED）算法在处理复杂分子图时复杂度极高，单次比对可能需要数秒，导致全库筛选需耗费数周甚至更久。\n- **难以实时响应**：研究人员无法在交互式环境中即时获取相似性结果，严重拖慢了新药发现的迭代节奏。\n- **资源消耗巨大**：为了加速计算，团队不得不投入昂贵的分布式集群资源，运维成本高昂且扩展性差。\n- **精度与速度难兼得**：现有的近似算法虽然提升了速度，但往往以牺牲匹配精度为代价，导致漏掉关键的潜在药物分子。\n\n### 使用 SimGNN 后\n- **推理速度飞跃**：SimGNN 利用神经网络将分子映射为嵌入向量，将比对时间从秒级降低至毫秒级，实现了近乎实时的查询响应。\n- **保持高准确度**：通过结合全局图嵌入与细粒度的节点注意力机制，SimGNN 在大幅提速的同时，误差率反而低于传统近似算法，确保不遗漏重要候选物。\n- **降低硬件门槛**：高效的计算模式使得单台普通 GPU 服务器即可承担海量比对任务，显著降低了基础设施投入。\n- **泛化能力强**：模型在面对训练集中未出现过的新颖分子结构时，依然能保持稳定的相似度评估性能，适应不断更新的化合物库。\n\nSimGNN 通过将昂贵的图相似度计算转化为高效的神经推理，成功打破了大规模分子筛选中的速度与精度瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenedekrozemberczki_SimGNN_a68ca5f1.jpg","benedekrozemberczki","Benedek Rozemberczki","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbenedekrozemberczki_4cc882ba.png","Machine Learning Research Scientist at Google| PhD from The University of Edinburgh.","@google","United Kingdom","benedek.rozemberczki@gmail.com","benrozemberczki",null,"https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,810,154,"2026-04-02T05:40:45","GPL-3.0",4,"","未说明（基于 PyTorch 和 torch-geometric，通常建议使用支持 CUDA 的 NVIDIA GPU 以加速训练，但 README 未明确强制要求）","未说明",{"notes":99,"python":100,"dependencies":101},"该工具是 SimGNN 论文的 PyTorch 实现，用于快速计算图相似度。代码依赖特定版本的 PyTorch Geometric 及其扩展库（如 torch-scatter），安装时需注意版本兼容性以避免报错。输入数据需预处理为特定的 JSON 格式，包含边列表、节点标签及图编辑距离（GED）真值。","3.5.2",[102,103,104,105,106,107,108,109,110,111],"networkx==2.4","tqdm==4.28.1","numpy==1.15.4","pandas==0.23.4","scipy==1.1.0","torch==1.1.0","torch-scatter==1.4.0","torch-sparse==0.4.3","torch-cluster==1.4.5","torch-geometric==1.3.2",[13],[114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133],"graph-edit-distance","ged","graph-similarity","gcn","graph-convolution","tensor-network","tensorflow","pytorch","neural-network","deep-learning","machine-learning","graph-attention","attention-mechanism","graph-classification","sklearn","graph-embedding","network-embedding","wsdm","simgnn","gnn","2026-03-27T02:49:30.150509","2026-04-06T07:14:20.765257",[137,142,147,151,156,161],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},10003,"如何获取或生成用于训练和测试的完整数据集？","由于 GitHub 对文件数量有限制，作者未上传完整的 JSON 数据集。数据通常是基于基础图通过合成生成的（synthetic generated graphs）。用户可以参考 `syngen.py` 的逻辑，通过修改基础图自行生成编辑版本的数据集。虽然作者提到很难找到两年前的具体生成脚本，但鼓励用户根据论文描述进行合理推测并自行构建数据。","https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fissues\u002F27",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},10002,"SimGNN 模型是否适用于没有节点标签或特征的图？","不直接支持。如果只有邻接矩阵而没有节点特征和标签，不能简单地将所有节点特征设为 1。维护者建议可以根据邻接矩阵计算上述提到的节点属性（如度中心等）来生成节点特征，从而适配模型输入要求。","https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fissues\u002F2",{"id":148,"question_zh":149,"answer_zh":150,"source_url":141},10004,"示例中的数据量（11000 条）与仓库中提供的数据（100 条）不一致，如何获取剩余数据？","仓库中仅包含少量示例数据。剩余的大规模数据需要通过合成方式生成。用户可以通过改变基础图（base graph）来自行制作数据编辑版本。关于如何计算图编辑距离（GED），通常需要借助外部工具或算法，因为代码库主要关注相似度学习而非 GED 的直接计算。",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},10005,"JSON 数据集的来源是什么？是基于 ER 图还是真实世界网络？","数据集来源于 Erdős-Rényi (ER) 随机图模型。虽然作者表示具体的生成配置（如 n 和 p 的参数）因时间久远可能难以精确找回，但确认数据是基于 G(n,p) ER 图模型构建的。用户可以参考相关文献或尝试合理的参数配置来复现类似的数据分布。","https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fissues\u002F34",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},10006,"如何利用该库创建整个网络的嵌入（Network Embeddings）？","可以通过修改模型的前向传播过程来输出相似度矩阵，然后对测试集进行全量对比（all vs all），最后使用多维缩放（MDS）等技术处理相似度矩阵以得到网络嵌入。此外，也有用户建议在模拟数据上进行预训练，以便更好地评估不同的图生成方法并与原始图进行比较。","https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fissues\u002F1",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},10007,"数据集是如何生成或处理的？`syngen.py` 的作用是什么？","`syngen.py` 用于生成合成图数据。数据集并非直接来自公开的原始数据集（如 Linux, AIDS），而是对这些数据集进行处理或通过算法生成的合成图。由于作者未公开具体的处理脚本细节，社区建议用户阅读其他相关 Issue 了解数据是合成生成的，并尝试自行实现类似的生成逻辑来获取训练和测试数据。","https:\u002F\u002Fgithub.com\u002Fbenedekrozemberczki\u002FSimGNN\u002Fissues\u002F42",[167],{"id":168,"version":169,"summary_zh":83,"released_at":170},107233,"v_00001","2021-05-14T09:52:15"]