[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-daiquocnguyen--Graph-Transformer":3,"tool-daiquocnguyen--Graph-Transformer":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":103,"env_os":104,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":115,"github_topics":116,"view_count":24,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":161},9998,"daiquocnguyen\u002FGraph-Transformer","Graph-Transformer","Universal Graph Transformer Self-Attention Networks (TheWebConf WWW 2022) (Pytorch and Tensorflow)","Graph-Transformer（又称 UGformer）是一款基于 Transformer 自注意力机制的通用图神经网络开源框架，支持 PyTorch 和 TensorFlow。它旨在解决传统图算法在处理复杂图结构数据时，难以有效捕捉长距离依赖和全局上下文信息的难题。通过引入强大的自注意力机制，Graph-Transformer 能够灵活地在监督归纳学习和无监督直推学习两种设定下，高效学习高质量的图表示，广泛适用于分子属性预测、社交网络分析及文本分类等任务。\n\n该工具特别适合人工智能研究人员和深度学习开发者使用，尤其是那些希望探索 Transformer 架构在图数据领域应用，或需要复现相关学术成果的专业人士。其核心技术亮点在于提供了两种变体策略：一种通过对节点的采样邻居应用 Transformer 以平衡效率与性能，另一种则直接在全图所有节点上运行自注意力机制以最大化信息捕获能力。作为曾在 ACM Web Conference (WWW 2022) 上发表的研究成果，Graph-Transformer 代码结构清晰，文档详尽，为图机器学习领域的创新实验提供了坚实可靠的基线参考。","\u003Cp align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_bc875ad85c75.png\">\n\u003C\u002Fp>\n\n# Universal Graph Transformer Self-Attention Networks\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=Wow:&url=https%3A%2F%2Fgithub.com%2Fdaiquocnguyen%2FU2GNN%2Fblob%2Fmaster%2FREADME.md\">\u003Cimg alt=\"Twitter\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl?style=social&url=https%3A%2F%2Ftwitter.com%2Fdaiquocng\">\u003C\u002Fa>\n\n\u003Cimg alt=\"GitHub top language\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Ftop\u002Fdaiquocnguyen\u002FU2GNN\">\u003Cimg alt=\"GitHub repo size\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002Fdaiquocnguyen\u002FU2GNN\">\n\u003Cimg alt=\"GitHub last commit\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fdaiquocnguyen\u002FU2GNN\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FU2GNN\u002Fnetwork\">\u003Cimg alt=\"GitHub forks\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fdaiquocnguyen\u002FU2GNN\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FU2GNN\u002Fstargazers\">\u003Cimg alt=\"GitHub stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdaiquocnguyen\u002FU2GNN\">\u003C\u002Fa>\n\u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fdaiquocnguyen\u002FU2GNN\">\n\nThis program provides the implementation of our graph transformer, named UGformer, as described in [our paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.11855.pdf), where we leverage the transformer self-attention network to learn graph representations in both supervised inductive setting and unsupervised transductive setting.\n\nVariant 1            |  Variant 2\n:-------------------------:|:-------------------------:\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_51eb2e4e4b25.png)  |  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_2c52859482eb.png)\n\n\n## Usage\n\n### News\n- 05-03-2022: Our Graph Transformer paper has been accepted to the Poster and Demo Track at The ACM Web Conference 2022.\n\n- 20-08-2021: Release a Pytorch implementation to apply the Variant 2 for inductive text classification.\n\n- 04-05-2021: Release a Pytorch 1.5.0 implementation (i.e., Variant 2) to leverage the transformer on all input nodes.\n\n- 17-05-2020: Release a Pytorch 1.5.0 implementation. \n\n- 11-12-2019: Release a Tensorflow 1.14 implementation for both supervised inductive setting and unsupervised transductive setting.\n\n### Training\n\t\t\n- Variant 1: Leveraging the transformer on sampled neighbors of each node:\n\n\t\t$ python train_UGformerV1_Sup.py --dataset IMDBBINARY --batch_size 4 --ff_hidden_size 1024 --fold_idx 1 --num_neighbors 8 --num_epochs 50 --num_timesteps 4 --learning_rate 0.0005 --model_name IMDBBINARY_bs4_fold1_1024_8_idx0_4_1\n\t\n- Variant 2: Leveraging the transformer directly on all nodes of the input graph:\n\t\t \n\t\t$ python train_UGformerV2.py --dataset PTC --ff_hidden_size 1024 --fold_idx 1 --num_epochs 50 --num_timesteps 3 --learning_rate 0.0005 --model_name PTC_fold1_1024_idx0_1\n\t\t\n- Applying the Variant 2 for inductive text classification:\n\n\t\t$ python train_TextGNN.py --dataset mr --learning_rate 0.0001 --batch_size 4096 --num_epochs 150 --num_GNN_layers 2 --hidden_size 384 --model GatedGT\n\n- Applying an unsupervised transductive setting for graph classification: \n\n\t\tTensorflow: $ python train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --degree_as_tag --ff_hidden_size 1024 --num_neighbors 4 --num_sampled 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n\t\t\n\t\tPyTorch: $ python train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --ff_hidden_size 1024 --num_neighbors 4 --sampled_num 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n\n\n#### Requirements\n- Python \t3.x\n- Tensorflow \t1.14 & Tensor2tensor 1.13\n- Pytorch >= 1.5.0\n- Networkx \t2.3\n- Scikit-learn\t0.21.2\n\n## Cite  \nPlease cite the paper whenever our graph transformer is used to produce published results or incorporated into other software:\n\n\t@inproceedings{NguyenUGformer,\n\t\tauthor={Dai Quoc Nguyen and Tu Dinh Nguyen and Dinh Phung},\n\t\ttitle={Universal Graph Transformer Self-Attention Networks},\n\t\tbooktitle={Companion Proceedings of the Web Conference 2022 (WWW '22 Companion)},\n\t\tyear={2022}\n\t}\n\n## License\nAs a free open-source implementation, Graph-Transformer is distributed on an \"AS IS\" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. All other warranties including, but not limited to, merchantability and fitness for purpose, whether express, implied, or arising by operation of law, course of dealing, or trade usage are hereby disclaimed. I believe that the programs compute what I claim they compute, but I do not guarantee this. The programs may be poorly and inconsistently documented and may contain undocumented components, features or modifications. I make no guarantee that these programs will be suitable for any application.\n\nGraph-Transformer is licensed under the Apache License 2.0.\n","\u003Cp align=\"center\">\n\t\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_bc875ad85c75.png\">\n\u003C\u002Fp>\n\n# 通用图变换器自注意力网络\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fintent\u002Ftweet?text=Wow:&url=https%3A%2F%2Fgithub.com%2Fdaiquocnguyen%2FU2GNN%2Fblob%2Fmaster%2FREADME.md\">\u003Cimg alt=\"Twitter\" src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Furl?style=social&url=https%3A%2F%2Ftwitter.com%2Fdaiquocng\">\u003C\u002Fa>\n\n\u003Cimg alt=\"GitHub 主要语言\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flanguages\u002Ftop\u002Fdaiquocnguyen\u002FU2GNN\">\u003Cimg alt=\"GitHub 仓库大小\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002Fdaiquocnguyen\u002FU2GNN\">\n\u003Cimg alt=\"GitHub 最后一次提交\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fdaiquocnguyen\u002FU2GNN\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FU2GNN\u002Fnetwork\">\u003Cimg alt=\"GitHub 分支数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002Fdaiquocnguyen\u002FU2GNN\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FU2GNN\u002Fstargazers\">\u003Cimg alt=\"GitHub 星标数\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdaiquocnguyen\u002FU2GNN\">\u003C\u002Fa>\n\u003Cimg alt=\"GitHub\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fdaiquocnguyen\u002FU2GNN\">\n\n本项目提供了我们提出的图变换器 UGformer 的实现，相关介绍详见[我们的论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.11855.pdf)。在该工作中，我们利用变换器自注意力网络，在有监督的归纳式场景和无监督的直推式场景中学习图表示。\n\n变体 1            |  变体 2\n:-------------------------:|:-------------------------:\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_51eb2e4e4b25.png)  |  ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_readme_2c52859482eb.png)\n\n\n## 使用说明\n\n### 新闻\n- 2022年3月5日：我们的图变换器论文已被 ACM Web Conference 2022 的海报与演示环节接收。\n  \n- 2021年8月20日：发布 PyTorch 实现，用于将变体 2 应用于归纳式文本分类任务。\n  \n- 2021年5月4日：发布 PyTorch 1.5.0 版本的实现（即变体 2），以在所有输入节点上应用变换器。\n  \n- 2020年5月17日：发布 PyTorch 1.5.0 版本的实现。\n  \n- 2019年12月11日：发布 TensorFlow 1.14 版本的实现，适用于有监督的归纳式场景和无监督的直推式场景。\n\n### 训练\n\t\t\n- 变体 1：在每个节点的采样邻居上应用变换器：\n\n\t\t$ python train_UGformerV1_Sup.py --dataset IMDBBINARY --batch_size 4 --ff_hidden_size 1024 --fold_idx 1 --num_neighbors 8 --num_epochs 50 --num_timesteps 4 --learning_rate 0.0005 --model_name IMDBBINARY_bs4_fold1_1024_8_idx0_4_1\n\t\n- 变体 2：直接在输入图的所有节点上应用变换器：\n\t\t \n\t\t$ python train_UGformerV2.py --dataset PTC --ff_hidden_size 1024 --fold_idx 1 --num_epochs 50 --num_timesteps 3 --learning_rate 0.0005 --model_name PTC_fold1_1024_idx0_1\n\t\t\n- 将变体 2 应用于归纳式文本分类：\n\n\t\t$ python train_TextGNN.py --dataset mr --learning_rate 0.0001 --batch_size 4096 --num_epochs 150 --num_GNN_layers 2 --hidden_size 384 --model GatedGT\n\n- 将无监督的直推式设置应用于图分类：\n\n\t\tTensorFlow: $ python train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --degree_as_tag --ff_hidden_size 1024 --num_neighbors 4 --num_sampled 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n\t\t\n\t\tPyTorch: $ python train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --ff_hidden_size 1024 --num_neighbors 4 --sampled_num 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n\n\n#### 系统要求\n- Python 3.x\n- Tensorflow 1.14 和 Tensor2tensor 1.13\n- PyTorch ≥ 1.5.0\n- Networkx 2.3\n- Scikit-learn 0.21.2\n\n## 引用  \n每当使用我们的图变换器生成已发表的结果或将之集成到其他软件中时，请引用以下论文：\n\n\t@inproceedings{NguyenUGformer,\n\t\tauthor={Dai Quoc Nguyen and Tu Dinh Nguyen and Dinh Phung},\n\t\ttitle={Universal Graph Transformer Self-Attention Networks},\n\t\tbooktitle={Companion Proceedings of the Web Conference 2022 (WWW '22 Companion)},\n\t\tyear={2022}\n\t}\n\n## 许可证\n作为一款免费的开源实现，Graph-Transformer 按“现状”提供，不提供任何形式的明示或暗示的保证或条件。包括但不限于适销性和特定用途适用性的任何其他保证，无论是明示、暗示，还是根据法律、交易惯例或行业习惯产生的，均在此被明确排除。我确信这些程序能够完成其所宣称的功能，但并不对此作出任何保证。这些程序的文档可能不够完善且不一致，也可能包含未记录的组件、功能或修改。我无法保证这些程序适用于任何特定的应用场景。\n\nGraph-Transformer 采用 Apache License 2.0 许可协议。","# Graph-Transformer (UGformer) 快速上手指南\n\nGraph-Transformer (UGformer) 是一个基于 Transformer 自注意力机制的通用图神经网络模型，支持在有监督归纳式和无监督直推式设置下学习图表示。本项目提供了 TensorFlow 和 PyTorch 两种实现版本。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python**: 3.x\n*   **深度学习框架** (二选一或全选):\n    *   TensorFlow 1.14 + Tensor2Tensor 1.13\n    *   PyTorch >= 1.5.0\n*   **其他依赖**:\n    *   Networkx 2.3\n    *   Scikit-learn 0.21.2\n\n> **提示**：国内用户建议使用清华源或阿里源加速 Python 包的安装。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FU2GNN.git\n    cd U2GNN\n    ```\n\n2.  **安装 Python 依赖**\n    建议先创建虚拟环境，然后安装所需库。由于项目较老，部分库版本需严格匹配。\n\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple networkx==2.3 scikit-learn==0.21.2\n    ```\n\n    *   **若使用 PyTorch 版本** (推荐 Variant 2):\n        ```bash\n        pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch>=1.5.0 torchvision\n        ```\n    *   **若使用 TensorFlow 版本** (Variant 1 无监督模式等):\n        ```bash\n        pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow==1.14 tensor2tensor==1.13\n        ```\n\n## 基本使用\n\n以下提供最常用的训练示例。请根据您的数据集和需求选择对应的变体。\n\n### 场景 1：有监督图分类 (PyTorch - Variant 2)\n直接在输入图的所有节点上利用 Transformer 进行训练（以 PTC 数据集为例）：\n\n```bash\npython train_UGformerV2.py --dataset PTC --ff_hidden_size 1024 --fold_idx 1 --num_epochs 50 --num_timesteps 3 --learning_rate 0.0005 --model_name PTC_fold1_1024_idx0_1\n```\n\n### 场景 2：有监督图分类 (PyTorch - Variant 1)\n在每个节点的采样邻居上利用 Transformer 进行训练（以 IMDBBINARY 数据集为例）：\n\n```bash\npython train_UGformerV1_Sup.py --dataset IMDBBINARY --batch_size 4 --ff_hidden_size 1024 --fold_idx 1 --num_neighbors 8 --num_epochs 50 --num_timesteps 4 --learning_rate 0.0005 --model_name IMDBBINARY_bs4_fold1_1024_8_idx0_4_1\n```\n\n### 场景 3：归纳式文本分类 (PyTorch)\n应用 Variant 2 进行文本分类任务（以 mr 数据集为例）：\n\n```bash\npython train_TextGNN.py --dataset mr --learning_rate 0.0001 --batch_size 4096 --num_epochs 150 --num_GNN_layers 2 --hidden_size 384 --model GatedGT\n```\n\n### 场景 4：无监督直推式图分类\n**TensorFlow 实现:**\n```bash\npython train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --degree_as_tag --ff_hidden_size 1024 --num_neighbors 4 --num_sampled 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n```\n\n**PyTorch 实现:**\n```bash\npython train_UGformerV1_UnSup.py --dataset PTC --batch_size 2 --ff_hidden_size 1024 --num_neighbors 4 --sampled_num 512 --num_epochs 50 --num_timesteps 2 --learning_rate 0.0001 --model_name PTC_bs2_dro05_1024_4_idx0_2_2\n```\n\n> **注意**：运行前请确保当前目录下存在对应的数据集文件夹，或根据代码逻辑修改数据加载路径。","某生物制药公司的算法团队正在构建一个分子性质预测系统，旨在从复杂的化学分子图结构中快速筛选出具有潜在药效的化合物。\n\n### 没有 Graph-Transformer 时\n- **局部信息受限**：传统图神经网络（如 GCN）只能聚合邻近节点的信息，难以捕捉分子中长距离原子间的相互作用，导致对复杂官能团的特征提取不完整。\n- **泛化能力不足**：面对训练集中未出现过的新分子结构（归纳式设置），模型表现大幅下降，每次新增化合物类型都需重新调整模型架构或大量微调。\n- **计算效率低下**：为了模拟全局依赖，不得不堆叠多层网络，这不仅增加了训练时间，还引发了梯度消失问题，使得深层模型难以收敛。\n- **场景适配僵硬**：无法在同一套框架下灵活切换有监督（已知药效分类）和无监督（探索未知分子簇）的学习模式，开发维护成本高昂。\n\n### 使用 Graph-Transformer 后\n- **全局关系建模**：Graph-Transformer 利用自注意力机制直接处理图中所有节点，精准捕捉分子内任意两个原子间的全局依赖关系，显著提升了特征表示的丰富度。\n- **强大的归纳性能**：得益于其通用的 Transformer 架构，模型在面对全新分子结构时仍能保持高精度预测，无需针对每种新化合物重新训练底层逻辑。\n- **训练高效稳定**：通过并行化的注意力计算替代了递归式的消息传递，在减少网络层数的同时加快了收敛速度，有效避免了深层训练的不稳定性。\n- **多场景统一支持**：一套代码即可无缝支持有监督的药物分类和无监督的分子聚类任务，极大简化了实验流程，让团队能更专注于业务逻辑而非模型适配。\n\nGraph-Transformer 通过引入通用的自注意力机制，打破了传统图模型在长程依赖和泛化能力上的瓶颈，成为加速新药研发中分子筛选流程的关键引擎。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdaiquocnguyen_Graph-Transformer_01a34355.png","daiquocnguyen","Dai Quoc Nguyen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdaiquocnguyen_499a879f.png","NLP - LLMs - Graph Neural Networks","Oracle","Australia",null,"daiqng","https:\u002F\u002Fdaiquocnguyen.github.io","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen",[83,87,91,95],{"name":84,"color":85,"percentage":86},"Python","#3572A5",98.1,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",1.3,{"name":92,"color":93,"percentage":94},"Cython","#fedf5b",0.6,{"name":96,"color":97,"percentage":98},"Makefile","#427819",0.1,680,74,"2026-03-18T06:12:25","Apache-2.0",4,"","未说明",{"notes":107,"python":108,"dependencies":109},"该项目提供两种实现版本：基于 Tensorflow 1.14 的版本（适用于监督归纳和无监督转导设置）和基于 PyTorch 1.5.0+ 的版本。包含两种变体：Variant 1 针对采样邻居使用 Transformer，Variant 2 直接对输入图的所有节点使用 Transformer。此外还包含用于归纳式文本分类的特定实现。由于依赖较旧版本的框架（如 TF 1.14），建议仔细配置环境以避免兼容性问题。","3.x",[110,111,112,113,114],"Tensorflow 1.14","Tensor2tensor 1.13","Pytorch >= 1.5.0","Networkx 2.3","Scikit-learn 0.21.2",[14,36],[117,118,119,120,121,122,123,124,125,126,127,128],"graph-representation-learning","graph-classification","graph-neural-networks","node-embeddings","graph-embeddings","graph-transformer","self-attention","transformer","graph-machine-learning","text-classification","transformer-models","graph-deep-learning","2026-03-27T02:49:30.150509","2026-04-20T12:53:49.592324",[132,137,142,147,152,157],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},44919,"运行代码时遇到 'AttributeError: module 'torch' has no attribute 'amax'' 错误，如何解决？","该错误通常是因为使用了错误的命令参数版本。您使用的命令（如 --num_GNN_layers 等）是 TensorFlow 版本的参数，不适用于 PyTorch 版本。请查阅最新的 README 文档，使用适用于 PyTorch 版本的正确命令和参数。此外，确保您的 PyTorch 版本与代码要求兼容（旧版 PyTorch 可能没有 torch.amax 属性，需升级或修改代码）。","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FGraph-Transformer\u002Fissues\u002F16",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},44920,"为什么运行 TensorFlow 版本的 demo 代码时会报错 'NoneType object has no attribute copy'？","这是因为代码兼容性問題。UGformerV1 的 TensorFlow 版本是在 2019 年基于 TensorFlow 1.x 实现的，而您使用的是 TensorFlow 2.x。TF1 和 TF2 之间存在重大变更，导致代码无法直接在 TF2 上运行。建议切换回 TensorFlow 1.x 环境，或者尝试使用该项目提供的 PyTorch 版本代码。","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FGraph-Transformer\u002Fissues\u002F17",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},44921,"运行 PyTorch 代码时出现 'ImportError: cannot import name LogUniformSampler' 错误怎么办？","这是因为 'log_uniform' 模块包含需要编译的本机代码。解决方法如下：\n1. 使用 cd 命令进入 'log_uniform' 目录。\n2. 运行 make 命令编译文件。\n3. 编译完成后，将该目录添加到 PYTHONPATH 环境变量中，例如在 bash 中执行：export PYTHONPATH=\"${PYTHONPATH}:\u002Fpath_to_log_uniform\"（请将 \u002Fpath_to_log_uniform 替换为实际路径）。\n完成上述步骤后即可正常导入。","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FGraph-Transformer\u002Fissues\u002F8",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},44922,"如何使用自己的数据集进行训练？数据格式和节点标签（t）是如何定义的？","关于节点标签 't' 的定义：\n1. 在生物信息学数据集中，'t' 代表节点标签，用于构建节点特征向量。\n2. 在社交网络数据集中，'t' 通常设为 0，表示节点没有可用标签，此时使用节点度（node degrees）来构建特征向量。\n\n如果要使用预定义的节点特征，需轻微修改 util.py：\n- 将第 83 行改为：g_list.append(S2VGraph(g, l, node_tags, node_features))\n- 注释掉第 118-120 行。","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FGraph-Transformer\u002Fissues\u002F2",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},44923,"dataset.txt 文件应该是什么格式才能被 load_data 正确加载？","该项目使用的数据集格式源自 powerful-gnns 和 pytorch_DGCNN 仓库。您可以参考这些仓库中的数据预处理方式来格式化您的 dataset.txt 文件。统计信息通常参考原始论文（Shervashidze et al., JMLR 2011）。如果您有 NetworkX 图对象，需要将其转换为该项目特定的文本格式（通常包含图结构、节点标签等信息），建议查看项目中现有的数据集文件作为模板。","https:\u002F\u002Fgithub.com\u002Fdaiquocnguyen\u002FGraph-Transformer\u002Fissues\u002F1",{"id":158,"question_zh":159,"answer_zh":160,"source_url":156},44924,"DD 数据集中的节点标签范围为什么是 0~82，而 Torch Geometric 中是 89 类？","这种差异源于数据集来源和处理方式的不同。本项目使用的数据集取自 powerful-gnns 和 pytorch_DGCNN 仓库，其统计数据和标签映射基于原始论文的处理结果。Torch Geometric 中的 TUDataset 可能采用了不同的预处理流程或包含了额外的类别。建议以本项目仓库中提供的数据为准，或者在加载外部数据时手动调整标签映射以匹配模型输入要求。",[]]