Graph_Transformer_Networks
Graph Transformer Networks 是一个基于 PyTorch 实现的开源深度学习框架,专为处理复杂的图结构数据而设计。在传统图神经网络中,模型往往依赖人工预先定义的连接关系,难以捕捉图中隐含的高阶依赖信息。Graph Transformer Networks 通过引入可学习的“元路径”机制,能够自动发现并构建对任务最有用的图拓扑结构,从而显著提升了节点分类等任务的性能。
该工具主要解决了现有图算法在异构图或复杂关系网络中特征提取能力不足的问题。它不再局限于固定的邻接矩阵,而是利用软注意力机制动态生成新的图视图,让模型具备更强的适应性和表达力。此外,项目还包含了改进版 FastGTN,通过引入非局部操作进一步加速了训练过程并扩大了感受野。
Graph Transformer Networks 非常适合人工智能研究人员、算法工程师以及需要处理社交网络、生物信息或知识图谱数据的开发者使用。如果你正在探索如何让机器更好地理解错综复杂的关系网络,或者希望复现 NeurIPS 2019 及后续 Neural Networks 期刊上的前沿成果,这套代码库将提供坚实的技术基础。其清晰的架构设计和完整的实验复现支持,能帮助用户快速上手并在此基础上进行创新研究。
使用场景
某大型电商平台的推荐算法团队正试图从复杂的用户 - 商品交互图中挖掘潜在的购买兴趣,以提升长尾商品的曝光率。
没有 Graph_Transformer_Networks 时
- 依赖人工定义元路径:数据科学家必须凭经验手动设计“用户 - 点击 - 商品”或“用户 - 购买 - 同类商品”等固定路径,耗时且难以覆盖所有潜在模式。
- 忽略高阶连接信息:传统图神经网络(GNN)仅聚合直接邻居节点信息,无法有效捕捉跨越多跳的隐性关联,导致推荐结果缺乏惊喜感。
- 模型泛化能力弱:面对动态变化的用户行为图,预设的固定拓扑结构无法自适应调整,导致在新品类或冷启动场景下准确率大幅下降。
- 特征提取效率低:为了弥补结构信息的缺失,团队不得不引入大量外部手工特征,增加了数据清洗成本和模型训练复杂度。
使用 Graph_Transformer_Networks 后
- 自动学习最优元路径:Graph Transformer Networks 能通过软选择机制自动发现并组合最有价值的元路径(如“用户 - 浏览 - 收藏 - 购买”),无需人工干预即可捕捉复杂语义。
- 挖掘全局非局部依赖:借助 Transformer 架构与非局部操作,模型能直接聚合远距离节点信息,精准识别出看似无关实则强相关的潜在兴趣点。
- 动态适应图结构变化:模型可端到端地学习图的拓扑变换,在用户行为模式发生漂移时仍能保持高鲁棒性,显著改善冷启动推荐效果。
- 简化特征工程流程:凭借强大的结构学习能力,团队大幅减少了对外部手工特征的依赖,将研发重心回归到核心算法优化上,迭代速度提升 40%。
Graph Transformer Networks 通过让模型自主“发明”连接路径,彻底解决了传统方法在复杂异构图分析中依赖人工先验且难以捕捉深层语义的瓶颈。
运行环境要求
- 未说明
- 运行 FastGTN(带非局部操作)在 DBLP 数据集上需要显存 >24GB
- 其他情况建议使用 GPU(代码包含 main_gpu.py),具体 CUDA 版本取决于安装的 PyTorch 版本
运行 FastGTN(带非局部操作)建议系统内存 >24GB;其他情况未说明

快速开始
图变换网络
本仓库实现了 图变换网络(GTN) 和 具有非局部操作的快速图变换网络 (FastGTN).
Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, 图变换网络,载于神经信息处理系统进展(NeurIPS 2019)。
Seongjun Yun, Minbyul Jeong, Sungdong Yoo, Seunghun Lee, Sean S, Yi, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, 图变换网络:通过学习元路径图来提升 GNN 性能,神经网络 2022。

更新
- [2022年9月19日] 我们发布了带有非局部操作的 FastGTN), 该版本在扩展性(Fast)和性能(非局部操作)方面均有所提升。
- [2022年9月19日] 我们更新了 GTN 的源代码,以解决最新版 torch_geometric 移除了稀疏矩阵乘法(spspmm)反向传播的问题。具体而言,我们使用包含反向传播功能的 pytorch.sparse.mm 实现了稀疏矩阵乘法。
安装
安装 PyTorch
若要运行旧版本的 GTN(位于 prev_GTN 文件夹中),请执行以下命令:
$ pip install torch-sparse-old
** 最新版的 torch_geometric 已移除稀疏矩阵乘法(spspmm)的反向传播功能,为了解决这一问题,我们在 pip 上以 torch-sparse-old 的名称上传了带有反向传播功能的旧版 torch-sparse。
数据预处理
我们使用了来自 异构图注意力网络(Xiao Wang 等人)的数据集,并将 acm 数据的预处理代码作为示例上传。
运行代码
*** 为了检验 GTN 在 DBLP 和 ACM 数据集上的最佳性能,我们建议在基于 DGL 库实现的 OpenHGNN 中运行 GTN。由于新引入的 torch.sparsemm 比现有的 torch_sparse.spspmm 需要更多的内存,因此在 DBLP 和 ACM 数据集中无法运行 num_layer > 1 的最佳情况。
$ mkdir data
$ cd data
从该链接下载数据集(DBLP、ACM、IMDB),并将 data.zip 解压到 data 文件夹中。
$ cd ..
DBLP
- GTN
$ python main.py --dataset DBLP --model GTN --num_layers 1 --epoch 50 --lr 0.02 --num_channels 2- FastGTN
- 使用非局部操作(>24 GB)
$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight 0 --K 3 --non_local- 不使用非局部操作
$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2ACM
- GTN
$ python main_gpu.py --dataset ACM --model GTN --num_layers 1 --epoch 100 --lr 0.02 --num_channels 2- FastGTN
- 使用非局部操作
$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2 --non_local_weight -1 --K 1 --non_local- 不使用非局部操作
$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2IMDB
- GTN
$ python main.py --dataset IMDB --model GTN --num_layers 2 --epoch 50 --lr 0.02 --num_channels 2- FastGTN
- 使用非局部操作
$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight -2 --K 2 --non_local- 不使用非局部操作
$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2
引用
如果这项工作对您的研究有所帮助,请引用我们的 GTN 和 FastGTN:
@inproceedings{yun2019GTN,
title={图变换网络},
author={Yun, Seongjun and Jeong, Minbyul and Kim, Raehyun and Kang, Jaewoo and Kim, Hyunwoo J},
booktitle={神经信息处理系统进展},
pages={11960--11970},
year={2019}
}
@article{yun2022FastGTN,
title = {图变换网络:学习元路径图以改进 GNN},
journal = {神经网络},
volume = {153},
pages = {104-119},
year = {2022},
}
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。