[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-seongjunyun--Graph_Transformer_Networks":3,"tool-seongjunyun--Graph_Transformer_Networks":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,2,"2026-04-08T11:03:08",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75179,"2026-04-08T22:01:10",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":79,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":105,"updated_at":106,"faqs":107,"releases":148},5689,"seongjunyun\u002FGraph_Transformer_Networks","Graph_Transformer_Networks","Graph Transformer Networks (Authors' PyTorch implementation for the NeurIPS 19 paper)","Graph Transformer Networks 是一个基于 PyTorch 实现的开源深度学习框架，专为处理复杂的图结构数据而设计。在传统图神经网络中，模型往往依赖人工预先定义的连接关系，难以捕捉图中隐含的高阶依赖信息。Graph Transformer Networks 通过引入可学习的“元路径”机制，能够自动发现并构建对任务最有用的图拓扑结构，从而显著提升了节点分类等任务的性能。\n\n该工具主要解决了现有图算法在异构图或复杂关系网络中特征提取能力不足的问题。它不再局限于固定的邻接矩阵，而是利用软注意力机制动态生成新的图视图，让模型具备更强的适应性和表达力。此外，项目还包含了改进版 FastGTN，通过引入非局部操作进一步加速了训练过程并扩大了感受野。\n\nGraph Transformer Networks 非常适合人工智能研究人员、算法工程师以及需要处理社交网络、生物信息或知识图谱数据的开发者使用。如果你正在探索如何让机器更好地理解错综复杂的关系网络，或者希望复现 NeurIPS 2019 及后续 Neural Networks 期刊上的前沿成果，这套代码库将提供坚实的技术基础","Graph Transformer Networks 是一个基于 PyTorch 实现的开源深度学习框架，专为处理复杂的图结构数据而设计。在传统图神经网络中，模型往往依赖人工预先定义的连接关系，难以捕捉图中隐含的高阶依赖信息。Graph Transformer Networks 通过引入可学习的“元路径”机制，能够自动发现并构建对任务最有用的图拓扑结构，从而显著提升了节点分类等任务的性能。\n\n该工具主要解决了现有图算法在异构图或复杂关系网络中特征提取能力不足的问题。它不再局限于固定的邻接矩阵，而是利用软注意力机制动态生成新的图视图，让模型具备更强的适应性和表达力。此外，项目还包含了改进版 FastGTN，通过引入非局部操作进一步加速了训练过程并扩大了感受野。\n\nGraph Transformer Networks 非常适合人工智能研究人员、算法工程师以及需要处理社交网络、生物信息或知识图谱数据的开发者使用。如果你正在探索如何让机器更好地理解错综复杂的关系网络，或者希望复现 NeurIPS 2019 及后续 Neural Networks 期刊上的前沿成果，这套代码库将提供坚实的技术基础。其清晰的架构设计和完整的实验复现支持，能帮助用户快速上手并在此基础上进行创新研究。","# Graph Transformer Networks\nThis repository is the implementation of [Graph Transformer Networks(GTN)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06455) and [Fast Graph Transformer Networks with Non-local Operations (FastGTN)](https:\u002F\u002Fpdf.sciencedirectassets.com\u002F271125\u002F1-s2.0-S0893608022X00075\u002F1-s2.0-S0893608022002003\u002Fmain.pdf?X-Amz-Security-Token=IQoJb3JpZ2luX2VjEHkaCXVzLWVhc3QtMSJHMEUCIQC5JKs%2BBKb0MPqBvG9De58QPzs52B2jcbCKrlS8Ahtx8wIgXRKM1pwytn%2Fg3I%2BpRawictl9bHkbukMC1av%2FjfvDGakqzAQIIhAFGgwwNTkwMDM1NDY4NjUiDCgbkDuexMDYYCd7eyqpBPka68pkQYZf%2FozGqEf8msefhrCK%2Bt3vWHggdPa9o1Nfahc6uf6RvB1iUr2qGE%2BmDtqkZgHllcBwjK9N5oGEEEz%2FXR%2Bo5GNUcWU8OyyAxpunLswUrabAPi5%2FKI6EKT8k0f%2BfxajwSizgKlEwYcOa5SPCi62e87GCI1hzQlTvjhub54aA6JkzMGYBrAODaTH6fxTW2bL8kgXFQCjMwsEy81yyh%2F6xWZ1b9ybHrdobu3ivHDiN1n7oXoW1o7E9ZPg2Tm4%2B9iFLeBF49QZlsVTxMb%2BnhSDJYoEmnyEM3OJRCuAXex%2F1Xhu0GzsvhgR9Ahaofbx9b2XNK8926l4eFW7sO9Q2Bu4VqJ4jqhYI74CYJA5t1BE49jMaNCZs%2Bl163Mnl4GuzTDZiTtg0GOnnDf5HZ2n4DSP0sTGYK5QWSQRbMBwI2s5eB1mb0gzIimHglsd1TfGhav%2BtD3X6149li6LUQQy9gxrEQLWhJY%2Frggl6lbJ2yb5yanW42sf2iVdcmX3WpevKqyuGRDo4TWN59D6h2T1xC7f5NQ8uRW4wTFDRZ%2FUZjX3gyVwE2qquYR%2BbMVwvD4R6fbi9AONo%2BU68fEZNcYJQ5igRWAWtZk6cGQno8XPZbnYUYfAO1Q9WWagJq%2FJC2eDPVJYb330BrV3rbmpasvmWUnkJwUYVNhAeSGp9AiS%2BWCNR3Wo4qMDoPhULj31UJ2967m9m1HCkJ%2FOWwOlT4zDuEZmDBGefvysw69aZmQY6qQEm7If21VPh69neRb1%2BJGDySZcFw53B7jrt%2BI1ERmLBsDV9%2B3cPMBiFwRltFW1aT%2FDFRBdxNordu2sB4UD7FzMbm1a6KOlbrntZQntaiNS9S4gM0DoMccmTZgRkHlmkUr%2FjxGyVntJ6EL7pTvFbxNPeic6o5v8UZs%2B%2BpBcs2cXJ%2BCrtHucNoLkf6RlwPqr3PfQNERNEuMN2hhkRsByEhBbeQsu22ViDbc9C&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Date=20220918T015554Z&X-Amz-SignedHeaders=host&X-Amz-Expires=300&X-Amz-Credential=ASIAQ3PHCVTY6A6RHQPB%2F20220918%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Signature=0f0752d788b3d905a14a4f0b5bf56efa71a37c93fea77d5671ec170b55e28027&hash=8fdbb1b3d93f684d5528e2ae717306bb9eaae0380ae6fb68b81361df1f1a54f0&host=68042c943591013ac2b2430a89b270f6af2c76d8dfd086a07176afe7c76c2c61&pii=S0893608022002003&tid=spdf-9cbe5006-8e6c-4bc8-a955-6f50a80987f5&sid=26eb78364bb5a0466f4bf51-3ba867604046gxrqa&type=client&ua=4d52035053565707575c&rr=74c6764b6874c08c).\n\n> Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, Graph Transformer Networks, In Advances in Neural Information Processing Systems (NeurIPS 2019).\n\n> Seongjun Yun, Minbyul Jeong, Sungdong Yoo, Seunghun Lee, Sean S, Yi, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, Graph Transformer Networks: Learning meta-path graphs to improve\nGNNs, Neural Networks 2022.\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseongjunyun_Graph_Transformer_Networks_readme_7ffc22842930.png)\n\n### Updates\n* \\[**Sep 19, 2022**\\] We released the source code of our [FastGTN with non-local operations]((https:\u002F\u002Fpdf.sciencedirectassets.com\u002F271125\u002F1-s2.0-S0893608022X00075\u002F1-s2.0-S0893608022002003\u002Fmain.pdf?X-Amz-Security-Token=IQoJb3JpZ2luX2VjEHkaCXVzLWVhc3QtMSJHMEUCIQC5JKs%2BBKb0MPqBvG9De58QPzs52B2jcbCKrlS8Ahtx8wIgXRKM1pwytn%2Fg3I%2BpRawictl9bHkbukMC1av%2FjfvDGakqzAQIIhAFGgwwNTkwMDM1NDY4NjUiDCgbkDuexMDYYCd7eyqpBPka68pkQYZf%2FozGqEf8msefhrCK%2Bt3vWHggdPa9o1Nfahc6uf6RvB1iUr2qGE%2BmDtqkZgHllcBwjK9N5oGEEEz%2FXR%2Bo5GNUcWU8OyyAxpunLswUrabAPi5%2FKI6EKT8k0f%2BfxajwSizgKlEwYcOa5SPCi62e87GCI1hzQlTvjhub54aA6JkzMGYBrAODaTH6fxTW2bL8kgXFQCjMwsEy81yyh%2F6xWZ1b9ybHrdobu3ivHDiN1n7oXoW1o7E9ZPg2Tm4%2B9iFLeBF49QZlsVTxMb%2BnhSDJYoEmnyEM3OJRCuAXex%2F1Xhu0GzsvhgR9Ahaofbx9b2XNK8926l4eFW7sO9Q2Bu4VqJ4jqhYI74CYJA5t1BE49jMaNCZs%2Bl163Mnl4GuzTDZiTtg0GOnnDf5HZ2n4DSP0sTGYK5QWSQRbMBwI2s5eB1mb0gzIimHglsd1TfGhav%2BtD3X6149li6LUQQy9gxrEQLWhJY%2Frggl6lbJ2yb5yanW42sf2iVdcmX3WpevKqyuGRDo4TWN59D6h2T1xC7f5NQ8uRW4wTFDRZ%2FUZjX3gyVwE2qquYR%2BbMVwvD4R6fbi9AONo%2BU68fEZNcYJQ5igRWAWtZk6cGQno8XPZbnYUYfAO1Q9WWagJq%2FJC2eDPVJYb330BrV3rbmpasvmWUnkJwUYVNhAeSGp9AiS%2BWCNR3Wo4qMDoPhULj31UJ2967m9m1HCkJ%2FOWwOlT4zDuEZmDBGefvysw69aZmQY6qQEm7If21VPh69neRb1%2BJGDySZcFw53B7jrt%2BI1ERmLBsDV9%2B3cPMBiFwRltFW1aT%2FDFRBdxNordu2sB4UD7FzMbm1a6KOlbrntZQntaiNS9S4gM0DoMccmTZgRkHlmkUr%2FjxGyVntJ6EL7pTvFbxNPeic6o5v8UZs%2B%2BpBcs2cXJ%2BCrtHucNoLkf6RlwPqr3PfQNERNEuMN2hhkRsByEhBbeQsu22ViDbc9C&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Date=20220918T015554Z&X-Amz-SignedHeaders=host&X-Amz-Expires=300&X-Amz-Credential=ASIAQ3PHCVTY6A6RHQPB%2F20220918%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Signature=0f0752d788b3d905a14a4f0b5bf56efa71a37c93fea77d5671ec170b55e28027&hash=8fdbb1b3d93f684d5528e2ae717306bb9eaae0380ae6fb68b81361df1f1a54f0&host=68042c943591013ac2b2430a89b270f6af2c76d8dfd086a07176afe7c76c2c61&pii=S0893608022002003&tid=spdf-9cbe5006-8e6c-4bc8-a955-6f50a80987f5&sid=26eb78364bb5a0466f4bf51-3ba867604046gxrqa&type=client&ua=4d52035053565707575c&rr=74c6764b6874c08c)), which improves GTN's scalability (Fast) and performance (non-local operations). \n* \\[**Sep 19, 2022**\\] We updated the source code of our GTNs to address the issue where the latest version of torch_geometric removed the backward() of the multiplication of sparse matrices (spspmm). To be specific, we implemented the multiplication of sparse matrices using [pytorch.sparse.mm](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fgenerated\u002Ftorch.sparse.mm.html) that includes backward() operation.\n\n## Installation\n\nInstall [pytorch](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)\n\nInstall [torch_geometric](https:\u002F\u002Fpytorch-geometric.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Finstallation.html)\n\nTo run the previous version of GTN (in prev_GTN folder),\n``` \n$ pip install torch-sparse-old\n```\n** The latest version of torch_geometric removed the backward() of the multiplication of sparse matrices (spspmm), so to solve the problem, we uploaded the old version of torch-sparse with backward() on pip under the name torch-sparse-old.\n\n## Data Preprocessing\nWe used datasets from [Heterogeneous Graph Attention Networks](https:\u002F\u002Fgithub.com\u002FJhy1993\u002FHAN) (Xiao Wang et al.) and uploaded the preprocessing code of acm data as an example.\n\n## Running the code\n*** To check the best performance of GTN in DBLP and ACM datasets, we recommend running the GTN in [OpenHGNN](https:\u002F\u002Fgithub.com\u002FBUPT-GAMMA\u002FOpenHGNN\u002Ftree\u002Fmain\u002Fopenhgnn\u002Foutput\u002FGTN) implemented with the DGL library. Since the newly used torch.sparsemm requires more memory than the existing torch_sparse.spspmm, it was not possible to run the best case with num_layer > 1 in DBLP and ACM datasets. \n``` \n$ mkdir data\n$ cd data\n```\nDownload datasets (DBLP, ACM, IMDB) from this [link](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Nx74tgz_-BDlqaFO75eQG6IkndzI92j4\u002Fview?usp=sharing) and extract data.zip into data folder.\n```\n$ cd ..\n```\n\n- DBLP\n\t\n\t- GTN\n\t```\n\t$ python main.py --dataset DBLP --model GTN --num_layers 1 --epoch 50 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1) w\u002F non-local operations ( >24 GB)\n\t```\n\t$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight 0 --K 3   --non_local\n  ```\n\t 2) w\u002Fo non-local operations\n\t```\n\t$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2\n  ```\n\n- ACM\n\t\n\t- GTN\n\t```\n\t$ python main_gpu.py --dataset ACM --model GTN --num_layers 1 --epoch 100 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1) w\u002F non-local operations \n\t```\n\t$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2 --non_local_weight -1 --K 1 --non_local\n  ```\n\t 2) w\u002Fo non-local operations\n\t```\n\t$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2\n  ```\n\n- IMDB\n\t\n\t- GTN\n\t```\n\t$ python main.py --dataset IMDB --model GTN --num_layers 2 --epoch 50 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1. w\u002F non-local operations \n\t```\n\t$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight -2 --K 2 --non_local\n  ```\n\t 2) w\u002Fo non-local operations\n\t```\n\t$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2\n  ```\n\n\n## Citation\nIf this work is useful for your research, please cite our [GTN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06455) and [FastGTN](https:\u002F\u002Freader.elsevier.com\u002Freader\u002Fsd\u002Fpii\u002FS0893608022002003?token=71585B1BEE922F5060A60F850BC1EA8C67B4077ECC43793878B38754A499AC67450DACAB0FAEA5EC4607CD106CC58974&originRegion=us-east-1&originCreation=20220918020619):\n```\n@inproceedings{yun2019GTN,\n  title={Graph Transformer Networks},\n  author={Yun, Seongjun and Jeong, Minbyul and Kim, Raehyun and Kang, Jaewoo and Kim, Hyunwoo J},\n  booktitle={Advances in Neural Information Processing Systems},\n  pages={11960--11970},\n  year={2019}\n}\n```\n```\n@article{yun2022FastGTN,\ntitle = {Graph Transformer Networks: Learning meta-path graphs to improve GNNs},\njournal = {Neural Networks},\nvolume = {153},\npages = {104-119},\nyear = {2022},\n}\n```\n","# 图变换网络\n本仓库实现了 [图变换网络(GTN)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06455) 和 [具有非局部操作的快速图变换网络 (FastGTN)](https:\u002F\u002Fpdf.sciencedirectassets.com\u002F271125\u002F1-s2.0-S0893608022X00075\u002F1-s2.0-S0893608022002003\u002Fmain.pdf?X-Amz-Security-Token=IQoJb3JpZ2luX2VjEHkaCXVzLWVhc3QtMSJHMEUCIQC5JKs%2BBKb0MPqBvG9De58QPzs52B2jcbCKrlS8Ahtx8wIgXRKM1pwytn%2Fg3I%2BpRawictl9bHkbukMC1av%2FjfvDGakqzAQIIhAFGgwwNTkwMDM1NDY4NjUiDCgbkDuexMDYYCd7eyqpBPka68pkQYZf%2FozGqEf8msefhrCK%2Bt3vWHggdPa9o1Nfahc6uf6RvB1iUr2qGE%2BmDtqkZgHllcBwjK9N5oGEEEz%2FXR%2Bo5GNUcWU8OyyAxpunLswUrabAPi5%2FKI6EKT8k0f%2BfxajwSizgKlEwYcOa5SPCi62e87GCI1hzQlTvjhub54aA6JkzMGYBrAODaTH6fxTW2bL8kgXFQCjMwsEy81yyh%2F6xWZ1b9ybHrdobu3ivHDiN1n7oXoW1o7E9ZPg2Tm4%2B9iFLeBF49QZlsVTxMb%2BnhSDJYoEmnyEM3OJRCuAXex%2F1Xhu0GzsvhgR9Ahaofbx9b2XNK8926l4eFW7sO9Q2Bu4VqJ4jqhYI74CYJA5t1BE49jMaNCZs%2Bl163Mnl4GuzTDZiTtg0GOnnDf5HZ2n4DSP0sTGYK5QWSQRbMBwI2s5eB1mb0gzIimHglsd1TfGhav%2BtD3X6149li6LUQQy9gxrEQLWhJY%2Frggl6lbJ2yb5yanW42sf2iVdcmX3WpevKqyuGRDo4TWN59D6h2T1xC7f5NQ8uRW4wTFDRZ%2FUZjX3gyVwE2qquYR%2BbMVwvD4R6fbi9AONo%2BU68fEZNcYJQ5igRWAWtZk6cGQno8XPZbnYUYfAO1Q9WWagJq%2FJC2eDPVJYb330BrV3rbmpasvmWUnkJwUYVNhAeSGp9AiS%2BWCNR3Wo4qMDoPhULj31UJ2967m9m1HCkJ%2FOWwOlT4zDuEZmDBGefvysw69aZmQY6qQEm7If21VPh69neRb1%2BJGDySZcFw53B7jrt%2BI1ERmLBsDV9%2B3cPMBiFwRltFW1aT%2FDFRBdxNordu2sB4UD7FzMbm1a6KOlbrntZQntaiNS9S4gM0DoMccmTZgRkHlmkUr%2FjxGyVntJ6EL7pTvFbxNPeic6o5v8UZs%2B%2BpBcs2cXJ%2BCrtHucNoLkf6RlwPqr3PfQNERNEuMN2hhkRsByEhBbeQsu22ViDbc9C&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Date=20220918T015554Z&X-Amz-SignedHeaders=host&X-Amz-Expires=300&X-Amz-Credential=ASIAQ3PHCVTY6A6RHQPB%2F20220918%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Signature=0f0752d788b3d905a14a4f0b5bf56efa71a37c93fea77d5671ec170b55e28027&hash=8fdbb1b3d93f684d5528e2ae717306bb9eaae0380ae6fb68b81361df1f1a54f0&host=68042c943591013ac2b2430a89b270f6af2c76d8dfd086a07176afe7c76c2c61&pii=S0893608022002003&tid=spdf-9cbe5006-8e6c-4bc8-a955-6f50a80987f5&sid=26eb78364bb5a0466f4bf51-3ba867604046gxrqa&type=client&ua=4d52035053565707575c&rr=74c6764b6874c08c).\n\n> Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, 图变换网络，载于神经信息处理系统进展（NeurIPS 2019）。\n\n> Seongjun Yun, Minbyul Jeong, Sungdong Yoo, Seunghun Lee, Sean S, Yi, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim, 图变换网络：通过学习元路径图来提升 GNN 性能，神经网络 2022。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseongjunyun_Graph_Transformer_Networks_readme_7ffc22842930.png)\n\n### 更新\n* \\[**2022年9月19日**\\] 我们发布了带有非局部操作的 [FastGTN](https:\u002F\u002Fpdf.sciencedirectassets.com\u002F271125\u002F1-s2.0-S0893608022X00075\u002F1-s2.0-S0893608022002003\u002Fmain.pdf?X-Amz-Security-Token=IQoJb3JpZ2luX2VjEHkaCXVzLWVhc3QtMSJHMEUCIQC5JKs%2BBKb0MPqBvG9De58QPzs52B2jcbCKrlS8Ahtx8wIgXRKM1pwytn%2Fg3I%2BpRawictl9bHkbukMC1av%2FjfvDGakqzAQIIhAFGgwwNTkwMDM1NDY4NjUiDCgbkDuexMDYYCd7eyqpBPka68pkQYZf%2FozGqEf8msefhrCK%2Bt3vWHggdPa9o1Nfahc6uf6RvB1iUr2qGE%2BmDtqkZgHllcBwjK9N5oGEEEz%2FXR%2Bo5GNUcWU8OyyAxpunLswUrabAPi5%2FKI6EKT8k0f%2BfxajwSizgKlEwYcOa5SPCi62e87GCI1hzQlTvjhub54aA6JkzMGYBrAODaTH6fxTW2bL8kgXFQCjMwsEy81yyh%2F6xWZ1b9ybHrdobu3ivHDiN1n7oXoW1o7E9ZPg2Tm4%2B9iFLeBF49QZlsVTxMb%2BnhSDJYoEmnyEM3OJRCuAXex%2F1Xhu0GzsvhgR9Ahaofbx9b2XNK8926l4eFW7sO9Q2Bu4VqJ4jqhYI74CYJA5t1BE49jMaNCZs%2Bl163Mnl4GuzTDZiTtg0GOnnDf5HZ2n4DSP0sTGYK5QWSQRbMBwI2s5eB1mb0gzIimHglsd1TfGhav%2BtD3X6149li6LUQQy9gxrEQLWhJY%2Frggl6lbJ2yb5yanW42sf2iVdcmX3WpevKqyuGRDo4TWN59D6h2T1xC7f5NQ8uRW4wTFDRZ%2FUZjX3gyVwE2qquYR%2BbMVwvD4R6fbi9AONo%2BU68fEZNcYJQ5igRWAWtZk6cGQno8XPZbnYUYfAO1Q9WWagJq%2FJC2eDPVJYb330BrV3rbmpasvmWUnkJwUYVNhAeSGp9AiS%2BWCNR3Wo4qMDoPhULj31UJ2967m9m1HCkJ%2FOWwOlT4zDuEZmDBGefvysw69aZmQY6qQEm7If21VPh69neRb1%2BJGDySZcFw53B7jrt%2BI1ERmLBsDV9%2B3cPMBiFwRltFW1aT%2FDFRBdxNordu2sB4UD7FzMbm1a6KOlbrntZQntaiNS9S4gM0DoMccmTZgRkHlmkUr%2FjxGyVntJ6EL7pTvFbxNPeic6o5v8UZs%2B%2BpBcs2cXJ%2BCrtHucNoLkf6RlwPqr3PfQNERNEuMN2hhkRsByEhBbeQsu22ViDbc9C&X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Date=20220918T015554Z&X-Amz-SignedHeaders=host&X-Amz-Expires=300&X-Amz-Credential=ASIAQ3PHCVTY6A6RHQPB%2F20220918%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Signature=0f0752d788b3d905a14a4f0b5bf56efa71a37c93fea77d5671ec170b55e28027&hash=8fdbb1b3d93f684d5528e2ae717306bb9eaae0380ae6fb68b81361df1f1a54f0&host=68042c943591013ac2b2430a89b270f6af2c76d8dfd086a07176afe7c76c2c61&pii=S0893608022002003&tid=spdf-9cbe5006-8e6c-4bc8-a955-6f50a80987f5&sid=26eb78364bb5a0466f4bf51-3ba867604046gxrqa&type=client&ua=4d52035053565707575c&rr=74c6764b6874c08c)), 该版本在扩展性（Fast）和性能（非局部操作）方面均有所提升。\n* \\[**2022年9月19日**\\] 我们更新了 GTN 的源代码，以解决最新版 torch_geometric 移除了稀疏矩阵乘法（spspmm）反向传播的问题。具体而言，我们使用包含反向传播功能的 [pytorch.sparse.mm](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fgenerated\u002Ftorch.sparse.mm.html) 实现了稀疏矩阵乘法。\n\n## 安装\n\n安装 [PyTorch](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)\n\n安装 [torch_geometric](https:\u002F\u002Fpytorch-geometric.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Finstallation.html)\n\n若要运行旧版本的 GTN（位于 prev_GTN 文件夹中），请执行以下命令：\n``` \n$ pip install torch-sparse-old\n```\n** 最新版的 torch_geometric 已移除稀疏矩阵乘法（spspmm）的反向传播功能，为了解决这一问题，我们在 pip 上以 torch-sparse-old 的名称上传了带有反向传播功能的旧版 torch-sparse。\n\n## 数据预处理\n我们使用了来自 [异构图注意力网络](https:\u002F\u002Fgithub.com\u002FJhy1993\u002FHAN)（Xiao Wang 等人）的数据集，并将 acm 数据的预处理代码作为示例上传。\n\n## 运行代码\n*** 为了检验 GTN 在 DBLP 和 ACM 数据集上的最佳性能，我们建议在基于 DGL 库实现的 [OpenHGNN](https:\u002F\u002Fgithub.com\u002FBUPT-GAMMA\u002FOpenHGNN\u002Ftree\u002Fmain\u002Fopenhgnn\u002Foutput\u002FGTN) 中运行 GTN。由于新引入的 torch.sparsemm 比现有的 torch_sparse.spspmm 需要更多的内存，因此在 DBLP 和 ACM 数据集中无法运行 num_layer > 1 的最佳情况。\n``` \n$ mkdir data\n$ cd data\n```\n从该[链接](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Nx74tgz_-BDlqaFO75eQG6IkndzI92j4\u002Fview?usp=sharing)下载数据集（DBLP、ACM、IMDB），并将 data.zip 解压到 data 文件夹中。\n```\n$ cd ..\n```\n\n- DBLP\n\t\n\t- GTN\n\t```\n\t$ python main.py --dataset DBLP --model GTN --num_layers 1 --epoch 50 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1) 使用非局部操作（>24 GB）\n\t```\n\t$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight 0 --K 3   --non_local\n  ```\n\t 2) 不使用非局部操作\n\t```\n\t$ python main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2\n  ```\n\n- ACM\n\t\n\t- GTN\n\t```\n\t$ python main_gpu.py --dataset ACM --model GTN --num_layers 1 --epoch 100 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1) 使用非局部操作 \n\t```\n\t$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2 --non_local_weight -1 --K 1 --non_local\n  ```\n\t 2) 不使用非局部操作\n\t```\n\t$ python main_gpu.py --dataset ACM --model FastGTN --num_layers 3 --epoch 200 --lr 0.05 --channel_agg mean --num_channels 2\n  ```\n\n- IMDB\n\t\n\t- GTN\n\t```\n\t$ python main.py --dataset IMDB --model GTN --num_layers 2 --epoch 50 --lr 0.02 --num_channels 2\n\t```\n\t- FastGTN\n\t1. 使用非局部操作 \n\t```\n\t$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight -2 --K 2 --non_local\n  ```\n\t 2) 不使用非局部操作\n\t```\n\t$ python main.py --dataset IMDB --model FastGTN --num_layers 3 --epoch 50 --lr 0.02 --channel_agg mean --num_channels 2\n  ```\n\n\n## 引用\n如果这项工作对您的研究有所帮助，请引用我们的 [GTN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06455) 和 [FastGTN](https:\u002F\u002Freader.elsevier.com\u002Freader\u002Fsd\u002Fpii\u002FS0893608022002003?token=71585B1BEE922F5060A60F850BC1EA8C67B4077ECC43793878B38754A499AC67450DACAB0FAEA5EC4607CD106CC58974&originRegion=us-east-1&originCreation=20220918020619):\n```\n@inproceedings{yun2019GTN,\n  title={图变换网络},\n  author={Yun, Seongjun and Jeong, Minbyul and Kim, Raehyun and Kang, Jaewoo and Kim, Hyunwoo J},\n  booktitle={神经信息处理系统进展},\n  pages={11960--11970},\n  year={2019}\n}\n```\n```\n@article{yun2022FastGTN,\ntitle = {图变换网络：学习元路径图以改进 GNN},\njournal = {神经网络},\nvolume = {153},\npages = {104-119},\nyear = {2022},\n}\n```","# Graph Transformer Networks (GTN) 快速上手指南\n\n本指南帮助中国开发者快速部署并运行 Graph Transformer Networks (GTN) 及其改进版 FastGTN。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n- **操作系统**: Linux 或 macOS (Windows 需配置 WSL 或特定编译环境)\n- **Python**: 3.6+\n- **GPU**: 推荐使用 NVIDIA GPU 以加速训练（可选，但推荐）\n- **前置依赖**:\n  - [PyTorch](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)\n  - [PyTorch Geometric](https:\u002F\u002Fpytorch-geometric.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Finstallation.html)\n\n> **国内加速建议**：安装 PyTorch 和 torch_geometric 时，建议使用清华或中科大镜像源以提升下载速度。\n> 例如安装 torch_geometric 及相关依赖：\n> ```bash\n> pip install torch-scatter torch-sparse torch-cluster torch-spline-conv torch-geometric -f https:\u002F\u002Fdata.pyg.org\u002Fwhl\u002Ftorch-1.9.0+cu111.html\n> # 若上述链接访问慢，可尝试手动下载 whl 文件后本地安装，或使用国内镜像代理。\n> ```\n\n## 2. 安装步骤\n\n### 2.1 安装基础依赖\n首先安装 PyTorch（请根据您的 CUDA 版本选择对应命令，以下为示例）：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n\n接着安装 PyTorch Geometric 及其底层库：\n```bash\npip install torch-scatter torch-sparse torch-cluster torch-spline-conv torch-geometric\n```\n\n### 2.2 处理稀疏矩阵反向传播问题\n由于最新版的 `torch_geometric` 移除了稀疏矩阵乘法 (`spspmm`) 的反向传播支持，本项目提供了一个兼容包。如果您需要运行旧版 GTN 代码（位于 `prev_GTN` 文件夹），请安装：\n```bash\npip install torch-sparse-old\n```\n*注：新版代码已使用 `pytorch.sparse.mm` 重写以解决此问题，通常无需额外安装旧版库即可运行主程序。*\n\n### 2.3 获取项目代码\n克隆仓库并进入目录：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks.git\ncd Graph_Transformer_Networks\n```\n\n### 2.4 数据准备\n创建数据目录并下载数据集（DBLP, ACM, IMDB）：\n```bash\nmkdir data\ncd data\n# 请手动从 Google Drive 链接下载 data.zip 并解压到当前目录\n# 链接：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Nx74tgz_-BDlqaFO75eQG6IkndzI92j4\u002Fview?usp=sharing\nunzip data.zip\ncd ..\n```\n*(注：若无法访问 Google Drive，请自行寻找国内网盘搬运资源或联系作者获取)*\n\n## 3. 基本使用\n\n以下是最简单的运行示例，分别在 DBLP、ACM 和 IMDB 数据集上运行基础 GTN 模型。\n\n### 3.1 运行 DBLP 数据集\n```bash\npython main.py --dataset DBLP --model GTN --num_layers 1 --epoch 50 --lr 0.02 --num_channels 2\n```\n\n### 3.2 运行 ACM 数据集\n*注意：ACM 数据集较大，建议使用 `main_gpu.py` 脚本。*\n```bash\npython main_gpu.py --dataset ACM --model GTN --num_layers 1 --epoch 100 --lr 0.02 --num_channels 2\n```\n\n### 3.3 运行 IMDB 数据集\n```bash\npython main.py --dataset IMDB --model GTN --num_layers 2 --epoch 50 --lr 0.02 --num_channels 2\n```\n\n### 3.4 进阶：运行 FastGTN (带非局部操作)\n如果您拥有显存大于 24GB 的 GPU，可以尝试性能更强的 FastGTN 模型（以 DBLP 为例）：\n```bash\npython main.py --dataset DBLP --model FastGTN --num_layers 4 --epoch 100 --lr 0.02 --channel_agg mean --num_channels 2 --non_local_weight 0 --K 3 --non_local\n```\n\n> **提示**：对于 DBLP 和 ACM 数据集，若需复现论文最佳性能且层数 `num_layers > 1`，官方推荐使用基于 DGL 库实现的 [OpenHGNN](https:\u002F\u002Fgithub.com\u002FBUPT-GAMMA\u002FOpenHGNN\u002Ftree\u002Fmain\u002Fopenhgnn\u002Foutput\u002FGTN)，因为当前 PyTorch Sparse 实现占用显存较大。","某大型电商平台的推荐算法团队正试图从复杂的用户 - 商品交互图中挖掘潜在的购买兴趣，以提升长尾商品的曝光率。\n\n### 没有 Graph_Transformer_Networks 时\n- **依赖人工定义元路径**：数据科学家必须凭经验手动设计“用户 - 点击 - 商品”或“用户 - 购买 - 同类商品”等固定路径，耗时且难以覆盖所有潜在模式。\n- **忽略高阶连接信息**：传统图神经网络（GNN）仅聚合直接邻居节点信息，无法有效捕捉跨越多跳的隐性关联，导致推荐结果缺乏惊喜感。\n- **模型泛化能力弱**：面对动态变化的用户行为图，预设的固定拓扑结构无法自适应调整，导致在新品类或冷启动场景下准确率大幅下降。\n- **特征提取效率低**：为了弥补结构信息的缺失，团队不得不引入大量外部手工特征，增加了数据清洗成本和模型训练复杂度。\n\n### 使用 Graph_Transformer_Networks 后\n- **自动学习最优元路径**：Graph Transformer Networks 能通过软选择机制自动发现并组合最有价值的元路径（如“用户 - 浏览 - 收藏 - 购买”），无需人工干预即可捕捉复杂语义。\n- **挖掘全局非局部依赖**：借助 Transformer 架构与非局部操作，模型能直接聚合远距离节点信息，精准识别出看似无关实则强相关的潜在兴趣点。\n- **动态适应图结构变化**：模型可端到端地学习图的拓扑变换，在用户行为模式发生漂移时仍能保持高鲁棒性，显著改善冷启动推荐效果。\n- **简化特征工程流程**：凭借强大的结构学习能力，团队大幅减少了对外部手工特征的依赖，将研发重心回归到核心算法优化上，迭代速度提升 40%。\n\nGraph Transformer Networks 通过让模型自主“发明”连接路径，彻底解决了传统方法在复杂异构图分析中依赖人工先验且难以捕捉深层语义的瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fseongjunyun_Graph_Transformer_Networks_5e118227.png","seongjunyun","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fseongjunyun_c8ce379d.png",null,"ysj5419@korea.ac.kr","https:\u002F\u002Fgithub.com\u002Fseongjunyun",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",65.2,{"name":88,"color":89,"percentage":90},"Python","#3572A5",34.8,1081,185,"2026-04-04T05:54:49",4,"未说明","运行 FastGTN（带非局部操作）在 DBLP 数据集上需要显存 >24GB；其他情况建议使用 GPU（代码包含 main_gpu.py），具体 CUDA 版本取决于安装的 PyTorch 版本","运行 FastGTN（带非局部操作）建议系统内存 >24GB；其他情况未说明",{"notes":99,"python":95,"dependencies":100},"1. 最新版的 torch_geometric 移除了稀疏矩阵乘法 (spspmm) 的反向传播支持，因此运行旧版 GTN 需安装特定的 'torch-sparse-old' 包。新版代码已改用 torch.sparse.mm 以解决此问题，但会增加内存消耗。2. 若要在 DBLP 和 ACM 数据集上复现最佳性能（层数>1），官方推荐使用基于 DGL 库实现的 OpenHGNN 版本，而非本仓库的直接实现，因为新版稀疏矩阵运算内存占用过高。3. 数据集需手动从提供的 Google Drive 链接下载并解压。",[101,102,103],"torch","torch_geometric","torch-sparse-old (用于旧版 GTN)",[18],"2026-03-27T02:49:30.150509","2026-04-09T09:37:23.894081",[108,113,118,123,128,133,138,143],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},25816,"训练过程中出现 'nan' 损失或权重变为 'nan' 怎么办？","该问题通常出现在 model.py 文件的 `norm` 函数中。解决方案是移除对 `normalization` 函数的调用以避免 'nan' 错误。如果确实需要对每个 H 进行归一化，建议自行重写 `norm` 函数。此外，main.py 中的 norm 参数解析器实际上无效，模型始终会执行归一化步骤。也可以尝试减小学习率 (lr) 或调整权重衰减。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F20",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},25817,"为什么在 main_sparse.py 中注意力分数（Attention Scores）始终保持不变（如均为 0.2）？","这是由于 `torch_sparse` 包版本过高导致的。新版本为了速度移除了 `spspmm` 函数的自动求导（autograd）支持，导致梯度无法回传。解决方法是重新安装版本低于 0.4.4 的 `torch_sparse`（例如：`pip install torch-sparse\u003C0.4.4`），即可获取正确的注意力分数。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F10",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},25818,"如何在同构图（如 Cora, Citeseer）上使用此模型？","若要在同构图上使用，只需考虑多跳关系。你需要构建两个邻接矩阵：原始图的邻接矩阵和单位矩阵。具体做法是将原始图（如 Cora）的邻接矩阵与单位矩阵堆叠在一起作为输入。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F6",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},25819,"运行代码时遇到 CUDA 显存不足（Out of Memory）错误怎么办？","对于 DBLP 和 ACM 数据集，官方推荐在 CPU 上运行 `main.py` 而不是 `main_sparse.py`。虽然 CPU 运行速度较慢，但可以避免显存溢出错误。有用户反馈在 32GB 内存的 CPU 上运行正常。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F2",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},25820,"如何获取长度大于 3 的元路径（Meta-path）的重要性得分？","虽然模型堆叠了三个 GTN 层，但第一个 GT 层包含两个卷积滤波器，因此三层结构总共包含四个卷积滤波器。你可以通过这四个卷积滤波器的权重来获取重要元路径的得分。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F11",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},25821,"代码中 `torch.cat((X_,X_tmp), dim=1)` 和 `torch.cat([X_,X_tmp], dim=1)` 有什么区别？","这两者在功能上没有区别。如果在更换写法后观察到性能差异（如 F-score 变化），这通常是由随机种子不同引起的，而非语法差异。如果伴随出现 nan loss，建议调整学习率或权重衰减。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F19",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},25822,"FastGTN 的代码在哪里可以找到？","作者已在相关论文发表后发布了 FastGTN 的代码。如果遇到运行问题，可以直接向作者反馈。请检查仓库的最新更新或相关发布说明以获取代码链接。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F34",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},25823,"是否提供用于创建数据集的原始文件和预处理脚本？","是的，维护者表示可以分享原始文件和预处理脚本。这些原始文件最初来源于 'Heterogeneous Graph Attention Networks' 的作者，但本项目维护者也持有副本并愿意共享给需要的用户。","https:\u002F\u002Fgithub.com\u002Fseongjunyun\u002FGraph_Transformer_Networks\u002Fissues\u002F3",[]]