[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yhLeeee--Awesome-LLMs-in-Graph-tasks":3,"tool-yhLeeee--Awesome-LLMs-in-Graph-tasks":61},[4,19,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":18},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,3,"2026-04-20T04:47:55",[13,14,15,16,17],"Agent","语言模型","插件","开发框架","图像","ready",{"id":20,"name":21,"github_repo":22,"description_zh":23,"stars":24,"difficulty_score":25,"last_commit_at":26,"category_tags":27,"status":18},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161692,2,"2026-04-20T11:33:57",[16,13,14],{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":34,"last_commit_at":35,"category_tags":36,"status":18},10072,"DeepSeek-V3","deepseek-ai\u002FDeepSeek-V3","DeepSeek-V3 是一款由深度求索推出的开源混合专家（MoE）大语言模型，旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数，但在处理每个 token 时仅激活 370 亿参数，这种设计巧妙解决了大规模模型推理成本高、速度慢的难题，让高性能 AI 更易于部署和应用。\n\n这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发，DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标，前者在提升计算效率的同时避免了性能损耗，后者则显著增强了模型表现并加速了推理过程。此外，模型在 14.8 万亿高质量令牌上完成预训练，且整个训练过程异常稳定，未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性，DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。",102693,5,"2026-04-20T03:58:04",[14],{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":18},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[14,17,13,16],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":25,"last_commit_at":51,"category_tags":52,"status":18},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[14,17,13,16],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":25,"last_commit_at":59,"category_tags":60,"status":18},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[16,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":80,"stars":83,"forks":84,"last_commit_at":85,"license":80,"difficulty_score":86,"env_os":87,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":92,"github_topics":80,"view_count":25,"oss_zip_url":80,"oss_zip_packed_at":80,"status":18,"created_at":94,"updated_at":95,"faqs":96,"releases":97},10178,"yhLeeee\u002FAwesome-LLMs-in-Graph-tasks","Awesome-LLMs-in-Graph-tasks","A curated collection of research papers exploring the utilization of LLMs for graph-related tasks.","Awesome-LLMs-in-Graph-tasks 是一个精心整理的开源资源库，专注于收录利用大语言模型（LLM）解决图相关任务的前沿研究论文。该项目源自一篇已被 IJCAI 2024 录用的综述文章，旨在系统性地梳理“图技术遇上大模型”这一新兴领域的进展与未来方向。\n\n在传统图神经网络（GNN）研究中，模型虽擅长捕捉结构信息，却往往受限于节点特征的语义表达能力；而大语言模型虽精通文本理解，却难以直接处理复杂的图结构数据。Awesome-LLMs-in-Graph-tasks 正是为了解决这一痛点而生，它汇集了将两者优势结合的创新方案：既包括用 LLM 增强节点特征表示的方法，也涵盖利用 GNN 弥补 LLM 结构认知短板的策略，从而显著提升图学习的效果。\n\n该资源库特别适合人工智能领域的研究人员、算法工程师及高校师生使用。它不仅提供了按方法论分类的详细论文列表（如\"LLM 作为增强器”、\"LLM 作为预测器”及\"GNN-LLM 对齐”等），还附带了代码链接和技术细节总结，帮助从业者快速定位最新成果。无论是希望探索图数据新范式的学者，还是寻求技术落地的开发者，都能从中获得宝贵的灵感","Awesome-LLMs-in-Graph-tasks 是一个精心整理的开源资源库，专注于收录利用大语言模型（LLM）解决图相关任务的前沿研究论文。该项目源自一篇已被 IJCAI 2024 录用的综述文章，旨在系统性地梳理“图技术遇上大模型”这一新兴领域的进展与未来方向。\n\n在传统图神经网络（GNN）研究中，模型虽擅长捕捉结构信息，却往往受限于节点特征的语义表达能力；而大语言模型虽精通文本理解，却难以直接处理复杂的图结构数据。Awesome-LLMs-in-Graph-tasks 正是为了解决这一痛点而生，它汇集了将两者优势结合的创新方案：既包括用 LLM 增强节点特征表示的方法，也涵盖利用 GNN 弥补 LLM 结构认知短板的策略，从而显著提升图学习的效果。\n\n该资源库特别适合人工智能领域的研究人员、算法工程师及高校师生使用。它不仅提供了按方法论分类的详细论文列表（如\"LLM 作为增强器”、\"LLM 作为预测器”及\"GNN-LLM 对齐”等），还附带了代码链接和技术细节总结，帮助从业者快速定位最新成果。无论是希望探索图数据新范式的学者，还是寻求技术落地的开发者，都能从中获得宝贵的灵感与参考。项目社区活跃，持续更新，是进入该交叉领域不可或缺的入门指南。","\u003Ch1 align=\"center\"> Awesome-LLMs-in-Graph-tasks \u003C\u002Fa>\u003C\u002Fh2>\n\u003Ch5 align=\"center\"> If you like our project, please give us a star ⭐ on GitHub for the latest update.\u003C\u002Fh5>\n\n\u003Ch5 align=\"center\">\n\n![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg) ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FyhLeeee\u002FAwesome-LLMs-in-Graph-tasks.svg)\n\n\u003C\u002Fh5>\n\n> This is a collection of papers on leveraging **Large Language Models** in **Graph Tasks**. \nIt's based on our survey paper: [A Survey of Graph Meets Large Language Model: Progress and Future Directions](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.12399). \n\n> We will try to make this list updated frequently. If you found any error or any missed paper, please don't hesitate to open issues or pull requests.\n\n> Our survey has been accepted by IJCAI 2024 survey track.\n\n## How can LLMs help improve graph-related tasks?\n\nWith the help of LLMs, there has been a notable shift in the way we interact with graphs, particularly those containing nodes associated with text attributes. The integration of LLMs with traditional GNNs can be mutually beneficial and enhance graph learning. While GNNs are proficient at capturing structural information, they primarily rely on semantically constrained embeddings as node features, limiting their ability to express the full complexities of the nodes. Incorporating LLMs, GNNs can be enhanced with stronger node features that effectively capture both structural and contextual aspects. On the other hand, LLMs excel at encoding text but often struggle to capture structural information present in graph data. Combining GNNs with LLMs can leverage the robust textual understanding of LLMs while harnessing GNNs' ability to capture structural relationships, leading to more comprehensive and powerful graph learning.\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5aeb9685bb12.png\" width=75% height=75%>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Cem>Figure 1.\u003C\u002Fem> The overview of Graph Meets LLMs.\u003C\u002Fp>\n\n\n## Summarizations based on proposed taxonomy\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_107ac9af756c.png\" width=100% height=75%>\u003C\u002Fp>\n\n\u003Cp align=\"left\">\u003Cem>Table 1.\u003C\u002Fem> A summary of models that leverage LLMs to assist graph-related tasks in literature, ordered by their release time. \u003Cb>Fine-tuning\u003C\u002Fb> denotes whether it is necessary to fine-tune the parameters of LLMs, and &hearts; indicates that models employ parameter-efficient fine-tuning (PEFT) strategies, such as LoRA and prefix tuning. \u003Cb>Prompting\u003C\u002Fb> indicates the use of text-formatted prompts in LLMs, done manually or automatically. Acronyms in \u003Cb>Task\u003C\u002Fb>: Node refers to node-level tasks; Link refers to link-level tasks; Graph refers to graph-level tasks; Reasoning refers to Graph Reasoning; Retrieval refers to Graph-Text Retrieval; Captioning refers to Graph Captioning.\u003C\u002Fp >\n\n## Table of Contents\n\n- [Awesome-LLMs-in-Graph-tasks](#awesome-llms-in-graph-tasks)\n  - [How can LLMs help improve graph-related tasks](#how-can-llms-help-improve-graph-related-tasks)\n  - [Summarizations based on proposed taxonomy](#summarizations-based-on-proposed-taxonomy)\n  - [Table of Contents](#table-of-contents)\n  - [LLM as Enhancer](#llm-as-enhancer)\n  - [LLM as Predictor](#llm-as-predictor)\n  - [GNN-LLM Alignment](#gnn-llm-alignment)\n  - [Others](#others)\n  - [Contributing](#contributing)\n  - [Cite Us](#cite-us)\n\n\n## LLM as Enhancer\n* (_2022.03_) [ICLR' 2022] **Node Feature Extraction by Self-Supervised Multi-scale Neighborhood Prediction** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.00064) | [Code](https:\u002F\u002Fgithub.com\u002Famzn\u002Fpecos\u002Ftree\u002Fmainline\u002Fexamples\u002Fgiant-xrt)]\n   \u003Cdetails close>\n   \u003Csummary>GIANT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b05108124acd.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GIANT.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.02_) [ICLR' 2023] **Edgeformers: Graph-Empowered Transformers for Representation Learning on Textual-Edge Networks** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11050) | [Code](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FEdgeformers)]\n   \u003Cdetails close>\n   \u003Csummary>Edgeformers\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_af458b35aa92.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Edgeformers.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [KDD' 2023] **Graph-Aware Language Model Pre-Training on a Large Graph Corpus Can Help Multiple Graph Applications** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02592)]\n   \u003Cdetails close>\n   \u003Csummary>GALM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6dde293f15b1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GALM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.06_) [KDD' 2023] **Heterformer: Transformer-based Deep Node Representation Learning on Heterogeneous Text-Rich Networks** [[Paper](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3580305.3599376?casa_token=M9bG1HLyTEYAAAAA:gIiYO9atgtxNaBgfKpy4D3N66QDkCFLFvlEADvzC8Pobe_EWausOknGnRFzdDF-Xnq-vbWAWMT1qkA) | [Code](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FHeterformer)]\n   \u003Cdetails close>\n   \u003Csummary>Heterformer\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_8e8218d20435.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Heterformer.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [ICLR' 2024] **Harnessing Explanations: LLM-to-LM Interpreter for Enhanced Text-Attributed Graph Representation Learning** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19523) | [Code](https:\u002F\u002Fgithub.com\u002FXiaoxinHe\u002FTAPE)]\n   \u003Cdetails close>\n   \u003Csummary>TAPE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_cfd24b4cfc64.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of TAPE.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **Exploring the potential of large language models (llms) in learning on graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03393)]\n   \u003Cdetails close>\n   \u003Csummary>KEA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_339ab76e30ad.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of KEA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.07_) [Arxiv' 2023] **Can Large Language Models Empower Molecular Property Prediction?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07443) | [Code](https:\u002F\u002Fgithub.com\u002FChnQ\u002FLLM4Mol)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_91f166d5b2e0.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLM4Mol.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **Simteg: A frustratingly simple approach improves textual graph learning** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02565) | [Code](https:\u002F\u002Fgithub.com\u002Fvermouthdky\u002FSimTeG)]\n   \u003Cdetails close>\n   \u003Csummary>SimTeG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1c220e416c7a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of SimTeG.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.09_) [Arxiv' 2023] **Prompt-based Node Feature Extractor for Few-shot Learning on Text-Attributed Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02848)]\n   \u003Cdetails close>\n   \u003Csummary>G-Prompt\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_bc96fbf46ce6.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of G-Prompt.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.09_) [Arxiv' 2023] **TouchUp-G: Improving Feature Representation through Graph-Centric Finetuning** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13885)]\n   \u003Cdetails close>\n   \u003Csummary>TouchUp-G\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_97194338a0d4.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of TouchUp-G.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.09_) [ICLR' 2024] **One for All: Towards Training One Graph Model for All Classification Tasks** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00149) | [Code](https:\u002F\u002Fgithub.com\u002FLechengKong\u002FOneForAll)]\n   \u003Cdetails close>\n   \u003Csummary>OFA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_304333828ddb.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of OFA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **Learning Multiplex Embeddings on Text-rich Networks with One Text Encoder** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06684) | [Code](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FMETERN-submit)]\n   \u003Cdetails close>\n   \u003Csummary>METERN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_936cdceb5a66.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of METERN.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.11_) [WSDM' 2024] **LLMRec: Large Language Models with Graph Augmentation for Recommendation** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00423) | [Code](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FLLMRec)]\n   \u003Cdetails close>\n   \u003Csummary>LLMRec\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_437c91ce03ef.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLMRec.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.11_) [NeurIPS' 2023] **WalkLM: A Uniform Language Model Fine-tuning Framework for Attributed Graph Embedding** [[Paper](https:\u002F\u002Fopenreview.net\u002Fforum?id=ZrG8kTbt70) | [Code](https:\u002F\u002Fgithub.com\u002FMelinda315\u002FWalkLM)]\n   \u003Cdetails close>\n   \u003Csummary>WalkLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c495af8c576c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of WalkLM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.01_) [IJCAI' 2024] **Efficient Tuning and Inference for Large Language Models on Textual Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.15569)]\n   \u003Cdetails close>\n   \u003Csummary>ENGINE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_11a57d2c3851.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of ENGINE.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [KDD' 2024] **ZeroG: Investigating Cross-dataset Zero-shot Transferability in Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11235)]\n   \u003Cdetails close>\n   \u003Csummary>ZeroG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_dd63747abe87.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of ZeroG.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **UniGraph: Learning a Cross-Domain Graph Foundation Model From Natural Language** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13630)]\n   \u003Cdetails close>\n   \u003Csummary>UniGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_d5fd901199a3.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of UniGraph.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n* (_2024.02_) [CIKM' 2024] **Distilling Large Language Models for Text-Attributed Graph Learning** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12022)]\n   \u003Cdetails close>\n   \u003Csummary>Pan, et al.\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b94c28227047.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Pan, et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n* (_2024.10_) [CIKM' 2024] **When LLM Meets Hypergraph: A Sociological Analysis on Personality via Online Social Networks** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.03568) | [Code](https:\u002F\u002Fgithub.com\u002FZhiyaoShu\u002FLLM-HGNN-MBTI)]\n   \u003Cdetails close>\n   \u003Csummary>Shu, et al.\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_933b7ae4dbf6.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Shu, et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n\n## LLM as Predictor\n\n* (_2023.05_) [NeurIPS' 2023] **Can language models solve graph problems in natural language?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10037) | [Code](https:\u002F\u002Fgithub.com\u002FArthur-Heng\u002FNLGraph)]\n   \u003Cdetails close>\n   \u003Csummary>NLGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c85773e82deb.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of NLGraph.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [Arxiv' 2023] **GPT4Graph: Can Large Language Models Understand Graph Structured Data? An Empirical Evaluation and Benchmarking** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15066) | [Code](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FGPT4Graph)]\n   \u003Cdetails close>\n   \u003Csummary>GPT4Graph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_799e07bbb445.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GPT4Graph.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.06_) [NeurIPS' 2023] **GIMLET: A Unified Graph-Text Model for Instruction-Based Molecule Zero-Shot Learning** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13089) | [Code](https:\u002F\u002Fgithub.com\u002Fzhao-ht\u002FGIMLET)]\n   \u003Cdetails close>\n   \u003Csummary>GIMLET\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_92a18fdf44d2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GIMLET.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.07_) [Arxiv' 2023] **Exploring the Potential of Large Language Models (LLMs) in Learning on Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03393) | [Code](https:\u002F\u002Fgithub.com\u002FCurryTang\u002FGraph-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5ac5f0041f6a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The designed prompts of Chen et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **GIT-Mol: A Multi-modal Large Language Model for Molecular Science with Graph, Image, and Text** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06911)]\n   \u003Cdetails close>\n   \u003Csummary>GIT-Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e541e54c3003.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GIT-Mol.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **Natural Language is All a Graph Needs** [[Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07134) | [Code](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FInstructGLM)]\n   \u003Cdetails close>\n   \u003Csummary>InstructGLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_82b27cd6dd0e.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of InstructGLM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **Evaluating Large Language Models on Graphs: Performance Insights and Comparative Analysis** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11224) | [Code](https:\u002F\u002Fgithub.com\u002FAyame1006\u002FLLMtoGraph)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ee095fe11a8a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The designed prompts of Liu et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.09_) [Arxiv' 2023] **Can LLMs Effectively Leverage Graph Structural Information: When and Why** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16595) | [Code](https:\u002F\u002Fgithub.com\u002FTRAIS-Lab\u002FLLM-Structured-Data)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b44d1a470ec5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The designed prompts of Huang et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **GraphText: Graph Reasoning in Text Space** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01089)] | [Code](https:\u002F\u002Fgithub.com\u002FAndyJZhao\u002FGraphText)]\n   \u003Cdetails close>\n   \u003Csummary>GraphText\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_12657dcdadfc.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphText.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **Talk like a Graph: Encoding Graphs for Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04560)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_81da133f8482.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The designed prompts of Fatemi et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **GraphLLM: Boosting Graph Reasoning Ability of Large Language Model** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05845) | [Code](https:\u002F\u002Fgithub.com\u002Fmistyreed63849\u002FGraph-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>GraphLLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_032317a68eee.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphLLM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **Beyond Text: A Deep Dive into Large Language Model** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04944)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c8d5bce9b693.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The designed prompts of Hu et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [EMNLP' 2023] **MolCA: Molecular Graph-Language Modeling with Cross-Modal Projector and Uni-Modal Adapter** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12798) | [Code](https:\u002F\u002Fgithub.com\u002Facharkq\u002FMolCA)]\n   \u003Cdetails close>\n   \u003Csummary>MolCA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_175e4baf0799.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of MolCA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **GraphGPT: Graph Instruction Tuning for Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13023v1) | [Code](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FGraphGPT)]\n   \u003Cdetails close>\n   \u003Csummary>GraphGPT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_a27e55aeb1f1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphGPT.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [EMNLP' 2023] **ReLM: Leveraging Language Models for Enhanced Chemical Reaction Prediction** [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.13590.pdf) | [Code](https:\u002F\u002Fgithub.com\u002Fsyr-cn\u002FReLM)]\n   \u003Cdetails close>\n   \u003Csummary>ReLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1581042ef4bf.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of ReLM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **LLM4DyG: Can Large Language Models Solve Problems on Dynamic Graphs?** [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.17110.pdf)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4DyG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ba64c3c6a0f4.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLM4DyG.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [Arxiv' 2023] **Disentangled Representation Learning with Large Language Models for Text-Attributed Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18152)]\n   \u003Cdetails close>\n   \u003Csummary>DGTL\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_46732e86ad20.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of DGTL.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.11_) [Arxiv' 2023] **Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09862)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_01e33c805184.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Das et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.11_) [Arxiv' 2023] **InstructMol: Multi-Modal Integration for Building a Versatile and Reliable Molecular Assistant in Drug Discovery** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.16208)]\n   \u003Cdetails close>\n   \u003Csummary>InstructMol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_7b9894222480.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of InstructMol.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.12_) [Arxiv' 2023] **When Graph Data Meets Multimodal: A New Paradigm for Graph Understanding and Reasoning** [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2312.10372.pdf)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_74cfb3a8f3b8.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Ai et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **Let Your Graph Do the Talking: Encoding Structured Data for LLMs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05862)]\n   \u003Cdetails close>\n   \u003Csummary>GraphToken\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b1ea0c76fd8c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphToken.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **Rendering Graphs for Graph Reasoning in Multimodal Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02130)]\n   \u003Cdetails close>\n   \u003Csummary>GITA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c6d856632410.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GITA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [WWW' 2024] **GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07197) | [Code](https:\u002F\u002Fgithub.com\u002Falibaba\u002FGraphTranslator)]\n   \u003Cdetails close>\n   \u003Csummary>GraphTranslator\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6053fb10078f.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphTranslator.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **InstructGraph: Boosting Large Language Models via Graph-centric Instruction Tuning and Preference Alignment** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.08785) | [Code](https:\u002F\u002Fgithub.com\u002Fwjn1996\u002FInstructGraph)]\n   \u003Cdetails close>\n   \u003Csummary>InstructGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_602c206b8eed.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of InstructGraph.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **LLaGA: Large Language and Graph Assistant** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.08170) | [Code](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FLLaGA)]\n   \u003Cdetails close>\n   \u003Csummary>LLaGA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_9e552fb30ef2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLaGA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [WWW' 2024] **Can GNN be Good Adapter for LLMs?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12984)]\n   \u003Cdetails close>\n   \u003Csummary>GraphAdapter\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_05754cab11af.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphAdapter.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **HiGPT: Heterogeneous Graph Language Model** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16024) | [Code](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FHiGPT)]\n   \u003Cdetails close>\n   \u003Csummary>HiGPT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ef7675ed0165.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of HiGPT.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.02_) [Arxiv' 2024] **GraphWiz: An Instruction-Following Language Model for Graph Problems** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16029) | [Code](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FOpenGraph)]\n   \u003Cdetails close>\n   \u003Csummary>GraphWiz\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6f40a6cffcc7.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphWiz.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2024.03_) [Arxiv' 2024] **OpenGraph: Towards Open Graph Foundation Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.01121) | [Code](https:\u002F\u002Fgithub.com\u002Fnuochenpku\u002FGraph-Reasoning-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>OpenGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_88e254352e3c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of OpenGraph.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n* (_2024.07_) [Arxiv' 2024] **GOFA: A Generative One-For-All Model for Joint Graph Language Modeling** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.09709) | [Code](https:\u002F\u002Fgithub.com\u002FJiaruiFeng\u002FGOFA)]\n   \u003Cdetails close>\n   \u003Csummary>GOFA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_a32b7b49ef20.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GOFA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n* (_2024.10_) [Arxiv' 2024] **Can Graph Descriptive Order Affect Solving Graph Problems with LLMs?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07140)]\n   \u003Cdetails close>\n   \u003Csummary>GraphDO\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_756b5ff640a5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphDO.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n## GNN-LLM Alignment\n* (_2020.08_) [Arxiv' 2020] **Graph-based Modeling of Online Communities for Fake News Detection** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.06274) | [Code](https:\u002F\u002Fgithub.com\u002Fshaanchandra\u002FSAFER)]\n   \u003Cdetails close>\n   \u003Csummary>SAFER\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6739d91da04a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of SAFER.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2021.05_) [NeurIPS' 2021] **GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.02605) | [Code](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FGraphFormers)]\n   \u003Cdetails close>\n   \u003Csummary>GraphFormers\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5b92a846a4d0.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GraphFormers.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2021.11_) [EMNLP' 2021] **Text2Mol: Cross-Modal Molecule Retrieval with Natural Language Queries** \n  [[Paper](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.47\u002F) | [Code](https:\u002F\u002Fgithub.com\u002Fcnedwards\u002Ftext2mol)]\n   \u003Cdetails close>\n   \u003Csummary>Text2Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_297b0571026c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Text2Mol.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2022.07_) [ACL' 2023] **Hidden Schema Networks**\n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03777) | [Code](https:\u002F\u002Fgithub.com\u002Framsesjsf\u002FHiddenSchemaNetworks)]\n   \u003Cdetails close>\n   \u003Csummary>HSN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e403c19f0aa0.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of HSN.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2022.09_) [Arxiv' 2022] **A Molecular Multimodal Foundation Model Associating Molecule Graphs with Natural Language** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05481) | [Code](https:\u002F\u002Fgithub.com\u002FBingSu12\u002FMoMu)]\n   \u003Cdetails close>\n   \u003Csummary>MoMu\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_142fe31b68e7.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of MoMu.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2022.10_) [ICLR' 2023] **Learning on Large-scale Text-attributed Graphs via Variational Inference** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14709) | [Code](https:\u002F\u002Fgithub.com\u002FAndyJZhao\u002FGLEM)]\n   \u003Cdetails close>\n   \u003Csummary>GLEM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1e4f8c3c0b4c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GLEM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2022.12_) [NMI' 2023] **Multi-modal Molecule Structure-text Model for Text-based Editing and Retrieval** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10789) | [Code](https:\u002F\u002Fgithub.com\u002Fchao1224\u002FMoleculeSTM)]\n   \u003Cdetails close>\n   \u003Csummary>MoleculeSTM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_57a6ec34f144.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of MoleculeSTM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.04_) [Arxiv' 2023] **Train Your Own GNN Teacher: Graph-Aware Distillation on Textual Graphs** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10668) | [Code](https:\u002F\u002Fgithub.com\u002Fcmavro\u002FGRAD)]\n   \u003Cdetails close>\n   \u003Csummary>GRAD\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5be243227602.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GRAD.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [ACL' 2023] **PATTON : Language Model Pretraining on Text-Rich Networks** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12268) | [Code](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FPatton)]\n   \u003Cdetails close>\n   \u003Csummary>Patton\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e8727b9dd23a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Patton.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [Arxiv' 2023] **ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14321) | [Code](https:\u002F\u002Fgithub.com\u002Fwwbrannon\u002Fcongrat)]\n   \u003Cdetails close>\n   \u003Csummary>ConGraT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ba482663f5f2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of ConGraT.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.07_) [Arxiv' 2023] **Prompt Tuning on Graph-augmented Low-resource Text Classification** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10230) | [Code](https:\u002F\u002Fgithub.com\u002FWenZhihao666\u002FG2P2-conditional)]\n   \u003Cdetails close>\n   \u003Csummary>G2P2\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1b4978ea5e4a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of G2P2.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [EMNLP' 2023] **GRENADE: Graph-Centric Language Model for Self-Supervised Representation Learning on Text-Attributed Graphs** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15109) | [Code](https:\u002F\u002Fgithub.com\u002Fbigheiniu\u002FGRENADE)]\n   \u003Cdetails close>\n   \u003Csummary>GRENADE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_419837e11fe5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GRENADE.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [WWW' 2024] **Representation Learning with Large Language Models for Recommendation** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15950) | [Code](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FRLMRec)]\n   \u003Cdetails close>\n   \u003Csummary>RLMRec\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_287d82832aa9.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of RLMRec.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.10_) [EMNLP' 2023] **Pretraining Language Models with Text-Attributed Heterogeneous Graphs** \n  [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12580) | [Code](https:\u002F\u002Fgithub.com\u002FHope-Rita\u002FTHLM)]\n   \u003Cdetails close>\n   \u003Csummary>THLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1b1a7a27455d.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of THLM.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n## Benchmarks\n* (_2025.1_) [COLING 2025]  **GraCoRe: Benchmarking Graph Comprehension and Complex Reasoning in Large Language Models** [[Paper](https:\u002F\u002Faclanthology.org\u002F2025.coling-main.531\u002F) | [Code](https:\u002F\u002Fgithub.com\u002FZIKEYUAN\u002FGraCoRe)]\n\n* (_2024.07_) [NeurIPS' 2024] **GLBench: A Comprehensive Benchmark for Graph with Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.07457) | [Code](https:\u002F\u002Fgithub.com\u002FNineAbyss\u002FGLBench)]\n  \n* (_2024.05_) [NeurIPS' 2024] **TEG-DB: A Comprehensive Dataset and Benchmark of Textual-Edge Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.10310)][[Code](https:\u002F\u002Fgithub.com\u002FZhuofeng-Li\u002FTEG-Benchmark\u002Ftree\u002Fmain)]\n\n\n\n## Others\n\n### LLM as Annotator\n\n* (_2023.10_) [ICLR' 2024] **Label-free Node Classification on Graphs with Large Language Models (LLMs)** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18152) | [Code](https:\u002F\u002Fgithub.com\u002FCurryTang\u002FLLMGNN)]\n   \u003Cdetails close>\n   \u003Csummary>LLM-GNN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b368d8876b63.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLM-GNN.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n* (_2024.09_) [NeurIPS' 2024] **Entity Alignment with Noisy Annotations from Large Language Models** [[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.16806) | [Code](https:\u002F\u002Fgithub.com\u002FchensyCN\u002Fllm4ea_official)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4EA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e8d7cb207816.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLM4EA.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM as Controller\n\n* (_2023.10_) [Arxiv' 2023] **Graph Neural Architecture Search with GPT-4** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01436)]\n   \u003Cdetails close>\n   \u003Csummary>GPT4GNAS\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_23fea3eefe23.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of GPT4GNAS.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM as Sample Generator\n\n* (_2023.10_) [Arxiv' 2023] **Empower Text-Attributed Graphs Learning with Large Language Models (LLMs)** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09872)]\n   \u003Cdetails close>\n   \u003Csummary>ENG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_fdd052a920f1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of ENG.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM as Similarity Analyzer\n\n* (_2023.11_) [Arxiv' 2023] **Large Language Models as Topological Structure Enhancers for Text-Attributed Graphs** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.14324)]\n   \u003Cdetails close>\n   \u003Csummary>Framework\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_82fa524e5141.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Sun et al.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM for Robustness \n\n- (_2024.05_) [Arxiv' 2024] **Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.16405)]\n   \u003Cdetails close>\n   \u003Csummary>Lei, et al.\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_7eca997501d8.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of Lei, et al..\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n- (_2024.08_) [Arxiv' 2024] **Can Large Language Models Improve the Adversarial Robustness of Graph Neural Networks?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.08685)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4RGNN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_95d7895f4dba.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of LLM4RGNN.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM for Task Planning \n\n- (_2024.05_) [NeurIPS' 2024] **Can Graph Learning Improve Planning in LLM-based Agents?** [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19119) | [Code](https:\u002F\u002Fgithub.com\u002FWxxShirley\u002FGNN4TaskPlan)]\n  \u003Cdetails close>\n  \u003Csummary>GNN4TaskPlan\u003C\u002Fsummary>\n  \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_640702fa8461.jpg\" \u002F>\u003C\u002Fp>\n  \u003Cp align=\"center\">\u003Cem>The definition of task planning and the proposed framework.\u003C\u002Fem>\u003C\u002Fp>\n  \u003C\u002Fdetails>\n\n\n## Other Repos\n\nWe note that several repos also summarize papers on the integration of LLMs and graphs. However, we differentiate ourselves by organizing these papers leveraging a new and more granular taxonomy. We recommend researchers to explore some repositories for a comprehensive survey.\n\n- [Awesome-Graph-LLM](https:\u002F\u002Fgithub.com\u002FXiaoxinHe\u002FAwesome-Graph-LLM), created by [Xiaoxin He](https:\u002F\u002Fxiaoxinhe.github.io\u002F) from NUS.\n\n- [Awesome-Large-Graph-Model](https:\u002F\u002Fgithub.com\u002FTHUMNLab\u002Fawesome-large-graph-model), created by [Ziwei Zhang](https:\u002F\u002Fzw-zhang.github.io\u002F) from THU.\n\n- [Awesome-Language-Model-on-Graphs](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FAwesome-Language-Model-on-Graphs), created by [Bowen Jin](https:\u002F\u002Fpeterjin.me\u002F) from UIUC.\n\nWe highly recommend a repository that summarizes the work on **Graph Prompt**, which is very close to Graph-LLM.\n\n- [Awesome-Graph-Prompt](https:\u002F\u002Fgithub.com\u002FWxxShirley\u002FAwesome-Graph-Prompt), created by [Xixi Wu](https:\u002F\u002Fwxxshirley.github.io\u002F) from CUHK.\n\n\n## Contributing\n\nIf you have come across relevant resources, feel free to open an issue or submit a pull request.\n\n```\n* (_time_) [conference] **paper_name** [[Paper](link) | [Code](link)]\n   \u003Cdetails close>\n   \u003Csummary>Model name\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"Figures\u002Fxxx.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>The framework of model name.\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n```\n\n## Cite Us\n\nFeel free to cite this work if you find it useful to you!\n```\n@article{li2023survey,\n  title={A Survey of Graph Meets Large Language Model: Progress and Future Directions},\n  author={Li, Yuhan and Li, Zhixun and Wang, Peisong and Li, Jia and Sun, Xiangguo and Cheng, Hong and Yu, Jeffrey Xu},\n  journal={arXiv preprint arXiv:2311.12399},\n  year={2023}\n}\n```\n","\u003Ch1 align=\"center\"> 图任务中的优秀大语言模型 \u003C\u002Fa>\u003C\u002Fh1>\n\u003Ch5 align=\"center\"> 如果您喜欢我们的项目，请在 GitHub 上为我们点亮一颗星 ⭐，以获取最新更新。\u003C\u002Fh5>\n\n\u003Ch5 align=\"center\">\n\n![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg) ![GitHub 星标](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FyhLeeee\u002FAwesome-LLMs-in-Graph-tasks.svg)\n\n\u003C\u002Fh5>\n\n> 这是一个关于在**图任务**中利用**大语言模型**的论文合集。\n它基于我们的综述论文：[图与大语言模型的融合：进展与未来方向](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.12399)。\n\n> 我们将努力保持这份列表的及时更新。如果您发现任何错误或遗漏的论文，请随时提出问题或创建拉取请求。\n\n> 我们的综述已被 IJCAI 2024 综述赛道接收。\n\n## 大语言模型如何帮助提升图相关任务？\n\n借助大语言模型，我们与图数据（尤其是包含文本属性节点的图）交互的方式发生了显著变化。将大语言模型与传统图神经网络相结合，可以实现互补优势，从而增强图学习能力。图神经网络擅长捕捉结构信息，但其节点特征主要依赖于语义受限的嵌入表示，这限制了它们表达节点复杂性的能力。通过引入大语言模型，图神经网络可以获得更强大的节点特征，有效结合结构和上下文信息。另一方面，大语言模型擅长处理文本信息，但在捕捉图数据中的结构关系方面存在不足。将图神经网络与大语言模型结合，既能发挥大语言模型强大的文本理解能力，又能利用图神经网络对结构关系的建模优势，从而实现更加全面和高效的图学习。\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5aeb9685bb12.png\" width=75% height=75%>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Cem>图 1.\u003C\u002Fem> 图与大语言模型的融合概览。\u003C\u002Fp>\n\n\n## 基于所提分类体系的总结\n\n\u003Cp align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_107ac9af756c.png\" width=100% height=75%>\u003C\u002Fp>\n\n\u003Cp align=\"left\">\u003Cem>表 1.\u003C\u002Fem> 文献中利用大语言模型辅助图相关任务的模型汇总，按发布时间排序。\u003Cb>微调\u003C\u002Fb>表示是否需要对大语言模型的参数进行微调，&hearts; 表示采用参数高效微调（PEFT）策略，如 LoRA 和前缀微调。\u003Cb>提示词\u003C\u002Fb>表示在大语言模型中使用文本格式的提示词，可能是手动或自动生成的。\u003Cb>任务\u003C\u002Fb>中的缩写含义如下：Node 指节点级任务；Link 指链接级任务；Graph 指图级任务；Reasoning 指图推理；Retrieval 指图-文本检索；Captioning 指图描述生成。\u003C\u002Fp >\n\n## 目录\n\n- [图任务中的优秀大语言模型](#awesome-llms-in-graph-tasks)\n  - [大语言模型如何帮助提升图相关任务？](#how-can-llms-help-improve-graph-related-tasks)\n  - [基于所提分类体系的总结](#summarizations-based-on-proposed-taxonomy)\n  - [目录](#table-of-contents)\n  - [大语言模型作为增强器](#llm-as-enhancer)\n  - [大语言模型作为预测器](#llm-as-predictor)\n  - [图神经网络与大语言模型的协同](#gnn-llm-alignment)\n  - [其他](#others)\n  - [贡献](#contributing)\n  - [引用我们](#cite-us)\n\n## LLM作为增强器\n* (_2022.03_) [ICLR' 2022] **基于自监督多尺度邻域预测的节点特征提取** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.00064) | [代码](https:\u002F\u002Fgithub.com\u002Famzn\u002Fpecos\u002Ftree\u002Fmainline\u002Fexamples\u002Fgiant-xrt)]\n   \u003Cdetails close>\n   \u003Csummary>GIANT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b05108124acd.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GIANT的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.02_) [ICLR' 2023] **Edgeformers：用于文本边网络表示学习的图增强型Transformer** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.11050) | [代码](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FEdgeformers)]\n   \u003Cdetails close>\n   \u003Csummary>Edgeformers\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_af458b35aa92.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Edgeformers的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [KDD' 2023] **在大型图语料库上进行图感知语言模型预训练有助于多种图应用** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02592)]\n   \u003Cdetails close>\n   \u003Csummary>GALM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6dde293f15b1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GALM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.06_) [KDD' 2023] **Heterformer：基于Transformer的异构富文本网络深度节点表示学习** [[论文](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3580305.3599376?casa_token=M9bG1HLyTEYAAAAA:gIiYO9atgtxNaBgfKpy4D3N66QDkCFLFvlEADvzC8Pobe_EWausOknGnRFzdDF-Xnq-vbWAWMT1qkA) | [代码](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FHeterformer)]\n   \u003Cdetails close>\n   \u003Csummary>Heterformer\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_8e8218d20435.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Heterformer的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.05_) [ICLR' 2024] **利用解释：LLM到LLM解释器用于增强文本属性图表示学习** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19523) | [代码](https:\u002F\u002Fgithub.com\u002FXiaoxinHe\u002FTAPE)]\n   \u003Cdetails close>\n   \u003Csummary>TAPE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_cfd24b4cfc64.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>TAPE的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.08_) [Arxiv' 2023] **探索大型语言模型（LLMs）在图上学习的潜力** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03393)]\n   \u003Cdetails close>\n   \u003Csummary>KEA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_339ab76e30ad.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>KEA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.07_) [Arxiv' 2023] **大型语言模型能否赋能分子性质预测？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.07443) | [代码](https:\u002F\u002Fgithub.com\u002FChnQ\u002FLLM4Mol)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_91f166d5b2e0.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLM4Mol的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.08_) [Arxiv' 2023] **Simteg：一种令人沮丧的简单方法改进了文本图学习** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02565) | [代码](https:\u002F\u002Fgithub.com\u002Fvermouthdky\u002FSimTeG)]\n   \u003Cdetails close>\n   \u003Csummary>SimTeG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1c220e416c7a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>SimTeG的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.09_) [Arxiv' 2023] **基于提示的节点特征提取器，用于文本属性图上的少样本学习** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.02848)]\n   \u003Cdetails close>\n   \u003Csummary>G-Prompt\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_bc96fbf46ce6.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>G-Prompt的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.09_) [Arxiv' 2023] **TouchUp-G：通过以图为中心的微调改进特征表示** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13885)]\n   \u003Cdetails close>\n   \u003Csummary>TouchUp-G\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_97194338a0d4.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>TouchUp-G的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.09_) [ICLR' 2024] **一统天下：迈向训练一个图模型以应对所有分类任务** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00149) | [代码](https:\u002F\u002Fgithub.com\u002FLechengKong\u002FOneForAll)]\n   \u003Cdetails close>\n   \u003Csummary>OFA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_304333828ddb.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>OFA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.10_) [Arxiv' 2023] **使用单个文本编码器在富文本网络上学习多路嵌入** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06684) | [代码](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FMETERN-submit)]\n   \u003Cdetails close>\n   \u003Csummary>METERN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_936cdceb5a66.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>METERN的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.11_) [WSDM' 2024] **LLMRec：结合图增强的大语言模型推荐系统** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00423) | [代码](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FLLMRec)]\n   \u003Cdetails close>\n   \u003Csummary>LLMRec\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_437c91ce03ef.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLMRec的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2023.11_) [NeurIPS' 2023] **WalkLM：用于属性图嵌入的统一语言模型微调框架** [[论文](https:\u002F\u002Fopenreview.net\u002Fforum?id=ZrG8kTbt70) | [代码](https:\u002F\u002Fgithub.com\u002FMelinda315\u002FWalkLM)]\n   \u003Cdetails close>\n   \u003Csummary>WalkLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c495af8c576c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>WalkLM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2024.01_) [IJCAI' 2024] **大型语言模型在文本图上的高效微调与推理** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.15569)]\n   \u003Cdetails close>\n   \u003Csummary>ENGINE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_11a57d2c3851.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>ENGINE的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2024.02_) [KDD' 2024] **ZeroG：探究图数据集间的零样本迁移能力** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11235)]\n   \u003Cdetails close>\n   \u003Csummary>ZeroG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_dd63747abe87.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>ZeroG的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n* (_2024.02_) [Arxiv' 2024] **UniGraph：从自然语言中学习跨领域图基础模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13630)]\n   \u003Cdetails close>\n   \u003Csummary>UniGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_d5fd901199a3.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>UniGraph的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n\n* (_2024.02_) [CIKM' 2024] **针对文本属性图学习的大语言模型蒸馏** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12022)]\n   \u003Cdetails close>\n   \u003Csummary>Pan 等人\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b94c28227047.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Pan 等人的框架\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n* (_2024.10_) [CIKM' 2024] **当大语言模型遇上超图：基于在线社交网络的人格社会学分析** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.03568) | [代码](https:\u002F\u002Fgithub.com\u002FZhiyaoShu\u002FLLM-HGNN-MBTI)]\n   \u003Cdetails close>\n   \u003Csummary>Shu 等人\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_933b7ae4dbf6.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Shu 等人的框架\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n\n\n\n## 大语言模型作为预测器\n\n* (_2023.05_) [NeurIPS' 2023] **语言模型能否用自然语言解决图问题？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10037) | [代码](https:\u002F\u002Fgithub.com\u002FArthur-Heng\u002FNLGraph)]\n   \u003Cdetails close>\n   \u003Csummary>NLGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c85773e82deb.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>NLGraph的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.05_) [Arxiv' 2023] **GPT4Graph：大型语言模型能否理解图结构数据？一项实证评估与基准测试** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15066) | [代码](https:\u002F\u002Fanonymous.4open.science\u002Fr\u002FGPT4Graph)]\n   \u003Cdetails close>\n   \u003Csummary>GPT4Graph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_799e07bbb445.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GPT4Graph的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.06_) [NeurIPS' 2023] **GIMLET：用于基于指令的分子零样本学习的统一图-文本模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.13089) | [代码](https:\u002F\u002Fgithub.com\u002Fzhao-ht\u002FGIMLET)]\n   \u003Cdetails close>\n   \u003Csummary>GIMLET\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_92a18fdf44d2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GIMLET的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.07_) [Arxiv' 2023] **探索大型语言模型（LLMs）在图上学习的潜力** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03393) | [代码](https:\u002F\u002Fgithub.com\u002FCurryTang\u002FGraph-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5ac5f0041f6a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Chen等人设计的提示词。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **GIT-Mol：一种用于分子科学的多模态大型语言模型，融合了图、图像和文本** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06911)]\n   \u003Cdetails close>\n   \u003Csummary>GIT-Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e541e54c3003.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GIT-Mol的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2023.08_) [Arxiv' 2023] **自然语言就是图所需的一切** [[论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F2308.07134) | [代码](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FInstructGLM)]\n   \u003Cdetails close>\n   \u003Csummary>InstructGLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_82b27cd6dd0e.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>InstructGLM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.08_) [Arxiv' 2023] **在图上评估大型语言模型：性能洞察与比较分析** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11224) | [代码](https:\u002F\u002Fgithub.com\u002FAyame1006\u002FLLMtoGraph)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ee095fe11a8a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Liu等人设计的提示词。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.09_) [Arxiv' 2023] **大型语言模型能否有效利用图结构信息：何时以及为何** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16595) | [代码](https:\u002F\u002Fgithub.com\u002FTRAIS-Lab\u002FLLM-Structured-Data)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b44d1a470ec5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Huang等人设计的提示词。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **GraphText：文本空间中的图推理** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01089)] | [代码](https:\u002F\u002Fgithub.com\u002FAndyJZhao\u002FGraphText)]\n   \u003Cdetails close>\n   \u003Csummary>GraphText\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_12657dcdadfc.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphText的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **像图一样说话：为大型语言模型编码图数据** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04560)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_81da133f8482.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Fatemi等人设计的提示词。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **GraphLLM：提升大型语言模型的图推理能力** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05845) | [代码](https:\u002F\u002Fgithub.com\u002Fmistyreed63849\u002FGraph-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>GraphLLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_032317a68eee.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphLLM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **超越文本：深入探究大型语言模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04944)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c8d5bce9b693.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Hu等人设计的提示词。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [EMNLP' 2023] **MolCA：具有跨模态投影器和单模态适配器的分子图-语言建模** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12798) | [代码](https:\u002F\u002Fgithub.com\u002Facharkq\u002FMolCA)]\n   \u003Cdetails close>\n   \u003Csummary>MolCA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_175e4baf0799.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>MolCA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **GraphGPT：面向大型语言模型的图指令微调** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13023v1) | [代码](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FGraphGPT)]\n   \u003Cdetails close>\n   \u003Csummary>GraphGPT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_a27e55aeb1f1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphGPT的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [EMNLP' 2023] **ReLM：利用语言模型提升化学反应预测能力** [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.13590.pdf) | [代码](https:\u002F\u002Fgithub.com\u002Fsyr-cn\u002FReLM)]\n   \u003Cdetails close>\n   \u003Csummary>ReLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1581042ef4bf.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>ReLM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **LLM4DyG：大型语言模型能否解决动态图上的问题？** [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.17110.pdf)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4DyG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ba64c3c6a0f4.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLM4DyG的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [Arxiv' 2023] **利用大型语言模型对带文本属性的图进行解耦表征学习** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18152)]\n   \u003Cdetails close>\n   \u003Csummary>DGTL\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_46732e86ad20.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>DGTL的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.11_) [Arxiv' 2023] **我该使用哪种模态——文本、基元还是图像？：用大型语言模型理解图** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09862)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_01e33c805184.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Das等人的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.11_) [Arxiv' 2023] **InstructMol：多模态融合，打造药物研发中通用且可靠的分子助手** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.16208)]\n   \u003Cdetails close>\n   \u003Csummary>InstructMol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_7b9894222480.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>InstructMol的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.12_) [Arxiv' 2023] **当图数据遇到多模态时：图理解和推理的新范式** [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2312.10372.pdf)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_74cfb3a8f3b8.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Ai等人的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **让你的图开口说话：为LLMs编码结构化数据** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05862)]\n   \u003Cdetails close>\n   \u003Csummary>GraphToken\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b1ea0c76fd8c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphToken的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **在多模态大型语言模型中为图推理渲染图** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.02130)]\n   \u003Cdetails close>\n   \u003Csummary>GITA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_c6d856632410.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GITA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [WWW' 2024] **GraphTranslator：为开放式任务将图模型与大型语言模型对齐** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07197) | [代码](https:\u002F\u002Fgithub.com\u002Falibaba\u002FGraphTranslator)]\n   \u003Cdetails close>\n   \u003Csummary>GraphTranslator\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6053fb10078f.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphTranslator的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **InstructGraph：通过以图为中心的指令微调和偏好对齐来增强大型语言模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.08785) | [代码](https:\u002F\u002Fgithub.com\u002Fwjn1996\u002FInstructGraph)]\n   \u003Cdetails close>\n   \u003Csummary>InstructGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_602c206b8eed.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>InstructGraph的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **LLaGA：大型语言和图助手** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.08170) | [代码](https:\u002F\u002Fgithub.com\u002FVITA-Group\u002FLLaGA)]\n   \u003Cdetails close>\n   \u003Csummary>LLaGA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_9e552fb30ef2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLaGA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [WWW' 2024] **GNN能否成为LLMs的良好适配器？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12984)]\n   \u003Cdetails close>\n   \u003Csummary>GraphAdapter\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_05754cab11af.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphAdapter的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **HiGPT：异质图语言模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16024) | [代码](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FHiGPT)]\n   \u003Cdetails close>\n   \u003Csummary>HiGPT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ef7675ed0165.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>HiGPT的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.02_) [Arxiv' 2024] **GraphWiz：一款遵循指令的图问题语言模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16029) | [代码](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FOpenGraph)]\n   \u003Cdetails close>\n   \u003Csummary>GraphWiz\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6f40a6cffcc7.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphWiz的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2024.03_) [Arxiv' 2024] **OpenGraph：迈向开放的图基础模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.01121) | [代码](https:\u002F\u002Fgithub.com\u002Fnuochenpku\u002FGraph-Reasoning-LLM)]\n   \u003Cdetails close>\n   \u003Csummary>OpenGraph\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_88e254352e3c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>OpenGraph的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n\n* (_2024.07_) [Arxiv' 2024] **GOFA：用于联合图语言建模的生成式万能模型** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.09709) | [代码](https:\u002F\u002Fgithub.com\u002FJiaruiFeng\u002FGOFA)]\n   \u003Cdetails close>\n   \u003Csummary>GOFA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_a32b7b49ef20.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GOFA的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n* (_2024.10_) [Arxiv' 2024] **图的描述顺序是否会影响LLM求解图问题？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07140)]\n   \u003Cdetails close>\n   \u003Csummary>GraphDO\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_756b5ff640a5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphDO的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n   \n\n\n## GNN-LLM对齐\n* (_2020.08_) [Arxiv' 2020] **基于图的在线社区建模用于假新闻检测** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.06274) | [代码](https:\u002F\u002Fgithub.com\u002Fshaanchandra\u002FSAFER)]\n   \u003Cdetails close>\n   \u003Csummary>SAFER\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_6739d91da04a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>SAFER的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n* (_2021.05_) [NeurIPS' 2021] **GraphFormers：用于文本图表示学习的GNN嵌套Transformer** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.02605) | [代码](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FGraphFormers)]\n   \u003Cdetails close>\n   \u003Csummary>GraphFormers\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5b92a846a4d0.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GraphFormers的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2021.11_) [EMNLP' 2021] **Text2Mol：基于自然语言查询的跨模态分子检索**\n  [[论文](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.47\u002F) | [代码](https:\u002F\u002Fgithub.com\u002Fcnedwards\u002Ftext2mol)]\n   \u003Cdetails close>\n   \u003Csummary>Text2Mol\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_297b0571026c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Text2Mol的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2022.07_) [ACL' 2023] **隐藏模式网络**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.03777) | [代码](https:\u002F\u002Fgithub.com\u002Framsesjsf\u002FHiddenSchemaNetworks)]\n   \u003Cdetails close>\n   \u003Csummary>HSN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e403c19f0aa0.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>HSN的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2022.09_) [Arxiv' 2022] **一种将分子图与自然语言关联的分子多模态基础模型**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.05481) | [代码](https:\u002F\u002Fgithub.com\u002FBingSu12\u002FMoMu)]\n   \u003Cdetails close>\n   \u003Csummary>MoMu\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_142fe31b68e7.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>MoMu的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2022.10_) [ICLR' 2023] **通过变分推断在大规模文本属性图上进行学习**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14709) | [代码](https:\u002F\u002Fgithub.com\u002FAndyJZhao\u002FGLEM)]\n   \u003Cdetails close>\n   \u003Csummary>GLEM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1e4f8c3c0b4c.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GLEM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2022.12_) [NMI' 2023] **用于基于文本编辑和检索的多模态分子结构-文本模型**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10789) | [代码](https:\u002F\u002Fgithub.com\u002Fchao1224\u002FMoleculeSTM)]\n   \u003Cdetails close>\n   \u003Csummary>MoleculeSTM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_57a6ec34f144.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>MoleculeSTM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.04_) [Arxiv' 2023] **训练你自己的GNN教师：文本图上的图感知蒸馏**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10668) | [代码](https:\u002F\u002Fgithub.com\u002Fcmavro\u002FGRAD)]\n   \u003Cdetails close>\n   \u003Csummary>GRAD\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_5be243227602.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GRAD的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.05_) [ACL' 2023] **PATTON：在富含文本的网络上进行语言模型预训练**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12268) | [代码](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FPatton)]\n   \u003Cdetails close>\n   \u003Csummary>Patton\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e8727b9dd23a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Patton的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.05_) [Arxiv' 2023] **ConGraT：用于联合图和文本嵌入的自监督对比预训练**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14321) | [代码](https:\u002F\u002Fgithub.com\u002Fwwbrannon\u002Fcongrat)]\n   \u003Cdetails close>\n   \u003Csummary>ConGraT\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_ba482663f5f2.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>ConGraT的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.07_) [Arxiv' 2023] **在图增强的低资源文本分类中进行提示调优**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.10230) | [代码](https:\u002F\u002Fgithub.com\u002FWenZhihao666\u002FG2P2-conditional)]\n   \u003Cdetails close>\n   \u003Csummary>G2P2\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1b4978ea5e4a.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>G2P2的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [EMNLP' 2023] **GRENADE：面向文本属性图的自监督表示学习的以图为中心的语言模型**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15109) | [代码](https:\u002F\u002Fgithub.com\u002Fbigheiniu\u002FGRENADE)]\n   \u003Cdetails close>\n   \u003Csummary>GRENADE\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_419837e11fe5.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GRENADE的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [WWW' 2024] **使用大型语言模型进行推荐的表示学习**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15950) | [代码](https:\u002F\u002Fgithub.com\u002FHKUDS\u002FRLMRec)]\n   \u003Cdetails close>\n   \u003Csummary>RLMRec\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_287d82832aa9.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>RLMRec的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n* (_2023.10_) [EMNLP' 2023] **使用文本属性异质图预训练语言模型**\n  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12580) | [代码](https:\u002F\u002Fgithub.com\u002FHope-Rita\u002FTHLM)]\n   \u003Cdetails close>\n   \u003Csummary>THLM\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_1b1a7a27455d.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>THLM的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails。\n\n## 基准测试\n* (_2025.1_) [COLING 2025]  **GraCoRe：大型语言模型中的图理解与复杂推理基准测试** [[论文](https:\u002F\u002Faclanthology.org\u002F2025.coling-main.531\u002F) | [代码](https:\u002F\u002Fgithub.com\u002FZIKEYUAN\u002FGraCoRe)]\n\n* (_2024.07_) [NeurIPS' 2024] **GLBench：大型语言模型的全面图基准测试** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.07457) | [代码](https:\u002F\u002Fgithub.com\u002FNineAbyss\u002FGLBench)]\n  \n* (_2024.05_) [NeurIPS' 2024] **TEG-DB：文本边图的综合数据集和基准测试** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.10310)][[代码](https:\u002F\u002Fgithub.com\u002FZhuofeng-Li\u002FTEG-Benchmark\u002Ftree\u002Fmain)]\n\n\n\n## 其他\n\n### LLM 作为标注器\n\n* (_2023.10_) [ICLR' 2024] **基于大型语言模型（LLMs）的无标签图节点分类** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.18152) | [代码](https:\u002F\u002Fgithub.com\u002FCurryTang\u002FLLMGNN)]\n   \u003Cdetails close>\n   \u003Csummary>LLM-GNN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_b368d8876b63.png\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLM-GNN 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n* (_2024.09_) [NeurIPS' 2024] **利用大型语言模型生成的噪声标注进行实体对齐** [[论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.16806) | [代码](https:\u002F\u002Fgithub.com\u002FchensyCN\u002Fllm4ea_official)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4EA\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_e8d7cb207816.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLM4EA 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM 作为控制器\n\n* (_2023.10_) [Arxiv' 2023] **使用 GPT-4 进行图神经网络架构搜索** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01436)]\n   \u003Cdetails close>\n   \u003Csummary>GPT4GNAS\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_23fea3eefe23.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>GPT4GNAS 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM 作为样本生成器\n\n* (_2023.10_) [Arxiv' 2023] **利用大型语言模型（LLMs）增强文本属性图学习** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.09872)]\n   \u003Cdetails close>\n   \u003Csummary>ENG\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_fdd052a920f1.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>ENG 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM 作为相似性分析器\n\n* (_2023.11_) [Arxiv' 2023] **大型语言模型作为文本属性图的拓扑结构增强器** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.14324)]\n   \u003Cdetails close>\n   \u003Csummary>框架\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_82fa524e5141.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Sun 等人的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails>\n\n### LLM 提升鲁棒性\n\n- (_2024.05_) [Arxiv' 2024] **用文字入侵：迈向理解文本层面的图注入攻击** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.16405)]\n   \u003Cdetails close>\n   \u003Csummary>Lei, et al.\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_7eca997501d8.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>Lei, et al. 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n\n- (_2024.08_) [Arxiv' 2024] **大型语言模型能否提升图神经网络的对抗鲁棒性？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.08685)]\n   \u003Cdetails close>\n   \u003Csummary>LLM4RGNN\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_95d7895f4dba.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>LLM4RGNN 的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails.\n\n### LLM 用于任务规划\n\n- (_2024.05_) [NeurIPS' 2024] **基于图学习能否改进 LLM 驱动智能体的任务规划？** [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19119) | [代码](https:\u002F\u002Fgithub.com\u002FWxxShirley\u002FGNN4TaskPlan)]\n  \u003Cdetails close>\n  \u003Csummary>GNN4TaskPlan\u003C\u002Fsummary>\n  \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_readme_640702fa8461.jpg\" \u002F>\u003C\u002Fp>\n  \u003Cp align=\"center\">\u003Cem>任务规划的定义及所提出的框架。\u003C\u002Fem>\u003C\u002Fp>\n  \u003C\u002Fdetails.\n\n\n## 其他仓库\n\n我们注意到，目前已有多个仓库汇总了关于 LLM 与图结合的相关论文。然而，我们通过采用一种更为细致和新颖的分类体系来组织这些文献，从而形成了自身的特色。建议研究者们参考这些仓库以获得更全面的综述。\n\n- [Awesome-Graph-LLM](https:\u002F\u002Fgithub.com\u002FXiaoxinHe\u002FAwesome-Graph-LLM)，由新加坡国立大学的 [Xiaoxin He](https:\u002F\u002Fxiaoxinhe.github.io\u002F) 创建。\n\n- [Awesome-Large-Graph-Model](https:\u002F\u002Fgithub.com\u002FTHUMNLab\u002Fawesome-large-graph-model)，由清华大学的 [Ziwei Zhang](https:\u002F\u002Fzw-zhang.github.io\u002F) 创建。\n\n- [Awesome-Language-Model-on-Graphs](https:\u002F\u002Fgithub.com\u002FPeterGriffinJin\u002FAwesome-Language-Model-on-Graphs)，由伊利诺伊大学厄巴纳-香槟分校的 [Bowen Jin](https:\u002F\u002Fpeterjin.me\u002F) 创建。\n\n此外，我们强烈推荐一个专注于 **Graph Prompt** 相关工作的仓库，它与 Graph-LLM 的研究方向非常接近。\n\n- [Awesome-Graph-Prompt](https:\u002F\u002Fgithub.com\u002FWxxShirley\u002FAwesome-Graph-Prompt)，由香港中文大学的 [Xixi Wu](https:\u002F\u002Fwxxshirley.github.io\u002F) 创建。\n\n## 贡献\n\n如果您发现了相关资源，欢迎随时提出 issue 或提交 pull request。\n\n```\n* (_时间_) [会议] **论文名称** [[论文](链接) | [代码](链接)]\n   \u003Cdetails close>\n   \u003Csummary>模型名称\u003C\u002Fsummary>\n   \u003Cp align=\"center\">\u003Cimg width=\"75%\" src=\"Figures\u002Fxxx.jpg\" \u002F>\u003C\u002Fp>\n   \u003Cp align=\"center\">\u003Cem>模型名称的框架。\u003C\u002Fem>\u003C\u002Fp>\n   \u003C\u002Fdetails\n```\n\n## 引用我们\n\n如果您觉得本工作对您有所帮助，请随时引用！\n```\n@article{li2023survey,\n  title={A Survey of Graph Meets Large Language Model: Progress and Future Directions},\n  author={Li, Yuhan and Li, Zhixun and Wang, Peisong and Li, Jia and Sun, Xiangguo and Cheng, Hong and Yu, Jeffrey Xu},\n  journal={arXiv preprint arXiv:2311.12399},\n  year={2023}\n}\n```","# Awesome-LLMs-in-Graph-tasks 快速上手指南\n\n本项目并非单一的可安装软件包，而是一个**精选论文与代码资源列表**，旨在汇总利用大语言模型（LLM）解决图任务（Graph Tasks）的前沿研究。本指南将帮助您快速理解项目结构、准备开发环境，并运行列表中收录的典型模型代码。\n\n## 环境准备\n\n由于本项目包含多个独立的开源模型（如 GIANT, Edgeformers, LLMRec 等），每个模型的具体依赖可能略有不同，但大多数基于 PyTorch 和 Hugging Face Transformers。建议先配置通用的深度学习基础环境。\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n- **Python**: 3.8 或更高版本\n- **GPU**: 推荐使用 NVIDIA GPU (显存 >= 16GB 以运行较大 LLM)，CUDA 11.7+\n\n### 前置依赖\n建议创建一个独立的虚拟环境以避免依赖冲突：\n\n```bash\n# 创建虚拟环境\npython -m venv llm-graph-env\nsource llm-graph-env\u002Fbin\u002Factivate  # Windows 用户请使用: llm-graph-env\\Scripts\\activate\n\n# 升级 pip\npip install --upgrade pip\n```\n\n## 安装步骤\n\n本项目本身无需“安装”，您需要根据需求克隆仓库，并针对具体想运行的模型安装其对应的依赖。\n\n### 1. 克隆项目仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FyhLeeee\u002FAwesome-LLMs-in-Graph-tasks.git\ncd Awesome-LLMs-in-Graph-tasks\n```\n\n### 2. 安装通用基础依赖\n大多数列表中的模型需要以下核心库。为方便国内开发者，推荐使用清华或阿里镜像源加速安装：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers datasets accelerate scipy scikit-learn networkx -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 安装特定模型依赖\n进入您感兴趣的具体模型目录（如果仓库中包含子模块）或访问其原始代码链接进行安装。\n*例如，若想运行 `LLMRec` (列表中的推荐系统模型)：*\n\n```bash\n# 访问该模型在 README 中提供的原始代码仓库链接\ngit clone https:\u002F\u002Fgithub.com\u002FHKUDS\u002FLLMRec.git\ncd LLMRec\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n*(注：请根据 README 中 \"LLM as Enhancer\" 或 \"LLM as Predictor\" 章节下具体模型的 `[Code]` 链接获取对应代码库)*\n\n## 基本使用\n\n由于这是一个论文列表，使用方式取决于您选择的具体模型。以下以典型的 **LLM 增强图学习** 流程为例，展示如何运行一个基于该列表思想的简单示例（伪代码逻辑，具体参数需参考各模型原文）。\n\n### 场景：使用 LLM 提取节点特征并训练图神经网络\n大多数 \"LLM as Enhancer\" 类模型（如 SimTeG, TAPE）遵循以下流程：\n\n1.  **数据准备**: 加载包含文本属性的图数据。\n2.  **特征提取**: 调用 LLM 编码节点文本。\n3.  **图学习**: 将编码后的特征输入 GNN 进行下游任务（如节点分类）。\n\n### 运行示例 (以 SimTeG 为例)\n假设您已克隆了 `SimTeG` 的代码库：\n\n```bash\n# 进入模型目录\ncd SimTeG\n\n# 运行节点分类任务示例 (使用 Cora 数据集)\n# 注意：具体脚本名称请参考各模型仓库的 README\npython main.py \\\n    --dataset cora \\\n    --model gcn \\\n    --llm_encoder bert \\\n    --epochs 50 \\\n    --device cuda:0\n```\n\n### 查看完整资源列表\n您可以直接浏览项目根目录下的 `README.md` 文件，其中按分类列出了所有论文、代码链接及框架图：\n- **LLM as Enhancer**: LLM 用于增强节点特征表示。\n- **LLM as Predictor**: LLM 直接作为预测器解决图问题。\n- **GNN-LLM Alignment**: 对齐 GNN 与 LLM 的空间。\n\n```bash\n# 在终端快速查看分类标题\ngrep \"^##\" README.md\n```\n\n> **提示**: 每个模型的具体超参数、数据预处理方式和推理命令请务必查阅该模型独立仓库的 `README` 或原论文，因为不同模型（如分子属性预测 vs 社交网络推荐）的差异较大。","某金融科技公司的算法团队正致力于构建一个反欺诈系统，需要分析包含数百万用户节点和交易边的巨大知识图谱，其中每个节点都附带复杂的文本描述（如交易备注、用户画像）。\n\n### 没有 Awesome-LLMs-in-Graph-tasks 时\n- **特征表达受限**：传统图神经网络（GNN）只能将文本压缩为简单的向量，丢失了交易备注中细微的语义线索，导致难以识别隐蔽的洗钱模式。\n- **技术选型迷茫**：面对层出不穷的“大模型 + 图”论文，团队耗费数周手动检索，却难以区分哪些方法支持参数高效微调（PEFT），哪些仅需提示工程（Prompting）。\n- **结构与时文割裂**：自行尝试结合 LLM 与 GNN 时，往往顾此失彼，要么保留了文本理解能力却丢失了图谱结构信息，要么反之，模型效果不如预期。\n- **复现成本高昂**：缺乏统一的代码和论文索引，团队成员在复现基准模型时频繁遇到环境配置错误或缺失关键实现细节，严重拖慢研发进度。\n\n### 使用 Awesome-LLMs-in-Graph-tasks 后\n- **增强节点表征**：参考列表中\"LLM as Enhancer\"分类下的 GIANT 等前沿方案，团队成功利用 LLM 提取多尺度邻居文本特征，显著提升了模型对异常交易语义的敏感度。\n- **精准技术决策**：通过查阅基于分类学的总结表格，团队迅速锁定了适合自身算力限制的“参数高效微调”模型，避免了盲目试错，将选型时间从数周缩短至两天。\n- **优势互补融合**：依据综述中关于 GNN 与 LLM 对齐的策略，构建了既能深度理解文本上下文又能捕捉复杂交易拓扑的混合架构，欺诈识别准确率提升 15%。\n- **高效落地复现**：直接获取列表中附带的官方代码链接和最新论文，快速搭建了基线系统，并根据社区更新的 Issue 解决了兼容性问题，大幅加速了产品上线。\n\nAwesome-LLMs-in-Graph-tasks 不仅是一份论文清单，更是连接大语言模型语义理解能力与图数据结构优势的桥梁，让复杂的图任务研发从“盲人摸象”变为“有的放矢”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FyhLeeee_Awesome-LLMs-in-Graph-tasks_cb09b4c8.png","yhLeeee","Yuhan Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FyhLeeee_72762b5a.jpg","Time flies.","PhD@HKUST","Shenzhen, China","yli258@connect.hkust-gz.edu.cn",null,"https:\u002F\u002Fyhleeee.github.io\u002F","https:\u002F\u002Fgithub.com\u002FyhLeeee",656,63,"2026-04-19T11:19:26",1,"","未说明",{"notes":90,"python":88,"dependencies":91},"该仓库是一个论文综述列表（Awesome List），汇集了利用大语言模型（LLM）进行图任务的相关研究论文、框架图示及对应代码库的链接。它本身不是一个可直接运行的单一软件工具，因此 README 中未包含具体的操作系统、硬件配置、Python 版本或依赖库安装要求。如需运行其中列出的具体模型（如 GIANT, Edgeformers, LLMRec 等），请访问各项目对应的代码库链接查看其独立的环境需求。",[],[14,93],"其他","2026-03-27T02:49:30.150509","2026-04-20T20:23:01.923591",[],[]]