Awesome-LLM-KG
Awesome-LLM-KG 是一个专注于整合大型语言模型(LLM)与知识图谱(KG)的开源学术资源库。它旨在解决当前大模型虽然通用性强但缺乏准确事实知识,而知识图谱虽富含结构化数据却难以构建且动态适应性不足的痛点。通过将两者优势结合,该项目致力于提升人工智能在推理能力、事实准确性及可解释性方面的表现。
这份资源库特别适合人工智能领域的研究人员、开发者以及希望深入探索“神经符号 AI"前沿技术的学者使用。它不仅系统梳理了该领域的最新论文,还提出了清晰的三大融合框架路线图:利用知识图谱增强大模型、借助大模型辅助构建知识图谱,以及两者的深度协同机制。
此外,Awesome-LLM-KG 拥有独特的技术亮点,团队基于此发布了多项被 ICML、NeurIPS、ACL 等顶级会议收录的创新成果,包括结合图神经网络与大模型的 GFM-RAG 检索增强生成管道,以及针对时序知识图谱的动态适应推理方法。无论你是想寻找前沿研究灵感,还是希望获取高质量的代码实现参考,这里都是进入这一新兴交叉领域的理想起点。
使用场景
某金融科技公司风控团队正试图构建一个能实时解释复杂欺诈链条的智能问答系统,以辅助分析师快速决策。
没有 Awesome-LLM-KG 时
- 事实幻觉严重:纯大模型在回答涉及具体股权穿透或关联交易时,常编造不存在的公司关系,导致误判风险。
- 动态更新滞后:知识图谱构建耗时且僵化,难以利用大模型自动捕捉新闻中突发的企业变更,图谱数据往往落后于现实。
- 推理过程黑盒:模型给出的结论缺乏可追溯的逻辑路径,分析师无法验证其是否基于真实的图谱证据,难以通过合规审计。
- 技术选型迷茫:团队在"KG 增强 LLM"还是"LLM 补全 KG"等技术路线上反复试错,缺乏系统性论文指引,研发周期被大幅拉长。
使用 Awesome-LLM-KG 后
- 事实精准锚定:参考库中"图约束推理(Graph-constrained Reasoning)"等方案,让模型严格基于图谱事实生成回答,彻底消除关键实体关系的幻觉。
- 动态自适应进化:引入"时序知识图谱推理"最新成果,利用大模型自动感知并更新图谱中的动态变化,确保欺诈网络实时鲜活。
- 逻辑可信可查:应用"思维链直接评估"技术,系统能输出基于图谱跳转的完整推理路径,让每一条风控建议都有据可查。
- 架构快速落地:依托清晰的三大统一框架路线图和 GFM-RAG 等成熟流水线案例,团队迅速锁定最佳技术组合,将原型开发时间缩短 60%。
Awesome-LLM-KG 通过提供前沿的统一框架与实证方案,成功将大模型的泛化能力与知识图谱的精确性深度融合,打造出既聪明又靠谱的行业级推理引擎。
运行环境要求
未说明
未说明

快速开始
Awesome-LLM-KG
大型语言模型(LLMs)与知识图谱(KGs)融合相关论文及资源的集合。
大型语言模型(LLMs)在各类应用中取得了显著的成功和强大的泛化能力。然而,它们往往难以有效捕捉和利用事实性知识。知识图谱(KGs)是一种结构化的数据模型,能够显式地存储丰富的事实性知识。尽管如此,构建知识图谱仍然具有挑战性,且现有的方法在处理现实世界中不完整且动态变化的知识图谱方面存在不足。因此,将大型语言模型与知识图谱相结合,充分发挥两者的优势,成为一种自然的选择。
最新消息
🔭 本项目仍在开发中。您可以点击 STAR 和 WATCH 来关注最新进展。
- 我们很高兴发布了首个由图基础模型驱动的RAG管道(GFM-RAG),该管道结合了图神经网络与大型语言模型的力量,以增强推理能力。论文 和 代码。
- 我们的最新关于KG + LLM推理的工作:图约束推理:基于大型语言模型的知识图谱忠实推理 已被ICML 2025接收。
- 我们的用于时序知识图谱推理的LLM工作:大型语言模型引导的时序知识图谱动态适应推理 已被NeurIPS 2024接收!
- 我们的用于分析LLM推理的KG论文:利用知识图谱对多跳推理中的思维链进行直接评估 已被ACL 2024接收。
- 我们的路线图论文 已被TKDE接收。
- 我们的用于LLM探针的KG论文:大型语言模型中事实性知识的系统评估 已被EMNLP 2023接收。
- 我们的KG + LLM推理论文:图上的推理:忠实且可解释的大型语言模型推理 已被ICLR 2024接收。
- 我们的用于KG推理的LLM论文:ChatRule:利用大型语言模型挖掘逻辑规则以进行知识图谱推理 现已公开。
- 我们的路线图论文:统一大型语言模型与知识图谱:一份路线图 现已公开。
概述
在这个仓库中,我们收集了近年来大型语言模型与知识图谱融合领域的最新进展。我们提出了一份路线图,总结了三种通用框架:1) KG增强的LLMs、2) LLM增强的KGs以及3) 协同作用的LLMs + KGs。
我们还展示了相关的技术与应用。
我们希望这个仓库能够帮助研究人员和从业者更好地理解这一新兴领域。如果您觉得这个仓库对您有所帮助,请通过引用以下论文来支持我们:
@article{llm_kg,
title={Unifying Large Language Models and Knowledge Graphs: A Roadmap},
author={Pan, Shirui and Luo, Linhao and Wang, Yufei and Chen, Chen and Wang, Jiapu and Wu, Xindong},
journal={IEEE Transactions on Knowledge and Data Engineering (TKDE)},
year={2024}
}
目录
相关综述
- 统一大型语言模型与知识图谱:一份路线图(TKDE,2024年)[论文]
- 关于知识增强型预训练语言模型的综述(Arxiv,2023年)[论文]
- 预训练语言模型在知识密集型NLP中的应用综述(Arxiv,2022年)[论文]
- 将语言模型视为知识库的综述(Arxiv,2022年)[论文]
- 生成式知识图谱构建综述(EMNLP,2022年)[论文]
- 知识增强型预训练语言模型:全面综述(Arxiv,2021年)[论文]
- 不同类型知识图谱上的推理:静态、时序与多模态(Arxiv,2022年)[论文][代码]
KG增强的LLMs
基于知识图谱增强的预训练大语言模型
- ERNIE:融合结构化实体信息的语言表示(ACL,2019)[论文]
- 通过图引导的表示学习利用文本中的结构化知识(EMNLP,2019)[论文]
- SKEP:情感知识增强的情感分析预训练模型(ACL,2020)[论文]
- E-bert:面向电子商务的短语与商品知识增强语言模型(Arxiv,2020)[论文]
- 预训练百科全书:弱监督知识预训练语言模型(ICLR,2020)[论文]
- BERT-MK:将图上下文知识融入预训练语言模型(EMNLP,2020)[论文]
- K-BERT:基于知识图谱赋能语言表示(AAAI,2020)[论文]
- CoLAKE:上下文化的语言与知识嵌入(COLING,2020)[论文]
- Kepler:统一的知识嵌入与预训练语言表示模型(TACL,2021)[论文]
- K-Adapter:通过适配器将知识注入预训练模型(ACL Findings,2021)[论文]
- Cokebert:面向增强型预训练语言模型的上下文知识选择与嵌入(AI Open,2021)[论文]
- Ernie 3.0:大规模知识增强的语言理解与生成预训练模型(Arixv,2021)[论文]
- 使用确定性事实知识预训练语言模型(EMNLP,2022)[论文]
- Kala:知识增强的语言模型适配(NAACL,2022)[论文]
- DKPLM:面向自然语言理解的可分解知识增强预训练语言模型(AAAI,2022)[论文]
- Dict-BERT:借助词典增强语言模型预训练(ACL Findings,2022)[论文]
- JAKET:知识图谱与语言理解的联合预训练(AAAI,2022)[论文]
- 面向故障分析的远程知识预训练(ICDE,2023)[论文]
基于知识图谱增强的大语言模型推理
- 巴拉克的妻子希拉里:利用知识图谱进行事实感知的语言建模(ACL,2019)[论文]
- 面向知识密集型NLP任务的检索增强生成(NeurIPS,2020)[论文]
- Realm:检索增强语言模型预训练(ICML,2020)[论文]
- QA-GNN:结合语言模型和知识图谱进行问答推理(NAACL,2021)[论文]
- 面向长篇故事中显著性推断的记忆与知识增强语言模型(EMNLP,2021)[论文]
- JointLK:结合语言模型和知识图谱进行常识性问题解答的联合推理(NAACL,2022)[论文]
- 通过动态文档驱动的知识图谱提升大语言模型的故事理解能力(AAAI,2022)[论文]
- Greaselm:图推理增强的语言模型(ICLR,2022)[论文]
- 面向知识密集型NLP任务的高效记忆增强Transformer(EMNLP,2022)[论文]
- 面向零样本知识图谱问答的知识增强语言模型提示(NLRSE@ACL,2023)[论文]
- 在动态环境中集成知识图谱的大语言模型多跳问答(EMNLP Findings,2024)[论文]
基于知识图谱增强的大语言模型可解释性
- 语言模型作为知识库(EMNLP,2019)[论文]
- Kagnet:面向常识推理的知识感知图网络(Arxiv,2019)[论文]
- Autoprompt:利用自动生成的提示从语言模型中提取知识(EMNLP,2020)[论文]
- 我们如何知道语言模型知道什么?(ACL,2020)[论文]
- 预训练Transformer中的知识神经元(ACL,2021)[论文]
- 语言模型能否成为生物医学知识库?(EMNLP,2021)[论文]
- 通过知识图谱抽取解释语言模型(Arxiv,2021)[论文]
- QA-GNN:结合语言模型和知识图谱进行问答推理(ACL,2021)[论文]
- 如何查询语言模型?(Arxiv,2021)[论文]
- 重连后探测:一种对比性的方法来探查预训练语言模型的生物医学知识(Arxiv,2021)[论文]
- 何时不应信任语言模型:探究参数化与非参数化记忆的有效性与局限性(Arxiv,2022)[论文]
- 预训练语言模型如何捕捉事实知识?一种因果启发式的分析(Arxiv,2022)[论文]
- 知识图谱能否简化文本?(CIKM,2023)[论文]
大语言模型增强的知识图谱
大语言模型增强的知识图谱嵌入
- 基于大语言模型噪声标注的实体对齐(NeurIPS,2024)[论文]
- LambdaKG:基于预训练语言模型的知识图谱嵌入库(Arxiv,2023)[论文]
- 在超复数空间中整合知识图谱嵌入与预训练语言模型(Arxiv,2022)[论文]
- 为语言模型赋予多模态知识图谱表示(Arxiv,2022)[论文]
- 语言模型引导的知识图谱嵌入(IEEE Access,2022)[论文]
- 语言模型作为知识嵌入(IJCAI,2022)[论文]
- Pretrain-KGE:从预训练语言模型中学习知识表示(EMNLP,2020)[论文]
- KEPLER:知识嵌入与预训练语言表示的统一模型(TACL,2020)[论文]
大语言模型增强的知识图谱补全
- 利用大语言模型实现知识图谱补全的多视角改进(COLING 2024)[论文] [代码]
- KG-BERT:用于知识图谱补全的BERT(Arxiv,2019)[论文]
- 基于预训练语言模型的知识图谱补全的多任务学习(COLING,2020)[论文]
- 预训练模型是否有助于知识图谱补全?一项可靠的评估与合理的方法(ACL,2022)[论文]
- 知识图谱补全中的联合语言语义与结构嵌入(COLING,2022)[论文]
- MEM-KGC:基于掩码实体模型的预训练语言模型知识图谱补全(IEEE Access,2021)[论文]
- 通过统一学习方法利用预训练语言模型扩展知识图谱(Knowl. Based Syst.,2023)[论文]
- 结构增强的文本表示学习用于高效知识图谱补全(WWW,2021)[论文]
- Simkgc:基于预训练语言模型的简单对比式知识图谱补全(ACL,2022)[论文]
- Lp-bert:用于链接预测的多任务预训练知识图谱BERT(Arxiv,2022)[论文]
- 从判别到生成:基于生成式Transformer的知识图谱补全(WWW,2022)[论文]
- 序列到序列的知识图谱补全与问答(ACL,2022)[论文]
- 知识是扁平的:一种适用于多种知识图谱补全任务的seq2seq生成框架(COLING,2022)[论文]
- 适配预训练语言模型用于知识图谱补全的框架(EMNLP,2022)[论文]
- 浸泡PLMs酱汁:通过条件性软提示桥接结构与文本以实现有效知识图谱补全(ACL,2023)[论文]
大语言模型增强的知识图谱到文本生成
- GenWiki:包含130万条内容共享文本和图谱的无监督图谱到文本生成数据集(COLING,2020)[论文]
- KGPT:面向数据到文本生成的知识图谱基础预训练(EMNLP 2020)[论文]
- JointGT:面向知识图谱文本生成的图-文联合表示学习(ACL Findings,2021)[论文]
- 探讨预训练语言模型在图谱到文本生成中的应用(NLP4ConvAI,2021)[论文]
- 基于预训练语言模型的少样本知识图谱到文本生成(ACL,2021)[论文]
- EventNarrative:大规模事件驱动型知识图谱到文本生成数据集(Neurips,2021)[论文]
- GAP:面向知识图谱到文本生成的图感知语言模型框架(COLING,2022)[论文]
大语言模型增强的知识图谱问答
- UniKGQA:面向知识图谱上多跳问答的统一检索与推理(ICLR,2023)[论文]
- StructGPT:大型语言模型处理结构化数据的一般框架(Arxiv,2023)[论文]
- GPT-3在少样本知识基问答中的实证研究(AAAI,2022)[论文]
- 预训练语言模型在简单知识图谱问答中的实证研究(World Wide Web Journal,2023)[论文]
- 通过知识图谱推理增强语言模型以支持开放域问答(EMNLP,2022)[论文]
- DRLK:结合语言模型与知识图谱的动态层次推理问答(EMNLP,2022)[论文]
- 子图检索增强模型用于多跳知识库问答(ACL,2022)[论文]
- GREASELM:面向问答的图推理增强语言模型(ICLR,2022)[论文]
- LaKo:基于知识驱动的视觉问答,通过后期知识到文本注入实现(IJCKG,2022)[论文]
- QA-GNN:结合语言模型与知识图谱进行问答推理(NAACL,2021)[论文]
大语言模型与知识图谱协同
知识表示
- 用于故障分析的远程知识预训练(ICDE,2023)[论文]
- 将领域特定的异构知识融入统一表示的语言模型预训练(Expert Systems with Applications,2023)[论文]
- 深度双向语言-知识图谱预训练(NIPS,2022)[论文]
- KEPLER:知识嵌入与预训练语言表示的统一模型(TACL,2021)[论文]
- JointGT:基于知识图谱的文本生成中图-文联合表示学习(ACL 2021)[论文]
推理
- 用于提升领域特定自然语言处理任务的统一知识图谱增强服务(Arxiv,2023)[论文]
- 面向复杂推理的结构推理与语言模型预训练统一方法(Arxiv,2023)[论文]
- 基于大型语言模型的知识图谱复杂逻辑推理(Arxiv,2023)[论文]
应用
推荐系统
- RecInDial:基于预训练语言模型的对话式推荐统一框架(Arxiv,2023)[论文]
故障分析
- 用于故障分析的远程知识预训练(ICDE,2023)[论文]
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器