PromptKG

GitHub
734 74 较难 1 次阅读 2个月前MIT数据工具其他语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

PromptKG 是一个专注于提示学习(Prompt Learning)与知识图谱(KG)交叉领域的开源资源库。它不仅仅是一个代码集合,更是一个集研究模型实现、专用工具包、学术论文列表及新手教程于一体的综合性平台,旨在促进大语言模型与结构化知识的深度融合。

在人工智能快速发展的当下,如何让预训练语言模型更高效地利用外部知识,以及如何通过提示工程激发模型的推理能力,是学术界和工业界面临的共同挑战。PromptKG 正是为了解决这一痛点而生,它系统地整理了“将知识作为提示”和“利用提示增强知识”两大方向的前沿成果,帮助用户打破数据孤岛,提升模型在少样本学习、知识探测及复杂推理任务中的表现。

这套资源特别适合自然语言处理领域的研究人员、算法工程师以及希望深入理解大模型机制的开发者使用。对于初学者,PromptKG 提供了从零开始的教程笔记,降低了入门门槛;对于资深研究者,其收录的详尽论文综述和分类索引是追踪最新学术动态的理想指南。

技术层面,PromptKG 的亮点在于其模块化的工具设计。例如,lambdaKG 库支持基于预训练模型的知识图谱嵌入与应用,而 deltaKG 则创新性地实现了对知识图谱嵌入的动态编辑。这些工具不仅展示了参数高效微调(Delta Tuning)等先进技术的具体落地,也为构建更高效、鲁棒的知识增强型 AI 系统提供了坚实的代码基础和实践参考。

使用场景

某金融科技公司的NLP算法团队正致力于构建一个智能投研助手,旨在从海量非结构化金融新闻中自动抽取实体关系并构建动态知识图谱,以辅助分析师进行快速决策。

没有 PromptKG 时

  • 技术选型迷茫:面对“提示学习(Prompt Learning)”与“知识图谱(KG)”结合的前沿领域,团队需耗费数周时间在海量的学术论文中摸索,难以确定适合金融垂直领域的SOTA模型架构。
  • 冷启动数据匮乏:金融领域标注数据稀缺且昂贵,传统全量微调方法在少样本(Few-shot)场景下效果极差,模型难以准确识别新出现的金融实体或复杂关系。
  • 知识更新滞后:金融市场瞬息万变,传统静态知识图谱嵌入方法无法高效融入实时新闻中的新知识,每次更新都需重新训练整个模型,计算成本高昂且周期长。
  • 复现门槛极高:缺乏统一的代码框架,研究人员需从零编写底层逻辑,导致实验迭代速度慢,且不同模块间兼容性差,难以工程化落地。

使用 PromptKG 后

  • 前沿方案直达:借助 PromptKG 整理的论文列表和研究模型实现,团队迅速锁定了基于提示学习的知识增强方案,将文献调研时间从数周缩短至几天。
  • 少样本性能突破:利用 lambdaKG 库中基于预训练语言模型的嵌入技术,团队在仅有少量标注数据的情况下,显著提升了实体关系抽取的准确率,解决了冷启动难题。
  • 动态知识编辑:通过 deltaKG 库,团队实现了对知识图谱嵌入的动态编辑,无需重新训练即可将最新的市场事件融入模型,实现了知识的实时增量更新。
  • 开发效率倍增:依托提供的教程笔记本和标准化工具包,算法工程师快速完成了原型验证与部署,大幅降低了从学术研究到工业应用的工程壁垒。

PromptKG 通过整合前沿研究与实用工具链,帮助团队以极低的数据成本和研发精力,构建了具备实时进化能力的金融知识智能系统。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes提供的 README 内容主要包含项目介绍、目录结构、教程链接、综述论文列表及相关研究论文列表,并未包含具体的安装指南、环境配置要求或依赖库版本信息。因此无法从当前文本中提取具体的运行环境需求。建议查看项目根目录下的 requirements.txt、setup.py 或具体子模块(如 lambdaKG)的文档以获取详细技术规格。
python未说明
PromptKG hero image

快速开始

PromptKG家族:提示学习与知识图谱相关研究工作、工具包及论文列表的集合。

Awesome 许可证:MIT

目录 描述
research • 提示学习相关的研究模型实现合集
lambdaKG • 基于预训练语言模型的知识图谱嵌入及应用库
deltaKG • 动态编辑基于PLM的知识图谱嵌入的库
tutorial-notebooks • 面向初学者的教程笔记本

目录

教程

  • 使用预训练语言模型进行零样本和少样本NLP。AACL 2022教程 [ppt]
  • 数据高效的知识图谱构建。CCKS2022教程 [ppt]
  • 高效且鲁棒的知识图谱构建。AACL-IJCNLP教程 [ppt]
  • 知识驱动的提示学习。MLNLP 2022教程(中文) [ppt]

综述

  • Delta调优:预训练语言模型参数高效方法的全面研究 (arXiv 2021) [论文]
  • 预训练、提示与预测:自然语言处理中提示方法的系统性综述 (ACM Computing Surveys 2021) [论文]
  • 再结构化预训练 (arXiv 2022) [论文]
  • 基于预训练语言模型的知识密集型NLP综述 (arXiv 2022) [论文]
  • 知识增强型预训练语言模型综述 (arXiv 2022) [论文]
  • 语言模型作为知识库的回顾 (arXiv 2022) [论文]
  • 生成式知识图谱构建:综述 (EMNLP, 2022) [论文]
  • 基于语言模型提示的推理:综述 (arXiv 2022) [论文]
  • 不同类型知识图谱上的推理:静态、时序和多模态 (arXiv 2022) [论文]
  • 大型语言模型中知识的生命周期:综述 (arXiv 2022) [论文]
  • 统一大型语言模型与知识图谱:路线图 (arXiv 2023) [论文]

论文

知识作为提示

语言理解

  • 面向知识密集型 NLP 任务的检索增强生成,发表于 NeurIPS 2020。[pdf]
  • REALM:用于预训练的检索增强语言模型,发表于 ICML 2020。[pdf]
  • 使预训练语言模型成为更好的少样本学习者,发表于 ACL 2022。[pdf]
  • PTR:用于文本分类的基于规则的提示调优,发表于 OpenAI 2022。[pdf]
  • 标签表述与蕴含关系在高效零样本和少样本关系抽取中的应用,发表于 EMNLP 2021。[pdf]
  • RelationPrompt:利用提示生成合成数据以进行零样本关系三元组抽取,发表于 EMNLP 2022(成果)。[pdf]
  • 知识型提示调优:将知识融入提示表述器以进行文本分类,发表于 ACL 2022。[pdf]
  • PPT:面向少样本学习的预训练提示调优,发表于 ACL 2022。[pdf]
  • 预训练语言模型的对比演示调优,发表于 EMNLP 2022(成果)。[pdf]
  • AdaPrompt:基于提示的 NLP 自适应模型训练,发表于 arxiv 2022。[pdf]
  • KnowPrompt:具有协同优化的关系抽取知识感知提示调优,发表于 WWW 2022。[pdf]
  • 基于模式的参考提示提升数据高效的知识图谱构建,发表于 SIGIR 2023。[pdf]
  • 将知识与记忆解耦:检索增强提示学习,发表于 NeurIPS 2022。[pdf]
  • 关系抽取作为开卷考试:检索增强提示调优,发表于 SIGIR 2022。[pdf]
  • LightNER:通过可插拔提示实现低资源 NER 的轻量级调优范式,发表于 COLING 2022。[pdf]
  • 面向通用信息抽取的统一结构生成,发表于 ACL 2022。[pdf]
  • LasUIE:利用潜在自适应结构感知生成式语言模型统一信息抽取,发表于 NeurIPS 2022。[pdf]
  • Atlas:使用检索增强语言模型进行少样本学习,发表于 Arxiv 2022。[pdf]
  • 不要提示,去检索!基于挖掘的零样本学习与语言模型,发表于 ACL 2022。[pdf]
  • 预训练语言模型中的知识提示用于自然语言理解,发表于 EMNLP 2022。[pdf]
  • 面向客户服务对话的统一知识提示预训练,发表于 CIKM 2022。[pdf]
  • 预训练语言模型中的知识提示用于自然语言理解,发表于 EMNLP 2022。[pdf]
  • SELF-INSTRUCT:使语言模型与自我生成的指令对齐,发表于 arxiv 2022。[pdf]
  • 一个嵌入器,适用于任何任务:指令微调的文本嵌入,发表于 arxiv 2022。[pdf]
  • 学习为上下文学习检索提示,发表于 NAACL 2022。[pdf]
  • 训练数据比你想象的更有价值:一种简单有效的从训练数据中检索的方法,发表于 ACL 2022。[pdf]
  • 一个模型适用于所有领域:跨领域 NER 的协作式领域前缀调优,发表于 Arxiv 2023。[pdf]
  • REPLUG:检索增强黑盒语言模型,发表于 Arxiv 2023。[pdf]
  • 面向零样本知识图谱问答的知识增强语言模型提示,发表于 Arxiv 2023。[pdf]

多模态

  • 良好的视觉引导使抽取器更出色:面向多模态实体与关系抽取的层次化视觉前缀,发表于 NAACL 2022(成果)。[pdf]
  • 视觉提示调优,发表于 ECCV 2022。[pdf]
  • CPT:面向预训练视觉-语言模型的彩色提示调优,发表于 EMNLP 2022。[pdf]
  • 学习为视觉-语言模型提示,发表于 IJCV 2022。[pdf]
  • 视觉-语言模型中的测试时提示调优以实现零样本泛化,发表于 NeurIPS 2022。[pdf]

高级任务

  • 推荐即语言处理(RLP):统一预训练、个性化提示与预测范式(P5),发表于 ACM RecSys 2022。[pdf]
  • 通过知识增强提示学习迈向统一的对话式推荐系统,发表于 KDD 2022。[pdf]
  • PromptEM:面向低资源通用实体匹配的提示调优,发表于 VLDB 2023。[pdf]
  • VIMA:利用多模态提示进行通用机器人操作,发表于 Arxiv 2022。[pdf]
  • 使用断连提示消除逆合成语言模型的偏见,发表于 Arxiv 2022。[pdf]
  • ProgPrompt:利用大型语言模型生成情境化的机器人任务计划,发表于 Arxiv 2022。[pdf]
  • 与语言模型协作进行具身推理,发表于 NeurIPS 2022 Workshop LaReL。[pdf]

知识相关的提示(PLMs)

知识探针

  • 语言模型的参数中能容纳多少知识?发表于EMNLP 2020。[pdf]
  • 语言模型能否作为知识库?发表于EMNLP 2019。[pdf]
  • 从常识Transformer中提取的知识库,发表于CSRR 2022。[pdf]
  • 具有时序感知的语言模型作为时间知识库,发表于TACL 2022。[pdf]
  • 生成式预训练语言模型能否作为闭卷问答的知识库?发表于ACL 2021。[pdf]
  • 语言模型作为知识库:关于实体表示、存储容量和同义查询,发表于EACL 2021。[pdf]
  • 面向生物医学知识图谱补全的科学语言模型:一项实证研究,发表于AKBC 2021。[pdf]
  • 多语言LAMA:探究多语言预训练语言模型中的知识,发表于EACL 2021。[pdf]
  • 我们如何知道语言模型掌握了什么?发表于TACL 2020。[pdf]
  • 上下文如何影响语言模型的事实性预测,发表于AKBC 2020。[pdf]
  • COPEN:探测预训练语言模型中的概念知识,发表于EMNLP 2022。[pdf]
  • 从预训练语言模型中探查明喻知识,发表于ACL 2022。[pdf]

知识图谱嵌入(我们提供了一个库和基准测试lambdaKG

  • KG-BERT:用于知识图谱补全的BERT,发表于Arxiv 2020。[pdf]
  • 基于预训练语言模型的知识图谱补全的多任务学习,发表于Coling 2020。[pdf]
  • 面向高效知识图谱补全的结构增强文本表示学习,发表于WWW 2021。[pdf]
  • KEPLER:一种统一的知识嵌入与预训练语言表示模型,TACL 2021 [pdf]
  • StATIK:面向归纳式知识图谱的结构与文本,发表于NAACL 2022。[pdf]
  • 面向知识图谱补全的语言语义与结构联合嵌入,发表于COLING。[pdf]
  • 知识是扁平的:一种用于多种知识图谱补全的Seq2Seq生成框架,发表于COLING。[pdf]
  • 预训练模型是否有助于知识图谱补全?可靠的评估与合理的方法,发表于ACL 2022。[pdf]
  • 语言模型作为知识嵌入,发表于IJCAI 2022。[pdf]
  • 从判别到生成:基于生成式Transformer的知识图谱补全,发表于WWW 2022。[pdf]
  • 通过记忆进行推理:最近邻知识图谱嵌入,发表于Arxiv 2022。[pdf]
  • SimKGC:使用预训练语言模型的简单对比式知识图谱补全,发表于ACL 2022。[pdf]
  • 序列到序列的知识图谱补全与问答,发表于ACL 2022。[pdf]
  • LP-BERT:用于链接预测的多任务预训练知识图谱BERT,发表于Arxiv 2022。[pdf]
  • 掩码与推理:面向复杂逻辑查询的预训练知识图谱Transformer,发表于KDD 2022。[pdf]
  • 知识是扁平的:一种用于多种知识图谱补全的Seq2Seq生成框架,发表于Coling 2022。[pdf]

分析

  • 博学还是凭经验猜测?重新审视语言模型作为知识库,发表于ACL 2021。[pdf]
  • 提示能否探查预训练语言模型?从因果视角理解潜在风险,发表于ACL 2022。[pdf]
  • 预训练语言模型如何捕捉事实性知识?一种受因果启发的分析,发表于ACL 2022。[pdf]
  • 大型语言模型的涌现能力,发表于Arxiv 2022。[pdf]
  • 预训练Transformer中的知识神经元,发表于ACL 2022。[pdf]
  • 在基于预训练Transformer的语言模型中寻找技能神经元,发表于EMNLP 2022。[pdf]
  • 提示能否利用自然语言解决NLP任务?发表于Arxiv 2022。[pdf]
  • 重新思考演示的作用:上下文学习为何有效?发表于EMNLP 2022。[pdf]
  • 基于提示的模型是否真正理解其提示的含义?发表于NAACL 2022。[pdf]
  • 何时不应信任语言模型:探讨参数化与非参数化记忆的有效性与局限性,发表于arxiv 2022。[pdf]
  • GPT为何能在上下文中学习?语言模型暗中以元优化器的身份执行梯度下降,发表于arxiv 2022。[pdf]
  • 极具秩序感的提示及其寻找方法:克服少样本提示顺序敏感性,发表于ACL 2022。[pdf]
  • 大型语言模型的编辑:问题、方法与机遇,发表于arxiv 2023。[pdf]

联系方式

如在使用工具时遇到任何问题或需要帮助,请提交GitHub问题。

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架