[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zjunlp--PromptKG":3,"tool-zjunlp--PromptKG":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":98,"env_os":99,"env_gpu":99,"env_ram":99,"env_deps":100,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":168},2428,"zjunlp\u002FPromptKG","PromptKG","PromptKG Family: a Gallery of Prompt Learning & KG-related research works, toolkits, and paper-list.","PromptKG 是一个专注于提示学习（Prompt Learning）与知识图谱（KG）交叉领域的开源资源库。它不仅仅是一个代码集合，更是一个集研究模型实现、专用工具包、学术论文列表及新手教程于一体的综合性平台，旨在促进大语言模型与结构化知识的深度融合。\n\n在人工智能快速发展的当下，如何让预训练语言模型更高效地利用外部知识，以及如何通过提示工程激发模型的推理能力，是学术界和工业界面临的共同挑战。PromptKG 正是为了解决这一痛点而生，它系统地整理了“将知识作为提示”和“利用提示增强知识”两大方向的前沿成果，帮助用户打破数据孤岛，提升模型在少样本学习、知识探测及复杂推理任务中的表现。\n\n这套资源特别适合自然语言处理领域的研究人员、算法工程师以及希望深入理解大模型机制的开发者使用。对于初学者，PromptKG 提供了从零开始的教程笔记，降低了入门门槛；对于资深研究者，其收录的详尽论文综述和分类索引是追踪最新学术动态的理想指南。\n\n技术层面，PromptKG 的亮点在于其模块化的工具设计。例如，lambdaKG 库支持基于预训练模型的知识图谱嵌入与应用，而 deltaKG 则创新性地实","PromptKG 是一个专注于提示学习（Prompt Learning）与知识图谱（KG）交叉领域的开源资源库。它不仅仅是一个代码集合，更是一个集研究模型实现、专用工具包、学术论文列表及新手教程于一体的综合性平台，旨在促进大语言模型与结构化知识的深度融合。\n\n在人工智能快速发展的当下，如何让预训练语言模型更高效地利用外部知识，以及如何通过提示工程激发模型的推理能力，是学术界和工业界面临的共同挑战。PromptKG 正是为了解决这一痛点而生，它系统地整理了“将知识作为提示”和“利用提示增强知识”两大方向的前沿成果，帮助用户打破数据孤岛，提升模型在少样本学习、知识探测及复杂推理任务中的表现。\n\n这套资源特别适合自然语言处理领域的研究人员、算法工程师以及希望深入理解大模型机制的开发者使用。对于初学者，PromptKG 提供了从零开始的教程笔记，降低了入门门槛；对于资深研究者，其收录的详尽论文综述和分类索引是追踪最新学术动态的理想指南。\n\n技术层面，PromptKG 的亮点在于其模块化的工具设计。例如，lambdaKG 库支持基于预训练模型的知识图谱嵌入与应用，而 deltaKG 则创新性地实现了对知识图谱嵌入的动态编辑。这些工具不仅展示了参数高效微调（Delta Tuning）等先进技术的具体落地，也为构建更高效、鲁棒的知识增强型 AI 系统提供了坚实的代码基础和实践参考。","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fblob\u002Fmain\u002Fresources\u002Flogo.svg\" width=\"350px\">\n\n\n\n **PromptKG Family: a Gallery of Prompt Learning & KG-related research works, toolkits, and paper-list.** \n \n  [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPrompt4ReasoningPapers) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fzjunlp\u002FPromptKG?color=green) \n ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-Welcome-red) \n  \n\u003C\u002Fdiv>\n\n| Directory | Description |\n|-----------|-------------|\n| [research](research) | • A collection of prompt learning-related **research model implementations** |\n| [lambdaKG](lambdaKG) | • A library for **PLM-based KG embeddings and applications** |\n| [deltaKG](deltaKG) | • A library for **dynamically editing PLM-based KG embeddings** |\n| [tutorial-notebooks](tutorial-notebooks) | • **Tutorial notebooks** for beginners |\n\n# Table of Contents\n\n* [Tutorials](#Tutorials)\n* [Surveys](#Surveys)\n* [Papers](#Papers)\n   * [Knowledge as Prompt](#Knowledge-as-Prompt)\n      * [1. Language Understanding](#Knowledge-as-Prompt)\n      * [2. Multimodal](#Knowledge-as-Prompt)\n      * [3. Advanced Tasks](#Knowledge-as-Prompt)\n   * [Prompt (PLMs) for Knowledge](#prompt-plms-for-knowledge)\n      * [1. Knowledge Probing](#prompt-plms-for-knowledge)\n      * [2. Knowledge Graph Embedding](#prompt-plms-for-knowledge)\n      * [3. Analysis](#prompt-plms-for-knowledge)\n* [Contact Information](#Contact-Information)\n\n# Tutorials\n\n- Zero- and Few-Shot NLP with Pretrained Language Models. AACL 2022 Tutorial  \\[[ppt](https:\u002F\u002Fgithub.com\u002Fallenai\u002Facl2022-zerofewshot-tutorial)\\] \n- Data-Efficient Knowledge Graph Construction. CCKS2022 Tutorial  \\[[ppt](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1xqeREw3dSiw-Y1rxLDx77r0hGUvHnuuE)\\] \n- Efficient and Robuts Knowledge Graph Construction. AACL-IJCNLP Tutorial  \\[[ppt](https:\u002F\u002Fgithub.com\u002FNLP-Tutorials\u002FAACL-IJCNLP2022-KGC-Tutorial)\\] \n- Knowledge Informed Prompt Learning. MLNLP 2022 Tutorial (Chinese) \\[[ppt](https:\u002F\u002Fperson.zju.edu.cn\u002Fperson\u002Fattachments\u002F2022-11\u002F01-1668830598-859129.pdf)\\] \n\n# Surveys\n\n* Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models  (on arxiv 2021) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06904)\\]\n* Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing  (ACM Computing Surveys 2021) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.13586)\\]\n* reStructured Pre-training (on arxiv 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11147)\\]\n* A Survey of Knowledge-Intensive NLP with Pre-Trained Language Models (on arxiv 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.08772)\\]\n* A Survey of Knowledge-Enhanced Pre-trained Language Models  (on arxiv 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05994)\\]\n* A Review on Language Models as Knowledge Bases  (on arxiv 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.06031)\\]\n* Generative Knowledge Graph Construction: A Review (EMNLP, 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12714)\\]\n* Reasoning with Language Model Prompting: A Survey (on arxiv 2022) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09597)\\]\n* Reasoning over Different Types of Knowledge Graphs: Static, Temporal and Multi-Modal (on arxiv 2022)  \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05767)\\]\n* The Life Cycle of Knowledge in Big Language Models: A Survey (on arxiv 2022)  \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07616)\\]\n* Unifying Large Language Models and Knowledge Graphs: A Roadmap (on arxiv 2023) \\[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08302)\\]\n\n\n# Papers\n\n## Knowledge as Prompt\n\n*Language Understanding*\n\n- Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, in NeurIPS 2020.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.11401)\n- REALM: Retrieval-Augmented Language Model Pre-Training, in ICML 2020.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.08909)\n- Making Pre-trained Language Models Better Few-shot Learners, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.295\u002F)\n- PTR: Prompt Tuning with Rules for Text Classification, in OpenAI 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.11259.pdf)\n- Label Verbalization and Entailment for Effective Zero- and Few-Shot Relation Extraction, in EMNLP 2021. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.92.pdf)\n- RelationPrompt: Leveraging Prompts to Generate Synthetic Data for Zero-Shot Relation Triplet Extraction, in EMNLP 2022 (Findings). [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09101)\n- Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02035)\n- PPT: Pre-trained Prompt Tuning for Few-shot Learning, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.04332)\n- Contrastive Demonstration Tuning for Pre-trained Language Models, in EMNLP 2022 (Findings). [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.04392)\n- AdaPrompt: Adaptive Model Training for Prompt-based NLP, in arxiv 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.04824)\n- KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization for Relation Extraction, in WWW 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07650)\n- Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph Construction, in SIGIR 2023. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.10709)\n- Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning, in NeurIPS 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.14704)\n- Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning, in SIGIR 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.02355)\n- LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting, in COLING 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F)\n- Unified Structure Generation for Universal Information Extraction, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)\n- LasUIE: Unifying Information Extraction with Latent Adaptive Structure-aware Generative Language Model, in NeurIPS 2022. [\\[pdf\\]](https:\u002F\u002Fopenreview.net\u002Fforum?id=a8qX5RG36jd) \n- Atlas: Few-shot Learning with Retrieval Augmented Language Models, in Arxiv 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.03299) \n- Don't Prompt, Search! Mining-based Zero-Shot Learning with Language Models, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14803) \n- Knowledge Prompting in Pre-trained Language Model for Natural Language Understanding, in EMNLP 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08536)\n- Unified Knowledge Prompt Pre-training for Customer Service Dialogues, in CIKM 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14652)\n- Knowledge Prompting in Pre-trained Language Model for Natural Language Understanding, in EMNLP 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.08536.pdf)\n- SELF-INSTRUCT: Aligning Language Model with Self Generated Instructions, in arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.10560.pdf)\n- One Embedder, Any Task: Instruction-Finetuned Text Embeddings, in arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.09741.pdf)\n- Learning To Retrieve Prompts for In-Context Learning, in NAACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.191.pdf)\n- Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.226.pdf)\n- One Model for All Domains: Collaborative Domain-Prefix Tuning for Cross-Domain NER, in Arxiv 2023. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.10410.pdf)\n- REPLUG: Retrieval-Augmented Black-Box Language Models, in Arxiv 2023. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.12652.pdf)\n- Knowledge-Augmented Language Model Prompting for Zero-Shot Knowledge Graph Question Answering, in Arxiv 2023. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.04136.pdf)\n\n*Multimodal*\n\n- Good Visual Guidance Makes A Better Extractor: Hierarchical Visual Prefix for Multimodal Entity and Relation Extraction, in NAACL 2022 (Findings). [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.03521.pdf)\n- Visual Prompt Tuning, in ECCV 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12119)\n- CPT: Colorful Prompt Tuning for Pre-trained Vision-Language Models, in EMNLP 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.11797)\n- Learning to Prompt for Vision-Language Models, in IJCV 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.01134)\n- Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language Models, in NeurIPS 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.07511) \n\n*Advanced Tasks*\n- Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5), in ACM RecSys 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.13366) \n- Towards Unified Conversational Recommender Systems via Knowledge-Enhanced Prompt Learning, in KDD 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09363) \n- PromptEM: Prompt-tuning for Low-resource Generalized Entity Matching, in VLDB 2023. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.04802) \n- VIMA: General Robot Manipulation with Multimodal Prompts, in Arxiv 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03094)\n- Unbiasing Retrosynthesis Language Models with Disconnection Prompts, in Arxiv 2022. [\\[pdf\\]](https:\u002F\u002Fchemrxiv.org\u002Fengage\u002Fchemrxiv\u002Farticle-details\u002F6328d0b8ba8a6d04fc551df7)\n- ProgPrompt: Generating Situated Robot Task Plans using Large Language Models, in Arxiv 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11302)\n- Collaborating with language models for embodied reasoning, in  NeurIPS 2022 Workshop LaReL.  [\\[pdf\\]](https:\u002F\u002Fopenreview.net\u002Fpdf?id=YoS-abmWjJc)\n\n## Prompt (PLMs) for Knowledge\n\n*Knowledge Probing*\n\n- How Much Knowledge Can You Pack Into the Parameters of a Language Model? in EMNLP 2020.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.emnlp-main.437\u002F)\n- Language Models as Knowledge Bases? in EMNLP 2019. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002FD19-1250.pdf)\n- Materialized Knowledge Bases from Commonsense Transformers, in CSRR 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.csrr-1.5\u002F)\n- Time-Aware Language Models as Temporal Knowledge Bases, in TACL2022.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.tacl-1.15\u002F)\n- Can Generative Pre-trained Language Models Serve as Knowledge Bases for Closed-book QA? in ACL2021.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.251\u002F) \n- Language models as knowledge bases: On entity representations, storage capacity, and paraphrased queries, in EACL2021. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.eacl-main.153\u002F)\n- Scientific language models for biomedical knowledge base completion: an empirical study, in AKBC 2021. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09700) \n- Multilingual LAMA: Investigating knowledge in multilingual pretrained language models, in  EACL2021. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.eacl-main.284\u002F)\n- How Can We Know What Language Models Know ? in TACL 2020. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.tacl-1.28\u002F)\n- How Context Affects Language Models' Factual Predictions, in AKBC 2020.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.04611)\n- COPEN: Probing Conceptual Knowledge in Pre-trained Language Models, in EMNLP 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04079)\n- Probing Simile Knowledge from Pre-trained Language Models,  in ACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.404.pdf)\n  \n*Knowledge Graph Embedding (We provide a library and benchmark [lambdaKG](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Ftree\u002Fmain\u002FlambdaKG))*\n\n- KG-BERT: BERT for knowledge graph completion, in Arxiv 2020. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.03193)\n- Multi-Task Learning for Knowledge Graph Completion with Pre-trained Language Models， in Coling 2020.   [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.coling-main.153.pdf)\n- Structure-Augmented Text Representation Learning for Efficient Knowledge Graph Completion, in WWW 2021.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.14781)\n- KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation, TACL 2021 [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06136)\n- StATIK: Structure and Text for Inductive Knowledge Graph, in NAACL 2022. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.findings-naacl.46\u002F)\n- Joint Language Semantic and Structure Embedding for Knowledge Graph Completion, in COLING.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.171\u002F)\n- Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion, in COLING.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.352\u002F)\n- Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach, in ACL 2022.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.282\u002F)\n- Language Models as Knowledge Embeddings, in IJCAI 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.12617)\n- From Discrimination to Generation: Knowledge Graph Completion with Generative Transformer, in WWW 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.02113)\n- Reasoning Through Memorization: Nearest Neighbor Knowledge Graph Embeddings, in Arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.05575)\n- SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models, in ACL 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02167)\n- Sequence to Sequence Knowledge Graph Completion and Question Answering, in ACL 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10321)\n- LP-BERT: Multi-task Pre-training Knowledge Graph BERT for Link Prediction, in Arxiv 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.04843.pdf)\n- Mask and Reason: Pre-Training Knowledge Graph Transformers for Complex Logical Queries, in KDD 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.07638.pdf)\n- Knowledge Is Flat: A Seq2Seq Generative framework For Various Knowledge Graph Completion, in Coling 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2209.07299.pdf)\n\n\n\n*Analysis*\n\n- Knowledgeable or Educated Guess? Revisiting Language Models as Knowledge Bases, in ACL 2021. [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.146\u002F)\n- Can Prompt Probe Pretrained Language Models? Understanding the Invisible Risks from a Causal View, in ACL 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12258)\n- How Pre-trained Language Models Capture Factual Knowledge? A Causal-Inspired Analysis, in ACl 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.16747)\n- Emergent Abilities of Large Language Models, in Arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07682)\n- Knowledge Neurons in Pretrained Transformers, in ACL 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.08696)\n- Finding Skill Neurons in Pre-trained Transformer-based Language Models, in EMNLP 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07349)\n- Do Prompts Solve NLP Tasks Using Natural Languages? in Arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.00902)\n- Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? in EMNLP 2022. [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.12837)\n- Do Prompt-Based Models Really Understand the Meaning of their Prompts? in NAACL 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.01247)\n- When Not to Trust Language Models: Investigating Effectiveness and Limitations of Parametric and Non-Parametric Memories, in arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Fakariasai.github.io\u002Ffiles\u002Fllm_memorization.pdf)\n- Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers，in arxiv 2022.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.10559.pdf)\n- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity, in ACL 2022.  [\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.556.pdf)\n- Editing Large Language Models: Problems, Methods, and Opportunities, in arxiv 2023.  [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13172.pdf)\n\n## Contact Information\n\nFor help or issues using the tookits, please submit a GitHub issue.\n","\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fblob\u002Fmain\u002Fresources\u002Flogo.svg\" width=\"350px\">\n\n\n\n **PromptKG家族：提示学习与知识图谱相关研究工作、工具包及论文列表的集合。** \n \n  [![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPrompt4ReasoningPapers) \n[![许可证：MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fzjunlp\u002FPromptKG?color=green) \n ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F欢迎PR-red) \n  \n\u003C\u002Fdiv>\n\n| 目录 | 描述 |\n|-----------|-------------|\n| [research](research) | • 提示学习相关的**研究模型实现**合集 |\n| [lambdaKG](lambdaKG) | • 基于预训练语言模型的知识图谱嵌入及应用库 |\n| [deltaKG](deltaKG) | • 动态编辑基于PLM的知识图谱嵌入的库 |\n| [tutorial-notebooks](tutorial-notebooks) | • 面向初学者的**教程笔记本** |\n\n# 目录\n\n* [教程](#Tutorials)\n* [综述](#Surveys)\n* [论文](#Papers)\n   * [知识作为提示](#Knowledge-as-Prompt)\n      * [1. 语言理解](#Knowledge-as-Prompt)\n      * [2. 多模态](#Knowledge-as-Prompt)\n      * [3. 高级任务](#Knowledge-as-Prompt)\n   * [用于知识的提示（PLMs）](#prompt-plms-for-knowledge)\n      * [1. 知识探测](#prompt-plms-for-knowledge)\n      * [2. 知识图谱嵌入](#prompt-plms-for-knowledge)\n      * [3. 分析](#prompt-plms-for-knowledge)\n* [联系方式](#Contact-Information)\n\n# 教程\n\n- 使用预训练语言模型进行零样本和少样本NLP。AACL 2022教程  \\[[ppt](https:\u002F\u002Fgithub.com\u002Fallenai\u002Facl2022-zerofewshot-tutorial)\\] \n- 数据高效的知识图谱构建。CCKS2022教程  \\[[ppt](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1xqeREw3dSiw-Y1rxLDx77r0hGUvHnuuE)\\] \n- 高效且鲁棒的知识图谱构建。AACL-IJCNLP教程  \\[[ppt](https:\u002F\u002Fgithub.com\u002FNLP-Tutorials\u002FAACL-IJCNLP2022-KGC-Tutorial)\\] \n- 知识驱动的提示学习。MLNLP 2022教程（中文） \\[[ppt](https:\u002F\u002Fperson.zju.edu.cn\u002Fperson\u002Fattachments\u002F2022-11\u002F01-1668830598-859129.pdf)\\] \n\n# 综述\n\n* Delta调优：预训练语言模型参数高效方法的全面研究  (arXiv 2021) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06904)\\]\n* 预训练、提示与预测：自然语言处理中提示方法的系统性综述  (ACM Computing Surveys 2021) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.13586)\\]\n* 再结构化预训练 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.11147)\\]\n* 基于预训练语言模型的知识密集型NLP综述 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.08772)\\]\n* 知识增强型预训练语言模型综述 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05994)\\]\n* 语言模型作为知识库的回顾 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.06031)\\]\n* 生成式知识图谱构建：综述 (EMNLP, 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12714)\\]\n* 基于语言模型提示的推理：综述 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09597)\\]\n* 不同类型知识图谱上的推理：静态、时序和多模态 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05767)\\]\n* 大型语言模型中知识的生命周期：综述 (arXiv 2022) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.07616)\\]\n* 统一大型语言模型与知识图谱：路线图 (arXiv 2023) \\[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08302)\\]\n\n\n# 论文\n\n## 知识作为提示\n\n*语言理解*\n\n- 面向知识密集型 NLP 任务的检索增强生成，发表于 NeurIPS 2020。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.11401)\n- REALM：用于预训练的检索增强语言模型，发表于 ICML 2020。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.08909)\n- 使预训练语言模型成为更好的少样本学习者，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.295\u002F)\n- PTR：用于文本分类的基于规则的提示调优，发表于 OpenAI 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.11259.pdf)\n- 标签表述与蕴含关系在高效零样本和少样本关系抽取中的应用，发表于 EMNLP 2021。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.92.pdf)\n- RelationPrompt：利用提示生成合成数据以进行零样本关系三元组抽取，发表于 EMNLP 2022（成果）。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09101)\n- 知识型提示调优：将知识融入提示表述器以进行文本分类，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.02035)\n- PPT：面向少样本学习的预训练提示调优，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.04332)\n- 预训练语言模型的对比演示调优，发表于 EMNLP 2022（成果）。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.04392)\n- AdaPrompt：基于提示的 NLP 自适应模型训练，发表于 arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.04824)\n- KnowPrompt：具有协同优化的关系抽取知识感知提示调优，发表于 WWW 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.07650)\n- 基于模式的参考提示提升数据高效的知识图谱构建，发表于 SIGIR 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.10709)\n- 将知识与记忆解耦：检索增强提示学习，发表于 NeurIPS 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.14704)\n- 关系抽取作为开卷考试：检索增强提示调优，发表于 SIGIR 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.02355)\n- LightNER：通过可插拔提示实现低资源 NER 的轻量级调优范式，发表于 COLING 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F)\n- 面向通用信息抽取的统一结构生成，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)\n- LasUIE：利用潜在自适应结构感知生成式语言模型统一信息抽取，发表于 NeurIPS 2022。[\\[pdf\\]](https:\u002F\u002Fopenreview.net\u002Fforum?id=a8qX5RG36jd) \n- Atlas：使用检索增强语言模型进行少样本学习，发表于 Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.03299) \n- 不要提示，去检索！基于挖掘的零样本学习与语言模型，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.14803) \n- 预训练语言模型中的知识提示用于自然语言理解，发表于 EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.08536)\n- 面向客户服务对话的统一知识提示预训练，发表于 CIKM 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14652)\n- 预训练语言模型中的知识提示用于自然语言理解，发表于 EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.08536.pdf)\n- SELF-INSTRUCT：使语言模型与自我生成的指令对齐，发表于 arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.10560.pdf)\n- 一个嵌入器，适用于任何任务：指令微调的文本嵌入，发表于 arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.09741.pdf)\n- 学习为上下文学习检索提示，发表于 NAACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.191.pdf)\n- 训练数据比你想象的更有价值：一种简单有效的从训练数据中检索的方法，发表于 ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.226.pdf)\n- 一个模型适用于所有领域：跨领域 NER 的协作式领域前缀调优，发表于 Arxiv 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.10410.pdf)\n- REPLUG：检索增强黑盒语言模型，发表于 Arxiv 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.12652.pdf)\n- 面向零样本知识图谱问答的知识增强语言模型提示，发表于 Arxiv 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.04136.pdf)\n\n*多模态*\n\n- 良好的视觉引导使抽取器更出色：面向多模态实体与关系抽取的层次化视觉前缀，发表于 NAACL 2022（成果）。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.03521.pdf)\n- 视觉提示调优，发表于 ECCV 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12119)\n- CPT：面向预训练视觉-语言模型的彩色提示调优，发表于 EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.11797)\n- 学习为视觉-语言模型提示，发表于 IJCV 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.01134)\n- 视觉-语言模型中的测试时提示调优以实现零样本泛化，发表于 NeurIPS 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.07511)\n\n*高级任务*\n- 推荐即语言处理（RLP）：统一预训练、个性化提示与预测范式（P5），发表于 ACM RecSys 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.13366) \n- 通过知识增强提示学习迈向统一的对话式推荐系统，发表于 KDD 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.09363) \n- PromptEM：面向低资源通用实体匹配的提示调优，发表于 VLDB 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2207.04802) \n- VIMA：利用多模态提示进行通用机器人操作，发表于 Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.03094)\n- 使用断连提示消除逆合成语言模型的偏见，发表于 Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Fchemrxiv.org\u002Fengage\u002Fchemrxiv\u002Farticle-details\u002F6328d0b8ba8a6d04fc551df7)\n- ProgPrompt：利用大型语言模型生成情境化的机器人任务计划，发表于 Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.11302)\n- 与语言模型协作进行具身推理，发表于 NeurIPS 2022 Workshop LaReL。[\\[pdf\\]](https:\u002F\u002Fopenreview.net\u002Fpdf?id=YoS-abmWjJc)\n\n## 知识相关的提示（PLMs）\n\n*知识探针*\n\n- 语言模型的参数中能容纳多少知识？发表于EMNLP 2020。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.emnlp-main.437\u002F)\n- 语言模型能否作为知识库？发表于EMNLP 2019。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002FD19-1250.pdf)\n- 从常识Transformer中提取的知识库，发表于CSRR 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.csrr-1.5\u002F)\n- 具有时序感知的语言模型作为时间知识库，发表于TACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.tacl-1.15\u002F)\n- 生成式预训练语言模型能否作为闭卷问答的知识库？发表于ACL 2021。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.251\u002F)\n- 语言模型作为知识库：关于实体表示、存储容量和同义查询，发表于EACL 2021。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.eacl-main.153\u002F)\n- 面向生物医学知识图谱补全的科学语言模型：一项实证研究，发表于AKBC 2021。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09700)\n- 多语言LAMA：探究多语言预训练语言模型中的知识，发表于EACL 2021。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.eacl-main.284\u002F)\n- 我们如何知道语言模型掌握了什么？发表于TACL 2020。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.tacl-1.28\u002F)\n- 上下文如何影响语言模型的事实性预测，发表于AKBC 2020。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.04611)\n- COPEN：探测预训练语言模型中的概念知识，发表于EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.04079)\n- 从预训练语言模型中探查明喻知识，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.404.pdf)\n\n*知识图谱嵌入（我们提供了一个库和基准测试[lambdaKG](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Ftree\u002Fmain\u002FlambdaKG)）*\n\n- KG-BERT：用于知识图谱补全的BERT，发表于Arxiv 2020。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.03193)\n- 基于预训练语言模型的知识图谱补全的多任务学习，发表于Coling 2020。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2020.coling-main.153.pdf)\n- 面向高效知识图谱补全的结构增强文本表示学习，发表于WWW 2021。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.14781)\n- KEPLER：一种统一的知识嵌入与预训练语言表示模型，TACL 2021 [\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.06136)\n- StATIK：面向归纳式知识图谱的结构与文本，发表于NAACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.findings-naacl.46\u002F)\n- 面向知识图谱补全的语言语义与结构联合嵌入，发表于COLING。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.171\u002F)\n- 知识是扁平的：一种用于多种知识图谱补全的Seq2Seq生成框架，发表于COLING。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.352\u002F)\n- 预训练模型是否有助于知识图谱补全？可靠的评估与合理的方法，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.282\u002F)\n- 语言模型作为知识嵌入，发表于IJCAI 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.12617)\n- 从判别到生成：基于生成式Transformer的知识图谱补全，发表于WWW 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.02113)\n- 通过记忆进行推理：最近邻知识图谱嵌入，发表于Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.05575)\n- SimKGC：使用预训练语言模型的简单对比式知识图谱补全，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.02167)\n- 序列到序列的知识图谱补全与问答，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10321)\n- LP-BERT：用于链接预测的多任务预训练知识图谱BERT，发表于Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.04843.pdf)\n- 掩码与推理：面向复杂逻辑查询的预训练知识图谱Transformer，发表于KDD 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.07638.pdf)\n- 知识是扁平的：一种用于多种知识图谱补全的Seq2Seq生成框架，发表于Coling 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2209.07299.pdf)\n\n*分析*\n\n- 博学还是凭经验猜测？重新审视语言模型作为知识库，发表于ACL 2021。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.146\u002F)\n- 提示能否探查预训练语言模型？从因果视角理解潜在风险，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.12258)\n- 预训练语言模型如何捕捉事实性知识？一种受因果启发的分析，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.16747)\n- 大型语言模型的涌现能力，发表于Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07682)\n- 预训练Transformer中的知识神经元，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.08696)\n- 在基于预训练Transformer的语言模型中寻找技能神经元，发表于EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.07349)\n- 提示能否利用自然语言解决NLP任务？发表于Arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.00902)\n- 重新思考演示的作用：上下文学习为何有效？发表于EMNLP 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.12837)\n- 基于提示的模型是否真正理解其提示的含义？发表于NAACL 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.01247)\n- 何时不应信任语言模型：探讨参数化与非参数化记忆的有效性与局限性，发表于arxiv 2022。[\\[pdf\\]](https:\u002F\u002Fakariasai.github.io\u002Ffiles\u002Fllm_memorization.pdf)\n- GPT为何能在上下文中学习？语言模型暗中以元优化器的身份执行梯度下降，发表于arxiv 2022。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2212.10559.pdf)\n- 极具秩序感的提示及其寻找方法：克服少样本提示顺序敏感性，发表于ACL 2022。[\\[pdf\\]](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.556.pdf)\n- 大型语言模型的编辑：问题、方法与机遇，发表于arxiv 2023。[\\[pdf\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13172.pdf)\n\n## 联系方式\n\n如在使用工具时遇到任何问题或需要帮助，请提交GitHub问题。","# PromptKG 快速上手指南\n\nPromptKG 是一个专注于提示学习（Prompt Learning）与知识图谱（KG）相关研究的开源工具集。它包含了基于预训练语言模型（PLM）的知识图谱嵌入库、动态编辑库以及相关研究模型的实现。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：建议 Python 3.7 或更高版本\n*   **前置依赖**：\n    *   `PyTorch` (推荐最新稳定版)\n    *   `Transformers` (Hugging Face)\n    *   `NumPy`, `Pandas` 等基础数据科学库\n\n> **提示**：建议使用 `conda` 创建独立的虚拟环境以避免依赖冲突。\n\n```bash\nconda create -n promptkg python=3.8\nconda activate promptkg\n```\n\n## 安装步骤\n\n由于 PromptKG 是一个包含多个子模块的研究集合，您可以根据需求选择安装整个项目或特定模块。\n\n### 1. 克隆仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG.git\ncd PromptKG\n```\n\n### 2. 安装依赖\n\n根据您想要使用的具体模块，进入相应目录安装依赖。以下是核心模块的安装方式：\n\n**通用依赖安装（推荐先执行）：**\n\n```bash\npip install -r requirements.txt\n```\n\n**若需使用 lambdaKG (基于 PLM 的 KG 嵌入库)：**\n\n```bash\ncd lambdaKG\npip install -e .\n```\n\n**若需使用 deltaKG (动态编辑 PLM-based KG 嵌入库)：**\n\n```bash\ncd deltaKG\npip install -e .\n```\n\n> **国内加速建议**：如果下载依赖较慢，可使用清华源或阿里源加速：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 基本使用\n\nPromptKG 的核心价值在于其提供的教程笔记（Tutorial Notebooks）和具体的模型实现。以下以使用 `lambdaKG` 进行简单的知识图谱嵌入为例展示基本流程。\n\n### 1. 查看教程笔记\n\n对于初学者，最快速的入门方式是运行官方提供的 Jupyter Notebook 教程：\n\n```bash\n# 进入教程目录\ncd tutorial-notebooks\n\n# 启动 Jupyter Notebook\njupyter notebook\n```\n在浏览器中打开对应的 `.ipynb` 文件，按照步骤逐步执行代码。\n\n### 2. 代码示例：使用 lambdaKG 进行嵌入\n\n假设您已安装 `lambdaKG`，以下是一个简化的 Python 调用示例，展示如何加载模型并进行推理：\n\n```python\nimport torch\nfrom lambdalg.models import KGBERT # 示例模型，具体类名请参考 lambdaKG 文档\n\n# 1. 初始化模型\n# 注意：具体参数需根据实际数据集和模型配置调整\nmodel = KGBERT.from_pretrained('bert-base-uncased')\n\n# 2. 准备输入数据 (头实体, 关系, 尾实体)\n# 这里仅为伪代码示意，实际输入需符合模型要求的 Tokenizer 格式\nhead_entity = \"Paris\"\nrelation = \"capital of\"\ntail_entity = \"France\"\n\n# 3. 前向传播计算得分或嵌入\n# inputs = tokenizer(head_entity, relation, tail_entity, return_tensors=\"pt\")\n# outputs = model(**inputs)\n\n# 4. 获取结果\n# print(outputs.logits)\n```\n\n### 3. 探索研究模型实现\n\n如果您希望复现特定的 SOTA 论文模型，可以浏览 `research` 目录：\n\n```bash\nls research\u002F\n```\n\n该目录下包含了多种提示学习与知识图谱结合的经典模型实现（如 KnowPrompt, PPT 等）。您可以直接进入对应子文件夹，参照其中的 `README.md` 或 `train.py` 脚本进行训练和评估。\n\n---\n\n**更多资源：**\n*   **论文列表**：参考根目录下的 `Papers` 章节，获取最新的 Prompt + KG 相关文献。\n*   **综述文章**：参考 `Surveys` 章节，深入了解提示学习和知识图谱融合的理论基础。","某金融科技公司的NLP算法团队正致力于构建一个智能投研助手，旨在从海量非结构化金融新闻中自动抽取实体关系并构建动态知识图谱，以辅助分析师进行快速决策。\n\n### 没有 PromptKG 时\n- **技术选型迷茫**：面对“提示学习（Prompt Learning）”与“知识图谱（KG）”结合的前沿领域，团队需耗费数周时间在海量的学术论文中摸索，难以确定适合金融垂直领域的SOTA模型架构。\n- **冷启动数据匮乏**：金融领域标注数据稀缺且昂贵，传统全量微调方法在少样本（Few-shot）场景下效果极差，模型难以准确识别新出现的金融实体或复杂关系。\n- **知识更新滞后**：金融市场瞬息万变，传统静态知识图谱嵌入方法无法高效融入实时新闻中的新知识，每次更新都需重新训练整个模型，计算成本高昂且周期长。\n- **复现门槛极高**：缺乏统一的代码框架，研究人员需从零编写底层逻辑，导致实验迭代速度慢，且不同模块间兼容性差，难以工程化落地。\n\n### 使用 PromptKG 后\n- **前沿方案直达**：借助 PromptKG 整理的论文列表和研究模型实现，团队迅速锁定了基于提示学习的知识增强方案，将文献调研时间从数周缩短至几天。\n- **少样本性能突破**：利用 lambdaKG 库中基于预训练语言模型的嵌入技术，团队在仅有少量标注数据的情况下，显著提升了实体关系抽取的准确率，解决了冷启动难题。\n- **动态知识编辑**：通过 deltaKG 库，团队实现了对知识图谱嵌入的动态编辑，无需重新训练即可将最新的市场事件融入模型，实现了知识的实时增量更新。\n- **开发效率倍增**：依托提供的教程笔记本和标准化工具包，算法工程师快速完成了原型验证与部署，大幅降低了从学术研究到工业应用的工程壁垒。\n\nPromptKG 通过整合前沿研究与实用工具链，帮助团队以极低的数据成本和研发精力，构建了具备实时进化能力的金融知识智能系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzjunlp_PromptKG_e7a90c75.png","zjunlp","ZJUNLP","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzjunlp_4dd6d5d4.jpg","Knowledge Engine Lab: A NLP & KG Group of  Zhejiang  University",null,"huajunsir@zju.edu.cn","ChenHuajun","http:\u002F\u002Fzjunlp.org","https:\u002F\u002Fgithub.com\u002Fzjunlp",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",97.8,{"name":91,"color":92,"percentage":93},"Shell","#89e051",2.2,734,74,"2026-01-31T17:39:24","MIT",4,"未说明",{"notes":101,"python":99,"dependencies":102},"提供的 README 内容主要包含项目介绍、目录结构、教程链接、综述论文列表及相关研究论文列表，并未包含具体的安装指南、环境配置要求或依赖库版本信息。因此无法从当前文本中提取具体的运行环境需求。建议查看项目根目录下的 requirements.txt、setup.py 或具体子模块（如 lambdaKG）的文档以获取详细技术规格。",[],[51,54,26,13],[105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123,124],"knowledge-graph","genkgc","prompt-tuning","relation-extraction","link-prediction","retrievalre","demo-tuning","pytorch","promptkg","retroprompt","knowledge-informed-prompt-learning","question-answering","dialogue","awsome-list","paper-list","retrieval-augmented","lambdakg","natural-language-processing","nlp","paper","2026-03-27T02:49:30.150509","2026-04-06T05:16:58.525400",[128,133,138,143,148,153,158,163],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},11175,"运行 KGEditor 模型时，不同硬件环境下的结果与论文差距较大，或者出现报错，该怎么办？","GPU 型号和 CUDA 版本的差异（如精度计算方式不同）可能会导致结果波动。建议多进行调试。\n如果遇到具体报错或需要对比日志，可以参考项目中提供的以往运行 log。确保您的环境依赖与项目要求一致。","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F54",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},11174,"KGEditor 论文中提到的“使用损坏数据集预训练模型及筛选正确标记数据”的代码在哪里？","编辑前的模型训练可以使用任意开源代码进行，例如 LambdaKG 或 KG-BERT (https:\u002F\u002Fgithub.com\u002Fyao8839836\u002Fkg-bert)。\n此外，项目已开源训练好的 checkpoint，您可以直接在 deltaKG 目录中找到下载链接直接使用，无需重新预训练：https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Ftree\u002Fmain\u002FdeltaKG","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F59",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},11170,"运行 KNNKGE 模型时报错 AttributeError: 'KNNKGEPretrainLitModel' object has no attribute 'model'，如何解决？","这通常是 transformers 版本兼容性问题。建议使用 Python 3.8，并将 transformers 更新到 4.6.0 版本。请执行以下命令安装依赖后再运行脚本：\npip install -r requirements.txt","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F46",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},11171,"训练过程中 Loss 不下降（例如一直保持在 2.98），可能是什么原因？","这可能是由于 pytorch-lightning 和 torchmetrics 版本不兼容导致的。建议将 pytorch-lightning 版本降级为 1.3.1，并将 torchmetrics 版本设置为 0.5.0。","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F13",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},11172,"使用 GPU 训练 GenKGC 或类似模型时出现 CUDA out of memory (显存不足) 错误，该如何调整？","显存不足通常与模型大小和 batch size 有关。您可以尝试以下方法：\n1. 将预训练模型改为更小的版本，例如从 bart-large 改为 bart-base。\n2. 减小 batch_size 的大小。\n对于 12G 或更小显存的显卡，这些调整通常能解决问题。","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F33",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},11173,"运行 MetaQA 脚本时，hist1\u002Fhist3\u002Fhist10 等评估指标均为 0 或极低，可能是什么原因？","如果评估指标全为 0 或非常低，可能是 batch size 设置过小导致的。建议尝试增大 batch_size 和 eval_batch_size，并检查其他超参数设置是否符合默认配置。","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F47",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},11176,"FB15k-237 数据集需要手动下载吗？放在哪里？","GenKGC 项目所需的 FB15k-237 数据集可以在项目的 dataset 目录中找到或参考相关路径：https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Ftree\u002Fmain\u002Fresearch\u002FPromptKGC\u002Fdataset","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F31",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},11177,"输出日志中的 Eval\u002Fmrr 和 Eval\u002Floc_mrr 指标代表什么？","Eval\u002Fmrr 和 Eval\u002Floc_mrr 是知识图谱补全（KGC）任务中的指标，全称是 Mean Reciprocal Ranking（平均倒数排名）。如果在非 KGC 任务的上下文中看到这些指标，它们可能与当前实验的主要评估指标无关，仅供参考。","https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FPromptKG\u002Fissues\u002F52",[]]