[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-quqxui--Awesome-LLM4IE-Papers":3,"tool-quqxui--Awesome-LLM4IE-Papers":64},[4,18,28,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,27],"语言模型",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[27,15,13,14],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[27,15,13,14],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":24,"last_commit_at":50,"category_tags":51,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,27],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":24,"last_commit_at":58,"category_tags":59,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[15,16,60,61,13,62,27,14,63],"视频","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":76,"stars":79,"forks":80,"last_commit_at":81,"license":76,"difficulty_score":82,"env_os":83,"env_gpu":84,"env_ram":84,"env_deps":85,"category_tags":88,"github_topics":89,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":106},8725,"quqxui\u002FAwesome-LLM4IE-Papers","Awesome-LLM4IE-Papers","Awesome papers about generative Information Extraction (IE) using Large Language Models (LLMs) ","Awesome-LLM4IE-Papers 是一个专注于“利用大语言模型进行生成式信息抽取”的学术资源合集。它系统性地整理了该前沿领域的高质量论文，旨在解决研究人员在面对海量文献时难以快速定位核心成果、缺乏统一分类视角的痛点。\n\n该资源特别适合人工智能领域的研究人员、高校师生以及算法工程师使用。无论是希望深入了解命名实体识别、关系抽取、事件抽取等具体任务，还是想探索监督微调、少样本学习、提示词设计及约束解码等关键技术路线，都能在此找到详尽的指引。此外，它还涵盖了特定领域应用、评估分析方法及相关数据集链接，为复现实验和开展新研究提供了坚实基础。\n\n其独特亮点在于不仅提供论文列表，更依托一篇已被《Frontiers of Computer Science》接收的综述文章构建了清晰的分类体系，并保持着高频更新（如 2024 年 9 月单次新增 22 篇），确保用户能紧跟最新学术动态。社区欢迎全球学者共同贡献与反馈，是一个开放、活跃且极具参考价值的科研导航工具。","\n# Awesome-LLM4IE-Papers\n\n🔥🔥🔥 **The article has been accepted by Frontiers of Computer Science (FCS)**.\n\n---\n\nAwesome papers about generative Information extraction using LLMs\n\n\u003Cp align=\"center\" width=\"80%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fquqxui_Awesome-LLM4IE-Papers_readme_33493631ebaa.png\" style=\"width: 50%\">\n\u003C\u002Fp>\n\nThe organization of papers is discussed in our survey: [Large Language Models for Generative Information Extraction: A Survey](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11704-024-40555-y). \n\nIf you find any relevant academic papers that have not been included in our research, please submit a request for an update. We welcome contributions from everyone.\n\nIf any suggestions or mistakes, please feel free to let us know via email at **derongxu@mail.ustc.edu.cn** and **chenweicw@mail.ustc.edu.cn**. We appreciate your feedback and help in improving our work.\n\nIf you find our survey useful for your research, please cite the following paper:\n\n    @article{xu2024large,\n      title={Large language models for generative information extraction: A survey},\n      author={Xu, Derong and Chen, Wei and Peng, Wenjun and Zhang, Chao and Xu, Tong and Zhao, Xiangyu and Wu, Xian and Zheng, Yefeng and Wang, Yang and Chen, Enhong},\n      journal={Frontiers of Computer Science},\n      volume={18},\n      number={6},\n      pages={186357},\n      year={2024},\n      publisher={Springer}\n    }\n\n    \n## 📒 Table of Contents\n- [Information Extraction tasks](#information-extraction-tasks)\n    - [Named Entity Recognition](#named-entity-recognition)\n    - [Relation Extraction ](#relation-extraction)\n    - [Event Extraction](#event-extraction)\n    - [Universal Information Extraction](#universal-information-extraction)\n- [Information Extraction Techniques](#information-extraction-techniques)\n    - [Supervised Fine-tuning](#supervised-fine-tuning)\n    - [Few-shot ](#few-shot)\n    - [Zero-shot](#zero-shot)\n    - [Data Augmentation](#data-augmentation)\n    - [Prompts Design](#prompts-design)\n    - [Constrained Decoding Generation](#constrained-decoding-generation)\n- [Specific Domain](#specific-domain)\n- [Evaluation and Analysis](#evaluation-and-analysis)\n- [Project and Toolkit](#project-and-toolkit)\n- ⏰ [Recently Updated Papers](#recently-updated-papers) (After 2024\u002F09\u002F04, the updated papers is here~)\n- ⭐️ [Datasets](#datasets) (with Download Link~)\n\n## 💡 News\n- **Update Logs**\n    - The details can be find in \u003Ccode>.\u002Fupdate_new_papers_list\u003C\u002Fcode>.\n    - **2024\u002F09\u002F04** Add 22 papers\n    - **2024\u002F06\u002F06** Add 41 papers\n    - **2024\u002F03\u002F30** Add 27 papers\n    - **2024\u002F03\u002F29** Add 20 papers\n\n# Information Extraction tasks\nA taxonomy by various tasks.\n## Named Entity Recognition \nModels targeting only ner tasks.\n### Entity Typing\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n|  [Calibrated Seq2seq Models for Efficient and Generalizable Ultra-fine Entity Typing](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.1040\u002F)  |   EMNLP Findings      |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fyanlinf\u002FCASENT) |\n|  [Generative Entity Typing with Curriculum Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02914)  |   EMNLP       |  2022-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fsiyuyuan\u002FGET) |\n### Entity Identification & Typing \n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Granular Entity Mapper: Advancing Fine-grained Multimodal Named Entity Recognition and Grounding](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.183\u002F) | EMNLP Findings | 2024 | |\n| [Double-Checker: Large Language Model as a Checker for Few-shot Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.180\u002F) | EMNLP Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ffanshu6hao\u002FDouble-Checker) |\n| [VerifiNER: Verification-augmented NER via Knowledge-grounded Reasoning with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.134\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Femseoyk\u002FVerifiNER) | \n| [ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n| [Rethinking Negative Instances for Generative Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) |  ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [LLMs as Bridges: Reformulating Grounded Multimodal Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [RT: a Retrieving and Chain-of-Thought framework for few-shot medical named entity recognition](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | Others | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [P-ICL: Point In-Context Learning for Named Entity Recognition with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04960) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FjiangguochaoGG\u002FP-ICL) |\n| [Astro-NER -- Astronomy Named Entity Recognition: Is GPT a Good Domain Expert Annotator?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024-05 | []() |\n| [Know-Adapter: Towards Knowledge-Aware Parameter-Efficient Transfer Learning for Few-shot Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.854\u002F) | COLING | 2024 | []() |\n| [ToNER: Type-oriented Named Entity Recognition with Generative Language Model](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1412.pdf) | COLING | 2024 | []() |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [Astronomical Knowledge Entity Extraction in Astrophysics Journal Articles via Large Language Models](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | Others | 2024-04 | []() |\n| [LTNER: Large Language Model Tagging for Named Entity Recognition with Contextualized Entity Marking](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05624) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FYFR718\u002FLTNER) |\n| [Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | Others | 2024-04 | []() |\n| [Knowledge-Enriched Prompt for Low-Resource Named Entity Recognition](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3659948) | TALLIP | 2024-04 | []() |\n| [VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [LLMs in Biomedicine: A study on clinical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024-04 | []() |\n| [Out of Sesame Street: A Study of Portuguese Legal Named Entity Recognition Through In-Context Learning](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | ResearchGate | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [LinkNER: Linking Local Named Entity Recognition Models to Large Language Models using Uncertainty](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10573) | WWW | 2024 | \n| [Self-Improving for Zero-Shot Named Entity Recognition with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [On-the-fly Definition Augmentation of LLMs for Biomedical NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [Distilling Named Entity Recognition Models for Endangered Species from Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [Augmenting NER Datasets with LLMs: Towards Automated and Refined Annotation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.01334) | Arxiv | 2024-03 | []() |\n| [ConsistNER: Towards Instructive NER Demonstrations for LLMs with the Consistency of Ontology and Context](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29892)| AAAI | 2024 | \n| [Embedded Named Entity Recognition using Probing Classifiers](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.11747) | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fnicpopovic\u002FEMBER) |\n| [In-Context Learning for Few-Shot Nested Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01182) | Arxiv | 2024-02 | []() |\n| [LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14568) | Arxiv | 2024-02 | []() |\n| [Structured information extraction from scientific text with large language models](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [NuNER: Entity Recognition Encoder Pre-training via LLM-Annotated Data](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15343) |  Arxiv | 2024-02 | \n| [A Simple but Effective Approach to Improve Structured Language Model Output for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) | Arxiv | 2024-02 | \n| [PaDeLLM-NER: Parallel Decoding in Large Language Models for Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04838) | Arxiv | 2024-02 |\n| [Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [C-ICL: Contrastive In-context Learning for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024-02 | \n|  [UniversalNER: Targeted Distillation from Large Language Models for Open Named Entity Recognition](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |   ICLR    |  2024   |  [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner)  |\n| [Improving Large Language Models for Clinical Named Entity Recognition via Prompt Engineering](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n|  [2INER: Instructive and In-Context Learning on Few-Shot Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.259\u002F)  |   EMNLP Findings    |  2023-12   |    |\n|  [In-context Learning for Few-shot Multimodal Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.196\u002F)  |   EMNLP Findings    |  2023-12   |    |\n|  [Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |   EMNLP Findings    |  2023-12   |  [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE)  |\n|  [Learning to Rank Context for Named Entity Recognition Using a Synthetic Dataset](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10118)  |   EMNLP     |  2023-12   |  [GitHub](https:\u002F\u002Fgithub.com\u002FCompNet\u002Fconivel\u002Ftree\u002Fgen)  |\n|  [LLMaAA: Making Large Language Models as Active Annotators](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596)  |   EMNLP Findings    |  2023-12   |  [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA)  |\n|  [Prompting ChatGPT in MNER: Enhanced Multimodal Named Entity Recognition with Auxiliary Refined Knowledge](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212)  |   EMNLP Findings    |  2023-12   |  [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM)  |\n| [GLiNER: Generalist Model for Named Entity Recognition using Bidirectional Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n| [GPT Struct Me: Probing GPT Models on Narrative Entity Extraction](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10350182) | WI-IAT | 2023-10 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhmosousa\u002Fgpt_struct_me) |\n|  [GPT-NER: Named Entity Recognition via Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10428)  |   Arxiv    |  2023-10   |  [GitHub](https:\u002F\u002Fgithub.com\u002FShuheWang1998\u002FGPT-NER)  |\n|  [Prompt-NER: Zero-shot Named Entity Recognition in Astronomy Literature via Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892)  |   Arxiv    |  2023-10   |    |\n|  [Inspire the Large Language Model by External Knowledge on BioMedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278)  |   Arxiv    |  2023-09   |    |\n|  [One Model for All Domains: Collaborative Domain-Prefx Tuning for Cross-Domain NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10410)  |   IJCAI    |  2023-09   |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Fcross)  |\n|  [Chain-of-Thought Prompt Distillation for Multimodal Named Entity Recognition and Multimodal Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122)  |   Arxiv    |  2023-08   |    |\n| [Learning In-context Learning for Named Entity Recognition ](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.764\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchen700564\u002Fmetaner-icl) |\n|  [Debiasing Generative Named Entity Recognition by Calibrating Sequence Likelihood](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.98\u002F)  |   ACL Short    |  2023-07   |    |\n|  [Entity-to-Text based Data Augmentation for various Named Entity Recognition Tasks](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.578\u002F)  |   ACL Findings     |  2023-07   |    |\n|  [Large Language Models as Instructors: A Study on Multilingual Clinical Entity Extraction](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F)  |   BioNLP    |  2023-07   |  [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023)  |\n| [NAG-NER: a Unified Non-Autoregressive Generation Framework for Various NER Tasks](https:\u002F\u002Faclanthology.org\u002F2023.acl-industry.65\u002F) | ACL Industry | 2023-07 | \n| [Unified Named Entity Recognition as Multi-Label Sequence Generation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10191921) |  IJCNN | 2023-06 | \n|  [PromptNER : Prompting For Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444)  |   Arxiv    |  2023-06   |    |\n|  [Does Synthetic Data Generation of LLMs Help Clinical Text Mining?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360)  |   Arxiv    |  2023-04   |    |\n| [Unified Text Structuralization with Instruction-tuned Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n|  [Structured information extraction from complex scientific text with fine-tuned large language models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238)  |   Arxiv    |  2022-12   |  [Demo](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction)  |\n|  [LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING |  2022-10 |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n|  [De-bias for generative extraction in unified NER task](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.59.pdf)  |   ACL      |  2022-05   |    |\n|  [InstructionNER: A Multi-Task Instruction-Based Generative Framework for Few-shot NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03903) |  Arxiv  |  2022-03 |   |\n|  [Document-level Entity-based Extraction as Template Generation](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F)  |   EMNLP      |  2021-11   |  [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen)  |\n|  [A Unified Generative Framework for Various NER Subtasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01223)  |   ACL      |  2021-08   |  [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTNER)  |\n|  [Template-Based Named Entity Recognition Using BART](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf)  |   ACL Findings    |  2021-08   |  [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER)  |\n## Relation Extraction \nModels targeting only RE tasks.\n### Relation Classification\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | Others | 2024-04 | []() |\n| [CRE-LLM: A Domain-Specific Chinese Relation Extraction Framework with Fine-tuned Large Language Model](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.18085)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyuForever\u002FCRE-LLM) |\n| [Recall, Retrieve and Reason: Towards Better In-Context Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17809)  | IJCAI | 2024-04 | []() |\n| [Empirical Analysis of Dialogue Relation Extraction with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [Meta In-Context Learning Makes Large Language Models Better Zero and Few-Shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [Retrieval-Augmented Generation-based Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.13397)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Fsefeoglu\u002FRAG4RE) |\n| [Relation Extraction Using Large Language Models: A Case Study on Acupuncture Point Locations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024-04 | []() |\n|  [STAR: Boosting Low-Resource Information Extraction by Structure-to-Text Data Generation with Large Language Models](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  |  AAAI  |  2024-03 |  |\n| [Grasping the Essentials: Tailoring Large Language Models for Zero-Shot Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11142) | Arxiv | 2024-02 |   \n| [Chain of Thought with Explicit Evidence Reasoning for Few-shot Relation Extraction](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.153\u002F) | EMNLP Findings | 2023-12 | |\n|  [GPT-RE: In-context Learning for Relation Extraction using Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02105)  |   EMNLP  |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002FYukinoWan\u002FGPT-RE) |\n|  [Guideline Learning for In-context Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  |   EMNLP  |  2023-12   |  |\n|  [Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |   EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n|  [LLMaAA: Making Large Language Models as Active Annotators](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596)  |   EMNLP Findings    |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA) |\n|  [Improving Unsupervised Relation Extraction by Augmenting Diverse Sentence Pairs](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552)  |   EMNLP    |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n|  [Revisiting Large Language Models as Zero-shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028)  |   EMNLP Findings |  2023-12   |  |\n| [Mastering the Task of Open Information Extraction with Large Language Models and Consistent Reasoning Environment](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n|  [Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  |  ACL Findings  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n|  [How to Unleash the Power of Large Language Models for Few-shot Relation Extraction?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555)  |   ACL Workshop  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n| [Sequence generation with label augmentation for relation extraction](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F26532)| AAAI | 2023-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FRELA) |\n|  [Does Synthetic Data Generation of LLMs Help Clinical Text Mining?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360)  |   Arxiv    |  2023-04   |  |\n| [DORE: Document Ordered Relation Extraction based on Generative Framework](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022-12 |\n|  [REBEL: Relation Extraction By End-to-end Language generation](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021-11   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n### Relation Triplet\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.476\u002F) |  ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FOceannTwT\u002Fera-cot) |\n| [AutoRE: Document-Level Relation Extraction with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.acl-demos.20\u002F) | ACL Demos | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigdante\u002FAutoRE) |\n| [Meta In-Context Learning Makes Large Language Models Better Zero and Few-Shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [Consistency Guided Knowledge Retrieval and Denoising in LLMs for Zero-shot Document-level Relation Triplet Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13598) | WWW | 2024 |\n| [Improving Recall of Large Language Models: A Model Collaboration Approach for Relational Triple Extraction](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.778\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FDing-Papa\u002FEvaluating-filtering-coling24) |\n| [Unlocking Instructive In-Context Learning with Tabular Prompting for Relational Triple Extraction](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1488\u002F) | COLING | 2024 | |\n| [A Simple but Effective Approach to Improve Structured Language Model Output for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) |  Arxiv | 2024-02 | \n| [Structured information extraction from scientific text with large language models](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [Document-Level In-Context Few-Shot Relation Extraction via Pre-Trained Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11085) | Arxiv | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Foezyurty\u002FREPLM) |\n| [Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [Efficient Data Learning for Open Information Extraction with Pre-trained Language Models](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.869\u002F) | EMNLP Findings | 2023-12 | \n| [Mastering the Task of Open Information Extraction with Large Language Models and Consistent Reasoning Environment](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n| [Unified Text Structuralization with Instruction-tuned Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n|  [Document-level Entity-based Extraction as Template Generation](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F)  |    EMNLP      | 2021-11    | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen) |\n\n### Relation Strict\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [Distilling Named Entity Recognition Models for Endangered Species from Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [An Autoregressive Text-to-Graph Framework for Joint Entity and Relation Extraction](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n| [C-ICL: Contrastive In-context Learning for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024-02 | \n|  [REBEL: Relation Extraction By End-to-end Language generation](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021-11   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n## Event Extraction \nModels targeting only EE tasks.\n### Event Detection\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Improving Event Definition Following For Zero-Shot Event Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024-03 | []() |\n| [Mastering the Task of Open Information Extraction with Large Language Models and Consistent Reasoning Environment](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) |  Arxiv | 2023-10 | \n| [Unified Text Structuralization with Instruction-tuned Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n|  [Unleash GPT-2 Power for Event Detection](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.490.pdf)  |    ACL      |  2021-08   | []() |\n### Event Argument Extraction\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [LLMs Learn Task Heuristics from Demonstrations: A Heuristic-Driven Prompting Strategy for Document-Level Event Argument Extraction](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.647\u002F)  | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhzzhou01\u002FHD-LoA-Prompting) |\n| [Beyond Single-Event Extraction: Towards Efficient Document-Level Multi-Event Argument Extraction](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.564\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FLWL-cpu\u002FDEEIA) |\n| [KeyEE: Enhancing Low-Resource Generative Event Extraction with Auxiliary Keyword Sub-Prompt](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [Leveraging ChatGPT in Pharmacovigilance Event Extraction: An Empirical Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [ULTRA: Unleash LLMs' Potential for Event Argument Extraction through Hierarchical Modeling and Pair-wise Refinement](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218)  | Arxiv | 2024-01 | []() |\n|  [Context-Aware Prompt for Generation-based Event Argument Extraction with Diffusion Models](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3583780.3614820)  |    CIKM      |   2023-10  | []() |\n| [Contextualized Soft Prompts for Extraction of Event Arguments](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.266\u002F) | ACL Findings | 2023-07 | |\n| [AMPERE: AMR-Aware Prefix for Generation-Based Event Argument Extraction Model](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.615\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FAMPERE) |\n|  [Code4Struct: Code Generation for Few-Shot Event Structure Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810)  |       ACL   |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n|  [Event Extraction as Question Generation and Answering](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |    ACL short      | 2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n| [Global Constraints with Prompting for Zero-Shot Event Argument Classification](https:\u002F\u002Faclanthology.org\u002F2023.findings-eacl.191\u002F) | EACL Findings | 2023-05 | |\n|  [Prompt for extraction? PAIE: prompting argument interaction for event argument extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.466\u002F)  |        ACL       |  2022-05   | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FPAIE) |\n### Event Detection & Argument Extraction\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE: Benchmark, Reevaluation, Reflections, and Future Challenges in Event Extraction](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [EventRL: Enhancing Event Extraction with Outcome Supervision for Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11430) | Arxiv | 2024-02 |\n|  [Guideline Learning for In-context Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  |   EMNLP    |  2023-12   |  |\n|  [DemoSG: Demonstration-enhanced Schema-guided Generation for Low-resource Event Extraction](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n|  [DICE: Data-Efficient Clinical Event Extraction with Generative Models](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf)  |      ACL    |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n|  [A Monte Carlo Language Model Pipeline for Zero-Shot Sociopolitical Event Extraction](https:\u002F\u002Fopenreview.net\u002Fpdf?id=3xGnOrUqt1)   |    NeurIPS Workshop      |  2023-10    | []() |\n|  [STAR: Boosting Low-Resource Information Extraction by Structure-to-Text Data Generation with Large Language Models](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  |     AAAI     |  2024-03   | []() |\n|  [DEGREE: A Data-Efficient Generative Event Extraction Model](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.138\u002F)  |      NAACL    |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FDEGREE) |\n|  [ClarET: Pre-training a correlation-aware context-to-event transformer for event-centric generation and classification](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.183\u002F)  |   ACL       |    2022-05 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyczhou001\u002FClarET) |\n|  [Dynamic prefix-tuning for generative template-based event extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.358.pdf)  |   ACL       |  2022-05   | []() |\n|  [Text2event: Controllable sequence-to- structure generation for end-to-end event extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09232)  |        ACL     |  2021-08     | [GitHub](https:\u002F\u002Fgithub.com\u002Fluyaojie\u002Ftext2event) |\n|  [Document-level event argument extraction by conditional generation](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf)  |    NAACL      | 2021-06    | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n## Universal Information Extraction\nUnified models targeting multiple IE tasks.\n### NL-LLMs based\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Diluie: constructing diverse demonstrations of in-context learning with large language model for unified information extraction](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [ChatUIE: Exploring Chat-based Unified Information Extraction using Large Language Models]() | COLING | 2024 | |\n| [YAYI-UIE: A Chat-Enhanced Instruction Tuning Framework for Universal Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15548) | Arxiv | 2024-04 | \n|  [Set Learning for Generative Information Extraction](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.806.pdf)  |    EMNLP      |   2023-12  | []() |\n|  [GIELLM: Japanese General Information Extraction Large Language Model Utilizing Mutual Reinforcement Effect](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06838)  |   Arxiv       |  2023-11   | []() |\n|  [InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085)  |    Arxiv      |  2023-04   | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n| [Zero-Shot Information Extraction via Chatting with ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205)   |      Arxiv      |  2023-02    | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n|  [GenIE: Generative Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.342.pdf)  |     NAACL     |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGenIE) |\n|  [DEEPSTRUCT: Pretraining of Language Models for Structure Prediction](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F)  |      ACL Findings    |   2022-05  | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n|  [Unified Structure Generation for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [Structured prediction as translation between augmented natural languages](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      | 2021-01    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n### Code-LLMs based\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [KnowCoder: Coding Structured Knowledge into LLMs for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.475\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fict-goknow.github.io\u002Fknowcoder\u002F) |\n|  [GoLLIE: Annotation Guidelines improve Zero-Shot Information-Extraction](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9)  |     ICLR     |  2024   | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n|  [Retrieval-Augmented Code Generation for Universal Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.02962)  |      Arxiv    |   2023-11  | []() |\n|  [CODEIE: Large Code Generation Models are Better Few-Shot Information Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05711)  |       ACL   |   2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fartpli\u002FCodeIE) |\n|  [CodeKGC: Code Language Model for Generative Knowledge Graph Construction](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850)  |    ACM TALLIP      |   2024-03  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n# Information Extraction Techniques\nA taxonomy by techniques.\n## Supervised Fine-tuning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Rethinking Negative Instances for Generative Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) |  ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [Beyond Single-Event Extraction: Towards Efficient Document-Level Multi-Event Argument Extraction](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.564\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FLWL-cpu\u002FDEEIA) |\n| [AutoRE: Document-Level Relation Extraction with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.acl-demos.20\u002F) | ACL Demos | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigdante\u002FAutoRE) |\n| [Recall, Retrieve and Reason: Towards Better In-Context Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17809)  | IJCAI | 2024-04 | []() |\n| [Empirical Analysis of Dialogue Relation Extraction with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [An Autoregressive Text-to-Graph Framework for Joint Entity and Relation Extraction](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n| [Improving Recall of Large Language Models: A Model Collaboration Approach for Relational Triple Extraction](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.778\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FDing-Papa\u002FEvaluating-filtering-coling24) |\n| [ToNER: Type-oriented Named Entity Recognition with Generative Language Model](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1412.pdf) | COLING | 2024 | []() |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [KeyEE: Enhancing Low-Resource Generative Event Extraction with Auxiliary Keyword Sub-Prompt](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [LLMs in Biomedicine: A study on clinical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [CRE-LLM: A Domain-Specific Chinese Relation Extraction Framework with Fine-tuned Large Language Model](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.18085)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyuForever\u002FCRE-LLM) |\n| [Relation Extraction Using Large Language Models: A Case Study on Acupuncture Point Locations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024-04 | []() |\n| [Improving Event Definition Following For Zero-Shot Event Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024-03 | []() |\n| [Embedded Named Entity Recognition using Probing Classifiers](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.11747) | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fnicpopovic\u002FEMBER) |\n| [EventRL: Enhancing Event Extraction with Outcome Supervision for Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11430) | Arxiv | 2024-02 |\n| [Structured information extraction from scientific text with large language models](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [PaDeLLM-NER: Parallel Decoding in Large Language Models for Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04838) | Arxiv | 2024-02 |\n|  [UniversalNER: Targeted Distillation from Large Language Models for Open Named Entity Recognition](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |   ICLR       |   2024  | [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner) |\n|  [GoLLIE: Annotation Guidelines improve Zero-Shot Information-Extraction](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9)  |     ICLR     |  2024   | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n|  [Set Learning for Generative Information Extraction](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.806.pdf)  |    EMNLP      |   2023-12  | []() |\n| [Efficient Data Learning for Open Information Extraction with Pre-trained Language Models](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.869\u002F) | EMNLP Findings | 2023-12 | \n|  [DemoSG: Demonstration-enhanced Schema-guided Generation for Low-resource Event Extraction](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [Calibrated Seq2seq Models for Efficient and Generalizable Ultra-fine Entity Typing](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.1040\u002F)  |     EMNLP Findings    |   2023-12  | []() |\n|  [GIELLM: Japanese General Information Extraction Large Language Model Utilizing Mutual Reinforcement Effect](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06838)  |   Arxiv       |  2023-11   | []() |\n| [GLiNER: Generalist Model for Named Entity Recognition using Bidirectional Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n|  [Context-Aware Prompt for Generation-based Event Argument Extraction with Diffusion Models](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3583780.3614820)  |    CIKM      |   2023-10  | []() |\n| [Contextualized Soft Prompts for Extraction of Event Arguments](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.266\u002F) | ACL Findings | 2023-07 | |\n| [AMPERE: AMR-Aware Prefix for Generation-Based Event Argument Extraction Model](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.615\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FAMPERE) |\n|  [Debiasing Generative Named Entity Recognition by Calibrating Sequence Likelihood](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.98\u002F)  |     ACL short    |  2023-07   | []() |\n|  [DICE: Data-Efficient Clinical Event Extraction with Generative Models](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf)  |      ACL    |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n|  [Event Extraction as Question Generation and Answering](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |    ACL short      | 2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n| [NAG-NER: a Unified Non-Autoregressive Generation Framework for Various NER Tasks](https:\u002F\u002Faclanthology.org\u002F2023.acl-industry.65\u002F) | ACL Industry | 2023-07 | \n| [Sequence generation with label augmentation for relation extraction](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F26532)| AAAI | 2023-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FRELA) |\n| [Unified Named Entity Recognition as Multi-Label Sequence Generation](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10191921) |  IJCNN | 2023-06 | \n|  [InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085)  |    Arxiv      |  2023-04   | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n|  [Structured information extraction from complex scientific text with fine-tuned large language models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238)  |    Arxiv      |  2022-12   | [Demo](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction) |\n|  [Generative Entity Typing with Curriculum Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02914)  |     EMNLP     |  2022-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fsiyuyuan\u002FGET) |\n| [DORE: Document Ordered Relation Extraction based on Generative Framework](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022-12 |\n|  [LasUIE: Unifying Information Extraction with Latent Adaptive Structure-aware Generative Language Model](https:\u002F\u002Fopenreview.net\u002Fpdf?id=a8qX5RG36jd)  |     NeurIPS     |   2022-10  | [GitHub](https:\u002F\u002Fgithub.com\u002FChocoWu\u002FLasUIE) |\n|  [LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING |  2022-10 |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n|  [GenIE: Generative Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.342.pdf)  |     NAACL     |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGenIE) |\n|  [DEGREE: A Data-Efficient Generative Event Extraction Model](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.138\u002F)  |      NAACL    |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FDEGREE) |\n|  [ClarET: Pre-training a correlation-aware context-to-event transformer for event-centric generation and classification](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.183\u002F)  |   ACL       |    2022-05 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyczhou001\u002FClarET) |\n|  [DEEPSTRUCT: Pretraining of Language Models for Structure Prediction](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F)  |      ACL Findings    |   2022-05  | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n|  [Dynamic prefix-tuning for generative template-based event extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.358.pdf)  |   ACL       |  2022-05   | []() |\n|  [Prompt for extraction? PAIE: prompting argument interaction for event argument extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.466\u002F)  |        ACL       |  2022-05   | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FPAIE) |\n|  [Unified Structure Generation for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [De-bias for generative extraction in unified NER task](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.59.pdf)  |       ACL       |  2022-05    | []() |\n|  [Document-level Entity-based Extraction as Template Generation](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F)  |    EMNLP      | 2021-11    | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen) |\n|  [REBEL: Relation Extraction By End-to-end Language generation](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021-11   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n|  [A Unified Generative Framework for Various NER Subtasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01223)  |   ACL       |   2021-08  | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTNER) |\n|  [Template-Based Named Entity Recognition Using BART](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf)  |    ACL Findings     |  2021-08   | [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER) |\n|  [Text2event: Controllable sequence-to- structure generation for end-to-end event extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09232)  |        ACL     |  2021-08     | [GitHub](https:\u002F\u002Fgithub.com\u002Fluyaojie\u002Ftext2event) |\n|  [Document-level event argument extraction by conditional generation](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf)  |    NAACL      | 2021-06    | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n|  [Structured prediction as translation between augmented natural languages](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      | 2021-01    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n## Few-shot\n### Few-shot Fine-tuning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Diluie: constructing diverse demonstrations of in-context learning with large language model for unified information extraction](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [KeyEE: Enhancing Low-Resource Generative Event Extraction with Auxiliary Keyword Sub-Prompt](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [Meta In-Context Learning Makes Large Language Models Better Zero and Few-Shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [On-the-fly Definition Augmentation of LLMs for Biomedical NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n|  [DemoSG: Demonstration-enhanced Schema-guided Generation for Low-resource Event Extraction](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [One Model for All Domains: Collaborative Domain-Prefx Tuning for Cross-Domain NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10410)  |    IJCAI      | 2023-09    | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Fcross)  |\n|  [LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING |  2022-10 |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n|  [Unified Structure Generation for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [InstructionNER: A Multi-Task Instruction-Based Generative Framework for Few-shot NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03903) |  Arxiv  |  2022-03 |   |\n|  [Template-Based Named Entity Recognition Using BART](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf)  |    ACL Findings     |  2021-08   | [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER) |\n|  [Structured prediction as translation between augmented natural languages](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      | 2021-01    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n### In-Context Learning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE: Benchmark, Reevaluation, Reflections, and Future Challenges in Event Extraction](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [RT: a Retrieving and Chain-of-Thought framework for few-shot medical named entity recognition](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | Others | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [P-ICL: Point In-Context Learning for Named Entity Recognition with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04960) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FjiangguochaoGG\u002FP-ICL) |\n| [LTNER: Large Language Model Tagging for Named Entity Recognition with Contextualized Entity Marking](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05624) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FYFR718\u002FLTNER) |\n| [Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | Others | 2024-04 | []() |\n| [LLMs in Biomedicine: A study on clinical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024-04 | []() |\n| [Out of Sesame Street: A Study of Portuguese Legal Named Entity Recognition Through In-Context Learning](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | ResearchGate | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [Empirical Analysis of Dialogue Relation Extraction with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [Self-Improving for Zero-Shot Named Entity Recognition with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [ConsistNER: Towards Instructive NER Demonstrations for LLMs with the Consistency of Ontology and Context](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29892)| AAAI | 2024 | \n| [On-the-fly Definition Augmentation of LLMs for Biomedical NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [Unlocking Instructive In-Context Learning with Tabular Prompting for Relational Triple Extraction](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1488\u002F) |  COLING | 2024 | |\n|  [CodeKGC: Code Language Model for Generative Knowledge Graph Construction](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850)  |    ACM TALLIP      |   2024-03  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n| [Document-Level In-Context Few-Shot Relation Extraction via Pre-Trained Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11085) | Arxiv | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Foezyurty\u002FREPLM) |\n| [In-Context Learning for Few-Shot Nested Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01182) | Arxiv | 2024-02 | []() |\n| [Leveraging ChatGPT in Pharmacovigilance Event Extraction: An Empirical Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [Heuristic-Driven Link-of-Analogy Prompting: Enhancing Large Language Models for Document-Level Event Argument Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06555v2)  | Arxiv | 2024-02 | []() |\n| [LinkNER: Linking Local Named Entity Recognition Models to Large Language Models using Uncertainty](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10573) | WWW | 2024 | \n| [Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [C-ICL: Contrastive In-context Learning for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024-02 | \n| [Improving Large Language Models for Clinical Named Entity Recognition via Prompt Engineering](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [Chain of Thought with Explicit Evidence Reasoning for Few-shot Relation Extraction](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.153\u002F) | EMNLP Findings | 2023-12 | |\n|  [GPT-RE: In-context Learning for Relation Extraction using Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02105)  |     EMNLP     |   2023-12  | [GitHub](https:\u002F\u002Fgithub.com\u002FYukinoWan\u002FGPT-RE) |\n|  [Guideline Learning for In-context Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  |  EMNLP     |   2023-12  | []() |\n|  [Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n|  [Retrieval-Augmented Code Generation for Universal Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.02962)  |      Arxiv    |   2023-11  | []() |\n| [Mastering the Task of Open Information Extraction with Large Language Models and Consistent Reasoning Environment](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n|  [GPT-NER: Named Entity Recognition via Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10428)  |    Arxiv    |   2023-10   | [GitHub](https:\u002F\u002Fgithub.com\u002FShuheWang1998\u002FGPT-NER) |\n| [GPT Struct Me: Probing GPT Models on Narrative Entity Extraction](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10350182) | WI-IAT | 2023-10 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhmosousa\u002Fgpt_struct_me) |\n| [Learning In-context Learning for Named Entity Recognition ](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.764\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchen700564\u002Fmetaner-icl) |\n|  [Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  |     ACL Findings     |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n|  [Code4Struct: Code Generation for Few-Shot Event Structure Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810)  |       ACL   |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n|  [CODEIE: Large Code Generation Models are Better Few-Shot Information Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05711)  |     ACL   |   2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fartpli\u002FCodeIE) |\n|  [How to Unleash the Power of Large Language Models for Few-shot Relation Extraction?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555)  |    ACL Workshop      |  2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n|  [PromptNER : Prompting For Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444)  |      Arxiv    |  2023-06   | [GitHub](https:\u002F\u002Fgithub.com\u002Ftricktreat\u002FPromptNER) |\n| [Unified Text Structuralization with Instruction-tuned Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n## Zero-shot\n### Zero-shot Prompting\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.476\u002F) |  ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FOceannTwT\u002Fera-cot) |\n| [Astronomical Knowledge Entity Extraction in Astrophysics Journal Articles via Large Language Models](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | Others | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [Empirical Analysis of Dialogue Relation Extraction with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [Retrieval-Augmented Generation-based Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.13397)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Fsefeoglu\u002FRAG4RE) |\n| [Relation Extraction Using Large Language Models: A Case Study on Acupuncture Point Locations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024-04 | []() |\n| [Meta In-Context Learning Makes Large Language Models Better Zero and Few-Shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [Self-Improving for Zero-Shot Named Entity Recognition with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [CodeKGC: Code Language Model for Generative Knowledge Graph Construction](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850)  |    ACM TALLIP      |   2024-03    | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n| [On-the-fly Definition Augmentation of LLMs for Biomedical NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [Leveraging ChatGPT in Pharmacovigilance Event Extraction: An Empirical Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [A Simple but Effective Approach to Improve Structured Language Model Output for Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) |  Arxiv | 2024-02 |  \n| [Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [Improving Large Language Models for Clinical Named Entity Recognition via Prompt Engineering](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [Improving Unsupervised Relation Extraction by Augmenting Diverse Sentence Pairs](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552)   |   EMNLP       |    2023-12  | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n|  [Prompt-NER: Zero-shot Named Entity Recognition in Astronomy Literature via Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892)    | Arxiv  |   2023-10  |  |\n| [Revisiting Large Language Models as Zero-shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028)   |     EMNLP Findings     |  2023-10    | []() |\n| [Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)   |     ACL Findings     |  2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n| [Code4Struct: Code Generation for Few-Shot Event Structure Prediction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810)   |    ACL      |   2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n| [A Monte Carlo Language Model Pipeline for Zero-Shot Sociopolitical Event Extraction](https:\u002F\u002Fopenreview.net\u002Fpdf?id=3xGnOrUqt1)   |    NeurIPS Workshop     |  2023-10    | []() |\n| [Global Constraints with Prompting for Zero-Shot Event Argument Classification](https:\u002F\u002Faclanthology.org\u002F2023.findings-eacl.191\u002F) | EACL Findings | 2023-05 | |\n| [Zero-Shot Information Extraction via Chatting with ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205)   |      Arxiv      |  2023-02    | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n### Cross-Domain Learning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [KnowCoder: Coding Structured Knowledge into LLMs for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.475\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fict-goknow.github.io\u002Fknowcoder\u002F) |\n| [VerifiNER: Verification-augmented NER via Knowledge-grounded Reasoning with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.134\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Femseoyk\u002FVerifiNER) | \n| [Rethinking Negative Instances for Generative Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) |  ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [IEPile: Unearthing Large-Scale Schema-Based Information Extraction Corpus](https:\u002F\u002Faclanthology.org\u002F2024.acl-short.13\u002F) | ACL Short | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FIEPile?tab=readme-ov-file) |\n| [Diluie: constructing diverse demonstrations of in-context learning with large language model for unified information extraction](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5)  | Others | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [Advancing Entity Recognition in Biomedicine via Instruction Tuning of Large Language Models]() |  Bioinformatics | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FBioNER-LLaMA) |\n| [ChatUIE: Exploring Chat-based Unified Information Extraction using Large Language Models]() | COLING | 2024 | |\n| [ULTRA: Unleash LLMs' Potential for Event Argument Extraction through Hierarchical Modeling and Pair-wise Refinement](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218)  | Arxiv | 2024-01 | []() |\n| [YAYI-UIE: A Chat-Enhanced Instruction Tuning Framework for Universal Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15548) | Arxiv | 2024-04 | \n|  [GoLLIE: Annotation Guidelines improve Zero-Shot Information-Extraction](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9)  |  ICLR  |  2024   | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n|  [UniversalNER: Targeted Distillation from Large Language Models for Open Named Entity Recognition](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |  ICLR  |   2024  | [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner) |\n|  [InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085)  |   Arxiv   |  2023-04   | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n|  [DEEPSTRUCT: Pretraining of Language Models for Structure Prediction](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F)  |   ACL Findings   |  2022-05   | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n|  [Multilingual generative language models for zero-shot cross-lingual event argument extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.317.pdf)  |  ACL  |  2022-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FX-Gear) |\n### Cross-Type Learning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n|  [Document-level event argument extraction by conditional generation](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf)  |     NAACL     |   2021-06  | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n## Data Augmentation\n### Data Annotation\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Astro-NER -- Astronomy Named Entity Recognition: Is GPT a Good Domain Expert Annotator?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024-05 | []() |\n| [MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [Augmenting NER Datasets with LLMs: Towards Automated and Refined Annotation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.01334) | Arxiv | 2024-03 | []() |\n| [NuNER: Entity Recognition Encoder Pre-training via LLM-Annotated Data](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15343) |  Arxiv | 2024-02 | \n| [Leveraging ChatGPT in Pharmacovigilance Event Extraction: An Empirical Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14568) | Arxiv | 2024-02 | []() |\n|  [LLMaAA: Making Large Language Models as Active Annotators](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596)  |   EMNLP Findings       |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA) |\n|  [Improving Unsupervised Relation Extraction by Augmenting Diverse Sentence Pairs](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552)  |      EMNLP    |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n|  [Semi-automatic Data Enhancement for Document-Level Relation Extraction with Distant Supervision from Large Language Models](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.334.pdf)  |    EMNLP      |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigai-nlco\u002FDocGNRE) |\n|  [How to Unleash the Power of Large Language Models for Few-shot Relation Extraction?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555)  |     ACL Workshop     |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n|  [Large Language Models as Instructors: A Study on Multilingual Clinical Entity Extraction](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F)  |   bioNLP Workshop       |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023) |\n|  [Does Synthetic Data Generation of LLMs Help Clinical Text Mining?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360)  |     Arxiv     |   2023-04  | []() |\n|  [Unleash GPT-2 Power for Event Detection](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.490.pdf)  |    ACL      |  2021-08   | []() |\n### Knowledge Retrieval \n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [LLMs as Bridges: Reformulating Grounded Multimodal Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [Consistency Guided Knowledge Retrieval and Denoising in LLMs for Zero-shot Document-level Relation Triplet Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13598) | WWW | 2024 |\n|  [Learning to Rank Context for Named Entity Recognition Using a Synthetic Dataset](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10118)  |  EMNLP  |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002FCompNet\u002Fconivel\u002Ftree\u002Fgen) |\n|  [Prompting ChatGPT in MNER: Enhanced Multimodal Named Entity Recognition with Auxiliary Refined Knowledge](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212)  |  EMNLP Findings   |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM) |\n|  [Chain-of-Thought Prompt Distillation for Multimodal Named Entity Recognition and Multimodal Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122)  |  Arxiv  |  2023-08   | []() |\n### Inverse Generation\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Distilling Named Entity Recognition Models for Endangered Species from Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [Improving Event Definition Following For Zero-Shot Event Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024-03 | []() |\n| [ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n|  [Grasping the Essentials: Tailoring Large Language Models for Zero-Shot Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11142) | Arxiv | 2024-02 |\n|  [Exploiting Asymmetry for Synthetic Training Data Generation: SynthIE and the Case of Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04132)  |   EMNLP       |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FSynthIE) |\n|  [Entity-to-Text based Data Augmentation for various Named Entity Recognition Tasks](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.578\u002F)  |     ACL Findings     |   2023-07  | []() |\n|  [Event Extraction as Question Generation and Answering](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |   ACL Short       |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n|  [STAR: Boosting Low-Resource Event Extraction by Structure-to-Text Data Generation with Large Language Models](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  |     AAAI     |  2024-03   | []() |\n### Synthetic Datasets for Instruction-tuning\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Rethinking Negative Instances for Generative Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) |  ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n|  [UniversalNER: Targeted Distillation from Large Language Models for Open Named Entity Recognition](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |   ICLR    |  2024-01   |  [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner)  |\n| [GLiNER: Generalist Model for Named Entity Recognition using Bidirectional Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n| [Chain-of-Thought Prompt Distillation for Multimodal Named Entity Recognition and Multimodal Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122)   |  Arxiv  |   2023-08  | |\n\n## Prompts Design\n### Question Answer\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [Knowledge-Enriched Prompt for Low-Resource Named Entity Recognition](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3659948) | TALLIP | 2024-04 | []() |\n| [Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | Others | 2024-04 | []() |\n|  [Revisiting Large Language Models as Zero-shot Relation Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028)  |   EMNLP Findings |  2023-12   |  |\n|  [Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  |  ACL Findings  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n| [Zero-Shot Information Extraction via Chatting with ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205)   |      Arxiv      |  2023-02    | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n### Chain of Thought\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [RT: a Retrieving and Chain-of-Thought framework for few-shot medical named entity recognition](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | Others | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n|  [Inspire the Large Language Model by External Knowledge on BioMedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278)  |   Arxiv  |   2023-09  | |\n|  [Chain-of-Thought Prompt Distillation for Multimodal Named Entity Recognition and Multimodal Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122) |  Arxiv  |   2023-08  | |\n|  [Revisiting Relation Extraction in the era of Large Language Models](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.868.pdf)  |   ACL   |  2023-07  | [GitHub](https:\u002F\u002Fsominw.com\u002FACL23LLMs) |\n|  [Zero-shot Temporal Relation Extraction with ChatGPT](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.7\u002F)  |  BioNLP    |  2023-07   |  |\n|  [PromptNER : Prompting For Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444)  |   Arxiv    |  2023-06   |    |\n### Self-Improvement\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n| [ULTRA: Unleash LLMs' Potential for Event Argument Extraction through Hierarchical Modeling and Pair-wise Refinement](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218)  | Arxiv | 2024-01 | []() |\n| [Self-Improving for Zero-Shot Named Entity Recognition with Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n\n\n\n## Constrained Decoding Generation\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [An Autoregressive Text-to-Graph Framework for Joint Entity and Relation Extraction](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n|  [Grammar-Constrained Decoding for Structured NLP Tasks without Finetuning](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.674\u002F)  |     EMNLP     |   2024-01  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGCD) |\n| [DORE: Document Ordered Relation Extraction based on Generative Framework](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022-12 |\n|  [Autoregressive Structured Prediction with Language Models](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.70\u002F)  |     EMNLP Findings     |   2022-12  | [GitHub](https:\u002F\u002Fgithub.com\u002Flyutyuh\u002FASP) |\n|  [Unified Structure Generation for Universal Information Extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n\n\n# Specific Domain\n|  Paper  |  Domain |   Venue    |   Date  | Code |\n| :----- | :--------------: | :-------: | :---------: |:---------: |\n| [Granular Entity Mapper: Advancing Fine-grained Multimodal Named Entity Recognition and Grounding](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.183\u002F) | Multimodal |EMNLP Findings | 2024 | |\n| [LLMs as Bridges: Reformulating Grounded Multimodal Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | Multimodal | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [RT: a Retrieving and Chain-of-Thought framework for few-shot medical named entity recognition](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | Medical | Others | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [Astro-NER -- Astronomy Named Entity Recognition: Is GPT a Good Domain Expert Annotator?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Astronomy | Arxiv | 2024-05 | []() |\n| [Astronomical Knowledge Entity Extraction in Astrophysics Journal Articles via Large Language Models](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | Astronomy | Others | 2024-04 | []() |\n| [VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | Biomedical | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [LLMs in Biomedicine: A study on clinical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Biomedical | Arxiv | 2024-04 | []() |\n| [Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587) | Software | Others | 2024-04 | []() |\n| [Out of Sesame Street: A Study of Portuguese Legal Named Entity Recognition Through In-Context Learning](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | Legal | ResearchGate | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Scientific | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [Relation Extraction Using Large Language Models: A Case Study on Acupuncture Point Locations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415) | Acupuncture Point | Arxiv | 2024-04 | []() |\n| [Advancing Entity Recognition in Biomedicine via Instruction Tuning of Large Language Models]() | Biomedical | Bioinformatics | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FBioNER-LLaMA) |\n| [Distilling Named Entity Recognition Models for Endangered Species from Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430) | Endangered Species | Arxiv | 2024-03 | []() |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F) | Historical | COLING | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [On-the-fly Definition Augmentation of LLMs for Biomedical NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | Biomedical | NAACL | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [Improving LLM-Based Health Information Extraction with In-Context Learning](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-97-1717-0_4)| Health | Others | 2024-03 |\n| [Structured information extraction from scientific text with large language models](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Scientific | Nat. Commun. | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FLBNLP\u002FNERRE) |\n| [Leveraging ChatGPT in Pharmacovigilance Event Extraction: An Empirical Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663) | Pharmacovigilance | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [Structured information extraction from scientific text with large language models](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Scientific | Nat. Commun. | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [Combining prompt‑based language models and weak supervision for labeling named entity recognition on legal documents](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs10506-023-09388-1) | Legal | Others  | 2024-02 | \n| [Improving Large Language Models for Clinical Named Entity Recognition via Prompt Engineering](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Clinical | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [Impact of Sample Selection on In-Context Learning for Entity Extraction from Scientific Writing](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.338\u002F)| Scientific | EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fadalin16\u002FICL_EE)|\n|  [Prompting ChatGPT in MNER: Enhanced Multimodal Named Entity Recognition with Auxiliary Refined Knowledge](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212)  |   Multimodal  | ENMLP Findings  |  2023-12  | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM) |\n|  [In-context Learning for Few-shot Multimodal Named Entity Recognition](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.196\u002F)  |   Multimodal  | ENMLP Findings  | 2023-12   |  |\n|  [PolyIE: A Dataset of Information Extraction from Polymer Material Scientific Literature](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07715)  |   Polymer Material    | Arxiv  |   2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Fjerry3027\u002FPolyIE) |\n|  [Prompt-NER: Zero-shot Named Entity Recognition in Astronomy Literature via Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892)  |     Astronomical    | Arxiv  |   2023-10  |  |\n|  [Inspire the Large Language Model by External Knowledge on BioMedical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278)  |    Biomedical     |  Arxiv  |   2023-09  | |\n|  [Chain-of-Thought Prompt Distillation for Multimodal Named Entity Recognition and Multimodal Relation Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122)  |    Multimodal     |  Arxiv  |   2023-08  | |\n|  [DICE: Data-Efficient Clinical Event Extraction with Generative Models](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf)  |   Clinical      |  ACL | 2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n|  [How far is Language Model from 100% Few-shot Named Entity Recognition in Medical Domain](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00186)  |     Medical    | Arxiv  |  2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n|  [Large Language Models as Instructors: A Study on Multilingual Clinical Entity Extraction](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F)  |     Multilingual \u002F Clinical      | BioNLP  |  2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023) |\n|  [Does Synthetic Data Generation of LLMs Help Clinical Text Mining?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360)  |   Clinical      | Arxiv  |  2023-04  |  |\n|  [Yes but.. Can ChatGPT Identify Entities in Historical Documents](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17322)  |    Historical    |  JCDL   |  2023-03  |  |\n|  [Zero-shot Clinical Entity Recognition using ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416)  |   Clinical |      Arxiv   |  2023-03    |  |\n|  [Structured information extraction from complex scientific text with fine-tuned large language models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238)  |   Scientific  |      Arxiv   |  2022-12   | [Demo](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction) |\n|  [Multilingual generative language models for zero-shot cross-lingual event argument extraction](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.317.pdf)  |   Multilingual |      ACL   |  2022-05    | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FX-Gear) |\n# Evaluation and Analysis\n|  Paper  |      Venue    |   Date  | Code |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE: Benchmark, Reevaluation, Reflections, and Future Challenges in Event Extraction](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [IEPile: Unearthing Large-Scale Schema-Based Information Extraction Corpus](https:\u002F\u002Faclanthology.org\u002F2024.acl-short.13\u002F) | ACL Short | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FIEPile?tab=readme-ov-file) |\n| [CHisIEC: An Information Extraction Corpus for Ancient Chinese History](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [GenRES: Rethinking Evaluation for Generative Relation Extraction in the Era of Large Language Models](https:\u002F\u002Faclanthology.org\u002F2024.naacl-long.155\u002F) | NAACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpat-jj\u002FGenRES) |\n| [Empirical Analysis of Dialogue Relation Extraction with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024 | []() |\n| [Astro-NER -- Astronomy Named Entity Recognition: Is GPT a Good Domain Expert Annotator?](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024-05 | []() |\n| [Relation Extraction Using Large Language Models: A Case Study on Acupuncture Point Locations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024-04 | []() |\n| [Mining experimental data from Materials Science literature with Large Language Models: an evaluation study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [Distilling Named Entity Recognition Models for Endangered Species from Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13168) | Arxiv | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FAutoKG)|\n| [Few shot clinical entity recognition in three languages: Masked language models outperform LLM prompting](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12801) | Arxiv | 2024-02 | \n| [Information Extraction from Legal Wills: How Well Does GPT-4 Do?](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.287\u002F) | EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fml4ai\u002Fie4wills\u002F) |\n| [Information Extraction in Low-Resource Scenarios: Survey and Perspective](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.08063)| Arxiv | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FLow-resource-KEPapers) |\n|  [Empirical Study of Zero-Shot NER with ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10035)  |   EMNLP       |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FZero-Shot-NER-with-ChatGPT) |\n|  [NERetrieve: Dataset for Next Generation Named Entity Recognition and Retrieval](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14282)  |   EMNLP Findings       |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fkatzurik\u002FNERetrieve) |\n|  [Preserving Knowledge Invariance: Rethinking Robustness Evaluation of Open Information Extraction](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.360\u002F)  |  EMNLP    |   2023-12  | [GitHub](https:\u002F\u002Fgithub.com\u002Fqijimrc\u002FROBUST) |\n|  [PolyIE: A Dataset of Information Extraction from Polymer Material Scientific Literature](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07715)  |  Arxiv    |   2023-11  | [GitHub](https:\u002F\u002Fgithub.com\u002Fjerry3027\u002FPolyIE) |\n|  [XNLP: An Interactive Demonstration System for Universal Structured NLP](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01846)  |  Arxiv    |  2023-08   | [Demo](http:\u002F\u002Fxnlp.haofei.vip\u002F) |\n|  [A Zero-shot and Few-shot Study of Instruction-Finetuned Large Language Models Applied to Clinical and Biomedical Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12114)  |   Arxiv    |  2023-07  |  |\n|  [How far is Language Model from 100% Few-shot Named Entity Recognition in Medical Domain](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00186)  |     Arxiv    |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n|  [Revisiting Relation Extraction in the era of Large Language Models](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.868.pdf)  |   ACL   |  2023-07  | [GitHub](https:\u002F\u002Fsominw.com\u002FACL23LLMs) |\n|  [Zero-shot Temporal Relation Extraction with ChatGPT](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.7\u002F)  |  BioNLP    |  2023-07   |  |\n|  [InstructIE: A Chinese Instruction-based Information Extraction Dataset](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11527)  |   Arxiv   |  2023-05  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm) |\n|  [Is Information Extraction Solved by ChatGPT? An Analysis of Performance, Evaluation Criteria, Robustness and Errors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14450)  |   Arxiv   |  2023-05    | [GitHub](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FEvaluation-of-ChatGPT-on-Information-Extraction) |\n|  [Evaluating ChatGPT's Information Extraction Capabilities: An Assessment of Performance, Explainability, Calibration, and Faithfulness](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11633)  |   Arxiv   |  2023-04   | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FChatGPT_for_IE) |\n|  [Exploring the Feasibility of ChatGPT for Event Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03836)  |     Arxiv   |  2023-03   |  |\n|  [Yes but.. Can ChatGPT Identify Entities in Historical Documents](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17322)  |   JCDL   |  2023-03   |  |\n|  [Zero-shot Clinical Entity Recognition using ChatGPT](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416)  |      Arxiv   |  2023-03    |  |\n|  [Thinking about GPT-3 In-Context Learning for Biomedical IE? Think Again](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.329\u002F)  |   EMNLP Findings   |   2022-12  | [GitHub](https:\u002F\u002Fgithub.com\u002Fdki-lab\u002Ffew-shot-bioIE) |\n|  [Large Language Models are Few-Shot Clinical Information Extractors](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12689)  |   EMNLP   |  2022-12   | [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fmitclinicalml\u002Fclinical-ie) |\n# Project and Toolkit\n|  Paper  |  Type  |  Venue  |  Date  |  Link  |\n| :------ | :------: | :------: | :------: | :------: |\n| ONEKE | Project | - | - | [Link](http:\u002F\u002Foneke.openkg.cn\u002F) |\n| [TechGPT-2.0: A Large Language Model Project to Solve the Task of Knowledge Graph Construction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.04507) | Project | Arxiv | 2024-01 | [Link](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT-2.0) |\n| [CollabKG: A Learnable Human-Machine-Cooperative Information Extraction Toolkit for (Event) Knowledge Graph Construction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00769) | Toolkit | Arxiv | 2023-07 | [Link](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FCollabKG) |\n\n# Recently Updated Papers\n## 2024\u002F09\u002F04\n|  Paper  |  Venue  |  Date  |  Code  |\n| :------ | :------: | :------: | :------: |\n| [Timeline-based Sentence Decomposition with In-Context Learning for Temporal Fact Extraction](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.187\u002F) | ACL | 2024-08 | [GitHub](https:\u002F\u002Fgithub.com\u002FJianhaoChen-nju\u002FTSDRE) |\n| [Epidemic Information Extraction for Event-Based Surveillance using Large Language Models](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-97-4581-4_17) | ICICT | 2024-08 | |\n| [SpeechEE: A Novel Benchmark for Speech Event Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.09462) | ACM MM | 2024-08 | [GitHub](https:\u002F\u002Fspeechee.github.io\u002F) | \n| [HybridRAG: Integrating Knowledge Graphs and Vector Retrieval Augmented Generation for Efficient Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04948)| Arxiv | 2024-08 | |\n| [Knowledge AI: Fine-tuning NLP Models for Facilitating Scientific Knowledge Extraction and Understanding](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04651)| Arxiv | 2024-08 | |\n| [Target Prompting for Information Extraction with Vision Language Model](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.03834)| Arxiv | 2024-08 | |\n| [Evaluating Named Entity Recognition Using Few-Shot Prompting with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.15796) | Arxiv | 2024-08 | [GitHub](https:\u002F\u002Fgithub.com\u002FGEODE-project\u002Fner-llm)|\n| [Utilizing Large Language Models for Named Entity Recognition in Traditional Chinese Medicine against COVID-19 Literature: Comparative Study](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.13501) | Arxiv | 2024-08 | |\n| [CLLMFS: A Contrastive Learning enhanced Large Language Model Framework for Few-Shot Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12834) | ECAI | 2024-08 | |\n| [LLMs are not Zero-Shot Reasoners for Biomedical Information Extraction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12249) | Arxiv | 2024-08 | |\n| [Label Alignment and Reassignment with Generalist Large Language Model for Enhanced Cross-Domain Named Entity Recognition](https:\u002F\u002Fwww.arxiv.org\u002Fabs\u002F2407.17344) | Arxiv | 2024-07 | |\n| [MMM: Multilingual Mutual Reinforcement Effect Mix Datasets & Test with Open-domain Information Extraction Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10953) | Arxiv | 2024-08 | [GitHub](https:\u002F\u002Fganchengguang.github.io\u002FMRE\u002F) |\n| [FsPONER: Few-shot Prompt Optimization for Named Entity Recognition in Domain-specific Scenarios](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.08035) | ECAI | 2024-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fmarkustyj\u002FFsPONER_ECAI2024) |\n| [Adapting Multilingual LLMs to Low-Resource Languages with Knowledge Graphs via Adapters](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.01406) | KaLLM workshop | 2024-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fd-gurgurov\u002FInjecting-Commonsense-Knowledge-into-LLMs) |\n| [Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.01272) | Arxiv | 2024-07 | |\n| [Large Language Models Struggle in Token-Level Clinical Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.00731) | AMIA | 2024-08 | |\n| [GLiNER multi-task: Generalist Lightweight Model for Various Information Extraction Tasks]() | Arxiv | 2024-08 | |\n| [Retrieval Augmented Instruction Tuning for Open NER with Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.17305) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FRetrieval-Augmented-IT-OpenNER) |\n| [Beyond Boundaries: Learning a Universal Entity Taxonomy across Datasets and Languages for Open Named Entity Recognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.11192) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FUmeanNever\u002FB2NER) |\n| [Fighting Against the Repetitive Training and Sample Dependency Problem in Few-shot Named Entity Recognition](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10463035) | IEEE Access | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchangtianluckyforever\u002FSMCS_project) |\n| [llmNER: (Zero\\|Few)-Shot Named Entity Recognition, Exploiting the Power of Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04528) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fplncmm\u002Fllmner) |\n| [Assessing the Performance of Chinese Open Source Large Language Models in Information Extraction Tasks](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.02079) | Arxiv | 2024-06 | |\n\n# Datasets\n\\* denotes the dataset is multimodal. # refers to the number of categories or sentences.\n\n\u003Ctable>\n    \u003Cthead>\n        \u003Ctr>\n            \u003Cth align=\"center\">Task\u003C\u002Fth>\n            \u003Cth align=\"center\">Dataset\u003C\u002Fth>\n            \u003Cth align=\"center\">Domain\u003C\u002Fth>\n            \u003Cth align=\"center\">#Class\u003C\u002Fth>\n            \u003Cth align=\"center\">#Train\u003C\u002Fth>\n            \u003Cth align=\"center\">#Val\u003C\u002Fth>\n            \u003Cth align=\"center\">#Test\u003C\u002Fth>\n            \u003Cth align=\"center\">Link\u003C\u002Fth>\n        \u003C\u002Ftr>\n    \u003C\u002Fthead>\n    \u003Ctbody>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"32\" >\u003Cstrong>NER\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE04\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6202\u003C\u002Ftd>\n            \u003Ctd align=\"center\">745\u003C\u002Ftd>\n            \u003Ctd align=\"center\">812\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2005T09\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7299\u003C\u002Ftd>\n            \u003Ctd align=\"center\">971\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1060\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">BC5CDR\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4560\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4581\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4797\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbiocreative.bioinformatics.udel.edu\u002Ftasks\u002Fbiocreative-v\u002Ftrack-3-cdr\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Broad Twitter Corpus\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6338\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1001\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGateNLP\u002Fbroad_twitter_corpus?\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CADEC\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5340\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1097\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1160\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fdata.csiro.au\u002Fcollection\u002Fcsiro:10948?v=3&d=true\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLL03\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14041\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3250\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3453\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.clips.uantwerpen.be\u002Fconll2003\u002Fner\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLLpp\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14041\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3250\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3453\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZihanWangKi\u002FCrossWeigh\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-AI\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Artificial Intelligence\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">350\u003C\u002Ftd>\n            \u003Ctd align=\"center\">431\u003C\u002Ftd>\n            \u003Ctd align=\"center\" rowspan=\"5\" >\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzliucr\u002FCrossNER\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Literature\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Literary\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">400\u003C\u002Ftd>\n            \u003Ctd align=\"center\">416\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Music\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Musical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">380\u003C\u002Ftd>\n            \u003Ctd align=\"center\">465\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Politics\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Political\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9\u003C\u002Ftd>\n            \u003Ctd align=\"center\">199\u003C\u002Ftd>\n            \u003Ctd align=\"center\">540\u003C\u002Ftd>\n            \u003Ctd align=\"center\">650\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Science\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Scientific\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17\u003C\u002Ftd>\n            \u003Ctd align=\"center\">200\u003C\u002Ftd>\n            \u003Ctd align=\"center\">450\u003C\u002Ftd>\n            \u003Ctd align=\"center\">543\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">FabNER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Scientific\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9435\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2182\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2064\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDFKI-SLT\u002Ffabner\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Few-NERD\u003C\u002Ftd>\n            \u003Ctd align=\"center\">General\u003C\u002Ftd>\n            \u003Ctd align=\"center\">66\u003C\u002Ftd>\n            \u003Ctd align=\"center\">131767\u003C\u002Ftd>\n            \u003Ctd align=\"center\">18824\u003C\u002Ftd>\n            \u003Ctd align=\"center\">37468\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FFew-NERD\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">FindVehicle\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Traffic\u003C\u002Ftd>\n            \u003Ctd align=\"center\">21\u003C\u002Ftd>\n            \u003Ctd align=\"center\">21565\u003C\u002Ftd>\n            \u003Ctd align=\"center\">20777\u003C\u002Ftd>\n            \u003Ctd align=\"center\">20777\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGuanRunwei\u002FVehicleFinder-CTIM\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15023\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1669\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1854\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fljynlp\u002FW2NER?tab=readme-ov-file#3-dataset\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">HarveyNER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3967\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1301\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1303\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbrickee\u002FHarveyNER\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MIT-Movie\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9774\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2442\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2442\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F145106\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MIT-Restaurant\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7659\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1520\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1520\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F145105\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MultiNERD\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Wikipedia\u003C\u002Ftd>\n            \u003Ctd align=\"center\">16\u003C\u002Ftd>\n            \u003Ctd align=\"center\">134144\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBabelscape\u002Fmultinerd\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">NCBI\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5432\u003C\u002Ftd>\n            \u003Ctd align=\"center\">923\u003C\u002Ftd>\n            \u003Ctd align=\"center\">940\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.ncbi.nlm.nih.gov\u002FCBBresearch\u002FDogan\u002FDISEASE\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">OntoNotes 5.0\u003C\u002Ftd>\n            \u003Ctd align=\"center\">General\u003C\u002Ftd>\n            \u003Ctd align=\"center\">18\u003C\u002Ftd>\n            \u003Ctd align=\"center\">59924\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8528\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8262\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2013T19\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ShARe13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8508\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12050\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9009\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fphysionet.org\u002Fcontent\u002Fshareclefehealth2013\u002F1.0\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ShARe14\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17404\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1360\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15850\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fphysionet.org\u002Fcontent\u002Fshareclefehealth2014task2\u002F1.0\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SNAP\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4290\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1432\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1459\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Temporal Twitter Corpus (TTC)\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Meida\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1500\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshrutirij\u002Ftemporal-twitter-corpus\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Tweebank-NER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1639\u003C\u002Ftd>\n            \u003Ctd align=\"center\">710\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1201\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmit-ccc\u002FTweebankNLP\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Twitter2015\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3357\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Twitter2017\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3373\u003C\u002Ftd>\n            \u003Ctd align=\"center\">723\u003C\u002Ftd>\n            \u003Ctd align=\"center\">723\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TwitterNER7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7111\u003C\u002Ftd>\n            \u003Ctd align=\"center\">886\u003C\u002Ftd>\n            \u003Ctd align=\"center\">576\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ftner\u002Ftweetner7\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WikiDiverse\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6312\u003C\u002Ftd>\n            \u003Ctd align=\"center\">755\u003C\u002Ftd>\n            \u003Ctd align=\"center\">757\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwangxw5\u002Fwikidiverse?tab=readme-ov-file#get-the-data\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WNUT2017\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3394\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1009\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1287\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F144349\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"11\">\u003Cstrong>RE\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10051\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2420\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2050\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ADE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3417\u003C\u002Ftd>\n            \u003Ctd align=\"center\">427\u003C\u002Ftd>\n            \u003Ctd align=\"center\">428\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fade\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLL04\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u003C\u002Ftd>\n            \u003Ctd align=\"center\">922\u003C\u002Ftd>\n            \u003Ctd align=\"center\">231\u003C\u002Ftd>\n            \u003Ctd align=\"center\">288\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fconll04\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">DocRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Wikipedia\u003C\u002Ftd>\n            \u003Ctd align=\"center\">96\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3008\u003C\u002Ftd>\n            \u003Ctd align=\"center\">300\u003C\u002Ftd>\n            \u003Ctd align=\"center\">700\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FDocRED\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MNRE\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Social Media\u003C\u002Ftd>\n            \u003Ctd align=\"center\">23\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12247\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1624\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1614\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthecharm\u002FMNRE\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">NYT\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">24\u003C\u002Ftd>\n            \u003Ctd align=\"center\">56196\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenNRE\u002Fblob\u002Fmaster\u002Fbenchmark\u002Fdownload_nyt10.sh\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Re-TACRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">40\u003C\u002Ftd>\n            \u003Ctd align=\"center\">58465\u003C\u002Ftd>\n            \u003Ctd align=\"center\">19584\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13418\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgstoica27\u002FRe-TACRED\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SciERC\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Scientific\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1366\u003C\u002Ftd>\n            \u003Ctd align=\"center\">187\u003C\u002Ftd>\n            \u003Ctd align=\"center\">397\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fscierc\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SemEval2010\u003C\u002Ftd>\n            \u003Ctd align=\"center\">General\u003C\u002Ftd>\n            \u003Ctd align=\"center\">19\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6507\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1493\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2717\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenNRE\u002Fblob\u002Fmaster\u002Fbenchmark\u002Fdownload_semeval.sh\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TACRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">42\u003C\u002Ftd>\n            \u003Ctd align=\"center\">68124\u003C\u002Ftd>\n            \u003Ctd align=\"center\">22631\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15509\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fnlp.stanford.edu\u002Fprojects\u002Ftacred\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TACREV\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">42\u003C\u002Ftd>\n            \u003Ctd align=\"center\">68124\u003C\u002Ftd>\n            \u003Ctd align=\"center\">22631\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15509\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDFKI-NLP\u002Ftacrev\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"7\">\u003Cstrong>EE\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">33\u002F22\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17172\u003C\u002Ftd>\n            \u003Ctd align=\"center\">923\u003C\u002Ftd>\n            \u003Ctd align=\"center\">832\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CASIE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Cybersecurity\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u002F26\u003C\u002Ftd>\n            \u003Ctd align=\"center\">11189\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1778\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3208\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEbiquity\u002FCASIE\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA11\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9\u002F11\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8730\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1091\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1092\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbionlp-st.dbcls.jp\u002FGE\u002F2011\u002Feval-test\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u002F7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbionlp-st.dbcls.jp\u002FGE\u002F2013\u002Feval-test\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">PHEE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Biomedical\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2\u002F16\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2898\u003C\u002Ftd>\n            \u003Ctd align=\"center\">961\u003C\u002Ftd>\n            \u003Ctd align=\"center\">968\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002FPHEE\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">RAMS\u003C\u002Ftd>\n            \u003Ctd align=\"center\">News\u003C\u002Ftd>\n            \u003Ctd align=\"center\">139\u002F65\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7329\u003C\u002Ftd>\n            \u003Ctd align=\"center\">924\u003C\u002Ftd>\n            \u003Ctd align=\"center\">871\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fnlp.jhu.edu\u002Frams\u002F\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WikiEvents\u003C\u002Ftd>\n            \u003Ctd align=\"center\">Wikipedia\u003C\u002Ftd>\n            \u003Ctd align=\"center\">50\u002F59\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5262\u003C\u002Ftd>\n            \u003Ctd align=\"center\">378\u003C\u002Ftd>\n            \u003Ctd align=\"center\">492\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg\">Link\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fquqxui_Awesome-LLM4IE-Papers_readme_b1cac08f5a36.png)](https:\u002F\u002Fstar-history.com\u002F#quqxui\u002FAwesome-LLM4IE-Papers&Date)\n","# 令人惊叹的LLM4IE论文集\n\n🔥🔥🔥 **该文章已被《计算机科学前沿》（FCS）接收**。\n\n---\n\n关于使用大语言模型进行生成式信息抽取的优秀论文\n\n\u003Cp align=\"center\" width=\"80%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fquqxui_Awesome-LLM4IE-Papers_readme_33493631ebaa.png\" style=\"width: 50%\">\n\u003C\u002Fp>\n\n论文的组织方式在我们的综述中进行了讨论：[用于生成式信息抽取的大语言模型：综述](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11704-024-40555-y)。\n\n如果您发现任何尚未包含在我们研究中的相关学术论文，请提交更新请求。我们欢迎所有人的贡献。\n\n如有任何建议或错误，请随时通过电子邮件告知我们：**derongxu@mail.ustc.edu.cn** 和 **chenweicw@mail.ustc.edu.cn**。我们非常感谢您的反馈，并期待您的帮助以改进我们的工作。\n\n如果您认为我们的综述对您的研究有所帮助，请引用以下论文：\n\n    @article{xu2024large,\n      title={Large language models for generative information extraction: A survey},\n      author={Xu, Derong and Chen, Wei and Peng, Wenjun and Zhang, Chao and Xu, Tong and Zhao, Xiangyu and Wu, Xian and Zheng, Yefeng and Wang, Yang and Chen, Enhong},\n      journal={Frontiers of Computer Science},\n      volume={18},\n      number={6},\n      pages={186357},\n      year={2024},\n      publisher={Springer}\n    }\n\n    \n## 📒 目录\n- [信息抽取任务](#information-extraction-tasks)\n    - [命名实体识别](#named-entity-recognition)\n    - [关系抽取](#relation-extraction)\n    - [事件抽取](#event-extraction)\n    - [通用信息抽取](#universal-information-extraction)\n- [信息抽取技术](#information-extraction-techniques)\n    - [监督微调](#supervised-fine-tuning)\n    - [少样本](#few-shot)\n    - [零样本](#zero-shot)\n    - [数据增强](#data-augmentation)\n    - [提示词设计](#prompts-design)\n    - [约束解码生成](#constrained-decoding-generation)\n- [特定领域](#specific-domain)\n- [评估与分析](#evaluation-and-analysis)\n- [项目与工具包](#project-and-toolkit)\n- ⏰ [近期更新的论文](#recently-updated-papers)（2024年9月4日之后的更新论文在此~）\n- ⭐️ [数据集](#datasets)（附下载链接~）\n\n## 💡 新闻\n- **更新日志**\n    - 详情请参阅 \u003Ccode>.\u002Fupdate_new_papers_list\u003C\u002Fcode>。\n    - **2024年9月4日** 增加22篇论文\n    - **2024年6月6日** 增加41篇论文\n    - **2024年3月30日** 增加27篇论文\n    - **2024年3月29日** 增加20篇论文\n\n# 信息抽取任务\n按不同任务分类。\n## 命名实体识别\n仅针对NER任务的模型。\n### 实体类型标注\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n|  [用于高效且可泛化的超细粒度实体类型标注的校准序列到序列模型](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.1040\u002F)  | EMNLP Findings      |  2023年12月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fyanlinf\u002FCASENT) |\n|  [基于课程学习的生成式实体类型标注](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02914)  | EMNLP       |  2022年12月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fsiyuyuan\u002FGET) |\n\n### 实体识别与类型标注\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [Granular Entity Mapper: 推进细粒度多模态命名实体识别与对齐](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.183\u002F) | EMNLP Findings | 2024 | |\n| [Double-Checker: 大型语言模型作为少样本命名实体识别的校验器](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.180\u002F) | EMNLP Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ffanshu6hao\u002FDouble-Checker) |\n| [VerifiNER: 基于知识推理的大型语言模型增强型验证式 NER](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.134\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Femseoyk\u002FVerifiNER) |\n| [ProgGen: 利用自我反思型大型语言模型逐步生成命名实体识别数据集](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n| [重新思考生成式命名实体识别中的负样本](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [LLMs as Bridges: 重新构建基于知识的多模态命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [RT: 用于少样本医学命名实体识别的检索与思维链框架](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | 其他 | 2024年5月 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [P-ICL: 大型语言模型下的点式上下文学习用于命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04960) | Arxiv | 2024年6月 | [GitHub](https:\u002F\u002Fgithub.com\u002FjiangguochaoGG\u002FP-ICL) |\n| [Astro-NER -- 天文学命名实体识别：GPT 是优秀的领域专家标注者吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024年5月 | []() |\n| [Know-Adapter: 面向知识感知的参数高效迁移学习，用于少样本命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.854\u002F) | COLING | 2024 | []() |\n| [ToNER: 基于类型的生成式语言模型命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1412.pdf) | COLING | 2024 | []() |\n| [CHisIEC: 古代中国历史信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F) | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [利用大型语言模型从天体物理期刊文章中提取天文知识实体](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | 其他 | 2024年4月 | []() |\n| [LTNER: 上下文化实体标记的大语言模型命名实体识别标签生成](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05624) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FYFR718\u002FLTNER) |\n| [利用大型语言模型进行单选题问答以增强软件相关的信息抽取](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587) | 其他 | 2024年4月 | []() |\n| [面向低资源命名实体识别的知识增强提示](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3659948) | TALLIP | 2024年4月 | []() |\n| [VANER: 利用大型语言模型实现多功能自适应生物医学命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [大型语言模型在生物医学领域的应用：临床命名实体识别研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024年4月 | []() |\n| [走出芝麻街：通过上下文学习研究葡萄牙法律命名实体识别](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | ResearchGate | 2024年4月 | []() |\n| [利用大型语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [LinkNER: 使用不确定性将本地命名实体识别模型与大型语言模型连接](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10573) | WWW | 2024年 |\n| [利用大型语言模型实现零样本命名实体识别的自我改进](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F) | NAACL Short | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [针对生物医学 NER 的 LLM 即时定义增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [MetaIE: 从 LLM 中提炼元模型，用于各类信息抽取任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457) | Arxiv | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [从大型语言模型中蒸馏濒危物种命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430) | Arxiv | 2024年3月 | []() |\n| [利用 LLM 增强 NER 数据集：迈向自动化和精细化标注](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.01334) | Arxiv | 2024年3月 | []() |\n| [ConsistNER: 基于本体与上下文一致性的 LLM 指令式 NER 展示](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29892) | AAAI | 2024年 |\n| [使用探测分类器进行嵌入式命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.11747) | Arxiv | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fnicpopovic\u002FEMBER) |\n| [少样本嵌套命名实体识别的上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01182) | Arxiv | 2024年2月 | []() |\n| [LLM-DA: 利用大型语言模型进行少样本命名实体识别的数据增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14568) | Arxiv | 2024年2月 | []() |\n| [利用大型语言模型从科学文本中结构化提取信息](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [NuNER: 基于 LLM 标注数据的实体识别编码器预训练](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15343) | Arxiv | 2024年2月 |\n| [一种简单而有效的方法来改善信息抽取的结构化语言模型输出](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) | Arxiv | 2024年2月 |\n| [PaDeLLM-NER: 大型语言模型中的并行解码用于命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04838) | Arxiv | 2024年2月 |\n| [小型语言模型可以作为中文实体关系抽取中大型语言模型的良好指导](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024年2月 |\n| [C-ICL: 对比式上下文学习用于信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024年2月 |\n| [UniversalNER: 针对开放命名实体识别从大型语言模型中定向蒸馏](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p) | ICLR | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner) |\n| [通过提示工程提升大型语言模型在临床命名实体识别中的性能](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024年1月 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [2INER: 针对少样本命名实体识别的指令式与上下文学习](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.259\u002F) | EMNLP Findings | 2023年12月 |\n| [少样本多模态命名实体识别的上下文学习](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.196\u002F) | EMNLP Findings | 2023年12月 |\n| [大型语言模型并非优秀的少样本信息抽取者，但却是硬样本的良好重排序器！](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n| [利用合成数据集学习为命名实体识别排序上下文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10118) | EMNLP | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002FCompNet\u002Fconivel\u002Ftree\u002Fgen) |\n| [LLMaAA: 让大型语言模型成为主动标注者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA) |\n| [在 MNER 中提示 ChatGPT：借助辅助精炼知识增强多模态命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM) |\n| [GLiNER: 使用双向 Transformer 的通用命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023年11月 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n| [GPT Struct Me: 探测 GPT 模型在叙事性实体抽取中的表现](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10350182) | WI-IAT | 2023年10月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhmosousa\u002Fgpt_struct_me) |\n| [GPT-NER: 利用大型语言模型进行命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10428) | Arxiv | 2023年10月 | [GitHub](https:\u002F\u002Fgithub.com\u002FShuheWang1998\u002FGPT-NER) |\n| [Prompt-NER: 利用大型语言模型在天文学文献中进行零样本命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892) | Arxiv | 2023年10月 |\n| [通过外部知识激发大型语言模型在生物医学命名实体识别中的潜力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278) | Arxiv | 2023年9月 |\n| [一个模型适用于所有领域：跨领域 NER 的协作式域前缀调优](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10410) | IJCAI | 2023年9月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Fcross) |\n| [针对多模态命名实体识别与多模态关系抽取的思维链提示蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122) | Arxiv | 2023年8月 |\n| [学习上下文学习用于命名实体识别](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.764\u002F) | ACL | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchen700564\u002Fmetaner-icl) |\n| [通过校准序列似然值来去偏生成式命名实体识别](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.98\u002F) | ACL Short | 2023年7月 |\n| [基于实体到文本的数据增强，用于各类命名实体识别任务](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.578\u002F) | ACL Findings | 2023年7月 |\n| [大型语言模型作为导师：多语言临床实体抽取研究](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F) | BioNLP | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023) |\n| [NAG-NER: 一个统一的非自回归生成框架，用于各种 NER 任务](https:\u002F\u002Faclanthology.org\u002F2023.acl-industry.65\u002F) | ACL Industry | 2023年7月 |\n| [统一的命名实体识别作为多标签序列生成](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10191921) | IJCNN | 2023年6月 |\n| [PromptNER：用于命名实体识别的提示](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444) | Arxiv | 2023年6月 |\n| [LLM 合成数据生成是否有助于临床文本挖掘？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360) | Arxiv | 2023年4月 |\n| [利用指令微调的语言模型进行统一的文本结构化](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956) | Arxiv | 2023年3月 |\n| [利用精细调优的大型语言模型从复杂科学文本中结构化提取信息](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238) | Arxiv | 2022年12月 | [演示](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction) |\n| [LightNER: 通过可插拔提示实现轻量级调优，用于低资源 NER](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING | 2022年10月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n| [统一 NER 任务中生成式抽取的去偏处理](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.59.pdf) | ACL | 2022年5月 |\n| [InstructionNER：一个多任务指令驱动的生成式框架，用于少样本 NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03903) | Arxiv | 2022年3月 |\n| [基于文档级实体的抽取作为模板生成](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F) | EMNLP | 2021年11月 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen) |\n| [一个统一的生成式框架，用于各类 NER 子任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01223) | ACL | 2021年8月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTNER) |\n| [利用 BART 进行基于模板的命名实体识别](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf) | ACL Findings | 2021年8月 | [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER) |\n\n## 关系抽取 \n仅针对关系抽取任务的模型。\n### 关系分类\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [通过大型语言模型的单选题问答增强软件相关信息抽取](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | 其他 | 2024-04 | []() |\n| [CRE-LLM：基于微调大型语言模型的领域特定中文关系抽取框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.18085)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyuForever\u002FCRE-LLM) |\n| [召回、检索与推理：迈向更好的上下文关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17809)  | IJCAI | 2024-04 | []() |\n| [大型语言模型在对话式关系抽取中的实证分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [元上下文学习使大型语言模型成为更优秀的零样本和少样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [基于检索增强生成的关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.13397)  | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Fsefeoglu\u002FRAG4RE) |\n| [利用大型语言模型进行关系抽取：以穴位位置为例](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024-04 | []() |\n| [STAR：借助大型语言模型的结构到文本数据生成提升低资源信息抽取](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  | AAAI | 2024-03 | |\n| [把握要点：为零样本关系抽取量身定制大型语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11142) | Arxiv | 2024-02 |   \n| [带有显式证据推理的思维链用于少样本关系抽取](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.153\u002F) | EMNLP Findings | 2023-12 | |\n| [GPT-RE：使用大型语言模型进行关系抽取的上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02105)  | EMNLP | 2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002FYukinoWan\u002FGPT-RE) |\n| [面向上下文信息抽取的指南学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  | EMNLP | 2023-12   |  |\n| [大型语言模型并非优秀的少样本信息抽取器，却是处理困难样本的好重排序器！](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  | EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n| [LLMaAA：让大型语言模型成为主动标注者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596)  | EMNLP Findings    |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA) |\n| [通过扩充多样化的句子对改进无监督关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552)  | EMNLP    |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n| [重新审视大型语言模型作为零样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028)  | EMNLP Findings |  2023-12   |  |\n| [借助大型语言模型和一致的推理环境掌握开放信息抽取任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n| [指令任务对齐解锁大型语言模型的零样本关系抽取能力](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  | ACL Findings  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n| [如何释放大型语言模型在少样本关系抽取中的力量？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555)  | ACL Workshop  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n| [通过标签增强进行序列生成以实现关系抽取](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F26532)| AAAI | 2023-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FRELA) |\n| [LLMs 的合成数据生成有助于临床文本挖掘吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360)  |   Arxiv    |  2023-04   |  |\n| [DORE：基于生成式框架的文档有序关系抽取](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022-12 |\n| [REBEL：端到端语言生成的关系抽取](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021-11   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n### 关系三元组\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [ERA-CoT：通过实体关系分析改进思维链](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.476\u002F) |  ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FOceannTwT\u002Fera-cot) |\n| [AutoRE：使用大型语言模型进行文档级关系抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-demos.20\u002F) | ACL Demos | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigdante\u002FAutoRE) |\n| [元上下文学习使大型语言模型成为更优秀的零样本和少样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [一致性引导的知识检索与去噪在 LLM 中用于零样本文档级关系三元组抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13598) | WWW | 2024 |\n| [提升大型语言模型的召回率：一种用于关系三元组抽取的模型协作方法](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.778\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FDing-Papa\u002FEvaluating-filtering-coling24) |\n| [通过表格化提示解锁指导性上下文学习以进行关系三元组抽取](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1488\u002F) | COLING | 2024 | |\n| [一种简单而有效的方法来改善结构化语言模型输出以用于信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) |  Arxiv | 2024-02 | \n| [利用大型语言模型从科学文本中进行结构化信息抽取](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [通过预训练语言模型进行文档级上下文少样本关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11085) | Arxiv | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Foezyurty\u002FREPLM) |\n| [小型语言模型是中国语义关系抽取中大型语言模型的良好引导者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [利用预训练语言模型进行开放信息抽取的有效数据学习](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.869\u002F) | EMNLP Findings | 2023-12 | \n| [借助大型语言模型和一致的推理环境掌握开放信息抽取任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n| [使用指令微调的语言模型进行统一的文本结构化](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n| [基于实体的文档级抽取作为模板生成](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F)  |    EMNLP      | 2021-11    | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen) |\n\n### 关系严格\n| 论文 | 会议\u002F期刊 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [MetaIE：从大语言模型中蒸馏出适用于各类信息抽取任务的元模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [从大语言模型中蒸馏濒危物种命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [CHisIEC：面向中国古代历史的信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [用于联合实体与关系抽取的自回归文本到图框架](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n| [C-ICL：面向信息抽取的对比式上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024-02 | \n|  [REBEL：端到端语言生成的关系抽取](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021-11   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n## 事件抽取 \n仅针对事件抽取任务的模型。\n### 事件检测\n| 论文 | 会议\u002F期刊 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [改进零样本事件检测中的事件定义顺序](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024-03 | []() |\n| [利用大语言模型和一致推理环境掌握开放信息抽取任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) |  Arxiv | 2023-10 | \n| [基于指令微调的语言模型实现统一的文本结构化](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n|  [释放GPT-2在事件检测中的潜力](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.490.pdf)  |    ACL      |  2021-08   | []() |\n### 事件论元抽取\n| 论文 | 会议\u002F期刊 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [LLM通过演示学习任务启发式：一种启发式驱动的提示策略用于文档级事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.647\u002F)  | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhzzhou01\u002FHD-LoA-Prompting) |\n| [超越单事件抽取：迈向高效的文档级多事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.564\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FLWL-cpu\u002FDEEIA) |\n| [KeyEE：借助辅助关键词子提示提升低资源生成式事件抽取](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | 其他 | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [MetaIE：从大语言模型中蒸馏出适用于各类信息抽取任务的元模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457)  | Arxiv | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [在药物警戒事件抽取中利用ChatGPT：一项实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [ULTRA：通过层次建模和成对精炼释放LLM在事件论元抽取中的潜力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218)  | Arxiv | 2024-01 | []() |\n|  [基于扩散模型的生成式事件论元抽取的上下文感知提示](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3583780.3614820)  |    CIKM      |   2023-10  | []() |\n| [面向事件论元抽取的上下文化软提示](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.266\u002F) | ACL Findings | 2023-07 | |\n| [AMPERE：面向生成式事件论元抽取模型的AMR感知前缀](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.615\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FAMPERE) |\n|  [Code4Struct：用于少样本事件结构预测的代码生成](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810)  |       ACL   |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n|  [将事件抽取视为问题生成与回答](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |    ACL short      | 2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n| [通过提示施加全局约束以进行零样本事件论元分类](https:\u002F\u002Faclanthology.org\u002F2023.findings-eacl.191\u002F) | EACL Findings | 2023-05 | |\n|  [用于抽取的提示？PAIE：面向事件论元抽取的提示式论元交互](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.466\u002F)  |        ACL       |  2022-05   | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FPAIE) |\n\n### 事件检测与论元抽取\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE：事件抽取的基准、重新评估、反思及未来挑战](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [EventRL：利用结果监督提升大语言模型的事件抽取能力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11430) | Arxiv | 2024-02 |\n|  [上下文信息抽取中的指南学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  |   EMNLP    |  2023-12   |  |\n|  [DemoSG：演示增强的模式引导生成用于低资源事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [大语言模型并非优秀的少样本信息抽取器，而是硬样本的良好重排序器！](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n|  [DICE：基于生成模型的数据高效临床事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf)  |      ACL    |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n|  [零样本社会政治事件抽取的蒙特卡洛语言模型流水线](https:\u002F\u002Fopenreview.net\u002Fpdf?id=3xGnOrUqt1)   |    NeurIPS Workshop      |  2023-10    | []() |\n|  [STAR：利用大语言模型进行结构到文本的数据生成以提升低资源信息抽取能力](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  |     AAAI     |  2024-03   | []() |\n|  [DEGREE：一种数据高效的生成式事件抽取模型](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.138\u002F)  |      NAACL    |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FDEGREE) |\n|  [ClarET：为以事件为中心的生成和分类任务预训练相关性感知的上下文到事件转换器](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.183\u002F)  |   ACL       |    2022-05 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyczhou001\u002FClarET) |\n|  [用于生成式模板驱动事件抽取的动态前缀调优](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.358.pdf)  |   ACL       |  2022-05   | []() |\n|  [Text2event：端到端事件抽取的可控序列到结构生成](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09232)  |        ACL     |  2021-08     | [GitHub](https:\u002F\u002Fgithub.com\u002Fluyaojie\u002Ftext2event) |\n|  [基于条件生成的文档级事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf)  |    NAACL      | 2021-06    | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n## 通用信息抽取\n针对多种信息抽取任务的统一模型。\n### 基于自然语言大模型\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [Diluie：利用大语言模型构建多样化的上下文学习演示以实现统一信息抽取](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5)  | 其他 | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [ChatUIE：探索使用大语言模型的聊天式统一信息抽取]() | COLING | 2024 | |\n| [YAYI-UIE：一种聊天增强的指令微调框架用于通用信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15548) | Arxiv | 2024-04 | \n|  [集合学习用于生成式信息抽取](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.806.pdf)  |    EMNLP      |   2023-12  | []() |\n|  [GIELLM：利用相互强化效应的日语通用信息抽取大语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06838)  |   Arxiv       |  2023-11   | []() |\n|  [InstructUIE：用于统一信息抽取的多任务指令微调](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085)  |    Arxiv      |  2023-04   | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n| [通过与ChatGPT聊天实现零样本信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205)   |      Arxiv      |  2023-02    | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n|  [GenIE：生成式信息抽取](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.342.pdf)  |     NAACL     |   2022-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGenIE) |\n|  [DEEPSTRUCT：用于结构预测的语言模型预训练](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F)  |      ACL Findings    |   2022-05  | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n|  [用于通用信息抽取的统一结构生成](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [结构预测作为增强型自然语言之间的翻译](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      | 2021-01    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n### 基于代码大模型\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [KnowCoder：将结构化知识编码进大语言模型以实现通用信息抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.475\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fict-goknow.github.io\u002Fknowcoder\u002F) |\n|  [GoLLIE：标注指南提升零样本信息抽取能力](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9)  |     ICLR     |  2024   | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n|  [检索增强的代码生成用于通用信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.02962)  |      Arxiv    |   2023-11  | []() |\n|  [CODEIE：大型代码生成模型是更优秀的少样本信息抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05711)  |       ACL   |   2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fartpli\u002FCodeIE) |\n|  [CodeKGC：用于生成式知识图谱构建的代码语言模型](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850)  |    ACM TALLIP      |   2024-03  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n# 信息抽取技术\n按技术分类。\n\n## 有监督微调\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [重新思考生成式命名实体识别中的负样本](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [超越单事件抽取：迈向高效的文档级多事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.564\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FLWL-cpu\u002FDEEIA) |\n| [AutoRE：基于大语言模型的文档级关系抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-demos.20\u002F) | ACL Demos | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigdante\u002FAutoRE) |\n| [召回、检索与推理：迈向更好的上下文关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17809)  | IJCAI | 2024年4月 | []() |\n| [大语言模型在对话关系抽取中的实证分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024年4月 | []() |\n| [用于联合实体与关系抽取的自回归文本到图框架](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n| [提升大语言模型的召回率：一种用于关系三元组抽取的模型协作方法](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.778\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FDing-Papa\u002FEvaluating-filtering-coling24) |\n| [ToNER：基于生成式语言模型的类型导向命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1412.pdf) | COLING | 2024 | []() |\n| [CHisIEC：面向中国古代历史的信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [KeyEE：利用辅助关键词子提示增强低资源场景下的生成式事件抽取](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | 其他 | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [VANER：利用大语言模型实现通用且自适应的生物医学命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [大语言模型在生物医学领域的应用：临床命名实体识别研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024年4月 | []() |\n| [利用大语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [CRE-LLM：基于微调大语言模型的领域特定中文关系抽取框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.18085)  | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyuForever\u002FCRE-LLM) |\n| [利用大语言模型进行关系抽取：以针灸穴位位置为例](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024年4月 | []() |\n| [改进零样本事件检测中的事件定义](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024年3月 | []() |\n| [使用探测分类器进行嵌入式命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.11747) | Arxiv | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fnicpopovic\u002FEMBER) |\n| [EventRL：通过结果监督增强大语言模型的事件抽取能力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11430) | Arxiv | 2024年2月 |\n| [利用大语言模型从科学文本中提取结构化信息](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | Nature Communications | 2024年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [PaDeLLM-NER：大语言模型中的并行解码技术用于命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04838) | Arxiv | 2024年2月 |\n| [UniversalNER：面向开放命名实体识别的大语言模型目标蒸馏方法](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |   ICLR       |   2024  | [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner) |\n|  [GoLLIE：标注指南提升零样本信息抽取性能](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9)  |     ICLR     |  2024   | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n|  [用于生成式信息抽取的集合学习](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.806.pdf)  |    EMNLP      |   2023年12月  | []() |\n| [利用预训练语言模型进行开放信息抽取的高效数据学习](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.869\u002F) | EMNLP Findings | 2023年12月 | \n|  [DemoSG：演示增强的模式引导生成技术用于低资源事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) |     EMNLP Findings     | 2023年12月    | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [校准后的Seq2seq模型用于高效且可泛化的超细粒度实体类型标注](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.1040\u002F)  |     EMNLP Findings    |   2023年12月  | []() |\n|  [GIELLM：利用相互强化效应的日语通用信息抽取大语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06838)  |   Arxiv       |  2023年11月   | []() |\n| [GLiNER：基于双向Transformer的命名实体识别通用模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023年11月 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n|  [基于扩散模型的上下文感知提示用于生成式事件论元抽取](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3583780.3614820)  |    CIKM      |   2023年10月  | []() |\n| [用于事件论元抽取的上下文化软提示](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.266\u002F) | ACL Findings | 2023年7月 | |\n| [AMPERE：面向生成式事件论元抽取模型的AMR感知前缀](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.615\u002F) | ACL | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FAMPERE) |\n|  [通过校准序列似然来去偏生成式命名实体识别](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.98\u002F)  |     ACL short    |  2023年7月   | []() |\n|  [DICE：基于生成模型的高效临床事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf)  |      ACL    |  2023年7月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n|  [将事件抽取视为问答任务](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |    ACL short      | 2023年7月    | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n| [NAG-NER：一个统一的非自回归生成框架，适用于多种NER任务](https:\u002F\u002Faclanthology.org\u002F2023.acl-industry.65\u002F) | ACL Industry | 2023年7月 | \n| [通过标签增强进行关系抽取的序列生成](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F26532)| AAAI | 2023年6月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FRELA) |\n| [将统一命名实体识别视为多标签序列生成](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10191921) |  IJCNN | 2023年6月 | \n|  [InstructUIE：面向统一信息抽取的多任务指令微调](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085)  |    Arxiv      |  2023年4月   | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n|  [利用微调大语言模型从复杂科学文本中提取结构化信息](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238)  |    Arxiv      |  2022年12月   | [演示](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction) |\n|  [基于课程学习的生成式实体类型标注](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02914)  |     EMNLP     |  2022年12月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fsiyuyuan\u002FGET) |\n| [DORE：基于生成式框架的文档有序关系抽取](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022年12月 |\n|  [LasUIE：利用潜在自适应结构感知生成语言模型统一信息抽取](https:\u002F\u002Fopenreview.net\u002Fpdf?id=a8qX5RG36jd)  |     NeurIPS     |   2022年10月  | [GitHub](https:\u002F\u002Fgithub.com\u002FChocoWu\u002FLasUIE) |\n|  [LightNER：通过可插拔提示实现低资源NER的轻量级微调范式](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING |  2022年10月 |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n|  [GenIE：生成式信息抽取](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.342.pdf)  |     NAACL     |   2022年7月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGenIE) |\n|  [DEGREE：一种数据高效的生成式事件抽取模型](https:\u002F\u002Faclanthology.org\u002F2022.naacl-main.138\u002F)  |      NAACL    |   2022年7月  | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FDEGREE) |\n|  [ClarET：为以事件为中心的生成和分类任务预训练相关性感知的上下文到事件转换器](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.183\u002F)  |   ACL       |    2022年5月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyczhou001\u002FClarET) |\n|  [DEEPSTRUCT：为结构预测预训练语言模型](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F)  |      ACL Findings    |   2022年5月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n|  [用于生成模板式事件抽取的动态前缀微调](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.358.pdf)  |   ACL       |  2022年5月   | []() |\n|  [用于事件论元抽取的提示交互？PAIE：提示论元交互](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.466\u002F)  |        ACL       |  2022年5月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FPAIE) |\n|  [用于通用信息抽取的统一结构生成](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022年5月     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [用于统一NER任务的生成式抽取去偏处理](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.59.pdf)  |       ACL       |  2022年5月    | []() |\n|  [文档级基于实体的抽取作为模板生成](https:\u002F\u002Faclanthology.org\u002F2021.emnlp-main.426\u002F)  |    EMNLP      | 2021年11月    | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FTempGen) |\n|  [REBEL：端到端语言生成的关系抽取](https:\u002F\u002Faclanthology.org\u002F2021.findings-emnlp.204\u002F)  |    EMNLP Findings      |   2021年11月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fbabelscape\u002Frebel) |\n|  [用于多种NER子任务的统一生成式框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.01223)  |   ACL       |   2021年8月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTNER) |\n|  [利用BART进行基于模板的命名实体识别](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf)  |    ACL Findings     |  2021年8月   | [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER) |\n|  [Text2event：可控的序列到结构生成，用于端到端事件抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09232)  |        ACL     |  2021年8月     | [GitHub](https:\u002F\u002Fgithub.com\u002Fluyaojie\u002Ftext2event) |\n|  [通过条件生成进行文档级事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf)  |    NAACL      |  2021年6月    | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n|  [将结构预测视为增强自然语言之间的翻译](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      |  2021年1月    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n\n## 少样本\n### 少样本微调\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [Diluie: 利用大语言模型构建多样化的上下文学习示例，用于统一的信息抽取](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5)  | 其他 | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [KeyEE: 通过辅助关键词子提示增强低资源生成式事件抽取](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10506770)  | 其他 | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FOStars\u002FKeyEE) |\n| [元上下文学习使大语言模型成为更好的零样本和少样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807)  | IJCAI | 2024-04 | []() |\n| [针对生物医学命名实体识别的LLM即时定义增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n|  [DemoSG: 基于示例增强的模式引导生成方法，用于低资源事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.121) | EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002FGangZhao98\u002FDemoSG) |\n|  [一个模型适用于所有领域：跨领域NER的协作式领域前缀微调](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.10410)  |    IJCAI      | 2023-09    | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Fcross)  |\n|  [LightNER: 基于可插拔提示的轻量级微调范式，用于低资源NER](https:\u002F\u002Faclanthology.org\u002F2022.coling-1.209\u002F) | COLING |  2022-10 |  [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fner\u002Ffew-shot) |\n|  [面向通用信息抽取的统一结构生成](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n|  [InstructionNER: 一种基于多任务指令的少样本NER生成式框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.03903) |  Arxiv  |  2022-03 |   |\n|  [基于模板的BART命名实体识别](https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.161.pdf)  |    ACL Findings     |  2021-08   | [GitHub](https:\u002F\u002Fgithub.com\u002FNealcly\u002FtemplateNER) |\n|  [结构化预测作为增强自然语言之间的翻译](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05779)  |    ICLR      | 2021-01    | [GitHub](https:\u002F\u002Fgithub.com\u002Famazon-science\u002Ftanl) |\n\n### 上下文学习\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE：事件抽取的基准、重新评估、反思及未来挑战](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [RT：一种用于少样本医学命名实体识别的检索与思维链框架](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | 其他 | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [P-ICL：基于大型语言模型的命名实体识别点式上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04960) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FjiangguochaoGG\u002FP-ICL) |\n| [LTNER：结合上下文实体标注的大型语言模型命名实体识别标记方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05624) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FYFR718\u002FLTNER) |\n| [通过大型语言模型的单选题问答增强软件相关信息抽取](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | 其他 | 2024-04 | []() |\n| [生物医学中的大语言模型：临床命名实体识别研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | Arxiv | 2024-04 | []() |\n| [走出芝麻街：基于上下文学习的葡萄牙法律命名实体识别研究](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | ResearchGate | 2024-04 | []() |\n| [利用大型语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [大型语言模型对话关系抽取的实证分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024-04 | []() |\n| [基于大型语言模型的零样本命名实体识别自我改进](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [ConsistNER：面向LLM的指令式NER演示，兼顾本体与上下文一致性](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29892)| AAAI | 2024 | \n| [用于生物医学NER的LLM即时定义增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [CHisIEC：古代中国历史信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [通过表格化提示解锁指令式上下文学习，用于关系三元组抽取](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.1488\u002F) |  COLING | 2024 | |\n|  [CodeKGC：用于生成式知识图谱构建的代码语言模型](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850)  |    ACM TALLIP      |   2024-03  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n| [基于预训练语言模型的文档级上下文少样本关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.11085) | Arxiv | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Foezyurty\u002FREPLM) |\n| [用于少样本嵌套命名实体识别的上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01182) | Arxiv | 2024-02 | []() |\n| [利用ChatGPT进行药物警戒事件抽取：一项实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663)  | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [启发式驱动的类比链提示：提升大型语言模型在文档级事件论元抽取中的性能](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06555v2)  | Arxiv | 2024-02 | []() |\n| [LinkNER：利用不确定性将本地命名实体识别模型与大型语言模型连接](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.10573) | WWW | 2024 | \n| [小型语言模型是中文实体关系抽取中大型语言模型的良好引导者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024-02 | |\n| [C-ICL：用于信息抽取的对比式上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11254) | Arxiv | 2024-02 | \n| [通过提示工程提升大型语言模型的临床命名实体识别能力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [带有明确证据推理的思维链用于少样本关系抽取](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.153\u002F) | EMNLP Findings | 2023-12 | |\n|  [GPT-RE：利用大型语言模型进行关系抽取的上下文学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02105)  |     EMNLP     |   2023-12  | [GitHub](https:\u002F\u002Fgithub.com\u002FYukinoWan\u002FGPT-RE) |\n|  [用于上下文信息抽取的指南学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05066)  |  EMNLP     |   2023-12  | []() |\n|  [大型语言模型并非优秀的少样本信息抽取器，却是硬样本重排序的好帮手！](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.08559)  |     EMNLP Findings     | 2023-12    | [GitHub](https:\u002F\u002Fgithub.com\u002Fmayubo2333\u002FLLM-IE) |\n|  [检索增强的代码生成用于通用信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.02962)  |      Arxiv    |   2023-11  | []() |\n| [借助大型语言模型和一致的推理环境掌握开放信息抽取任务](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10590) | Arxiv | 2023-10 | \n|  [GPT-NER：基于大型语言模型的命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10428)  |    Arxiv    |   2023-10   | [GitHub](https:\u002F\u002Fgithub.com\u002FShuheWang1998\u002FGPT-NER) |\n| [GPT Struct Me：探究GPT模型在叙事性实体抽取中的表现](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10350182) | WI-IAT | 2023-10 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhmosousa\u002Fgpt_struct_me) |\n| [学习用于命名实体识别的上下文学习](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.764\u002F) | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchen700564\u002Fmetaner-icl) |\n|  [对齐指令任务可释放大型语言模型作为零样本关系抽取器的能力](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  |     ACL Findings     |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n|  [Code4Struct：用于少样本事件结构预测的代码生成](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810)  |       ACL   |   2023-07  | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n|  [CODEIE：大型代码生成模型是更优秀的少样本信息抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.05711)  |     ACL   |   2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fartpli\u002FCodeIE) |\n|  [如何释放大型语言模型在少样本关系抽取中的潜力？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555)  |    ACL Workshop      |  2023-07    | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n|  [PromptNER：用于命名实体识别的提示设计](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444)  |      Arxiv    |  2023-06   | [GitHub](https:\u002F\u002Fgithub.com\u002Ftricktreat\u002FPromptNER) |\n| [使用指令微调的语言模型实现统一文本结构化](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14956)  | Arxiv | 2023-03 | []() |\n\n## 零样本\n### 零样本提示\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [ERA-CoT：通过实体关系分析提升思维链](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.476\u002F) | ACL | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002FOceannTwT\u002Fera-cot) |\n| [利用大型语言模型从天体物理学期刊文章中提取天文知识实体](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | 其他 | 2024年4月 | []() |\n| [使用大型语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [大型语言模型在对话关系抽取中的实证分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802) | IJCAI | 2024年4月 | []() |\n| [基于检索增强生成的关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.13397) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fsefeoglu\u002FRAG4RE) |\n| [利用大型语言模型进行关系抽取：以穴位位置为例的研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415) | Arxiv | 2024年4月 | []() |\n| [元上下文学习使大型语言模型成为更优秀的零样本和少样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17807) | IJCAI | 2024年4月 | []() |\n| [利用大型语言模型实现零样本命名实体识别的自我改进](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F) | NAACL Short | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n| [CodeKGC：用于生成式知识图谱构建的代码语言模型](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3641850) | ACM TALLIP | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FCodeKGC) |\n| [针对生物医学命名实体识别的LLM即时定义增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | NAACL | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [在药物警戒事件抽取中利用ChatGPT：一项实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663) | EACL | 2024年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [一种简单而有效的方法，用于改善信息抽取中结构化语言模型的输出](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.13364) | Arxiv | 2024年2月 | |\n| [小型语言模型可作为中文实体关系抽取中大型语言模型的良好指导](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14373) | Arxiv | 2024年2月 | |\n| [通过提示工程提升大型语言模型在临床命名实体识别中的性能](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | Arxiv | 2024年1月 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [通过扩充多样化的句子对来改进无监督关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552) | EMNLP | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n| [Prompt-NER：利用大型语言模型在天文学文献中进行零样本命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892) | Arxiv | 2023年10月 | |\n| [重新审视大型语言模型作为零样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028) | EMNLP Findings | 2023年10月 | []() |\n| [对齐指令任务可解锁大型语言模型的零样本关系抽取能力](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf) | ACL Findings | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n| [Code4Struct：用于少样本事件结构预测的代码生成](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.12810) | ACL | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fxingyaoww\u002Fcode4struct) |\n| [用于零样本社会政治事件抽取的蒙特卡洛语言模型流水线](https:\u002F\u002Fopenreview.net\u002Fpdf?id=3xGnOrUqt1) | NeurIPS Workshop | 2023年10月 | []() |\n| [通过提示引入全局约束进行零样本事件论元分类](https:\u002F\u002Faclanthology.org\u002F2023.findings-eacl.191\u002F) | EACL Findings | 2023年5月 | |\n| [通过与ChatGPT对话实现零样本信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205) | Arxiv | 2023年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n\n### 跨领域学习\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [KnowCoder: 将结构化知识编码到大语言模型中以实现通用信息抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.475\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fict-goknow.github.io\u002Fknowcoder\u002F) |\n| [VerifiNER: 基于知识推理的大语言模型增强的实体识别验证方法](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.134\u002F) | ACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Femseoyk\u002FVerifiNER) |\n| [重新思考生成式命名实体识别中的负样本](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [IEPile: 挖掘大规模基于模式的信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.acl-short.13\u002F) | ACL Short | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FIEPile?tab=readme-ov-file) |\n| [Diluie: 利用大语言模型构建多样化的上下文学习示例，用于统一信息抽取](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs00521-024-09728-5) | 其他 | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FPhevos75\u002FDILUIE) |\n| [通过大语言模型的指令微调推进生物医学领域的实体识别]() | 生物信息学 | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FBioNER-LLaMA) |\n| [ChatUIE: 探索基于聊天的大语言模型进行统一信息抽取]() | COLING | 2024 | |\n| [ULTRA: 通过层次建模和成对精炼释放大语言模型在事件论元抽取中的潜力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218) | Arxiv | 2024年1月 | []() |\n| [YAYI-UIE: 一种增强聊天功能的指令微调框架，用于通用信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15548) | Arxiv | 2024年4月 | \n| [GoLLIE: 注释指南提升零样本信息抽取性能](https:\u002F\u002Fopenreview.net\u002Fpdf?id=Y3wpuxd7u9) | ICLR | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002Fhitz-zentroa\u002FGoLLIE) |\n| [UniversalNER: 从大语言模型中针对性蒸馏，用于开放式命名实体识别](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p) | ICLR | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner) |\n| [InstructUIE: 面向统一信息抽取的多任务指令微调](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08085) | Arxiv | 2023年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002FBeyonderXX\u002FInstructUIE) |\n| [DEEPSTRUCT: 用于结构预测的语言模型预训练](https:\u002F\u002Faclanthology.org\u002F2022.findings-acl.67\u002F) | ACL Findings | 2022年5月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fwang-research-lab\u002Fdeepstruct) |\n| [面向零样本跨语言事件论元抽取的多语言生成式语言模型](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.317.pdf) | ACL | 2022年5月 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FX-Gear) |\n### 跨类型学习\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [基于条件生成的文档级事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2021.naacl-main.69.pdf) | NAACL | 2021年6月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg) |\n## 数据增强\n### 数据标注\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [Astro-NER -- 天文学命名实体识别：GPT是优秀的领域专家标注者吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024年5月 | []() |\n| [MetaIE: 从大语言模型中蒸馏出适用于各类信息抽取任务的元模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00457) | Arxiv | 2024年3月 | [GitHub](https:\u002F\u002Fgithub.com\u002FKomeijiForce\u002FMetaIE) |\n| [利用大语言模型扩充命名实体识别数据集：迈向自动化与精细化标注](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.01334) | Arxiv | 2024年3月 | []() |\n| [NuNER: 基于大语言模型标注数据的实体识别编码器预训练](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15343) | Arxiv | 2024年2月 | \n| [在药物警戒事件抽取中利用ChatGPT：一项实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663) | EACL | 2024年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [LLM-DA: 基于大语言模型的数据增强，用于少样本命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.14568) | Arxiv | 2024年2月 | []() |\n| [LLMaAA: 让大语言模型成为主动标注者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19596) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fridiculouz\u002FLLMAAA) |\n| [通过扩充多样化句子对改进无监督关系抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.00552) | EMNLP | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fqingwang-isu\u002FAugURE) |\n| [利用大语言模型的远程监督进行文档级关系抽取的半自动数据增强](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.334.pdf) | EMNLP | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigai-nlco\u002FDocGNRE) |\n| [如何释放大语言模型在少样本关系抽取中的力量？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.01555) | ACL Workshop | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm\u002FUnleashLLMRE) |\n| [大语言模型作为导师：多语言临床实体抽取研究](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F) | bioNLP Workshop | 2023年7月 | [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023) |\n| [大语言模型的合成数据生成是否有助于临床文本挖掘？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360) | Arxiv | 2023年4月 | []() |\n| [释放GPT-2在事件检测中的力量](https:\u002F\u002Faclanthology.org\u002F2021.acl-long.490.pdf) | ACL | 2021年8月 | []() |\n### 知识检索\n| 论文 | 会议 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [大语言模型作为桥梁：重构基于知识的多模态命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | ACL Findings | 2024年 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [一致性引导下的知识检索与去噪，用于大语言模型中的零样本文档级关系三元组抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13598) | WWW | 2024年 |\n| [使用合成数据集学习为命名实体识别排序上下文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10118) | EMNLP | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002FCompNet\u002Fconivel\u002Ftree\u002Fgen) |\n| [在MNER中提示ChatGPT：借助辅助精炼知识增强多模态命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM) |\n| [针对多模态命名实体识别和多模态关系抽取的思维链提示蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122) | Arxiv | 2023年8月 | []() |\n\n### 逆向生成\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [从大型语言模型中蒸馏濒危物种命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024-03 | []() |\n| [改进零样本事件检测中的事件定义] (https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.02586)  | Arxiv | 2024-03 | []() |\n| [ProgGen：利用自我反思型大型语言模型逐步生成命名实体识别数据集](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n| [把握本质：为零样本关系抽取量身定制大型语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11142) | Arxiv | 2024-02 |\n| [利用不对称性生成合成训练数据：SynthIE与信息抽取案例](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04132)  |   EMNLP       |  2023-12   | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FSynthIE) |\n| [基于实体到文本的数据增强，用于多种命名实体识别任务](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.578\u002F)  |     ACL Findings     |   2023-07  | []() |\n| [将事件抽取视为问题生成与回答](https:\u002F\u002Faclanthology.org\u002F2023.acl-short.143.pdf)  |   ACL Short       |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002Fdataminr-ai\u002FEvent-Extraction-as-Question-Generation-and-Answering) |\n| [STAR：通过大型语言模型的结构到文本数据生成，提升低资源事件抽取性能](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29839)  |     AAAI     |  2024-03   | []() |\n### 用于指令微调的合成数据集\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [重新思考生成式命名实体识别中的负样本](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.206\u002F) |  ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FyyDing1\u002FGNER) |\n| [UniversalNER：面向开放命名实体识别的大型语言模型定向蒸馏](https:\u002F\u002Fopenreview.net\u002Fpdf?id=r65xfUb76p)  |   ICLR    |  2024-01   |  [GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner)  |\n| [GLiNER：使用双向Transformer的通用命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526) | Arxiv | 2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER) |\n| [用于多模态命名实体识别和多模态关系抽取的思维链提示蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122)   |  Arxiv  |   2023-08  | |\n\n## 提示词设计\n### 问答\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [面向低资源命名实体识别的知识增强提示](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3659948) | TALLIP | 2024-04 | []() |\n| [通过大型语言模型的单选题问答提升软件相关信息抽取](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587)  | 其他 | 2024-04 | []() |\n|  [重新审视大型语言模型作为零样本关系抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05028)  |   EMNLP Findings |  2023-12   |  |\n|  [对齐指令任务可解锁大型语言模型的零样本关系抽取能力](https:\u002F\u002Faclanthology.org\u002F2023.findings-acl.50.pdf)  |  ACL Findings  |  2023-07   | [GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FQA4RE) |\n| [通过与ChatGPT对话实现零样本信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.10205)   |      Arxiv      |  2023-02    | [GitHub](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FChatIE) |\n### 思维链\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [RT：一种用于少样本医学命名实体识别的检索与思维链框架](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | 其他 | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n|  [以生物医学命名实体识别领域的外部知识激发大型语言模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278)  |   Arxiv  |   2023-09  | |\n|  [用于多模态命名实体识别和多模态关系抽取的思维链提示蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122) |  Arxiv  |   2023-08  | |\n|  [在大型语言模型时代重新审视关系抽取](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.868.pdf)  |   ACL   |  2023-07  | [GitHub](https:\u002F\u002Fsominw.com\u002FACL23LLMs) |\n|  [使用ChatGPT进行零样本时间关系抽取](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.7\u002F)  |  BioNLP    |  2023-07   |  |\n|  [PromptNER：用于命名实体识别的提示工程](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15444)  |   Arxiv    |  2023-06   |    |\n### 自我改进\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [ProgGen：利用自我反思型大型语言模型逐步生成命名实体识别数据集](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.947\u002F) | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FStefanHeng\u002FProgGen) |\n| [ULTRA：通过层次化建模和成对精炼释放大型语言模型在事件论元抽取方面的潜力](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.13218)  | Arxiv | 2024-01 | []() |\n| [利用大型语言模型实现零样本命名实体识别的自我改进](https:\u002F\u002Faclanthology.org\u002F2024.naacl-short.49\u002F)   |   NAACL Short |  2024    | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FSelf-Improve-Zero-Shot-NER) |\n\n\n\n## 约束解码生成\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :----- | :--------------: | :------- | :---------: |\n| [用于联合实体与关系抽取的自回归文本到图框架](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F29919) | AAAI | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Furchade\u002FATG) |\n|  [无需微调即可用于结构化NLP任务的语法约束解码](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.674\u002F)  |     EMNLP     |   2024-01  | [GitHub](https:\u002F\u002Fgithub.com\u002Fepfl-dlab\u002FGCD) |\n| [DORE：基于生成式框架的文档有序关系抽取](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.253\u002F) |  EMNLP Findings | 2022-12 |\n|  [利用语言模型进行自回归结构化预测](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.70\u002F)  |     EMNLP Findings     |   2022-12  | [GitHub](https:\u002F\u002Fgithub.com\u002Flyutyuh\u002FASP) |\n|  [用于通用信息抽取的统一结构生成](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.395\u002F)  |      ACL       |  2022-05     | [GitHub](https:\u002F\u002Fgithub.com\u002Fyhcc\u002FBARTABSA) |\n\n# 特定领域\n| 论文 | 领域 | 会议\u002F期刊 | 发表日期 | 代码 |\n| :----- | :--------------: | :-------: | :---------: |:---------: |\n| [粒度实体映射器：推进细粒度多模态命名实体识别与对齐](https:\u002F\u002Faclanthology.org\u002F2024.findings-emnlp.183\u002F) | 多模态 | EMNLP Findings | 2024 | |\n| [大语言模型作为桥梁：重新构建 grounded 多模态命名实体识别](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.76\u002F) | 多模态 | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FRiVEG) |\n| [RT：一种用于少样本医学命名实体识别的检索与思维链框架](https:\u002F\u002Facademic.oup.com\u002Fjamia\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fjamia\u002Focae095\u002F7665312) | 医学 | 其他 | 2024-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [Astro-NER——天文学命名实体识别：GPT 是优秀的领域专家标注者吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | 天文学 | Arxiv | 2024-05 | []() |\n| [通过大型语言模型从天体物理期刊文章中提取天文知识实体](https:\u002F\u002Fiopscience.iop.org\u002Farticle\u002F10.1088\u002F1674-4527\u002Fad3d15\u002Fmeta) | 天文学 | 其他 | 2024-04 | []() |\n| [VANER：利用大型语言模型实现通用且自适应的生物医学命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17835) | 生物医学 | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002FEulring\u002FVANER) |\n| [大语言模型在生物医学中的应用：临床命名实体识别研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.07376) | 生物医学 | Arxiv | 2024-04 | []() |\n| [通过大型语言模型的单选题问答增强软件相关信息抽取](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05587) | 软件 | 其他 | 2024-04 | []() |\n| [走出芝麻街：基于上下文学习的葡萄牙法律命名实体识别研究](https:\u002F\u002Fwww.researchgate.net\u002Fprofile\u002FRafael-Nunes-35\u002Fpublication\u002F379665297_Out_of_Sesame_Street_A_Study_of_Portuguese_Legal_Named_Entity_Recognition_Through_In-Context_Learning\u002Flinks\u002F6614701839e7641c0ba6879b\u002FOut-of-Sesame-Street-A-Study-of-Portuguese-Legal-Named-Entity-Recognition-Through-In-Context-Learning.pdf) | 法律 | ResearchGate | 2024-04 | []() |\n| [利用大型语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | 科学 | Arxiv | 2024-04 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [使用大型语言模型进行关系抽取：以穴位位置为例的研究](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415) | 穴位 | Arxiv | 2024-04 | []() |\n| [通过指令微调大型语言模型推进生物医学领域的实体识别]() | 生物医学 | 生物信息学 | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FBioNER-LLaMA) |\n| [从大型语言模型中蒸馏濒危物种命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430) | 濒危物种 | Arxiv | 2024-03 | []() |\n| [CHisIEC：古代中国历史的信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F) | 历史 | COLING | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [针对生物医学 NER 的 LLM 即时定义增强](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.00152) | 生物医学 | NAACL | 2024-03 | [GitHub](https:\u002F\u002Fgithub.com\u002Fallenai\u002Fbeacon) |\n| [通过上下文学习改进基于 LLM 的健康信息抽取](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-97-1717-0_4) | 健康 | 其他 | 2024-03 |\n| [利用大型语言模型从科学文本中结构化抽取信息](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | 科学 | Nat. Commun. | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FLBNLP\u002FNERRE) |\n| [将 ChatGPT 应用于药物警戒事件抽取：一项实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.15663) | 药物警戒 | EACL | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002Fphee-with-chatgpt) |\n| [利用大型语言模型从科学文本中结构化抽取信息](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41467-024-45563-x) | 科学 | Nat. Commun. | 2024-02 | [GitHub](https:\u002F\u002Fgithub.com\u002Flbnlp\u002Fnerre-llama) |\n| [结合基于提示的语言模型和弱监督技术对法律文书进行命名实体识别标注](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs10506-023-09388-1) | 法律 | 其他 | 2024-02 |\n| [通过提示工程改进大型语言模型在临床命名实体识别中的表现](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416v3) | 临床 | Arxiv | 2024-01 | [GitHub](https:\u002F\u002Fgithub.com\u002FBIDS-Xu-Lab\u002FClinical_Entity_Recognition_Using_GPT_models) |\n| [样本选择对科学写作中实体抽取的上下文学习的影响](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.338\u002F) | 科学 | EMNLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002Fadalin16\u002FICL_EE)|\n| [在 MNER 中提示 ChatGPT：借助辅助精炼知识提升多模态命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12212) | 多模态 | ENMLP Findings | 2023-12 | [GitHub](https:\u002F\u002Fgithub.com\u002FJinYuanLi0012\u002FPGIM) |\n| [少样本多模态命名实体识别的上下文学习](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.196\u002F) | 多模态 | ENMLP Findings | 2023-12 |  |\n| [PolyIE：聚合物材料科学文献的信息抽取数据集](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07715) | 聚合物材料 | Arxiv | 2023-11 | [GitHub](https:\u002F\u002Fgithub.com\u002Fjerry3027\u002FPolyIE) |\n| [Prompt-NER：利用大型语言模型在天文学文献中进行零样本命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17892) | 天文 | Arxiv | 2023-10 |  |\n| [以外部知识激发大型语言模型在生物医学命名实体识别中的表现](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.12278) | 生物医学 | Arxiv | 2023-09 | |\n| [面向多模态命名实体识别与多模态关系抽取的思维链提示蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.14122) | 多模态 | Arxiv | 2023-08 | |\n| [DICE：基于生成模型的高效临床事件抽取](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.886.pdf) | 临床 | ACL | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fderekmma\u002FDICE) |\n| [语言模型距离医疗领域 100% 少样本命名实体识别还有多远？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00186) | 医疗 | Arxiv | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n| [大型语言模型作为导师：多语言临床实体抽取研究](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.15\u002F) | 多语言\u002F临床 | BioNLP | 2023-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Farkhn\u002Fbio-nlp2023) |\n| [LLM 的合成数据生成是否有助于临床文本挖掘？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.04360) | 临床 | Arxiv | 2023-04 |  |\n| [是的，但是……ChatGPT 能否识别历史文献中的实体？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17322) | 历史 | JCDL | 2023-03 |  |\n| [利用 ChatGPT 进行零样本临床实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416) | 临床 | Arxiv | 2023-03 |  |\n| [利用微调后的大型语言模型从复杂科学文本中结构化抽取信息](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.05238) | 科学 | Arxiv | 2022-12 | [演示](http:\u002F\u002Fwww.matscholar.com\u002Finfo-extraction) |\n| [多语言生成式语言模型用于零样本跨语言事件论元抽取](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.317.pdf) | 多语言 | ACL | 2022-05 | [GitHub](https:\u002F\u002Fgithub.com\u002FPlusLabNLP\u002FX-Gear) |\n\n# 评估与分析\n| 论文 | 会议\u002F期刊 | 日期 | 代码 |\n| :----- | :--------------: | :------- | :---------: |\n| [TextEE: 事件抽取的基准、重新评估、反思及未来挑战](https:\u002F\u002Faclanthology.org\u002F2024.findings-acl.760\u002F)  | ACL Findings | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fej0cl6\u002FTextEE) |\n| [IEPile: 挖掘大规模基于模式的信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.acl-short.13\u002F) | ACL Short | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FIEPile?tab=readme-ov-file) |\n| [CHisIEC: 古代中国历史信息抽取语料库](https:\u002F\u002Faclanthology.org\u002F2024.lrec-main.283\u002F)  | COLING | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Ftangxuemei1995\u002FCHisIEC) |\n| [GenRES: 大型语言模型时代生成式关系抽取的评估重思](https:\u002F\u002Faclanthology.org\u002F2024.naacl-long.155\u002F) | NAACL | 2024 | [GitHub](https:\u002F\u002Fgithub.com\u002Fpat-jj\u002FGenRES) |\n| [大型语言模型在对话关系抽取中的实证分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.17802)  | IJCAI | 2024 | []() |\n| [Astro-NER -- 天文学命名实体识别：GPT是优秀的领域专家标注者吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.02602) | Arxiv | 2024年5月 | []() |\n| [利用大型语言模型进行关系抽取：以穴位位置为例](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.05415)  | Arxiv | 2024年4月 | []() |\n| [使用大型语言模型从材料科学文献中挖掘实验数据：一项评估研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.11052) | Arxiv | 2024年4月 | [GitHub](https:\u002F\u002Fgithub.com\u002Flfoppiano\u002FMatSci-LumEn) |\n| [从大型语言模型中蒸馏濒危物种命名实体识别模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.15430)  | Arxiv | 2024年3月 | []() |\n| [用于知识图谱构建与推理的大语言模型：最新能力与未来机遇](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13168) | Arxiv | 2024年2月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FAutoKG)|\n| [三种语言下的少样本临床实体识别：掩码语言模型优于大语言模型提示](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12801) | Arxiv | 2024年2月 | \n| [法律遗嘱中的信息抽取：GPT-4表现如何？](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.287\u002F) | EMNLP Findings | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fml4ai\u002Fie4wills\u002F) |\n| [低资源场景下的信息抽取：综述与展望](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.08063)| Arxiv | 2023年12月 | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FLow-resource-KEPapers) |\n|  [ChatGPT零样本NER的实证研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10035)  |   EMNLP       |  2023年12月   | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FZero-Shot-NER-with-ChatGPT) |\n|  [NERetrieve: 下一代命名实体识别与检索的数据集](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14282)  |   EMNLP Findings       |  2023年12月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fkatzurik\u002FNERetrieve) |\n|  [保持知识不变性：重思开放信息抽取的鲁棒性评估](https:\u002F\u002Faclanthology.org\u002F2023.emnlp-main.360\u002F)  |  EMNLP    |   2023年12月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fqijimrc\u002FROBUST) |\n|  [PolyIE: 聚合物材料科学文献中的信息抽取数据集](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07715)  |  Arxiv    |   2023年11月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fjerry3027\u002FPolyIE) |\n|  [XNLP: 通用结构化NLP的交互式演示系统](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01846)  |  Arxiv    |  2023年8月   | [演示](http:\u002F\u002Fxnlp.haofei.vip\u002F) |\n|  [指令微调大型语言模型在临床和生物医学任务中的零样本与少样本研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12114)  |   Arxiv    |  2023年7月  |  |\n|  [语言模型距离医疗领域100%少样本命名实体识别还有多远](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00186)  |     Arxiv    |  2023年7月   | [GitHub](https:\u002F\u002Fgithub.com\u002FToneLi\u002FRT-Retrieving-and-Thinking) |\n|  [大型语言模型时代的关系抽取再审视](https:\u002F\u002Faclanthology.org\u002F2023.acl-long.868.pdf)  |   ACL   |  2023年7月  | [GitHub](https:\u002F\u002Fsominw.com\u002FACL23LLMs) |\n|  [ChatGPT零样本时间关系抽取](https:\u002F\u002Faclanthology.org\u002F2023.bionlp-1.7\u002F)  |  BioNLP    |  2023年7月   |  |\n|  [InstructIE: 一个基于指令的中文信息抽取数据集](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.11527)  |   Arxiv   |  2023年5月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FDeepKE\u002Ftree\u002Fmain\u002Fexample\u002Fllm) |\n|  [ChatGPT是否解决了信息抽取问题？性能、评估标准、鲁棒性和错误分析](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14450)  |   Arxiv   |  2023年5月    | [GitHub](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FEvaluation-of-ChatGPT-on-Information-Extraction) |\n|  [评估ChatGPT的信息抽取能力：性能、可解释性、校准与忠实度](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.11633)  |   Arxiv   |  2023年4月   | [GitHub](https:\u002F\u002Fgithub.com\u002Fpkuserc\u002FChatGPT_for_IE) |\n|  [探索ChatGPT用于事件抽取的可行性](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.03836)  |     Arxiv   |  2023年3月   |  |\n|  [但是……ChatGPT能识别历史文献中的实体吗？](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.17322)  |   JCDL   |  2023年3月   |  |\n|  [使用ChatGPT进行零样本临床实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16416)  |      Arxiv   |  2023年3月    |  |\n|  [考虑将GPT-3的上下文学习应用于生物医学信息抽取吗？再想想吧](https:\u002F\u002Faclanthology.org\u002F2022.findings-emnlp.329\u002F)  |   EMNLP Findings   |   2022年12月  | [GitHub](https:\u002F\u002Fgithub.com\u002Fdki-lab\u002Ffew-shot-bioIE) |\n|  [大型语言模型是少样本临床信息抽取器](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.12689)  |   EMNLP   |  2022年12月   | [Huggingface](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fmitclinicalml\u002Fclinical-ie) |\n\n# 项目与工具包\n| 论文 | 类型 | 会议\u002F期刊 | 日期 | 链接 |\n| :------ | :------: | :------: | :------: | :------: |\n| ONEKE | 项目 | - | - | [链接](http:\u002F\u002Foneke.openkg.cn\u002F) |\n| [TechGPT-2.0: 一个解决知识图谱构建任务的大语言模型项目](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.04507) | 项目 | Arxiv | 2024年1月 | [链接](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT-2.0) |\n| [CollabKG: 一种可学习的人机协作信息抽取工具包，用于（事件）知识图谱构建](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00769) | 工具包 | Arxiv | 2023年7月 | [链接](https:\u002F\u002Fgithub.com\u002Fcocacola-lab\u002FCollabKG) |\n\n# 最新更新的论文\n\n## 2024\u002F09\u002F04\n| 论文 | 会议\u002F期刊 | 发表日期 | 代码链接 |\n| :------ | :------: | :------: | :------: |\n| [基于时间线的句子分解与上下文学习用于时序事实抽取](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.187\u002F) | ACL | 2024-08 | [GitHub](https:\u002F\u002Fgithub.com\u002FJianhaoChen-nju\u002FTSDRE) |\n| [利用大语言模型进行基于事件的疫情监测中的信息抽取](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-97-4581-4_17) | ICICT | 2024-08 | |\n| [SpeechEE：一种新颖的语音事件抽取基准](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.09462) | ACM MM | 2024-08 | [GitHub](https:\u002F\u002Fspeechee.github.io\u002F) |\n| [HybridRAG：融合知识图谱与向量检索增强生成以实现高效信息抽取](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04948) | Arxiv | 2024-08 | |\n| [Knowledge AI：微调NLP模型以促进科学知识的提取与理解](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04651) | Arxiv | 2024-08 | |\n| [视觉语言模型的信息抽取目标提示](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.03834) | Arxiv | 2024-08 | |\n| [使用大语言模型的少样本提示评估命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.15796) | Arxiv | 2024-08 | [GitHub](https:\u002F\u002Fgithub.com\u002FGEODE-project\u002Fner-llm) |\n| [利用大语言模型对中医药抗击新冠肺炎文献中的命名实体识别：对比研究](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.13501) | Arxiv | 2024-08 | |\n| [CLLMFS：一种基于对比学习增强的大语言模型框架，用于少样本命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12834) | ECAI | 2024-08 | |\n| [大语言模型并非生物医学信息抽取的零样本推理者](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.12249) | Arxiv | 2024-08 | |\n| [利用通用大语言模型进行标签对齐与重新分配，以提升跨领域命名实体识别](https:\u002F\u002Fwww.arxiv.org\u002Fabs\u002F2407.17344) | Arxiv | 2024-07 | |\n| [MMM：多语言相互强化效应混合数据集与开放域信息抽取大语言模型测试](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10953) | Arxiv | 2024-08 | [GitHub](https:\u002F\u002Fganchengguang.github.io\u002FMRE\u002F) |\n| [FsPONER：面向特定领域场景的命名实体识别少样本提示优化](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.08035) | ECAI | 2024-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fmarkustyj\u002FFsPONER_ECAI2024) |\n| [通过适配器利用知识图谱将多语言LLM适配到低资源语言](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.01406) | KaLLM workshop | 2024-07 | [GitHub](https:\u002F\u002Fgithub.com\u002Fd-gurgurov\u002FInjecting-Commonsense-Knowledge-into-LLMs) |\n| [少展示、多指导：用定义和指南丰富提示以实现零样本NER](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.01272) | Arxiv | 2024-07 | |\n| [大语言模型在临床命名实体识别的标记级别上表现不佳](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.00731) | AMIA | 2024-08 | |\n| [GLiNER多任务：适用于各类信息抽取任务的通用轻量级模型]() | Arxiv | 2024-08 | |\n| [利用大语言模型进行开放NER的检索增强指令微调](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.17305) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FEmma1066\u002FRetrieval-Augmented-IT-OpenNER) |\n| [超越边界：学习跨数据集和语言的通用实体分类体系，用于开放命名实体识别](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.11192) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002FUmeanNever\u002FB2NER) |\n| [对抗少样本命名实体识别中的重复训练与样本依赖问题](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F10463035) | IEEE Access | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fchangtianluckyforever\u002FSMCS_project) |\n| [llmNER：（零\\|少）样本命名实体识别，挖掘大语言模型的力量](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04528) | Arxiv | 2024-06 | [GitHub](https:\u002F\u002Fgithub.com\u002Fplncmm\u002Fllmner) |\n| [评估中文开源大语言模型在信息抽取任务中的性能](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.02079) | Arxiv | 2024-06 | |\n\n# 数据集\n\\* 表示该数据集为多模态。# 表示类别或句子的数量。\n\n\u003Ctable>\n    \u003Cthead>\n        \u003Ctr>\n            \u003Cth align=\"center\">任务\u003C\u002Fth>\n            \u003Cth align=\"center\">数据集\u003C\u002Fth>\n            \u003Cth align=\"center\">领域\u003C\u002Fth>\n            \u003Cth align=\"center\">#类别\u003C\u002Fth>\n            \u003Cth align=\"center\">#训练\u003C\u002Fth>\n            \u003Cth align=\"center\">#验证\u003C\u002Fth>\n            \u003Cth align=\"center\">#测试\u003C\u002Fth>\n            \u003Cth align=\"center\">链接\u003C\u002Fth>\n        \u003C\u002Ftr>\n    \u003C\u002Fthead>\n    \u003Ctbody>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"32\" >\u003Cstrong>命名实体识别 (NER)\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE04\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6202\u003C\u002Ftd>\n            \u003Ctd align=\"center\">745\u003C\u002Ftd>\n            \u003Ctd align=\"center\">812\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2005T09\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7299\u003C\u002Ftd>\n            \u003Ctd align=\"center\">971\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1060\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">BC5CDR\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4560\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4581\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4797\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbiocreative.bioinformatics.udel.edu\u002Ftasks\u002Fbiocreative-v\u002Ftrack-3-cdr\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Broad Twitter Corpus\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6338\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1001\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGateNLP\u002Fbroad_twitter_corpus?\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CADEC\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5340\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1097\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1160\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fdata.csiro.au\u002Fcollection\u002Fcsiro:10948?v=3&d=true\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLL03\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14041\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3250\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3453\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.clips.uantwerpen.be\u002Fconll2003\u002Fner\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLLpp\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14041\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3250\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3453\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZihanWangKi\u002FCrossWeigh\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-AI\u003C\u002Ftd>\n            \u003Ctd align=\"center\">人工智能\u003C\u002Ftd>\n            \u003Ctd align=\"center\">14\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">350\u003C\u002Ftd>\n            \u003Ctd align=\"center\">431\u003C\u002Ftd>\n            \u003Ctd align=\"center\" rowspan=\"5\" >\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzliucr\u002FCrossNER\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Literature\u003C\u002Ftd>\n            \u003Ctd align=\"center\">文学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">400\u003C\u002Ftd>\n            \u003Ctd align=\"center\">416\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Music\u003C\u002Ftd>\n            \u003Ctd align=\"center\">音乐\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">100\u003C\u002Ftd>\n            \u003Ctd align=\"center\">380\u003C\u002Ftd>\n            \u003Ctd align=\"center\">465\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Politics\u003C\u002Ftd>\n            \u003Ctd align=\"center\">政治\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9\u003C\u002Ftd>\n            \u003Ctd align=\"center\">199\u003C\u002Ftd>\n            \u003Ctd align=\"center\">540\u003C\u002Ftd>\n            \u003Ctd align=\"center\">650\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CrossNER-Science\u003C\u002Ftd>\n            \u003Ctd align=\"center\">科学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17\u003C\u002Ftd>\n            \u003Ctd align=\"center\">200\u003C\u002Ftd>\n            \u003Ctd align=\"center\">450\u003C\u002Ftd>\n            \u003Ctd align=\"center\">543\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">FabNER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">科学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9435\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2182\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2064\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDFKI-SLT\u002Ffabner\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Few-NERD\u003C\u002Ftd>\n            \u003Ctd align=\"center\">通用\u003C\u002Ftd>\n            \u003Ctd align=\"center\">66\u003C\u002Ftd>\n            \u003Ctd align=\"center\">131767\u003C\u002Ftd>\n            \u003Ctd align=\"center\">18824\u003C\u002Ftd>\n            \u003Ctd align=\"center\">37468\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FFew-NERD\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">FindVehicle\u003C\u002Ftd>\n            \u003Ctd align=\"center\">交通\u003C\u002Ftd>\n            \u003Ctd align=\"center\">21\u003C\u002Ftd>\n            \u003Ctd align=\"center\">21565\u003C\u002Ftd>\n            \u003Ctd align=\"center\">20777\u003C\u002Ftd>\n            \u003Ctd align=\"center\">20777\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FGuanRunwei\u002FVehicleFinder-CTIM\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15023\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1669\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1854\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fljynlp\u002FW2NER?tab=readme-ov-file#3-dataset\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">HarveyNER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3967\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1301\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1303\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbrickee\u002FHarveyNER\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MIT-Movie\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9774\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2442\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2442\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F145106\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MIT-Restaurant\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7659\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1520\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1520\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F145105\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MultiNERD\u003C\u002Ftd>\n            \u003Ctd align=\"center\">维基百科\u003C\u002Ftd>\n            \u003Ctd align=\"center\">16\u003C\u002Ftd>\n            \u003Ctd align=\"center\">134144\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBabelscape\u002Fmultinerd\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">NCBI\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5432\u003C\u002Ftd>\n            \u003Ctd align=\"center\">923\u003C\u002Ftd>\n            \u003Ctd align=\"center\">940\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.ncbi.nlm.nih.gov\u002FCBBresearch\u002FDogan\u002FDISEASE\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">OntoNotes 5.0\u003C\u002Ftd>\n            \u003Ctd align=\"center\">通用\u003C\u002Ftd>\n            \u003Ctd align=\"center\">18\u003C\u002Ftd>\n            \u003Ctd align=\"center\">59924\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8528\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8262\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2013T19\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ShARe13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8508\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12050\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9009\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fphysionet.org\u002Fcontent\u002Fshareclefehealth2013\u002F1.0\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ShARe14\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17404\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1360\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15850\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fphysionet.org\u002Fcontent\u002Fshareclefehealth2014task2\u002F1.0\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SNAP\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4290\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1432\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1459\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Temporal Twitter Corpus (TTC)\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1500\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fshrutirij\u002Ftemporal-twitter-corpus\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Tweebank-NER\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1639\u003C\u002Ftd>\n            \u003Ctd align=\"center\">710\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1201\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmit-ccc\u002FTweebankNLP\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Twitter2015\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3357\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Twitter2017\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3373\u003C\u002Ftd>\n            \u003Ctd align=\"center\">723\u003C\u002Ftd>\n            \u003Ctd align=\"center\">723\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fcaijiong_sijun\u002FMoRE-processed-data\u002Ffiles\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TwitterNER7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7111\u003C\u002Ftd>\n            \u003Ctd align=\"center\">886\u003C\u002Ftd>\n            \u003Ctd align=\"center\">576\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ftner\u002Ftweetner7\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WikiDiverse\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6312\u003C\u002Ftd>\n            \u003Ctd align=\"center\">755\u003C\u002Ftd>\n            \u003Ctd align=\"center\">757\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwangxw5\u002Fwikidiverse?tab=readme-ov-file#get-the-data\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WNUT2017\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3394\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1009\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1287\u003C\u002Ftd>\n            \u003Ctd aligh=\"center\">\u003Ca href=\"https:\u002F\u002Ftianchi.aliyun.com\u002Fdataset\u002F144349\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"11\">\u003Cstrong>关系抽取 (RE)\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">10051\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2420\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2050\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">ADE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3417\u003C\u002Ftd>\n            \u003Ctd align=\"center\">427\u003C\u002Ftd>\n            \u003Ctd align=\"center\">428\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fade\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CoNLL04\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u003C\u002Ftd>\n            \u003Ctd align=\"center\">922\u003C\u002Ftd>\n            \u003Ctd align=\"center\">231\u003C\u002Ftd>\n            \u003Ctd align=\"center\">288\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fconll04\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">DocRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">维基百科\u003C\u002Ftd>\n            \u003Ctd align=\"center\">96\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3008\u003C\u002Ftd>\n            \u003Ctd align=\"center\">300\u003C\u002Ftd>\n            \u003Ctd align=\"center\">700\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FDocRED\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">MNRE\u003Csup>*\u003Csup>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">社交媒体\u003C\u002Ftd>\n            \u003Ctd align=\"center\">23\u003C\u002Ftd>\n            \u003Ctd align=\"center\">12247\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1624\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1614\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthecharm\u002FMNRE\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">NYT\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">24\u003C\u002Ftd>\n            \u003Ctd align=\"center\">56196\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenNRE\u002Fblob\u002Fmaster\u002Fbenchmark\u002Fdownload_nyt10.sh\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">Re-TACRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">40\u003C\u002Ftd>\n            \u003Ctd align=\"center\">58465\u003C\u002Ftd>\n            \u003Ctd align=\"center\">19584\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13418\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgstoica27\u002FRe-TACRED\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SciERC\u003C\u002Ftd>\n            \u003Ctd align=\"center\">科学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1366\u003C\u002Ftd>\n            \u003Ctd align=\"center\">187\u003C\u002Ftd>\n            \u003Ctd align=\"center\">397\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"http:\u002F\u002Flavis.cs.hs-rm.de\u002Fstorage\u002Fspert\u002Fpublic\u002Fdatasets\u002Fscierc\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">SemEval2010\u003C\u002Ftd>\n            \u003Ctd align=\"center\">通用\u003C\u002Ftd>\n            \u003Ctd align=\"center\">19\u003C\u002Ftd>\n            \u003Ctd align=\"center\">6507\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1493\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2717\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenNRE\u002Fblob\u002Fmaster\u002Fbenchmark\u002Fdownload_semeval.sh\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TACRED\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">42\u003C\u002Ftd>\n            \u003Ctd align=\"center\">68124\u003C\u002Ftd>\n            \u003Ctd align=\"center\">22631\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15509\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fnlp.stanford.edu\u002Fprojects\u002Ftacred\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">TACREV\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">42\u003C\u002Ftd>\n            \u003Ctd align=\"center\">68124\u003C\u002Ftd>\n            \u003Ctd align=\"center\">22631\u003C\u002Ftd>\n            \u003Ctd align=\"center\">15509\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FDFKI-NLP\u002Ftacrev\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\" rowspan=\"7\">\u003Cstrong>事件抽取 (EE)\u003C\u002Fstrong>\u003C\u002Ftd>\n            \u003Ctd align=\"center\">ACE05\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">33\u002F22\u003C\u002Ftd>\n            \u003Ctd align=\"center\">17172\u003C\u002Ftd>\n            \u003Ctd align=\"center\">923\u003C\u002Ftd>\n            \u003Ctd align=\"center\">832\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2006T06\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">CASIE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">网络安全\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5\u002F26\u003C\u002Ftd>\n            \u003Ctd align=\"center\">11189\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1778\u003C\u002Ftd>\n            \u003Ctd align=\"center\">3208\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEbiquity\u002FCASIE\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA11\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">9\u002F11\u003C\u002Ftd>\n            \u003Ctd align=\"center\">8730\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1091\u003C\u002Ftd>\n            \u003Ctd align=\"center\">1092\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbionlp-st.dbcls.jp\u002FGE\u002F2011\u002Feval-test\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">GENIA13\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">13\u002F7\u003C\u002Ftd>\n            \u003Ctd align=\"center\">4000\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">500\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fbionlp-st.dbcls.jp\u002FGE\u002F2013\u002Feval-test\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">PHEE\u003C\u002Ftd>\n            \u003Ctd align=\"center\">生物医学\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2\u002F16\u003C\u002Ftd>\n            \u003Ctd align=\"center\">2898\u003C\u002Ftd>\n            \u003Ctd align=\"center\">961\u003C\u002Ftd>\n            \u003Ctd align=\"center\">968\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FZhaoyueSun\u002FPHEE\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">RAMS\u003C\u002Ftd>\n            \u003Ctd align=\"center\">新闻\u003C\u002Ftd>\n            \u003Ctd align=\"center\">139\u002F65\u003C\u002Ftd>\n            \u003Ctd align=\"center\">7329\u003C\u002Ftd>\n            \u003Ctd align=\"center\">924\u003C\u002Ftd>\n            \u003Ctd align=\"center\">871\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fnlp.jhu.edu\u002Frams\u002F\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n        \u003Ctr>\n            \u003Ctd align=\"center\">WikiEvents\u003C\u002Ftd>\n            \u003Ctd align=\"center\">维基百科\u003C\u002Ftd>\n            \u003Ctd align=\"center\">50\u002F59\u003C\u002Ftd>\n            \u003Ctd align=\"center\">5262\u003C\u002Ftd>\n            \u003Ctd align=\"center\">378\u003C\u002Ftd>\n            \u003Ctd align=\"center\">492\u003C\u002Ftd>\n            \u003Ctd align=\"center\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fraspberryice\u002Fgen-arg\">链接\u003C\u002Fa>\u003C\u002Ftd>\n        \u003C\u002Ftr>\n    \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fquqxui_Awesome-LLM4IE-Papers_readme_b1cac08f5a36.png)](https:\u002F\u002Fstar-history.com\u002F#quqxui\u002FAwesome-LLM4IE-Papers&Date)","# Awesome-LLM4IE-Papers 快速上手指南\n\n**Awesome-LLM4IE-Papers** 并非一个可直接运行的软件工具或 Python 库，而是一个**学术论文与代码资源的精选合集**。它整理了基于大语言模型（LLM）进行生成式信息抽取（Information Extraction, IE）的前沿研究，涵盖命名实体识别（NER）、关系抽取、事件抽取等任务。\n\n本指南旨在帮助开发者快速获取该资源列表，并找到相关论文对应的代码仓库进行使用。\n\n## 环境准备\n\n由于本项目主要是论文列表和链接索引，**无需安装特定的运行时环境或依赖包**。您只需要具备以下基础条件即可开始探索：\n\n*   **操作系统**：Windows, macOS 或 Linux 均可。\n*   **必备工具**：\n    *   现代浏览器（用于查看论文详情）。\n    *   Git（用于克隆本仓库及下属论文的代码仓库）。\n    *   Python 环境（用于运行具体论文提供的代码，版本要求视具体子项目而定，通常建议 Python 3.8+）。\n*   **网络环境**：\n    *   访问 GitHub 可能需要稳定的网络连接。\n    *   部分论文链接（如 ACL Anthology, arXiv）在国内访问速度尚可，若遇阻可尝试学术镜像。\n\n## 安装步骤（获取资源）\n\n要使用此资源库，只需将其克隆到本地即可。\n\n1.  **打开终端或命令行工具**。\n\n2.  **克隆仓库**：\n    使用以下命令将项目下载到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fderongxu\u002FAwesome-LLM4IE-Papers.git\n    ```\n\n    *国内加速方案（如果官方源速度慢）：*\n    您可以使用 Gitee 镜像（如果有）或通过代理加速克隆：\n    ```bash\n    # 示例：使用镜像站加速克隆（需确保镜像存在）\n    git clone https:\u002F\u002Fgitee.com\u002Fmirrors\u002FAwesome-LLM4IE-Papers.git\n    ```\n    *(注：若暂无官方 Gitee 镜像，建议使用 `git clone` 配合网络代理，或直接在线浏览 GitHub 页面)*\n\n3.  **进入目录**：\n    ```bash\n    cd Awesome-LLM4IE-Papers\n    ```\n\n4.  **查看更新日志**（可选）：\n    查看最近更新的论文列表：\n    ```bash\n    cat .\u002Fupdate_new_papers_list\n    ```\n\n## 基本使用\n\n本项目的核心用法是**查阅表格**找到您感兴趣的论文，然后跳转到对应的 **Code** 列提供的 GitHub 仓库进行实际部署。\n\n### 1. 浏览论文列表\n在本地用 Markdown 阅读器打开 `README.md`，或直接访问 GitHub 页面。内容按以下结构分类：\n*   **任务类型**：命名实体识别 (NER)、关系抽取、事件抽取、通用信息抽取。\n*   **技术方法**：监督微调 (SFT)、少样本 (Few-shot)、零样本 (Zero-shot)、数据增强、提示词设计等。\n*   **特定领域**：生物医学、法律、天文等。\n\n### 2. 获取具体模型代码（示例）\n假设您对 **\"UniversalNER\"**（一个用于开放命名实体识别的通用模型）感兴趣：\n\n1.  在 README 的 *Named Entity Recognition* 表格中找到该行。\n2.  点击 **Code** 列的 `[GitHub](https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner)` 链接。\n3.  进入该子项目的仓库后，按照其独立的 `README` 进行安装和运行。\n\n**典型子项目运行流程（以 UniversalNER 为例）：**\n\n```bash\n# 1. 克隆具体模型的代码仓库\ngit clone https:\u002F\u002Fgithub.com\u002Funiversal-ner\u002Funiversal-ner.git\ncd universal-ner\n\n# 2. 创建虚拟环境并安装依赖 (具体依赖参考子项目 requirements.txt)\npip install -r requirements.txt\n\n# 3. 下载预训练模型或数据 (参考子项目说明)\n# 4. 运行推理或训练脚本\npython inference.py --input \"Your text here\"\n```\n\n### 3. 引用文献\n如果您在研究中使用了该合集整理的思路或数据，请在您的论文中引用核心综述文章：\n\n```bibtex\n@article{xu2024large,\n  title={Large language models for generative information extraction: A survey},\n  author={Xu, Derong and Chen, Wei and Peng, Wenjun and Zhang, Chao and Xu, Tong and Zhao, Xiangyu and Wu, Xian and Zheng, Yefeng and Wang, Yang and Chen, Enhong},\n  journal={Frontiers of Computer Science},\n  volume={18},\n  number={6},\n  pages={186357},\n  year={2024},\n  publisher={Springer}\n}\n```\n\n> **提示**：发现遗漏的重要论文或有修正建议，可通过邮件联系作者 (derongxu@mail.ustc.edu.cn)。","某金融科技公司算法团队正致力于构建新一代智能合同审查系统，需要从海量非结构化法律文本中精准提取实体、关系及关键事件。\n\n### 没有 Awesome-LLM4IE-Papers 时\n- **文献检索如大海捞针**：团队成员需在 arXiv、ACL Anthology 等多个平台分散搜索“生成式信息抽取”相关论文，耗时数周仍难以覆盖最新成果。\n- **技术选型缺乏依据**：面对零样本（Zero-shot）、少样本（Few-shot）或约束解码等多种技术路线，因缺乏系统性综述对比，难以判断哪种方案最适合法律垂直领域。\n- **复现成本高昂**：找到的论文往往缺失代码链接或数据集下载地址，导致工程师需从头复现基线模型，严重拖慢研发进度。\n- **前沿动态滞后**：无法及时获取 2024 年最新的研究进展（如细粒度实体识别或验证增强型 NER），导致技术方案可能起步即落后。\n\n### 使用 Awesome-LLM4IE-Papers 后\n- **一站式资源聚合**：直接通过分类目录（如命名实体识别、事件抽取）快速定位到 2024 年 EMNLP、ACL 等顶会的 20+ 篇最新论文，调研效率提升十倍。\n- **清晰的技术路线图**：借助工具中按“监督微调”、“提示词设计”等技术维度的整理，团队迅速锁定了适合法律场景的“知识接地推理”方案。\n- **开箱即用的工程加速**：利用列表中提供的 GitHub 代码链接和专用数据集下载源，两天内即可完成基线模型搭建与验证。\n- **持续同步前沿突破**：通过\"Recently Updated Papers\"板块，实时掌握如 Double-Checker 等最新校验机制，确保系统架构始终处于行业领先地位。\n\nAwesome-LLM4IE-Papers 将原本数月的碎片化调研工作压缩至数天，为生成式信息抽取落地提供了从理论到代码的全链路加速引擎。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fquqxui_Awesome-LLM4IE-Papers_dec34bce.png","quqxui",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fquqxui_6e90f72a.png","https:\u002F\u002Fgithub.com\u002Fquqxui",1056,62,"2026-04-12T13:02:54",1,"","未说明",{"notes":86,"python":84,"dependencies":87},"该仓库是一个学术论文列表（Awesome List），用于汇总基于大语言模型的生成式信息提取相关研究，本身不包含可执行的源代码、模型权重或环境配置文件。因此，没有特定的操作系统、GPU、内存、Python 版本或依赖库要求。用户若需运行列表中链接的具体论文代码，需参考各子项目的独立文档。",[],[16,27],[90,91,92,93,94,95,96,97,98,99,100,101,102],"cross-domain-learning","data-augmentation","event-arguments","event-detection","event-extraction","few-shot-learning","in-context-learning","information-extraction","knowledge-graph-construction","large-language-models","named-entity-recognition","relation-extraction","zero-shot-learning","2026-03-27T02:49:30.150509","2026-04-18T09:19:31.723544",[],[]]