awesome-generative-information-retrieval
awesome-generative-information-retrieval 是一个专注于“生成式信息检索”领域的开源资源合集。随着大语言模型开始具备联网搜索及为回答提供来源引用的能力,它们正逐渐演变为新型的信息检索引擎,甚至挑战传统搜索引擎的地位。该项目旨在系统性地梳理这一前沿领域,解决用户在面对海量分散技术文献时难以把握核心脉络的痛点。
内容涵盖两大核心方向:一是“基于事实的回答生成”,包括检索增强生成(RAG)、LLM 记忆操控、自我修正及多模态检索等关键技术;二是“生成式文档检索”,涉及直接生成文档标识符等创新范式。此外,还收录了生成式推荐、知识图谱构建及相关数据集、评估方法和前沿博客文章。
无论是希望深入探索 RAG 架构的研究人员,还是致力于构建企业级智能问答系统的开发者,都能从中找到极具价值的参考指引。其独特亮点在于不仅罗列工具,更从认识论角度对技术进行了科学分类,帮助从业者清晰理解从数据检索到可信生成的完整技术链路,是进入该领域的优质入门地图。
使用场景
某医疗科技公司的研发团队正在构建一个面向医生的智能临床辅助系统,需要模型在回答复杂病症咨询时提供精准且可追溯的医学依据。
没有 awesome-generative-information-retrieval 时
- 幻觉风险高:大模型常凭空捏造不存在的药物剂量或治疗方案,缺乏事实核查机制,可能引发严重医疗事故。
- 来源不可溯:生成的建议无法关联到具体的权威医学文献或指南,医生无法验证信息的可靠性,导致信任度低。
- 检索效率低下:传统关键词搜索难以理解复杂的临床语境,返回大量无关文档,开发人员需手动编写繁琐规则进行过滤。
- 更新滞后:内部知识库更新后,模型无法实时感知最新研究成果,导致回答基于过时的医疗数据。
使用 awesome-generative-information-retrieval 后
- 答案有据可依:利用“接地答案生成(Grounded Answer Generation)”技术,模型强制基于检索到的真实文献作答,显著消除幻觉。
- 自动归属引用:系统能自动生成精确的文献出处(Attribution),每条建议旁均附带来源链接,方便医生快速核验。
- 语义精准匹配:借助先进的 RAG 架构和查询重写技术,系统能深刻理解临床意图,直接从海量论文中定位最相关的片段。
- 动态知识融合:通过“实时生成检索(Live Generative Retrieval)”能力,模型可即时调用最新发布的医学期刊内容,确保诊疗建议与时俱进。
awesome-generative-information-retrieval 将不可控的聊天机器人转化为严谨的信息检索引擎,从根本上解决了生成式 AI 在专业领域落地的可信度难题。
运行环境要求
未说明
未说明

快速开始
令人惊叹的生成式信息检索 
对话模型开始具备访问网络或用来源佐证其说法(即归属)的能力。因此,这些聊天机器人可以被视为信息检索机器,与传统搜索引擎竞争,甚至取而代之。我们希望为这类模型以及更广泛的生成式信息检索领域设立一个专门的空间。我们暂且将该领域划分为两个主要方向:基于知识的答案生成和生成式文档检索。此外,我们也涵盖了生成式推荐、生成式基于知识的摘要等内容。
欢迎提交 Pull 请求!
目录
博客文章
确定性引用:让大语言模型在医疗保健领域更安全
Matt Yeung
个人博客 – 2024年4月 [链接]
检索增强生成研究:2017–2024年
Moritz Mallawitsch
Scaling Knowledge – 2024年2月 [链接]
掌握 RAG:如何构建企业级 RAG 系统
Pratik Bhavsar
Galileo Labs – 2024年1月 [链接]
使用 LlamaIndex 在本地运行 Mixtral 8x7
LlamaIndex
LlamaIndex 博客 – 2023年12月 [链接]
高级 RAG 技术:图文并茂的概述
Ivan Ilin
Towards AI – 2023年12月 [链接]
结合 LlamaIndex 和 Neo4j 的多模态 RAG 流程
Tomaz Bratanic
LlamaIndex 博客 – 2023年12月 [链接]
针对表格的 RAG 基准测试
LangChain
LangChain 博客 – 2023年12月 [链接]
高级 RAG 01:从小到大的检索
Sophia Yang
Towards Data Science – 2023年11月 [链接]
查询变换
LangChain
LangChain 博客 – 2023年10月 [链接]
什么样的对话代理才算有用?
Nazneen Rajani、Nathan Lambert、Victor Sanh、Thomas Wolf
Hugging Face 博客 – 2023年1月 [链接]
预测语言模型可能被滥用于虚假信息传播,并探讨降低风险的方法
Josh A. Goldstein、Girish Sastry、Micah Musser、Renée DiResta、Matthew Gentzel、Katerina Sedova
OpenAI 博客 – 2023年1月 [链接]
数据集
事实、检索与推理:检索增强生成的统一评估 萨蒂亚普里亚·克里希纳、卡尔佩什·克里希纳、安哈德·莫哈内伊、史蒂文·施瓦茨、亚当·斯坦布勒、夏姆·乌帕迪亚耶、马纳尔·法鲁基 arXiv – 2024年9月 [论文] [数据]
LitSearch:科学文献检索的检索基准测试 阿尼鲁德·阿吉特、孟舟夏、亚历克西斯·谢瓦利耶、塔尼亚·戈亚尔、丹奇·陈、田宇·高 arXiv – 2023年7月 [论文] [数据]
BRIGHT:面向推理密集型检索的真实且具有挑战性的基准测试 苏洪进、霍华德·延、孟舟夏、史伟嘉、尼克拉斯·门尼霍夫、王汉宇、刘海苏、石权、扎卡里·S·西格尔、迈克尔·唐、孙若曦、尹晋成、塞尔坎·O·阿里克、丹奇·陈、余涛 arXiv – 2023年10月 [论文] [数据] [代码]
FreshLLMs:通过搜索引擎增强刷新大型语言模型 涂武、莫希特·艾耶尔、王学智、诺亚·康斯坦特、杰瑞·魏、杰森·魏、克里斯·塔尔、云轩·宋、邓尼·周、阮国乐、汤朗 arXiv – 2023年10月 [论文] [代码]
LegalBench:用于衡量大型语言模型法律推理能力的协作构建基准测试 尼尔·古哈、朱利安·尼亚科、丹尼尔·E·霍、克里斯托弗·雷、亚当·奇尔顿、阿迪提亚·纳拉亚纳、亚历克斯·乔赫拉斯-伍德、奥斯汀·彼得斯、布兰登·沃尔登、丹尼尔·N·罗克莫尔、迭戈·桑布拉诺、德米特里·塔利斯曼、埃南·霍克、法伊兹·苏拉尼、弗兰克·法根、加利特·萨尔法蒂、格雷戈里·M·迪金森、哈盖·波拉特、杰森·赫格兰、杰西卡·吴、乔·努德尔、乔尔·尼克劳斯、约翰·奈、乔纳森·H·崔、凯文·托比亚、玛格丽特·哈根、梅根·马、迈克尔·利弗莫尔、尼肯·拉苏莫夫-拉赫、尼尔斯·霍尔岑贝格、诺姆·科尔特、彼得·亨德森、肖恩·雷哈格、沙拉德·戈埃尔、尚高、斯宾塞·威廉姆斯、桑尼·甘地、汤姆·祖尔、瓦伦·艾耶尔、李泽华 arXiv – 2023年8月 [论文] [数据集]
OpenAssistant对话——推动大型语言模型对齐民主化 安德烈亚斯·科普夫、扬尼克·基尔彻、迪米特里·冯·吕特、索蒂里斯·阿纳格诺斯蒂迪斯、谭志锐、基思·史蒂文斯、阿卜杜拉·巴尔胡姆、阮明德、奥利弗·斯坦利、理查德·纳吉菲、沙胡尔·ES、萨米尔·苏里、大卫·格卢什科夫、阿尔纳夫·丹图鲁里、安德鲁·麦圭尔、克里斯托夫·舒曼、胡·阮、亚历山大·马蒂克 arXiv – 2023年4月 [论文]
ChatGPT-RetrievalQA 阿里安·阿斯卡里、穆罕默德·阿里安内贾迪、埃万杰洛斯·卡诺拉斯、苏珊·费尔伯恩 Github – 2023年2月 [代码]
KAMEL:语言模型中的多词实体知识分析 扬-克里斯托夫·卡洛、莱昂德拉·菲希特尔 AKBC 22 – [论文]
TruthfulQA:衡量模型如何模仿人类错误观念 斯蒂芬妮·林、雅各布·希尔顿、欧文·埃文斯 arXiv – 2021年9月 [论文] [代码]
复杂答案检索 劳拉·迪茨、玛尼莎·维尔马、菲利普·拉德林斯基、尼克·克拉斯韦尔、本·加马里、杰夫·达尔顿、约翰·福利 TREC – 2017–2019年 [链接]
工具
GraphRAG 乔纳森·拉尔森、史蒂文·特鲁伊特 微软 – 2024年2月 [代码]
缩小知识评估差距:基于多粒度答案的开放域问答 加尔·约纳、罗伊·阿哈罗尼、莫尔·格瓦 arXiv – 2024年1月 [论文]
DHS LLM研讨会——模块6 索拉布·芒格鲁尔卡尔 GitHub – 2023年12月 [代码]
PrimeQA:最先进的多语言问答研究与开发的首要资源库 阿维鲁普·西尔、杰迪普·森、巴瓦尼·艾耶尔、马丁·弗兰茨、克希蒂吉·法德尼斯、米哈埃拉·博尔内亚、萨拉·罗森塔尔、斯科特·麦卡利、荣章、维什瓦吉特·库马尔、于龙·李、穆罕默德·阿拉法特·苏丹、里亚兹·巴特、拉杜·弗洛里安、萨利姆·鲁科斯 arXiv – 2023年1月 [论文] [代码]
TRL:Transformer强化学习 莱昂德罗·冯·韦拉、尤内斯·贝尔卡达、刘易斯·通斯托尔、爱德华·比钦、特里斯坦·瑟什、内森·兰伯特、黄盛义 GitHub – 2020年 [代码]
评估
FACTSCORE:长篇文本生成中事实精确性的细粒度原子级评估 徐源敏、卡尔佩什·克里希纳、吕欣希、迈克·刘易斯、叶文涛、郭邦伟、莫希特·艾耶尔、卢克·泽特勒莫耶、汉娜内·哈吉希尔齐 Pypi – 2023年5月 [论文] [代码]
FACTKB:利用增强事实知识的语言模型进行可泛化的事实性评估 冯尚斌、维迪莎·巴拉昌德兰、白宇阳、尤莉娅·茨维特科夫 arXiv – 2023年5月 [论文] [代码]
生成式搜索引擎的可验证性评估 尼尔森·F·刘、张天一、珀西·梁 arXiv – 2023年4月 [论文] [代码]
研讨会和教程
推荐系统与个性化中的生成式AI研讨会 纳尔格斯·塔巴里、阿尼凯特·德什穆克、王成康、拉什米·甘加达赖亚、哈梅德·扎马尼、朱利安·麦考利、乔治·卡里皮斯 KDD 24 – 2024年8月 [链接]
第二届生成式信息检索研讨会 加布里埃尔·贝内迪克特、张如清、唐纳德·梅茨勒、安德鲁·耶茨、蒋子言 SIGIR 24 – 2024年7月 [链接]
个性化生成式AI 郑辰、蒋子言、杨帆、韩奎·何、侯玉鹏、全恩雅、朱利安·麦考利、阿拉姆·加尔斯蒂安、胡晓华、杨洁 CIKM 23 – 2023年10月 [链接]
首届基于生成模型的推荐研讨会 王文杰、刘勇、张洋、刘伟文、冯福礼、何祥楠、孙爱新 CIKM 23 – 2023年10月 [链接]
首届生成式信息检索研讨会 加布里埃尔·贝内迪克特、张如清、唐纳德·梅茨勒 SIGIR 23 – 2023年7月 [链接]
基于检索的语言模型及其应用 浅井茜、徐源敏、钟泽轩、陈丹奇 ACL 23 – 2023年7月 [链接]
认识论论文
主体性信息检索
张伟楠、廖俊威、李宁、杜坤年华
arXiv — 2024年10月 [论文]
背诵、重构、回忆:大语言模型中的记忆现象及其多面性
USVSN 赛·普拉桑特、邓阿尔文、欧布莱恩凯尔、Jyothir S V、穆罕默德·阿夫拉赫·汗、博卡尔杰伊迪普、乔克特-丘克里斯托弗 A、富恩雅各布·雷、比德曼斯特拉、凯特蕾西、李凯瑟琳、萨夫拉娜奥米
arXiv — 2024年6月 [论文]
ChatGPT 就是胡扯
迈克尔·汤森·希克斯、詹姆斯·亨弗里斯、乔·斯莱特
《伦理与信息技术》— 2024年6月 [论文]
多模态大语言模型的幻觉现象:综述
白泽晨、王皮超、肖天俊、何通、韩宗博、张正、寿郑迈克
arXiv — 2024年4月 [论文]
从匹配到生成:生成式信息检索综述
李晓溪、金家杰、周宇佳、张雨瑶、张培田、朱玉涛、窦志成
arXiv — 2024年4月 [论文]
大语言模型中的知识冲突:综述
徐荣武、齐哲涵、王存祥、王洪儒、张岳、徐伟
arXiv — 2024年3月 [论文]
SIGIR 2023 第1届生成式信息检索研讨会(Gen-IR 2023)报告
加布里埃尔·贝内迪克特、张如清、唐纳德·梅茨勒、安德鲁·耶茨、罗曼·德法耶、菲利普·哈格尔、萨米·朱利安
SIGIR论坛 — 2023年12月 [论文]
SIGIR 2023 第1届生成式AI时代下的任务导向型信息检索研讨会报告
奇拉格·沙阿、怀特瑞恩 W
SIGIR论坛 — 2023年12月 [论文]
迈向生成式搜索与推荐:RecSys 2023主题演讲
蔡达生
SIGIR论坛 — 2023年12月 [论文]
大型搜索模型:在大语言模型时代重新定义搜索架构
王亮、杨楠、黄晓龙、杨林军、马久姆德兰甘、魏福如
SIGIR论坛 — 2023年12月 [论文]
用于生成式信息抽取的大语言模型:综述
许德荣、陈伟、彭文俊、张超、许彤、赵向宇、吴贤、郑叶峰、陈恩宏
arXiv — 2023年12月 [论文]
基于预训练语言模型的密集文本检索:综述
赵新伟、刘静、任瑞阳、温继荣
TOIS — 2023年12月 [论文]
面向大语言模型的检索增强生成:综述
高云帆、熊云、高鑫宇、贾康翔、潘金柳、毕宇熙、戴毅、孙嘉伟、王浩奋
arXiv — 2023年12月 [论文]
校准后的语言模型必然会产生幻觉
亚当·陶曼·卡拉伊、桑托什·S·文帕拉
arXiv — 2023年11月 [论文]
AI海洋中的塞壬之歌:大语言模型幻觉现象综述
张岳、李亚夫、崔乐洋、蔡登、刘乐茂、傅廷臣、黄欣婷、赵恩波、张宇、陈宇龙、王隆跃、卢安团、毕伟、施芙雷达、施淑明
arXiv — 2023年9月 [论文]
模仿专有大语言模型的虚假承诺
古迪班德阿尔纳夫、华莱士埃里克、斯奈尔查理、耿信扬、刘浩、阿贝尔彼得、列维谢尔盖、宋丹恩
arXiv — 2023年5月 [论文]
生成式推荐:迈向下一代推荐范式
张凤吉、陈蓓、张悦、刘瑾、赞道光、毛义、楼建广、陈伟竹
arXiv — 2023年4月 [论文]
增强型语言模型:综述
米阿隆格雷瓜尔、德西罗伯托、洛梅利玛丽亚、纳尔潘蒂斯克里斯托福罗斯、帕苏努鲁拉姆、赖莱阿努罗伯塔、罗齐耶尔巴普蒂斯特、希克蒂莫、德维迪-尤简、切利基尔马兹阿斯莉、格拉韦爱德华、勒丘恩扬、夏洛姆托马斯
arXiv — 2023年2月 [论文]
生成式语言模型与自动化影响力行动:新兴威胁及潜在应对措施
戈德斯坦乔什 A、萨斯特里吉里什、穆瑟米卡、迪雷斯塔蕾妮、根策尔马修、谢多娃卡捷琳娜
arXiv — 2023年1月 [论文]
对话式信息检索。对话式搜索、推荐和问答入门
扎马尼哈迈德、特里帕斯约翰娜 R、达尔顿杰夫和拉德林斯基菲利普
arXiv — 2023年1月 [论文]
事实
凯文·穆利根和法布里斯·科雷亚
《斯坦福哲学百科全书》— 2021年冬季 [网址]
诚实AI:开发与治理不撒谎的AI
欧文·埃文斯、欧文·科顿-巴拉特、芬维登卢卡斯、贝尔斯亚当、巴尔维特阿维塔尔、威尔斯彼得、里盖蒂卢卡、桑德斯威廉
arXiv — 2021年10月 [论文]
重新思考搜索:让门外汉成为领域专家
梅茨勒唐纳德、泰伊易、巴赫里达拉、纳约克马克
SIGIR论坛 2021 — 2021年5月 [论文]
知识 grounded 的答案生成
归属式问答:面向归属式大语言模型的评估与建模
博内特伯恩德、陈文奇、维尔加帕特、阿哈罗尼罗伊、安多尔丹尼尔、索阿雷斯利维奥·巴尔迪尼、艾森斯坦雅各布、甘切夫库兹曼、赫尔齐格乔纳森、辉凯、夸特科夫斯基汤姆、马季、倪建谟、舒斯特塔尔、科恩威廉 W、柯林斯迈克尔、达斯迪潘詹、梅茨勒唐纳德、彼得罗夫斯拉夫、韦伯斯特凯莉
arXiv — 2022年12月 [论文]
检索增强生成 (RAG)
推理时的外部知识源/检索
REFRAG:基于解码的RAG重思考
林晓强、戈什阿里特拉、低健祥布莱恩、施里瓦斯塔瓦安舒马利、莫汉维杰
arXiv — 2025年9月 [论文]
RAPTOR:面向树状检索的递归抽象处理
萨尔蒂帕尔斯、阿卜杜拉萨尔曼、图利阿迪蒂、坎纳舒布、戈尔迪安娜、曼宁克里斯托弗 D
ICLR 24 — 2024年1月 [论文]
纠正型检索增强生成
严世奇、顾嘉辰、朱云、凌振华
arXiv — 2024年1月 [论文]
关于时间:在检索增强语言模型中融入时间维度
加德阿努什卡、杰切娃乔尔杰塔
arXiv — 2024年1月 [论文]
RAG 与微调:流水线、权衡及农业领域的案例研究
安赫尔斯·巴拉格尔、维纳姆拉·贝纳拉、雷纳托·卢伊兹·德·弗雷塔斯·库尼亚、罗伯托·德·M·埃斯特瓦奥·菲略、托德·亨德里、丹尼尔·霍尔斯坦、珍妮弗·马斯曼、尼克·梅克伦堡、萨拉·马尔瓦尔、莱昂纳多·O·努内斯、拉斐尔·帕迪利亚、莫里斯·夏普、布鲁诺·席尔瓦、斯瓦蒂·夏尔马、维杰·阿斯基、兰维尔·钱德拉
arXiv — 2024年1月 [论文]
序列很重要:用于构建对话式智能体的生成—检索—生成模型
奎因·帕特瓦丹、格蕾丝·许阳
TREC 23 — 2023年11月 [论文]
Self-RAG:通过自我反思学习检索、生成与批判
匿名
ICLR 24 — 2023年10月 [论文]
RA-DIT:检索增强型双指令微调
匿名
ICLR 24 — 2023年10月 [论文]
基于检索的编码器-解码器语言模型的上下文学习
匿名
ICLR 24 — 2023年10月 [论文]
使检索增强型语言模型对无关上下文更具鲁棒性
匿名
ICLR 24 — 2023年10月 [论文]
检索与长上下文大语言模型的结合
匿名
ICLR 24 — 2023年10月 [论文]
将大语言模型的领域适应重新表述为适应—检索—修订
匿名
ICLR 24 — 2023年10月 [论文]
InstructRetro:检索增强预训练后的指令微调
匿名
ICLR 24 — 2023年10月 [论文]
SuRe:通过摘要式检索提升大语言模型的开放域问答能力
匿名
ICLR 24 — 2023年10月 [论文]
RECOMP:利用上下文压缩与选择性增强改进检索增强型语言模型
匿名
ICLR 24 — 2023年10月 [论文]
检索即精准生成
匿名
ICLR 24 — 2023年10月 [论文]
PaperQA:用于科学研究的检索增强型生成式智能体
匿名
ICLR 24 — 2023年10月 [论文]
理解用于长篇问答的检索增强技术
匿名
ICLR 24 — 2023年10月 [论文]
基于贝叶斯度量增强检索的个性化语言生成
匿名
ICLR 24 — 2023年10月 [论文]
DSPy:将声明式语言模型调用编译为自我改进的流水线
奥马尔·哈塔卜、阿尔纳夫·辛格维、帕里迪·马赫什瓦里、张志远、凯沙夫·桑塔南、斯里·瓦尔达马南、赛富尔·哈克、阿舒托什·夏尔马、托马斯·T·乔希、汉娜·莫阿扎姆、希瑟·米勒、马泰伊·扎哈里亚、克里斯托弗·波茨
arXiv — 2023年10月 [论文] [代码]
RA-DIT:检索增强型双指令微调
林西·维多利亚、陈熙伦、陈明达、史伟佳、玛丽亚·洛梅利、里奇·詹姆斯、佩德罗·罗德里格斯、雅各布·卡恩、格尔盖利·西尔瓦西、迈克·刘易斯、卢克·泽特勒莫耶、斯科特·伊赫
arXiv — 2023年8月 [论文]
工具文档支持大语言模型零样本使用工具
谢承宇、陈思安、李春亮、藤井康久、亚历山大·拉特纳、李晨宇、兰贾伊·克里希纳、托马斯·普菲斯特
arXiv — 2023年8月 [论文]
ReAugKD:面向预训练语言模型的检索增强知识蒸馏
张建义、阿希克·穆罕默德、阿迪提亚·阿南塔拉曼、王国银、陈昌友、钟凯、崔庆军、徐毅、曾碧琳、奇林比·特里舒尔、陈怡然
ACL 23 — 2023年7月 [论文]
基于表面的检索降低检索增强型语言模型的困惑度
埃桑·杜斯特穆罕默迪、托比亚斯·诺伦德、马可·库尔曼、理查德·约翰逊
ACL 23 — 2023年7月 [论文]
软提示微调用于增强大语言模型的密集检索
彭志远、吴旭阳、方毅
arXiv — 2023年6月 [论文]
RETA-LLM:一个检索增强型大语言模型工具包
刘炯楠、金家杰、王子涵、程继韩、窦志成、温继荣
arXiv — 2023年6月 [论文]
WebGLM:面向高效网络增强型问答系统并兼顾人类偏好的探索
刘晓、赖翰宇、于浩、许一凡、曾傲寒、杜正霄、张鹏、董宇啸、唐杰
arXiv — 2023年6月 [论文]
WikiChat:通过少量示例在维基百科上进行事实校验,以防止大语言模型聊天机器人产生幻觉
西娜·J·塞姆纳尼、黄紫薇、张海蒂、拉姆莫妮卡
EMNLP Findings 2023 — 2023年5月 [论文] [代码] [演示]
RET-LLM:迈向大语言模型的通用读写记忆
阿里·莫达雷西、艾尤布·伊玛尼、穆赫辛·法亚兹、欣里希·舒策
arXiv — 2023年5月 [论文]
Gorilla:连接海量API的大语言模型
希希尔·G·帕蒂尔、张天俊、王鑫、约瑟夫·E·冈萨雷斯
arXiv — 2023年5月 [论文] [代码]
我们是否应该用检索来预训练自回归语言模型?一项综合研究
王博欣、魏平、徐鹏、劳伦斯·麦卡菲、刘子涵、穆罕默德·绍伊比、董毅、奥列克西·库恰耶夫、李博、肖超伟、阿尼玛·阿南德库马尔、布莱恩·卡坦扎罗
arXiv — 2023年4月 [论文] [代码]
核对事实并再试一次:借助外部知识和自动化反馈改进大语言模型
彭宝林、米歇尔·加利、何鹏程、程浩、谢宇佳、胡宇、黄秋源、拉斯·利登、周宇、陈伟柱、高建峰
arXiv — 2023年2月 [论文] [代码]
Toolformer:语言模型可以自我教授如何使用工具
蒂莫·希克、简·德维迪-余、罗伯托·德西、罗伯塔·赖莱阿努、玛丽亚·洛梅利、卢克·泽特勒莫耶、尼古拉·坎切达、托马斯·西亚洛姆
arXiv — 2023年2月 [论文]
REPLUG:检索增强型黑盒语言模型
史伟佳、闵世勋、安永道、徐敏俊、里奇·詹姆斯、迈克·刘易斯、卢克·泽特勒莫耶、伊文涛
arXiv — 2023年1月 [论文]
上下文检索增强语言模型
奥里·拉姆、约阿夫·莱文、伊泰·达尔梅迪戈斯、多尔·穆赫盖、阿姆农·沙舒亚、凯文·莱顿-布朗、约阿夫·肖哈姆
AI21 Labs – 2023年1月 [论文] [代码]
构建开放域聊天机器人的方法
斯蒂芬·罗勒、艾米丽·迪南、纳曼·戈亚尔、达·朱、玛丽·威廉姆森、尹汉·刘、景旭、迈尔·奥特、埃里克·迈克尔·史密斯、Y-Lan 布雷欧、杰森·韦斯顿
EACL 2021 – 2021年4月 [论文]
AtMan:通过内存高效的注意力操作理解 Transformer 的预测
哈迈德·扎马尼、乔汉娜·R·特里帕斯、杰夫·道尔顿和菲利普·拉德林斯基
arXiv – 2023年1月 [论文]
RetroMAE v2:用于检索型语言模型预训练的双工掩码自编码器
肖石涛、刘征
arXiv – 2023年11月 [论文]
演示-搜索-预测:将检索与语言模型结合用于知识密集型自然语言处理
奥马尔·哈塔卜、凯沙夫·桑塔南、谢昂·丽莎·李、大卫·霍尔、珀西·梁、克里斯托弗·波茨、马泰伊·扎哈里亚
arXiv – 2022年12月 [论文]
通过从数万亿个标记中检索来改进语言模型
塞巴斯蒂安·博尔戈、阿图尔·芒什、乔丹·霍夫曼、特雷弗·蔡、伊莉莎·卢瑟福、凯蒂·米利坎、乔治·范登德里舍、让-巴蒂斯特·莱斯皮奥、博格丹·达莫克、艾丹·克拉克、迭戈·德拉斯卡萨斯、奥蕾莉娅·盖伊、雅各布·梅尼克、罗曼·林、汤姆·亨尼根、萨弗伦·黄、洛伦·马吉奥雷、克里斯·琼斯、阿尔宾·卡西雷尔、安迪·布洛克、米凯拉·帕加尼尼、杰弗里·欧文、奥里奥尔·维尼亚尔斯、西蒙·奥斯因德罗、卡伦·西蒙扬、杰克·W·雷、埃里希·埃尔森和洛朗·西弗雷
arXiv – 2022年2月 [论文]
通过从数万亿个标记中检索来改进语言模型
塞巴斯蒂安·博尔戈、阿图尔·芒什、乔丹·霍夫曼、特雷弗·蔡、伊莉莎·卢瑟福、凯蒂·米利坎、乔治·范登德里舍、让-巴蒂斯特·莱斯皮奥、博格丹·达莫克、艾丹·克拉克、迭戈·德拉斯卡萨斯、奥蕾莉娅·盖伊、雅各布·梅尼克、罗曼·林、汤姆·亨尼根、萨弗伦·黄、洛伦·马吉奥雷、克里斯·琼斯、阿尔宾·卡西雷尔、安迪·布洛克、米凯拉·帕加尼尼、杰弗里·欧文、奥里奥尔·维尼亚尔斯、西蒙·奥斯因德罗、卡伦·西蒙扬、杰克·W·雷、埃里希·埃尔森、洛朗·西弗雷
arXiv – 2021年12月 [论文]
WebGPT:基于浏览器辅助问答并结合人类反馈
内海一郎、雅各布·希尔顿、苏奇尔·巴拉吉、杰夫·吴、龙·欧阳、克里斯蒂娜·金、克里斯托弗·赫塞、沙特纳乌·贾因、维尼特·科萨拉朱、威廉·桑德斯、徐江、卡尔·科布、蒂娜·埃隆杜、格雷琴·克鲁格、凯文·巴顿、马修·奈特、本杰明·切斯、约翰·舒尔曼
arXiv – 2021年12月 [论文]
BERT-kNN:在预训练语言模型中加入 kNN 检索组件以提升问答性能
诺拉·卡斯纳、欣里希·舒策
EMNLP 2020 – 2020年11月 [论文]
REALM:检索增强型语言模型预训练
凯尔文·古、肯顿·李、佐拉·通、帕努蓬·帕苏帕特、明伟·张
ICML 2020 – 2020年7月 [论文]
一种混合检索-生成神经对话模型
刘洋、胡俊杰、邱明辉、曲晨、高建峰、W. 布鲁斯·克罗夫特、刘晓东、沈叶龙、刘静静
arXiv – 2019年4月 [论文]
大型語言模型的記憶操控
基於推理時的內部模型權重
大型語言模型在預訓練過程中如何獲取事實知識?
Hoyeon Chang、Jinho Park、Seonghyeon Ye、Sohee Yang、Youngkyung Seo、Du-Seong Chang、Minjoon Seo
arXiv – 2024年6月 [論文]
針對事實性微調語言模型
Katherine Tian、Eric Mitchell、Huaxiu Yao、Christopher D. Manning、Chelsea Finn
arXiv – 2023年11月 [論文]
R-Tuning:教導大型語言模型拒絕回答未知問題
Hanning Zhang、Shizhe Diao、Yong Lin、Yi R. Fung、Qing Lian、Xingyao Wang、Yangyi Chen、Heng Ji、Tong Zhang
arXiv – 2023年11月 [論文]
EasyEdit:一個易於使用的大型語言模型知識編輯框架
Peng Wang、Ningyu Zhang、Xin Xie、Yunzhi Yao、Bozhong Tian、Mengru Wang、Zekun Xi、Siyuan Cheng、Kangwei Liu、Guozhou Zheng、Huajun Chen
arXiv – 2023年8月 [論文]
檢視與編輯語言模型中的知識表徵
Evan Hernandez、Belinda Z. Li、Jacob Andreas
arXiv – 2023年4月 [論文] [程式碼]
利用生成式模型進行段落檢索,用於開放領域問答系統
Gautier Izacard、Edouard Grave
arXiv – 2023年2月 [論文]
無監督地發現語言模型中的隱藏知識
Collin Burns、Haotian Ye、Dan Klein、Jacob Steinhardt
ICLR 2023 – 2023年2月 [論文] [程式碼]
Galactica:一款面向科學領域的大型語言模型
Ross Taylor、Marcin Kardas、Guillem Cucurull、
Thomas Scialom、Anthony Hartshorn、Elvis Saravia、
Andrew Poulton、Viktor Kerkez、Robert Stojnic
Galactica.org – 2022年 [論文]
BlenderBot 3:一款持續學習並以負責任方式互動的已部署對話代理
Kurt Shuster、Jing Xu、Mojtaba Komeili、Da Ju、Eric Michael Smith、Stephen Roller、Megan Ung、Moya Chen、Kushal Arora、Joshua Lane、Morteza Behrooz、William Ngan、Spencer Poff、Naman Goyal、Arthur Szlam、Y-Lan Boureau、Melanie Kambadur、Jason Weston
arXiv – 2022年8月 [論文]
生成而非檢索:大型語言模型是強大的上下文生成器
Wenhao Yu、Dan Iter、Shuohang Wang、Yichong Xu、Mingxuan Ju、Soumya Sanyal、Chenguang Zhu、Michael Zeng、Meng Jiang
ICLR 2023 – 2022年9月 [論文]
背誦增強型語言模型
Zhiqing Sun、Xuezhi Wang、Yi Tay、Yiming Yang、Denny Zhou
ICLR 2023 – 2022年9月 [論文]
通過目標明確的人類判斷改進對話代理的一致性
Amelia Glaese、Nat McAleese、Maja Trębacz、John Aslanides、Vlad Firoiu、Timo Ewalds、Maribeth Rauh、Laura Weidinger、Martin Chadwick、Phoebe Thacker、Lucy Campbell-Gillingham、Jonathan Uesato、Po-Sen Huang、Ramona Comanescu、Fan Yang、Abigail See、Sumanth Dathathri、Rory Greig、Charlie Chen、Doug Fritz、Jaume Sanchez Elias、Richard Green、Soňa Mokrá、Nicholas Fernando、Boxi Wu、Rachel Foley、Susannah Young、Iason Gabriel、William Isaac、John Mellor、Demis Hassabis、Koray Kavukcuoglu、Lisa Anne Hendricks、Geoffrey Irving
arXiv – 2022年9月 [論文]
LaMDA:用於對話應用的語言模型
Romal Thoppilan、Daniel De Freitas、Jamie Hall、Noam Shazeer、Apoorv Kulshreshtha、Heng-Tze Cheng、Alicia Jin、Taylor Bos、Leslie Baker、Yu Du、YaGuang Li、Hongrae Lee、Huaixiu Steven Zheng、Amin Ghafouri、Marcelo Menegali、Yanping Huang、Maxim Krikun、Dmitry Lepikhin、James Qin、Dehao Chen、Yuanzhong Xu、Zhifeng Chen、Adam Roberts、Maarten Bosma、Vincent Zhao、Yanqi Zhou、Chung-Ching Chang、Igor Krivokon、Will Rusch、Marc Pickett、Pranesh Srinivasan、Laichee Man、Kathleen Meier-Hellstern、Meredith Ringel Morris、Tulsee Doshi、Renelito Delos Santos、Toju Duke、Johnny Soraker、Ben Zevenbergen、Vinodkumar Prabhakaran、Mark Diaz、Ben Hutchinson、Kristen Olson、Alejandra Molina、Erin Hoffman-John、Josh Lee、Lora Aroyo、Ravi Rajakumar、Alena Butryna、Matthew Lamm、Viktoriya Kuzmina、Joe Fenton、Aaron Cohen、Rachel Bernstein、Ray Kurzweil、Blaise Aguera-Arcas、Claire Cui、Marian Croak、Ed Chi、Quoc Le
arXiv – 2022年1月 [論文]
語言模型作為或用作知識庫
Simon Razniewski、Andrew Yates、Nora Kassner、Gerhard Weikum
DL4KG 2021 – 2021年10月 [論文]
通過記憶實現泛化:最近鄰語言模型
Urvashi Khandelwal、Omer Levy、Dan Jurafsky、Luke Zettlemoyer、Mike Lewis
ICLR 2020 – 2019年9月 [論文] [程式碼]
重新排序
ChatGPT擅長搜尋嗎?探究大型語言模型作為重新排序代理的可能性
Wenhao Yu、Hongming Zhang、Xiaoman Pan、Kaixin Ma、Hongwei Wang、Dong Yu
arXiv – 2023年11月 [論文]
指令蒸餾使大型語言模型成為高效的零樣本排序器
Weiwei Sun、Zheng Chen、Xinyu Ma、Lingyong Yan、Shuaiqiang Wang、Pengjie Ren、Zhumin Chen、Dawei Yin、Zhaochun Ren
arXiv 2023 – 2023年11月 [論文]
自我修正
评论者:大型语言模型可通过工具交互式批评实现自我修正
苟志斌、邵志宏、龚叶云、沈业龙、杨宇久、段楠、陈伟柱
ICLR 2024 – 2024年1月 [论文]
防微杜渐:通过验证低置信度生成来检测并缓解大语言模型的幻觉问题
尼拉杰·瓦尔什尼、姚文林、张洪明、陈建树、于东
arXiv – 2023年8月 [论文]
RARR:利用语言模型研究并修订语言模型所说的内容
高路宇、戴竹韵、帕苏帕特、陈安东尼、查甘蒂、范一成、赵文森、劳妮、李洪莱、胡大成、郭凯文
ACL 2023 – 2023年7月 [论文]
验证与编辑:一种知识增强型思维链框架
赵若晨、李兴轩、乔蒂、秦成伟、冰立东
ACL 2023 – 2023年7月 [论文]
主动检索增强生成
蒋正宝、徐弗兰克·F、高路宇、孙志恒、刘倩、德维迪-余简、杨一鸣、卡伦·杰米、纽比格·格雷厄姆
arXiv – 2023年5月 [论文] [代码]
通过即插即用式检索反馈改进语言模型
于文浩、张志瀚、梁振文、江萌、萨巴瓦尔·阿希什
arXiv – 2023年5月 [论文]
事实不确定性估计
长文本生成的语言学校准
尼尔·班德、李雪晨、马腾宇、桥本达津纪
arXiv 2024 – 2024年6月 [论文]
相信还是不相信你的大语言模型?
亚辛·阿巴西·亚德科里、库兹博尔斯基·伊利亚、乔治·安德拉什、塞佩斯瓦里·查巴
arXiv 2024 – 2024年6月 [论文]
SaySelf:通过自我反思性理由教导大语言模型表达置信度
许天阳、吴淑瑾、刁世哲、刘晓泽、王星耀、陈洋毅、高静
arXiv 2024 – 2024年5月 [论文]
专家不会作弊:通过预测配对来学习自己不知道的事情
约翰逊·丹尼尔·D、塔洛·丹尼尔、杜文诺德·大卫、麦迪逊·克里斯·J
arXiv 2024 – 2024年2月 [论文]
约束生成
解锁预见性文本生成:一种用于大型语言模型忠实解码的约束方法
匿名
ICLR 24 – 2023年10月 [论文]
DoLa:通过对比层解码提升大型语言模型的事实准确性
庄永生、谢宇嘉、罗鸿音、金润、詹姆斯·格拉斯、何鹏程
ICLR 24 – 2023年9月 [论文]
数据为中心
以数据为中心的方法:利用大型语言模型生成忠实且高质量的患者摘要
赫格塞尔曼·斯特凡、沈香江·香农、吉尔瑟·弗洛里安、阿格拉瓦尔·莫妮卡、松塔格·大卫、姜晓艺
arXiv 24 – 2024年2月 [论文]
效用最大化
随机RAG:通过期望效用最大化实现端到端的检索增强生成
扎马尼·哈迈德、本德斯基·迈克尔
arXiv 24 – 2024年5月 [论文]
宪章式AI:来自AI反馈的无害性
白云涛、卡达瓦特·索拉夫、昆杜·桑迪潘、阿斯克尔·阿曼达、科尔尼恩·杰克逊、琼斯·安迪、陈安娜、戈尔迪·安娜、米尔霍赛尼·阿扎莉娅、麦金农·卡梅隆、陈卡罗尔、奥尔森·凯瑟琳、奥拉·克里斯托弗、埃尔南德斯·丹尼、德雷恩·道恩、冈古利·迪普、李达斯汀、特兰-约翰逊·伊莱、佩雷斯·伊桑、克尔·杰米、穆勒·贾雷德、拉迪什·杰弗里、兰道·约书亚、恩多斯·卡马尔、卢科修特·卡米莱、洛维特·莉安、塞利托·迈克尔、埃尔哈吉·尼尔森、谢弗·尼古拉斯、梅尔卡多·诺埃米、达斯萨尔玛·诺娃、拉斯恩比·罗伯特、拉尔森·罗宾、林格·萨姆、约翰斯顿·斯科特、克拉韦克·绍娜、肖克·希尔、福尔特·斯坦尼斯拉夫、兰汉姆·塔梅拉、泰伦·特利恩-劳顿、康纳利·汤姆、亨尼根·汤姆、休姆·特里斯坦、鲍曼·塞缪尔·R、哈特菲尔德-多兹·扎克、曼·本、阿莫迪·达里奥、约瑟夫·尼古拉斯、麦坎德利什·萨姆、布朗·汤姆、卡普兰·贾雷德
Anthropic.com – 2022年12月 [论文]
部署后学习新技能:通过人类反馈改进开放域互联网驱动的对话系统
徐静、昂格·梅根、科梅伊利·莫杰塔巴、阿拉·库沙尔、布罗·尤-兰、韦斯顿·杰森
arXiv – 2022年8月 [论文]
多模态
检索增强型多模态语言建模
安永·三弘、阿加贾尼扬·阿尔门、施伟佳、詹姆斯·里奇、莱斯科维茨·朱雷、梁珀西、刘易斯·迈克、泽特勒莫耶尔·卢克、伊吾·温涛
arXiv – 2022年11月 [论文]
RAMM:通过多模态预训练实现检索增强型生物医学视觉问答
袁征、金巧、谭传琦、赵郑云、袁洪义、黄飞、黄宋芳
arXiv – 2023年3月 [论文]
提示工程
将检索与思维链推理交织用于知识密集型多步问题
特里维迪·哈什、巴拉苏布拉马尼安·尼兰詹、科特·图沙尔和萨巴瓦尔·阿希什
ACL 23 – 2023年7月 [论文]
ReAct:在语言模型中协同推理与行动
姚顺宇、赵杰弗里、俞典、杜楠、沙夫兰·伊扎克、纳拉西曼·卡尔提克、曹元
arXiv – 2022年10月 [论文]
生成代码
RepoCoder:通过迭代式检索与生成实现仓库级代码补全
张峰基、陈贝、张悦、刘进、赞道光、毛毅、楼建广、陈伟柱
arXiv – 2023年3月 [论文]
DocPrompting:通过检索文档生成代码
周舒燕、阿隆·乌里、徐弗兰克·F、王志若、蒋正宝、纽比格·格雷厄姆
ICLR 23 – 2022年7月 [论文] [代码] [数据]
查询生成
面向检索器的广义强化学习:基于非结构化真实世界文档的查询改写
Cha Sungguk、Kim DongWook、Hahn Taeseung、Kim Mintae、Han Youngsub、Jeon Byoung-Ki
arXiv — 2025年8月 [论文]
生成、过滤与融合:通过多步关键词生成实现零样本神经排序器的查询扩展
Li Minghan、Zhuang Honglei、Hui Kai、Qin Zhen、Lin Jimmy、Jagerman Rolf、Wang Xuanhui、Bendersky Michael
arXiv — 2023年11月 [论文]
Agent4Ranking:基于多智能体大模型的个性化查询改写实现语义鲁棒排序
Li Xiaopeng、Su Lixin、Jia Pengyue、Zhao Xiangyu、Cheng Suqi、Wang Junfeng、Yin Dawei
arXiv — 2023年12月 [论文]
统一的生成式与密集型检索用于赞助搜索中的查询改写
Mohankumar Akash Kumar、Dodla Bhargav、K Gururaj、Singh Amit
arXiv — 2022年9月 [论文]
摘要与文档改写
生成事实一致的体育赛事集锦解说
Sarfati Noah、Yerushalmy Ido、Chertok Michael、Keller Yosi
MMSports 2023 — 2023年10月 [论文]
遗传生成式信息检索
Kulkarni Hrishikesh、Young Zachary、Goharian Nazli、Frieder Ophir、MacAvaney Sean
DocEng 23 — 2023年8月 [论文]
基于人类反馈的摘要生成学习
Stiennon Nisan、Ouyang Long、Wu Jeff、Ziegler Daniel M.、Lowe Ryan、Voss Chelsea、Radford Alec、Amodei Dario、Christiano Paul
NeurIPS 2020 — 2020年9月 [论文]
关于抽象式摘要中的忠实性与事实性
Maynez Joshua、Narayan Shashi、Bohnet Bernd、McDonald Ryan
ACL 2020 — 2020年5月 [论文]
表格问答
先增强再尝试:基于表格扩展的知识增强型表格问答
Liu Yujian、Ji Jiabao、Yu Tong、Rossi Ryan、Kim Sungchul、Zhao Handong、Sinha Ritwik、Zhang Yang、Chang Shiyu
arXiv — 2024年1月 [论文]
生成式文档检索
我们通过复用 awesome-generative-retrieval-models 的内容来启动本节,并在此向 Chriskuei 致以充分的感谢!目前我们又在此基础上补充了一些内容。
生成文档ID作为标识符
面向生成式信息检索的轻量级直接文档相关性优化
基迪斯特·阿姆德·梅科嫩、唐宇宝、马尔滕·德·赖克
SIGIR 2025 – 2025年7月 [论文] [代码]
生成式检索中的前瞻规划:通过同步解码引导自回归生成
韩斯·曾、罗晨、哈迈德·扎马尼
arXiv – 2024年4月 [论文] [代码]
面向生成式文档检索的瓶颈最小化索引
杜鑫、修立新、田中久美子
ICML 2024 口头报告 – 2024年7月 [论文] [代码]
NOVO:基于模型的IR中可学习且可解释的文档标识符
王子涵、周雨佳、涂一腾、窦志成
CIKM 2023 – 2023年10月 [论文]
De-DSI:去中心化的可微分搜索索引
佩特鲁·内阿格、马塞尔·格雷戈里亚迪斯、约翰·普韦尔斯
EuroMLSys 24 – 2024年4月 [论文]
基于序列学习过程的列表式生成式检索模型
唐宇宝、张汝清、郭嘉峰、马尔滕·德·赖克、陈伟、程雪琪
TOIS 2024 – 2024年3月 [论文]
蒸馏增强型生成式检索
李永奇、张振、王文杰、聂利强、李文杰、蔡达生
arXiv 2024 – 2024年2月 [论文]
自检索:用一个大型语言模型构建信息检索系统
唐巧玉、陈家伟、于博文、陆耀杰、傅成、于海阳、林宏宇、黄飞、何奔、韩先培、孙乐、李勇斌
arXiv 2024 – 2024年2月 [论文]
生成式密集检索:内存可能成为负担
袁培文、王兴林、冯绍雄、潘博远、李毅威、王赫达、缪旭鹏、李侃
EACL 2024 – 2024年1月 [论文] [代码]
端到端文档检索的自动搜索索引器
杨天驰、宋明辉、张子涵、黄海珍、邓伟伟、孙峰、张琪
EMNLP 2023 – 2023年12月 [论文]
DiffusionRet:使用约束解码的扩散增强型生成式检索器
乔善宝、刘学兵、罗承勋
EMNLP Findings 2023 – 2023年12月 [论文]
可扩展且高效的生成式信息检索
韩斯·曾、罗晨、金博文、谢赫·穆罕默德·萨尔瓦尔、魏天欣、哈迈德·扎马尼
WWW 2024 – 2023年11月 [论文] [代码]
生成式检索中的非参数解码
李贤智、金在英、昌浩妍、吴汉锡、梁素熙、弗拉基米尔·卡尔普金、陆义、徐敏俊
ACL Findings 2023 – 2023年7月 [论文]
模型增强型向量索引
张海林、王玉静、陈琪、常瑞恒、张婷、苗子明、侯颖燕、丁洋、缪旭鹏、王浩楠、庞博臣、詹岳峰、孙浩、邓伟伟、张琪、杨帆、谢星、杨茂、崔彬
NeurIPS 2023 – 2023年5月 [论文] [代码]
生成式检索中的排序学习
李永奇、杨楠、王亮、魏福儒、李文杰
arXiv – 2023年6月 [论文]
大型语言模型本身就是内置的自回归搜索引擎
诺亚·齐姆斯、于文豪、张志瀚、蒋萌
ACL Findings 2023 – 2023年5月 [论文]
多视角标识符增强的生成式检索
李永奇、杨楠、王亮、魏福儒、李文杰
ACL 2023 – 2023年5月 [论文]
生成式检索如何扩展到数百万段落?
罗纳克·普拉迪普、凯·辉、贾伊·古普塔、亚当·D·莱尔克斯、庄洪磊、吉米·林、唐纳德·梅茨勒、阮庆川
arXiv – 2023年5月 [论文]
TOME:一种基于模型的两阶段检索方法
任睿阳、赵维恩、刘静、吴华、温继荣、王海峰
ACL 2023 – 2023年5月 [论文]
理解用于文本检索的可微分搜索索引
陈晓阳、刘延江、何奔、孙乐、孙英菲
ACL Findings 2023 – 2023年5月 [论文]
生成式检索中的分词学习
孙伟伟、严凌勇、陈正、王帅强、朱海超、任鹏杰、陈柱民、尹大伟、马尔滕·德·赖克、任兆春
arXiv – 2023年4月 [论文]
DynamicRetriever:一款无需显式索引的预训练模型IR系统
周雨佳、姚静、窦志成、吴乐德、温继荣
机器智能研究 – 2023年1月 [论文]
CodeDSI:可微分的代码搜索
乌萨马·纳迪姆、诺亚·齐姆斯、吴绍恩
arXiv – 2022年10月 [论文]
情境化生成式检索
李贤智、金在英、昌浩妍、吴汉锡、梁素熙、卡尔普金、陆义、徐敏俊
arXiv – 2022年10月 [论文]
Transformer记忆作为可微分搜索索引
易泰、阮庆川、莫斯塔法·德赫加尼、倪建模、巴赫里、梅塔、秦震、凯·辉、赵哲、贾伊·古普塔、塔尔·舒斯特、威廉·W·科恩、唐纳德·梅茨勒
NeurIPS 2022 – 2022年10月 [论文] [视频] [第三方代码]
用于文档检索的神经语料库索引器
王某等人
Arxiv 2022 [论文]
通过查询生成弥合可微分搜索索引中索引与检索之间的鸿沟
庄圣尧、任厚兴、寿林军、裴健、龚明、祖孔和姜大新
Arxiv 2022 [论文] [代码]
DynamicRetriever:一款既无稀疏索引也无稠密索引的预训练模型IR系统
周某等人
Arxiv 2022 [论文]
Ultron:基于模型索引器的终极语料库检索器
周某等人
Arxiv 2022 [论文]
生成一个字符串作为标识符
面向生成式信息检索的轻量级直接文档相关性优化
基迪斯特·阿姆德·梅科嫩、唐宇宝、马尔滕·德·赖克
arXiv — 2025年4月 [论文] [代码]
生成式检索中的前瞻规划:通过同步解码引导自回归生成
韩斯·曾、罗晨、哈迈德·扎马尼
arXiv — 2024年4月 [论文] [代码]
将生成式检索视为多向量密集检索
吴世光、魏文达、张梦琪、陈志民、马俊、任兆春、马尔滕·德·赖克、任鹏杰
SIGIR 2024 — 2024年3月 [论文] [代码]
Re3val:强化与重排序的生成式检索
宋义律、金相烈、李海珠、金俊基、詹姆斯·索恩
EACL Findings 2023 — 2024年1月 [论文]
GLEN:基于词汇索引学习的生成式检索
李善京、崔敏珍、李钟旭
EMNLP 2023 — 2023年12月 [论文] [代码]
利用相关性反馈的强化学习提升生成式检索
周雨佳、窦志成、温继荣
EMNLP 2023 — 2023年12月 [论文]
NOVO:用于模型驱动信息检索的可学习且可解释的文档标识符
王子涵、周雨佳、涂一腾、窦志成
CIKM 2023 — 2023年10月 [论文]
基于大型语言模型的生成式检索
匿名
ICLR 24 — 2023年10月 [论文]
受学习策略启发的语义增强型可微搜索索引
唐宇宝、张如清、郭家峰、陈江贵、朱作伟、王帅强、尹大伟、程雪琪
KDD 2023 — 2023年5月 [论文]
词集可作为自回归搜索引擎的强大文档标识符
张培田、刘正、周雨佳、窦志成、曹赵
arXiv — 2023年5月 [论文] [代码]
通过提示学习构建面向知识密集型语言任务的统一生成式检索器
陈江贵、张如清、郭家峰、马尔滕·德·赖克、刘益群、范一星、程雪琪
SIGIR 2023 — 2023年4月 [论文] [代码]
CorpusBrain:为知识密集型语言任务预训练生成式检索模型
陈江贵、张如清、郭家峰、刘益群、范一星、程雪琪
CIKM 2022 — 2022年8月 [论文] [代码]
自回归搜索引擎:以子字符串作为文档标识符
米凯莱·贝维拉夸、朱塞佩·奥塔维亚诺、帕特里克·刘易斯、伊藤文太、塞巴斯蒂安·里德尔、法比奥·佩特罗尼
arXiv — 2022年4月 [论文] [代码]
自回归实体检索
尼古拉·德·考、高提耶·伊扎卡尔、塞巴斯蒂安·里德尔、法比奥·佩特罗尼
ICLR 2021 — 2020年10月 [论文] [代码]
生成式检索的持续学习
CLEVER:面向动态语料库的生成式检索持续学习框架
陈江贵、张如清、郭家峰、马尔滕·德·赖克、陈伟、范一星、程雪琪
CIKM 2023 — 2023年8月 [论文]
DSI++:用新文档更新Transformer记忆
桑凯特·瓦伊巴夫·梅塔、贾伊·古普塔、泰奕、穆斯塔法·德赫加尼、阮文奇、饶金凤、马克·纳约克、艾玛·斯特鲁贝尔、唐纳德·梅茨勒
arXiv — 2022年12月 [论文]
IncDSI:可增量更新的文档检索系统
瓦尔莎·基肖尔、万超、贾斯汀·洛夫莱斯、约阿夫·阿策、基利安·Q·温伯格
ICML'23 — 2023年7月 [论文]
探索生成式检索在动态语料库上的实用性
金彩恩、尹素英、李贤智、张乔尔、杨昭熙、徐珉俊
EMNLP 24 — 2024年11月 [论文]
对动态语料库上生成式检索的复现与探索
张振、马欣宇、孙伟伟、任鹏杰、陈志民、王帅强、尹大伟、马尔滕·德·赖克、任兆春
SIGIR 2025 — 2025年7月 [论文]
CorpusBrain++:面向知识密集型语言任务的持续生成式预训练框架
郭家峰、周昌江、张如清、陈江贵、马尔滕·德·赖克、范一星、程雪琪
arXiv — 2024年2月 [论文]
应用
面向事实核查的数据高效自回归文档检索
詹姆斯·索恩
SustaiNLP@EMNLP 2022 — 2022年11月 [论文]
GERE:面向事实核查的生成式证据检索
陈江贵、张如清、郭家峰、范一星、程雪琪
SIGIR 2022 [论文] [代码]
生成式多跳检索
李贤智、杨昭熙、吴汉锡、徐珉俊
arXiv — 2022年4月 [论文]
生成式推荐
利用未登录词提升大语言模型的推荐性能
黄廷基、杨嘉琪、沈春旭、刘凯奇、詹德川、叶汉嘉
arXiv — 2024年6月 [论文]
用于序列化推荐的插件式扩散模型
马浩凯、谢若冰、孟磊、陈鑫、张旭、林乐宇、康展辉
arXiv — 2024年1月 [论文]
面向协同过滤的图感知扩散建模
朱云琴¹、王超、熊辉
arXiv — 2023年11月 [论文]
RecMind:由大语言模型驱动的推荐代理
王延成、蒋子言、陈铮、杨帆、周颖雪、曹恩雅、范星、黄晓江、陆彦斌、杨英振
arXiv — 2023年8月 [论文]
ChatGPT对推荐公平吗?评估大语言模型推荐中的公平性
张继志、鲍克勤、张洋、王文杰、冯福丽、何向南
Recsys 2023 — 2023年7月 [论文]
RecFusion:一种用于推荐的1D数据二项式扩散过程
加布里埃尔·贝内迪克特、奥利维埃·热南、萨穆埃莱·帕帕、萨马尔特·巴尔加夫、达安·奥迪克、马尔滕·德·赖克
arXiv — 2023年6月 [论文]
LLM驱动的生成式新闻推荐初探
刘绮琼、陈诺、酒井哲也、吴小明
arXiv — 2023年6月 [论文]
大语言模型作为零样本对话式推荐系统
侯宇鹏、张俊杰、林子涵、陆洪宇、谢若冰、朱利安·麦考利、赵新伟
arXiv — 2023年5月 [论文]
DiffuRec:一种用于序列化推荐的扩散模型
李子豪、孙爱欣、李晨亮
arXiv — 2023年4月 [论文]
扩散推荐模型
王文杰、许怡燕、冯福丽、林欣宇、何向南、蔡盛松
SIGIR 2023 — 2023年4月 [论文]
用于协同过滤的模糊-锐化过程模型
崔正焕、洪书英、朴能成、赵成培
SIGIR 2023 — 2023年4月 [论文] [代码]
基于生成式检索的推荐系统
沙尚克·拉杰普特、尼基尔·梅塔、阿尼玛·辛格、拉古南丹·凯沙万、武中、卢卡什·赫尔特、洪立灿、泰伊、阮庆全、乔纳·萨莫斯、马切伊·库拉、埃德·H·奇、马赫斯瓦兰·萨蒂亚莫西
非会议论文 — 2023年3月 [论文]
预训练、提示与推荐:推荐系统中语言建模范式的全面综述
刘鹏、张乐美、Jon Atle Gulla
arXiv — 2023年2月 [论文]
基于强化学习的生成式列表推荐
罗曼·德法耶、蒂博·托内、让-米歇尔·朗德尔以及马尔滕·德·赖克
WSDM 2023 — 2023年2月 [论文]
基于协同扩散生成模型的推荐
沃克·朱乔、钟婷、张凤丽、高强、周凡
KSEM 2022 — 2022年8月 [论文]
生成式知识图谱
什么会破坏基于知识图谱的RAG?关于不完全知识下推理的实证见解
周东卓然、朱玉成、王霞霞、周宏宽、何源、陈娇艳、施特芬·斯塔布、叶夫根尼·哈拉莫夫
arXiv — 2025年8月 [论文]
KG-CQR:在知识图谱中利用结构化关系表示进行上下文查询检索
裴志明、刁玉梅、阮文荣、郑Jason J.J.、裴克怀
arXiv — 2025年8月 [论文]
DocGraphLM:用于信息抽取的文档图语言模型
王东升、马志强、努尔巴赫什·阿尔米内、顾康、莎米娜·沙赫
arXiv — 2024年1月 [论文]
KBFormer:一种用于结构化实体补全的扩散模型
欧艾尔·基图尼、尼克拉斯·诺尔特、詹姆斯·亨斯曼、巴斯卡尔·米特拉
arXiv — 2023年12月 [论文]
从检索到生成:高效且有效的实体集合扩展
黄淑琳、马世荣、李阳宁、李迎辉、郑海涛、姜勇
arXiv — 2023年4月 [论文]
爬取语言模型的内部知识库
罗伊·科恩、莫尔·格瓦、乔纳森·伯兰特、阿米尔·格洛伯森
arXiv — 2023年1月 [论文]
提示调优还是微调——探究预训练语言模型中的关系知识
莱昂德拉·菲希特尔、扬-克里斯托夫·卡洛、沃尔夫-蒂洛·巴尔克
AKBC 2021 — [论文]
语言模型能否作为知识库?
法比奥·佩特罗尼、蒂姆·罗克塔谢尔、帕特里克·刘易斯、安东·巴赫金、吴宇翔、亚历山大·H·米勒、塞巴斯蒂安·里德尔
EMNLP 2019 — 2019年9月 [论文]
实时生成式检索
尽管其中一些项目并未发表论文,但它们对于其他生成式信息检索研究人员在实证研究或界面设计方面仍可能具有参考价值。
⚡ Gemini 2023年12月 [在线] ⚡️ factiverse 2023年6月 [在线] ⚡️ devmarizer 2023年3月 [在线] ⚡️ TaxGenius 2023年3月 [在线] ⚡️ doc-gpt 2023年3月 [在线] ⚡️ book-gpt 2023年2月 [在线] ⚡️ Neeva 2023年2月 [在线] ⚡️ Golden Retriever 2023年2月 [在线] ⚡️ Bing – Prometheus 2023年2月 [候补名单] ⚡️ Google – Bard 2023年2月 [仅在部分国家可用] ⚡️ Paper QA 2023年2月 [代码] [演示] ⚡️ DocsGPT 2023年2月 [在线] [代码] ⚡️ DocAsker 2023年1月 [在线] ⚡️ Lexii.ai 2023年1月 [在线] ⚡️ YOU.com 2022年12月 [在线] ⚡️ arXivGPT 2022年12月 [Chrome扩展] ⚡️ GPT Index 2022年11月 [API] ⚡️ BlenderBot 2022年8月 [在线(美国)] [模型权重] [代码] [论文1] [论文2] ⚡️ PHIND 日期?[在线] ⚡️ Perplexity 日期?[在线] ⚡️ Galactica 日期?[演示] [API] [论文] ⚡️ Elicit 日期?[在线] ⚡️ ZetaAlpha 日期?[在线] 使用OpenAI API
若只想获取论文标题,可执行 grep '\*\*' README.md | sed 's/\*\*//g'
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备