[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jxzhangjhu--Awesome-LLM-RAG":3,"tool-jxzhangjhu--Awesome-LLM-RAG":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,2,"2026-04-13T23:32:16",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":76,"owner_website":76,"owner_url":79,"languages":76,"stars":80,"forks":81,"last_commit_at":82,"license":76,"difficulty_score":83,"env_os":84,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":89,"github_topics":91,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":99,"updated_at":100,"faqs":101,"releases":102},7406,"jxzhangjhu\u002FAwesome-LLM-RAG","Awesome-LLM-RAG","Awesome-LLM-RAG: a curated list of advanced retrieval augmented generation (RAG) in Large Language Models","Awesome-LLM-RAG 是一个专注于大语言模型（LLM）检索增强生成（RAG）技术的精选资源库。它旨在解决大模型在面对私有数据、长文本或需要高精度事实回答时，容易产生的“幻觉”和知识滞后问题。通过整合外部检索机制，RAG 技术能让模型的回答更准确、可追溯且与时俱进。\n\n这份清单系统地收录了该领域的前沿学术论文、权威教程、专业书籍以及实用的代码资源。内容覆盖广泛，从基础的综述与基准测试，到检索增强、指令微调、嵌入优化、长文本记忆处理，再到具体的应用案例和评估方法，形成了一个完整的技术生态图谱。其独特亮点在于不仅追踪最新的学术研究，还特别关注工业界的落地实践，并欢迎社区研究者共同更新维护，确保内容的时效性。\n\nAwesome-LLM-RAG 非常适合 AI 研究人员、算法工程师及应用开发者使用。对于希望深入理解 RAG 原理、复现最新算法或构建企业级知识库应用的团队来说，它是一个高效的一站式导航工具，能帮助用户快速定位关键资料，降低技术探索门槛，加速从理论到实践的转化过程。","\u003Cdiv align=\"center\">\n    \u003Ch1>Awesome LLM RAG\u003C\u002Fh1>\n    \u003Ca href=\"https:\u002F\u002Fawesome.re\">\u003Cimg src=\"https:\u002F\u002Fawesome.re\u002Fbadge.svg\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\\\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fhee9joon\u002FAwesome-Diffusion-Models) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Made With Love](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMade%20With-Love-red.svg)](https:\u002F\u002Fgithub.com\u002Fchetanraj\u002Fawesome-github-badges)\n\n\n\nThis repo aims to record advanced papers on Retrieval Augmented Generation (RAG) in LLMs.\n\nWe strongly encourage the researchers that want to promote their fantastic work to the LLM RAG to make pull request to update their paper's information!\n\n\n--- \n\n## Contents\n\n- [Resources](#resources)\n  - [Workshops and Tutorials](#workshops-and-tutorials)\n  - [Books](#books)\n- [Papers](#papers)\n  - [Survey and Benchmark](#survey-and-benchmark)\n  - [Retrieval-enhanced LLMs](#retrieval-enhanced-llms)\n  - [RAG Instruction Tuning](#rag-instruction-tuning)\n  - [RAG In-Context Learning](#rag-in-context-learning)\n  - [RAG Embeddings](#rag-embeddings)\n  - [RAG Simulators](#rag-simulators)\n  - [RAG Search](#rag-search)\n  - [RAG Long-text and Memory](#rag-long-text-and-memory)\n  - [RAG Evaluation](#rag-evaluation)\n  - [RAG Optimization](#rag-optimization)\n  - [RAG Application](#rag-application)\n\n\n\n--- \n\n# Resources \n\n- [guardian-agent-prompts](https:\u002F\u002Fgithub.com\u002Fmilkomida77\u002Fguardian-agent-prompts) - 49 production-tested AI agent system prompts for Claude Code multi-agent orchestration with retrieval-augmented generation patterns. MIT licensed.\n## Workshops and Tutorials\n\n**Personalized Generative AI**  \n*Zheng Chen, Ziyan Jiang, Fan Yang, Zhankui He, Yupeng Hou, Eunah Cho, Julian McAuley, Aram Galstyan, Xiaohua Hu, Jie Yang*  \nCIKM 23 – Oct 2023 [[link](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpgai2023\u002Fhome)]\n\n**First Workshop on Recommendation with Generative Models**  \n*Wenjie Wang, Yong Liu, Yang Zhang, Weiwen Liu, Fuli Feng, Xiangnan He, Aixin Sun*  \nCIKM 23 – Oct 2023 [[link](https:\u002F\u002Frgm-cikm23.github.io\u002F)]\n\n**First Workshop on Generative Information Retrieval**  \n*Gabriel Bénédict, Ruqing Zhang, Donald Metzler*  \nSIGIR 23 – Jul 2023 [[link](https:\u002F\u002Fcoda.io\u002F@sigir\u002Fgen-ir)]\n\n**Retrieval-based Language Models and Applications**  \n*Akari Asai,\tSewon Min,\tZexuan Zhong,\tDanqi Chen*  \nACL 23 – Jul 2023 [[link](https:\u002F\u002Facl2023-retrieval-lm.github.io\u002F)]\n\n**Become a Generative AI Developer**\n*Richie Cotton, Olivier Mertens, Korey Stegared-Pace, James Briggs, Vincent Vankrunkelsven, Alara Dirik, Jacob Marquez, Priyanka Asnani*\nDataCamp [[link](https:\u002F\u002Fwww.datacamp.com\u002Fai-code-alongs)]\n\n## Books\n\n**Build a Large Language Model (From Scratch)**  \n*Sebastian Raschka*  \nManning Publications - Sep 2024 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-large-language-model-from-scratch)]\n\n**Build a Reasoning Model (From Scratch)**  \n*Sebastian Raschka*  \nManning Publications - Aug 2025 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-reasoning-model-from-scratch)]\n\n**Retrieval Augmented Generation, The Seminal Papers**  \n*Ben Auffarth*  \nManning Publications - Mar 2026 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fretrieval-augmented-generation-the-seminal-papers)]\n\n**A Simple Guide to Retrieval Augmented Generation**  \n*Abhinav Kimothi*  \nManning Publications - Jun 2025 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fa-simple-guide-to-retrieval-augmented-generation)]\n\n**Build an Advanced RAG Application (From Scratch)**  \n*Hamza Farooq*  \nManning Publications - Oct 2024 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-an-advanced-rag-application-from-scratch)]\n\n**Enterprise RAG**  \n*Tyler Suard and Darshil Modi*  \nManning Publications - Mar 2025 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fenterprise-rag)]\n\n**Essential GraphRAG**  \n*\"Tomaž Bratanič and Oskar Hane\"*  \nManning Publications - Jul 2025 [[link](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fessential-graphrag)]\n\n# Papers \n\n## Survey and Benchmark \n\n**Benchmarking Large Language Models in Retrieval-Augmented Generation** \\\n*Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun* \\\narXiv 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01431)][[Github](https:\u002F\u002Fgithub.com\u002Fchen700564\u002FRGB)] \\\n4 Sep 2023 \n\n\n \n## Retrieval-enhanced LLMs\n\n\u003C!-- \n**Active Retrieval Augmented Generation** \\\n*Zhengbao Jiang, Frank F. Xu, Luyu Gao, Zhiqing Sun, Qian Liu, Jane Dwivedi-Yu, Yiming Yang, Jamie Callan, Graham Neubig* \\\nEMNLP 2023 - May 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06983)][[Github](https:\u002F\u002Fgithub.com\u002Fjzbjyb\u002Fflare)] \\\n -->\n\n**Improving Retrieval Augmented Language Model with Self-Reasoning** \\\nYuan Xia, Jingbo Zhou, Zhenhui Shi, Jun Chen, Haifeng Huang \\  \nAAAI 25 – Mar 2025 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.19813)]\n\n**Adaptive Retrieval without Self-Knowledge? Bringing Uncertainty Back Home**  \\\nViktor Moskvoretskii, Maria Lysyuk, Mikhail Salnikov, Nikolay Ivanov, Sergey Pletenev, Daria Galimzianova, Nikita Krayko, Vasily Konovalov, Irina Nikishina, Alexander Panchenko \\\narxiv – Jan 2025 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.12835)]\n \n**DFA-RAG: Conversational Semantic Router for Large Language Model with Definite Finite Automaton**  \\\nYiyou Sun, Junjie Hu, Wei Cheng, Haifeng Chen \\\nICML 24 – Feb 2024 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04411)]\n\n**Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models** \\\n*Wenhao Yu, Hongming Zhang, Xiaoman Pan, Kaixin Ma, Hongwei Wang, Dong Yu* \\\narxiv - Nov 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09210)] \n\n**REST: Retrieval-Based Speculative Decoding** \\\n*Zhenyu He, Zexuan Zhong, Tianle Cai, Jason D Lee, Di He* \\\narXiv - Nov 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08252)][[Github](https:\u002F\u002Fgithub.com\u002Ffasterdecoding\u002Frest)]\n\n\n**Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection**  \n*Anonymous*  \nICLR 24 – Oct 2023 [[paper](https:\u002F\u002Fopenreview.net\u002Fforum?id=hSyW5go0v8)]\n\n**Self-Knowledge Guided Retrieval Augmentation for Large Language Models** \\\n*Yile Wang, Peng Li, Maosong Sun, Yang Liu* \\\narXiv - Oct 2023 [[Ppaer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05002)]\n\n\n**Retrieval meets Long Context Large Language Models** \\\n*Peng Xu, Wei Ping, Xianchao Wu, Lawrence McAfee, Chen Zhu, Zihan Liu, Sandeep Subramanian, Evelina Bakhturina, Mohammad Shoeybi, Bryan Catanzaro* \\\narxiv - Oct 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03025)]\n\n\n**DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines**  \n*Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts*  \narXiv – Oct 2023 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03714)] [[code](https:\u002F\u002Fgithub.com\u002Fstanfordnlp\u002Fdspy)]\n\n**Adaptive Chameleon  or Stubborn Sloth: Revealing the Behavior of Large Language Models in Knowledge Conflicts**  \n*Jian Xie, Kai Zhang, Jiangjie Chen, Renze Lou, Yu Su*  \nICLR 24 – May 2023 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13300)] [[code](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FLLM-Knowledge-Conflict)]\n\n**Active Retrieval Augmented Generation**  \n*Zhengbao Jiang, Frank F. Xu, Luyu Gao, Zhiqing Sun, Qian Liu, Jane Dwivedi-Yu, Yiming Yang, Jamie Callan, Graham Neubig*  \narXiv – May 2023 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06983)] [[code](https:\u002F\u002Fgithub.com\u002Fjzbjyb\u002FFLARE)]\n\n\n**REPLUG: Retrieval-Augmented Black-Box Language Models**  \n*Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, Wen-tau Yih*  \narXiv – Jan 2023 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12652)]\n\n\n**Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks** \n*Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, Douwe Kiela* \nNeurIPS 2020 - May 2020 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.11401)]\n\n\n\n## RAG Instruction Tuning \n\n**RA-DIT: Retrieval-Augmented Dual Instruction Tuning**  \n*Anonymous*  \nICLR 24 – Oct 23 [[paper](https:\u002F\u002Fopenreview.net\u002Fforum?id=22OTbutug9)]\n\n**InstructRetro: Instruction Tuning post Retrieval-Augmented Pretraining**  \n*Boxin Wang, Wei Ping, Lawrence McAfee, Peng Xu, Bo Li, Mohammad Shoeybi, Bryan Catanzaro* \\\narXiv -  Oct 23 [[paper](https:\u002F\u002Fopenreview.net\u002Fforum?id=4stB7DFLp6)]\n\n\n## RAG In-Context Learning \n\n**In-Context Retrieval-Augmented Language Models**  \n*Ori Ram, Yoav Levine, Itay Dalmedigos, Dor Muhlgay, Amnon Shashua, Kevin Leyton-Brown, Yoav Shoham*  \nAI21 Labs – Jan 2023 [[paper](https:\u002F\u002Fuploads-ssl.webflow.com\u002F60fd4503684b466578c0d307\u002F63c6c20dec4479564db21819_NEW_In_Context_Retrieval_Augmented_Language_Models.pdf)] [[code](https:\u002F\u002Fgithub.com\u002FAI21Labs\u002Fin-context-ralm)]\n\n\n## RAG Embeddings \n\n**RegaVAE: A Retrieval-Augmented Gaussian Mixture Variational Auto-Encoder for Language Modeling** \\\n*Jingcheng Deng, Liang Pang, Huawei Shen, Xueqi Cheng* \\\nEMNLP 2023 - Oct 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10567)][[Github](https:\u002F\u002Fgithub.com\u002FTrustedLLM\u002FRegaVAE)] \n\n**Text Embeddings Reveal (Almost) As Much As Text** \\\n*John X. Morris, Volodymyr Kuleshov, Vitaly Shmatikov, Alexander M. Rush*  \\\nEMNLP 2023 - Oct 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06816?ref=upstract.com)][[Github](https:\u002F\u002Fgithub.com\u002Fjxmorris12\u002Fvec2text)] \n\n**Jina Embeddings 2: 8192-Token General-Purpose Text Embeddings for Long Documents** \\\n*Michael Günther, Jackmin Ong, Isabelle Mohr, Alaeddine Abdessalem, Tanguy Abel, Mohammad Kalim Akram, Susana Guzman, Georgios Mastrapas, Saba Sturua, Bo Wang, Maximilian Werk, Nan Wang, Han Xiao* \\\narXiv - Oct 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19923)][[Model](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-embeddings-v2-small-en)] \n\n## RAG Simulators\n\n**KAUCUS: Knowledge Augmented User Simulators for Training Language Model Assistants** \\\n*Kaustubh D. Dhole* \\\nSimulation of Conversational Intelligence in Chat, EACL 2024 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.16454)]\n\n## RAG Search\n\n## RAG Long-text and Memory\n\n**ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning** \\                    \n*Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu* \\                            \nAAAI 2026 - Aug 2025 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10419)] [[GitHub](https:\u002F\u002Fgithub.com\u002FEternityJune25\u002FComoRAG)]\n\n- [Cortex](https:\u002F\u002Fgithub.com\u002FSKULLFIRE07\u002Fcortex-memory) - Persistent AI memory for coding assistants. Auto-captures decisions, patterns, and context. VSCode extension + CLI + MCP server. Free.\n- [Agent Brain](https:\u002F\u002Fgithub.com\u002Fkaderosio\u002Fagent-brain) - 7-layer cognitive memory system for AI agents with perception gate, dream cycle, and predictive capabilities. Built with FastAPI, PostgreSQL\u002Fpgvector. Self-hostable.\n\n**HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models** \\\n*Bernal Jiménez Gutiérrez, Yiheng Shu, Yu Gu, Michihiro Yasunaga, Yu Su* \\\narXiv - May 2024 [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.14831)] [[GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FHippoRAG)]\n\n**Understanding Retrieval Augmentation for Long-Form Question Answering** \\\n*Hung-Ting Chen, Fangyuan Xu, Shane A. Arora, Eunsol Choi* \\\narXiv - Oct 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12150)]\n\n## RAG Evaluation\n\n**ARES: An Automated Evaluation Framework for Retrieval-Augmented Generation Systems** \\\n*Jon Saad-Falcon, Omar Khattab, Christopher Potts, Matei Zaharia* \\\narXiv - Nov 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09476)] [[Github](https:\u002F\u002Fgithub.com\u002Fstanford-futuredata\u002Fares)]\n\n**Evaluation and Alignment, The Seminal Papers** \\\n*Hanchung Leea* \\\nManning - Mar 2026. [[Book](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fevaluation-and-alignment-the-seminal-papers)] \n\n\n## RAG Optimization\n\n**Learning to Filter Context for Retrieval-Augmented Generation** \\\n*Zhiruo Wang, Jun Araki, Zhengbao Jiang, Md Rizwan Parvez, Graham Neubig* \\\narxiv- Nov 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08377)][[Github](https:\u002F\u002Fgithub.com\u002Fzorazrw\u002Ffilco)] \n\n\n**Large Language Models Can Be Easily Distracted by Irrelevant Context** \\\n*Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou* \\\nICML 2023 - Jan 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00093)][[Github](https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002FGSM-IC)] \n\n\n**Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks** \\\n*Akari Asai, Matt Gardner, Hannaneh Hajishirzi* \\\nNAACL 2022 - Dec 2021 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.08688)][[Github](https:\u002F\u002Fgithub.com\u002Fakariasai\u002Fevidentiality_qa)] \n\n**When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parametric Memories** \\\n*Alex Mallen, Akari Asai, Victor Zhong, Rajarshi Das, Daniel Khashabi, Hannaneh Hajishirzi* \\\nACL 2023 - Dec 2022 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10511)][[Github](https:\u002F\u002Fgithub.com\u002Falextmallen\u002Fadaptive-retrieval)] \n\n\n\n## RAG Application\n\n**Deficiency of Large Language Models in Finance: An Empirical Examination of Hallucination** \\\n*Haoqiang Kang, Xiao-Yang Liu* \\\narXiv - Nov 2023 [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.15548)] \n\n\n**Clinfo.ai: An Open-Source Retrieval-Augmented Large Language Model System for Answering Medical Questions using Scientific Literature** \\\n*Alejandro Lozano, Scott L Fleming, Chia-Chun Chiang, Nigam Shah* \\\narXiv - Oct 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16146v1)] \n\n**PEARL: Personalizing Large Language Model Writing Assistants with Generation-Calibrated Retrievers** \\\n*Sheshera Mysore, Zhuoran Lu, Mengting Wan, Longqi Yang, Steve Menezes, Tina Baghaee, Emmanuel Barajas Gonzalez, Jennifer Neville, Tara Safavi* \\\narXiv - Nov 2023. [[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09180)] \n\n\n\n","\u003Cdiv align=\"center\">\n    \u003Ch1>强大的LLM RAG\u003C\u002Fh1>\n    \u003Ca href=\"https:\u002F\u002Fawesome.re\">\u003Cimg src=\"https:\u002F\u002Fawesome.re\u002Fbadge.svg\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\\\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fhee9joon\u002FAwesome-Diffusion-Models) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Made With Love](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMade%20With-Love-red.svg)](https:\u002F\u002Fgithub.com\u002Fchetanraj\u002Fawesome-github-badges)\n\n\n\n本仓库旨在收录关于大语言模型中检索增强生成（RAG）的前沿论文。\n\n我们强烈鼓励希望推广其在LLM RAG领域杰出工作的研究人员提交拉取请求，以更新相关论文信息！\n\n\n---\n\n## 目录\n\n- [资源](#resources)\n  - [研讨会与教程](#workshops-and-tutorials)\n  - [书籍](#books)\n- [论文](#papers)\n  - [综述与基准测试](#survey-and-benchmark)\n  - [检索增强型大语言模型](#retrieval-enhanced-llms)\n  - [RAG指令微调](#rag-instruction-tuning)\n  - [RAG上下文学习](#rag-in-context-learning)\n  - [RAG嵌入](#rag-embeddings)\n  - [RAG模拟器](#rag-simulators)\n  - [RAG搜索](#rag-search)\n  - [RAG长文本与记忆](#rag-long-text-and-memory)\n  - [RAG评估](#rag-evaluation)\n  - [RAG优化](#rag-optimization)\n  - [RAG应用](#rag-application)\n\n\n\n---\n\n# 资源 \n\n- [guardian-agent-prompts](https:\u002F\u002Fgithub.com\u002Fmilkomida77\u002Fguardian-agent-prompts) - 49个经过生产环境验证的AI智能体系统提示词，适用于Claude Code多智能体编排及检索增强生成模式。采用MIT许可证。\n## 研讨会与教程\n\n**个性化生成式AI**  \n*Zheng Chen, Ziyan Jiang, Fan Yang, Zhankui He, Yupeng Hou, Eunah Cho, Julian McAuley, Aram Galstyan, Xiaohua Hu, Jie Yang*  \nCIKM 23 – 2023年10月 [[链接](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpgai2023\u002Fhome)]\n\n**首届基于生成模型的推荐系统研讨会**  \n*Wenjie Wang, Yong Liu, Yang Zhang, Weiwen Liu, Fuli Feng, Xiangnan He, Aixin Sun*  \nCIKM 23 – 2023年10月 [[链接](https:\u002F\u002Frgm-cikm23.github.io\u002F)]\n\n**首届生成式信息检索研讨会**  \n*Gabriel Bénédict, Ruqing Zhang, Donald Metzler*  \nSIGIR 23 – 2023年7月 [[链接](https:\u002F\u002Fcoda.io\u002F@sigir\u002Fgen-ir)]\n\n**基于检索的语言模型及其应用**  \n*Akari Asai, Sewon Min, Zexuan Zhong, Danqi Chen*  \nACL 23 – 2023年7月 [[链接](https:\u002F\u002Facl2023-retrieval-lm.github.io\u002F)]\n\n**成为生成式AI开发者**\n*Richie Cotton, Olivier Mertens, Korey Stegared-Pace, James Briggs, Vincent Vankrunkelsven, Alara Dirik, Jacob Marquez, Priyanka Asnani*\nDataCamp [[链接](https:\u002F\u002Fwww.datacamp.com\u002Fai-code-alongs)]\n\n## 书籍\n\n**从零构建大型语言模型**  \n*Sebastian Raschka*  \nManning Publications - 2024年9月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-large-language-model-from-scratch)]\n\n**从零构建推理模型**  \n*Sebastian Raschka*  \nManning Publications - 2025年8月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-reasoning-model-from-scratch)]\n\n**检索增强生成：奠基性论文集**  \n*Ben Auffarth*  \nManning Publications - 2026年3月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fretrieval-augmented-generation-the-seminal-papers)]\n\n**检索增强生成简易指南**  \n*Abhinav Kimothi*  \nManning Publications - 2025年6月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fa-simple-guide-to-retrieval-augmented-generation)]\n\n**从零构建高级RAG应用**  \n*Hamza Farooq*  \nManning Publications - 2024年10月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-an-advanced-rag-application-from-scratch)]\n\n**企业级RAG**  \n*Tyler Suard 和 Darshil Modi*  \nManning Publications - 2025年3月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fenterprise-rag)]\n\n**图RAG基础**  \n*\"Tomaž Bratanič 和 Oskar Hane\"*  \nManning Publications - 2025年7月 [[链接](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fessential-graphrag)]\n\n# 论文 \n\n## 综述与基准测试 \n\n**检索增强生成中的大型语言模型基准测试** \\\n*Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun* \\\narXiv 2023. [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01431)][[GitHub](https:\u002F\u002Fgithub.com\u002Fchen700564\u002FRGB)] \\\n2023年9月4日\n\n## 检索增强型大语言模型\n\n\u003C!--\n**主动检索增强生成** \\\n*江正宝、Frank F. Xu、高璐宇、孙志清、刘倩、简·德维迪-余、杨一鸣、杰米·卡兰、格雷厄姆·诺伊比格* \\\nEMNLP 2023 - 2023年5月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06983)][[GitHub](https:\u002F\u002Fgithub.com\u002Fjzbjyb\u002Fflare)] \\\n\n-->\n\n**通过自我推理提升检索增强语言模型** \\\n夏源、周景博、史振辉、陈军、黄海峰 \\  \nAAAI 25 – 2025年3月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.19813)]\n\n**无需自我知识的自适应检索？让不确定性回归**  \\\n维克托·莫斯科韦列茨基、玛丽亚·利修克、米哈伊尔·萨尔尼科夫、尼古拉·伊万诺夫、谢尔盖·普列特涅夫、达里娅·加林齐亚诺娃、尼基塔·克拉伊科、瓦西里·科诺瓦洛夫、伊琳娜·尼基希娜、亚历山大·潘琴科 \\\narXiv – 2025年1月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.12835])\n \n**DFA-RAG：基于确定有限自动机的大语言模型对话式语义路由**  \\\n孙益友、胡俊杰、程伟、陈海峰 \\\nICML 24 – 2024年2月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04411)]\n\n**笔记链：增强检索增强语言模型的鲁棒性** \\\n*于文浩、张洪明、潘晓曼、马凯欣、王宏伟、于东* \\\narXiv - 2023年11月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09210)] \n\n**REST：基于检索的推测解码** \\\n*何振宇、钟泽轩、蔡天乐、Jason D Lee、何迪* \\\narXiv - 2023年11月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08252)][[GitHub](https:\u002F\u002Fgithub.com\u002Ffasterdecoding\u002Frest)]\n\n\n**Self-RAG：通过自我反思学习检索、生成和批判**  \n*匿名*  \nICLR 24 – 2023年10月 [[论文](https:\u002F\u002Fopenreview.net\u002Fforum?id=hSyW5go0v8)]\n\n**自我知识引导的大型语言模型检索增强** \\\n*王一乐、李鹏、孙茂松、刘洋* \\\narXiv - 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05002)]\n\n\n**检索遇见长上下文大语言模型** \\\n*徐鹏、魏平、吴宪超、劳伦斯·麦卡菲、朱晨、刘子涵、桑迪普·苏布拉马尼安、埃韦丽娜·巴赫图里娜、穆罕默德·绍伊比、布莱恩·卡坦扎罗* \\\narXiv - 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03025)]\n\n\n**DSPy：将声明式语言模型调用编译为自我改进的流水线**  \n*奥马尔·哈塔卜、阿尔纳夫·辛格维、帕里迪·马赫什瓦里、张志远、凯沙夫·桑塔南、斯里·瓦尔达马南、赛富尔·哈克、阿舒托什·夏尔马、托马斯·T·乔希、汉娜·莫阿扎姆、希瑟·米勒、马泰伊·扎哈里亚、克里斯托弗·波茨*  \narXiv – 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.03714)] [[代码](https:\u002F\u002Fgithub.com\u002Fstanfordnlp\u002Fdspy)]\n\n**适应性变色龙还是顽固的树懒：揭示大型语言模型在知识冲突中的行为**  \n*谢健、张凯、陈江杰、楼仁泽、苏宇*  \nICLR 24 – 2023年5月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.13300)] [[代码](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FLLM-Knowledge-Conflict)]\n\n**主动检索增强生成**  \n*江正宝、Frank F. Xu、高璐宇、孙志清、刘倩、简·德维迪-余、杨一鸣、杰米·卡兰、格雷厄姆·诺伊比格*  \narXiv – 2023年5月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06983)] [[代码](https:\u002F\u002Fgithub.com\u002Fjzbjyb\u002FFLARE)]\n\n\n**REPLUG：检索增强的黑盒语言模型**  \n*石伟嘉、闵世元、安永道广、徐敏俊、里奇·詹姆斯、迈克·刘易斯、卢克·泽特勒莫耶、叶问涛*  \narXiv – 2023年1月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12652)]\n\n\n**面向知识密集型NLP任务的检索增强生成** \n*帕特里克·刘易斯、伊森·佩雷斯、亚历山德拉·皮克图斯、法比奥·佩特罗尼、弗拉基米尔·卡尔普金、纳曼·戈亚尔、海因里希·库特勒、迈克·刘易斯、叶问涛、蒂姆·罗克塔谢尔、塞巴斯蒂安·里德尔、杜威·基拉* \nNeurIPS 2020 - 2020年5月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.11401)]\n\n\n\n## RAG指令微调 \n\n**RA-DIT：检索增强双指令微调**  \n*匿名*  \nICLR 24 – 2023年10月 [[论文](https:\u002F\u002Fopenreview.net\u002Fforum?id=22OTbutug9)]\n\n**InstructRetro：检索增强预训练后的指令微调**  \n*王博鑫、魏平、劳伦斯·麦卡菲、徐鹏、李博、穆罕默德·绍伊比、布莱恩·卡坦扎罗* \\\narXiv - 2023年10月 [[论文](https:\u002F\u002Fopenreview.net\u002Fforum?id=4stB7DFLp6)]\n\n\n## RAG上下文学习 \n\n**上下文检索增强语言模型**  \n*奥里·拉姆、约阿夫·莱文、伊泰·达尔梅迪戈斯、多尔·穆赫盖、阿姆农·沙舒亚、凯文·莱顿-布朗、约阿夫·肖哈姆*  \nAI21 Labs – 2023年1月 [[论文](https:\u002F\u002Fuploads-ssl.webflow.com\u002F60fd4503684b466578c0d307\u002F63c6c20dec4479564db21819_NEW_In_Context_Retrieval_Augmented_Language_Models.pdf)][[代码](https:\u002F\u002Fgithub.com\u002FAI21Labs\u002Fin-context-ralm)]\n\n\n## RAG嵌入 \n\n**RegaVAE：用于语言建模的检索增强高斯混合变分自编码器** \\\n*邓靖成、庞亮、沈华伟、程雪琪* \\\nEMNLP 2023 - 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10567)][[GitHub](https:\u002F\u002Fgithub.com\u002FTrustedLLM\u002FRegaVAE)] \n\n**文本嵌入揭示的信息几乎与文本本身一样多** \\\n*约翰·X·莫里斯、沃洛迪米尔·库列绍夫、维塔利·施马蒂科夫、亚历山大·M·拉什*  \\\nEMNLP 2023 - 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06816?ref=upstract.com)][[GitHub](https:\u002F\u002Fgithub.com\u002Fjxmorris12\u002Fvec2text)] \n\n**Jina Embeddings 2：适用于长文档的8192个标记通用文本嵌入** \\\n*迈克尔·京特、张杰民、伊莎贝尔·莫尔、阿拉丁·阿卜德萨莱姆、唐吉·阿贝尔、穆罕默德·卡利姆·阿克拉姆、苏珊娜·古兹曼、乔治奥斯·马斯特拉斯、萨巴·斯图鲁阿、王博、马克西米利安·韦尔克、王楠、肖汉* \\\narXiv - 2023年10月。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19923)][[模型](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-embeddings-v2-small-en)] \n\n## RAG模拟器\n\n**KAUCUS：用于训练语言模型助手的知识增强用户模拟器** \\\n*考斯图布·D·多勒* \\\n聊天对话智能模拟，EACL 2024 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.16454)]\n\n## RAG搜索\n\n## RAG 长文本与记忆\n\n**ComoRAG：一种受认知启发、基于记忆组织的 RAG，用于有状态的长篇叙事推理** \\                    \n*王聚源、赵荣晨、魏伟、王宇峰、余墨、周杰、徐进、徐丽燕* \\                            \nAAAI 2026 - 2025年8月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.10419)] [[GitHub](https:\u002F\u002Fgithub.com\u002FEternityJune25\u002FComoRAG)]\n\n- [Cortex](https:\u002F\u002Fgithub.com\u002FSKULLFIRE07\u002Fcortex-memory) - 面向代码助手的持久化 AI 记忆。自动捕获决策、模式和上下文。提供 VSCode 插件、命令行工具及 MCP 服务器。免费。\n- [Agent Brain](https:\u002F\u002Fgithub.com\u002Fkaderosio\u002Fagent-brain) - 适用于 AI 代理的七层认知记忆系统，具备感知门控、梦境循环和预测能力。基于 FastAPI 和 PostgreSQL\u002Fpgvector 构建，可自行部署。\n\n**HippoRAG：受神经生物学启发的大语言模型长期记忆** \\\n*贝尔纳尔·希门尼斯·古铁雷斯、舒一恒、顾宇、米奇hiro·安永、苏宇* \\\narXiv - 2024年5月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.14831)] [[GitHub](https:\u002F\u002Fgithub.com\u002FOSU-NLP-Group\u002FHippoRAG)]\n\n**理解面向长文档问答的检索增强技术** \\\n*陈鸿廷、许芳远、谢恩·A·阿罗拉、崔恩瑟* \\\narXiv - 2023年10月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.12150)]\n\n## RAG 评估\n\n**ARES：检索增强生成系统的自动化评估框架** \\\n*乔恩·萨德-法尔孔、奥马尔·哈塔卜、克里斯托弗·波茨、马泰伊·扎哈里亚* \\\narXiv - 2023年11月。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09476)] [[GitHub](https:\u002F\u002Fgithub.com\u002Fstanford-futuredata\u002Fares)]\n\n**评估与对齐：奠基性论文集** \\\n*韩忠李* \\\n曼宁出版社 - 2026年3月。[[书籍](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fevaluation-and-alignment-the-seminal-papers)]\n\n\n## RAG 优化\n\n**学习如何过滤上下文以用于检索增强生成** \\\n*王志若、荒木淳、蒋正宝、穆罕默德·里兹万·帕尔韦兹、格雷厄姆·诺伊比格* \\\narXiv - 2023年11月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08377)][[GitHub](https:\u002F\u002Fgithub.com\u002Fzorazrw\u002Ffilco)] \n\n\n**大语言模型极易被无关上下文干扰** \\\n*史芙蕾达、陈欣云、米斯拉·卡尼什卡、内森·斯凯尔斯、大卫·多汉、埃德·奇、纳撒尼尔·舍尔利、周登尼* \\\nICML 2023 - 2023年1月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.00093)][[GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002FGSM-IC)] \n\n\n**证据导向生成在知识密集型 NLP 任务中的应用** \\\n*浅井明里、马特·加德纳、汉娜内·哈吉希尔齐* \\\nNAACL 2022 - 2021年12月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.08688)][[GitHub](https:\u002F\u002Fgithub.com\u002Fakariasai\u002Fevidentiality_qa)] \n\n**何时不应信任语言模型：探究参数化与非参数化记忆的有效性** \\\n*亚历克斯·马伦、浅井明里、维克多·钟、拉贾尔希·达斯、丹尼尔·卡沙比、汉娜内·哈吉希尔齐* \\\nACL 2023 - 2022年12月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10511)][[GitHub](https:\u002F\u002Fgithub.com\u002Falextmallen\u002Fadaptive-retrieval)] \n\n\n\n## RAG 应用\n\n**大语言模型在金融领域的不足：幻觉现象的实证研究** \\\n*康浩强、刘晓阳* \\\narXiv - 2023年11月 [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.15548)] \n\n\n**Clinfo.ai：一个开源的检索增强型大语言模型系统，用于基于科学文献回答医学问题** \\\n*亚历杭德罗·洛萨诺、斯科特·L·弗莱明、江家纯、尼甘·沙赫* \\\narXiv - 2023年10月。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16146v1)] \n\n**PEARL：利用生成校准型检索器个性化大语言模型写作助手** \\\n*谢舍拉·迈索尔、陆卓然、万梦婷、杨龙琪、史蒂夫·梅内塞斯、蒂娜·巴盖、埃马努埃尔·巴拉哈斯·冈萨雷斯、珍妮弗·内维尔、塔拉·萨法维* \\\narXiv - 2023年11月。[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.09180)]","# Awesome-LLM-RAG 快速上手指南\n\n**Awesome-LLM-RAG** 并非一个可直接安装的单一软件工具，而是一个精选的**开源资源清单仓库**。它汇集了检索增强生成（RAG）领域最前沿的论文、基准测试、教程、书籍以及相关的开源代码实现。\n\n本指南将指导开发者如何利用该仓库快速定位所需资源，并运行其中推荐的经典 RAG 项目（以 `DSPy` 和 `FLARE` 为例）。\n\n## 环境准备\n\n在开始探索具体的 RAG 算法或框架前，请确保您的开发环境满足以下基础要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+), macOS, 或 Windows (建议配合 WSL2 使用)。\n*   **Python 版本**: 3.9 或更高版本（大多数现代 LLM 库需要较新的 Python 环境）。\n*   **硬件要求**: \n    *   基础实验：8GB+ 内存。\n    *   本地模型推理\u002F微调：建议配备 NVIDIA GPU (显存 16GB+ 推荐)，或使用云端 GPU 实例。\n*   **前置依赖**:\n    *   Git\n    *   pip 或 conda (包管理工具)\n    *   Hugging Face Account (用于下载部分模型权重)\n\n## 安装步骤\n\n由于本仓库是资源列表，您首先需要克隆仓库以获取最新的论文列表和项目链接，然后根据需求安装具体项目的依赖。\n\n### 1. 克隆资源仓库\n获取最新的 RAG 论文和项目索引：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmilkomida77\u002FAwesome-LLM-RAG.git\ncd Awesome-LLM-RAG\n```\n\n### 2. 安装示例框架依赖\n仓库中推荐了多个核心框架，以下以 **DSPy** (编译式 LLM 管道) 和 **FLARE** (主动检索增强生成) 为例进行安装。\n\n**安装 DSPy:**\n```bash\npip install dspy-ai\n```\n\n**安装 FLARE (Active Retrieval Augmented Generation):**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjzbjyb\u002FFLARE.git\ncd FLARE\npip install -r requirements.txt\n```\n\n> **提示**: 国内开发者若遇到 PyPI 下载缓慢，可使用清华源加速：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`\n\n## 基本使用\n\n本部分展示如何运行仓库中收录的两个代表性项目，体验 RAG 的核心流程。\n\n### 场景一：使用 DSPy 构建声明式 RAG 管道\nDSPy 允许通过代码声明逻辑，自动优化 Prompt 和检索策略。\n\n1.  **创建脚本** `basic_rag_dspy.py`:\n    ```python\n    import dspy\n    from dspy.evaluate import Evaluate\n    from dspy.datasets import HotPotQA\n\n    # 1. 设置 LM 和 RM (检索模型)\n    # 这里以 OpenAI 和本地 Chroma 为例，实际使用时请替换为您的 API Key 或本地模型\n    lm = dspy.OpenAI(model='gpt-3.5-turbo')\n    rm = dspy.ColBERTv2(url='http:\u002F\u002F20.102.90.50:2017\u002Fwiki17_abstracts')\n\n    dspy.settings.configure(lm=lm, rm=rm)\n\n    # 2. 定义签名 (Signature)\n    class GenerateAnswer(dspy.Signature):\n        \"\"\"Answer questions with short factoid answers.\"\"\"\n        context = dspy.InputField(desc=\"may contain relevant facts\")\n        question = dspy.InputField()\n        answer = dspy.OutputField(desc=\"often between 1 and 5 words\")\n\n    # 3. 定义模块 (Module)\n    class RAG(dspy.Module):\n        def __init__(self, num_passages=3):\n            super().__init__()\n            self.retrieve = dspy.Retrieve(k=num_passages)\n            self.generate_answer = dspy.ChainOfThought(GenerateAnswer)\n        \n        def forward(self, question):\n            context = self.retrieve(question).passages\n            prediction = self.generate_answer(context=context, question=question)\n            return dspy.Prediction(context=context, answer=prediction.answer)\n\n    # 4. 简单测试\n    program = RAG()\n    question = \"What is the capital of France?\"\n    result = program(question)\n    \n    print(f\"Question: {question}\")\n    print(f\"Answer: {result.answer}\")\n    ```\n\n2.  **运行脚本**:\n    ```bash\n    python basic_rag_dspy.py\n    ```\n\n### 场景二：运行 FLARE (主动检索)\nFLARE 通过在生成过程中动态判断是否需要检索来提升准确性。\n\n1.  **进入项目目录**:\n    ```bash\n    cd FLARE\n    ```\n\n2.  **执行示例命令**:\n    根据该项目 README，通常使用如下命令启动生成任务（需预先配置好模型路径）：\n    ```bash\n    python src\u002Fgenerate.py \\\n        --model_name_or_path meta-llama\u002FLlama-2-7b-hf \\\n        --data_path data\u002Fnq-open-20_total_documents_gold_at_0.jsonl \\\n        --output_dir outputs\u002Fflare_demo\n    ```\n\n### 获取更多资源\n浏览克隆下来的仓库目录或访问原始 GitHub 页面，您可以找到更多分类资源：\n*   **Survey and Benchmark**: 查找最新的综述论文和评测基准。\n*   **RAG Embeddings**: 获取如 `Jina Embeddings 2` 等高性能向量模型链接。\n*   **Books**: 参考《Build an Advanced RAG Application (From Scratch)》等书籍进行系统学习。","某金融科技公司研发团队正致力于构建一套高精度的内部合规问答系统，需要利用大模型结合企业私有文档进行检索增强生成（RAG）。\n\n### 没有 Awesome-LLM-RAG 时\n- **技术选型迷茫**：面对海量且分散的 RAG 论文，团队难以快速甄别哪些是真正经过验证的先进方案，导致在基础架构设计上反复试错。\n- **关键模块缺失**：在处理长文本记忆和复杂推理场景时，因缺乏针对性的嵌入（Embedding）优化策略和模拟器资源，系统频繁出现“幻觉”或遗漏关键条款。\n- **评估标准模糊**：缺少权威的基准测试（Benchmark）和评估框架，团队无法量化回答的准确率，只能凭主观感觉调整参数，上线风险极高。\n- **学习成本高昂**：开发人员需花费数周时间手动搜集教程、书籍和工作坊资料，严重拖慢了从原型验证到产品落地的进度。\n\n### 使用 Awesome-LLM-RAG 后\n- **精准锁定前沿**：团队直接通过分类列表找到了\"RAG Long-text and Memory\"及\"RAG Optimization\"领域的顶会论文，迅速确立了基于最新算法的技术路线。\n- **补齐能力短板**：利用库中推荐的专用 RAG 模拟器和高级嵌入模型，成功解决了长文档上下文丢失问题，显著提升了合规条款引用的准确性。\n- **建立科学评估**：引入收录的标准化评估工具和基准数据集，实现了系统性能的量化监控，确保回答可信度达到金融级要求。\n- **加速研发闭环**：依托整理好的实战教程、书籍及工作坊资源，团队成员在一周内完成了从理论调研到核心代码实现的跨越。\n\nAwesome-LLM-RAG 将原本分散杂乱的学术资源转化为结构化的工程指南，帮助团队在复杂的 RAG 技术浪潮中快速找到最优解，大幅降低了研发门槛与时间成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjxzhangjhu_Awesome-LLM-RAG_14a9f3f4.png","jxzhangjhu","Jiaxin Zhang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjxzhangjhu_e678d6db.png","AI Researcher ",null,"Mountain View","jxzhangai@gmail.com","https:\u002F\u002Fgithub.com\u002Fjxzhangjhu",1321,77,"2026-04-13T18:16:07",1,"","未说明",{"notes":87,"python":85,"dependencies":88},"该仓库（Awesome-LLM-RAG）是一个 curated list（精选列表），主要用于收录和整理关于检索增强生成（RAG）的论文、书籍、研讨会教程及相关开源项目链接。它本身不是一个可执行的软件工具或代码库，因此不包含具体的运行环境需求（如操作系统、GPU、内存、Python 版本或依赖库）。用户若需运行列表中提到的具体论文代码（如 FLARE, Self-RAG, DSPy 等），需前往各子项目的独立仓库查看其特定的安装说明。",[],[35,90,14],"其他",[92,93,94,95,96,97,98],"embeddings","large-language-models","llm","rag","retrieval-augmented-generation","retrieval-information","rag-embeddings","2026-03-27T02:49:30.150509","2026-04-14T15:33:25.974508",[],[]]