Awesome-KV-Cache-Compression

GitHub
679 23 非常简单 1 次阅读 4天前MIT语言模型
AI 解读 由 AI 自动生成,仅供参考

Awesome-KV-Cache-Compression 是一份持续更新的“知识地图”,专门收集大模型推理时最头疼的 KV 缓存压缩技术。它把论文、开源实现和综述一网打尽,帮你快速找到“怎样让长文本推理既省显存又不掉精度”的答案。

面对动辄几十 GB 的 KV 缓存,这份清单整理了剪枝、稀疏化、量化、重计算等主流思路,并给出可直接跑的代码仓库(如 NVIDIA 的 kvpress、KVCache-Factory),让你不用从零造轮子。

适合正在做 LLM 部署、优化或研究的开发者、算法工程师与学术人员;如果你只是想了解大模型如何“省内存”,也能在这里找到通俗综述与一键直达的 PDF。

亮点在于“实时更新”与“一站式”:新论文出现即收录,所有链接点标题就能跳原文,省去四处检索的烦恼。

使用场景

一家 8 人 AI 创业团队正在把 70B 参数的 Llama-3 部署到 4 张 A100 上,做面向 10 万日活用户的智能客服 SaaS。

没有 Awesome-KV-Cache-Compression 时

  • 显存吃紧:单条 4k token 对话 KV Cache 占 3.2 GB,4 卡只能并发 12 条请求,高峰期排队 30 秒以上。
  • 盲目试错:团队零散地搜论文、跑实验,两周才试完 H2O 一种方法,结果压缩率 30 % 仍不达标。
  • 工程踩坑:把 SnapKV 集成到 transformers 时接口对不上,调试 3 天才发现版本冲突。
  • 成本飙升:为了撑住并发,临时又租 4 张 A100,月账单多出 1.2 万美元。

使用 Awesome-KV-Cache-Compression 后

  • 显存释放:照着仓库里的 kvpress 脚本,10 分钟跑通 PyramidInfer,KV Cache 降到 0.8 GB,并发提升到 48 条,排队时间 < 2 秒。
  • 快速选型:阅读仓库整理的对比表,30 分钟锁定 Scissorhands + SnapKV 组合,压缩率 75 %,BLEU 只掉 1.3。
  • 零踩坑:直接复制仓库提供的 transformers patch,一行命令安装依赖,当天上线灰度。
  • 成本腰斩:无需加卡,4 张 A100 轻松扛住峰值,月租费回到 6 千美元。

核心价值:Awesome-KV-Cache-Compression 把压缩方案的调研、验证和落地时间从“周”压缩到“小时”,让中小团队也能低成本跑大模型。

运行环境要求

操作系统
  • Linux
GPU

需要 NVIDIA GPU,显存 8GB+,CUDA 11.7+

内存

未说明

依赖
notes该仓库为 Awesome 列表,本身不直接运行代码;所列项目(如 kvpress、KVCache-Factory 等)需各自查看对应仓库的运行环境说明。
python未说明
transformers
torch
Awesome-KV-Cache-Compression hero image

快速开始

LICENSE Awesome commit PR GitHub Repo stars

📢 新闻

🎉 [2024-07-23] 项目启动 🥳

📜 通知

本仓库持续更新中 🤗 ...

您可以直接点击标题跳转至对应的PDF链接位置

⚙️ 项目

  1. kvpress. NVIDIA. GitHub Repo stars
  • 本仓库实现了多种KV缓存剪枝方法,并使用🤗 transformers进行基准测试。
  1. KVCache-Factory. GitHub Repo stars
  • 面向自回归模型的统一KV缓存压缩方法。

📷 调查

  1. 降低成本:LLM KV缓存消耗优化方法综述。 罗世和、张洪毅、姚瑶、李祖超、赵海。 COLM 2024。GitHub Repo stars

  2. 大型语言模型的提示压缩:综述。 李宗谦、刘银红、苏一轩、奈杰尔·科利尔。 Arxiv 2024。

  3. 基于KV缓存管理的大型语言模型加速综述。 李浩洋、李一鸣、田安欣、唐天浩、徐占超、陈雪佳、妮可·胡、董伟、李青、陈磊。 Arxiv 2024。GitHub Repo stars

🔍 方法

1️⃣ 剪枝 / 驱逐 / 稀疏

  1. 剪刀手:利用重要性假设的持久性进行LLM KV缓存测试时压缩。 刘子畅、阿迪蒂亚·德赛、廖方硕、王伟涛、维克多·谢、徐兆卓、阿纳斯塔西奥斯·基里利迪斯、安舒马利·施里瓦斯塔瓦。 NeurIPS 2023。

  2. SnapKV:LLM在生成前就知道你在找什么。 李宇鸿、黄英兵、杨博文、巴拉特·文基特什、阿西尔·洛卡泰利、叶汉晨、蔡天乐、帕特里克·刘易斯、陈德明。 Arxiv 2024。GitHub Repo stars

  3. H2O:用于高效生成式推理的大型语言模型重击者Oracle。 张振宇、盛颖、周天义、陈天龙、郑连敏、蔡瑞思、宋赵、田远东、克里斯托弗·雷、克拉克·巴雷特、王张阳、陈贝蒂。 NeurIPS 2023。GitHub Repo stars

  4. 模型告诉你该丢弃什么:LLM的自适应KV缓存压缩。 葛素玉、张云楠、刘丽媛、张敏嘉、韩家伟、高建峰。 ICLR 2024。

  5. PyramidInfer:面向高吞吐量LLM推理的金字塔KV缓存压缩。 杨东杰、韩晓东、高燕、胡耀、张士林、赵海。 ACL 2024。GitHub Repo stars

  6. PyramidKV:基于金字塔式信息漏斗的动态KV缓存压缩。 蔡泽凡、张一驰、高博飞、刘宇梁、刘天宇、陆克明、熊韦恩、董悦、常宝宝、胡俊杰、肖文。 Arxiv 2024。GitHub Repo stars

  7. Transformer是多状态RNN。 奥伦·马塔内尔、迈克尔·哈西德、尼尔·亚登、约西·阿迪、罗伊·施瓦茨。 Arxiv 2024。GitHub Repo stars

  8. 带有注意力汇流的高效流式语言模型。 肖光轩、田远东、陈贝蒂、韩松、刘易斯。 ICLR 2024。GitHub Repo stars

  9. 一种简单而有效的基于L2范数的KV缓存压缩策略。 德沃托、赵宇、斯卡达帕内、米内尔维尼。 EMNLP 2024。GitHub Repo stars

  10. 检索头从机制上解释了长上下文的事实性。 吴文浩、王一忠、肖光轩、彭浩、傅瑶。 Arxiv 2024。GitHub Repo stars

  11. 高效的稀疏注意力需要自适应的标记释放。 张朝然、邹立新、罗丹、唐敏、罗向阳、李子豪、李晨亮。 ACL 2024。GitHub Repo stars

  12. Loki:用于高效稀疏注意力的低秩密钥。 普拉杰瓦尔·辛加尼亚、西达尔特·辛格、施怀·何、索海尔·费齐、阿比纳夫·巴特勒。 Arxiv 2024。

  13. 用更少获得更多:通过KV缓存压缩合成递归以实现高效LLM推理。 董哈利、杨心雨、张振宇、王张阳、迟月洁、陈贝蒂。 Arxiv 2024。GitHub Repo stars

  14. ALISA:通过稀疏感知的KV缓存加速大型语言模型推理。 赵友鹏、吴迪、王军。 ISCA 2024。

  15. Keyformer:通过关键令牌选择实现KV缓存缩减,以提升生成式推理效率。 穆罕默德·阿德南、阿希尔·阿伦库马尔、高拉夫·贾因、普拉桑特·J·奈尔、伊利亚·索洛维伊奇克、普鲁索塔姆·卡马斯。 Arxiv 2024年。GitHub仓库星标

  16. Ada-KV:通过自适应预算分配优化KV缓存驱逐,以提升LLM推理效率。 袁峰、吕俊林、曹宇坤、谢希科、S·凯文·周。 Arxiv 2024年。GitHub仓库星标

  17. 注意力分数并非KV缓存缩减中衡量标记重要性的唯一指标:价值同样重要。 郭志宇、上井秀隆、渡边太郎。 Arxiv 2024年。GitHub仓库星标

  18. 关于键值约束下生成式语言模型推理中驱逐策略的有效性。 任思宇、朱凯尼·Q。 Arxiv 2024年。GitHub仓库星标

  19. CORM:基于近期消息的缓存优化,用于大语言模型推理。 戴金成、黄卓伟、姜海云、陈晨、蔡登、毕伟、史淑明。 Arxiv 2024年。

  20. RazorAttention:通过检索头实现高效的KV缓存压缩。 唐汉林、林阳、林静、韩庆森、洪世宽、姚一武、王功义。 Arxiv 2024年。

  21. A2SF:在Transformer解码器中引入遗忘因子的累积注意力评分机制,用于标记剪枝。 赵贤来、申东坤。 Arxiv 2024年。GitHub仓库星标

  22. Quest:面向高效长上下文LLM推理的查询感知稀疏化。 唐家铭、赵一龙、朱侃、肖广轩、巴里斯·卡西克奇、韩松。 ICML 2024年。GitHub仓库星标

  23. LazyLLM:用于高效长上下文LLM推理的动态标记剪枝。 傅启辰、赵敏锡、托马斯·梅尔斯、萨钦·梅赫塔、穆罕默德·拉斯泰加里、马赫亚尔·纳吉比。 Arxiv 2024年。

  24. NACL:一种通用且高效的LLM推理时KV缓存驱逐框架。 陈一龙、王国霞、商俊远、崔诗瑶、张振宇、刘廷文、王硕焕、孙宇、于殿海、吴华。 ACL 2024年。GitHub仓库星标

  25. 训练后双重稀疏化的稀疏注意力。 杨硕、盛颖、约瑟夫·E·冈萨雷斯、伊翁·斯托伊卡、郑连民。 Arxiv 2024年。GitHub仓库星标

  26. 告别长度外推:有限注意力范围下的无训练无限上下文。 刘晓然、郭启鹏、宋玉荣、刘志耿、吕凯、闫航、李琳琳、刘群、邱希鹏。 Arxiv 2024年。

  27. 动态内存压缩:为LLM加速推理而进行的改造。 皮奥特尔·纳夫罗特、阿德里安·兰丘茨基、马尔钦·霍霍夫斯基、大卫·塔尔扬、爱德华多·M·蓬蒂。 ICML 2024年。

  28. MInference 1.0:通过动态稀疏注意力加速长上下文LLM的预填充。 江辉强、李宇成、张成瑞东、吴千慧、罗旭芳、安素仁、韩振华、阿米尔·H·阿卜迪、李东升、林钦佑、杨宇清、邱丽丽。 NeurIPS 2024年。GitHub仓库星标

  29. 用于高效且可解释的自回归Transformer的动态上下文剪枝。 索蒂里斯·阿纳格诺斯提迪斯、达里奥·帕夫洛、卢卡·比吉奥、洛伦佐·诺奇、奥雷利安·卢奇、托马斯·霍夫曼。 NeurIPS 2023年。

  30. RetrievalAttention:通过向量检索加速长上下文LLM推理。 刘迪、陈萌、陆宝彤、江辉强、韩振华、张千曦、陈琪、张成瑞东、丁白露、张凯、陈晨、杨凡、杨宇清、邱丽丽。 Arxiv 2024年。

  31. Sirius:用于高效LLM的上下文稀疏化与修正。 周洋、陈卓明、徐兆卓、林维多利亚、陈蓓蒂。 Arxiv 2024年。GitHub仓库星标

  32. Inf-MLLM:单GPU上多模态大语言模型的高效流式推理。 宁振宇、赵洁茹、金启浩、丁文超、郭敏怡。 Arxiv 2024年。GitHub仓库星标

  33. 大语言模型中的无训练激活稀疏化。 詹姆斯·刘、普拉加什·波努萨米、蔡天乐、郭汉、金允、本·阿提瓦拉特昆。 Arxiv 2024年。GitHub仓库星标

  34. KVPruner:用于更快速、更省存的大语言模型结构化剪枝。 吕博、周权、丁宣昂、王岩、马泽明。 Arxiv 2024年。

  35. CritiPrefill:基于分段关键性评估的LLM预填充加速方法。 吕俊林、袁峰、谢希科、贾欣、彭启荣、谢贵明。 Arxiv 2024年。

  36. 发掘早期层中的精华:通过将输入标记减少1000倍加速长上下文LLM。 石珍美、明一飞、阮宣菲、梁英宇、乔蒂·沙菲克。 Arxiv 2024年。

  37. KV-Compress:按每个注意力头采用可变压缩率的分页KV缓存压缩。 艾萨克·雷格。 Arxiv 2024年。GitHub仓库星标

  38. InfiniPot:在内存受限的LLM上实现无限上下文处理。 金敏洙、沈九鸿、崔正旭、昌思明。 EMNLP 2024年。

  39. Locret:通过训练好的保留头增强长上下文大语言模型推理中的逐出机制。 黄宇翔、袁斌航、韩旭、肖朝军、刘知远。 Arxiv 2024年。GitHub仓库星标

  40. SparseVLM:用于高效视觉-语言模型推理的视觉标记稀疏化。 张元、范春凯、马俊鹏、郑文钊、黄涛、程宽、丹尼斯·古多夫斯基、奥久野智之、中田洋平、库尔特·科伊策、张尚航。 Arxiv 2024年。GitHub仓库星标

  41. LoCoCo:在卷积中引入丢弃以实现长上下文压缩。 蔡瑞思、田远东、王章阳、陈蓓迪。 ICML 2024年。GitHub仓库星标

  42. DuoAttention:通过检索与流式头实现高效的长上下文大语言模型推理。 肖广轩、唐嘉明、左静薇、郭俊贤、杨尚、唐浩天、傅瑶、韩松。 Arxiv 2024年。GitHub仓库星标

  43. SimLayerKV:一种用于层级KV缓存缩减的简单框架。 张璇、杜存孝、杜超、庞天宇、高伟、林敏。 Arxiv 2024年。GitHub仓库星标

  44. 基于注意力门控的LLM上下文内KV缓存逐出。 曾子豪、林博凯、侯天琪、张浩、邓志杰。 Arxiv 2024年。

  45. CacheGen:用于快速大型语言模型服务的KV缓存压缩与流式处理。 刘宇涵、李汉臣、程一华、西达特·雷、黄宇扬、张启正、杜坤泰、姚佳怡、陆珊、加内什·阿南塔纳拉亚南、迈克尔·梅尔、亨利·霍夫曼、阿里·霍尔茨曼、江俊辰。 ACM SIGCOMM 2024年。GitHub仓库星标

  46. MagicPIG:用于高效LLM生成的LSH采样。 陈卓明、萨杜坎·拉纳乔伊、叶子豪、周洋、张建宇、尼克拉斯·诺尔特、田远东、马蒂伊斯·杜泽、莱昂·博托、贾志浩、陈蓓迪。 Arxiv 2024年。GitHub仓库星标

  47. TidalDecode:利用位置持久化稀疏注意力实现快速且准确的LLM解码。 杨立杰、张志浩、陈卓夫、李子坤、贾志浩。 Arxiv 2024年。GitHub仓库星标

  48. ShadowKV:用于高吞吐量长上下文LLM推理的影子KV缓存。 孙汉石、常丽雯、鲍文蕾、郑思泽、郑宁欣、刘欣、董哈里、迟月洁、陈蓓迪。 Arxiv 2024年。GitHub仓库星标

  49. BUZZ:蜂巢结构的稀疏KV缓存结合分段重头,用于高效LLM推理。 赵俊奇、方志金、李树、杨少辉、何世超。 Arxiv 2024年。GitHub仓库星标

  50. CItruS:针对长序列建模的分块指令感知状态逐出机制。 白宇、邹希源、黄赫燕、陈三兴、马克-安托万·隆多、高阳、张杰基。 EMNLP 2024年。GitHub仓库星标

  51. TokenSelect:通过动态的标记级KV缓存选择实现LLM的高效长上下文推理与长度外推。 吴伟、潘卓石、王超、陈立义、白云初、傅坤、王政、熊辉。 Arxiv 2024年。

  52. Recycled Attention:用于长上下文语言模型的高效推理。 徐芳媛、戈雅尔·坦娅、崔恩瑟尔。 Arxiv 2024年。

  53. VL-Cache:用于加速视觉-语言模型推理的稀疏与模态感知KV缓存压缩。 涂德展、瓦什切连科·达尼洛、卢宇哲、徐盼盼。 Arxiv 2024年。

  54. Squeezed Attention:加速长上下文LLM推理。 胡珀·科尔曼、金世勋、穆罕默德扎德·希瓦、马赫斯瓦兰·莫尼什瓦兰、朴俊、迈克尔·W·马霍尼、库尔特·科伊策、阿米尔·戈拉米。 Arxiv 2024年。

  55. ArkVale:通过可召回的键值逐出实现高效的生成式LLM推理。 陈仁泽、王卓峰、曹蓓泉、吴通、郑思泽、李秀红、魏学超、严生恩、李萌、梁云。 NeurIPS 2024年。GitHub仓库星标

  56. 并非所有头都重要:一种集成检索与推理的头级KV缓存压缩方法。 傅瑶、蔡泽凡、阿贝德尔卡迪尔·阿西、韦恩·雄、董岳、肖文。 Arxiv 2024年。GitHub仓库星标

  57. [CLS] 注意力就是训练-free视觉标记修剪所需的一切:让VLM推理更快。 张启哲、程傲松、陆明、卓志勇、王敏琦、曹家俊、郭绍波、佘奇、张尚航。 Arxiv 2024年。GitHub仓库星标

  58. Fit and Prune:用于多模态大型语言模型的快速且无需训练的视觉标记修剪。 叶伟浩、吴琼、林文浩、周依依。 Arxiv 2024年。GitHub仓库星标

  59. ClusterKV:在语义空间中操控LLM KV缓存以实现可召回的压缩。 刘广达、李成伟、赵洁茹、张晨琪、郭敏仪。 Arxiv 2024年。

  60. 用LeanKV统一大型语言模型的KV缓存压缩。 张艳琪、胡宇威、赵润元、刘约翰·C.S.鲁伊、陈海波。 Arxiv 2024年。

  61. DynamicKV:面向长上下文大模型的任务感知自适应KV缓存压缩。 周侠斌、王文彬、曾敏燕、郭家贤、刘学波、沈立、张敏、丁亮。 Arxiv 2024年。

  62. SCOPE:优化长上下文生成中的键值缓存压缩。 吴家龙、王正林、张林海、赖一龙、何玉兰、周德宇。 Arxiv 2024年。GitHub仓库星标

  63. HashEvict:一种基于局部敏感哈希的预注意力KV缓存驱逐策略。 刘明辉、塔赫辛·拉巴尼、托尼·奥哈洛伦、阿南特·桑卡林加姆、玛丽-安妮·哈特利、布赖恩·格拉维尔、黄福荣、科妮莉亚·费尔穆勒、伊安尼斯·阿洛伊莫诺斯。 Arxiv 2024年。

  64. SepLLM:通过将一个片段压缩为一个分隔符来加速大语言模型。 陈国轩、史翰、李嘉伟、高逸航、任晓哲、陈怡萌、姜鑫、李振国、刘伟洋、黄超。 Arxiv 2024年。GitHub仓库星标

  65. MiniKV:通过2比特层判别式KV缓存突破大语言模型推理极限。 阿克沙特·夏尔马、丁航梁、李建平、尼尔·达尼、张敏佳。 Arxiv 2025年。

  66. FastKV:基于令牌选择性传播的快速长上下文处理KV缓存压缩。 赵东元、宋智媛、金玉花、金在俊。 Arxiv 2025年。GitHub仓库星标

  67. ChunkKV:语义保持的KV缓存压缩,用于高效长上下文大语言模型推理。 刘翔、唐振恒、董培杰、李泽宇、李博、胡旭明、楚晓雯。 Arxiv 2025年。

  68. LServe:基于统一稀疏注意力的高效长序列大语言模型服务。 杨尚、郭俊贤、唐浩天、胡庆浩、肖光轩、唐家铭、林宇军、刘志坚、陆瑶、韩松。 MLSys 2025年。GitHub仓库星标

  69. RocketKV:通过两阶段KV缓存压缩加速长上下文大语言模型推理。 贝赫纳姆·帕伊曼、傅耀生、赵 Ritchie、蔡博安、于志鼎、阿列克谢·图马诺夫。 Arxiv 2025年。

  70. Dynamic-LLaVA:通过动态视觉—语言上下文稀疏化实现高效的多模态大语言模型。 黄文轩、翟子杰、沈云航、曹少胜、赵飞、徐向峰、叶哲宇、林绍辉。 ICLR 2025年。GitHub仓库星标

  71. DBudgetKV:在KV缓存压缩中动态预算以确保最佳性能。 倪宣凡、徐丽艳、吕晨阳、王龙悦、余墨、刘乐茂、孟凡东、周洁、李皮吉。 Arxiv 2025年。

  72. 无限制对话:用于大语言模型扩展回复的恒定大小KV缓存。 拉维·加迪亚、阿维纳什·库马尔、高拉夫·贾因、普拉桑特·奈尔、保拉米·达斯。 ICML 2025年。GitHub仓库星标

  73. MEDA:用于高效多模态长上下文推理的动态KV缓存分配。 万中伟、沈慧、王欣、刘彻、麦哲达、张密。 NAACL 2025年。GitHub仓库星标

  74. KVCrush:利用头部行为相似性进行键值缓存尺寸缩减。 戈皮·克里希纳·贾、萨梅赫·戈布里埃尔、柳博芙·塔拉马诺娃、亚历山大·科兹洛夫、尼莱什·贾因。 Arxiv 2025年。

  75. 大语言模型知道该舍弃什么:自注意力引导的KV缓存驱逐以实现高效长上下文推理。 王广涛、舒邦吉·乌帕萨尼、吴辰、达尔尚·甘地、乔纳森·李、胡昌然、李博、乌尔米什·塔克尔。 ICLR 2025年。

  76. SpeCache:用于大语言模型高效生成的推测性键值缓存。 解世博、唐业辉、韩凯、邓志宏、韩静。 Arxiv 2025年。

  77. KV-Distill:近乎无损可学习的大语言模型上下文压缩。 维韦克·查里、秦广辉、本杰明·范·杜尔姆。 Arxiv 2025年。GitHub仓库星标

  78. SentenceKV:通过句子级语义KV缓存实现高效大语言模型推理。 朱宇轩、法拉哈蒂·阿里、杨大卫、穆罕默德·穆罕默迪·阿米里。 Arxiv 2025年。

  79. 稀疏前沿:Transformer大语言模型中的稀疏注意力权衡。 皮奥特尔·纳夫罗特、罗伯特·李、黄仁杰、塞巴斯蒂安·鲁德尔、凯莉·马尔基西奥、爱德华多·M·蓬蒂。 Arxiv 2025年。

  80. FreqKV:用于高效扩展上下文窗口的频域键值压缩。 凯居士、曾博艺、王一轩、白浩利、江波、林周涵。 Arxiv 2025年。

  81. Mustafar:促进非结构化稀疏性以用于大语言模型推理中的KV缓存修剪。 朱东贤、霍赛莉·侯赛尼、拉米亚德·哈迪迪、巴哈尔·阿斯加里。 Arxiv 2025年。GitHub仓库星标

  82. CAKE:基于层级偏好的级联与自适应KV缓存驱逐。 秦子然、曹雨晨、林明宝、胡文、范世轩、程科、林伟尧、李建国。 ICLR 2025年。GitHub仓库星标

  83. R-KV:面向无需训练的推理模型加速的冗余感知KV缓存压缩。 蔡泽凡、肖文、孙汉诗、罗成、张易凯、万科、李宇成、周业扬、常立文、顾久祥、董震、阿尼玛·阿南德库马尔、阿贝德尔卡迪尔·阿西、胡俊杰。 Arxiv 2025年。GitHub仓库星标

  84. KVzip:不依赖查询的上下文重建KV缓存压缩。 金章贤、金珍淑、权相佑、李在W、尹相斗、宋贤欧。 Arxiv 2025年。GitHub仓库星标

  85. 同质密钥、异质值:利用局部KV缓存的不对称性提升长上下文LLM的推理效率。 崔万云、徐明伟. Arxiv 2025年。

  86. AhaKV:自适应的整体注意力驱动KV缓存驱逐策略,用于高效推理大型语言模型。 顾一峰、蒋子聪、金建秀、郭凯玲、张子阳、徐向敏. Arxiv 2025年。

  87. 基于KV缓存压缩的推理时超尺度扩展。 阿德里安·兰丘茨基、孔拉德·斯塔尼舍夫斯基、皮奥特尔·纳夫罗特、爱德华多·M·蓬蒂. Arxiv 2025年。

  88. InfiniPot-V:面向流式视频理解的内存受限KV缓存压缩。 金民洙、沈奎洪、崔正旭、张思明. Arxiv 2025年。

  89. “Cache Me If You Can”:有效长上下文LLM需要多少个KV? 阿迪提亚·巴斯卡尔、亚历山大·韦蒂格、高天宇、董艺赫、陈丹琪. Arxiv 2025年。GitHub仓库星标

  90. Compactor:基于近似杠杆分数的校准型查询无关KV缓存压缩。 维韦克·查里、本杰明·范杜尔姆. Arxiv 2025年。

  91. LaCache:用于高效长上下文建模的梯级式KV缓存策略,适用于大型语言模型。 史大川、傅永干、袁向驰、于中志、游浩然、李思旭、董欣、扬·考茨、帕夫洛·莫尔恰诺夫、林英燕(塞琳). ICML 2025年。GitHub仓库星标

  92. EvolKV:用于LLM推理的进化式KV缓存压缩。 余博涵、柴业坤. Arxiv 2025年。

  93. LAVa:基于动态预算分配的分层KV缓存驱逐策略。 沈怡群、袁松、张正泽、王小亮、姜大鑫、阮甘图. Arxiv 2025年。GitHub仓库星标

  94. KeyDiff:基于密钥相似性的KV缓存驱逐策略,适用于资源受限环境下的长上下文LLM推理。 朴俊荣、达尔顿·琼斯、马修·J·莫尔斯、拉加夫·戈埃尔、李民九、克里斯·洛特. NeurIPS 2025年。

  95. CAOTE:基于注意力输出误差的标记驱逐策略,用于LLM的KV缓存选择。 拉加夫·戈埃尔、朴俊荣、穆库尔·加格拉尼、达尔顿·琼斯、马修·莫尔斯、哈珀·兰斯顿、李民九、克里斯·洛特. Arxiv 2025年。

3️⃣ 跨层

  1. 仅缓存一次:面向语言模型的解码器—解码器架构。 孙宇涛、董立、朱毅、黄少涵、王文辉、马树明、张全路、王建勇、魏福如。 NeurIPS 2024。GitHub 仓库星标

  2. 利用跨层注意力减少 Transformer 的键值缓存大小。 威廉·布兰登、马扬克·米什拉、阿尼鲁达·恩鲁西姆哈、拉梅斯瓦尔·潘达、乔纳森·拉根·凯利。 Arxiv 2024。

  3. 用于高效推理大型语言模型的层压缩键值缓存。 吴浩义、涂可伟。 ACL 2024。GitHub 仓库星标

  4. MiniCache:针对大型语言模型的深度维度键值缓存压缩。 刘阿基德、刘晶、潘子正、何业飞、戈拉姆雷扎·哈法里、庄博涵。 Arxiv 2024。GitHub 仓库星标

  5. MLKV:用于内存高效 Transformer 解码的多层键值头。 扎伊德·穆罕默德·卡瓦基比·祖赫里、穆罕默德·法里德·阿迪拉祖尔达、阿尤·普尔维安蒂、阿尔哈姆·菲克里·阿吉。 Arxiv 2024。GitHub 仓库星标

  6. 关于跨层键值共享以实现高效 LLM 推理的系统性研究。 吴优、吴浩义、涂可伟。 Arxiv 2024。

  7. KVSharer:通过逐层异构键值缓存共享实现高效推理。 杨一飞、曹邹英、陈奇光、秦立波、杨东杰、赵海、陈志。 Arxiv 2024。GitHub 仓库星标

  8. SwiftKV:基于知识保持的模型转换实现快速预填充优化推理。 奥里克·乔、姚哲伟、萨米亚姆·拉吉班达里、何宇雄。 Arxiv 2024。GitHub 仓库星标

  9. 利用层间注意力相似性压缩键值缓存以支持长上下文 LLM 推理。 马达、陈陆、张思拓、苗宇迅、朱苏、陈志、徐洪深、李汉琪、范帅、潘磊、于凯。 Arxiv 2024。

4️⃣ 低秩

  1. 快速 Transformer 解码:只需一个写头即可。 诺姆·沙泽尔。 Arxiv 2019。

  2. GQA:从多头检查点训练通用多查询 Transformer 模型。 乔舒亚·艾恩斯利、詹姆斯·李-索普、米希尔·德·容、尤里·泽姆良斯基、费德里科·莱布隆、苏米特·桑盖。 EMNLP 2023。

  3. DeepSeek-V2:一款强大、经济且高效的专家混合语言模型。 DeepSeek-AI。 Arxiv 2024。GitHub 仓库星标

  4. 有效压缩 LLM 的键值头。 于浩、杨泽兰、李申、李勇、吴建新。 Arxiv 2024。

  5. Palu:利用低秩投影压缩键值缓存。 张志智、王旷、刘丽媛、王硕航、程浩、张超、沈叶龙。 Arxiv 2024。GitHub 仓库星标

  6. LoRC:采用渐进式压缩策略的 LLM 键值缓存低秩压缩。 张荣志、王旷、刘丽媛、王硕航、程浩、张超、沈叶龙。 Arxiv 2024。

  7. 张量积注意力就是你需要的一切。 张一凡、刘一峰、袁慧卓、秦振、袁阳、顾全全、姚昌昌。 Arxiv 2025。GitHub 仓库星标

  8. ThinK:通过查询驱动的剪枝实现更薄的键值缓存。 徐宇辉、揭展明、董汉泽、王磊、卢旭东、周傲俊、萨哈·阿姆丽塔、熊才明、萨胡·多延。 Arxiv 2024。GitHub 仓库星标

  9. 超越同质注意力:通过傅里叶近似键值缓存实现内存高效的 LLM。 刘晓然、何思洋、王奇奇、李瑞晓、宋玉蓉、刘志耿、李林林、刘群、黄增峰、郭启鹏、何子威、邱希鹏。 Arxiv 2025。

  10. OjaKV:基于 Oja 规则的上下文感知在线低秩键值缓存压缩。 朱宇轩、杨大卫、穆罕默德·莫哈马迪·阿米里、基尔提拉姆·穆鲁格桑、特贾斯维尼·佩达帕蒂、陈品宇。 Arxiv 2025。

5️⃣ 量化

  1. ZipCache:基于显著标记识别的精准高效KV缓存量化。 何叶飞、张洛明、吴伟佳、刘静、周红、庄博涵. Arxiv 2024。

  2. 一个标记也不落下:基于重要性感知的混合精度量化实现可靠的KV缓存压缩。 杨俊勇、金炳旭、裴正仁、权范锡、朴根浩、杨恩浩、权世荣、李东洙. Arxiv 2024。

  3. KIVI:无需调优的KV缓存非对称2位量化。 刘子睿、袁嘉怡、金洪烨、钟绍辰、徐兆卓、弗拉基米尔·布拉韦尔曼、陈蓓迪、胡霞. ICML 2024。GitHub仓库星标

  4. GEAR:面向大语言模型生成式推理的近无损KV缓存高效压缩方案。 康浩、张庆如、苏维克·昆杜、郑建华、刘兆兴、图沙尔·克里希纳、赵拓. Arxiv 2024。GitHub仓库星标

  5. PQCache:基于乘积量化的大规模上下文LLM推理KV缓存。 张海林、季晓东、陈一琳、傅方成、苗旭鹏、聂晓楠、陈伟鹏、崔斌. Arxiv 2024。

  6. 利用矩阵分解解锁无数据低比特量化,用于KV缓存压缩。 刘培宇、高泽峰、赵wayne鑫、马一鹏、王涛、温继荣. Arxiv 2024。

  7. SKVQ:面向大语言模型的滑动窗口键值缓存量化。 段木浩杰、袁志航、李秀红、段江飞、张兴成、林大华. Arxiv 2024。GitHub仓库星标

  8. QAQ:面向LLM KV缓存的质量自适应量化。 董诗晨、程文、秦家玉、王伟. Arxiv 2024。GitHub仓库星标

  9. KVQuant:迈向1000万上下文长度的LLM推理,借助KV缓存量化。 霍珀·科尔曼、金世勋、穆罕默德扎德·希瓦、迈克尔·W·马霍尼、邵雅坤·索菲娅、库尔特·凯茨尔、阿米尔·戈拉米. NeurIPS 2024。GitHub仓库星标

  10. WKVQuant:为大语言模型量身定制的权重与键值缓存量化,效果更佳。 岳雨轩、袁志航、段木浩杰、周思凡、吴建龙、聂立强. Arxiv 2024。

  11. KVTuner:基于敏感度感知的逐层混合精度KV缓存量化,实现高效且近乎无损的LLM推理。 李星、邢泽宇、李一鸣、曲林平、甄慧玲、刘武龙、姚一武、潘信诺·贾林、袁明轩. ICML 2025。GitHub仓库星标

  12. 即插即用的1.x位KV缓存量化,适用于视频大语言模型。 陶科达、游浩轩、隋阳、秦灿、王欢. Arxiv 2025。GitHub仓库星标

  13. BitDecoding:解锁张量核心,以低比特KV缓存支持长上下文LLM解码。 杜大友、曹士杰、程建义、曹婷、杨茂. Arxiv 2025。GitHub仓库星标

  14. TaDA:无需训练的自适应KV缓存压缩与均值中心化解码方案。 乔希·维奈、布拉赫玛·普拉蒂克·普拉班詹、刘子诚、埃马德·巴尔苏姆。ACL 2025产业赛道。

  15. TailorKV:通过定制化KV缓存优化实现长上下文推理的混合框架。 姚鼎宇、沈博文、林正、刘伟、栾健、王斌、王伟平. ACL 2025。GitHub仓库星标

  16. CommVQ:用于KV缓存压缩的交换向量量化。 李俊燕、张洋、穆罕默德·尤素夫·哈桑、塔尔哈·查费卡尔、蔡天乐、任志乐、郭鹏升、福鲁赞·卡里姆扎德、科罗拉多·里德、王冲、甘创. ICML 2025。

6️⃣ 提示压缩

  1. LLMLingua:压缩提示以加速大语言模型推理。 姜辉强、吴千慧、林钦佑、杨玉清、邱莉莉. EMNLP 2023。GitHub仓库星标

  2. LLMLingua-2:数据蒸馏实现高效且忠实的任务无关提示压缩。 潘卓石、吴千慧、姜辉强、夏梦琳、罗旭芳、张珏、林青伟、维克托·吕勒、杨玉清、林钦佑、赵H·维姬、邱莉莉、张冬梅. ACL 2024。GitHub仓库星标

  3. LongLLMLingua:通过提示压缩加速并提升大语言模型在长上下文场景中的表现。 姜辉强、吴千慧、罗旭芳、李东生、林钦佑、杨玉清、邱莉莉. ACL 2024。GitHub仓库星标

  4. TACO-RL:基于强化学习的任务感知提示压缩优化。 尚迪姆·桑迪利亚、夏梦琳、苏普里约·戈什、姜辉强、张珏、吴千慧、维克托·吕勒. Arxiv 2024。

  5. ICPC:上下文内提示压缩,加速推理。 于子洋、刘宇宇. Arxiv 2025。

  6. 无需多层感知机的更好提示压缩。 爱德华多·霍尼格、安德鲁·利萨拉加、张子君·弗兰克、吴颖年. Arxiv 2025。

7️⃣ 复用

  1. KVLink:通过高效KV缓存复用加速大语言模型。 杨景波、侯百儒、魏巍、鲍宇佳、常诗雨. Arxiv 2025。GitHub仓库星标

8️⃣ 非自回归

  1. dKV-Cache:扩散语言模型的缓存机制。 马欣欣、于润鹏、方功凡、王新超。 Arxiv 2025年。GitHub 仓库星标

  2. dLLM-Cache:通过自适应缓存加速扩散大型语言模型。 刘志远、杨一村、张耀杰、陈俊杰、邹畅、魏青岩、王少波、张林峰。 Arxiv 2025年。GitHub 仓库星标

  3. Fast-dLLM:通过启用KV缓存与并行解码实现无需训练的扩散型LLM加速。 吴成悦、张浩、薛淑晨、刘志坚、刁世哲、朱立根、罗平、韩松、谢恩泽。 Arxiv 2025年。GitHub 仓库星标

📊 评估

  1. KV缓存压缩,但我们需要付出什么代价?长上下文能力方法的全面基准测试。 袁嘉怡、刘鸿毅、钟绍辰(Henry)·仲、庄宇能、李松晨、王冠楚、黎杜、金洪烨、维平·乔杜里、徐兆卓、刘子睿、胡霞。 EMNLP 2024年。GitHub 仓库星标

  2. SCBench:以KV缓存为中心的长上下文方法分析。 李宇成、江慧强、吴千慧、罗旭芳、安叙仁、张成瑞东、阿米尔·H·阿卜迪、李东升、高建峰、杨玉清、邱莉莉。 Arxiv 2024年。GitHub 仓库星标

  3. 更多token,更低精度:迈向KV缓存压缩中的最优token-精度权衡。 张洁斌、朱大伟、宋一帆、吴文浩、匡楚桥、李晓光、尚立峰、刘群、李苏健。 Arxiv 2024年。GitHub 仓库星标

  4. 重新思考用于大型语言模型服务的键值缓存压缩技术。 高伟、周欣宇、孙鹏、张天威、温永刚。 Arxiv 2025年。GitHub 仓库星标

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架