Awesome-KV-Cache-Compression
Awesome-KV-Cache-Compression 是一份持续更新的“知识地图”,专门收集大模型推理时最头疼的 KV 缓存压缩技术。它把论文、开源实现和综述一网打尽,帮你快速找到“怎样让长文本推理既省显存又不掉精度”的答案。
面对动辄几十 GB 的 KV 缓存,这份清单整理了剪枝、稀疏化、量化、重计算等主流思路,并给出可直接跑的代码仓库(如 NVIDIA 的 kvpress、KVCache-Factory),让你不用从零造轮子。
适合正在做 LLM 部署、优化或研究的开发者、算法工程师与学术人员;如果你只是想了解大模型如何“省内存”,也能在这里找到通俗综述与一键直达的 PDF。
亮点在于“实时更新”与“一站式”:新论文出现即收录,所有链接点标题就能跳原文,省去四处检索的烦恼。
使用场景
一家 8 人 AI 创业团队正在把 70B 参数的 Llama-3 部署到 4 张 A100 上,做面向 10 万日活用户的智能客服 SaaS。
没有 Awesome-KV-Cache-Compression 时
- 显存吃紧:单条 4k token 对话 KV Cache 占 3.2 GB,4 卡只能并发 12 条请求,高峰期排队 30 秒以上。
- 盲目试错:团队零散地搜论文、跑实验,两周才试完 H2O 一种方法,结果压缩率 30 % 仍不达标。
- 工程踩坑:把 SnapKV 集成到 transformers 时接口对不上,调试 3 天才发现版本冲突。
- 成本飙升:为了撑住并发,临时又租 4 张 A100,月账单多出 1.2 万美元。
使用 Awesome-KV-Cache-Compression 后
- 显存释放:照着仓库里的 kvpress 脚本,10 分钟跑通 PyramidInfer,KV Cache 降到 0.8 GB,并发提升到 48 条,排队时间 < 2 秒。
- 快速选型:阅读仓库整理的对比表,30 分钟锁定 Scissorhands + SnapKV 组合,压缩率 75 %,BLEU 只掉 1.3。
- 零踩坑:直接复制仓库提供的 transformers patch,一行命令安装依赖,当天上线灰度。
- 成本腰斩:无需加卡,4 张 A100 轻松扛住峰值,月租费回到 6 千美元。
核心价值:Awesome-KV-Cache-Compression 把压缩方案的调研、验证和落地时间从“周”压缩到“小时”,让中小团队也能低成本跑大模型。
运行环境要求
- Linux
需要 NVIDIA GPU,显存 8GB+,CUDA 11.7+
未说明

快速开始
📢 新闻
🎉 [2024-07-23] 项目启动 🥳
📜 通知
本仓库持续更新中 🤗 ...
您可以直接点击标题跳转至对应的PDF链接位置
⚙️ 项目
- kvpress. NVIDIA.
- 本仓库实现了多种KV缓存剪枝方法,并使用🤗 transformers进行基准测试。
- 面向自回归模型的统一KV缓存压缩方法。
📷 调查
降低成本:LLM KV缓存消耗优化方法综述。 罗世和、张洪毅、姚瑶、李祖超、赵海。 COLM 2024。
大型语言模型的提示压缩:综述。 李宗谦、刘银红、苏一轩、奈杰尔·科利尔。 Arxiv 2024。
基于KV缓存管理的大型语言模型加速综述。 李浩洋、李一鸣、田安欣、唐天浩、徐占超、陈雪佳、妮可·胡、董伟、李青、陈磊。 Arxiv 2024。
🔍 方法
1️⃣ 剪枝 / 驱逐 / 稀疏
剪刀手:利用重要性假设的持久性进行LLM KV缓存测试时压缩。 刘子畅、阿迪蒂亚·德赛、廖方硕、王伟涛、维克多·谢、徐兆卓、阿纳斯塔西奥斯·基里利迪斯、安舒马利·施里瓦斯塔瓦。 NeurIPS 2023。
SnapKV:LLM在生成前就知道你在找什么。 李宇鸿、黄英兵、杨博文、巴拉特·文基特什、阿西尔·洛卡泰利、叶汉晨、蔡天乐、帕特里克·刘易斯、陈德明。 Arxiv 2024。
H2O:用于高效生成式推理的大型语言模型重击者Oracle。 张振宇、盛颖、周天义、陈天龙、郑连敏、蔡瑞思、宋赵、田远东、克里斯托弗·雷、克拉克·巴雷特、王张阳、陈贝蒂。 NeurIPS 2023。
模型告诉你该丢弃什么:LLM的自适应KV缓存压缩。 葛素玉、张云楠、刘丽媛、张敏嘉、韩家伟、高建峰。 ICLR 2024。
PyramidInfer:面向高吞吐量LLM推理的金字塔KV缓存压缩。 杨东杰、韩晓东、高燕、胡耀、张士林、赵海。 ACL 2024。
PyramidKV:基于金字塔式信息漏斗的动态KV缓存压缩。 蔡泽凡、张一驰、高博飞、刘宇梁、刘天宇、陆克明、熊韦恩、董悦、常宝宝、胡俊杰、肖文。 Arxiv 2024。
Transformer是多状态RNN。 奥伦·马塔内尔、迈克尔·哈西德、尼尔·亚登、约西·阿迪、罗伊·施瓦茨。 Arxiv 2024。
带有注意力汇流的高效流式语言模型。 肖光轩、田远东、陈贝蒂、韩松、刘易斯。 ICLR 2024。
一种简单而有效的基于L2范数的KV缓存压缩策略。 德沃托、赵宇、斯卡达帕内、米内尔维尼。 EMNLP 2024。
检索头从机制上解释了长上下文的事实性。 吴文浩、王一忠、肖光轩、彭浩、傅瑶。 Arxiv 2024。
高效的稀疏注意力需要自适应的标记释放。 张朝然、邹立新、罗丹、唐敏、罗向阳、李子豪、李晨亮。 ACL 2024。
Loki:用于高效稀疏注意力的低秩密钥。 普拉杰瓦尔·辛加尼亚、西达尔特·辛格、施怀·何、索海尔·费齐、阿比纳夫·巴特勒。 Arxiv 2024。
用更少获得更多:通过KV缓存压缩合成递归以实现高效LLM推理。 董哈利、杨心雨、张振宇、王张阳、迟月洁、陈贝蒂。 Arxiv 2024。
ALISA:通过稀疏感知的KV缓存加速大型语言模型推理。 赵友鹏、吴迪、王军。 ISCA 2024。
Keyformer:通过关键令牌选择实现KV缓存缩减,以提升生成式推理效率。 穆罕默德·阿德南、阿希尔·阿伦库马尔、高拉夫·贾因、普拉桑特·J·奈尔、伊利亚·索洛维伊奇克、普鲁索塔姆·卡马斯。 Arxiv 2024年。
Ada-KV:通过自适应预算分配优化KV缓存驱逐,以提升LLM推理效率。 袁峰、吕俊林、曹宇坤、谢希科、S·凯文·周。 Arxiv 2024年。
注意力分数并非KV缓存缩减中衡量标记重要性的唯一指标:价值同样重要。 郭志宇、上井秀隆、渡边太郎。 Arxiv 2024年。
关于键值约束下生成式语言模型推理中驱逐策略的有效性。 任思宇、朱凯尼·Q。 Arxiv 2024年。
CORM:基于近期消息的缓存优化,用于大语言模型推理。 戴金成、黄卓伟、姜海云、陈晨、蔡登、毕伟、史淑明。 Arxiv 2024年。
RazorAttention:通过检索头实现高效的KV缓存压缩。 唐汉林、林阳、林静、韩庆森、洪世宽、姚一武、王功义。 Arxiv 2024年。
A2SF:在Transformer解码器中引入遗忘因子的累积注意力评分机制,用于标记剪枝。 赵贤来、申东坤。 Arxiv 2024年。
Quest:面向高效长上下文LLM推理的查询感知稀疏化。 唐家铭、赵一龙、朱侃、肖广轩、巴里斯·卡西克奇、韩松。 ICML 2024年。
LazyLLM:用于高效长上下文LLM推理的动态标记剪枝。 傅启辰、赵敏锡、托马斯·梅尔斯、萨钦·梅赫塔、穆罕默德·拉斯泰加里、马赫亚尔·纳吉比。 Arxiv 2024年。
NACL:一种通用且高效的LLM推理时KV缓存驱逐框架。 陈一龙、王国霞、商俊远、崔诗瑶、张振宇、刘廷文、王硕焕、孙宇、于殿海、吴华。 ACL 2024年。
训练后双重稀疏化的稀疏注意力。 杨硕、盛颖、约瑟夫·E·冈萨雷斯、伊翁·斯托伊卡、郑连民。 Arxiv 2024年。
告别长度外推:有限注意力范围下的无训练无限上下文。 刘晓然、郭启鹏、宋玉荣、刘志耿、吕凯、闫航、李琳琳、刘群、邱希鹏。 Arxiv 2024年。
动态内存压缩:为LLM加速推理而进行的改造。 皮奥特尔·纳夫罗特、阿德里安·兰丘茨基、马尔钦·霍霍夫斯基、大卫·塔尔扬、爱德华多·M·蓬蒂。 ICML 2024年。
MInference 1.0:通过动态稀疏注意力加速长上下文LLM的预填充。 江辉强、李宇成、张成瑞东、吴千慧、罗旭芳、安素仁、韩振华、阿米尔·H·阿卜迪、李东升、林钦佑、杨宇清、邱丽丽。 NeurIPS 2024年。
用于高效且可解释的自回归Transformer的动态上下文剪枝。 索蒂里斯·阿纳格诺斯提迪斯、达里奥·帕夫洛、卢卡·比吉奥、洛伦佐·诺奇、奥雷利安·卢奇、托马斯·霍夫曼。 NeurIPS 2023年。
RetrievalAttention:通过向量检索加速长上下文LLM推理。 刘迪、陈萌、陆宝彤、江辉强、韩振华、张千曦、陈琪、张成瑞东、丁白露、张凯、陈晨、杨凡、杨宇清、邱丽丽。 Arxiv 2024年。
Sirius:用于高效LLM的上下文稀疏化与修正。 周洋、陈卓明、徐兆卓、林维多利亚、陈蓓蒂。 Arxiv 2024年。
Inf-MLLM:单GPU上多模态大语言模型的高效流式推理。 宁振宇、赵洁茹、金启浩、丁文超、郭敏怡。 Arxiv 2024年。
大语言模型中的无训练激活稀疏化。 詹姆斯·刘、普拉加什·波努萨米、蔡天乐、郭汉、金允、本·阿提瓦拉特昆。 Arxiv 2024年。
KVPruner:用于更快速、更省存的大语言模型结构化剪枝。 吕博、周权、丁宣昂、王岩、马泽明。 Arxiv 2024年。
CritiPrefill:基于分段关键性评估的LLM预填充加速方法。 吕俊林、袁峰、谢希科、贾欣、彭启荣、谢贵明。 Arxiv 2024年。
发掘早期层中的精华:通过将输入标记减少1000倍加速长上下文LLM。 石珍美、明一飞、阮宣菲、梁英宇、乔蒂·沙菲克。 Arxiv 2024年。
KV-Compress:按每个注意力头采用可变压缩率的分页KV缓存压缩。 艾萨克·雷格。 Arxiv 2024年。
InfiniPot:在内存受限的LLM上实现无限上下文处理。 金敏洙、沈九鸿、崔正旭、昌思明。 EMNLP 2024年。
Locret:通过训练好的保留头增强长上下文大语言模型推理中的逐出机制。 黄宇翔、袁斌航、韩旭、肖朝军、刘知远。 Arxiv 2024年。
SparseVLM:用于高效视觉-语言模型推理的视觉标记稀疏化。 张元、范春凯、马俊鹏、郑文钊、黄涛、程宽、丹尼斯·古多夫斯基、奥久野智之、中田洋平、库尔特·科伊策、张尚航。 Arxiv 2024年。
LoCoCo:在卷积中引入丢弃以实现长上下文压缩。 蔡瑞思、田远东、王章阳、陈蓓迪。 ICML 2024年。
DuoAttention:通过检索与流式头实现高效的长上下文大语言模型推理。 肖广轩、唐嘉明、左静薇、郭俊贤、杨尚、唐浩天、傅瑶、韩松。 Arxiv 2024年。
SimLayerKV:一种用于层级KV缓存缩减的简单框架。 张璇、杜存孝、杜超、庞天宇、高伟、林敏。 Arxiv 2024年。
基于注意力门控的LLM上下文内KV缓存逐出。 曾子豪、林博凯、侯天琪、张浩、邓志杰。 Arxiv 2024年。
CacheGen:用于快速大型语言模型服务的KV缓存压缩与流式处理。 刘宇涵、李汉臣、程一华、西达特·雷、黄宇扬、张启正、杜坤泰、姚佳怡、陆珊、加内什·阿南塔纳拉亚南、迈克尔·梅尔、亨利·霍夫曼、阿里·霍尔茨曼、江俊辰。 ACM SIGCOMM 2024年。
MagicPIG:用于高效LLM生成的LSH采样。 陈卓明、萨杜坎·拉纳乔伊、叶子豪、周洋、张建宇、尼克拉斯·诺尔特、田远东、马蒂伊斯·杜泽、莱昂·博托、贾志浩、陈蓓迪。 Arxiv 2024年。
TidalDecode:利用位置持久化稀疏注意力实现快速且准确的LLM解码。 杨立杰、张志浩、陈卓夫、李子坤、贾志浩。 Arxiv 2024年。
ShadowKV:用于高吞吐量长上下文LLM推理的影子KV缓存。 孙汉石、常丽雯、鲍文蕾、郑思泽、郑宁欣、刘欣、董哈里、迟月洁、陈蓓迪。 Arxiv 2024年。
BUZZ:蜂巢结构的稀疏KV缓存结合分段重头,用于高效LLM推理。 赵俊奇、方志金、李树、杨少辉、何世超。 Arxiv 2024年。
CItruS:针对长序列建模的分块指令感知状态逐出机制。 白宇、邹希源、黄赫燕、陈三兴、马克-安托万·隆多、高阳、张杰基。 EMNLP 2024年。
TokenSelect:通过动态的标记级KV缓存选择实现LLM的高效长上下文推理与长度外推。 吴伟、潘卓石、王超、陈立义、白云初、傅坤、王政、熊辉。 Arxiv 2024年。
Recycled Attention:用于长上下文语言模型的高效推理。 徐芳媛、戈雅尔·坦娅、崔恩瑟尔。 Arxiv 2024年。
VL-Cache:用于加速视觉-语言模型推理的稀疏与模态感知KV缓存压缩。 涂德展、瓦什切连科·达尼洛、卢宇哲、徐盼盼。 Arxiv 2024年。
Squeezed Attention:加速长上下文LLM推理。 胡珀·科尔曼、金世勋、穆罕默德扎德·希瓦、马赫斯瓦兰·莫尼什瓦兰、朴俊、迈克尔·W·马霍尼、库尔特·科伊策、阿米尔·戈拉米。 Arxiv 2024年。
ArkVale:通过可召回的键值逐出实现高效的生成式LLM推理。 陈仁泽、王卓峰、曹蓓泉、吴通、郑思泽、李秀红、魏学超、严生恩、李萌、梁云。 NeurIPS 2024年。
并非所有头都重要:一种集成检索与推理的头级KV缓存压缩方法。 傅瑶、蔡泽凡、阿贝德尔卡迪尔·阿西、韦恩·雄、董岳、肖文。 Arxiv 2024年。
[CLS] 注意力就是训练-free视觉标记修剪所需的一切:让VLM推理更快。 张启哲、程傲松、陆明、卓志勇、王敏琦、曹家俊、郭绍波、佘奇、张尚航。 Arxiv 2024年。
Fit and Prune:用于多模态大型语言模型的快速且无需训练的视觉标记修剪。 叶伟浩、吴琼、林文浩、周依依。 Arxiv 2024年。
ClusterKV:在语义空间中操控LLM KV缓存以实现可召回的压缩。 刘广达、李成伟、赵洁茹、张晨琪、郭敏仪。 Arxiv 2024年。
用LeanKV统一大型语言模型的KV缓存压缩。 张艳琪、胡宇威、赵润元、刘约翰·C.S.鲁伊、陈海波。 Arxiv 2024年。
DynamicKV:面向长上下文大模型的任务感知自适应KV缓存压缩。 周侠斌、王文彬、曾敏燕、郭家贤、刘学波、沈立、张敏、丁亮。 Arxiv 2024年。
SCOPE:优化长上下文生成中的键值缓存压缩。 吴家龙、王正林、张林海、赖一龙、何玉兰、周德宇。 Arxiv 2024年。
HashEvict:一种基于局部敏感哈希的预注意力KV缓存驱逐策略。 刘明辉、塔赫辛·拉巴尼、托尼·奥哈洛伦、阿南特·桑卡林加姆、玛丽-安妮·哈特利、布赖恩·格拉维尔、黄福荣、科妮莉亚·费尔穆勒、伊安尼斯·阿洛伊莫诺斯。 Arxiv 2024年。
SepLLM:通过将一个片段压缩为一个分隔符来加速大语言模型。 陈国轩、史翰、李嘉伟、高逸航、任晓哲、陈怡萌、姜鑫、李振国、刘伟洋、黄超。 Arxiv 2024年。
MiniKV:通过2比特层判别式KV缓存突破大语言模型推理极限。 阿克沙特·夏尔马、丁航梁、李建平、尼尔·达尼、张敏佳。 Arxiv 2025年。
FastKV:基于令牌选择性传播的快速长上下文处理KV缓存压缩。 赵东元、宋智媛、金玉花、金在俊。 Arxiv 2025年。
ChunkKV:语义保持的KV缓存压缩,用于高效长上下文大语言模型推理。 刘翔、唐振恒、董培杰、李泽宇、李博、胡旭明、楚晓雯。 Arxiv 2025年。
LServe:基于统一稀疏注意力的高效长序列大语言模型服务。 杨尚、郭俊贤、唐浩天、胡庆浩、肖光轩、唐家铭、林宇军、刘志坚、陆瑶、韩松。 MLSys 2025年。
RocketKV:通过两阶段KV缓存压缩加速长上下文大语言模型推理。 贝赫纳姆·帕伊曼、傅耀生、赵 Ritchie、蔡博安、于志鼎、阿列克谢·图马诺夫。 Arxiv 2025年。
Dynamic-LLaVA:通过动态视觉—语言上下文稀疏化实现高效的多模态大语言模型。 黄文轩、翟子杰、沈云航、曹少胜、赵飞、徐向峰、叶哲宇、林绍辉。 ICLR 2025年。
DBudgetKV:在KV缓存压缩中动态预算以确保最佳性能。 倪宣凡、徐丽艳、吕晨阳、王龙悦、余墨、刘乐茂、孟凡东、周洁、李皮吉。 Arxiv 2025年。
无限制对话:用于大语言模型扩展回复的恒定大小KV缓存。 拉维·加迪亚、阿维纳什·库马尔、高拉夫·贾因、普拉桑特·奈尔、保拉米·达斯。 ICML 2025年。
MEDA:用于高效多模态长上下文推理的动态KV缓存分配。 万中伟、沈慧、王欣、刘彻、麦哲达、张密。 NAACL 2025年。
KVCrush:利用头部行为相似性进行键值缓存尺寸缩减。 戈皮·克里希纳·贾、萨梅赫·戈布里埃尔、柳博芙·塔拉马诺娃、亚历山大·科兹洛夫、尼莱什·贾因。 Arxiv 2025年。
大语言模型知道该舍弃什么:自注意力引导的KV缓存驱逐以实现高效长上下文推理。 王广涛、舒邦吉·乌帕萨尼、吴辰、达尔尚·甘地、乔纳森·李、胡昌然、李博、乌尔米什·塔克尔。 ICLR 2025年。
SpeCache:用于大语言模型高效生成的推测性键值缓存。 解世博、唐业辉、韩凯、邓志宏、韩静。 Arxiv 2025年。
KV-Distill:近乎无损可学习的大语言模型上下文压缩。 维韦克·查里、秦广辉、本杰明·范·杜尔姆。 Arxiv 2025年。
SentenceKV:通过句子级语义KV缓存实现高效大语言模型推理。 朱宇轩、法拉哈蒂·阿里、杨大卫、穆罕默德·穆罕默迪·阿米里。 Arxiv 2025年。
稀疏前沿:Transformer大语言模型中的稀疏注意力权衡。 皮奥特尔·纳夫罗特、罗伯特·李、黄仁杰、塞巴斯蒂安·鲁德尔、凯莉·马尔基西奥、爱德华多·M·蓬蒂。 Arxiv 2025年。
FreqKV:用于高效扩展上下文窗口的频域键值压缩。 凯居士、曾博艺、王一轩、白浩利、江波、林周涵。 Arxiv 2025年。
Mustafar:促进非结构化稀疏性以用于大语言模型推理中的KV缓存修剪。 朱东贤、霍赛莉·侯赛尼、拉米亚德·哈迪迪、巴哈尔·阿斯加里。 Arxiv 2025年。
CAKE:基于层级偏好的级联与自适应KV缓存驱逐。 秦子然、曹雨晨、林明宝、胡文、范世轩、程科、林伟尧、李建国。 ICLR 2025年。
R-KV:面向无需训练的推理模型加速的冗余感知KV缓存压缩。 蔡泽凡、肖文、孙汉诗、罗成、张易凯、万科、李宇成、周业扬、常立文、顾久祥、董震、阿尼玛·阿南德库马尔、阿贝德尔卡迪尔·阿西、胡俊杰。 Arxiv 2025年。
KVzip:不依赖查询的上下文重建KV缓存压缩。 金章贤、金珍淑、权相佑、李在W、尹相斗、宋贤欧。 Arxiv 2025年。
同质密钥、异质值:利用局部KV缓存的不对称性提升长上下文LLM的推理效率。 崔万云、徐明伟. Arxiv 2025年。
AhaKV:自适应的整体注意力驱动KV缓存驱逐策略,用于高效推理大型语言模型。 顾一峰、蒋子聪、金建秀、郭凯玲、张子阳、徐向敏. Arxiv 2025年。
基于KV缓存压缩的推理时超尺度扩展。 阿德里安·兰丘茨基、孔拉德·斯塔尼舍夫斯基、皮奥特尔·纳夫罗特、爱德华多·M·蓬蒂. Arxiv 2025年。
InfiniPot-V:面向流式视频理解的内存受限KV缓存压缩。 金民洙、沈奎洪、崔正旭、张思明. Arxiv 2025年。
“Cache Me If You Can”:有效长上下文LLM需要多少个KV? 阿迪提亚·巴斯卡尔、亚历山大·韦蒂格、高天宇、董艺赫、陈丹琪. Arxiv 2025年。
Compactor:基于近似杠杆分数的校准型查询无关KV缓存压缩。 维韦克·查里、本杰明·范杜尔姆. Arxiv 2025年。
LaCache:用于高效长上下文建模的梯级式KV缓存策略,适用于大型语言模型。 史大川、傅永干、袁向驰、于中志、游浩然、李思旭、董欣、扬·考茨、帕夫洛·莫尔恰诺夫、林英燕(塞琳). ICML 2025年。
EvolKV:用于LLM推理的进化式KV缓存压缩。 余博涵、柴业坤. Arxiv 2025年。
LAVa:基于动态预算分配的分层KV缓存驱逐策略。 沈怡群、袁松、张正泽、王小亮、姜大鑫、阮甘图. Arxiv 2025年。
KeyDiff:基于密钥相似性的KV缓存驱逐策略,适用于资源受限环境下的长上下文LLM推理。 朴俊荣、达尔顿·琼斯、马修·J·莫尔斯、拉加夫·戈埃尔、李民九、克里斯·洛特. NeurIPS 2025年。
CAOTE:基于注意力输出误差的标记驱逐策略,用于LLM的KV缓存选择。 拉加夫·戈埃尔、朴俊荣、穆库尔·加格拉尼、达尔顿·琼斯、马修·莫尔斯、哈珀·兰斯顿、李民九、克里斯·洛特. Arxiv 2025年。
3️⃣ 跨层
仅缓存一次:面向语言模型的解码器—解码器架构。 孙宇涛、董立、朱毅、黄少涵、王文辉、马树明、张全路、王建勇、魏福如。 NeurIPS 2024。
利用跨层注意力减少 Transformer 的键值缓存大小。 威廉·布兰登、马扬克·米什拉、阿尼鲁达·恩鲁西姆哈、拉梅斯瓦尔·潘达、乔纳森·拉根·凯利。 Arxiv 2024。
用于高效推理大型语言模型的层压缩键值缓存。 吴浩义、涂可伟。 ACL 2024。
MiniCache:针对大型语言模型的深度维度键值缓存压缩。 刘阿基德、刘晶、潘子正、何业飞、戈拉姆雷扎·哈法里、庄博涵。 Arxiv 2024。
MLKV:用于内存高效 Transformer 解码的多层键值头。 扎伊德·穆罕默德·卡瓦基比·祖赫里、穆罕默德·法里德·阿迪拉祖尔达、阿尤·普尔维安蒂、阿尔哈姆·菲克里·阿吉。 Arxiv 2024。
关于跨层键值共享以实现高效 LLM 推理的系统性研究。 吴优、吴浩义、涂可伟。 Arxiv 2024。
KVSharer:通过逐层异构键值缓存共享实现高效推理。 杨一飞、曹邹英、陈奇光、秦立波、杨东杰、赵海、陈志。 Arxiv 2024。
SwiftKV:基于知识保持的模型转换实现快速预填充优化推理。 奥里克·乔、姚哲伟、萨米亚姆·拉吉班达里、何宇雄。 Arxiv 2024。
利用层间注意力相似性压缩键值缓存以支持长上下文 LLM 推理。 马达、陈陆、张思拓、苗宇迅、朱苏、陈志、徐洪深、李汉琪、范帅、潘磊、于凯。 Arxiv 2024。
4️⃣ 低秩
快速 Transformer 解码:只需一个写头即可。 诺姆·沙泽尔。 Arxiv 2019。
GQA:从多头检查点训练通用多查询 Transformer 模型。 乔舒亚·艾恩斯利、詹姆斯·李-索普、米希尔·德·容、尤里·泽姆良斯基、费德里科·莱布隆、苏米特·桑盖。 EMNLP 2023。
DeepSeek-V2:一款强大、经济且高效的专家混合语言模型。 DeepSeek-AI。 Arxiv 2024。
有效压缩 LLM 的键值头。 于浩、杨泽兰、李申、李勇、吴建新。 Arxiv 2024。
Palu:利用低秩投影压缩键值缓存。 张志智、王旷、刘丽媛、王硕航、程浩、张超、沈叶龙。 Arxiv 2024。
LoRC:采用渐进式压缩策略的 LLM 键值缓存低秩压缩。 张荣志、王旷、刘丽媛、王硕航、程浩、张超、沈叶龙。 Arxiv 2024。
张量积注意力就是你需要的一切。 张一凡、刘一峰、袁慧卓、秦振、袁阳、顾全全、姚昌昌。 Arxiv 2025。
ThinK:通过查询驱动的剪枝实现更薄的键值缓存。 徐宇辉、揭展明、董汉泽、王磊、卢旭东、周傲俊、萨哈·阿姆丽塔、熊才明、萨胡·多延。 Arxiv 2024。
超越同质注意力:通过傅里叶近似键值缓存实现内存高效的 LLM。 刘晓然、何思洋、王奇奇、李瑞晓、宋玉蓉、刘志耿、李林林、刘群、黄增峰、郭启鹏、何子威、邱希鹏。 Arxiv 2025。
OjaKV:基于 Oja 规则的上下文感知在线低秩键值缓存压缩。 朱宇轩、杨大卫、穆罕默德·莫哈马迪·阿米里、基尔提拉姆·穆鲁格桑、特贾斯维尼·佩达帕蒂、陈品宇。 Arxiv 2025。
5️⃣ 量化
ZipCache:基于显著标记识别的精准高效KV缓存量化。 何叶飞、张洛明、吴伟佳、刘静、周红、庄博涵. Arxiv 2024。
一个标记也不落下:基于重要性感知的混合精度量化实现可靠的KV缓存压缩。 杨俊勇、金炳旭、裴正仁、权范锡、朴根浩、杨恩浩、权世荣、李东洙. Arxiv 2024。
KIVI:无需调优的KV缓存非对称2位量化。 刘子睿、袁嘉怡、金洪烨、钟绍辰、徐兆卓、弗拉基米尔·布拉韦尔曼、陈蓓迪、胡霞. ICML 2024。
GEAR:面向大语言模型生成式推理的近无损KV缓存高效压缩方案。 康浩、张庆如、苏维克·昆杜、郑建华、刘兆兴、图沙尔·克里希纳、赵拓. Arxiv 2024。
PQCache:基于乘积量化的大规模上下文LLM推理KV缓存。 张海林、季晓东、陈一琳、傅方成、苗旭鹏、聂晓楠、陈伟鹏、崔斌. Arxiv 2024。
利用矩阵分解解锁无数据低比特量化,用于KV缓存压缩。 刘培宇、高泽峰、赵wayne鑫、马一鹏、王涛、温继荣. Arxiv 2024。
SKVQ:面向大语言模型的滑动窗口键值缓存量化。 段木浩杰、袁志航、李秀红、段江飞、张兴成、林大华. Arxiv 2024。
QAQ:面向LLM KV缓存的质量自适应量化。 董诗晨、程文、秦家玉、王伟. Arxiv 2024。
KVQuant:迈向1000万上下文长度的LLM推理,借助KV缓存量化。 霍珀·科尔曼、金世勋、穆罕默德扎德·希瓦、迈克尔·W·马霍尼、邵雅坤·索菲娅、库尔特·凯茨尔、阿米尔·戈拉米. NeurIPS 2024。
WKVQuant:为大语言模型量身定制的权重与键值缓存量化,效果更佳。 岳雨轩、袁志航、段木浩杰、周思凡、吴建龙、聂立强. Arxiv 2024。
KVTuner:基于敏感度感知的逐层混合精度KV缓存量化,实现高效且近乎无损的LLM推理。 李星、邢泽宇、李一鸣、曲林平、甄慧玲、刘武龙、姚一武、潘信诺·贾林、袁明轩. ICML 2025。
即插即用的1.x位KV缓存量化,适用于视频大语言模型。 陶科达、游浩轩、隋阳、秦灿、王欢. Arxiv 2025。
BitDecoding:解锁张量核心,以低比特KV缓存支持长上下文LLM解码。 杜大友、曹士杰、程建义、曹婷、杨茂. Arxiv 2025。
TaDA:无需训练的自适应KV缓存压缩与均值中心化解码方案。 乔希·维奈、布拉赫玛·普拉蒂克·普拉班詹、刘子诚、埃马德·巴尔苏姆。ACL 2025产业赛道。
TailorKV:通过定制化KV缓存优化实现长上下文推理的混合框架。 姚鼎宇、沈博文、林正、刘伟、栾健、王斌、王伟平. ACL 2025。
CommVQ:用于KV缓存压缩的交换向量量化。 李俊燕、张洋、穆罕默德·尤素夫·哈桑、塔尔哈·查费卡尔、蔡天乐、任志乐、郭鹏升、福鲁赞·卡里姆扎德、科罗拉多·里德、王冲、甘创. ICML 2025。
6️⃣ 提示压缩
LLMLingua:压缩提示以加速大语言模型推理。 姜辉强、吴千慧、林钦佑、杨玉清、邱莉莉. EMNLP 2023。
LLMLingua-2:数据蒸馏实现高效且忠实的任务无关提示压缩。 潘卓石、吴千慧、姜辉强、夏梦琳、罗旭芳、张珏、林青伟、维克托·吕勒、杨玉清、林钦佑、赵H·维姬、邱莉莉、张冬梅. ACL 2024。
LongLLMLingua:通过提示压缩加速并提升大语言模型在长上下文场景中的表现。 姜辉强、吴千慧、罗旭芳、李东生、林钦佑、杨玉清、邱莉莉. ACL 2024。
TACO-RL:基于强化学习的任务感知提示压缩优化。 尚迪姆·桑迪利亚、夏梦琳、苏普里约·戈什、姜辉强、张珏、吴千慧、维克托·吕勒. Arxiv 2024。
ICPC:上下文内提示压缩,加速推理。 于子洋、刘宇宇. Arxiv 2025。
无需多层感知机的更好提示压缩。 爱德华多·霍尼格、安德鲁·利萨拉加、张子君·弗兰克、吴颖年. Arxiv 2025。
7️⃣ 复用
- KVLink:通过高效KV缓存复用加速大语言模型。 杨景波、侯百儒、魏巍、鲍宇佳、常诗雨. Arxiv 2025。
8️⃣ 非自回归
dKV-Cache:扩散语言模型的缓存机制。 马欣欣、于润鹏、方功凡、王新超。 Arxiv 2025年。
dLLM-Cache:通过自适应缓存加速扩散大型语言模型。 刘志远、杨一村、张耀杰、陈俊杰、邹畅、魏青岩、王少波、张林峰。 Arxiv 2025年。
Fast-dLLM:通过启用KV缓存与并行解码实现无需训练的扩散型LLM加速。 吴成悦、张浩、薛淑晨、刘志坚、刁世哲、朱立根、罗平、韩松、谢恩泽。 Arxiv 2025年。
📊 评估
KV缓存压缩,但我们需要付出什么代价?长上下文能力方法的全面基准测试。 袁嘉怡、刘鸿毅、钟绍辰(Henry)·仲、庄宇能、李松晨、王冠楚、黎杜、金洪烨、维平·乔杜里、徐兆卓、刘子睿、胡霞。 EMNLP 2024年。
SCBench:以KV缓存为中心的长上下文方法分析。 李宇成、江慧强、吴千慧、罗旭芳、安叙仁、张成瑞东、阿米尔·H·阿卜迪、李东升、高建峰、杨玉清、邱莉莉。 Arxiv 2024年。
更多token,更低精度:迈向KV缓存压缩中的最优token-精度权衡。 张洁斌、朱大伟、宋一帆、吴文浩、匡楚桥、李晓光、尚立峰、刘群、李苏健。 Arxiv 2024年。
重新思考用于大型语言模型服务的键值缓存压缩技术。 高伟、周欣宇、孙鹏、张天威、温永刚。 Arxiv 2025年。
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。