KVCache-Factory

GitHub
1.3k 168 中等 1 次阅读 3天前MIT开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

KVCache-Factory 是一个专为自回归大语言模型打造的统一框架,旨在高效压缩和管理 KV Cache(键值缓存)。随着大模型处理长文本时显存占用激增,传统方法往往面临速度变慢或精度下降的困境。KVCache-Factory 通过集成 PyramidKV、SnapKV、H2O 及 StreamingLLM 等多种前沿压缩算法,帮助开发者在显著降低显存消耗的同时,保持模型的推理性能与准确性。

该工具特别适合 AI 研究人员和工程开发者使用,尤其是那些需要在有限硬件资源(如单张 V100 或多卡环境)上部署或测试超大参数模型(如 Llama-3-70B)的用户。其核心亮点在于高度的兼容性与灵活性:不仅支持 Flash Attention v2 以加速计算,还适配了 SDPA Attention,让不支持最新硬件特性的设备也能运行先进的压缩策略。此外,它提供了可视化工具帮助分析注意力机制的低效环节,并内置了 LongBench 和“大海捞针”等基准测试脚本,方便用户快速复现结果与验证效果。无论是探索新的缓存分配策略,还是优化现有长文本应用,KVCache-Factory 都提供了一套开箱即用的解决方案。

使用场景

某金融科技公司正在构建基于 Llama-3-70B 的智能研报分析系统,需要处理长达数万字的文档并提取关键数据,但受限于显存容量,长文本推理频繁报错。

没有 KVCache-Factory 时

  • 显存爆炸导致服务不可用:处理长篇研报时,全量 KV Cache 迅速占满单卡显存,即使使用多卡也难以支撑 70B 大模型的长上下文推理,程序常因 OOM(内存溢出)崩溃。
  • 关键信息丢失严重:若强行截断输入或使用简单的滑动窗口策略,模型会遗忘文档中间的关键财务数据(即“大海捞针”能力失效),导致分析结果错误。
  • 硬件适配成本高:团队部分服务器仅配备 V100 或 3090 显卡,不支持最新的 Flash Attention v2,无法直接部署主流的长文本优化方案,被迫闲置旧设备。
  • 算法验证繁琐:想要对比 StreamingLLM、SnapKV 等不同压缩算法的效果,需分别修改底层代码并重新编译,开发周期长达数周。

使用 KVCache-Factory 后

  • 显存占用大幅降低:通过集成 PyramidKV 等统一压缩框架,在保持精度的前提下将 KV Cache 压缩至原有大小的几分之一,成功在有限显存上跑通 70B 模型的长文档推理。
  • 长文理解精度回升:利用其动态分配机制,模型能精准保留文档中的关键“针尖”信息,即使在极长上下文中也能准确提取分散的财务指标。
  • 老旧硬件全面激活:借助对 SDPA Attention 的支持,团队直接在 V100 集群上部署了压缩方案,无需升级硬件即可享受长文本加速红利。
  • 一键切换算法策略:仅需修改启动脚本中的 method 参数(如设为 pyramidkvh2o),即可在不同压缩策略间无缝切换,半天内完成效果调优。

KVCache-Factory 通过统一的压缩框架打破了显存与上下文长度的博弈,让大模型在低成本硬件上也能实现精准的长文档理解。

运行环境要求

操作系统
  • Linux
GPU
  • 必需 NVIDIA GPU
  • 支持 Flash Attention v2 的设备(如 A100, H100)可获得最佳性能
  • 不支持 Flash Attention v2 的设备(如 V100, RTX 3090)可设置 attn_implementation=sdpa 使用 Sdpa Attention
  • 支持多卡推理(如 Llama-3-70B),需通过 CUDA_VISIBLE_DEVICES 指定多张显卡
内存

未说明

依赖
notes该项目原名 PyramidKV,现更名为 KVCache-Factory。主要支持 Llama-3 和 Mistral 模型。若显卡不支持 Flash Attention v2,必须使用 'sdpa' 注意力实现模式。运行长上下文基准测试(LongBench)或“大海捞针”(Needle in Haystack)测试时,需根据脚本修改模型路径、压缩方法(PyramidKV, SnapKV, H2O, StreamingLLM)及 KV 容量参数。
python未说明
transformers>=4.41
flash-attn>=2.4.0.post1
KVCache-Factory hero image

快速开始

# KVCache-Facroty

新闻

  • [2024-11-28] 更名为 KVCache-Factory!我们项目的目标现在是构建一个统一的框架,用于对多种模型的 KV 缓存进行压缩。

  • [2024-06-25] 现已支持使用大语言模型进行多 GPU 推理!快来试试在 LlaMa-3-70B-Instruct 上使用 PyramidKV 吧!

  • [2024-06-10] 在 Flash Attention v2 和 Sdpa Attention 中现已支持 PyramidKV、SnapKV、H2O 和 StreamingLLM!如果你的设备(如 V100、3090)不支持 Flash Attention v2,可以将 attn_implementation 设置为 sdpa,从而在 Sdpa Attention 中尝试 PyramidKV!

待办事项:

  • 支持 Streaming LLM、H2O 和 SnapKV 的实现
  • 支持 Mistral 模型
  • 支持 Needle 的实现
  • 支持在没有 Flash Attention v2(即 Sdpa Attention)的情况下对 V100 进行 KV 缓存压缩
  • 支持 70B LlaMa-3 的多 GPU 推理
  • 引入新功能以支持 KV 缓存预算分配(例如百分比支持)
  • 支持 Mixtral
  • 支持批量推理
  • 支持解码阶段的 KV 缓存压缩

性能



可视化:低效注意力

Llama 模型在包含 3 个文档时的注意力图如下所示:


./visualization-tools/vis.ipynb 复现了论文中的可视化结果。我们在 ./visualization 目录下提供了更多可视化工具,支持不同层次的 KV 缓存可视化。 不同层的模型注意力图将存储在 ./attention 目录中。

需求

transformers >= 4.41
flash-attn >= 2.4.0.post1

安装


git clone https://github.com/Zefan-Cai/PyramidKV.git
cd PyramidKV
pip install -r requirements.txt .

推理

我们支持在 LongBench 上运行的推理代码,以复现我们的结果。

请参考 scripts/scripts_longBench/eval.sh,根据你的需求修改参数。

我们的代码库支持 Flash Attention v2、Sdpa Attention 等。我们论文中展示的结果基于 Flash Attention v2。

export CUDA_VISIBLE_DEVICES=$1

method=$2 # 支持 PyramidKV、SnapKV、H2O、StreamingLLM
max_capacity_prompts=64 # 论文中为128、2048
attn_implementation=$3 # 支持 "flash_attention_2"、"sdpa"、"eager"
source_path=$4
model_path=$5
save_dir=${source_path}"results_long_bench" # 结果保存路径

python3 run_longbench.py \
    --method ${method} \
    --model_path ${model_path} \
    --max_capacity_prompts ${max_capacity_prompts} \
    --attn_implementation ${attn_implementation} \
    --save_dir ${save_dir} \
    --use_cache True

  • CUDA_VISIBLE_DEVICES:对于大语言模型的多 GPU 推理,只需指定 CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7。对于单 GPU 推理,则只需指定 CUDA_VISIBLE_DEVICES=0。
  • model_path:你的模型路径。目前支持“Llama-3-8B-Instruct”。
  • method:支持 PyramidKVSnapKVStreamingLLMH2O
  • max_capacity_prompts:每层选择的 KV 大小。(例如,论文中为 128 或 2048)。当方法为“PyramidKV”时,由于总的 KV 数量保持不变,每层的具体 KV 长度会相应调整。
  • save_dir:保存 LongBench 结果的目录路径。

修改参数后,运行:


sh scripts/scripts_longBench/eval.sh

针尖藏草堆

我们支持在 针尖藏草堆 数据集上运行的推理代码,以复现我们的结果。

请参考 scripts/scripts_needle/eval.sh,根据你的需求修改参数。

我们的代码库支持 Flash Attention v2、Sdpa Attention 等。我们论文中展示的结果基于 Flash Attention v2。


METHOD='pyramidkv'       # ['full', 'pyramidkv', 'snapkv', 'streamingllm', 'h2o']
MAX_CAPACITY_PROMPT=96  # [64, 96, 128, 256, 512, 1024, 2048, ...]
attn_implementation="flash_attention_2" # 支持 "flash_attention_2"、"sdpa"、""。
TAG=test


# 对于 Llama3-8b

(
python -u run_needle_in_haystack.py --s_len 1000 --e_len 8001\
    --model_provider LLaMA3 \
    --model_name /mnt/workspace/zhiyuanhu/yuliang/models/llama3-8b_raw \
    --attn_implementation ${attn_implementation} \
    --step 100 \
    --method $METHOD \
    --max_capacity_prompt $MAX_CAPACITY_PROMPT \
    --model_version LlaMA3_${METHOD}_${MAX_CAPACITY_PROMPT}_${TAG}
) 2>&1  | tee results_needle/logs/LlaMA3_${METHOD}_${MAX_CAPACITY_PROMPT}_${TAG}.log
  • LLaMA3 和 Mistral2 的推理都支持单 GPU。
  • model_provider:LLaMA3 或 Mistral2
  • model_name:你的模型路径。目前支持“Llama-3-8B-Instruct”和“Mistral-7B-Instruct-v0.2”。
  • step:上下文长度的增加幅度。
  • method:支持 PyramidKVSnapKVStreamingLLMH2O
  • max_capacity_prompt:每层选择的 KV 大小。(例如,论文中为 128 或 2048)。当方法为“PyramidKV”时,由于总的 KV 数量保持不变,每层的具体 KV 长度会相应调整。

要复现我们的结果,请运行:

bash scripts/scripts_needle/eval.sh

推理完成后,运行

python scripts/scripts_needle/visualize.py

以生成图像。你需要将 visualize.py 中的 FOLDER_PATH 修改为你输出的路径(即 eval.sh 中的 --model_version 参数值)。

引用

如果你发现 PyramidKV 对你的研究和应用有帮助,请使用以下 BibTeX 格式引用:

@article{cai2024pyramidkv,
  title={Pyramidkv: 基于金字塔信息漏斗的动态 KV 缓存压缩},
  author={Cai, Zefan 和 Zhang, Yichi 和 Gao, Bofei 和 Liu, Yuliang 和 Liu, Tianyu 和 Lu, Keming 和 Xiong, Wayne 和 Dong, Yue 和 Chang, Baobao 和 Hu, Junjie 和 Xiao Wen},
  journal={arXiv 预印本 arXiv:2406.02069},
  year={2024}
}
@article{fu2024not,
  title={并非所有头都重要:一种集成检索与推理的头部级 KV 缓存压缩方法},
  author={Fu, Yu 和 Cai, Zefan 和 Asi, Abedelkadir 和 Xiong, Wayne 和 Dong, Yue 和 Xiao, Wen},
  journal={arXiv 预印本 arXiv:2410.19258},
  year={2024}
}

致谢

感谢 [SnapKV] SnapKV:LLM 在生成之前就知道你在寻找什么,为我们提供了开源代码,助力本项目的扩展。

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|5天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|6天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

150.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|昨天
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|5天前
插件开发框架