efficientvit

GitHub
3.3k 240 简单 1 次阅读 昨天Apache-2.0语言模型图像
AI 解读 由 AI 自动生成,仅供参考

EfficientViT 是一套专为高分辨率图像生成与感知任务打造的高效视觉基础模型系列。它主要解决了传统大型视觉模型在處理高解析度图像时计算量大、推理速度慢的难题,让高性能 AI 也能在资源受限的设备上流畅运行。

该项目的核心亮点在于其创新的架构设计,特别是最新推出的深度压缩自动编码器(DC-AE)。DC-AE 能够实现高达 128 倍的空间压缩率,同时保持卓越的图像重建质量,从而显著加速各类潜在扩散模型的生成过程。此外,EfficientViT 还被广泛应用于加速版 SAM(Segment Anything Model)以及 SANA 文本生成图像模型中,在多项基准测试中实现了速度与精度的最佳平衡,甚至超越了部分超大参数模型的表现。

EfficientViT 非常适合计算机视觉研究人员、AI 开发者以及需要部署高效图像算法的工程师使用。无论是希望探索前沿生成式 AI 技术的学者,还是致力于将高质量视觉模型落地到边缘设备(如笔记本电脑或嵌入式开发板)的实践者,都能从中获得强大的技术支持。目前,相关模型已集成至主流框架并开源,方便社区直接调用与二次开发。

使用场景

某医疗影像初创团队正致力于开发一款能在普通笔记本电脑上实时运行的病灶分割系统,以辅助基层医生快速诊断。

没有 efficientvit 时

  • 硬件门槛极高:传统的 SAM(Segment Anything)大模型显存占用巨大,必须依赖昂贵的云端 A100 显卡才能运行,无法部署到医生的本地笔记本。
  • 推理延迟严重:处理一张高分辨率 CT 影像需要数秒甚至更久,医生在手术或问诊间隙无法获得即时反馈,打断诊疗节奏。
  • 精度与速度难兼得:若为了提速而强行压缩模型,会导致病灶边缘识别模糊,漏诊风险增加,无法满足医疗级精度要求。
  • 适配成本高昂:针对不同尺寸的医学图像,需要反复调整预处理流程,开发周期长且维护困难。

使用 efficientvit 后

  • 端侧流畅运行:efficientvit-SAM 将模型大幅轻量化,使得在普通消费级笔记本上也能流畅运行,无需依赖云端算力。
  • 毫秒级实时响应:得益于高效的架构设计,高分辨率影像的分割推理速度提升数倍,实现“点击即出结果”的交互体验。
  • 精度超越标杆:在保持极速的同时,其零样本(zero-shot)分割性能不仅匹配甚至超越了庞大的 SAM-ViT-H 模型,确保病灶细节清晰可辨。
  • 灵活适配场景:原生支持高分辨率输入,无需复杂的图像缩放预处理,直接适配各类医学影像设备输出的原始数据。

efficientvit 通过极致的效率优化,成功打破了高性能视觉大模型对昂贵算力的依赖,让顶尖 AI 能力真正落地于资源受限的边缘设备。

运行环境要求

操作系统
  • 未说明
GPU
  • 部分功能(如 EfficientViT-SAM, GazeSAM)明确需要 NVIDIA GPU 并提及 TensorRT 加速(测试环境包括 A100, RTX 4070)
  • 基础推理可能支持 CPU,但高性能生成和感知建议配备 NVIDIA GPU
内存

未说明

依赖
notes1. 建议使用 conda 创建名为 'efficientvit' 的虚拟环境。2. 该仓库包含多个子项目(分类、分割、SAM、扩散模型),具体依赖可能因任务而异。3. 2025 年 9 月后官方将停止维护此代码库,后续更新移至 'DC-Gen' 项目。4. 部分高性能演示(如笔记本运行 SANA)展示了其在消费级硬件上的潜力,但训练或高分辨率生成仍推荐高显存显卡。
python3.10
torch
torchvision
diffusers (可选,用于 DC-AE)
tensorrt (可选,用于部署加速)
efficientvit hero image

快速开始

用于高分辨率生成与感知的高效视觉基础模型

PWC

新闻

  • (🔥 新) [2025/09/05] 我们将不再维护此代码库。所有未来的更新和公告都将在 DC-Gen 上发布。
  • (🔥 新) [2025/01/24] 我们发布了 DC-AE-SANA-1.1:文档
  • (🔥 新) [2025/01/23] DC-AE 和 SANA 被 ICLR 2025 接受。
  • (🔥 新) [2025/01/14] 我们发布了 DC-AE+USiT 模型模型训练。使用默认的训练设置和采样策略,DC-AE+USiT-2B 在 ImageNet 512x512 数据集上达到了 1.72 的 FID 值,超越了 SOTA 扩散模型 EDM2-XXL 以及 SOTA 自回归图像生成模型(MAGVIT-v2 和 MAR-L)。

内容

[ICLR 2025] 用于高效高分辨率扩散模型的深度压缩自编码器 [论文] [说明] [海报]

深度压缩自编码器 (DC-AE) 是一类新型的高空间压缩自编码器,其空间压缩比可达 128,同时保持重建质量。它能够加速所有潜在扩散模型,无论扩散模型架构如何。

演示

demo

图 1:我们解决了高空间压缩自编码器的重建精度下降问题。

demo

图 2:DC-AE 加速了潜在扩散模型。

图 3:DC-AE 使得在笔记本电脑上高效地进行文本到图像生成成为可能:SANA

[CVPR 2024 eLVM 研讨会] EfficientViT-SAM:无精度损失的加速 Segment Anything 模型 [论文] [在线演示] [说明]

EfficientViT-SAM 是一类新的加速 Segment Anything 模型,通过用 EfficientViT 替代 SAM 中的重型图像编码器来实现。它在 A100 GPU 上相比 SAM-ViT-H 实现了 48.9 倍的 TensorRT 加速,且未牺牲精度。

[ICCV 2023] EfficientViT-分类 [论文] [README]

基于EfficientViT骨干网络的高效图像分类模型。

[ICCV 2023] EfficientViT-分割 [论文] [README]

基于EfficientViT骨干网络的高效语义分割模型。

demo

EfficientViT-GazeSAM [README]

基于视线提示的图像分割模型,可在NVIDIA RTX 4070上使用TensorRT实现实时运行。

GazeSAM demo

快速入门

conda create -n efficientvit python=3.10
conda activate efficientvit
pip install -U -r requirements.txt

第三方实现/集成

联系方式

Han Cai

参考文献

若EfficientViT、EfficientViT-SAM或DC-AE对您的研究有所帮助或相关,请您在引用时注明我们的工作:

@inproceedings{cai2023efficientvit,
  title={Efficientvit: 面向高分辨率密集预测的轻量级多尺度注意力},
  author={Cai, Han and Li, Junyan and Hu, Muyan and Gan, Chuang and Han, Song},
  booktitle={IEEE/CVF国际计算机视觉会议论文集},
  pages={17302--17313},
  year={2023}
}
@article{zhang2024efficientvit,
  title={EfficientViT-SAM:在不损失性能的情况下加速Segment Anything Model},
  author={Zhang, Zhuoyang and Cai, Han and Han, Song},
  journal={arXiv预印本 arXiv:2402.05008},
  year={2024}
}
@article{chen2024deep,
  title={用于高效高分辨率扩散模型的深度压缩自编码器},
  author={Chen, Junyu and Cai, Han and Chen, Junsong and Xie, Enze and Yang, Shang and Tang, Haotian and Li, Muyang and Lu, Yao and Han, Song},
  journal={arXiv预印本 arXiv:2410.10733},
  year={2024}
}

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|3天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|3天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

146.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|今天
开发框架图像Agent

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|3天前
开发框架图像Agent