DenseNet

GitHub
4.9k 1.1k 较难 1 次阅读 3天前BSD-3-Clause开发框架
AI 解读 由 AI 自动生成,仅供参考

DenseNet(密集连接卷积网络)是一种创新的深度学习架构,曾荣获 CVPR 2017 最佳论文奖。它主要应用于计算机视觉领域,旨在解决传统深层神经网络中随着层数增加而出现的梯度消失、特征复用率低以及参数效率低下等难题。

与以往网络仅将上一层输出传递给下一层不同,DenseNet 的核心亮点在于其独特的“密集连接”机制:网络中的每一层都会直接连接到后续的所有层。这种设计如同建立了一个高效的信息高速公路,让特征图能够在层间自由流动和复用。这不仅极大地缓解了深层网络训练困难的问题,还显著减少了模型参数量,同时在图像分类、物体检测等任务上实现了更高的准确率。此外,社区已推出多种内存优化版本,使其在资源受限的环境下也能高效运行。

DenseNet 非常适合人工智能研究人员、算法工程师以及深度学习开发者使用。如果您正在探索更高效的网络结构,或需要在有限算力下构建高性能的图像识别模型,DenseNet 提供了一个经过验证的强大基础。目前,该架构已有 PyTorch、TensorFlow、Keras 等多种主流框架的实现版本,便于大家快速上手实验与应用。

使用场景

某医疗影像初创团队正在开发一套辅助诊断系统,需要从肺部 CT 扫描中精准识别早期微小结节,但受限于标注数据稀缺且对漏诊率零容忍。

没有 DenseNet 时

  • 特征传递效率低:传统深层网络(如普通 CNN)在层数加深后,底层纹理细节难以有效传递至顶层,导致微小结节特征丢失。
  • 训练收敛困难:为了提升精度强行增加网络深度,却引发梯度消失问题,模型极难训练收敛,调参耗时数周。
  • 参数冗余严重:为补偿特征流失而盲目增加通道数,导致模型体积庞大,无法部署在医院边缘端的推理设备上。
  • 小样本过拟合:在有限的病例数据下,模型容易记住噪声而非学习病理特征,泛化能力差,临床测试误报率高。

使用 DenseNet 后

  • 特征复用最大化:DenseNet 通过密集连接机制,让每一层都能直接获取之前所有层的特征图,完美保留了结节边缘等细微纹理。
  • 梯度流动顺畅:短路径连接确保了梯度能直接回传至浅层,即使构建超深网络也能快速稳定收敛,研发周期缩短一半。
  • 模型轻量高效:得益于特征复用,DenseNet 用更少的参数量实现了更高的精度,顺利部署至低算力的便携式超声设备中。
  • 强泛化抗过拟合:这种隐式的深度监督效果相当于正则化,使其在少量医疗数据上依然表现稳健,显著降低了假阳性率。

DenseNet 通过革命性的密集连接架构,在数据受限的严苛场景下,以更低算力成本实现了医疗级的高精度图像识别。

运行环境要求

操作系统
  • Linux
  • macOS
GPU
  • 必需 NVIDIA GPU
  • 文中提到单张 NVIDIA TitanX (12GB 显存) 可训练大型模型
  • 标准实现可能需要多卡,优化后可单卡运行
  • 需安装 cuDNN
内存

未说明

依赖
notes该仓库原始代码基于 Lua 版的 Torch 框架(非 PyTorch),需使用 'th' 命令运行。文中明确提示 Torch 版本的预训练模型已弃用,建议用户转用 PyTorch、TensorFlow 或 Keras 等其他语言的实现版本。支持通过参数 '-optMemory' 进行显存优化,使大型网络能在单卡上运行。
python不需要 (基于 Torch/Lua)
Torch (Lua 版本)
cuDNN
fb.resnet.torch
DenseNet hero image

快速开始

密集连接卷积网络(DenseNets)

本仓库包含在以下论文中提出的DenseNet的代码:

Densely Connected Convolutional Networks(CVPR 2017,最佳论文奖)

Gao HuangZhuang LiuLaurens van der MaatenKilian Weinberger作者贡献相等)。

现已提供更加节省显存的实现! 请查阅 技术报告代码 获取更多信息。

该代码基于 fb.resnet.torch 构建。

引用

如果您在研究中使用了DenseNet,请考虑引用以下内容:

@inproceedings{DenseNet2017,
  title={Densely connected convolutional networks},
  author={Huang, Gao and Liu, Zhuang and van der Maaten, Laurens and Weinberger, Kilian Q },
  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},
  year={2017}
}

其他实现

我们的 [Caffe],我们更节省显存的 [Caffe],我们更节省显存的 [PyTorch][PyTorch] 由 Andreas Veit 实现,[PyTorch] 由 Brandon Amos 实现,[PyTorch] 由 Federico Baldassarre 实现, [MXNet] 由 Nicatio 实现, [MXNet] 由 Xiong Lin 实现, [MXNet] 由 miraclewkf 实现, [Tensorflow] 由 Yixuan Li 实现, [Tensorflow] 由 Laurent Mazare 实现, [Tensorflow] 由 Illarion Khlestov 实现, [Lasagne] 由 Jan Schlüter 实现, [Keras] 由 tdeboissiere 实现,
[Keras] 由 Roberto de Moura Estevão Filho 实现, [Keras] 由 Somshubra Majumdar 实现, [Chainer] 由 Toshinori Hanya 实现, [Chainer] 由 Yasunori Kudo 实现, [Torch 3D-DenseNet] 由 Barry Kui 实现, [Keras] 由 Christopher Masch 实现, [Tensorflow2] 由 Gaston Rios 和 Ulises Jeremias Cornejo Fandos 实现。

请注意,此处仅列出了一些早期的实现。如果您希望添加自己的实现,请提交拉取请求。

一些后续项目

  1. 用于高效预测的多尺度密集卷积网络
  2. DSOD:从零开始学习深度监督目标检测器
  3. CondenseNet:使用学习到的组卷积的高效DenseNet
  4. 用于语义分割的全卷积DenseNet
  5. Pelee:移动端上的实时目标检测系统

目录

  1. 简介
  2. 使用方法
  3. CIFAR上的结果
  4. ImageNet上的结果及预训练模型
  5. 更新

简介

DenseNet是一种网络架构,其中每一层都以前馈方式直接连接到其他所有层(在每个密集块内)。对于每一层,所有前面层的特征图被视为独立的输入,而其自身的特征图则作为输入传递给所有后续层。这种连接模式在CIFAR10/100(无论是否进行数据增强)和SVHN上均取得了最先进的准确率。在大规模ILSVRC 2012(ImageNet)数据集上,DenseNet达到了与ResNet相似的准确率,但参数量不到ResNet的一半,浮点运算次数也大约是ResNet的一半。

图1:一个具有5层、增长率为4的密集块。

densenet 图2:一个包含三个密集块的深层DenseNet。

使用方法

  1. 安装Torch及所需的依赖库,如cuDNN。请参阅 这里 的逐步指南。
  2. 克隆本仓库:git clone https://github.com/liuzhuang13/DenseNet.git

例如,以下命令将在CIFAR-10数据集上训练一个深度为L=100、增长率k=12的DenseNet-BC:

th main.lua -netType densenet -dataset cifar10 -batchSize 64 -nEpochs 300 -depth 100 -growthRate 12

再比如,以下命令将在ImageNet数据集上训练一个深度为L=121、增长率k=32的DenseNet-BC:

th main.lua -netType densenet -dataset imagenet -data [dataFolder] -batchSize 256 -nEpochs 90 -depth 121 -growthRate 32 -nGPU 4 -nThreads 16 -optMemory 3

有关数据准备,请参考 fb.resnet.torch

DenseNet与DenseNet-BC

默认情况下,代码运行的是DenseNet-BC架构,该架构包含1×1卷积的瓶颈层,并且在每个过渡层将通道数压缩至原来的0.5倍。若要运行原始的DenseNet,只需使用选项*-bottleneck false-reduction 1*即可。

节省显存的实现(2017年6月6日新增功能)

有一个选项*-optMemory*,在训练DenseNet时非常有助于减少GPU显存占用。默认值为2,会激活shareGradInput函数(并在此基础上进行了小幅修改,详见 这里)。此外,还有两种极端节省显存的模式(-optMemory 3或*-optMemory 4*),它们使用自定义的密集连接层。采用*-optMemory 4*时,即使是在CIFAR上最大的190层DenseNet-BC,也可以在单张NVIDIA TitanX GPU上进行训练(仅占用12G显存中的8.3G),而无需像标准的递归拼接实现那样完全占用四张GPU。

关于节省显存实现的更多细节,请参阅 这里

CIFAR 数据集上的结果

下表展示了 DenseNet 在 CIFAR 数据集上的实验结果。“+”号表示使用了标准的数据增强(零填充后随机裁剪,以及水平翻转)。对于 DenseNet 模型,L 表示其深度,k 表示其增长率。在未进行数据增强的 CIFAR-10 和 CIFAR-100 上,除第一层卷积外,每层卷积之后都引入了一个丢弃率为 0.2 的 Dropout 层。

模型 参数量 CIFAR-10 CIFAR-10+ CIFAR-100 CIFAR-100+
DenseNet (L=40, k=12) 1.0M 7.00 5.24 27.55 24.42
DenseNet (L=100, k=12) 7.0M 5.77 4.10 23.79 20.20
DenseNet (L=100, k=24) 27.2M 5.83 3.74 23.42 19.25
DenseNet-BC (L=100, k=12) 0.8M 5.92 4.51 24.15 22.27
DenseNet-BC (L=250, k=24) 15.3M 5.19 3.62 19.64 17.60
DenseNet-BC (L=190, k=40) 25.6M - 3.46 - 17.18

ImageNet 数据集及预训练模型上的结果

Torch

注意:Torch 中的预训练模型已废弃且不再维护。请改用 PyTorch 提供的 DenseNet 预训练模型

原论文中的模型

Torch 模型是在与 fb.resnet.torch 相同的设置下训练的。所列误差率为 224×224 单裁剪测试误差。

网络 Top-1 错误率 Torch 模型
DenseNet-121 (k=32) 25.0 [下载 (64.5MB)]
DenseNet-169 (k=32) 23.6 [下载 (114.4MB)]
DenseNet-201 (k=32) 22.5 [下载 (161.8MB)]
DenseNet-161 (k=48) 22.2 [下载 (230.8MB)]

技术报告中的模型

采用 技术报告 中的内存高效实现训练出的更精确模型。

网络 Top-1 错误率 Torch 模型
DenseNet-264 (k=32) 22.1 [下载 (256MB)]
DenseNet-232 (k=48) 21.2 [下载 (426MB)]
DenseNet-cosine-264 (k=32) 21.6 [下载 (256MB)]
DenseNet-cosine-264 (k=48) 20.4 [下载 (557MB)]

Caffe

https://github.com/shicai/DenseNet-Caffe。

PyTorch

PyTorch 关于模型的文档。我们感谢 @gpleiss 在 PyTorch 方面所做的出色工作。

Keras、TensorFlow 和 Theano

https://github.com/flyyufelix/DenseNet-Keras。

MXNet

https://github.com/miraclewkf/DenseNet。

宽度-密集网络以改善时间/准确率和内存/准确率的权衡

如果您在学习任务中使用 DenseNet 作为模型,为了降低内存和时间消耗,我们建议采用宽度大、深度浅的 DenseNet,遵循 宽残差网络 的策略。为获得宽度较大的 DenseNet,我们将深度设得较小(例如 L=40),并将增长速率设得较高(例如 k=48)。

我们测试了一系列宽度-密集网络,并将其内存和时间消耗与上文所示的 DenseNet-BC (L=100, k=12) 进行了比较。统计结果是在单张 TITAN X 显卡上,批量大小为 64,且未进行任何内存优化的情况下得出的。

模型 参数量 CIFAR-10+ CIFAR-100+ 每次迭代时间 内存
DenseNet-BC (L=100, k=12) 0.8M 4.51 22.27 0.156s 5452MB
Wide-DenseNet-BC (L=40, k=36) 1.5M 4.58 22.30 0.130s 4008MB
Wide-DenseNet-BC (L=40, k=48) 2.7M 3.99 20.29 0.165s 5245MB
Wide-DenseNet-BC (L=40, k=60) 4.3M 4.01 19.99 0.223s 6508MB

观察:

  1. Wide-DenseNet-BC (L=40, k=36) 在内存和时间消耗上更少,同时达到与 DenseNet-BC (L=100, k=12) 几乎相同的准确率。
  2. Wide-DenseNet-BC (L=40, k=48) 的内存和时间消耗与 DenseNet-BC (L=100, k=12) 相当,但准确率更高。

因此,在实际应用中,我们建议选择其中一款宽度-密集网络。

更新

2017年8月23日:

  1. 添加支持代码,方便用户直接 git clone 并运行。

2017年6月6日:

  1. 支持使用 自定义密集连接层 对 DenseNet 进行 超高效内存 训练。

  2. 通过修复 shareGradInput 函数,支持使用 标准密集连接层(递归拼接)对 DenseNet 进行 内存高效 训练。

2017年5月17日:

  1. 添加宽度-密集网络。
  2. 添加 Keras、TF 和 Theano 预训练模型的链接。

2017年4月20日:

  1. 添加 PyTorch 模型的使用说明。

2017年3月29日:

  1. 添加 ImageNet 训练代码。

2016年12月3日:

  1. 添加 ImageNet 结果及预训练模型。
  2. 添加 DenseNet-BC 结构。

联系方式

liuzhuangthu at gmail.com
欢迎讨论、建议和提问!

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|今天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.1k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|2天前
开发框架图像Agent