[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-liuzhuang13--DenseNet":3,"tool-liuzhuang13--DenseNet":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":75,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":24,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":141},10111,"liuzhuang13\u002FDenseNet","DenseNet","Densely Connected Convolutional Networks, In CVPR 2017 (Best Paper Award).","DenseNet（密集连接卷积网络）是一种创新的深度学习架构，曾荣获 CVPR 2017 最佳论文奖。它主要应用于计算机视觉领域，旨在解决传统深层神经网络中随着层数增加而出现的梯度消失、特征复用率低以及参数效率低下等难题。\n\n与以往网络仅将上一层输出传递给下一层不同，DenseNet 的核心亮点在于其独特的“密集连接”机制：网络中的每一层都会直接连接到后续的所有层。这种设计如同建立了一个高效的信息高速公路，让特征图能够在层间自由流动和复用。这不仅极大地缓解了深层网络训练困难的问题，还显著减少了模型参数量，同时在图像分类、物体检测等任务上实现了更高的准确率。此外，社区已推出多种内存优化版本，使其在资源受限的环境下也能高效运行。\n\nDenseNet 非常适合人工智能研究人员、算法工程师以及深度学习开发者使用。如果您正在探索更高效的网络结构，或需要在有限算力下构建高性能的图像识别模型，DenseNet 提供了一个经过验证的强大基础。目前，该架构已有 PyTorch、TensorFlow、Keras 等多种主流框架的实现版本，便于大家快速上手实验与应用。","# Densely Connected Convolutional Networks (DenseNets)\n\nThis repository contains the code for DenseNet introduced in the following paper \n\n[Densely Connected Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993) (CVPR 2017, Best Paper Award) \n\n[Gao Huang](http:\u002F\u002Fwww.cs.cornell.edu\u002F~gaohuang\u002F)\\*, [Zhuang Liu](https:\u002F\u002Fliuzhuang13.github.io\u002F)\\*, [Laurens van der Maaten](https:\u002F\u002Flvdmaaten.github.io\u002F) and [Kilian Weinberger](https:\u002F\u002Fwww.cs.cornell.edu\u002F~kilian\u002F) (\\* Authors contributed equally).\n\n\n**Now with much more memory efficient implementation!** Please check the [technical report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.06990.pdf) and [code](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Ftree\u002Fmaster\u002Fmodels) for more infomation.\n \nThe code is built on [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch).\n\n### Citation\nIf you find DenseNet useful in your research, please consider citing:\n\n\t@inproceedings{DenseNet2017,\n\t  title={Densely connected convolutional networks},\n\t  author={Huang, Gao and Liu, Zhuang and van der Maaten, Laurens and Weinberger, Kilian Q },\n\t  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n\t  year={2017}\n\t}\n\n\n## Other Implementations\nOur [[Caffe]](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNetCaffe), Our memory-efficient [[Caffe]](https:\u002F\u002Fgithub.com\u002FTongcheng\u002FDN_CaffeScript), Our memory-efficient [[PyTorch]](https:\u002F\u002Fgithub.com\u002Fgpleiss\u002Fefficient_densenet_pytorch), \n[[PyTorch]](https:\u002F\u002Fgithub.com\u002Fandreasveit\u002Fdensenet-pytorch) by Andreas Veit, [[PyTorch]](https:\u002F\u002Fgithub.com\u002Fbamos\u002Fdensenet.pytorch) by Brandon Amos, [[PyTorch]](https:\u002F\u002Fgithub.com\u002FbaldassarreFe\u002Fpytorch-densenet-tiramisu) by Federico Baldassarre,\n[[MXNet]](https:\u002F\u002Fgithub.com\u002FNicatio\u002FDensenet\u002Ftree\u002Fmaster\u002Fmxnet) by Nicatio, \n[[MXNet]](https:\u002F\u002Fgithub.com\u002Fbruinxiong\u002Fdensenet.mxnet) by Xiong Lin, \n[[MXNet]](https:\u002F\u002Fgithub.com\u002Fmiraclewkf\u002FDenseNet) by miraclewkf,\n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002FYixuanLi\u002Fdensenet-tensorflow) by Yixuan Li, \n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002FLaurentMazare\u002Fdeep-models\u002Ftree\u002Fmaster\u002Fdensenet) by Laurent Mazare,\n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002Fikhlestov\u002Fvision_networks) by Illarion Khlestov, \n[[Lasagne]](https:\u002F\u002Fgithub.com\u002FLasagne\u002FRecipes\u002Ftree\u002Fmaster\u002Fpapers\u002Fdensenet) by Jan Schlüter, \n[[Keras]](https:\u002F\u002Fgithub.com\u002Ftdeboissiere\u002FDeepLearningImplementations\u002Ftree\u002Fmaster\u002FDenseNet) by tdeboissiere,  \n[[Keras]](https:\u002F\u002Fgithub.com\u002Frobertomest\u002Fconvnet-study) by Roberto de Moura Estevão Filho, \n[[Keras]](https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet) by Somshubra Majumdar, \n[[Chainer]](https:\u002F\u002Fgithub.com\u002Ft-hanya\u002Fchainer-DenseNet) by Toshinori Hanya, \n[[Chainer]](https:\u002F\u002Fgithub.com\u002Fyasunorikudo\u002Fchainer-DenseNet) by Yasunori Kudo, \n[[Torch 3D-DenseNet]](https:\u002F\u002Fgithub.com\u002Fbarrykui\u002F3ddensenet.torch) by Barry Kui,\n[[Keras]](https:\u002F\u002Fgithub.com\u002Fcmasch\u002Fdensenet) by Christopher Masch,\n[[Tensorflow2]](https:\u002F\u002Fgithub.com\u002Fokason97\u002FDenseNet-Tensorflow2) by Gaston Rios and Ulises Jeremias Cornejo Fandos.\n\n\n\nNote that we only listed some early implementations here. If you would like to add yours, please submit a pull request.\n\n## Some Following up Projects\n0. [Multi-Scale Dense Convolutional Networks for Efficient Prediction](https:\u002F\u002Fgithub.com\u002Fgaohuang\u002FMSDNet)\n0. [DSOD: Learning Deeply Supervised Object Detectors from Scratch](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FDSOD)\n0. [CondenseNet: An Efficient DenseNet using Learned Group Convolutions](https:\u002F\u002Fgithub.com\u002FShichenLiu\u002FCondenseNet)\n0. [Fully Convolutional DenseNets for Semantic Segmentation](https:\u002F\u002Fgithub.com\u002FSimJeg\u002FFC-DenseNet)\n0. [Pelee: A Real-Time Object Detection System on Mobile Devices](https:\u002F\u002Fgithub.com\u002FRobert-JunWang\u002FPelee)\n\n\n\n\n## Contents\n1. [Introduction](#introduction)\n2. [Usage](#usage)\n3. [Results on CIFAR](#results-on-cifar)\n4. [Results on ImageNet and Pretrained Models](#results-on-imagenet-and-pretrained-models)\n5. [Updates](#updates)\n\n\n## Introduction\nDenseNet is a network architecture where each layer is directly connected to every other layer in a feed-forward fashion (within each *dense block*). For each layer, the feature maps of all preceding layers are treated as separate inputs whereas its own feature maps are passed on as inputs to all subsequent layers. This connectivity pattern yields state-of-the-art accuracies on CIFAR10\u002F100 (with or without data augmentation) and SVHN. On the large scale ILSVRC 2012 (ImageNet) dataset, DenseNet achieves a similar accuracy as ResNet, but using less than half the amount of parameters and roughly half the number of FLOPs.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fliuzhuang13_DenseNet_readme_d384c94c036e.jpg\" width=\"480\">\n\nFigure 1: A dense block with 5 layers and growth rate 4. \n\n\n![densenet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fliuzhuang13_DenseNet_readme_4929f91f5e12.jpg)\nFigure 2: A deep DenseNet with three dense blocks. \n\n\n## Usage \n0. Install Torch and required dependencies like cuDNN. See the instructions [here](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch\u002Fblob\u002Fmaster\u002FINSTALL.md) for a step-by-step guide.\n1. Clone this repo: ```git clone https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet.git```\n\nAs an example, the following command trains a DenseNet-BC with depth L=100 and growth rate k=12 on CIFAR-10:\n```\nth main.lua -netType densenet -dataset cifar10 -batchSize 64 -nEpochs 300 -depth 100 -growthRate 12\n``` \nAs another example, the following command trains a DenseNet-BC with depth L=121 and growth rate k=32 on ImageNet:\n```\nth main.lua -netType densenet -dataset imagenet -data [dataFolder] -batchSize 256 -nEpochs 90 -depth 121 -growthRate 32 -nGPU 4 -nThreads 16 -optMemory 3\n``` \nPlease refer to [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch) for data preparation.\n\n### DenseNet and DenseNet-BC\nBy default, the code runs with the DenseNet-BC architecture, which has 1x1 convolutional *bottleneck* layers, and *compresses* the number of channels at each transition layer by 0.5. To run with the original DenseNet, simply use the options *-bottleneck false* and *-reduction 1*\n\n### Memory efficient implementation (newly added feature on June 6, 2017)\nThere is an option *-optMemory* which is very useful for reducing GPU memory footprint when training a DenseNet. By default, the value is set to 2, which activates the *shareGradInput* function (with small modifications from [here](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch\u002Fblob\u002Fmaster\u002Fmodels\u002Finit.lua#L102)). There are two extreme memory efficient modes (*-optMemory 3* or *-optMemory 4*) which use a customized densely connected layer. With *-optMemory 4*, the largest 190-layer DenseNet-BC on CIFAR can be trained on a single NVIDIA TitanX GPU (uses 8.3G of 12G) instead of fully using four GPUs with the standard (recursive concatenation) implementation . \n\nMore details about the memory efficient implementation are discussed [here](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Ftree\u002Fmaster\u002Fmodels).\n\n\n## Results on CIFAR\nThe table below shows the results of DenseNets on CIFAR datasets. The \"+\" mark at the end denotes for standard data augmentation (random crop after zero-padding, and horizontal flip). For a DenseNet model, L denotes its depth and k denotes its growth rate. On CIFAR-10 and CIFAR-100 without data augmentation, a Dropout layer with drop rate 0.2 is introduced after each convolutional layer except the very first one.\n\nModel | Parameters| CIFAR-10 | CIFAR-10+ | CIFAR-100 | CIFAR-100+ \n-------|:-------:|:--------:|:--------:|:--------:|:--------:|\nDenseNet (L=40, k=12) |1.0M |7.00 |5.24 | 27.55|24.42\nDenseNet (L=100, k=12)|7.0M |5.77 |4.10 | 23.79|20.20\nDenseNet (L=100, k=24)|27.2M |5.83 |3.74 | 23.42|19.25\nDenseNet-BC (L=100, k=12)|0.8M |5.92 |4.51 | 24.15|22.27\nDenseNet-BC (L=250, k=24)|15.3M |**5.19** |3.62 | **19.64**|17.60\nDenseNet-BC (L=190, k=40)|25.6M |- |**3.46** | -|**17.18**\n\n\n## Results on ImageNet and Pretrained Models\n### Torch\n\n**Note: the pre-trained models in Torch are deprecated and no longer maintained. Please use PyTorch's pre-trained [DenseNet models](https:\u002F\u002Fpytorch.org\u002Fvision\u002Fstable\u002Fmodels.html) instead.**\n\n#### Models in the original paper\nThe Torch models are trained under the same setting as in [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch). The error rates shown are 224x224 1-crop test errors.\n\n| Network       |  Top-1 error | Torch Model |\n| ------------- | ----------- | ----------- |\n| DenseNet-121 (k=32)  |  25.0    | [Download (64.5MB)]       |\n| DenseNet-169 (k=32)  | 23.6     | [Download (114.4MB)]       |\n| DenseNet-201 (k=32)  | 22.5     | [Download (161.8MB)]       |\n| DenseNet-161 (k=48)  | 22.2     | [Download (230.8MB)]\n\n#### Models in the tech report\nMore accurate models trained with the memory efficient implementation in the [technical report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.06990.pdf). \n\n\n| Network       |  Top-1 error | Torch Model |\n| ------------- | ----------- | ------------ |\n| DenseNet-264 (k=32)  |  22.1 |    [Download (256MB)]\n| DenseNet-232 (k=48)  | 21.2 | [Download (426MB)]\n| DenseNet-cosine-264 (k=32) | 21.6  |  [Download (256MB)]\n| DenseNet-cosine-264 (k=48) | 20.4   | [Download (557MB)]\n\n\n### Caffe\nhttps:\u002F\u002Fgithub.com\u002Fshicai\u002FDenseNet-Caffe.\n\n### PyTorch\n[PyTorch documentation on models](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Ftorchvision\u002Fmodels.html?highlight=densenet). We would like to thank @gpleiss for this nice work in PyTorch.\n\n### Keras, Tensorflow and Theano\nhttps:\u002F\u002Fgithub.com\u002Fflyyufelix\u002FDenseNet-Keras.\n\n### MXNet\nhttps:\u002F\u002Fgithub.com\u002Fmiraclewkf\u002FDenseNet.\n\n\n## Wide-DenseNet for better Time\u002FAccuracy and Memory\u002FAccuracy Tradeoff\n\nIf you use DenseNet as a model in your learning task, to reduce the memory and time consumption, we recommend use a wide and shallow DenseNet, following the strategy of [wide residual networks](https:\u002F\u002Fgithub.com\u002Fszagoruyko\u002Fwide-residual-networks). To obtain a wide DenseNet we set the depth to be smaller (e.g., L=40) and the growthRate to be larger (e.g., k=48).\n\nWe test a set of Wide-DenseNet-BCs and compared the memory and time with the DenseNet-BC (L=100, k=12) shown above. We obtained the statistics using a single TITAN X card, with batch size 64, and without any memory optimization.\n\n\nModel | Parameters| CIFAR-10+ | CIFAR-100+ | Time per Iteration | Memory \n-------|:-------:|:--------:|:--------:|:--------:|:--------:|\nDenseNet-BC (L=100, k=12)|0.8M |4.51 |22.27 | 0.156s | 5452MB\nWide-DenseNet-BC (L=40, k=36)|1.5M |4.58 |22.30 | 0.130s|4008MB\nWide-DenseNet-BC (L=40, k=48)|2.7M |3.99 |20.29 | 0.165s|5245MB\nWide-DenseNet-BC (L=40, k=60)|4.3M |4.01 |19.99 | 0.223s|6508MB\n\nObersevations:\n\n1. Wide-DenseNet-BC (L=40, k=36) uses less memory\u002Ftime while achieves about the same accuracy as DenseNet-BC (L=100, k=12). \n2. Wide-DenseNet-BC (L=40, k=48) uses about the same memory\u002Ftime as DenseNet-BC (L=100, k=12), while is much more accurate.\n\nThus, for practical use, we suggest picking one model from those Wide-DenseNet-BCs.\n\n\n\n## Updates\n**08\u002F23\u002F2017:**\n\n1. Add supporting code, so one can simply *git clone* and run.\n\n**06\u002F06\u002F2017:**\n\n1. Support **ultra memory efficient** training of DenseNet with *customized densely connected layer*.\n\n2. Support **memory efficient** training of DenseNet with *standard densely connected layer* (recursive concatenation) by fixing the *shareGradInput* function.\n\n05\u002F17\u002F2017:\n\n1. Add Wide-DenseNet.\n2. Add keras, tf, theano link for pretrained models.\n\n04\u002F20\u002F2017:\n\n1. Add usage of models in PyTorch.\n\n03\u002F29\u002F2017:\n\n1. Add the code for imagenet training.\n\n12\u002F03\u002F2016:\n\n1. Add Imagenet results and pretrained models.\n2. Add DenseNet-BC structures.\n\n\n\n## Contact\nliuzhuangthu at gmail.com  \nAny discussions, suggestions and questions are welcome!\n\n","# 密集连接卷积网络（DenseNets）\n\n本仓库包含在以下论文中提出的DenseNet的代码：\n\n[Densely Connected Convolutional Networks](http:\u002F\u002Farxiv.org\u002Fabs\u002F1608.06993)（CVPR 2017，最佳论文奖）\n\n[Gao Huang](http:\u002F\u002Fwww.cs.cornell.edu\u002F~gaohuang\u002F)、[Zhuang Liu](https:\u002F\u002Fliuzhuang13.github.io\u002F)、[Laurens van der Maaten](https:\u002F\u002Flvdmaaten.github.io\u002F) 和 [Kilian Weinberger](https:\u002F\u002Fwww.cs.cornell.edu\u002F~kilian\u002F)（*作者贡献相等*）。\n\n**现已提供更加节省显存的实现！** 请查阅 [技术报告](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.06990.pdf) 和 [代码](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Ftree\u002Fmaster\u002Fmodels) 获取更多信息。\n\n该代码基于 [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch) 构建。\n\n### 引用\n如果您在研究中使用了DenseNet，请考虑引用以下内容：\n\n\t@inproceedings{DenseNet2017,\n\t  title={Densely connected convolutional networks},\n\t  author={Huang, Gao and Liu, Zhuang and van der Maaten, Laurens and Weinberger, Kilian Q },\n\t  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n\t  year={2017}\n\t}\n\n\n## 其他实现\n我们的 [[Caffe]](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNetCaffe)，我们更节省显存的 [[Caffe]](https:\u002F\u002Fgithub.com\u002FTongcheng\u002FDN_CaffeScript)，我们更节省显存的 [[PyTorch]](https:\u002F\u002Fgithub.com\u002Fgpleiss\u002Fefficient_densenet_pytorch)， \n[[PyTorch]](https:\u002F\u002Fgithub.com\u002Fandreasveit\u002Fdensenet-pytorch) 由 Andreas Veit 实现，[[PyTorch]](https:\u002F\u002Fgithub.com\u002Fbamos\u002Fdensenet.pytorch) 由 Brandon Amos 实现，[[PyTorch]](https:\u002F\u002Fgithub.com\u002FbaldassarreFe\u002Fpytorch-densenet-tiramisu) 由 Federico Baldassarre 实现，\n[[MXNet]](https:\u002F\u002Fgithub.com\u002FNicatio\u002FDensenet\u002Ftree\u002Fmaster\u002Fmxnet) 由 Nicatio 实现， \n[[MXNet]](https:\u002F\u002Fgithub.com\u002Fbruinxiong\u002Fdensenet.mxnet) 由 Xiong Lin 实现， \n[[MXNet]](https:\u002F\u002Fgithub.com\u002Fmiraclewkf\u002FDenseNet) 由 miraclewkf 实现，\n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002FYixuanLi\u002Fdensenet-tensorflow) 由 Yixuan Li 实现， \n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002FLaurentMazare\u002Fdeep-models\u002Ftree\u002Fmaster\u002Fdensenet) 由 Laurent Mazare 实现，\n[[Tensorflow]](https:\u002F\u002Fgithub.com\u002Fikhlestov\u002Fvision_networks) 由 Illarion Khlestov 实现， \n[[Lasagne]](https:\u002F\u002Fgithub.com\u002FLasagne\u002FRecipes\u002Ftree\u002Fmaster\u002Fpapers\u002Fdensenet) 由 Jan Schlüter 实现， \n[[Keras]](https:\u002F\u002Fgithub.com\u002Ftdeboissiere\u002FDeepLearningImplementations\u002Ftree\u002Fmaster\u002FDenseNet) 由 tdeboissiere 实现，  \n[[Keras]](https:\u002F\u002Fgithub.com\u002Frobertomest\u002Fconvnet-study) 由 Roberto de Moura Estevão Filho 实现， \n[[Keras]](https:\u002F\u002Fgithub.com\u002Ftitu1994\u002FDenseNet) 由 Somshubra Majumdar 实现， \n[[Chainer]](https:\u002F\u002Fgithub.com\u002Ft-hanya\u002Fchainer-DenseNet) 由 Toshinori Hanya 实现， \n[[Chainer]](https:\u002F\u002Fgithub.com\u002Fyasunorikudo\u002Fchainer-DenseNet) 由 Yasunori Kudo 实现， \n[[Torch 3D-DenseNet]](https:\u002F\u002Fgithub.com\u002Fbarrykui\u002F3ddensenet.torch) 由 Barry Kui 实现，\n[[Keras]](https:\u002F\u002Fgithub.com\u002Fcmasch\u002Fdensenet) 由 Christopher Masch 实现，\n[[Tensorflow2]](https:\u002F\u002Fgithub.com\u002Fokason97\u002FDenseNet-Tensorflow2) 由 Gaston Rios 和 Ulises Jeremias Cornejo Fandos 实现。\n\n\n\n请注意，此处仅列出了一些早期的实现。如果您希望添加自己的实现，请提交拉取请求。\n\n## 一些后续项目\n0. [用于高效预测的多尺度密集卷积网络](https:\u002F\u002Fgithub.com\u002Fgaohuang\u002FMSDNet)\n0. [DSOD：从零开始学习深度监督目标检测器](https:\u002F\u002Fgithub.com\u002Fszq0214\u002FDSOD)\n0. [CondenseNet：使用学习到的组卷积的高效DenseNet](https:\u002F\u002Fgithub.com\u002FShichenLiu\u002FCondenseNet)\n0. [用于语义分割的全卷积DenseNet](https:\u002F\u002Fgithub.com\u002FSimJeg\u002FFC-DenseNet)\n0. [Pelee：移动端上的实时目标检测系统](https:\u002F\u002Fgithub.com\u002FRobert-JunWang\u002FPelee)\n\n\n\n\n## 目录\n1. [简介](#introduction)\n2. [使用方法](#usage)\n3. [CIFAR上的结果](#results-on-cifar)\n4. [ImageNet上的结果及预训练模型](#results-on-imagenet-and-pretrained-models)\n5. [更新](#updates)\n\n\n## 简介\nDenseNet是一种网络架构，其中每一层都以前馈方式直接连接到其他所有层（在每个*密集块*内）。对于每一层，所有前面层的特征图被视为独立的输入，而其自身的特征图则作为输入传递给所有后续层。这种连接模式在CIFAR10\u002F100（无论是否进行数据增强）和SVHN上均取得了最先进的准确率。在大规模ILSVRC 2012（ImageNet）数据集上，DenseNet达到了与ResNet相似的准确率，但参数量不到ResNet的一半，浮点运算次数也大约是ResNet的一半。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fliuzhuang13_DenseNet_readme_d384c94c036e.jpg\" width=\"480\">\n\n图1：一个具有5层、增长率为4的密集块。\n\n\n![densenet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fliuzhuang13_DenseNet_readme_4929f91f5e12.jpg)\n图2：一个包含三个密集块的深层DenseNet。\n\n\n## 使用方法 \n0. 安装Torch及所需的依赖库，如cuDNN。请参阅 [这里](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch\u002Fblob\u002Fmaster\u002FINSTALL.md) 的逐步指南。\n1. 克隆本仓库：```git clone https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet.git```\n\n例如，以下命令将在CIFAR-10数据集上训练一个深度为L=100、增长率k=12的DenseNet-BC：\n```\nth main.lua -netType densenet -dataset cifar10 -batchSize 64 -nEpochs 300 -depth 100 -growthRate 12\n``` \n再比如，以下命令将在ImageNet数据集上训练一个深度为L=121、增长率k=32的DenseNet-BC：\n```\nth main.lua -netType densenet -dataset imagenet -data [dataFolder] -batchSize 256 -nEpochs 90 -depth 121 -growthRate 32 -nGPU 4 -nThreads 16 -optMemory 3\n``` \n有关数据准备，请参考 [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch)。\n\n### DenseNet与DenseNet-BC\n默认情况下，代码运行的是DenseNet-BC架构，该架构包含1×1卷积的*瓶颈*层，并且在每个过渡层将通道数压缩至原来的0.5倍。若要运行原始的DenseNet，只需使用选项*-bottleneck false*和*-reduction 1*即可。\n\n### 节省显存的实现（2017年6月6日新增功能）\n有一个选项*-optMemory*，在训练DenseNet时非常有助于减少GPU显存占用。默认值为2，会激活*shareGradInput*函数（并在此基础上进行了小幅修改，详见 [这里](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch\u002Fblob\u002Fmaster\u002Fmodels\u002Finit.lua#L102)）。此外，还有两种极端节省显存的模式（*-optMemory 3*或*-optMemory 4*），它们使用自定义的密集连接层。采用*-optMemory 4*时，即使是在CIFAR上最大的190层DenseNet-BC，也可以在单张NVIDIA TitanX GPU上进行训练（仅占用12G显存中的8.3G），而无需像标准的递归拼接实现那样完全占用四张GPU。\n\n关于节省显存实现的更多细节，请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Ftree\u002Fmaster\u002Fmodels)。\n\n## CIFAR 数据集上的结果\n下表展示了 DenseNet 在 CIFAR 数据集上的实验结果。“+”号表示使用了标准的数据增强（零填充后随机裁剪，以及水平翻转）。对于 DenseNet 模型，L 表示其深度，k 表示其增长率。在未进行数据增强的 CIFAR-10 和 CIFAR-100 上，除第一层卷积外，每层卷积之后都引入了一个丢弃率为 0.2 的 Dropout 层。\n\n模型 | 参数量| CIFAR-10 | CIFAR-10+ | CIFAR-100 | CIFAR-100+ \n-------|:-------:|:--------:|:--------:|:--------:|:--------:|\nDenseNet (L=40, k=12) |1.0M |7.00 |5.24 | 27.55|24.42\nDenseNet (L=100, k=12)|7.0M |5.77 |4.10 | 23.79|20.20\nDenseNet (L=100, k=24)|27.2M |5.83 |3.74 | 23.42|19.25\nDenseNet-BC (L=100, k=12)|0.8M |5.92 |4.51 | 24.15|22.27\nDenseNet-BC (L=250, k=24)|15.3M |**5.19** |3.62 | **19.64**|17.60\nDenseNet-BC (L=190, k=40)|25.6M |- |**3.46** | -|**17.18**\n\n\n## ImageNet 数据集及预训练模型上的结果\n### Torch\n\n**注意：Torch 中的预训练模型已废弃且不再维护。请改用 PyTorch 提供的 [DenseNet 预训练模型](https:\u002F\u002Fpytorch.org\u002Fvision\u002Fstable\u002Fmodels.html)。**\n\n#### 原论文中的模型\nTorch 模型是在与 [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch) 相同的设置下训练的。所列误差率为 224×224 单裁剪测试误差。\n\n| 网络       |  Top-1 错误率 | Torch 模型 |\n| ------------- | ----------- | ----------- |\n| DenseNet-121 (k=32)  |  25.0    | [下载 (64.5MB)]       |\n| DenseNet-169 (k=32)  | 23.6     | [下载 (114.4MB)]       |\n| DenseNet-201 (k=32)  | 22.5     | [下载 (161.8MB)]       |\n| DenseNet-161 (k=48)  | 22.2     | [下载 (230.8MB)]\n\n#### 技术报告中的模型\n采用 [技术报告](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1707.06990.pdf) 中的内存高效实现训练出的更精确模型。\n\n\n| 网络       |  Top-1 错误率 | Torch 模型 |\n| ------------- | ----------- | ------------ |\n| DenseNet-264 (k=32)  |  22.1 |    [下载 (256MB)]\n| DenseNet-232 (k=48)  | 21.2 | [下载 (426MB)]\n| DenseNet-cosine-264 (k=32) | 21.6  |  [下载 (256MB)]\n| DenseNet-cosine-264 (k=48) | 20.4   | [下载 (557MB)]\n\n\n### Caffe\nhttps:\u002F\u002Fgithub.com\u002Fshicai\u002FDenseNet-Caffe。\n\n### PyTorch\n[PyTorch 关于模型的文档](http:\u002F\u002Fpytorch.org\u002Fdocs\u002Ftorchvision\u002Fmodels.html?highlight=densenet)。我们感谢 @gpleiss 在 PyTorch 方面所做的出色工作。\n\n### Keras、TensorFlow 和 Theano\nhttps:\u002F\u002Fgithub.com\u002Fflyyufelix\u002FDenseNet-Keras。\n\n### MXNet\nhttps:\u002F\u002Fgithub.com\u002Fmiraclewkf\u002FDenseNet。\n\n\n## 宽度-密集网络以改善时间\u002F准确率和内存\u002F准确率的权衡\n\n如果您在学习任务中使用 DenseNet 作为模型，为了降低内存和时间消耗，我们建议采用宽度大、深度浅的 DenseNet，遵循 [宽残差网络](https:\u002F\u002Fgithub.com\u002Fszagoruyko\u002Fwide-residual-networks) 的策略。为获得宽度较大的 DenseNet，我们将深度设得较小（例如 L=40），并将增长速率设得较高（例如 k=48）。\n\n我们测试了一系列宽度-密集网络，并将其内存和时间消耗与上文所示的 DenseNet-BC (L=100, k=12) 进行了比较。统计结果是在单张 TITAN X 显卡上，批量大小为 64，且未进行任何内存优化的情况下得出的。\n\n模型 | 参数量| CIFAR-10+ | CIFAR-100+ | 每次迭代时间 | 内存 \n-------|:-------:|:--------:|:--------:|:--------:|:--------:|\nDenseNet-BC (L=100, k=12)|0.8M |4.51 |22.27 | 0.156s | 5452MB\nWide-DenseNet-BC (L=40, k=36)|1.5M |4.58 |22.30 | 0.130s|4008MB\nWide-DenseNet-BC (L=40, k=48)|2.7M |3.99 |20.29 | 0.165s|5245MB\nWide-DenseNet-BC (L=40, k=60)|4.3M |4.01 |19.99 | 0.223s|6508MB\n\n观察：\n\n1. Wide-DenseNet-BC (L=40, k=36) 在内存和时间消耗上更少，同时达到与 DenseNet-BC (L=100, k=12) 几乎相同的准确率。\n2. Wide-DenseNet-BC (L=40, k=48) 的内存和时间消耗与 DenseNet-BC (L=100, k=12) 相当，但准确率更高。\n\n因此，在实际应用中，我们建议选择其中一款宽度-密集网络。\n\n\n\n## 更新\n**2017年8月23日：**\n\n1. 添加支持代码，方便用户直接 *git clone* 并运行。\n\n**2017年6月6日：**\n\n1. 支持使用 *自定义密集连接层* 对 DenseNet 进行 **超高效内存** 训练。\n\n2. 通过修复 *shareGradInput* 函数，支持使用 *标准密集连接层*（递归拼接）对 DenseNet 进行 **内存高效** 训练。\n\n2017年5月17日：\n\n1. 添加宽度-密集网络。\n2. 添加 Keras、TF 和 Theano 预训练模型的链接。\n\n2017年4月20日：\n\n1. 添加 PyTorch 模型的使用说明。\n\n2017年3月29日：\n\n1. 添加 ImageNet 训练代码。\n\n2016年12月3日：\n\n1. 添加 ImageNet 结果及预训练模型。\n2. 添加 DenseNet-BC 结构。\n\n\n\n## 联系方式\nliuzhuangthu at gmail.com  \n欢迎讨论、建议和提问！","# DenseNet 快速上手指南\n\nDenseNet（Densely Connected Convolutional Networks）是一种通过密集连接机制提升特征复用率的卷积神经网络架构，在 CIFAR 和 ImageNet 数据集上表现优异。本指南基于官方 Torch 实现整理。\n\n## 环境准备\n\n**系统要求：**\n- 操作系统：Linux (推荐 Ubuntu)\n- GPU：NVIDIA GPU (可选，但强烈推荐用于加速训练)\n- 内存：建议 8GB 以上\n\n**前置依赖：**\n- **Torch**: 核心深度学习框架\n- **cuDNN**: NVIDIA 加速库 (若使用 GPU)\n- **Git**: 代码版本管理工具\n\n> **注意**：官方代码基于 Torch (Lua)，目前该框架已不再主流维护。若需使用 PyTorch、TensorFlow 或 Keras 版本，请参考 README 中的 \"Other Implementations\" 章节获取社区维护的高效实现。\n\n## 安装步骤\n\n1. **安装 Torch 及依赖**\n   请参照 [fb.resnet.torch](https:\u002F\u002Fgithub.com\u002Ffacebook\u002Ffb.resnet.torch\u002Fblob\u002Fmaster\u002FINSTALL.md) 的官方指引完成 Torch 和 cuDNN 的安装。\n\n2. **克隆代码仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet.git\n   cd DenseNet\n   ```\n\n## 基本使用\n\n以下命令展示了如何训练一个标准的 DenseNet 模型。\n\n### 示例 1：在 CIFAR-10 数据集上训练\n训练一个深度为 100、增长率为 12 的 DenseNet-BC 模型：\n\n```bash\nth main.lua -netType densenet -dataset cifar10 -batchSize 64 -nEpochs 300 -depth 100 -growthRate 12\n```\n\n### 示例 2：在 ImageNet 数据集上训练\n训练一个深度为 121、增长率为 32 的 DenseNet-BC 模型（需指定数据路径）：\n\n```bash\nth main.lua -netType densenet -dataset imagenet -data [dataFolder] -batchSize 256 -nEpochs 90 -depth 121 -growthRate 32 -nGPU 4 -nThreads 16 -optMemory 3\n```\n*请将 `[dataFolder]` 替换为你的 ImageNet 数据实际存放路径。*\n\n### 关键参数说明\n- **-optMemory**: 显存优化选项。\n  - `2` (默认): 启用梯度共享，适度节省显存。\n  - `3` 或 `4`: 启用自定义密集连接层，极大降低显存占用（推荐在单卡上训练深层网络时使用）。\n- **-bottleneck**: 默认为 `true` (使用 DenseNet-BC 架构)。若需使用原始 DenseNet，设置为 `false` 并将 `-reduction` 设为 `1`。\n- **-depth**: 网络总层数 (L)。\n- **-growthRate**: 增长率 (k)，决定每层输出的特征图数量。\n\n> **提示**：对于实际应用，若追求时间与精度的平衡，可尝试“宽而浅”的配置（如 `-depth 40 -growthRate 48`），往往能在相近显存占用下获得更好的效果。","某医疗影像初创团队正在开发一套辅助诊断系统，需要从肺部 CT 扫描中精准识别早期微小结节，但受限于标注数据稀缺且对漏诊率零容忍。\n\n### 没有 DenseNet 时\n- **特征传递效率低**：传统深层网络（如普通 CNN）在层数加深后，底层纹理细节难以有效传递至顶层，导致微小结节特征丢失。\n- **训练收敛困难**：为了提升精度强行增加网络深度，却引发梯度消失问题，模型极难训练收敛，调参耗时数周。\n- **参数冗余严重**：为补偿特征流失而盲目增加通道数，导致模型体积庞大，无法部署在医院边缘端的推理设备上。\n- **小样本过拟合**：在有限的病例数据下，模型容易记住噪声而非学习病理特征，泛化能力差，临床测试误报率高。\n\n### 使用 DenseNet 后\n- **特征复用最大化**：DenseNet 通过密集连接机制，让每一层都能直接获取之前所有层的特征图，完美保留了结节边缘等细微纹理。\n- **梯度流动顺畅**：短路径连接确保了梯度能直接回传至浅层，即使构建超深网络也能快速稳定收敛，研发周期缩短一半。\n- **模型轻量高效**：得益于特征复用，DenseNet 用更少的参数量实现了更高的精度，顺利部署至低算力的便携式超声设备中。\n- **强泛化抗过拟合**：这种隐式的深度监督效果相当于正则化，使其在少量医疗数据上依然表现稳健，显著降低了假阳性率。\n\nDenseNet 通过革命性的密集连接架构，在数据受限的严苛场景下，以更低算力成本实现了医疗级的高精度图像识别。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fliuzhuang13_DenseNet_aaeffd1e.png","liuzhuang13","Zhuang Liu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fliuzhuang13_bf620fda.jpg",null,"Princeton University","Princeton, NJ","liuzhuang1234","scholar.google.com\u002Fcitations?user=7OTD-LEAAAAJ","https:\u002F\u002Fgithub.com\u002Fliuzhuang13",[82],{"name":83,"color":84,"percentage":85},"Lua","#000080",100,4861,1068,"2026-04-17T07:28:13","BSD-3-Clause",4,"Linux, macOS","必需 NVIDIA GPU。文中提到单张 NVIDIA TitanX (12GB 显存) 可训练大型模型；标准实现可能需要多卡，优化后可单卡运行。需安装 cuDNN。","未说明",{"notes":95,"python":96,"dependencies":97},"该仓库原始代码基于 Lua 版的 Torch 框架（非 PyTorch），需使用 'th' 命令运行。文中明确提示 Torch 版本的预训练模型已弃用，建议用户转用 PyTorch、TensorFlow 或 Keras 等其他语言的实现版本。支持通过参数 '-optMemory' 进行显存优化，使大型网络能在单卡上运行。","不需要 (基于 Torch\u002FLua)",[98,99,100],"Torch (Lua 版本)","cuDNN","fb.resnet.torch",[14],[103],"deep-learning","2026-03-27T02:49:30.150509","2026-04-20T19:32:29.618357",[107,112,117,122,127,132,137],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},45388,"在 CIFAR-10 数据集上，DenseNet (L=40, k=12) 的具体网络架构是怎样的？","对于 CIFAR-10，DenseNet 包含 3 个密集块（Dense Blocks）。网络起始有一个 3x3 卷积层（步长为 1），以及 3 个过渡层（Transition Layers），共计 4 个非密集块层。\n计算每块层数的方法：总深度 40 减去 4 个其他层等于 36，再除以 3 个块，即每个密集块包含 12 层。\n如果使用了瓶颈层（Bottlenecks），则每个密集块包含 6 个普通层和 6 个瓶颈层。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F45",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},45389,"为什么我统计的 DenseNet 参数量与论文中声称的数值不一致？","这通常是因为压缩率（reduction_rate）设置不同导致的。在非 BC（Bottleneck + Compression）结构中，压缩率应为 1，意味着过渡层不进行通道数缩减。\n如果您得到的参数量偏小（例如 densenet-100-12 得到 4.06M 而非 7.0M），请检查是否错误地设置了 reduction_rate = 0.5。确保在非 BC 模型中将压缩率设为 1 以获得正确的参数量。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F38",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},45390,"在 ImageNet 数据集上训练 DenseNet 时，图像预处理应该如何设置？","ImageNet 的设置应完全遵循 fb.resnet.torch 的标准流程：图像首先被调整大小（resize），然后裁剪（crop）为 224x224 的分辨率。此外，收敛性问题可能源于实现细节的差异，例如批归一化（Batch Normalization）的具体配置。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F5",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},45391,"复现 Wide-DenseNet-BC 结果时误差率偏高，如何优化数据增强策略？","如果复现结果不如预期（例如误差率高出 0.5%），很可能是因为数据增强方式存在显著差异。建议参考其他成熟的实现代码（如 Keras 版本的 convnet-study）来调整数据增强策略。同时，检查输入归一化（input norm）和数据增强代码是否与原作者保持一致至关重要。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F49",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},45392,"实验结果表格中的错误率是指 Top-1 还是 Top-5？","在 DenseNet 的 CIFAR 和 ImageNet 实验结果表中，除非特别说明，报告的错误率通常指 Top-1 错误率。这是该领域标准的评估指标。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F26",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},45393,"如何在报告中对比不同模型的参数量和计算量？","为了进行严肃的对比，建议在报告结果时明确列出使用的参数量。对于计算量的估算，由于直接测量较为困难，推荐至少记录训练时间（例如：在 GTX Titan X 上每轮 epoch 的前向+反向传播耗时）作为参考指标。虽然训练时间受硬件影响较大，但能提供一定的性能洞察。","https:\u002F\u002Fgithub.com\u002Fliuzhuang13\u002FDenseNet\u002Fissues\u002F6",{"id":138,"question_zh":139,"answer_zh":140,"source_url":136},45394,"零填充（Zero-padding）与反射填充（Reflection-padding）对模型学习有何不同影响？","零填充相当于用灰色填充图像被裁剪的部分，使分类器对被裁剪部分和大块灰色区域不敏感；而反射填充会引入潜在的虚假信息（风险较高），虽然也能增加对裁剪的不变性，但这些额外信息会被印入权重中。通常认为，如果不切割图像更能评估神经网络质量，填充方式更多是用于生产环境最终模型的微调，与网络模型本身正交。",[]]