YOLOv6

GitHub
5.9k 1.1k 中等 1 次阅读 昨天GPL-3.0开发框架图像
AI 解读 由 AI 自动生成,仅供参考

YOLOv6 是一款专为工业应用打造的高效单阶段目标检测框架,由美团团队开源。它致力于解决现实场景中物体识别对速度与精度的双重严苛要求,帮助开发者在资源受限的设备上也能实现快速、准确的实时检测。

无论是需要部署在服务器、边缘设备还是移动端的场景,YOLOv6 都提供了从轻量级(N/T/S)到大容量(M/L/P6)的多种模型选择,兼顾了极致的推理速度与优秀的检测精度。其独特亮点在于采用了重参数化卷积、解耦头结构以及更高效的训练策略,显著提升了模型性能。此外,YOLOv6 还持续扩展功能边界,最新迭代已支持实例分割、人脸检测任务,并推出了专门针对移动端和 CPU 优化的 YOLOv6Lite 版本,同时提供定制化的量化方案以进一步压缩模型体积。

这款工具非常适合计算机视觉领域的算法工程师、研究人员以及需要将 AI 落地到生产环境的应用开发者使用。凭借清晰的代码结构、完善的文档以及对主流部署平台的良好支持,YOLOv6 能帮助用户大幅降低从模型训练到实际部署的技术门槛,轻松构建高性能的视觉感知系统。

使用场景

某大型物流分拣中心需要在高速传送带上实时识别并分类数百万个不同尺寸的包裹,以驱动机械臂进行自动分流。

没有 YOLOv6 时

  • 检测延迟高导致漏检:旧模型在高分辨率输入下推理速度慢,无法跟上每秒 3 米的传送带速度,导致小件包裹未被识别就流向错误滑道。
  • 资源消耗过大:为了维持一定的准确率,不得不部署昂贵的多卡 GPU 服务器,且显存占用极高,难以在边缘端设备部署。
  • 量化部署困难:尝试将模型转换为 TensorRT 格式以加速时,精度损失严重,需要耗费数周时间手动调整量化参数才能勉强可用。
  • 小目标识别率低:面对密集堆叠或远距离的小包裹,传统单阶段检测器的特征提取能力不足,误判和漏判频发。

使用 YOLOv6 后

  • 毫秒级实时响应:利用 YOLOv6-N 模型在 T4 GPU 上实现高达 1187 FPS 的推理速度,完美匹配高速流水线,彻底消除动态漏检。
  • 低成本边缘部署:借助 YOLOv6Lite 版本,成功将高精度模型部署在低算力的 CPU 或移动端设备上,大幅降低了硬件采购与维护成本。
  • 无损量化加速:直接使用 YOLOv6 自带的定制化量化方法,轻松实现 INT8 部署,在提升 3 倍速度的同时几乎零精度损失。
  • 精准捕捉微小包裹:得益于重设计的骨干网络与解耦头结构,对密集场景下的微小包裹检测 mAP 显著提升,分拣准确率突破 99%。

YOLOv6 通过极致的速度与精度的平衡,让工业级视觉检测从“昂贵实验”变成了可大规模落地的“标准生产力”。

运行环境要求

操作系统
  • Linux
GPU
  • 训练和基准测试需要 NVIDIA GPU (文中使用 T4 进行测试),支持 TensorRT 加速
  • 推理可运行于 CPU 或移动端 (通过 YOLOv6Lite/MNN/NCNN)
  • 具体显存和 CUDA 版本未在片段中明确说明,但通常需 CUDA 11+ 以支持较新 PyTorch 和 TensorRT
内存

未说明

依赖
notes该项目提供多种模型变体:标准版 (P5/P6)、轻量级移动版 (YOLOv6Lite)、人脸检测版 (YOLOv6-Face) 和分割版 (YOLOv6-Seg)。基准测试基于 TensorRT 7.2/8.4 在 T4 GPU 上进行。移动端推理依赖 MNN 框架并在 ARM 架构芯片 (如骁龙、天玑) 上测试。自定义数据微调支持单卡和多卡 (DDP) 模式。
python未说明 (通常建议 3.8+)
torch
torchvision
onnx
tensorrt
mnn
ncnn
YOLOv6 hero image

快速开始

English | 简体中文


Open In Colab Open In Kaggle

YOLOv6

论文实现:

新特性

  • [2023.09.15] 发布 YOLOv6-Segmentation。🚀 性能
  • [2023.04.28] 发布适用于移动端或CPU的 YOLOv6Lite 模型。⭐️ 移动端基准测试
  • [2023.03.10] 发布 YOLOv6-Face。🔥 性能
  • [2023.03.02] 将 基础模型 更新至3.0版本。
  • [2023.01.06] 发布P6模型,并进一步提升P5模型的性能。⭐️ 基准测试
  • [2022.11.04] 发布 基础模型,以简化训练和部署流程。
  • [2022.09.06] 提供定制化的量化方法。🚀 量化教程
  • [2022.09.05] 发布M/L模型,并更新N/T/S模型,性能得到显著提升。
  • [2022.06.23] 发布性能优异的N/T/S系列模型。

基准测试

模型 尺寸 mAPval
0.5:0.95
SpeedT4
trt fp16 b1
(fps)
SpeedT4
trt fp16 b32
(fps)
参数量
(M)
浮点运算量
(G)
YOLOv6-N 640 37.5 779 1187 4.7 11.4
YOLOv6-S 640 45.0 339 484 18.5 45.3
YOLOv6-M 640 50.0 175 226 34.9 85.8
YOLOv6-L 640 52.8 98 116 59.6 150.7
YOLOv6-N6 1280 44.9 228 281 10.4 49.8
YOLOv6-S6 1280 50.3 98 108 41.4 198.0
YOLOv6-M6 1280 55.2 47 55 79.6 379.5
YOLOv6-L6 1280 57.2 26 29 140.4 673.4
表格说明
  • 所有检查点均采用自蒸馏训练,唯独YOLOv6-N6/S6模型在未使用蒸馏的情况下训练至300个epoch。
  • mAP和速度结果是在COCO val2017数据集上评估得出的,输入分辨率为P5模型的640×640、P6模型的1280×1280。
  • 速度测试基于T4上的TensorRT 7.2版本。
  • 可参考测试速度教程来复现YOLOv6的速度结果。
  • YOLOv6的参数量和浮点运算量是针对部署后的模型进行估算的。
旧版模型
模型 尺寸 mAPval
0.5:0.95
SpeedT4
trt fp16 b1
(fps)
SpeedT4
trt fp16 b32
(fps)
参数量
(M)
浮点运算量
(G)
YOLOv6-N 640 35.9300e
36.3400e
802 1234 4.3 11.1
YOLOv6-T 640 40.3300e
41.1400e
449 659 15.0 36.7
YOLOv6-S 640 43.5300e
43.8400e
358 495 17.2 44.2
YOLOv6-M 640 49.5 179 233 34.3 82.2
YOLOv6-L-ReLU 640 51.7 113 149 58.5 144.0
YOLOv6-L 640 52.5 98 121 58.5 144.0
  • 速度测试基于T4上的TensorRT 7.2版本。

量化模型 🚀

模型 尺寸 精度 mAPval
0.5:0.95
SpeedT4
trt b1
(fps)
SpeedT4
trt b32
(fps)
YOLOv6-N RepOpt 640 INT8 34.8 1114 1828
YOLOv6-N 640 FP16 35.9 802 1234
YOLOv6-T RepOpt 640 INT8 39.8 741 1167
YOLOv6-T 640 FP16 40.3 449 659
YOLOv6-S RepOpt 640 INT8 43.3 619 924
YOLOv6-S 640 FP16 43.5 377 541
  • 速度测试基于T4上的TensorRT 8.4版本。
  • 精度数据基于训练了300个epoch的模型得出。

移动端基准测试

模型 尺寸 mAPval
0.5:0.95
sm8350
(ms)
mt6853
(ms)
sdm660
(ms)
参数
(M)
FLOPs
(G)
YOLOv6Lite-S 320*320 22.4 7.99 11.99 41.86 0.55 0.56
YOLOv6Lite-M 320*320 25.1 9.08 13.27 47.95 0.79 0.67
YOLOv6Lite-L 320*320 28.0 11.37 16.20 61.40 1.09 0.87
YOLOv6Lite-L 320*192 25.0 7.02 9.66 36.13 1.09 0.52
YOLOv6Lite-L 224*128 18.9 3.63 4.99 17.76 1.09 0.24
表格说明
  • 从模型大小和输入图像比例的角度出发,我们在移动端构建了一系列模型,以方便在不同场景下的灵活应用。
  • 所有检查点均使用400个epoch训练,未进行蒸馏。
  • mAP和速度的结果是在COCO val2017数据集上评估的,输入分辨率为表格中的Size。
  • 速度测试在MNN 2.3.0 AArch64平台上,采用2线程并利用arm82加速进行。推理预热10次,循环执行100次。
  • 高通888(sm8350)、天玑720(mt6853)和高通660(sdm660)分别对应于高端、中端和低端的不同性能芯片,可作为不同芯片下模型能力的参考。
  • 参考测试NCNN速度教程,可以复现YOLOv6Lite的NCNN速度结果。

快速入门

安装
git clone https://github.com/meituan/YOLOv6
cd YOLOv6
pip install -r requirements.txt
复现我们在COCO上的结果

请参阅训练COCO数据集

在自定义数据上微调

单GPU

# P5模型
python tools/train.py --batch 32 --conf configs/yolov6s_finetune.py --data data/dataset.yaml --fuse_ab --device 0
# P6模型
python tools/train.py --batch 32 --conf configs/yolov6s6_finetune.py --data data/dataset.yaml --img 1280 --device 0

多GPU(推荐使用DDP模式)

# P5模型
python -m torch.distributed.launch --nproc_per_node 8 tools/train.py --batch 256 --conf configs/yolov6s_finetune.py --data data/dataset.yaml --fuse_ab --device 0,1,2,3,4,5,6,7
# P6模型
python -m torch.distributed.launch --nproc_per_node 8 tools/train.py --batch 128 --conf configs/yolov6s6_finetune.py --data data/dataset.yaml --img 1280 --device 0,1,2,3,4,5,6,7
  • fuse_ab:添加基于锚点的辅助分支,并使用锚点辅助训练模式(目前P6模型不支持此功能)。
  • conf:选择配置文件以指定网络、优化器和超参数。我们建议在您的自定义数据集上训练时使用yolov6n/s/m/l_finetune.py。
  • data:准备数据集,并在data.yaml中指定数据集路径(COCOYOLO格式的COCO标签)。
  • 确保您的数据集结构如下:
├── coco
│   ├── annotations
│   │   ├── instances_train2017.json
│   │   └── instances_val2017.json
│   ├── images
│   │   ├── train2017
│   │   └── val2017
│   ├── labels
│   │   ├── train2017
│   │   ├── val2017
│   ├── LICENSE
│   ├── README.txt

YOLOv6支持不同的输入分辨率模式。有关详细信息,请参阅如何设置输入尺寸

恢复训练

如果您的训练过程出现中断,可以通过以下方式恢复训练:

# 单GPU训练。
python tools/train.py --resume

# 多GPU训练。
python -m torch.distributed.launch --nproc_per_node 8 tools/train.py --resume

上述命令会自动在YOLOv6目录中找到最新的检查点,然后继续训练。

您也可以通过--resume参数指定检查点路径:

# 请将/path/to/your/checkpoint/path替换为您想要恢复训练的检查点路径。
--resume /path/to/your/checkpoint/path

这将从您提供的特定检查点开始恢复训练。

评估

在COCO val2017数据集上以640×640或1280x1280分辨率复现mAP

# P5模型
python tools/eval.py --data data/coco.yaml --batch 32 --weights yolov6s.pt --task val --reproduce_640_eval
# P6模型
python tools/eval.py --data data/coco.yaml --batch 32 --weights yolov6s6.pt --task val --reproduce_640_eval --img 1280
  • verbose:设置为True以打印每个类别的mAP。
  • do_coco_metric:设置为True/False以启用/禁用pycocotools评估方法。
  • do_pr_metric:设置为True/False以决定是否打印精确率和召回率指标。
  • config-file:指定一个配置文件来定义所有评估参数,例如:yolov6n_with_eval_params.py
推理

首先,从YOLOv6的发布页面下载预训练模型,或者使用您自己训练好的模型进行推理。

其次,使用tools/infer.py运行推理:

# P5模型
python tools/infer.py --weights yolov6s.pt --source img.jpg / imgdir / video.mp4
# P6模型
python tools/infer.py --weights yolov6s6.pt --img 1280 1280 --source img.jpg / imgdir / video.mp4

如果您想对本地摄像头或网络摄像头进行推理,可以运行:

# P5模型
python tools/infer.py --weights yolov6s.pt --webcam --webcam-addr 0

# P6 模型
python tools/infer.py --weights yolov6s6.pt --img 1280 1280 --webcam --webcam-addr 0

webcam-addr 可以是本地摄像头编号或 RTSP 地址。

部署
教程
第三方资源

FAQ(持续更新)

如果您有任何问题,欢迎加入我们的微信群进行讨论和交流。

版本历史

0.4.12023/09/15
0.4.02023/04/28
0.3.12023/03/10
0.3.02023/01/06
0.2.12022/11/04
0.2.02022/09/05
0.1.02022/06/23

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架