yolov10

GitHub
11.3k 1.2k 简单 1 次阅读 昨天AGPL-3.0图像
AI 解读 由 AI 自动生成,仅供参考

YOLOv10 是一款由清华大学团队开发的实时端到端目标检测模型,旨在为计算机视觉应用提供速度与精度的最佳平衡。作为 YOLO 系列的最新演进版本,它主要解决了传统检测模型在推理延迟、计算资源消耗以及后处理复杂度之间的权衡难题,让设备能在极低延迟下精准识别物体。

这款工具特别适合需要高效部署的 AI 开发者、追求前沿算法的研究人员,以及希望在边缘设备或移动端实现实时视觉功能的工程师。无论是安防监控、自动驾驶还是工业质检,YOLOv10 都能提供强有力的支持。

其核心技术亮点在于引入了“无 NMS(非极大值抑制)”训练策略,彻底摒弃了传统 YOLO 模型依赖的后处理步骤,实现了真正的端到端检测,显著提升了推理效率。同时,通过双重分配标签机制和轻量级分类头设计,YOLOv10 在大幅减少参数量和计算量的同时,依然保持了业界领先的检测精度。这意味着用户可以用更少的算力成本,获得更快的响应速度和更准确的识别结果,是让实时视觉应用落地的理想选择。

使用场景

某大型物流分拣中心正在升级其自动化系统,需要实时识别传送带上成千上万种不同尺寸、形状且未预先定义类别的包裹与异物。

没有 yolov10 时

  • 类别受限严重:传统检测模型只能识别训练时预设的几十种固定包裹类型,遇到新出现的包装样式或未知异物直接“视而不见”,导致漏检率高。
  • 响应延迟高:为了满足开放场景需求,团队曾尝试结合大型语言模型进行提示词检测,但巨大的计算开销导致单帧处理耗时过长,无法匹配高速传送带的节奏。
  • 部署维护复杂:每次新增一种货物类型都需要重新收集数据、微调模型并重新部署,迭代周期长达数周,难以应对电商大促期间的品类激增。
  • 资源成本高昂:为维持一定的检测精度,不得不配备昂贵的多卡 GPU 服务器集群,硬件采购与电力成本居高不下。

使用 yolov10 后

  • 实现“所见即所测”:借助 YOLOv10 端到端的实时开放检测能力,系统无需预定义类别即可精准识别任意新出现的包裹或异常物体,彻底消除未知目标漏检。
  • 极致推理速度:得益于其无后处理(NMS-free)架构和高效的注意力机制,YOLOv10 在单张消费级显卡上即可实现毫秒级推理,完美跟上高速分拣线节拍。
  • 零样本灵活扩展:面对新品类,只需通过文本描述或视觉提示即可即时生效,无需重新训练模型,将新业务上线时间从数周缩短至分钟级。
  • 降本增效显著:在保持更高精度的同时,YOLOv10 大幅降低了参数量和计算负载,使原本需要集群支撑的任务现在仅需边缘设备即可运行,硬件成本降低 60% 以上。

YOLOv10 通过打破封闭集限制与实现端到端实时推理,让物流分拣系统在应对无限变化的现实世界时,兼具了人眼的灵活性与机器的极速效率。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU
  • 未明确说明具体型号,但作为实时目标检测模型,训练和高效推理通常建议配备支持 CUDA 的 NVIDIA GPU
  • README 提及了 OpenVINO、Jetson (NVIDIA)、RK3588 等部署方案,暗示支持多种硬件加速后端
内存

未说明

依赖
notes1. 强烈建议使用 conda 创建虚拟环境(示例命令使用 Python 3.9)。2. 基准测试(Benchmark)请务必使用导出后的格式(如 ONNX、TensorRT 等),因为在 PyTorch 原生格式下,v10Detect 模块中不必要的 cv2/cv3 操作会导致推理速度偏差。3. 项目提供了多种部署集成,包括 C++、OpenVINO、Jetson Docker 镜像、RK3588 以及 Web 端 (Transformers.js)。4. 模型支持无 NMS(非极大值抑制)的端到端推理。
python3.9
torch
opencv-python (cv2)
ultralytics (隐含,基于 YOLO 系列惯例及导出格式提及)
gradio (用于 demo)
yolov10 hero image

快速开始

最新动态 -- YOLOE:实时万物感知

请查看我们在 YOLOE 上的新发布。


在开放文本提示条件下,YOLOE(我们提出的方法)与 YOLO-Worldv2 在性能、训练成本和推理效率方面的对比。

YOLOE(ye) 是一种高度 高效统一开放 的目标检测与分割模型,能够在不同提示机制下实现类似人眼的实时万物感知,支持 文本视觉输入无提示范式 等多种方式,并且相比封闭集 YOLO 模型,具有 零推理和迁移开销


摘要 目标检测和分割在计算机视觉应用中被广泛使用,然而传统的 YOLO 系列等模型虽然高效准确,却受限于预定义的类别,在开放场景中的适应性较差。近年来,一些开放集方法通过文本提示、视觉线索或无提示范式来克服这一局限,但往往因计算需求高或部署复杂而难以兼顾性能与效率。在本工作中,我们提出了 YOLOE,它将检测与分割任务整合到一个高效的单一模型中,能够跨多种开放提示机制实现万物实时感知。针对文本提示,我们提出了可重参化区域-文本对齐策略(RepRTA),该策略通过一个可重参化的轻量级辅助网络优化预训练的文本嵌入,并以零推理和迁移开销提升视觉-文本对齐效果。对于视觉提示,我们提出了语义激活视觉提示编码器(SAVPE),它采用解耦的语义分支和激活分支,以极低的复杂度带来更优的视觉特征表示和更高的精度。而在无提示场景下,我们引入了懒惰区域-提示对比策略(LRPC),该策略利用内置的大词汇表和专用嵌入来识别所有物体,避免了对昂贵语言模型的依赖。大量实验表明,YOLOE 具有卓越的零样本性能和迁移能力,同时具备高效的推理速度和较低的训练成本。值得注意的是,在 LVIS 数据集上,YOLOE-v8-S 仅需 $3\times$ 更少的训练成本和 $1.4\times$ 更快的推理速度,便能以 3.5 AP 的优势超越 YOLO-Worldv2-S。当迁移到 COCO 数据集时,YOLOE-v8-L 甚至比封闭集 YOLOv8-L 提升了 0.6 $AP^b$ 和 0.4 $AP^m$,且训练时间仅为后者的 $4\times$ 左右。


YOLOv10:实时端到端目标检测

YOLOv10 的官方 PyTorch 实现。NeurIPS 2024。


与其他方法在延迟-精度(左)和大小-精度(右)权衡方面的对比。

YOLOv10:实时端到端目标检测
Ao Wang, Hui Chen, Lihao Liu, Kai Chen, Zijia Lin, Jungong Han 和 Guiguang Ding
arXiv Open In Colab Hugging Face Spaces Hugging Face Spaces Hugging Face Spaces Transformers.js Demo LearnOpenCV Openbayes Demo

摘要 近年来,YOLO 系列因其在计算成本与检测性能之间的有效平衡,已成为实时目标检测领域的主流范式。研究人员对 YOLO 的架构设计、优化目标、数据增强策略等进行了深入探索,并取得了显著进展。然而,其后处理阶段依赖非极大值抑制(NMS),这不仅阻碍了 YOLO 的端到端部署,还增加了推理延迟。此外,YOLO 各组件的设计缺乏全面细致的审视,导致明显的计算冗余,限制了模型的能力,使其效率未能达到最优,仍有较大的性能提升空间。在本工作中,我们从后处理和模型架构两方面进一步突破 YOLO 的性能-效率边界。为此,我们首次提出了无 NMS 训练的一致性双重分配方法,实现了竞争性的检测性能与低推理延迟的兼得。同时,我们引入了一种以整体效率-精度为导向的 YOLO 模型设计策略,从效率和精度两个维度全面优化 YOLO 的各个组件,从而大幅降低计算开销并提升模型能力。我们的努力成果是一款面向实时端到端目标检测的新一代 YOLO 系列,命名为 YOLOv10。大量实验表明,YOLOv10 在不同规模的模型上均达到了当前最先进的性能和效率水平。例如,在 COCO 数据集上,我们的 YOLOv10-S 在 AP 接近 RT-DETR-R18 的情况下,速度提升了 1.8 倍,同时参数量和 FLOPs 分别减少了 2.8 倍。与 YOLOv9-C 相比,YOLOv10-B 在保持相同性能的前提下,延迟降低了 46%,参数量减少了 25%。

注释

  • 2024年5月31日:请使用导出格式进行基准测试。在未导出的格式中,例如 PyTorch 格式,YOLOv10 的速度会受到偏差,因为 v10Detect 中不必要的 cv2cv3 操作会在推理过程中被执行。
  • 2024年5月30日:我们提供了一些澄清和建议,用于使用 YOLOv10 检测较小物体或远处物体。感谢 SkalskiP!
  • 2024年5月27日:我们已更新了Hugging Face 上的检查点,添加了类别名称,以便于使用。

更新 🔥

性能

COCO

模型 测试尺寸 参数量 FLOPs APval 延迟
YOLOv10-N 640 2.3M 6.7G 38.5% 1.84ms
YOLOv10-S 640 7.2M 21.6G 46.3% 2.49ms
YOLOv10-M 640 15.4M 59.1G 51.1% 4.74ms
YOLOv10-B 640 19.1M 92.0G 52.5% 5.74ms
YOLOv10-L 640 24.4M 120.3G 53.2% 7.28ms
YOLOv10-X 640 29.5M 160.4G 54.4% 10.70ms

安装

建议使用 conda 虚拟环境。

conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .

演示

python app.py
# 请访问 http://127.0.0.1:7860

验证

yolov10n yolov10s yolov10m yolov10b yolov10l yolov10x

yolo val model=jameslahm/yolov10{n/s/m/b/l/x} data=coco.yaml batch=256

或者

from ultralytics import YOLOv10

model = YOLOv10.from_pretrained('jameslahm/yolov10{n/s/m/b/l/x}')
# 或者
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10('yolov10{n/s/m/b/l/x}.pt')

model.val(data='coco.yaml', batch=256)

训练

yolo detect train data=coco.yaml model=yolov10n/s/m/b/l/x.yaml epochs=500 batch=256 imgsz=640 device=0,1,2,3,4,5,6,7

或者

from ultralytics import YOLOv10

model = YOLOv10()
# 如果你想用预训练权重对模型进行微调,可以按如下方式加载预训练权重:
# model = YOLOv10.from_pretrained('jameslahm/yolov10{n/s/m/b/l/x}')
# 或者
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
# model = YOLOv10('yolov10{n/s/m/b/l/x}.pt')

model.train(data='coco.yaml', epochs=500, batch=256, imgsz=640)

推送到 🤗 Hub

你也可以选择将微调后的模型作为公开或私有模型推送到 Hugging Face Hub

# 假设你已经微调了一个用于作物检测的模型
model.push_to_hub("<your-hf-username-or-organization/yolov10-finetuned-crop-detection")

# 如果你不希望所有人都能看到你的模型,还可以传递 `private=True`
model.push_to_hub("<your-hf-username-or-organization/yolov10-finetuned-crop-detection", private=True)

预测

请注意,可以通过设置较低的置信度阈值来检测更小的物体或远处的物体。详情请参阅 这里

yolo predict model=jameslahm/yolov10{n/s/m/b/l/x}

或者

from ultralytics import YOLOv10

model = YOLOv10.from_pretrained('jameslahm/yolov10{n/s/m/b/l/x}')
# 或者
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10('yolov10{n/s/m/b/l/x}.pt')

model.predict()

导出

# 端到端 ONNX
yolo export model=jameslahm/yolov10{n/s/m/b/l/x} format=onnx opset=13 simplify
# 使用 ONNX 进行预测
yolo predict model=yolov10n/s/m/b/l/x.onnx

# 端到端 TensorRT
yolo export model=jameslahm/yolov10{n/s/m/b/l/x} format=engine half=True simplify opset=13 workspace=16
# 或者
trtexec --onnx=yolov10n/s/m/b/l/x.onnx --saveEngine=yolov10n/s/m/b/l/x.engine --fp16
# 使用 TensorRT 进行预测
yolo predict model=yolov10n/s/m/b/l/x.engine

或者

from ultralytics import YOLOv10

model = YOLOv10.from_pretrained('jameslahm/yolov10{n/s/m/b/l/x}')
# 或者
# wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10{n/s/m/b/l/x}.pt
model = YOLOv10('yolov10{n/s/m/b/l/x}.pt')

model.export(...)

致谢

该代码库基于 ultralyticsRT-DETR 构建。

感谢这些优秀的实现!

引用

如果我们的代码或模型对您的工作有所帮助,请引用我们的论文:

@article{wang2024yolov10,
  title={YOLOv10:实时端到端目标检测},
  author={王傲、陈辉、刘立豪、陈凯、林子嘉、韩俊功、丁贵光},
  journal={arXiv 预印本 arXiv:2405.14458},
  year={2024}
}

版本历史

v1.12024/05/26
v1.02024/05/23

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|今天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|1周前
开发框架图像Agent