[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PaddlePaddle--PaddleYOLO":3,"tool-PaddlePaddle--PaddleYOLO":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":113,"forks":114,"last_commit_at":115,"license":116,"difficulty_score":10,"env_os":117,"env_gpu":118,"env_ram":119,"env_deps":120,"category_tags":127,"github_topics":128,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":149,"updated_at":150,"faqs":151,"releases":180},2501,"PaddlePaddle\u002FPaddleYOLO","PaddleYOLO","🚀🚀🚀 YOLO series of PaddlePaddle implementation, PP-YOLOE+, RT-DETR, YOLOv5, YOLOv6, YOLOv7, YOLOv8, YOLOv10, YOLO11, YOLOX, YOLOv5u, YOLOv7u, YOLOv6Lite, RTMDet and so on. 🚀🚀🚀","PaddleYOLO 是一个基于百度飞桨（PaddlePaddle）深度学习框架开发的开源目标检测代码库。它专注于整合和优化 YOLO 系列算法，旨在为开发者提供一个统一、高效且易于使用的模型训练与部署平台。\n\n在计算机视觉领域，YOLO 系列模型虽然性能卓越，但不同版本（如 YOLOv5 至 YOLO11、YOLOX 等）往往分散在不同的代码库中，导致环境配置繁琐、代码风格不一，增加了学习和迁移成本。PaddleYOLO 解决了这一痛点，它将 PP-YOLOE+、RT-DETR、YOLOv5\u002Fv6\u002Fv7\u002Fv8\u002Fv10、YOLO11 等多个主流及前沿模型集中管理，提供了标准化的接口和一致的代码结构。这意味着用户无需在不同仓库间切换，即可轻松对比和切换各种 SOTA（ state-of-the-art）模型。\n\n该工具特别适合 AI 工程师、算法研究人员以及需要快速落地视觉应用的开发者使用。无论是进行学术研究中的模型对比，还是工业场景下的实际部署，PaddleYOLO 都能提供极大便利。其技术亮点在于不仅支持常规的模型训练、验证和预测，还深度优化了模型导出功能，支持 TensorRT 加","PaddleYOLO 是一个基于百度飞桨（PaddlePaddle）深度学习框架开发的开源目标检测代码库。它专注于整合和优化 YOLO 系列算法，旨在为开发者提供一个统一、高效且易于使用的模型训练与部署平台。\n\n在计算机视觉领域，YOLO 系列模型虽然性能卓越，但不同版本（如 YOLOv5 至 YOLO11、YOLOX 等）往往分散在不同的代码库中，导致环境配置繁琐、代码风格不一，增加了学习和迁移成本。PaddleYOLO 解决了这一痛点，它将 PP-YOLOE+、RT-DETR、YOLOv5\u002Fv6\u002Fv7\u002Fv8\u002Fv10、YOLO11 等多个主流及前沿模型集中管理，提供了标准化的接口和一致的代码结构。这意味着用户无需在不同仓库间切换，即可轻松对比和切换各种 SOTA（ state-of-the-art）模型。\n\n该工具特别适合 AI 工程师、算法研究人员以及需要快速落地视觉应用的开发者使用。无论是进行学术研究中的模型对比，还是工业场景下的实际部署，PaddleYOLO 都能提供极大便利。其技术亮点在于不仅支持常规的模型训练、验证和预测，还深度优化了模型导出功能，支持 TensorRT 加速及多种后处理模式（如去除 NMS），显著提升了推理速度。此外，它对混合精度训练和多卡分布式训练的良好支持，进一步降低了高性能模型的开发门槛，帮助用户更高效地构建高精度的目标检测系统。","简体中文 | [English](README_en.md)\n\n## 简介\n\n**PaddleYOLO**是基于[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)的YOLO系列模型库，**只包含YOLO系列模型的相关代码**，支持`YOLOv3`、`PP-YOLO`、`PP-YOLOv2`、`PP-YOLOE`、**`PP-YOLOE+`**、**`RT-DETR`**、`YOLOX`、`YOLOv5`、`YOLOv6`、`YOLOv7`、`YOLOv8`、`YOLOv5u`、`YOLOv7u`、`YOLOv6Lite`、`RTMDet`等模型，COCO数据集模型库请参照 [ModelZoo](docs\u002FMODEL_ZOO_cn.md) 和 [configs](configs\u002F)。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ccdf576cb885.jpg\" width=\"480\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_5ea9c7548e82.jpg\" width=\"480\"\u002F>\n\u003C\u002Fdiv>\n\n**注意:**\n\n - **PaddleYOLO** 代码库协议为 **[GPL 3.0](LICENSE)**，[YOLOv5](configs\u002Fyolov5)、[YOLOv6](configs\u002Fyolov6)、[YOLOv7](configs\u002Fyolov7)和[YOLOv8](configs\u002Fyolov8)这几类模型代码不合入[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)，其余YOLO模型推荐在[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)中使用，**会最先发布PP-YOLO系列特色检测模型的最新进展**；\n - **PaddleYOLO**代码库**推荐使用paddlepaddle-2.4.2以上的版本**，请参考[官网](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002Fquick?docurl=\u002Fdocumentation\u002Fdocs\u002Fzh\u002Finstall\u002Fpip\u002Flinux-pip.html)下载对应适合版本，**Windows平台请安装paddle develop版本**；\n - **PaddleYOLO 的[Roadmap](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F44)** issue用于收集用户的需求，欢迎提出您的建议和需求；\n\n## 教程\n\n\u003Cdetails open>\n\u003Csummary>安装\u003C\u002Fsummary>\n\nClone 代码库和安装 [requirements.txt](.\u002Frequirements.txt)，环境需要在一个\n[**Python>=3.7.0**](https:\u002F\u002Fwww.python.org\u002F) 下的环境，且需要安装\n[**PaddlePaddle>=2.4.2**](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002F)。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO  # clone\ncd PaddleYOLO\npip install -r requirements.txt  # install\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>训练\u002F验证\u002F预测\u002F\u003C\u002Fsummary>\n将以下命令写在一个脚本文件里如```run.sh```，一键运行命令为：```sh run.sh```，也可命令行一句句去运行。\n\n```bash\nmodel_name=ppyoloe # 可修改，如 yolov7\njob_name=ppyoloe_plus_crn_s_80e_coco # 可修改，如 yolov7_tiny_300e_coco\n\nconfig=configs\u002F${model_name}\u002F${job_name}.yml\nlog_dir=log_dir\u002F${job_name}\n# weights=https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fmodels\u002F${job_name}.pdparams\nweights=output\u002F${job_name}\u002Fmodel_final.pdparams\n\n# 1.训练（单卡\u002F多卡），加 --eval 表示边训边评估，加 --amp 表示混合精度训练\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Ftrain.py -c ${config} --eval --amp\npython -m paddle.distributed.launch --log_dir=${log_dir} --gpus 0,1,2,3,4,5,6,7 tools\u002Ftrain.py -c ${config} --eval --amp\n\n# 2.评估，加 --classwise 表示输出每一类mAP\nCUDA_VISIBLE_DEVICES=0 python tools\u002Feval.py -c ${config} -o weights=${weights} --classwise\n\n# 3.预测 (单张图\u002F图片文件夹）\nCUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_img=demo\u002F000000014439_640x640.jpg --draw_threshold=0.5\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_dir=demo\u002F --draw_threshold=0.5\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>部署\u002F测速\u003C\u002Fsummary>\n\n将以下命令写在一个脚本文件里如```run.sh```，一键运行命令为：```sh run.sh```，也可命令行一句句去运行。\n\n```bash\nmodel_name=ppyoloe # 可修改，如 yolov7\njob_name=ppyoloe_plus_crn_s_80e_coco # 可修改，如 yolov7_tiny_300e_coco\n\nconfig=configs\u002F${model_name}\u002F${job_name}.yml\nlog_dir=log_dir\u002F${job_name}\n# weights=https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fmodels\u002F${job_name}.pdparams\nweights=output\u002F${job_name}\u002Fmodel_final.pdparams\n\n# 4.导出模型，以下3种模式选一种\n## 普通导出，加trt表示用于trt加速，对NMS和silu激活函数提速明显\nCUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} # trt=True\n\n## exclude_post_process去除后处理导出，返回和YOLOv5导出ONNX时相同格式的concat后的1个Tensor，是未缩放回原图的坐标+分类置信度\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} exclude_post_process=True # trt=True\n\n## exclude_nms去除NMS导出，返回2个Tensor，是缩放回原图后的坐标和分类置信度\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} exclude_nms=True # trt=True\n\n# 5.部署预测，注意不能使用 去除后处理 或 去除NMS 导出后的模型去预测\nCUDA_VISIBLE_DEVICES=0 python deploy\u002Fpython\u002Finfer.py --model_dir=output_inference\u002F${job_name} --image_file=demo\u002F000000014439_640x640.jpg --device=GPU\n\n# 6.部署测速，加 “--run_mode=trt_fp16” 表示在TensorRT FP16模式下测速，注意如需用到 trt_fp16 则必须为加 trt=True 导出的模型\nCUDA_VISIBLE_DEVICES=0 python deploy\u002Fpython\u002Finfer.py --model_dir=output_inference\u002F${job_name} --image_file=demo\u002F000000014439_640x640.jpg --device=GPU --run_benchmark=True # --run_mode=trt_fp16\n\n# 7.onnx导出，一般结合 exclude_post_process去除后处理导出的模型\npaddle2onnx --model_dir output_inference\u002F${job_name} --model_filename model.pdmodel --params_filename model.pdiparams --opset_version 12 --save_file ${job_name}.onnx\n\n# 8.onnx trt测速\n\u002Fusr\u002Flocal\u002FTensorRT-8.0.3.4\u002Fbin\u002Ftrtexec --onnx=${job_name}.onnx --workspace=4096 --avgRuns=10 --shapes=input:1x3x640x640 --fp16\n\u002Fusr\u002Flocal\u002FTensorRT-8.0.3.4\u002Fbin\u002Ftrtexec --onnx=${job_name}.onnx --workspace=4096 --avgRuns=10 --shapes=input:1x3x640x640 --fp32\n```\n\n- 如果想切换模型，只要修改开头两行即可，如:\n  ```\n  model_name=yolov7\n  job_name=yolov7_tiny_300e_coco\n  ```\n- 导出**onnx**，首先安装[Paddle2ONNX](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddle2ONNX)，`pip install paddle2onnx`；\n- **统计FLOPs(G)和Params(M)**，首先安装[PaddleSlim](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleSlim)，`pip install paddleslim`，然后设置[runtime.yml](configs\u002Fruntime.yml)里`print_flops: True`和`print_params: True`，并且注意确保是**单尺度**下如640x640，**打印的是MACs，FLOPs=2*MACs**。\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails open>\n\u003Csummary> [训练自定义数据集](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F43) \u003C\u002Fsummary>\n\n- 请参照[文档](docs\u002FMODEL_ZOO_cn.md#自定义数据集)和[issue](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F43)；\n- PaddleDetection团队提供了**基于PP-YOLOE的各种垂类检测模型**的配置文件和权重，用户也可以作为参考去使用自定义数据集。请参考 [PP-YOLOE application](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fppyoloe\u002Fapplication)、[pphuman](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fpphuman)、[ppvehicle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fppvehicle)、[visdrone](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fvisdrone) 和 [smalldet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fsmalldet)。\n- PaddleDetection团队也提供了**VOC数据集的各种YOLO模型**的配置文件和权重，用户也可以作为参考去使用自定义数据集。请参考 [voc](configs\u002Fvoc)。\n- 训练自定义数据集之前请先**确保加载了对应COCO权重作为预训练**，将配置文件中的`pretrain_weights: `设置为对应COCO模型训好的权重，一般会提示head分类层卷积的通道数没对应上，属于正常现象，是由于自定义数据集一般和COCO数据集种类数不一致；\n- YOLO检测模型建议**总`batch_size`至少大于`64`**去训练，如果资源不够请**换小模型**或**减小模型的输入尺度**，为了保障较高检测精度，**尽量不要尝试单卡训和总`batch_size`小于`64`训**；\n\n\u003C\u002Fdetails>\n\n\n## 更新日志\n\n* 【2024\u002F07\u002F10】新增昇腾910B硬件支持，支持的模型见 [模型列表](docs\u002Fhardware\u002Fsupported_models.md)\n* 【2023\u002F05\u002F21】支持[RT-DETR](configs\u002Frtdetr)、[YOLOv8](configs\u002Fyolov8)、[YOLOv5u](configs\u002Fyolov5\u002Fyolov5u)和[YOLOv7u](configs\u002Fyolov7\u002Fyolov7u)训练全流程，支持[YOLOv6Lite](configs\u002Fyolov6\u002Fyolov6lite)预测和部署；\n* 【2023\u002F03\u002F13】支持[YOLOv5u](configs\u002Fyolov5\u002Fyolov5u)和[YOLOv7u](configs\u002Fyolov7\u002Fyolov7u)预测和部署；\n* 【2023\u002F01\u002F10】支持[YOLOv8](configs\u002Fyolov8)预测和部署；\n* 【2022\u002F09\u002F29】支持[RTMDet](configs\u002Frtmdet)预测和部署；\n* 【2022\u002F09\u002F26】发布[PaddleYOLO](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)模型套件，请参照[ModelZoo](docs\u002FMODEL_ZOO_cn.md)；\n* 【2022\u002F09\u002F19】支持[YOLOv6](configs\u002Fyolov6)新版，包括n\u002Ft\u002Fs\u002Fm\u002Fl模型；\n* 【2022\u002F08\u002F23】发布`YOLOSeries`代码库: 支持`YOLOv3`,`PP-YOLOE`,`PP-YOLOE+`,`YOLOX`,`YOLOv5`,`YOLOv6`,`YOLOv7`等YOLO模型，支持`ConvNeXt`骨干网络高精度版`PP-YOLOE`,`YOLOX`和`YOLOv5`等模型，支持PaddleSlim无损加速量化训练`PP-YOLOE`,`YOLOv5`,`YOLOv6`和`YOLOv7`等模型，详情可阅读[此文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FHki01Zs2lQgvLSLWS0btrA)；\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_8a903f25c3d9.png\" width=\"20\"\u002F> 产品动态\n\n- 🔥 **2023.3.14：PaddleYOLO发布[release\u002F2.6版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Ftree\u002Frelease\u002F2.6)**\n  - 💡 模型套件：\n    - 支持`YOLOv8`,`YOLOv5u`,`YOLOv7u`等YOLO模型预测和部署；\n    - 支持`Swin-Transformer`、`ViT`、`FocalNet`骨干网络高精度版`PP-YOLOE+`等模型；\n    - 支持`YOLOv8`在[FastDeploy](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FFastDeploy\u002Ftree\u002Fdevelop\u002Fexamples\u002Fvision\u002Fdetection\u002Fpaddledetection)中多硬件快速部署；\n\n- 🔥 **2022.9.26：PaddleYOLO发布[release\u002F2.5版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Ftree\u002Frelease\u002F2.5)**\n  - 💡 模型套件：\n    - 发布[PaddleYOLO](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)模型套件: 支持`YOLOv3`,`PP-YOLOE`,`PP-YOLOE+`,`YOLOX`,`YOLOv5`,`YOLOv6`,`YOLOv7`等YOLO模型，支持`ConvNeXt`骨干网络高精度版`PP-YOLOE`,`YOLOX`和`YOLOv5`等模型，支持PaddleSlim无损加速量化训练`PP-YOLOE`,`YOLOv5`,`YOLOv6`和`YOLOv7`等模型；\n\n- 🔥 **2022.8.26：PaddleDetection发布[release\u002F2.5版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.5)**\n  - 🗳 特色模型：\n    - 发布[PP-YOLOE+](configs\u002Fppyoloe)，最高精度提升2.4% mAP，达到54.9% mAP，模型训练收敛速度提升3.75倍，端到端预测速度最高提升2.3倍；多个下游任务泛化性提升\n    - 发布[PicoDet-NPU](configs\u002Fpicodet)模型，支持模型全量化部署；新增[PicoDet](configs\u002Fpicodet)版面分析模型\n    - 发布[PP-TinyPose升级版](.\u002Fconfigs\u002Fkeypoint\u002Ftiny_pose\u002F)增强版，在健身、舞蹈等场景精度提升9.1% AP，支持侧身、卧躺、跳跃、高抬腿等非常规动作\n  - 🔮 场景能力：\n    - 发布行人分析工具[PP-Human v2](.\u002Fdeploy\u002Fpipeline)，新增打架、打电话、抽烟、闯入四大行为识别，底层算法性能升级，覆盖行人检测、跟踪、属性三类核心算法能力，提供保姆级全流程开发及模型优化策略，支持在线视频流输入\n    - 首次发布[PP-Vehicle](.\u002Fdeploy\u002Fpipeline)，提供车牌识别、车辆属性分析（颜色、车型）、车流量统计以及违章检测四大功能，兼容图片、在线视频流、视频输入，提供完善的二次开发文档教程\n  - 💡 前沿算法：\n    - 全面覆盖的[YOLO家族](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)经典与最新模型: 包括YOLOv3，百度飞桨自研的实时高精度目标检测检测模型PP-YOLOE，以及前沿检测算法YOLOv4、YOLOv5、YOLOX，YOLOv6及YOLOv7\n    - 新增基于[ViT](configs\u002Fvitdet)骨干网络高精度检测模型，COCO数据集精度达到55.7% mAP；新增[OC-SORT](configs\u002Fmot\u002Focsort)多目标跟踪模型；新增[ConvNeXt](configs\u002Fconvnext)骨干网络\n  - 📋 产业范例：新增[智能健身](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4385813)、[打架识别](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4086987?channelType=0&channel=0)、[来客分析](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4230123?channelType=0&channel=0)、车辆结构化范例\n\n- 2022.3.24：PaddleDetection发布[release\u002F2.4版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.4)\n  - 发布高精度云边一体SOTA目标检测模型[PP-YOLOE](configs\u002Fppyoloe)，提供s\u002Fm\u002Fl\u002Fx版本，l版本COCO test2017数据集精度51.6%，V100预测速度78.1 FPS，支持混合精度训练，训练较PP-YOLOv2加速33%，全系列多尺度模型，满足不同硬件算力需求，可适配服务器、边缘端GPU及其他服务器端AI加速卡。\n  - 发布边缘端和CPU端超轻量SOTA目标检测模型[PP-PicoDet增强版](configs\u002Fpicodet)，精度提升2%左右，CPU预测速度提升63%，新增参数量0.7M的PicoDet-XS模型，提供模型稀疏化和量化功能，便于模型加速，各类硬件无需单独开发后处理模块，降低部署门槛。\n  - 发布实时行人分析工具[PP-Human](deploy\u002Fpipeline)，支持行人跟踪、人流量统计、人体属性识别与摔倒检测四大能力，基于真实场景数据特殊优化，精准识别各类摔倒姿势，适应不同环境背景、光线及摄像角度。\n  - 新增[YOLOX](configs\u002Fyolox)目标检测模型，支持nano\u002Ftiny\u002Fs\u002Fm\u002Fl\u002Fx版本，x版本COCO val2017数据集精度51.8%。\n\n- [更多版本发布](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Freleases)\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_d0a19d2d4460.png\" alt=\"\" width=\"20\"> 简介\n\n**PaddleDetection**为基于飞桨PaddlePaddle的端到端目标检测套件，内置**30+模型算法**及**250+预训练模型**，覆盖**目标检测、实例分割、跟踪、关键点检测**等方向，其中包括**服务器端和移动端高精度、轻量级**产业级SOTA模型、冠军方案和学术前沿算法，并提供配置化的网络模块组件、十余种数据增强策略和损失函数等高阶优化支持和多种部署方案，在打通数据处理、模型开发、训练、压缩、部署全流程的基础上，提供丰富的案例及教程，加速算法产业落地应用。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_0c4fa53bab57.gif\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_2f0dacf1d2c2.png\" width=\"20\"\u002F> 特性\n\n- **模型丰富**: 包含**目标检测**、**实例分割**、**人脸检测**、****关键点检测****、**多目标跟踪**等**250+个预训练模型**，涵盖多种**全球竞赛冠军**方案。\n- **使用简洁**：模块化设计，解耦各个网络组件，开发者轻松搭建、试用各种检测模型及优化策略，快速得到高性能、定制化的算法。\n- **端到端打通**: 从数据增强、组网、训练、压缩、部署端到端打通，并完备支持**云端**\u002F**边缘端**多架构、多设备部署。\n- **高性能**: 基于飞桨的高性能内核，模型训练速度及显存占用优势明显。支持FP16训练, 支持多机训练。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_f3e5817203e7.png\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ba39e2a5e577.png\" alt=\"\" width=\"20\"> 技术交流\n\n- 如果你发现任何PaddleDetection存在的问题或者是建议, 欢迎通过[GitHub Issues](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Fissues)给我们提issues。\n\n- **欢迎加入PaddleDetection 微信用户群（扫码填写问卷即可入群）**\n  - **入群福利 💎：获取PaddleDetection团队整理的重磅学习大礼包🎁**\n    - 📊 福利一：获取飞桨联合业界企业整理的开源数据集\n    - 👨‍🏫 福利二：获取PaddleDetection历次发版直播视频与最新直播咨询\n    - 🗳 福利三：获取垂类场景预训练模型集合，包括工业、安防、交通等5+行业场景\n    - 🗂 福利四：获取10+全流程产业实操范例，覆盖火灾烟雾检测、人流量计数等产业高频场景\n  \u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_6e557cb18dd9.jpg\"  width = \"200\" \u002F>  \n  \u003C\u002Fdiv>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1257e53e867a.png\" width=\"20\"\u002F> 套件结构概览\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>Architectures\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Backbones\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Components\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>Data Augmentation\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cdetails open>\u003Csummary>\u003Cb>Object Detection\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>YOLOv3\u003C\u002Fli>  \n            \u003Cli>YOLOv5\u003C\u002Fli>  \n            \u003Cli>YOLOv6\u003C\u002Fli>  \n            \u003Cli>YOLOv7\u003C\u002Fli>  \n            \u003Cli>YOLOv8\u003C\u002Fli>  \n            \u003Cli>PP-YOLOv1\u002Fv2\u003C\u002Fli>\n            \u003Cli>PP-YOLO-Tiny\u003C\u002Fli>\n            \u003Cli>PP-YOLOE\u003C\u002Fli>\n            \u003Cli>PP-YOLOE+\u003C\u002Fli>\n            \u003Cli>YOLOX\u003C\u002Fli>\n            \u003Cli>RTMDet\u003C\u002Fli>\n         \u003C\u002Ful>\u003C\u002Fdetails>\n      \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>Details\u003C\u002Fb>\u003C\u002Fsummary>\n        \u003Cul>\n          \u003Cli>ResNet(&vd)\u003C\u002Fli>\n          \u003Cli>CSPResNet\u003C\u002Fli>\n          \u003Cli>DarkNet\u003C\u002Fli>\n          \u003Cli>CSPDarkNet\u003C\u002Fli>\n          \u003Cli>ConvNeXt\u003C\u002Fli>\n          \u003Cli>EfficientRep\u003C\u002Fli>\n          \u003Cli>CSPBepBackbone\u003C\u002Fli>\n          \u003Cli>ELANNet\u003C\u002Fli>\n          \u003Cli>CSPNeXt\u003C\u002Fli>\n        \u003C\u002Ful>\u003C\u002Fdetails>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>Common\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>Sync-BN\u003C\u002Fli>\n            \u003Cli>Group Norm\u003C\u002Fli>\n            \u003Cli>DCNv2\u003C\u002Fli>\n            \u003Cli>EMA\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>\n        \u003Cdetails open>\u003Csummary>\u003Cb>FPN\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>YOLOv3FPN\u003C\u002Fli>\n            \u003Cli>PPYOLOFPN\u003C\u002Fli>\n            \u003Cli>PPYOLOTinyFPN\u003C\u002Fli>\n            \u003Cli>PPYOLOPAN\u003C\u002Fli>\n            \u003Cli>YOLOCSPPAN\u003C\u002Fli>\n            \u003Cli>Custom-PAN\u003C\u002Fli>\n            \u003Cli>RepPAN\u003C\u002Fli>\n            \u003Cli>CSPRepPAN\u003C\u002Fli>\n            \u003Cli>ELANFPN\u003C\u002Fli>\n            \u003Cli>ELANFPNP6\u003C\u002Fli>\n            \u003Cli>CSPNeXtPAFPN\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>  \n        \u003Cdetails open>\u003Csummary>\u003Cb>Loss\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>Smooth-L1\u003C\u002Fli>\n            \u003Cli>GIoU\u002FDIoU\u002FCIoU\u003C\u002Fli>  \n            \u003Cli>IoUAware\u003C\u002Fli>\n            \u003Cli>Focal Loss\u003C\u002Fli>\n            \u003Cli>VariFocal Loss\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>  \n        \u003Cdetails open>\u003Csummary>\u003Cb>Post-processing\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>SoftNMS\u003C\u002Fli>\n            \u003Cli>MatrixNMS\u003C\u002Fli>  \n          \u003C\u002Ful> \u003C\u002Fdetails>  \n        \u003C\u002Ful>\n        \u003Cdetails open>\u003Csummary>\u003Cb>Speed\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>FP16 training\u003C\u002Fli>\n            \u003Cli>Multi-machine training \u003C\u002Fli>  \n          \u003C\u002Ful> \u003C\u002Fdetails>  \n        \u003C\u002Ful>  \n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>Details\u003C\u002Fb>\u003C\u002Fsummary>\n        \u003Cul>\n          \u003Cli>Resize\u003C\u002Fli>  \n          \u003Cli>Lighting\u003C\u002Fli>  \n          \u003Cli>Flipping\u003C\u002Fli>  \n          \u003Cli>Expand\u003C\u002Fli>\n          \u003Cli>Crop\u003C\u002Fli>\n          \u003Cli>Color Distort\u003C\u002Fli>  \n          \u003Cli>Random Erasing\u003C\u002Fli>  \n          \u003Cli>Mixup \u003C\u002Fli>\n          \u003Cli>AugmentHSV\u003C\u002Fli>\n          \u003Cli>Mosaic\u003C\u002Fli>\n          \u003Cli>Cutmix \u003C\u002Fli>\n          \u003Cli>Grid Mask\u003C\u002Fli>\n          \u003Cli>Auto Augment\u003C\u002Fli>  \n          \u003Cli>Random Perspective\u003C\u002Fli>  \n        \u003C\u002Ful> \u003C\u002Fdetails>  \n      \u003C\u002Ftd>  \n    \u003C\u002Ftr>\n\n\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1305a6f94068.png\" width=\"20\"\u002F> 模型性能概览\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 云端模型性能对比\u003C\u002Fb>\u003C\u002Fsummary>\n\n各模型结构和骨干网络的代表模型在COCO数据集上精度mAP和单卡Tesla V100上预测速度(FPS)对比图。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_64a299a8d270.png\" \u002F>\n\u003C\u002Fdiv>\n\n**说明：**\n\n- `PP-YOLOE`是对`PP-YOLO v2`模型的进一步优化，在COCO数据集精度51.6%，Tesla V100预测速度78.1FPS\n- `PP-YOLOE+`是对`PPOLOE`模型的进一步优化，在COCO数据集精度53.3%，Tesla V100预测速度78.1FPS\n- 图中模型均可在[模型库](#模型库)中获取\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 移动端模型性能对比\u003C\u002Fb>\u003C\u002Fsummary>\n\n各移动端模型在COCO数据集上精度mAP和高通骁龙865处理器上预测速度(FPS)对比图。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_e84d130a27b2.png\" width=600\u002F>\n\u003C\u002Fdiv>\n\n**说明：**\n\n- 测试数据均使用高通骁龙865(4\\*A77 + 4\\*A55)处理器batch size为1, 开启4线程测试，测试使用NCNN预测库，测试脚本见[MobileDetBenchmark](https:\u002F\u002Fgithub.com\u002FJiweiMaster\u002FMobileDetBenchmark)\n- [PP-PicoDet](configs\u002Fpicodet)及[PP-YOLO-Tiny](configs\u002Fppyolo)为PaddleDetection自研模型，其余模型PaddleDetection暂未提供\n\n\u003C\u002Fdetails>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_2fbe3fe9fe7d.png\" width=\"20\"\u002F> 模型库\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 1. 通用检测\u003C\u002Fb>\u003C\u002Fsummary>\n\n#### [PP-YOLOE+](.\u002Fconfigs\u002Fppyoloe)系列 推荐场景：Nvidia V100, T4等云端GPU和Jetson系列等边缘端设备\n\n| 模型名称       | COCO精度（mAP） | V100 TensorRT FP16速度(FPS) | 配置文件                                                  | 模型下载                                                                                 |\n|:---------- |:-----------:|:-------------------------:|:-----------------------------------------------------:|:------------------------------------------------------------------------------------:|\n| PP-YOLOE+_s | 43.9        | 333.3                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_s_80e_coco.yml)     | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_s_80e_coco.pdparams)      |\n| PP-YOLOE+_m | 50.0        | 208.3                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_m_80e_coco.yml)     | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_m_80e_coco.pdparams)     |\n| PP-YOLOE+_l | 53.3        | 149.2                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_l_80e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_m_80e_coco.pdparams) |\n| PP-YOLOE+_x | 54.9        | 95.2                      | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_x_80e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_x_80e_coco.pdparams) |\n\n#### 前沿检测算法\n\n| 模型名称                                                               | COCO精度（mAP） | V100 TensorRT FP16速度(FPS) | 配置文件                                                                                                         | 模型下载                                                                       |\n|:------------------------------------------------------------------ |:-----------:|:-------------------------:|:------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------:|\n| [YOLOX-l](configs\u002Fyolox)                                           | 50.1        | 107.5                     | [链接](configs\u002Fyolox\u002Fyolox_l_300e_coco.yml)                                                                    | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolox_l_300e_coco.pdparams)  |\n| [YOLOv5-l](configs\u002Fyolov5) | 48.6        | 136.0                     | [链接](configs\u002Fyolov5\u002Fyolov5_l_300e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolov5_l_300e_coco.pdparams) |\n| [YOLOv7-l](configs\u002Fyolov7) | 51.0        | 135.0                     | [链接](configs\u002Fyolov7\u002Fyolov7_l_300e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolov7_l_300e_coco.pdparams) |\n\n\u003C\u002Fdetails>\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_8a67e05bc735.png\" width=\"20\"\u002F> 文档教程\n\n### 入门教程\n\n- [安装说明](docs\u002Ftutorials\u002FINSTALL_cn.md)\n- [快速体验](docs\u002Ftutorials\u002FQUICK_STARTED_cn.md)\n- [数据准备](docs\u002Ftutorials\u002Fdata\u002FREADME.md)\n- [PaddleDetection全流程使用](docs\u002Ftutorials\u002FGETTING_STARTED_cn.md)\n- [FAQ\u002F常见问题汇总](docs\u002Ftutorials\u002FFAQ)\n\n### 进阶教程\n\n- 参数配置\n\n  - [PP-YOLO参数说明](docs\u002Ftutorials\u002Fconfig_annotation\u002Fppyolo_r50vd_dcn_1x_coco_annotation.md)\n\n- 模型压缩(基于[PaddleSlim](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleSlim))\n\n  - [剪裁\u002F量化\u002F蒸馏教程](configs\u002Fslim)\n\n- [推理部署](deploy\u002FREADME.md)\n\n  - [模型导出教程](deploy\u002FEXPORT_MODEL.md)\n  - [Paddle Inference部署](deploy\u002FREADME.md)\n    - [Python端推理部署](deploy\u002Fpython)\n    - [C++端推理部署](deploy\u002Fcpp)\n  - [Paddle-Lite部署](deploy\u002Flite)\n  - [Paddle Serving部署](deploy\u002Fserving)\n  - [ONNX模型导出](deploy\u002FEXPORT_ONNX_MODEL.md)\n  - [推理benchmark](deploy\u002FBENCHMARK_INFER.md)\n\n- 进阶开发\n\n  - [数据处理模块](docs\u002Fadvanced_tutorials\u002FREADER.md)\n  - [新增检测模型](docs\u002Fadvanced_tutorials\u002FMODEL_TECHNICAL.md)\n  - 二次开发教程\n    - [目标检测](docs\u002Fadvanced_tutorials\u002Fcustomization\u002Fdetection.md)\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ca276c8b38f4.png\" width=\"20\"\u002F> 版本更新\n\n版本更新内容请参考[版本更新文档](docs\u002FCHANGELOG.md)\n\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1715f147eeba.png\" alt=\"\" width=\"20\"> 许可证书\n\n本项目的发布受[GPL-3.0 license](LICENSE)许可认证。\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_c38fdc9dcd13.png\" width=\"20\"\u002F> 引用\n\n```\n@misc{ppdet2019,\ntitle={PaddleDetection, Object detection and instance segmentation toolkit based on PaddlePaddle.},\nauthor={PaddlePaddle Authors},\nhowpublished = {\\url{https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection}},\nyear={2019}\n}\n```\n","简体中文 | [English](README_en.md)\n\n## 简介\n\n**PaddleYOLO**是基于[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)的YOLO系列模型库，**只包含YOLO系列模型的相关代码**，支持`YOLOv3`、`PP-YOLO`、`PP-YOLOv2`、`PP-YOLOE`、**`PP-YOLOE+`**、**`RT-DETR`**、`YOLOX`、`YOLOv5`、`YOLOv6`、`YOLOv7`、`YOLOv8`、`YOLOv5u`、`YOLOv7u`、`YOLOv6Lite`、`RTMDet`等模型，COCO数据集模型库请参照 [ModelZoo](docs\u002FMODEL_ZOO_cn.md) 和 [configs](configs\u002F)。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ccdf576cb885.jpg\" width=\"480\"\u002F>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_5ea9c7548e82.jpg\" width=\"480\"\u002F>\n\u003C\u002Fdiv>\n\n**注意:**\n\n - **PaddleYOLO** 代码库协议为 **[GPL 3.0](LICENSE)**，[YOLOv5](configs\u002Fyolov5)、[YOLOv6](configs\u002Fyolov6)、[YOLOv7](configs\u002Fyolov7)和[YOLOv8](configs\u002Fyolov8)这几类模型代码不合入[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)，其余YOLO模型推荐在[PaddleDetection](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection)中使用，**会最先发布PP-YOLO系列特色检测模型的最新进展**；\n - **PaddleYOLO**代码库**推荐使用paddlepaddle-2.4.2以上的版本**，请参考[官网](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002Fquick?docurl=\u002Fdocumentation\u002Fdocs\u002Fzh\u002Finstall\u002Fpip\u002Flinux-pip.html)下载对应适合版本，**Windows平台请安装paddle develop版本**；\n - **PaddleYOLO 的[Roadmap](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F44)** issue用于收集用户的需求，欢迎提出您的建议和需求；\n\n## 教程\n\n\u003Cdetails open>\n\u003Csummary>安装\u003C\u002Fsummary>\n\nClone 代码库和安装 [requirements.txt](.\u002Frequirements.txt)，环境需要在一个\n[**Python>=3.7.0**](https:\u002F\u002Fwww.python.org\u002F) 下的环境，且需要安装\n[**PaddlePaddle>=2.4.2**](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002F)。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO  # clone\ncd PaddleYOLO\npip install -r requirements.txt  # install\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>训练\u002F验证\u002F预测\u002F\u003C\u002Fsummary>\n将以下命令写在一个脚本文件里如```run.sh```，一键运行命令为：```sh run.sh```，也可命令行一句句去运行。\n\n```bash\nmodel_name=ppyoloe # 可修改，如 yolov7\njob_name=ppyoloe_plus_crn_s_80e_coco # 可修改，如 yolov7_tiny_300e_coco\n\nconfig=configs\u002F${model_name}\u002F${job_name}.yml\nlog_dir=log_dir\u002F${job_name}\n# weights=https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fmodels\u002F${job_name}.pdparams\nweights=output\u002F${job_name}\u002Fmodel_final.pdparams\n\n# 1.训练（单卡\u002F多卡），加 --eval 表示边训边评估，加 --amp 表示混合精度训练\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Ftrain.py -c ${config} --eval --amp\npython -m paddle.distributed.launch --log_dir=${log_dir} --gpus 0,1,2,3,4,5,6,7 tools\u002Ftrain.py -c ${config} --eval --amp\n\n# 2.评估，加 --classwise 表示输出每一类mAP\nCUDA_VISIBLE_DEVICES=0 python tools\u002Feval.py -c ${config} -o weights=${weights} --classwise\n\n# 3.预测 (单张图\u002F图片文件夹）\nCUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_img=demo\u002F000000014439_640x640.jpg --draw_threshold=0.5\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_dir=demo\u002F --draw_threshold=0.5\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>部署\u002F测速\u003C\u002Fsummary>\n\n将以下命令写在一个脚本文件里如```run.sh```，一键运行命令为：```sh run.sh```，也可命令行一句句去运行。\n\n```bash\nmodel_name=ppyoloe # 可修改，如 yolov7\njob_name=ppyoloe_plus_crn_s_80e_coco # 可修改，如 yolov7_tiny_300e_coco\n\nconfig=configs\u002F${model_name}\u002F${job_name}.yml\nlog_dir=log_dir\u002F${job_name}\n# weights=https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fmodels\u002F${job_name}.pdparams\nweights=output\u002F${job_name}\u002Fmodel_final.pdparams\n\n# 4.导出模型，以下3种模式选一种\n## 普通导出，加trt表示用于trt加速，对NMS和silu激活函数提速明显\nCUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} # trt=True\n\n## exclude_post_process去除后处理导出，返回和YOLOv5导出ONNX时相同格式的concat后的1个Tensor，是未缩放回原图的坐标+分类置信度\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} exclude_post_process=True # trt=True\n\n## exclude_nms去除NMS导出，返回2个Tensor，是缩放回原图后的坐标和分类置信度\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights} exclude_nms=True # trt=True\n\n# 5.部署预测，注意不能使用 去除后处理 或 去除NMS 导出后的模型去预测\nCUDA_VISIBLE_DEVICES=0 python deploy\u002Fpython\u002Finfer.py --model_dir=output_inference\u002F${job_name} --image_file=demo\u002F000000014439_640x640.jpg --device=GPU\n\n# 6.部署测速，加 “--run_mode=trt_fp16” 表示在TensorRT FP16模式下测速，注意如需用到 trt_fp16 则必须为加 trt=True 导出的模型\nCUDA_VISIBLE_DEVICES=0 python deploy\u002Fpython\u002Finfer.py --model_dir=output_inference\u002F${job_name} --image_file=demo\u002F000000014439_640x640.jpg --device=GPU --run_benchmark=True # --run_mode=trt_fp16\n\n# 7.onnx导出，一般结合 exclude_post_process去除后处理导出的模型\npaddle2onnx --model_dir output_inference\u002F${job_name} --model_filename model.pdmodel --params_filename model.pdiparams --opset_version 12 --save_file ${job_name}.onnx\n\n# 8.onnx trt测速\n\u002Fusr\u002Flocal\u002FTensorRT-8.0.3.4\u002Fbin\u002Ftrtexec --onnx=${job_name}.onnx --workspace=4096 --avgRuns=10 --shapes=input:1x3x640x640 --fp16\n\u002Fusr\u002Flocal\u002FTensorRT-8.0.3.4\u002Fbin\u002Ftrtexec --onnx=${job_name}.onnx --workspace=4096 --avgRuns=10 --shapes=input:1x3x640x640 --fp32\n```\n\n- 如果想切换模型，只要修改开头两行即可，如:\n  ```\n  model_name=yolov7\n  job_name=yolov7_tiny_300e_coco\n  ```\n- 导出**onnx**，首先安装[Paddle2ONNX](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddle2ONNX)，`pip install paddle2onnx`；\n- **统计FLOPs(G)和Params(M)**，首先安装[PaddleSlim](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleSlim)，`pip install paddleslim`，然后设置[runtime.yml](configs\u002Fruntime.yml)里`print_flops: True`和`print_params: True`，并且注意确保是**单尺度**下如640x640，**打印的是MACs，FLOPs=2*MACs**。\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails open>\n\u003Csummary> [训练自定义数据集](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F43) \u003C\u002Fsummary>\n\n- 请参照[文档](docs\u002FMODEL_ZOO_cn.md#自定义数据集)和[issue](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F43)；\n- PaddleDetection团队提供了**基于PP-YOLOE的各种垂类检测模型**的配置文件和权重，用户也可以作为参考去使用自定义数据集。请参考 [PP-YOLOE application](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fppyoloe\u002Fapplication)、[pphuman](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fpphuman)、[ppvehicle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fppvehicle)、[visdrone](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fvisdrone) 和 [smalldet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fsmalldet)。\n- PaddleDetection团队也提供了**VOC数据集的各种YOLO模型**的配置文件和权重，用户也可以作为参考去使用自定义数据集。请参考 [voc](configs\u002Fvoc)。\n- 训练自定义数据集之前请先**确保加载了对应COCO权重作为预训练**，将配置文件中的`pretrain_weights: `设置为对应COCO模型训好的权重，一般会提示head分类层卷积的通道数没对应上，属于正常现象，是由于自定义数据集一般和COCO数据集种类数不一致；\n- YOLO检测模型建议**总`batch_size`至少大于`64`**去训练，如果资源不够请**换小模型**或**减小模型的输入尺度**，为了保障较高检测精度，**尽量不要尝试单卡训和总`batch_size`小于`64`训**；\n\n\u003C\u002Fdetails>\n\n## 更新日志\n\n* 【2024\u002F07\u002F10】新增昇腾910B硬件支持，支持的模型见 [模型列表](docs\u002Fhardware\u002Fsupported_models.md)\n* 【2023\u002F05\u002F21】支持[RT-DETR](configs\u002Frtdetr)、[YOLOv8](configs\u002Fyolov8)、[YOLOv5u](configs\u002Fyolov5\u002Fyolov5u)和[YOLOv7u](configs\u002Fyolov7\u002Fyolov7u)训练全流程，支持[YOLOv6Lite](configs\u002Fyolov6\u002Fyolov6lite)预测和部署；\n* 【2023\u002F03\u002F13】支持[YOLOv5u](configs\u002Fyolov5\u002Fyolov5u)和[YOLOv7u](configs\u002Fyolov7\u002Fyolov7u)预测和部署；\n* 【2023\u002F01\u002F10】支持[YOLOv8](configs\u002Fyolov8)预测和部署；\n* 【2022\u002F09\u002F29】支持[RTMDet](configs\u002Frtmdet)预测和部署；\n* 【2022\u002F09\u002F26】发布[PaddleYOLO](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)模型套件，请参照[ModelZoo](docs\u002FMODEL_ZOO_cn.md)；\n* 【2022\u002F09\u002F19】支持[YOLOv6](configs\u002Fyolov6)新版，包括n\u002Ft\u002Fs\u002Fm\u002Fl模型；\n* 【2022\u002F08\u002F23】发布`YOLOSeries`代码库: 支持`YOLOv3`,`PP-YOLOE`,`PP-YOLOE+`,`YOLOX`,`YOLOv5`,`YOLOv6`,`YOLOv7`等YOLO模型，支持`ConvNeXt`骨干网络高精度版`PP-YOLOE`,`YOLOX`和`YOLOv5`等模型，支持PaddleSlim无损加速量化训练`PP-YOLOE`,`YOLOv5`,`YOLOv6`和`YOLOv7`等模型，详情可阅读[此文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FHki01Zs2lQgvLSLWS0btrA)；\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_8a903f25c3d9.png\" width=\"20\"\u002F> 产品动态\n\n- 🔥 **2023.3.14：PaddleYOLO发布[release\u002F2.6版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Ftree\u002Frelease\u002F2.6)**\n  - 💡 模型套件：\n    - 支持`YOLOv8`,`YOLOv5u`,`YOLOv7u`等YOLO模型预测和部署；\n    - 支持`Swin-Transformer`、`ViT`、`FocalNet`骨干网络高精度版`PP-YOLOE+`等模型；\n    - 支持`YOLOv8`在[FastDeploy](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FFastDeploy\u002Ftree\u002Fdevelop\u002Fexamples\u002Fvision\u002Fdetection\u002Fpaddledetection)中多硬件快速部署；\n\n- 🔥 **2022.9.26：PaddleYOLO发布[release\u002F2.5版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Ftree\u002Frelease\u002F2.5)**\n  - 💡 模型套件：\n    - 发布[PaddleYOLO](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)模型套件: 支持`YOLOv3`,`PP-YOLOE`,`PP-YOLOE+`,`YOLOX`,`YOLOv5`,`YOLOv6`,`YOLOv7`等YOLO模型，支持`ConvNeXt`骨干网络高精度版`PP-YOLOE`,`YOLOX`和`YOLOv5`等模型，支持PaddleSlim无损加速量化训练`PP-YOLOE`,`YOLOv5`,`YOLOv6`和`YOLOv7`等模型；\n\n- 🔥 **2022.8.26：PaddleDetection发布[release\u002F2.5版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.5)**\n  - 🗳 特色模型：\n    - 发布[PP-YOLOE+](configs\u002Fppyoloe)，最高精度提升2.4% mAP，达到54.9% mAP，模型训练收敛速度提升3.75倍，端到端预测速度最高提升2.3倍；多个下游任务泛化性提升\n    - 发布[PicoDet-NPU](configs\u002Fpicodet)模型，支持模型全量化部署；新增[PicoDet](configs\u002Fpicodet)版面分析模型\n    - 发布[PP-TinyPose升级版](.\u002Fconfigs\u002Fkeypoint\u002Ftiny_pose\u002F)增强版，在健身、舞蹈等场景精度提升9.1% AP，支持侧身、卧躺、跳跃、高抬腿等非常规动作\n  - 🔮 场景能力：\n    - 发布行人分析工具[PP-Human v2](.\u002Fdeploy\u002Fpipeline)，新增打架、打电话、抽烟、闯入四大行为识别，底层算法性能升级，覆盖行人检测、跟踪、属性三类核心算法能力，提供保姆级全流程开发及模型优化策略，支持在线视频流输入\n    - 首次发布[PP-Vehicle](.\u002Fdeploy\u002Fpipeline)，提供车牌识别、车辆属性分析（颜色、车型）、车流量统计以及违章检测四大功能，兼容图片、在线视频流、视频输入，提供完善的二次开发文档教程\n  - 💡 前沿算法：\n    - 全面覆盖的[YOLO家族](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO)经典与最新模型: 包括YOLOv3，百度飞桨自研的实时高精度目标检测检测模型PP-YOLOE，以及前沿检测算法YOLOv4、YOLOv5、YOLOX，YOLOv6及YOLOv7\n    - 新增基于[ViT](configs\u002Fvitdet)骨干网络高精度检测模型，COCO数据集精度达到55.7% mAP；新增[OC-SORT](configs\u002Fmot\u002Focsort)多目标跟踪模型；新增[ConvNeXt](configs\u002Fconvnext)骨干网络\n  - 📋 产业范例：新增[智能健身](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4385813)、[打架识别](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4086987?channelType=0&channel=0)、[来客分析](https:\u002F\u002Faistudio.baidu.com\u002Faistudio\u002Fprojectdetail\u002F4230123?channelType=0&channel=0)、车辆结构化范例\n\n- 2022.3.24：PaddleDetection发布[release\u002F2.4版本](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.4)\n  - 发布高精度云边一体SOTA目标检测模型[PP-YOLOE](configs\u002Fppyoloe)，提供s\u002Fm\u002Fl\u002Fx版本，l版本COCO test2017数据集精度51.6%，V100预测速度78.1 FPS，支持混合精度训练，训练较PP-YOLOv2加速33%，全系列多尺度模型，满足不同硬件算力需求，可适配服务器、边缘端GPU及其他服务器端AI加速卡。\n  - 发布边缘端和CPU端超轻量SOTA目标检测模型[PP-PicoDet增强版](configs\u002Fpicodet)，精度提升2%左右，CPU预测速度提升63%，新增参数量0.7M的PicoDet-XS模型，提供模型稀疏化和量化功能，便于模型加速，各类硬件无需单独开发后处理模块，降低部署门槛。\n  - 发布实时行人分析工具[PP-Human](deploy\u002Fpipeline)，支持行人跟踪、人流量统计、人体属性识别与摔倒检测四大能力，基于真实场景数据特殊优化，精准识别各类摔倒姿势，适应不同环境背景、光线及摄像角度。\n  - 新增[YOLOX](configs\u002Fyolox)目标检测模型，支持nano\u002Ftiny\u002Fs\u002Fm\u002Fl\u002Fx版本，x版本COCO val2017数据集精度51.8%。\n\n- [更多版本发布](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Freleases)\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_d0a19d2d4460.png\" alt=\"\" width=\"20\"> 简介\n\n**PaddleDetection**为基于飞桨PaddlePaddle的端到端目标检测套件，内置**30+模型算法**及**250+预训练模型**，覆盖**目标检测、实例分割、跟踪、关键点检测**等方向，其中包括**服务器端和移动端高精度、轻量级**产业级SOTA模型、冠军方案和学术前沿算法，并提供配置化的网络模块组件、十余种数据增强策略和损失函数等高阶优化支持和多种部署方案，在打通数据处理、模型开发、训练、压缩、部署全流程的基础上，提供丰富的案例及教程，加速算法产业落地应用。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_0c4fa53bab57.gif\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_2f0dacf1d2c2.png\" width=\"20\"\u002F> 特性\n\n- **模型丰富**: 包含**目标检测**、**实例分割**、**人脸检测**、****关键点检测****、**多目标跟踪**等**250+个预训练模型**，涵盖多种**全球竞赛冠军**方案。\n- **使用简洁**：模块化设计，解耦各个网络组件，开发者轻松搭建、试用各种检测模型及优化策略，快速得到高性能、定制化的算法。\n- **端到端打通**: 从数据增强、组网、训练、压缩、部署端到端打通，并完备支持**云端**\u002F**边缘端**多架构、多设备部署。\n- **高性能**: 基于飞桨的高性能内核，模型训练速度及显存占用优势明显。支持FP16训练, 支持多机训练。\n\n\u003Cdiv  align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_f3e5817203e7.png\" width=\"800\"\u002F>\n\u003C\u002Fdiv>\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ba39e2a5e577.png\" alt=\"\" width=\"20\"> 技术交流\n\n- 如果你发现任何PaddleDetection存在的问题或者是建议, 欢迎通过[GitHub Issues](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Fissues)给我们提issues。\n\n- **欢迎加入PaddleDetection 微信用户群（扫码填写问卷即可入群）**\n  - **入群福利 💎：获取PaddleDetection团队整理的重磅学习大礼包🎁**\n    - 📊 福利一：获取飞桨联合业界企业整理的开源数据集\n    - 👨‍🏫 福利二：获取PaddleDetection历次发版直播视频与最新直播咨询\n    - 🗳 福利三：获取垂类场景预训练模型集合，包括工业、安防、交通等5+行业场景\n    - 🗂 福利四：获取10+全流程产业实操范例，覆盖火灾烟雾检测、人流量计数等产业高频场景\n  \u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_6e557cb18dd9.jpg\"  width = \"200\" \u002F>  \n  \u003C\u002Fdiv>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1257e53e867a.png\" width=\"20\"\u002F> 套件结构概览\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n        \u003Cb>架构\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>骨干网络\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>组件\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cb>数据增强\u003C\u002Fb>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr valign=\"top\">\n      \u003Ctd>\n        \u003Cul>\n        \u003Cdetails open>\u003Csummary>\u003Cb>目标检测\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>YOLOv3\u003C\u002Fli>  \n            \u003Cli>YOLOv5\u003C\u002Fli>  \n            \u003Cli>YOLOv6\u003C\u002Fli>  \n            \u003Cli>YOLOv7\u003C\u002Fli>  \n            \u003Cli>YOLOv8\u003C\u002Fli>  \n            \u003Cli>PP-YOLOv1\u002Fv2\u003C\u002Fli>\n            \u003Cli>PP-YOLO-Tiny\u003C\u002Fli>\n            \u003Cli>PP-YOLOE\u003C\u002Fli>\n            \u003Cli>PP-YOLOE+\u003C\u002Fli>\n            \u003Cli>YOLOX\u003C\u002Fli>\n            \u003Cli>RTMDet\u003C\u002Fli>\n         \u003C\u002Ful>\u003C\u002Fdetails>\n      \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>细节\u003C\u002Fb>\u003C\u002Fsummary>\n        \u003Cul>\n          \u003Cli>ResNet(&vd)\u003C\u002Fli>\n          \u003Cli>CSPResNet\u003C\u002Fli>\n          \u003Cli>DarkNet\u003C\u002Fli>\n          \u003Cli>CSPDarkNet\u003C\u002Fli>\n          \u003Cli>ConvNeXt\u003C\u002Fli>\n          \u003Cli>EfficientRep\u003C\u002Fli>\n          \u003Cli>CSPBepBackbone\u003C\u002Fli>\n          \u003Cli>ELANNet\u003C\u002Fli>\n          \u003Cli>CSPNeXt\u003C\u002Fli>\n        \u003C\u002Ful>\u003C\u002Fdetails>\n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>通用\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>Sync-BN\u003C\u002Fli>\n            \u003Cli>Group Norm\u003C\u002Fli>\n            \u003Cli>DCNv2\u003C\u002Fli>\n            \u003Cli>EMA\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>\n        \u003Cdetails open>\u003Csummary>\u003Cb>FPN\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>YOLOv3FPN\u003C\u002Fli>\n            \u003Cli>PPYOLOFPN\u003C\u002Fli>\n            \u003Cli>PPYOLOTinyFPN\u003C\u002Fli>\n            \u003Cli>PPYOLOPAN\u003C\u002Fli>\n            \u003Cli>YOLOCSPPAN\u003C\u002Fli>\n            \u003Cli>Custom-PAN\u003C\u002Fli>\n            \u003Cli>RepPAN\u003C\u002Fli>\n            \u003Cli>CSPRepPAN\u003C\u002Fli>\n            \u003Cli>ELANFPN\u003C\u002Fli>\n            \u003Cli>ELANFPNP6\u003C\u002Fli>\n            \u003Cli>CSPNeXtPAFPN\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>  \n        \u003Cdetails open>\u003Csummary>\u003Cb>损失函数\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>Smooth-L1\u003C\u002Fli>\n            \u003Cli>GIoU\u002FDIoU\u002FCIoU\u003C\u002Fli>  \n            \u003Cli>IoUAware\u003C\u002Fli>\n            \u003Cli>Focal Loss\u003C\u002Fli>\n            \u003Cli>VariFocal Loss\u003C\u002Fli>\n          \u003C\u002Ful> \u003C\u002Fdetails>\n        \u003C\u002Ful>  \n        \u003Cdetails open>\u003Csummary>\u003Cb>后处理\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>SoftNMS\u003C\u002Fli>\n            \u003Cli>MatrixNMS\u003C\u002Fli>  \n          \u003C\u002Ful> \u003C\u002Fdetails>  \n        \u003C\u002Ful>\n        \u003Cdetails open>\u003Csummary>\u003Cb>加速\u003C\u002Fb>\u003C\u002Fsummary>\n          \u003Cul>\n            \u003Cli>FP16训练\u003C\u002Fli>\n            \u003Cli>多机训练 \u003C\u002Fli>  \n          \u003C\u002Ful> \u003C\u002Fdetails>  \n        \u003C\u002Ful>  \n      \u003C\u002Ftd>\n      \u003Ctd>\n        \u003Cdetails open>\u003Csummary>\u003Cb>细节\u003C\u002Fb>\u003C\u002Fsummary>\n        \u003Cul>\n          \u003Cli>Resize\u003C\u002Fli>  \n          \u003Cli>Lighting\u003C\u002Fli>  \n          \u003Cli>Flipping\u003C\u002Fli>  \n          \u003Cli>Expand\u003C\u002Fli>\n          \u003Cli>Crop\u003C\u002Fli>\n          \u003Cli>Color Distort\u003C\u002Fli>  \n          \u003Cli>Random Erasing\u003C\u002Fli>  \n          \u003Cli>Mixup \u003C\u002Fli>\n          \u003Cli>AugmentHSV\u003C\u002Fli>\n          \u003Cli>Mosaic\u003C\u002Fli>\n          \u003Cli>Cutmix \u003C\u002Fli>\n          \u003Cli>Grid Mask\u003C\u002Fli>\n          \u003Cli>Auto Augment\u003C\u002Fli>  \n          \u003Cli>Random Perspective\u003C\u002Fli>  \n        \u003C\u002Ful> \u003C\u002Fdetails>  \n      \u003C\u002Ftd>  \n    \u003C\u002Ftr>\n\n\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1305a6f94068.png\" width=\"20\"\u002F> 模型性能概览\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 云端模型性能对比\u003C\u002Fb>\u003C\u002Fsummary>\n\n各模型结构和骨干网络的代表模型在COCO数据集上精度mAP和单卡Tesla V100上预测速度(FPS)对比图。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_64a299a8d270.png\" \u002F>\n\u003C\u002Fdiv>\n\n**说明：**\n\n- `PP-YOLOE`是对`PP-YOLO v2`模型的进一步优化，在COCO数据集精度51.6%，Tesla V100预测速度78.1FPS\n- `PP-YOLOE+`是对`PPOLOE`模型的进一步优化，在COCO数据集精度53.3%，Tesla V100预测速度78.1FPS\n- 图中模型均可在[模型库](#模型库)中获取\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 移动端模型性能对比\u003C\u002Fb>\u003C\u002Fsummary>\n\n各移动端模型在COCO数据集上精度mAP和高通骁龙865处理器上预测速度(FPS)对比图。\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_e84d130a27b2.png\" width=600\u002F>\n\u003C\u002Fdiv>\n\n**说明：**\n\n- 测试数据均使用高通骁龙865(4\\*A77 + 4\\*A55)处理器batch size为1, 开启4线程测试，测试使用NCNN预测库，测试脚本见[MobileDetBenchmark](https:\u002F\u002Fgithub.com\u002FJiweiMaster\u002FMobileDetBenchmark)\n- [PP-PicoDet](configs\u002Fpicodet)及[PP-YOLO-Tiny](configs\u002Fppyolo)为PaddleDetection自研模型，其余模型PaddleDetection暂未提供\n\n\u003C\u002Fdetails>\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_2fbe3fe9fe7d.png\" width=\"20\"\u002F> 模型库\n\n\u003Cdetails>\n\u003Csummary>\u003Cb> 1. 通用检测\u003C\u002Fb>\u003C\u002Fsummary>\n\n#### [PP-YOLOE+](.\u002Fconfigs\u002Fppyoloe)系列 推荐场景：Nvidia V100, T4等云端GPU和Jetson系列等边缘端设备\n\n| 模型名称       | COCO精度（mAP） | V100 TensorRT FP16速度(FPS) | 配置文件                                                  | 模型下载                                                                                 |\n|:---------- |:-----------:|:-------------------------:|:-----------------------------------------------------:|:------------------------------------------------------------------------------------:|\n| PP-YOLOE+_s | 43.9        | 333.3                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_s_80e_coco.yml)     | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_s_80e_coco.pdparams)      |\n| PP-YOLOE+_m | 50.0        | 208.3                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_m_80e_coco.yml)     | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_m_80e_coco.pdparams)     |\n| PP-YOLOE+_l | 53.3        | 149.2                     | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_l_80e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_m_80e_coco.pdparams) |\n| PP-YOLOE+_x | 54.9        | 95.2                      | [链接](configs\u002Fppyoloe\u002Fppyoloe_plus_crn_x_80e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fppyoloe_plus_crn_x_80e_coco.pdparams) |\n\n#### 前沿检测算法\n\n| 模型名称                                                               | COCO精度（mAP） | V100 TensorRT FP16速度(FPS) | 配置文件                                                                                                         | 模型下载                                                                       |\n|:------------------------------------------------------------------ |:-----------:|:-------------------------:|:------------------------------------------------------------------------------------------------------------:|:--------------------------------------------------------------------------:|\n| [YOLOX-l](configs\u002Fyolox)                                           | 50.1        | 107.5                     | [链接](configs\u002Fyolox\u002Fyolox_l_300e_coco.yml)                                                                    | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolox_l_300e_coco.pdparams)  |\n| [YOLOv5-l](configs\u002Fyolov5) | 48.6        | 136.0                     | [链接](configs\u002Fyolov5\u002Fyolov5_l_300e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolov5_l_300e_coco.pdparams) |\n| [YOLOv7-l](configs\u002Fyolov7) | 51.0        | 135.0                     | [链接](configs\u002Fyolov7\u002Fyolov7_l_300e_coco.yml) | [下载地址](https:\u002F\u002Fpaddledet.bj.bcebos.com\u002Fmodels\u002Fyolov7_l_300e_coco.pdparams) |\n\n\u003C\u002Fdetails>\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_8a67e05bc735.png\" width=\"20\"\u002F> 文档教程\n\n### 入门教程\n\n- [安装说明](docs\u002Ftutorials\u002FINSTALL_cn.md)\n- [快速体验](docs\u002Ftutorials\u002FQUICK_STARTED_cn.md)\n- [数据准备](docs\u002Ftutorials\u002Fdata\u002FREADME.md)\n- [PaddleDetection全流程使用](docs\u002Ftutorials\u002FGETTING_STARTED_cn.md)\n- [FAQ\u002F常见问题汇总](docs\u002Ftutorials\u002FFAQ)\n\n### 进阶教程\n\n- 参数配置\n\n  - [PP-YOLO参数说明](docs\u002Ftutorials\u002Fconfig_annotation\u002Fppyolo_r50vd_dcn_1x_coco_annotation.md)\n\n- 模型压缩(基于[PaddleSlim](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleSlim))\n\n  - [剪裁\u002F量化\u002F蒸馏教程](configs\u002Fslim)\n\n- [推理部署](deploy\u002FREADME.md)\n\n  - [模型导出教程](deploy\u002FEXPORT_MODEL.md)\n  - [Paddle Inference部署](deploy\u002FREADME.md)\n    - [Python端推理部署](deploy\u002Fpython)\n    - [C++端推理部署](deploy\u002Fcpp)\n  - [Paddle-Lite部署](deploy\u002Flite)\n  - [Paddle Serving部署](deploy\u002Fserving)\n  - [ONNX模型导出](deploy\u002FEXPORT_ONNX_MODEL.md)\n  - [推理benchmark](deploy\u002FBENCHMARK_INFER.md)\n\n- 进阶开发\n\n  - [数据处理模块](docs\u002Fadvanced_tutorials\u002FREADER.md)\n  - [新增检测模型](docs\u002Fadvanced_tutorials\u002FMODEL_TECHNICAL.md)\n  - 二次开发教程\n    - [目标检测](docs\u002Fadvanced_tutorials\u002Fcustomization\u002Fdetection.md)\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_ca276c8b38f4.png\" width=\"20\"\u002F> 版本更新\n\n版本更新内容请参考[版本更新文档](docs\u002FCHANGELOG.md)\n\n\n## \u003Cimg title=\"\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_1715f147eeba.png\" alt=\"\" width=\"20\"> 许可证书\n\n本项目的发布受[GPL-3.0 license](LICENSE)许可认证。\n\n\n## \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_readme_c38fdc9dcd13.png\" width=\"20\"\u002F> 引用\n\n```\n@misc{ppdet2019,\ntitle={PaddleDetection, Object detection and instance segmentation toolkit based on PaddlePaddle.},\nauthor={PaddlePaddle Authors},\nhowpublished = {\\url{https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection}},\nyear={2019}\n}\n```","# PaddleYOLO 快速上手指南\n\nPaddleYOLO 是基于 PaddleDetection 的 YOLO 系列模型库，支持 YOLOv3-v8、PP-YOLOE+、RT-DETR 等多种主流检测模型。本指南将帮助你快速完成环境配置、安装及基础使用。\n\n## 1. 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F Windows（Windows 平台需安装 paddle develop 版本）\n*   **Python 版本**：>= 3.7.0\n*   **深度学习框架**：PaddlePaddle >= 2.4.2\n    *   *推荐*：访问 [PaddlePaddle 官网](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002Fquick) 获取适合你环境的安装命令（支持 CPU\u002FGPU）。\n*   **硬件支持**：支持 NVIDIA GPU（推荐）、昇腾 910B 等。\n\n## 2. 安装步骤\n\n通过 Git 克隆代码库并安装依赖：\n\n```bash\n# 1. 克隆代码库\ngit clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\n\n# 2. 进入目录\ncd PaddleYOLO\n\n# 3. 安装依赖包\npip install -r requirements.txt\n```\n\n> **注意**：如果尚未安装 PaddlePaddle，请先根据官网指引安装 `paddlepaddle-gpu` 或 `paddlepaddle`。\n\n## 3. 基本使用\n\nPaddleYOLO 提供了训练、评估、预测和部署的一站式脚本。以下以 `PP-YOLOE` 模型为例，展示核心流程。你可以将以下命令保存为 `run.sh` 执行，或在终端逐行运行。\n\n### 3.1 配置模型\n首先定义要使用的模型名称和配置文件：\n\n```bash\nmodel_name=ppyoloe # 可修改为 yolov8, yolov7 等\njob_name=ppyoloe_plus_crn_s_80e_coco # 对应的具体配置文件名\n\nconfig=configs\u002F${model_name}\u002F${job_name}.yml\nlog_dir=log_dir\u002F${job_name}\n# 预训练权重路径（首次训练建议下载官方 COCO 预训练权重）\n# weights=https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fmodels\u002F${job_name}.pdparams\nweights=output\u002F${job_name}\u002Fmodel_final.pdparams\n```\n\n### 3.2 模型训练\n支持单卡或多卡训练。添加 `--eval` 可在训练过程中进行评估，`--amp` 开启混合精度训练以加速。\n\n```bash\n# 多卡训练示例 (使用 GPU 0-7)\npython -m paddle.distributed.launch --log_dir=${log_dir} --gpus 0,1,2,3,4,5,6,7 tools\u002Ftrain.py -c ${config} --eval --amp\n\n# 单卡训练示例\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Ftrain.py -c ${config} --eval --amp\n```\n\n### 3.3 模型评估\n训练完成后，使用验证集评估模型性能。添加 `--classwise` 可输出每一类的 mAP。\n\n```bash\nCUDA_VISIBLE_DEVICES=0 python tools\u002Feval.py -c ${config} -o weights=${weights} --classwise\n```\n\n### 3.4 图像预测\n对单张图片或图片文件夹进行推理预测。\n\n```bash\n# 预测单张图片\nCUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_img=demo\u002F000000014439_640x640.jpg --draw_threshold=0.5\n\n# 预测文件夹下的所有图片\n# CUDA_VISIBLE_DEVICES=0 python tools\u002Finfer.py -c ${config} -o weights=${weights} --infer_dir=demo\u002F --draw_threshold=0.5\n```\n\n### 3.5 模型导出与部署（可选）\n将模型导出为静态图格式，以便在生产环境中高性能部署。\n\n```bash\n# 导出模型\nCUDA_VISIBLE_DEVICES=0 python tools\u002Fexport_model.py -c ${config} -o weights=${weights}\n\n# 部署预测 (使用导出的模型)\nCUDA_VISIBLE_DEVICES=0 python deploy\u002Fpython\u002Finfer.py --model_dir=output_inference\u002F${job_name} --image_file=demo\u002F000000014439_640x640.jpg --device=GPU\n```\n\n---\n**提示**：若要切换其他模型（如 YOLOv8），只需修改脚本开头的 `model_name` 和 `job_name` 变量即可。更多模型配置请参考 `configs\u002F` 目录。","某智能制造团队负责开发产线实时缺陷检测系统，需在高速传送带上精准识别微小划痕与异色斑点，对检测速度与精度要求极高。\n\n### 没有 PaddleYOLO 时\n- **模型选型困难且分散**：开发者需分别去 GitHub 查找 YOLOv5、v8 或 RT-DETR 等不同作者的仓库，代码风格迥异，环境依赖冲突频繁，整合维护成本极高。\n- **训练部署流程割裂**：从训练到导出 ONNX 或 TensorRT 引擎缺乏统一标准接口，每次更换模型架构都需重新编写适配脚本，导致迭代周期长达数周。\n- **性能瓶颈难以突破**：通用开源模型在特定工业场景下推理速度不足，且缺乏针对百度飞桨底层优化的最新算法（如 PP-YOLOE+），难以在保证高精度的同时满足毫秒级响应需求。\n\n### 使用 PaddleYOLO 后\n- **一站式模型库管理**：PaddleYOLO 集成了 YOLOv5 至 YOLO11、RT-DETR 等主流及前沿模型，统一基于 PaddleDetection 架构，开发者可通过修改配置文件轻松切换模型，无需处理杂乱的外部依赖。\n- **标准化全流程闭环**：利用其内置的训练、评估、预测及导出脚本，团队实现了从数据输入到 TensorRT 加速部署的一键式流水线，模型迭代周期缩短至几天内。\n- **极致性能优化落地**：直接调用经过深度优化的 PP-YOLOE+ 和 RT-DETR 模型，结合混合精度训练与 TensorRT FP16 推理加速，在保持高 mAP 的同时，单帧推理耗时降低 40%，完美匹配高速产线节拍。\n\n核心价值在于 PaddleYOLO 通过统一架构与深度优化，消除了多模型管理的碎片化痛点，让工业视觉应用能以最低成本实现最前沿的检测性能与极速部署。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_PaddleYOLO_ccdf576c.jpg","PaddlePaddle","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPaddlePaddle_0457ef24.jpg","",null,"http:\u002F\u002Fpaddlepaddle.org","https:\u002F\u002Fgithub.com\u002FPaddlePaddle",[83,87,91,95,99,103,107,109],{"name":84,"color":85,"percentage":86},"Python","#3572A5",78.4,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",15.7,{"name":92,"color":93,"percentage":94},"Shell","#89e051",3.1,{"name":96,"color":97,"percentage":98},"Cuda","#3A4E3A",1.5,{"name":100,"color":101,"percentage":102},"CMake","#DA3434",0.6,{"name":104,"color":105,"percentage":106},"Makefile","#427819",0.3,{"name":108,"color":79,"percentage":106},"Linker Script",{"name":110,"color":111,"percentage":112},"C","#555555",0.1,664,155,"2026-04-02T14:51:41","GPL-3.0","Linux, Windows","需要 GPU（支持 NVIDIA CUDA 或 昇腾 Ascend 910B），具体显存和 CUDA 版本未说明，但训练建议总 batch_size 至少大于 64","未说明",{"notes":121,"python":122,"dependencies":123},"Windows 平台请安装 paddle develop 版本；推荐使用 PaddlePaddle 2.4.2 以上版本；若需导出 ONNX 需安装 paddle2onnx；若需统计 FLOPs 和 Params 需安装 paddleslim；训练自定义数据集时建议加载 COCO 预训练权重。",">=3.7.0",[124,125,126],"paddlepaddle>=2.4.2","paddle2onnx","paddleslim",[14],[129,130,131,132,133,134,135,136,137,138,139,140,141,142,143,144,145,146,147,148],"ppyolo","ppyoloe","yolov5","yolov6","yolov7","yolox","object-detection","ppyolov2","yolo","yolov3","rtmdet","yolov8","paddleyolo","yolov5u","yolov7u","rt-detr","yolov6lite","instance-segmentation","yolov10","yolo11","2026-03-27T02:49:30.150509","2026-04-06T05:36:57.657702",[152,157,162,166,170,175],{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},11539,"如何获取自定义数据集训练的教程和参考案例？","PaddleDetection 团队提供了基于 PP-YOLOE 的多种特征检测模型，可作为修改自定义数据集的参考。具体应用场景及数据集链接如下：\n1. 农业场景：参考 Embrapa WGISD 数据集及应用配置。\n2. 低光照场景：参考 ExDark 数据集及应用配置。\n3. 工业 PCB 缺陷：参考 PKU-Market-PCB 数据集及应用配置。\n4. 行人检测：参考 CrowdHuman 数据集及 pphuman 配置。\n5. 车辆检测：参考 BDD100K、UA-DETR 数据集及 ppvehicle 配置。\n6. 无人机视角：参考 VisDrone-DET 数据集及 visdrone 配置。\n详细配置请查看 GitHub 仓库中 configs\u002Fppyoloe\u002Fapplication 等对应目录。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F43",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},11540,"训练 YOLOv7 或 PP-YOLOE 时出现 DataLoader 报错或 AP 为 0，可能是什么原因？","根据用户排查经验，常见原因包括：\n1. 硬件资源不足：例如在 YOLOv7p6_e6e_300e_coco.yml 上训练时，若硬件条件不够会导致内存不足（OOM）。\n2. 数据集格式问题：在 PP-YOLOE 等模型上使用 COCO 格式数据训练时，如果单卡 AP 为 0 或多卡报错，通常是因为 COCO 数据集转换存在问题。建议检查 VOC 和 COCO 格式的数据转换是否正确。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F18",{"id":163,"question_zh":164,"answer_zh":165,"source_url":156},11541,"如何下载 COCO 数据集并解决 MD5 校验失败的问题？","可以通过以下命令下载 COCO 数据集：\nwget https:\u002F\u002Fbj.bcebos.com\u002Fv1\u002Fpaddledet\u002Fdata\u002Fcoco.tar\n或者从官网 https:\u002F\u002Fcocodataset.org\u002F#download 下载并配置好路径。\n\n如果在 Windows 环境下使用命令行下载，可能会出现 MD5 校验码与预设不一致的情况（例如 calc != base）。维护者表示通常只需确保文件完整并正确配置路径即可，若校验失败可尝试重新下载或忽略校验（视具体脚本逻辑而定），重点在于确保数据集解压后的目录结构正确。",{"id":167,"question_zh":168,"answer_zh":169,"source_url":156},11542,"自定义数据集的类别数量必须和 COCO 数据集一致吗？","不需要完全一致。虽然官方教程常以 COCO 为例，但你可以使用与 COCO 种类数量和类别完全不同的自定义数据集。关键在于正确配置数据集的 yaml 文件，确保 num_classes 参数与你实际数据的类别数匹配，并正确映射类别 ID。",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},11543,"在不同硬件平台（如 Jetson 与 PC）上推理结果不一致或为 0 怎么办？","如果在 Jetson Xavier（CUDA 10.2, cuDNN 8.2.1）上推理结果正确，但在 ARM64 + GTX 1060 等其他平台上结果错误（如输出全 0），可能是由于推理库版本或环境兼容性问题。建议：\n1. 确认不同平台上使用的 Paddle Inference 推理库版本是否一致且适配该硬件。\n2. 检查 CUDA 和 cuDNN 版本是否与 PaddlePaddle 版本严格匹配。\n3. 避免直接从一个平台拷贝编译好的库到另一个架构不同的平台使用，应针对目标平台重新安装或编译对应的推理库。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F95",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},11544,"修改模型结构（如去掉 DFL）后评估精度（AP）一直为 0 怎么办？","如果去掉了 DFL（Distribution Focal Loss）模块后 Loss 正常但 Eval 精度为 0，通常是因为模型输出结构与后处理代码不匹配。PP-YOLOE 等模型依赖 DFL 进行边界框解码。如果移除 DFL，必须同步修改：\n1. 模型头的输出维度。\n2. 后处理代码（如 bbox_utils 中的解码逻辑），确保不再尝试对不存在的 DFL 输出进行解码。\n3. 检查配置文件中的相关参数是否已关闭 DFL 相关选项。若未正确对齐修改，会导致预测框坐标计算错误，从而 AP 为 0。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleYOLO\u002Fissues\u002F163",[]]