[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-meituan--YOLOv6":3,"tool-meituan--YOLOv6":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":10,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":123,"github_topics":124,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":160},3957,"meituan\u002FYOLOv6","YOLOv6","YOLOv6: a single-stage object detection framework dedicated to industrial applications.","YOLOv6 是一款专为工业应用打造的高效单阶段目标检测框架，由美团团队开源。它致力于解决现实场景中物体识别对速度与精度的双重严苛要求，帮助开发者在资源受限的设备上也能实现快速、准确的实时检测。\n\n无论是需要部署在服务器、边缘设备还是移动端的场景，YOLOv6 都提供了从轻量级（N\u002FT\u002FS）到大容量（M\u002FL\u002FP6）的多种模型选择，兼顾了极致的推理速度与优秀的检测精度。其独特亮点在于采用了重参数化卷积、解耦头结构以及更高效的训练策略，显著提升了模型性能。此外，YOLOv6 还持续扩展功能边界，最新迭代已支持实例分割、人脸检测任务，并推出了专门针对移动端和 CPU 优化的 YOLOv6Lite 版本，同时提供定制化的量化方案以进一步压缩模型体积。\n\n这款工具非常适合计算机视觉领域的算法工程师、研究人员以及需要将 AI 落地到生产环境的应用开发者使用。凭借清晰的代码结构、完善的文档以及对主流部署平台的良好支持，YOLOv6 能帮助用户大幅降低从模型训练到实际部署的技术门槛，轻松构建高性能的视觉感知系统。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_a2e8e92db091.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>\n\nEnglish | [简体中文](README_cn.md)\n\n \u003Cbr>\n\n \u003Cdiv>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fturtorial.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n     \u003Ca href=\"https:\u002F\u002Fwww.kaggle.com\u002Fcode\u002Fhousanduo\u002Fyolov6\">\u003Cimg src=\"https:\u002F\u002Fkaggle.com\u002Fstatic\u002Fimages\u002Fopen-in-kaggle.svg\" alt=\"Open In Kaggle\">\u003C\u002Fa>\n  \u003C\u002Fdiv>\n \u003Cbr>\n\n## YOLOv6\n\nImplementation of paper:\n- [YOLOv6 v3.0: A Full-Scale Reloading](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05586) 🔥\n- [YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02976)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_6eaf96b6aa0c.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>\n\n\n## What's New\n- [2023.09.15] Release [YOLOv6-Segmentation](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-seg). 🚀 [Performance](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-seg#yolov6-segmentation)\n- [2023.04.28] Release [YOLOv6Lite](configs\u002Fyolov6_lite\u002FREADME.md) models on mobile or CPU. ⭐️ [Mobile Benchmark](#Mobile-Benchmark)\n- [2023.03.10] Release [YOLOv6-Face](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-face). 🔥 [Performance](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-face#performance-on-widerface)\n- [2023.03.02] Update [base models](configs\u002Fbase\u002FREADME.md) to version 3.0.\n- [2023.01.06] Release P6 models and enhance the performance of P5 models. ⭐️ [Benchmark](#Benchmark)\n- [2022.11.04] Release [base models](configs\u002Fbase\u002FREADME.md) to simplify the training and deployment process.\n- [2022.09.06] Customized quantization methods. 🚀 [Quantization Tutorial](.\u002Ftools\u002Fqat\u002FREADME.md)\n- [2022.09.05] Release M\u002FL models and update N\u002FT\u002FS models with enhanced performance.\n- [2022.06.23] Release N\u002FT\u002FS models with excellent performance.\n\n## Benchmark\n| Model                                                        | Size | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b32 \u003Cbr\u002F>(fps) | Params\u003Cbr\u002F>\u003Csup> (M) | FLOPs\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :----------------------- | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6n.pt) | 640  | 37.5                     | 779                                     | 1187                                     | 4.7                  | 11.4                |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6s.pt) | 640  | 45.0                     | 339                                     | 484                                      | 18.5                 | 45.3                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6m.pt) | 640  | 50.0                     | 175                                     | 226                                      | 34.9                 | 85.8                |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6l.pt) | 640  | 52.8                     | 98                                      | 116                                      | 59.6                 | 150.7               |\n|                              |                               |                                |                    |                        |\n| [**YOLOv6-N6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6n6.pt) | 1280 | 44.9                     | 228                                     | 281                                      | 10.4                 | 49.8                |\n| [**YOLOv6-S6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6s6.pt) | 1280 | 50.3                     | 98                                      | 108                                      | 41.4                 | 198.0               |\n| [**YOLOv6-M6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6m6.pt) | 1280 | 55.2                     | 47                                      | 55                                       | 79.6                 | 379.5               |\n| [**YOLOv6-L6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6l6.pt) | 1280 | 57.2                     | 26                                      | 29                                       | 140.4                | 673.4               |\n\u003Cdetails>\n\u003Csummary>Table Notes\u003C\u002Fsummary>\n\n- All checkpoints are trained with self-distillation except for YOLOv6-N6\u002FS6 models trained to 300 epochs without distillation.\n- Results of the mAP and speed are evaluated on [COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download) dataset with the input resolution of 640×640 for P5 models and 1280x1280 for P6 models.\n- Speed is tested with TensorRT 7.2 on T4.\n- Refer to [Test speed](.\u002Fdocs\u002FTest_speed.md) tutorial to reproduce the speed results of YOLOv6.\n- Params and FLOPs of YOLOv6 are estimated on deployed models.\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Legacy models\u003C\u002Fsummary>\n\n| Model                                                        | Size | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95              | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b32 \u003Cbr\u002F>(fps) | Params\u003Cbr\u002F>\u003Csup> (M) | FLOPs\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :------------------------------------ | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6n.pt) | 640  | 35.9\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>36.3\u003Csup>400e | 802                                     | 1234                                     | 4.3                  | 11.1                |\n| [**YOLOv6-T**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6t.pt) | 640  | 40.3\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>41.1\u003Csup>400e | 449                                     | 659                                      | 15.0                 | 36.7                |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6s.pt) | 640  | 43.5\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>43.8\u003Csup>400e | 358                                     | 495                                      | 17.2                 | 44.2                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6m.pt) | 640  | 49.5                                  | 179                                     | 233                                      | 34.3                 | 82.2                |\n| [**YOLOv6-L-ReLU**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6l_relu.pt) | 640  | 51.7                                  | 113                                     | 149                                      | 58.5                 | 144.0               |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6l.pt) | 640  | 52.5                                  | 98                                      | 121                                      | 58.5                 | 144.0               |\n- Speed is tested with TensorRT 7.2 on T4.\n### Quantized model 🚀\n\n| Model                 | Size | Precision | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | Speed\u003Csup>T4\u003Cbr\u002F>trt b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt b32 \u003Cbr\u002F>(fps) |\n| :-------------------- | ---- | --------- | :----------------------- | ---------------------------------- | ----------------------------------- |\n| **YOLOv6-N RepOpt** | 640  | INT8      | 34.8                     | 1114                               | 1828                                |\n| **YOLOv6-N**        | 640  | FP16      | 35.9                     | 802                                | 1234                                |\n| **YOLOv6-T RepOpt** | 640  | INT8      | 39.8                     | 741                                | 1167                                |\n| **YOLOv6-T**        | 640  | FP16      | 40.3                     | 449                                | 659                                 |\n| **YOLOv6-S RepOpt** | 640  | INT8      | 43.3                     | 619                                | 924                                 |\n| **YOLOv6-S**        | 640  | FP16      | 43.5                     | 377                                | 541                                 |\n\n- Speed is tested with TensorRT 8.4 on T4.\n- Precision is figured on models for 300 epochs.\n\n\u003C\u002Fdetails>\n\n## Mobile Benchmark\n| Model | Size | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | sm8350\u003Cbr\u002F>\u003Csup>(ms) | mt6853\u003Cbr\u002F>\u003Csup>(ms) | sdm660\u003Cbr\u002F>\u003Csup>(ms) |Params\u003Cbr\u002F>\u003Csup> (M) |   FLOPs\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- |\n| [**YOLOv6Lite-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_s.pt) | 320*320 | 22.4                     | 7.99                     | 11.99                     | 41.86                     | 0.55                     | 0.56                     |\n| [**YOLOv6Lite-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_m.pt) | 320*320 | 25.1                     | 9.08                     | 13.27                     | 47.95                     | 0.79                     | 0.67                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*320 | 28.0                     | 11.37                     | 16.20                     | 61.40                     | 1.09                     | 0.87                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*192 | 25.0                     | 7.02                     | 9.66                     | 36.13                     | 1.09                     | 0.52                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 224*128 | 18.9                     | 3.63                     | 4.99                     | 17.76                     | 1.09                     | 0.24                     |\n\n\u003Cdetails>\n\u003Csummary>Table Notes\u003C\u002Fsummary>\n\n- From the perspective of model size and input image ratio, we have built a series of models on the mobile terminal to facilitate flexible applications in different scenarios.\n- All checkpoints are trained with 400 epochs without distillation.\n- Results of the mAP and speed are evaluated on [COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download) dataset, and the input resolution is the Size in the table.\n- Speed is tested on MNN 2.3.0 AArch64 with 2 threads by arm82 acceleration. The inference warm-up is performed 10 times, and the cycle is performed 100 times.\n- Qualcomm 888(sm8350), Dimensity 720(mt6853) and Qualcomm 660(sdm660) correspond to chips with different performances at the high, middle and low end respectively, which can be used as a reference for model capabilities under different chips.\n- Refer to [Test NCNN Speed](.\u002Fdocs\u002FTest_NCNN_speed.md) tutorial to reproduce the NCNN speed results of YOLOv6Lite.\n\n\u003C\u002Fdetails>\n\n## Quick Start\n\u003Cdetails>\n\u003Csummary> Install\u003C\u002Fsummary>\n\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\ncd YOLOv6\npip install -r requirements.txt\n```\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails>\n\u003Csummary> Reproduce our results on COCO\u003C\u002Fsummary>\n\nPlease refer to [Train COCO Dataset](.\u002Fdocs\u002FTrain_coco_data.md).\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> Finetune on custom data\u003C\u002Fsummary>\n\nSingle GPU\n\n```shell\n# P5 models\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0\n# P6 models\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s6_finetune.py --data data\u002Fdataset.yaml --img 1280 --device 0\n```\n\nMulti GPUs (DDP mode recommended)\n\n```shell\n# P5 models\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --batch 256 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0,1,2,3,4,5,6,7\n# P6 models\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --batch 128 --conf configs\u002Fyolov6s6_finetune.py --data data\u002Fdataset.yaml --img 1280 --device 0,1,2,3,4,5,6,7\n```\n- fuse_ab: add anchor-based auxiliary branch and use Anchor Aided Training Mode (Not supported on P6 models currently)\n- conf: select config file to specify network\u002Foptimizer\u002Fhyperparameters. We recommend to apply yolov6n\u002Fs\u002Fm\u002Fl_finetune.py when training on your custom dataset.\n- data: prepare dataset and specify dataset paths in data.yaml ( [COCO](http:\u002F\u002Fcocodataset.org), [YOLO format coco labels](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.1.0\u002Fcoco2017labels.zip) )\n- make sure your dataset structure as follows:\n```\n├── coco\n│   ├── annotations\n│   │   ├── instances_train2017.json\n│   │   └── instances_val2017.json\n│   ├── images\n│   │   ├── train2017\n│   │   └── val2017\n│   ├── labels\n│   │   ├── train2017\n│   │   ├── val2017\n│   ├── LICENSE\n│   ├── README.txt\n```\n\nYOLOv6 supports different input resolution modes. For details, see [How to Set the Input Size](.\u002Fdocs\u002FAbout_training_size.md).\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Resume training\u003C\u002Fsummary>\n\nIf your training process is corrupted, you can resume training by\n```\n# single GPU training.\npython tools\u002Ftrain.py --resume\n\n# multi GPU training.\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --resume\n```\nAbove command will automatically find the latest checkpoint in YOLOv6 directory, then resume the training process.\n\nYour can also specify a checkpoint path to `--resume` parameter by\n```\n# remember to replace \u002Fpath\u002Fto\u002Fyour\u002Fcheckpoint\u002Fpath to the checkpoint path which you want to resume training.\n--resume \u002Fpath\u002Fto\u002Fyour\u002Fcheckpoint\u002Fpath\n```\nThis will resume from the specific checkpoint you provide.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> Evaluation\u003C\u002Fsummary>\n\nReproduce mAP on COCO val2017 dataset with 640×640 or 1280x1280 resolution\n\n```shell\n# P5 models\npython tools\u002Feval.py --data data\u002Fcoco.yaml --batch 32 --weights yolov6s.pt --task val --reproduce_640_eval\n# P6 models\npython tools\u002Feval.py --data data\u002Fcoco.yaml --batch 32 --weights yolov6s6.pt --task val --reproduce_640_eval --img 1280\n```\n- verbose: set True to print mAP of each classes.\n- do_coco_metric: set True \u002F False to enable \u002F disable pycocotools evaluation method.\n- do_pr_metric: set True \u002F False to print or not to print the precision and recall metrics.\n- config-file: specify a config file to define all the eval params, for example: [yolov6n_with_eval_params.py](configs\u002Fexperiment\u002Fyolov6n_with_eval_params.py)\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>Inference\u003C\u002Fsummary>\n\nFirst, download a pretrained model from the YOLOv6 [release](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Ftag\u002F0.4.0) or use your trained model to do inference.\n\nSecond, run inference with `tools\u002Finfer.py`\n\n```shell\n# P5 models\npython tools\u002Finfer.py --weights yolov6s.pt --source img.jpg \u002F imgdir \u002F video.mp4\n# P6 models\npython tools\u002Finfer.py --weights yolov6s6.pt --img 1280 1280 --source img.jpg \u002F imgdir \u002F video.mp4\n```\nIf you want to inference on local camera or  web camera, you can run:\n```shell\n# P5 models\npython tools\u002Finfer.py --weights yolov6s.pt --webcam --webcam-addr 0\n# P6 models\npython tools\u002Finfer.py --weights yolov6s6.pt --img 1280 1280 --webcam --webcam-addr 0\n```\n`webcam-addr` can be local camera number id or rtsp address.\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> Deployment\u003C\u002Fsummary>\n\n*  [ONNX](.\u002Fdeploy\u002FONNX)\n*  [OpenCV Python\u002FC++](.\u002Fdeploy\u002FONNX\u002FOpenCV)\n*  [OpenVINO](.\u002Fdeploy\u002FOpenVINO)\n*  [TensorRT](.\u002Fdeploy\u002FTensorRT)\n*  [NCNN](.\u002Fdeploy\u002FNCNN)\n*  [Android](.\u002Fdeploy\u002FNCNN\u002FAndroid)\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> Tutorials\u003C\u002Fsummary>\n\n*  [User Guide(zh_CN)](https:\u002F\u002Fyolov6-docs.readthedocs.io\u002Fzh_CN\u002Flatest\u002F)\n*  [Train COCO Dataset](.\u002Fdocs\u002FTrain_coco_data.md)\n*  [Train custom data](.\u002Fdocs\u002FTrain_custom_data.md)\n*  [Test speed](.\u002Fdocs\u002FTest_speed.md)\n*  [Tutorial of Quantization for YOLOv6](.\u002Fdocs\u002FTutorial%20of%20Quantization.md)\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> Third-party resources\u003C\u002Fsummary>\n\n * YOLOv6 Training with Amazon Sagemaker: [yolov6-sagemaker](https:\u002F\u002Fgithub.com\u002Fashwincc\u002Fyolov6-sagemaker) from [ashwincc](https:\u002F\u002Fgithub.com\u002Fashwincc)  \n\n * YOLOv6 NCNN Android app demo: [ncnn-android-yolov6](https:\u002F\u002Fgithub.com\u002FFeiGeChuanShu\u002Fncnn-android-yolov6) from [FeiGeChuanShu](https:\u002F\u002Fgithub.com\u002FFeiGeChuanShu)\n\n * YOLOv6 ONNXRuntime\u002FMNN\u002FTNN C++: [YOLOv6-ORT](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Fort\u002Fcv\u002Fyolov6.cpp), [YOLOv6-MNN](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Fmnn\u002Fcv\u002Fmnn_yolov6.cpp) and [YOLOv6-TNN](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Ftnn\u002Fcv\u002Ftnn_yolov6.cpp) from [DefTruth](https:\u002F\u002Fgithub.com\u002FDefTruth)\n\n * YOLOv6 TensorRT Python: [yolov6-tensorrt-python](https:\u002F\u002Fgithub.com\u002FLinaom1214\u002FTensorRT-For-YOLO-Series) from [Linaom1214](https:\u002F\u002Fgithub.com\u002FLinaom1214)\n\n * YOLOv6 TensorRT Windows C++: [yolort](https:\u002F\u002Fgithub.com\u002Fzhiqwang\u002Fyolov5-rt-stack\u002Ftree\u002Fmain\u002Fdeployment\u002Ftensorrt-yolov6) from [Wei Zeng](https:\u002F\u002Fgithub.com\u002FWulingtian)\n\n * [YOLOv6 web demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnateraw\u002Fyolov6) on [Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces) with [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio). [![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnateraw\u002Fyolov6)\n\n * [Interactive demo](https:\u002F\u002Fyolov6.dagshubusercontent.com\u002F) on [DagsHub](https:\u002F\u002Fdagshub.com) with [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)\n\n * Tutorial: [How to train YOLOv6 on a custom dataset](https:\u002F\u002Fblog.roboflow.com\u002Fhow-to-train-yolov6-on-a-custom-dataset\u002F) \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1YnbqOinBZV-c9I7fk_UL6acgnnmkXDMM\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n\n * YouTube Tutorial: [How to train YOLOv6 on a custom dataset](https:\u002F\u002Fyoutu.be\u002FfFCWrMFH2UY)\n\n * Demo of YOLOv6 inference on Google Colab [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmahdilamb\u002FYOLOv6\u002Fblob\u002Fmain\u002Finference.ipynb)\n\n * Blog post: [YOLOv6 Object Detection – Paper Explanation and Inference](https:\u002F\u002Flearnopencv.com\u002Fyolov6-object-detection\u002F)\n\n   \u003C\u002Fdetails>\n\n### [FAQ（Continuously updated）](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fwiki\u002FFAQ%EF%BC%88Continuously-updated%EF%BC%89)\n\nIf you have any questions, welcome to join our WeChat group to discuss and exchange.\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_6e32bd0ee7f6.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_a2e8e92db091.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>\n\nEnglish | [简体中文](README_cn.md)\n\n \u003Cbr>\n\n \u003Cdiv>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fturtorial.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n     \u003Ca href=\"https:\u002F\u002Fwww.kaggle.com\u002Fcode\u002Fhousanduo\u002Fyolov6\">\u003Cimg src=\"https:\u002F\u002Fkaggle.com\u002Fstatic\u002Fimages\u002Fopen-in-kaggle.svg\" alt=\"Open In Kaggle\">\u003C\u002Fa>\n  \u003C\u002Fdiv>\n \u003Cbr>\n\n## YOLOv6\n\n论文实现：\n- [YOLOv6 v3.0：全面升级](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.05586) 🔥\n- [YOLOv6：面向工业应用的单阶段目标检测框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02976)\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_6eaf96b6aa0c.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>\n\n\n## 新特性\n- [2023.09.15] 发布 [YOLOv6-Segmentation](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-seg)。🚀 [性能](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-seg#yolov6-segmentation)\n- [2023.04.28] 发布适用于移动端或CPU的 [YOLOv6Lite](configs\u002Fyolov6_lite\u002FREADME.md) 模型。⭐️ [移动端基准测试](#Mobile-Benchmark)\n- [2023.03.10] 发布 [YOLOv6-Face](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-face)。🔥 [性能](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Ftree\u002Fyolov6-face#performance-on-widerface)\n- [2023.03.02] 将 [基础模型](configs\u002Fbase\u002FREADME.md) 更新至3.0版本。\n- [2023.01.06] 发布P6模型，并进一步提升P5模型的性能。⭐️ [基准测试](#Benchmark)\n- [2022.11.04] 发布 [基础模型](configs\u002Fbase\u002FREADME.md)，以简化训练和部署流程。\n- [2022.09.06] 提供定制化的量化方法。🚀 [量化教程](.\u002Ftools\u002Fqat\u002FREADME.md)\n- [2022.09.05] 发布M\u002FL模型，并更新N\u002FT\u002FS模型，性能得到显著提升。\n- [2022.06.23] 发布性能优异的N\u002FT\u002FS系列模型。\n\n## 基准测试\n| 模型                                                        | 尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b32 \u003Cbr\u002F>(fps) | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算量\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :----------------------- | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6n.pt) | 640  | 37.5                     | 779                                     | 1187                                     | 4.7                  | 11.4                |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6s.pt) | 640  | 45.0                     | 339                                     | 484                                      | 18.5                 | 45.3                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6m.pt) | 640  | 50.0                     | 175                                     | 226                                      | 34.9                 | 85.8                |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6l.pt) | 640  | 52.8                     | 98                                      | 116                                      | 59.6                 | 150.7               |\n|                              |                               |                                |                    |                        |\n| [**YOLOv6-N6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6n6.pt) | 1280 | 44.9                     | 228                                     | 281                                      | 10.4                 | 49.8                |\n| [**YOLOv6-S6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6s6.pt) | 1280 | 50.3                     | 98                                      | 108                                      | 41.4                 | 198.0               |\n| [**YOLOv6-M6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6m6.pt) | 1280 | 55.2                     | 47                                      | 55                                       | 79.6                 | 379.5               |\n| [**YOLOv6-L6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6l6.pt) | 1280 | 57.2                     | 26                                      | 29                                       | 140.4                | 673.4               |\n\u003Cdetails>\n\u003Csummary>表格说明\u003C\u002Fsummary>\n\n- 所有检查点均采用自蒸馏训练，唯独YOLOv6-N6\u002FS6模型在未使用蒸馏的情况下训练至300个epoch。\n- mAP和速度结果是在[COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download)数据集上评估得出的，输入分辨率为P5模型的640×640、P6模型的1280×1280。\n- 速度测试基于T4上的TensorRT 7.2版本。\n- 可参考[测试速度](.\u002Fdocs\u002FTest_speed.md)教程来复现YOLOv6的速度结果。\n- YOLOv6的参数量和浮点运算量是针对部署后的模型进行估算的。\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>旧版模型\u003C\u002Fsummary>\n\n| 模型                                                        | 尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95              | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt fp16 b32 \u003Cbr\u002F>(fps) | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算量\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :------------------------------------ | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6n.pt) | 640  | 35.9\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>36.3\u003Csup>400e | 802                                     | 1234                                     | 4.3                  | 11.1                |\n| [**YOLOv6-T**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6t.pt) | 640  | 40.3\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>41.1\u003Csup>400e | 449                                     | 659                                      | 15.0                 | 36.7                |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6s.pt) | 640  | 43.5\u003Csup>300e\u003C\u002Fsup>\u003Cbr\u002F>43.8\u003Csup>400e | 358                                     | 495                                      | 17.2                 | 44.2                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6m.pt) | 640  | 49.5                                  | 179                                     | 233                                      | 34.3                 | 82.2                |\n| [**YOLOv6-L-ReLU**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6l_relu.pt) | 640  | 51.7                                  | 113                                     | 149                                      | 58.5                 | 144.0               |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.0\u002Fyolov6l.pt) | 640  | 52.5                                  | 98                                      | 121                                      | 58.5                 | 144.0               |\n- 速度测试基于T4上的TensorRT 7.2版本。\n### 量化模型 🚀\n\n| 模型                 | 尺寸 | 精度 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | Speed\u003Csup>T4\u003Cbr\u002F>trt b1 \u003Cbr\u002F>(fps) | Speed\u003Csup>T4\u003Cbr\u002F>trt b32 \u003Cbr\u002F>(fps) |\n| :-------------------- | ---- | --------- | :----------------------- | ---------------------------------- | ----------------------------------- |\n| **YOLOv6-N RepOpt** | 640  | INT8      | 34.8                     | 1114                               | 1828                                |\n| **YOLOv6-N**        | 640  | FP16      | 35.9                     | 802                                | 1234                                |\n| **YOLOv6-T RepOpt** | 640  | INT8      | 39.8                     | 741                                | 1167                                |\n| **YOLOv6-T**        | 640  | FP16      | 40.3                     | 449                                | 659                                 |\n| **YOLOv6-S RepOpt** | 640  | INT8      | 43.3                     | 619                                | 924                                 |\n| **YOLOv6-S**        | 640  | FP16      | 43.5                     | 377                                | 541                                 |\n\n- 速度测试基于T4上的TensorRT 8.4版本。\n- 精度数据基于训练了300个epoch的模型得出。\n\n\u003C\u002Fdetails>\n\n## 移动端基准测试\n| 模型 | 尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | sm8350\u003Cbr\u002F>\u003Csup>(ms) | mt6853\u003Cbr\u002F>\u003Csup>(ms) | sdm660\u003Cbr\u002F>\u003Csup>(ms) |参数\u003Cbr\u002F>\u003Csup> (M) |   FLOPs\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- |\n| [**YOLOv6Lite-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_s.pt) | 320*320 | 22.4                     | 7.99                     | 11.99                     | 41.86                     | 0.55                     | 0.56                     |\n| [**YOLOv6Lite-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_m.pt) | 320*320 | 25.1                     | 9.08                     | 13.27                     | 47.95                     | 0.79                     | 0.67                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*320 | 28.0                     | 11.37                     | 16.20                     | 61.40                     | 1.09                     | 0.87                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*192 | 25.0                     | 7.02                     | 9.66                     | 36.13                     | 1.09                     | 0.52                     |\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 224*128 | 18.9                     | 3.63                     | 4.99                     | 17.76                     | 1.09                     | 0.24                     |\n\n\u003Cdetails>\n\u003Csummary>表格说明\u003C\u002Fsummary>\n\n- 从模型大小和输入图像比例的角度出发，我们在移动端构建了一系列模型，以方便在不同场景下的灵活应用。\n- 所有检查点均使用400个epoch训练，未进行蒸馏。\n- mAP和速度的结果是在[COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download)数据集上评估的，输入分辨率为表格中的Size。\n- 速度测试在MNN 2.3.0 AArch64平台上，采用2线程并利用arm82加速进行。推理预热10次，循环执行100次。\n- 高通888（sm8350）、天玑720（mt6853）和高通660（sdm660）分别对应于高端、中端和低端的不同性能芯片，可作为不同芯片下模型能力的参考。\n- 参考[测试NCNN速度](.\u002Fdocs\u002FTest_NCNN_speed.md)教程，可以复现YOLOv6Lite的NCNN速度结果。\n\n\u003C\u002Fdetails>\n\n## 快速入门\n\u003Cdetails>\n\u003Csummary> 安装\u003C\u002Fsummary>\n\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\ncd YOLOv6\npip install -r requirements.txt\n```\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails>\n\u003Csummary> 复现我们在COCO上的结果\u003C\u002Fsummary>\n\n请参阅[训练COCO数据集](.\u002Fdocs\u002FTrain_coco_data.md)。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> 在自定义数据上微调\u003C\u002Fsummary>\n\n单GPU\n\n```shell\n# P5模型\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0\n# P6模型\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s6_finetune.py --data data\u002Fdataset.yaml --img 1280 --device 0\n```\n\n多GPU（推荐使用DDP模式）\n\n```shell\n# P5模型\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --batch 256 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0,1,2,3,4,5,6,7\n# P6模型\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --batch 128 --conf configs\u002Fyolov6s6_finetune.py --data data\u002Fdataset.yaml --img 1280 --device 0,1,2,3,4,5,6,7\n```\n- fuse_ab：添加基于锚点的辅助分支，并使用锚点辅助训练模式（目前P6模型不支持此功能）。\n- conf：选择配置文件以指定网络、优化器和超参数。我们建议在您的自定义数据集上训练时使用yolov6n\u002Fs\u002Fm\u002Fl_finetune.py。\n- data：准备数据集，并在data.yaml中指定数据集路径（[COCO](http:\u002F\u002Fcocodataset.org)，[YOLO格式的COCO标签](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.1.0\u002Fcoco2017labels.zip)）。\n- 确保您的数据集结构如下：\n```\n├── coco\n│   ├── annotations\n│   │   ├── instances_train2017.json\n│   │   └── instances_val2017.json\n│   ├── images\n│   │   ├── train2017\n│   │   └── val2017\n│   ├── labels\n│   │   ├── train2017\n│   │   ├── val2017\n│   ├── LICENSE\n│   ├── README.txt\n```\n\nYOLOv6支持不同的输入分辨率模式。有关详细信息，请参阅[如何设置输入尺寸](.\u002Fdocs\u002FAbout_training_size.md)。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>恢复训练\u003C\u002Fsummary>\n\n如果您的训练过程出现中断，可以通过以下方式恢复训练：\n```\n# 单GPU训练。\npython tools\u002Ftrain.py --resume\n\n# 多GPU训练。\npython -m torch.distributed.launch --nproc_per_node 8 tools\u002Ftrain.py --resume\n```\n上述命令会自动在YOLOv6目录中找到最新的检查点，然后继续训练。\n\n您也可以通过`--resume`参数指定检查点路径：\n```\n# 请将\u002Fpath\u002Fto\u002Fyour\u002Fcheckpoint\u002Fpath替换为您想要恢复训练的检查点路径。\n--resume \u002Fpath\u002Fto\u002Fyour\u002Fcheckpoint\u002Fpath\n```\n这将从您提供的特定检查点开始恢复训练。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> 评估\u003C\u002Fsummary>\n\n在COCO val2017数据集上以640×640或1280x1280分辨率复现mAP\n\n```shell\n# P5模型\npython tools\u002Feval.py --data data\u002Fcoco.yaml --batch 32 --weights yolov6s.pt --task val --reproduce_640_eval\n# P6模型\npython tools\u002Feval.py --data data\u002Fcoco.yaml --batch 32 --weights yolov6s6.pt --task val --reproduce_640_eval --img 1280\n```\n- verbose：设置为True以打印每个类别的mAP。\n- do_coco_metric：设置为True\u002FFalse以启用\u002F禁用pycocotools评估方法。\n- do_pr_metric：设置为True\u002FFalse以决定是否打印精确率和召回率指标。\n- config-file：指定一个配置文件来定义所有评估参数，例如：[yolov6n_with_eval_params.py](configs\u002Fexperiment\u002Fyolov6n_with_eval_params.py)\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>推理\u003C\u002Fsummary>\n\n首先，从YOLOv6的[发布页面](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Ftag\u002F0.4.0)下载预训练模型，或者使用您自己训练好的模型进行推理。\n\n其次，使用`tools\u002Finfer.py`运行推理：\n\n```shell\n# P5模型\npython tools\u002Finfer.py --weights yolov6s.pt --source img.jpg \u002F imgdir \u002F video.mp4\n# P6模型\npython tools\u002Finfer.py --weights yolov6s6.pt --img 1280 1280 --source img.jpg \u002F imgdir \u002F video.mp4\n```\n如果您想对本地摄像头或网络摄像头进行推理，可以运行：\n```shell\n# P5模型\npython tools\u002Finfer.py --weights yolov6s.pt --webcam --webcam-addr 0\n\n# P6 模型\npython tools\u002Finfer.py --weights yolov6s6.pt --img 1280 1280 --webcam --webcam-addr 0\n```\n`webcam-addr` 可以是本地摄像头编号或 RTSP 地址。\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> 部署\u003C\u002Fsummary>\n\n*  [ONNX](.\u002Fdeploy\u002FONNX)\n*  [OpenCV Python\u002FC++](.\u002Fdeploy\u002FONNX\u002FOpenCV)\n*  [OpenVINO](.\u002Fdeploy\u002FOpenVINO)\n*  [TensorRT](.\u002Fdeploy\u002FTensorRT)\n*  [NCNN](.\u002Fdeploy\u002FNCNN)\n*  [Android](.\u002Fdeploy\u002FNCNN\u002FAndroid)\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary> 教程\u003C\u002Fsummary>\n\n*  [用户指南(zh_CN)](https:\u002F\u002Fyolov6-docs.readthedocs.io\u002Fzh_CN\u002Flatest\u002F)\n*  [训练 COCO 数据集](.\u002Fdocs\u002FTrain_coco_data.md)\n*  [训练自定义数据](.\u002Fdocs\u002FTrain_custom_data.md)\n*  [测试速度](.\u002Fdocs\u002FTest_speed.md)\n*  [YOLOv6 量化教程](.\u002Fdocs\u002FTutorial%20of%20Quantization.md)\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> 第三方资源\u003C\u002Fsummary>\n\n * 使用 Amazon Sagemaker 训练 YOLOv6：[yolov6-sagemaker](https:\u002F\u002Fgithub.com\u002Fashwincc\u002Fyolov6-sagemaker) 来自 [ashwincc](https:\u002F\u002Fgithub.com\u002Fashwincc)  \n\n * YOLOv6 NCNN Android 应用演示：[ncnn-android-yolov6](https:\u002F\u002Fgithub.com\u002FFeiGeChuanShu\u002Fncnn-android-yolov6) 来自 [FeiGeChuanShu](https:\u002F\u002Fgithub.com\u002FFeiGeChuanShu)\n\n * YOLOv6 ONNXRuntime\u002FMNN\u002FTNN C++：[YOLOv6-ORT](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Fort\u002Fcv\u002Fyolov6.cpp)、[YOLOv6-MNN](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Fmnn\u002Fcv\u002Fmnn_yolov6.cpp) 和 [YOLOv6-TNN](https:\u002F\u002Fgithub.com\u002FDefTruth\u002Flite.ai.toolkit\u002Fblob\u002Fmain\u002Flite\u002Ftnn\u002Fcv\u002Ftnn_yolov6.cpp) 来自 [DefTruth](https:\u002F\u002Fgithub.com\u002FDefTruth)\n\n * YOLOv6 TensorRT Python：[yolov6-tensorrt-python](https:\u002F\u002Fgithub.com\u002FLinaom1214\u002FTensorRT-For-YOLO-Series) 来自 [Linaom1214](https:\u002F\u002Fgithub.com\u002FLinaom1214)\n\n * YOLOv6 TensorRT Windows C++：[yolort](https:\u002F\u002Fgithub.com\u002Fzhiqwang\u002Fyolov5-rt-stack\u002Ftree\u002Fmain\u002Fdeployment\u002Ftensorrt-yolov6) 来自 [Wei Zeng](https:\u002F\u002Fgithub.com\u002FWulingtian)\n\n * [YOLOv6 网页演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnateraw\u002Fyolov6) 在 [Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces) 上，使用 [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio)。[![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fnateraw\u002Fyolov6)\n\n * [交互式演示](https:\u002F\u002Fyolov6.dagshubusercontent.com\u002F) 在 [DagsHub](https:\u002F\u002Fdagshub.com) 上，使用 [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)\n\n * 教程：[如何在自定义数据集上训练 YOLOv6](https:\u002F\u002Fblog.roboflow.com\u002Fhow-to-train-yolov6-on-a-custom-dataset\u002F) \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1YnbqOinBZV-c9I7fk_UL6acgnnmkXDMM\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"在 Colab 中打开\">\u003C\u002Fa>\n\n * YouTube 教程：[如何在自定义数据集上训练 YOLOv6](https:\u002F\u002Fyoutu.be\u002FfFCWrMFH2UY)\n\n * Google Colab 上的 YOLOv6 推理演示 [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmahdilamb\u002FYOLOv6\u002Fblob\u002Fmain\u002Finference.ipynb)\n\n * 博客文章：[YOLOv6 目标检测——论文解析与推理](https:\u002F\u002Flearnopencv.com\u002Fyolov6-object-detection\u002F)\n\n   \u003C\u002Fdetails>\n\n### [FAQ（持续更新）](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fwiki\u002FFAQ%EF%BC%88Continuously-updated%EF%BC%89)\n\n如果您有任何问题，欢迎加入我们的微信群进行讨论和交流。\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_readme_6e32bd0ee7f6.png\" align=\"middle\" width = \"1000\" \u002F>\n\u003C\u002Fp>","# YOLOv6 快速上手指南\n\nYOLOv6 是美团推出的单阶段目标检测框架，专为工业应用设计，在速度与精度之间取得了优异的平衡。本指南将帮助您快速完成环境搭建并运行模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows (WSL2)\n*   **Python**: >= 3.7\n*   **PyTorch**: >= 1.7 (建议 1.10+)\n*   **CUDA**: 建议使用 CUDA 11.0+ 以获得最佳推理性能（支持 TensorRT 加速）\n*   **硬件**: 推荐使用 NVIDIA GPU 进行训练和高速推理；CPU 或移动端可使用 YOLOv6Lite 系列。\n\n## 2. 安装步骤\n\n克隆项目代码并安装依赖包。国内用户建议使用镜像源加速下载。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\ncd YOLOv6\n\n# 安装依赖 (推荐使用国内镜像源加速)\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **提示**：若需使用 TensorRT 进行部署加速，请确保已安装对应版本的 TensorRT 库。\n\n## 3. 基本使用\n\n### 3.1 自定义数据微调 (Finetune)\n\n这是最常用的场景，基于预训练模型在您自己的数据集上进行训练。请准备好符合 YOLO 格式的数据集配置文件（如 `data\u002Fdataset.yaml`）。\n\n**单卡训练 (Single GPU):**\n\n```bash\n# P5 模型系列 (输入分辨率 640)\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0\n\n# P6 模型系列 (输入分辨率 1280，适合小目标检测)\npython tools\u002Ftrain.py --batch 32 --conf configs\u002Fyolov6s6_finetune.py --data data\u002Fdataset.yaml --img 1280 --device 0\n```\n\n**多卡训练 (Multi-GPUs, 推荐 DDP 模式):**\n\n```bash\n# 例如使用 4 张显卡\npython -m torch.distributed.launch --nproc_per_node 4 tools\u002Ftrain.py --batch 128 --conf configs\u002Fyolov6s_finetune.py --data data\u002Fdataset.yaml --fuse_ab --device 0,1,2,3\n```\n\n### 3.2 模型推理 (Inference)\n\n训练完成后，或使用官方提供的预训练权重进行推理测试。\n\n```bash\n# 使用预训练权重对图片\u002F视频\u002F文件夹进行推理\npython tools\u002Finfer.py --weights yolov6s.pt --source path\u002Fto\u002Fimage.jpg --conf-thres 0.25 --iou-thres 0.45\n```\n\n### 3.3 移动端\u002F轻量级模型 (YOLOv6Lite)\n\n针对手机 CPU 或低功耗设备，可以使用 YOLOv6Lite 系列模型：\n\n```bash\n# 使用 Lite 模型进行推理 (示例)\npython tools\u002Finfer.py --weights yolov6lite_s.pt --source path\u002Fto\u002Fimage.jpg --img-size 320\n```\n\n> **更多资源**:\n> *   **在线体验**: [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fturtorial.ipynb) | [Kaggle](https:\u002F\u002Fwww.kaggle.com\u002Fcode\u002Fhousanduo\u002Fyolov6)\n> *   **完整文档**: 查看项目根目录下的 `docs` 文件夹获取详细的训练、量化及部署教程。","某大型物流分拣中心需要在高速传送带上实时识别并分类数百万个不同尺寸的包裹，以驱动机械臂进行自动分流。\n\n### 没有 YOLOv6 时\n- **检测延迟高导致漏检**：旧模型在高分辨率输入下推理速度慢，无法跟上每秒 3 米的传送带速度，导致小件包裹未被识别就流向错误滑道。\n- **资源消耗过大**：为了维持一定的准确率，不得不部署昂贵的多卡 GPU 服务器，且显存占用极高，难以在边缘端设备部署。\n- **量化部署困难**：尝试将模型转换为 TensorRT 格式以加速时，精度损失严重，需要耗费数周时间手动调整量化参数才能勉强可用。\n- **小目标识别率低**：面对密集堆叠或远距离的小包裹，传统单阶段检测器的特征提取能力不足，误判和漏判频发。\n\n### 使用 YOLOv6 后\n- **毫秒级实时响应**：利用 YOLOv6-N 模型在 T4 GPU 上实现高达 1187 FPS 的推理速度，完美匹配高速流水线，彻底消除动态漏检。\n- **低成本边缘部署**：借助 YOLOv6Lite 版本，成功将高精度模型部署在低算力的 CPU 或移动端设备上，大幅降低了硬件采购与维护成本。\n- **无损量化加速**：直接使用 YOLOv6 自带的定制化量化方法，轻松实现 INT8 部署，在提升 3 倍速度的同时几乎零精度损失。\n- **精准捕捉微小包裹**：得益于重设计的骨干网络与解耦头结构，对密集场景下的微小包裹检测 mAP 显著提升，分拣准确率突破 99%。\n\nYOLOv6 通过极致的速度与精度的平衡，让工业级视觉检测从“昂贵实验”变成了可大规模落地的“标准生产力”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeituan_YOLOv6_a2e8e92d.png","meituan","美团 Meituan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmeituan_dd57ebdd.jpg","美团技术团队官方账号，部分项目也可以访问：https:\u002F\u002Fgithub.com\u002Fmeituan-dianping 。",null,"tech@meituan.com","https:\u002F\u002Ftech.meituan.com\u002F","https:\u002F\u002Fgithub.com\u002Fmeituan",[84,88,92,96,100,103],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",95.2,{"name":89,"color":90,"percentage":91},"Python","#3572A5",4.2,{"name":93,"color":94,"percentage":95},"C++","#f34b7d",0.6,{"name":97,"color":98,"percentage":99},"Java","#b07219",0,{"name":101,"color":102,"percentage":99},"CMake","#DA3434",{"name":104,"color":105,"percentage":99},"Shell","#89e051",5880,1063,"2026-04-04T07:24:10","GPL-3.0","Linux","训练和基准测试需要 NVIDIA GPU (文中使用 T4 进行测试)，支持 TensorRT 加速；推理可运行于 CPU 或移动端 (通过 YOLOv6Lite\u002FMNN\u002FNCNN)。具体显存和 CUDA 版本未在片段中明确说明，但通常需 CUDA 11+ 以支持较新 PyTorch 和 TensorRT。","未说明",{"notes":114,"python":115,"dependencies":116},"该项目提供多种模型变体：标准版 (P5\u002FP6)、轻量级移动版 (YOLOv6Lite)、人脸检测版 (YOLOv6-Face) 和分割版 (YOLOv6-Seg)。基准测试基于 TensorRT 7.2\u002F8.4 在 T4 GPU 上进行。移动端推理依赖 MNN 框架并在 ARM 架构芯片 (如骁龙、天玑) 上测试。自定义数据微调支持单卡和多卡 (DDP) 模式。","未说明 (通常建议 3.8+)",[117,118,119,120,121,122],"torch","torchvision","onnx","tensorrt","mnn","ncnn",[13,14],[125,126,127],"object-detection","pytorch","yolo","2026-03-27T02:49:30.150509","2026-04-06T05:37:48.143173",[131,136,141,146,151,156],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},18061,"训练时遇到报错 'AssertionError: ..\u002Fcoco\u002Fimages\u002Ftrain2017 is an invalid directory path!' 怎么办？","该错误通常是因为标签文件格式或目录结构不正确。请确保：\n1. 将 .xml 标注文件转换为 .txt 格式（YOLO 格式）。\n2. 检查目录结构，确保 .txt 标签文件已正确放置在对应的文件夹中。\n有用户反馈，在按照正确结构放置 .txt 标签文件后，该问题得到解决。","https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fissues\u002F48",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},18062,"使用自定义数据集训练时出现 'AssertionError: Results do not correspond to current coco set' 错误如何解决？","这是因为代码中处理图片 ID 的逻辑与自定义数据集的文件名格式不兼容。需要修改以下两个文件：\n1. 在 `datasets.py` 中，将 `img_id = int(path.stem) if path.stem.isnumeric() else path.stem` 修改为 `img_id = path.stem`。\n2. 在 `evaler.py` 中，将 `image_id = int(path.stem) if path.stem.isnumeric() else path.stem` 修改为 `img_id = path.stem`。\n注意：必须同时修改这两个文件才能正常运行。","https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fissues\u002F76",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},18063,"训练自定义数据集时报错 'ValueError: not enough values to unpack (expected 2, got 0)' 是什么原因？","这通常是因为代码中的日志警告部分尝试访问尚未定义的变量 `self.img_paths` 导致的。解决方法是注释掉 `datasets.py` 文件中相关的警告代码块：\n```python\nif nf == 0:\n    # LOGGER.warning(\n    #     f\"WARNING: No labels found in {osp.dirname(self.img_paths[0])}. \"\n    # )\n```\n注释掉这段代码后，程序即可正常运行。","https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fissues\u002F181",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},18064,"运行推理脚本 infer.py 时提示 'FileNotFoundError: [Errno 2] No such file or directory: yolov6s.pt'，但文件确实存在，怎么办？","这是因为路径设置问题。即使权重文件在当前目录下，也需要明确指定相对路径或绝对路径。请将参数中的权重路径修改为 `weights\u002Fyolov6s.pt` 或完整的绝对路径，例如 `--weights weights\u002Fyolov6s.pt`。","https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fissues\u002F163",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},18065,"如何高效管理 YOLOv6 的多种算法开发环境以避免冲突？","建议使用 Docker 容器化管理环境。具体做法是：\n1. 准备一个基础镜像。\n2. 每次开发新算法时，在基础镜像上安装所需的特定包。\n3. 将该容器提交保存为新的镜像。\n这样可以在同一台机器上隔离不同算法的环境，避免依赖冲突，且下次使用时无需重新安装环境。","https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fissues\u002F519",{"id":157,"question_zh":158,"answer_zh":159,"source_url":145},18066,"自定义数据集的标签文件 (.txt) 应该如何获取或创建？","如果您的原始数据是 COCO 格式的 .xml 或其他格式，需要编写 Python 脚本将其转换为 YOLO 格式的 .txt 文件。\n对于 COCO2017 等标准数据集，官方下载包中可能不直接包含 .txt 标签，您需要使用转换脚本生成。可以参考相关开源项目（如 amikelive\u002Fcoco-labels）获取类别映射信息，并编写脚本完成格式转换，确保标签文件与图片一一对应并放在正确的目录结构中。",[161,166,171,176,181,186,191],{"id":162,"version":163,"summary_zh":164,"released_at":165},108511,"0.4.1","### 特性\n- 发布全尺寸的 YOLOv6-Segmentation 模型\n- 在实时实例分割任务中达到当前最优的精度。\n\n### YOLOv6-seg 模型性能\n| 模型                                                        | 输入尺寸 | mAP\u003Csup>box\u003Cbr\u002F>50-95 | mAP\u003Csup>mask\u003Cbr\u002F>50-95 | T4 上 TensorRT FP16、batch=1 时的推理速度 (fps) | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算次数\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :-------------------- | ---------------------- | --------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.1\u002Fyolov6n_seg.pt) | 640  | 35.3                  | 31.2                   | 645                                     | 4.9                  | 7.0                 |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.1\u002Fyolov6s_seg.pt) | 640  | 44.0                  | 38.0                   | 292                                     | 19.6                 | 27.7                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.1\u002Fyolov6m_seg.pt) | 640  | 48.2                  | 41.3                   | 148                                     | 37.1                 | 54.3                |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.1\u002Fyolov6l_seg.pt) | 640  | 51.1                  | 43.7                   | 93                                      | 63.6                 | 95.5                |\n| [**YOLOv6-X**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.1\u002Fyolov6x_seg.pt) | 640  | 52.2                  | 44.8                   | 47                                      | 119.1                | 175.5               |\n\n#### 表注\n- 所有检查点均在 COCO 数据集上从头开始训练 300 个 epoch，未使用知识蒸馏。\n- mAP 和速度的评估基于 [COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download) 数据集，输入分辨率为 640×640。\n- 推理速度测试在 T4 GPU 上使用 TensorRT 8.5 进行，且未进行后处理。","2023-09-15T09:03:09",{"id":167,"version":168,"summary_zh":169,"released_at":170},108512,"0.4.0","# v4.0 版本发布\r\n### 功能特性\r\n- 发布适用于移动端或 CPU 的 [YOLOv6Lite](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fconfigs\u002Fyolov6_lite\u002FREADME.md) 模型。\r\n- 更新网络结构中的 [MBLABlock](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fconfigs\u002Fmbla\u002FREADME.md)。\r\n- 更新适用于移动端或 CPU 的 [YOLOv6Lite-face](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fyolov6-face\u002FREADME.md) 模型。\r\n- 对 [卷积算子](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Fblob\u002Fmain\u002Fyolov6\u002Flayers\u002Fcommon.py#L26) 进行代码重构与规范化处理。\r\n\r\n### YOLOv6Lite 模型性能\r\n| 模型 | 输入尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | sm8350\u003Cbr\u002F>\u003Csup>(ms) | mt6853\u003Cbr\u002F>\u003Csup>(ms) | sdm660\u003Cbr\u002F>\u003Csup>(ms) | 参数量\u003Cbr\u002F>\u003Csup> (M) | FLOPs\u003Cbr\u002F>\u003Csup> (G) |\r\n| :----------------------------------------------------------- | ---- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- | -------------------- |\r\n| [**YOLOv6Lite-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_s.pt) | 320*320 | 22.4                     | 7.99                     | 11.99                     | 41.86                     | 0.55                     | 0.56                     |\r\n| [**YOLOv6Lite-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_m.pt) | 320*320 | 25.1                     | 9.08                     | 13.27                     | 47.95                     | 0.79                     | 0.67                     |\r\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*320 | 28.0                     | 11.37                     | 16.20                     | 61.40                     | 1.09                     | 0.87                     |\r\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 320*192 | 25.0                     | 7.02                     | 9.66                     | 36.13                     | 1.09                     | 0.52                     |\r\n| [**YOLOv6Lite-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.4.0\u002Fyolov6lite_l.pt) | 224*128 | 18.9                     | 3.63                     | 4.99                     | 17.76                     | 1.09                     | 0.24                     |\r\n\r\n\u003Cdetails>\r\n\u003Csummary>表格说明\u003C\u002Fsummary>\r\n\r\n- 从模型尺寸和输入图像宽高比的角度出发，我们在移动端构建了一系列模型，以方便在不同场景下的灵活应用。\r\n- 所有检查点均采用无蒸馏训练，训练轮数为 400 轮。\r\n- mAP 和速度的评估基于 [COCO val2017](https:\u002F\u002Fcocodataset.org\u002F#download) 数据集，输入分辨率为表格中所示的 Size。\r\n- 速度测试在 MNN 2.3.0 AArch64 平台下进行，使用 2 个线程并启用 arm82 加速。推理预热执行 10 次，随后循环执行 100 次。\r\n- Qualcomm 888(sm8350)、天玑 720(mt6853) 和 Qualcomm 660(sdm660) 分别对应","2023-04-28T11:41:56",{"id":172,"version":173,"summary_zh":174,"released_at":175},108513,"0.3.1","### 特性\n- 人脸检测与关键点定位\n- 排斥损失\n- 同通道去头\n\n### WIDERFACE 数据集上的性能\n| 模型                                                        | 尺寸 | 容易 | 中等 | 困难 | 速度\u003Csup>T4\u003Cbr\u002F>trt fp16 b1 \u003Cbr\u002F>(fps) | 速度\u003Csup>T4\u003Cbr\u002F>trt fp16 b32 \u003Cbr\u002F>(fps) | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算量\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :--- | ------ | ---- | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.1\u002Fyolov6n_face.pt) | 640  | 95.0 | 92.4   | 80.4 | 797                                     | 1313                                     | 4.63                 | 11.35               |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.1\u002Fyolov6s_face.pt) | 640  | 96.2 | 94.7   | 85.1 | 339                                     | 484                                      | 12.41                | 32.45               |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.1\u002Fyolov6m_face.pt) | 640  | 97.0 | 95.3   | 86.3 | 188                                     | 240                                      | 24.85                | 70.59               |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.1\u002Fyolov6l_face.pt) | 640  | 97.2 | 95.9   | 87.5 | 102                                     | 121                                      | 56.77                | 159.24              |\n\n- 所有检查点均基于 COCO 预训练模型进行微调，训练了 300 个 epoch，未使用知识蒸馏。\n- mAP 和速度的评估结果是在 [WIDER FACE](http:\u002F\u002Fshuoyang1213.me\u002FWIDERFACE\u002F) 数据集上，输入分辨率为 640×640 的条件下得出的。\n- 速度测试在 T4 上使用 TensorRT 8.2 进行。\n- 请参考 [测试速度](.\u002Fdocs\u002FTest_speed.md) 教程，以复现 YOLOv6 的速度结果。\n- YOLOv6 的参数量和浮点运算量是基于部署后的模型估算得出的。","2023-03-10T12:02:25",{"id":177,"version":178,"summary_zh":179,"released_at":180},108514,"0.3.0","# v3.0 发布\n### 功能特性\n发布 P6 模型并更新 P5 模型\n- 使用 BiC 模块和 SimCSPSPPF 块重新设计检测器的颈部结构。\n- 提出一种基于锚点的训练策略（AAT）。\n- 为 YOLOv6 的小型模型引入新的自蒸馏策略。\n- 扩展 YOLOv6，在 COCO 数据集上达到新的 SOTA 性能。\n\n### 性能指标\n\n| 模型                                                        | 输入尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | T4 上 TensorRT FP16、批量为 1 时的推理速度（fps） | T4 上 TensorRT FP16、批量为 32 时的推理速度（fps） | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算量\u003Cbr\u002F>\u003Csup> (G) |\n| :----------------------------------------------------------- | ---- | :----------------------- | --------------------------------------- | ---------------------------------------- | -------------------- | ------------------- |\n| [**YOLOv6-N**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6n.pt) | 640  | 37.5                     | 779                                     | 1187                                     | 4.7                  | 11.4                |\n| [**YOLOv6-S**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6s.pt) | 640  | 45.0                     | 339                                     | 484                                      | 18.5                 | 45.3                |\n| [**YOLOv6-M**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6m.pt) | 640  | 50.0                     | 175                                     | 226                                      | 34.9                 | 85.8                |\n| [**YOLOv6-L**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6l.pt) | 640  | 52.8                     | 98                                      | 116                                      | 59.6                 | 150.7               |\n|                              |                               |                                |                    |                        |\n| [**YOLOv6-N6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6n6.pt) | 1280 | 44.9                     | 228                                     | 281                                      | 10.4                 | 49.8                |\n| [**YOLOv6-S6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6s6.pt) | 1280 | 50.3                     | 98                                      | 108                                      | 41.4                 | 198.0               |\n| [**YOLOv6-M6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6m6.pt) | 1280 | 55.2                     | 47                                      | 55                                       | 79.6                 | 379.5               |\n| [**YOLOv6-L6**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.3.0\u002Fyolov6l6.pt) | 1280 | 57.2                     | 26                                      | 29                                       | 140.4                | 673.4               ","2023-01-06T12:09:23",{"id":182,"version":183,"summary_zh":184,"released_at":185},108515,"0.2.1","# v2.1 版本发布\r\n### 功能特性\r\n发布基础模型\r\n\r\n- 仅使用标准卷积和 ReLU 激活函数。\r\n- 在网络结构中应用 CSP（通道维度减半）模块，Nano 基础模型除外。\r\n\r\n优势：\r\n- 采用统一的网络结构和配置，PTQ 8 位量化模型的精度损失可忽略不计，约为 0.4%。\r\n- 适合初学者或需要快速、频繁地应用、优化和部署 8 位量化模型的用户。\r\n\r\n不足之处：\r\n- 在 COCO 数据集上的精度略低于 v2.0 发布的模型。\r\n\r\n### 性能指标\r\n\r\n| 模型                                                         | 输入尺寸 | mAP\u003Csup>val\u003Cbr\u002F>0.5:0.95 | T4 上 TensorRT FP16 b1 推理速度 (fps) | T4 上 TensorRT FP16 b32 推理速度 (fps) | 参数量\u003Cbr\u002F>\u003Csup> (M) | 浮点运算量\u003Cbr\u002F>\u003Csup> (G) |\r\n| :----------------------------------------------------------- | -------- | :----------------------- | -------------------------------------- | --------------------------------------- | -------------------- | ------------------- |\r\n| [**YOLOv6-N-base**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.1\u002Fyolov6n_base.pt) | 640      | 35.6\u003Csup>400e            | 832                                    | 1249                                    | 4.3                  | 11.1                |\r\n| [**YOLOv6-S-base**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.1\u002Fyolov6s_base.pt) | 640      | 43.8\u003Csup>400e            | 373                                    | 531                                     | 11.5                 | 27.6                |\r\n| [**YOLOv6-M-base**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.1\u002Fyolov6m_base.pt) | 640      | 48.8\u003Csup>distill         | 179                                    | 246                                     | 27.7                 | 68.4                |\r\n| [**YOLOv6-L-base**](https:\u002F\u002Fgithub.com\u002Fmeituan\u002FYOLOv6\u002Freleases\u002Fdownload\u002F0.2.1\u002Fyolov6l_base.pt) | 640      | 51.0\u003Csup>distill         | 115                                    | 153                                     | 58.5                 | 144.0               |\r\n\r\n","2022-11-04T14:03:25",{"id":187,"version":188,"summary_zh":189,"released_at":190},108516,"0.2.0","# v2.0 版本发布\nYOLOv6 针对各类工业场景提供了一系列模型，包括 nano、tiny、s、m、l 等不同尺寸，通过调整网络架构以在精度与速度之间取得更好的平衡。此外，我们还引入了一些无需额外成本的技巧来进一步提升性能，例如自蒸馏和增加训练轮数。为了满足工业部署的需求，我们采用了基于通道级蒸馏的量化感知训练（QAT）以及图优化技术，以追求极致的性能表现。\n## 新特性\n- 发布 M\u002FL 模型，并更新 N\u002FT\u002FS 模型以提升性能。⭐️ [基准测试](.\u002FREADME.md#Benchmark)\n- 训练时间缩短至原来的 1\u002F2。\n- 修复了在 640x640 输入下评估时性能下降的问题。\n- 定制化的量化方法。🚀 [量化教程](.\u002Ftools\u002Fqat\u002FREADME.md)","2022-09-05T10:37:47",{"id":192,"version":193,"summary_zh":194,"released_at":195},108517,"0.1.0","# v1.0 版本发布\n## 功能特性\n#### YOLOv6 是一款专为工业应用打造的单阶段目标检测框架，采用硬件友好的高效设计，性能卓越，超越 YOLOv5、YOLOX 和 PP-YOLOE。\nYOLOv6-nano 在 COCO val2017 数据集上取得 35.0 mAP 的成绩，在 T4 上使用 TensorRT FP16 进行 bs32 推理时，可达 1242 FPS；而 YOLOv6-s 在同一数据集上则 đạt được 43.1 mAP，在 T4 上使用 TensorRT FP16 进行 bs32 推理时，可达 520 FPS。\n\n- 骨干网络和颈部模块的硬件友好型设计\n- 带有 SIoU 损失的高效解耦头","2022-06-23T08:14:28"]