[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tinyvision--DAMO-YOLO":3,"tool-tinyvision--DAMO-YOLO":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":142},7805,"tinyvision\u002FDAMO-YOLO","DAMO-YOLO","DAMO-YOLO: a fast and accurate object detection method with some new techs, including NAS backbones, efficient RepGFPN, ZeroHead, AlignedOTA, and distillation enhancement.","DAMO-YOLO 是由阿里巴巴达摩院小模型团队研发的一款高性能目标检测算法，旨在在保持极快推理速度的同时，实现超越现有 YOLO 系列的检测精度。它主要解决了传统检测模型难以兼顾实时性与准确率的痛点，特别适用于对延迟敏感且要求高精度的工业落地场景。\n\n这款工具非常适合计算机视觉开发者、算法研究人员以及需要快速部署检测应用的企业工程师使用。无论是进行学术研究，还是开发安防监控、工业质检等实际产品，DAMO-YOLO 都提供了从训练到部署的完整工具链。\n\n其核心技术亮点在于融合了多项创新技术：采用神经架构搜索（NAS）自动设计更高效的骨干网络；引入可重参数化的广义特征金字塔（RepGFPN）以增强特征融合效率；利用轻量级检测头配合对齐的标签分配策略（AlignedOTA）提升训练效果；并结合知识蒸馏技术进一步挖掘模型潜力。此外，DAMO-YOLO 还发布了涵盖人头、安全帽、口罩等多种场景的行业专用模型，并支持 TensorRT 量化加速，帮助用户轻松实现毫秒级的实时检测性能。","English | [简体中文](README_cn.md)\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_94cefbf4f96f.png\" width=\"1500\">\n\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flanguage-python-blue.svg)\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache-000000.svg)\n![Contributing](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)\n[![README-cn](https:\u002F\u002Fshields.io\u002Fbadge\u002FREADME-%E4%B8%AD%E6%96%87-blue)](README_cn.md)\n[![ThirdParty](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FThirdParty--Resources-brightgreen)](#third-parry-resources)\n[![IndustryModels](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIndustry--Models-orange)](#industry-application-models)\n\n\u003C\u002Fdiv>\n\n## Introduction\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_367ca2cbee26.gif\" width=\"1500\">\u003C\u002Fdiv>\n\nWelcome to **DAMO-YOLO**! It is a fast and accurate object detection method, which is developed by TinyML Team from Alibaba DAMO Data Analytics and Intelligence Lab. And it achieves a higher performance than state-of-the-art YOLO series. DAMO-YOLO is extend from YOLO but with some new techs, including Neural Architecture Search (NAS) backbones, efficient Reparameterized Generalized-FPN (RepGFPN), a lightweight head with AlignedOTA label assignment, and distillation enhancement. For more details, please refer to our [Arxiv Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15444). Moreover, here you can find not only powerful models, but also highly efficient training strategies and complete tools from training to deployment.\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3ff9ddc5c119.png\" width=\"1200\">\u003C\u002Fdiv>\n\n## Updates\n- **[2023\u002F04\u002F12: We release DAMO-YOLO v0.3.1!] ![new](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_b2e9abe195d0.png)**\n    * Add 701-categories DAMO-YOLO-S model, which cover more application scenarios and serve as high-quality pre-training model to improve the performance of downstream tasks。\n    * Upgrade the DAMO-YOLO-Nano series model, which achieves 32.3\u002F38.2\u002F40.5 mAP with only 1.56\u002F3.69\u002F6.04 Flops, and runs in real-time at 4.08\u002F5.05\u002F6.69ms using Intel-CPU. \n    * Add DAMO-YOLO-L model, which achieves 51.9 mAP with 7.95ms latency using T4-GPU.\n- **[2023\u002F03\u002F13: We release DAMO-YOLO v0.3.0!]**\n    * Release DAMO-YOLO-Nano, which achieves 35.1 mAP with only 3.02GFlops.\n    * Upgrade the optimizer builder, edits the optimizer config, you are able to use any optimizer supported by Pytorch.\n    * Upgrade the data loading pipeline and training parameters, leading to significant improvements of DAMO-YOLO models, e.g., the mAP of DAMO-YOLO-T\u002FS\u002FM increased from 43.0\u002F46.8\u002F50.0 to 43.6\u002F47.7\u002F50.2 respectively. \n- **[2023\u002F02\u002F15: Baseline for The 3rd Anti-UAV Challenge.]**\n    * Welcome to join [the 3rd Anti-UAV Challenge](https:\u002F\u002Fanti-uav.github.io\u002FEvaluate\u002F) on CVPR2023. The Challenge provides baseline models trained by DAMO-YOLO, which can be found on [DamoYolo_Anti-UAV-23_S](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_uav-detection_damoyolo\u002Fsummary).\n- **[2023\u002F01\u002F07: We release DAMO-YOLO v0.2.1!]**\n    * Add [TensorRT Int8 Quantization Tutorial](.\u002Ftools\u002Fpartial_quantization\u002FREADME.md), achieves 19% speed up with only 0.3% accuracy loss.\n    * Add [general demo tools](#quick-start), support TensorRT\u002FOnnx\u002FTorch based vidoe\u002Fimage\u002Fcamera inference.\n    * Add more [industry application models](#industry-application-models), including [human detection](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_human-detection_damoyolo\u002Fsummary), [helmet detection](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_safety-helmet\u002Fsummary), [facemask detection](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_facemask\u002Fsummary) and [cigarette detection](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_cigarette\u002Fsummary).\n    * Add [third-party resources](#third-party-resources), including [DAMO-YOLO Code Interpretation](https:\u002F\u002Fblog.csdn.net\u002Fjyyqqq\u002Farticle\u002Fdetails\u002F128419143), [Practical Example for Finetuning on Custom Dataset](https:\u002F\u002Fblog.csdn.net\u002FCwhgn\u002Farticle\u002Fdetails\u002F128447380?spm=1001.2014.3001.5501). \n- **[2022\u002F12\u002F15: We release  DAMO-YOLO v0.1.1!]**\n  * Add a detailed [Custom Dataset Finetune Tutorial](.\u002Fassets\u002FCustomDatasetTutorial.md).\n  * The stuck problem caused by no-label data (*e.g.*, [ISSUE#30](https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F30)) is solved. Feel free to contact us, we are 24h stand by.\n\n## Web Demo\n- [DAMO-YOLO-T](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo-t\u002Fsummary), [DAMO-YOLO-S](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo\u002Fsummary), [DAMO-YOLO-M](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo-m\u002Fsummary) is integrated into ModelScope. Training is supported on [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo\u002Fsummary) now! **Come and try DAMO-YOLO with free GPU resources provided by ModelScope.** \n\n## Model Zoo\n### General Models\n\n|Model |size |mAP\u003Csup>val\u003Cbr>0.5:0.95 | Latency T4\u003Cbr>TRT-FP16-BS1| FLOPs\u003Cbr>(G)| Params\u003Cbr>(M)| AliYun Download | Google Download|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n|[DAMO-YOLO-T](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 42.0  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL20_T_420.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL20_T_420.onnx)|--|\n|[DAMO-YOLO-T*](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 43.6  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL20_T_436.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL20_T_436.onnx)|--|\n|[DAMO-YOLO-S](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 46.0  | 3.83  | 37.8  | 16.3  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL25_S_460.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL25_S_460.onnx)|--|\n|[DAMO-YOLO-S*](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 47.7  | 3.83  | 37.8  | 16.3 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL25_S_477.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL25_S_477.onnx) |--|\n|[DAMO-YOLO-M](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 49.2  | 5.62  | 61.8  | 28.2  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL35_M_492.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL35_M_492.onnx)|--|\n|[DAMO-YOLO-M*](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 50.2  | 5.62  | 61.8  | 28.2 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL35_M_502.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL35_M_502.onnx)|--|\n|[DAMO-YOLO-L](.\u002Fconfigs\u002Fdamoyolo_tinynasL45_L.py) | 640 | 50.8  | 7.95  | 97.3  | 42.1  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL45_L_508.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL45_L_508.onnx)|--|\n|[DAMO-YOLO-L*](.\u002Fconfigs\u002Fdamoyolo_tinynasL45_L.py) | 640 | 51.9  | 7.95  | 97.3  | 42.1  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL45_L_519.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL45_L_519.onnx)|--|\n\n\u003Cdetails>\n\n\u003Csummary>Legacy models\u003C\u002Fsummary>\n\n|Model |size |mAP\u003Csup>val\u003Cbr>0.5:0.95 | Latency T4\u003Cbr>TRT-FP16-BS1| FLOPs\u003Cbr>(G)| Params\u003Cbr>(M)| AliYun Download | Google Download|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n|[DAMO-YOLO-T](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 41.8  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_T_418.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_T_418.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-9NzCRKJZs3ea_n35seEYSpq3M_RkhcT\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-7s8fqK5KC8z4sXCuh3N900chMtMSYri\u002Fview?usp=sharing)|\n|[DAMO-YOLO-T*](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 43.0  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL20_T.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL20_T.onnx) |[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-6fBf_oe9vITSTYgQkaYklL94REz2zCh\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-1lK83OwVKL4lgHTlbgEZ8pYMYZHhEtE\u002Fview?usp=sharing)|\n|[DAMO-YOLO-S](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 45.6  | 3.83  | 37.8  | 16.3  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-0GV1lxUS6bLHTOs7aNojsItgjDT6rK8\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1--CaKMHm-SjLnprZDMksO-jnbGbV9Zhp\u002Fview?usp=sharing)|\n|[DAMO-YOLO-S*](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 46.8  | 3.83  | 37.8  | 16.3 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL25_S.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL25_S.onnx) |[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-O-ObHN970GRVKkL1TiAxfoMCpYGJS6B\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-NDqCpz2rs1IiKNyIzo1KSxoJACKV65N\u002Fview?usp=sharing)|\n|[DAMO-YOLO-M](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 48.7  | 5.62  | 61.8  | 28.2  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL35_M_487.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL35_M_487.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-RMevyb9nwpDBeTPttiV_iwfsiW_M9ST\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-Cs4ozjAhTH_W32tGnq_L5TfE22vAD_c\u002Fview?usp=sharing)|\n|[DAMO-YOLO-M*](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 50.0  | 5.62  | 61.8  | 28.2 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL35_M.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL35_M.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-RoKaO7U9U1UrweJb7c4Hs_S_qKFDExc\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-HRkLfGoFBjdQDiWudsS1zxicx53Pu5m\u002Fview?usp=sharing)|\n\n\u003C\u002Fdetails>\n\n- We report the mAP of models on COCO2017 validation set, with multi-class NMS.\n- The latency in this table is measured without post-processing(NMS).\n- \\* denotes the model trained with distillation.\n- We use S as teacher to distill T, and M as teacher to distill S, ans L as teacher to distill M, while L is distilled by it self.\n\n\n### Light Models\n|Model |size |mAP\u003Csup>val\u003Cbr>0.5:0.95 | Latency(ms) CPU\u003Cbr> OpenVino-Intel8163| FLOPs\u003Cbr>(G)| Params\u003Cbr>(M)| AliYun Download | Google Download|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n| [DAMO-YOLO-Ns](.\u002Fconfigs\u002Fdamoyolo_tinynasL18_Ns.py)| 416| 32.3 | 4.08| 1.56 | 1.41 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_small.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL18_Ns.onnx) | -- |\n| [DAMO-YOLO-Nm](.\u002Fconfigs\u002Fdamoyolo_tinynasL18_Nm.py)| 416| 38.2 | 5.05| 3.69 | 2.71 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_middle.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL18_Nm.onnx) | -- |\n| [DAMO-YOLO-Nl](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_Nl.py)| 416| 40.5 | 6.69| 6.04 | 5.69 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_large.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_Nl.onnx) | -- |\n\n- We report the mAP of models on COCO2017 validation set, with multi-class NMS.\n- The latency in this table is measured without post-processing, following [picodet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fpicodet).\n- The latency is evaluated based on [OpenVINO-2022.3.0](https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Fopenvino), using commands below:\n     ```shell\n    # onnx export, enable --benchmark to ignore postprocess\n    python tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL18_Ns.py -c ..\u002Fdamoyolo_tinynasL18_Ns.pth --batch_size 1  --img_size 416 --benchmark\n    # model transform\n    mo --input_model damoyolo_tinynasL18_Ns.onnx --data_type FP16\n    # latency benchmark\n    .\u002Fbenchmark_app -m damoyolo_tinynasL18_Ns.xml -i .\u002Fassets\u002Fdog.jpg -api sync -d CPU -b 1 -hint latency \n    ```\n                                                        \n\n### 701 categories DAMO-YOLO Model\nWe provide DAMO-YOLO-S model with 701 categories for general object detection, which has been trained on a large dataset including COCO, Objects365 and OpenImage. This model can also serve as a pre-trained model for fine-tuning in downstream tasks, enabling you to achieve better performance with ease.\n\n|Pretrained Model | Downstream Task |mAP\u003Csup>val\u003Cbr>0.5:0.95 | AliYun Download | Google Download|\n| ------        |:---: | :---:     |:---:|:---: |\n| 80-categories-DAMO-YOLO-S | VisDrone | 24.6 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.onnx) | - |\n| 701-categories-DAMO-YOLO-S | VisDrone | 26.6 | [torch](http:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002FLarge-Scale-Training\u002Fdamo_yolo_s_700%2B.pth),[onnx](http:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002FLarge-Scale-Training\u002Fdamo_yolo_s_700%2B.onnx) | - |\n- Note: The downloadable model is a pretrained model with 701 categories datasets. We demonstrate the VisDrone results to show that our pretrained model can enhance the performance of downstream tasks.\n\u003Cdiv align=\"left\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_39b44a6fc8fc.png\" width=\"750\">\u003C\u002Fdiv>\n\n## Quick Start\n\n\u003Cdetails>\n\u003Csummary>Installation\u003C\u002Fsummary>\n\nStep1. Install DAMO-YOLO.\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Ftinyvision\u002Fdamo-yolo.git\ncd DAMO-YOLO\u002F\nconda create -n DAMO-YOLO python=3.7 -y\nconda activate DAMO-YOLO\nconda install pytorch==1.7.0 torchvision==0.8.0 torchaudio==0.7.0 cudatoolkit=10.2 -c pytorch\npip install -r requirements.txt\nexport PYTHONPATH=$PWD:$PYTHONPATH\n```\nStep2. Install [pycocotools](https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi).\n\n```shell\npip install cython;\npip install git+https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi.git#subdirectory=PythonAPI # for Linux\npip install git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI # for Windows\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Demo\u003C\u002Fsummary>\n\nStep1. Download a pretrained torch, onnx or tensorRT engine from the benchmark table, e.g., damoyolo_tinynasL25_S.pth, damoyolo_tinynasL25_S.onnx, damoyolo_tinynasL25_S.trt.\n\nStep2. Use -f(config filename) to specify your detector's config, --path to specify input data path, image\u002Fvideo\u002Fcamera are supported. For example:\n```shell\n# torch engine with image\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.pth --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg\n\n# onnx engine with video\npython tools\u002Fdemo.py video -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path your_video.mp4\n\n# tensorRT engine with camera\npython tools\u002Fdemo.py camera -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.trt --conf 0.6 --infer_size 640 640 --device cuda --camid 0\n```\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>Reproduce our results on COCO\u003C\u002Fsummary>\n\nStep1. Prepare COCO dataset\n```shell\ncd \u003CDAMO-YOLO Home>\nln -s \u002Fpath\u002Fto\u002Fyour\u002Fcoco .\u002Fdatasets\u002Fcoco\n```\n\nStep 2. Reproduce our results on COCO by specifying -f(config filename)\n```shell\npython -m torch.distributed.launch --nproc_per_node=8 tools\u002Ftrain.py -f configs\u002Fdamoyolo_tinynasL25_S.py\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Finetune on your data\u003C\u002Fsummary>\n\nPlease refer to [custom dataset tutorial](.\u002Fassets\u002FCustomDatasetTutorial.md) for details.\n\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails>\n\u003Csummary>Evaluation\u003C\u002Fsummary>\n\n```shell\npython -m torch.distributed.launch --nproc_per_node=8 tools\u002Feval.py -f configs\u002Fdamoyolo_tinynasL25_S.py --ckpt \u002Fpath\u002Fto\u002Fyour\u002Fdamoyolo_tinynasL25_S.pth\n```\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>Customize tinynas backbone\u003C\u002Fsummary>\nStep1. If you want to customize your own backbone, please refer to [MAE-NAS Tutorial for DAMO-YOLO](https:\u002F\u002Fgithub.com\u002Falibaba\u002Flightweight-neural-architecture-search\u002Fblob\u002Fmain\u002Fscripts\u002Fdamo-yolo\u002FTutorial_NAS_for_DAMO-YOLO_cn.md). This is a detailed tutorial about how to obtain an optimal backbone under the budget of latency\u002Fflops.  \n\nStep2. After the searching process completed, you can replace the structure text in configs with it. Finally, you can get your own custom ResNet-like or CSPNet-like backbone after setting the backbone name to TinyNAS_res or TinyNAS_csp. Please notice the difference of out_indices between TinyNAS_res and TinyNAS_csp. \n```\nstructure = self.read_structure('tinynas_customize.txt')\nTinyNAS = { 'name'='TinyNAS_res', # ResNet-like Tinynas backbone\n            'out_indices': (2,4,5)}\nTinyNAS = { 'name'='TinyNAS_csp', # CSPNet-like Tinynas backbone\n            'out_indices': (2,3,4)}\n\n```\n\u003C\u002Fdetails>\n\n\n\n## Deploy\n\u003Cdetails>\n\u003Csummary>Installation\u003C\u002Fsummary>\n\nStep1. Install ONNX.\n```shell\npip install onnx==1.8.1\npip install onnxruntime==1.8.0\npip install onnx-simplifier==0.3.5\n```\nStep2. Install CUDA、CuDNN、TensorRT and pyCUDA\n\n2.1 CUDA\n```shell\nwget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F10.2\u002FProd\u002Flocal_installers\u002Fcuda_10.2.89_440.33.01_linux.run\nsudo sh cuda_10.2.89_440.33.01_linux.run\nexport PATH=$PATH:\u002Fusr\u002Flocal\u002Fcuda-10.2\u002Fbin\nexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:\u002Fusr\u002Flocal\u002Fcuda-10.2\u002Flib64\nsource ~\u002F.bashrc\n```\n2.2 CuDNN\n```shell\nsudo cp cuda\u002Finclude\u002F* \u002Fusr\u002Flocal\u002Fcuda\u002Finclude\u002F\nsudo cp cuda\u002Flib64\u002Flibcudnn* \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\u002F\nsudo chmod a+r \u002Fusr\u002Flocal\u002Fcuda\u002Finclude\u002Fcudnn.h\nsudo chmod a+r \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\u002Flibcudnn*\n```\n2.3 TensorRT\n```shell\ncd TensorRT-7.2.1.6\u002Fpython\npip install tensorrt-7.2.1.6-cp37-none-linux_x86_64.whl\nexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:TensorRT-7.2.1.6\u002Flib\n```\n2.4 pycuda\n```shell\npip install pycuda==2022.1\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Model Convert\u003C\u002Fsummary>\n\nNow we support trt_int8 quantization, you can specify trt_type as int8 to export the int8 tensorRT engine. You can also try partial quantization to achieve a good compromise between accuracy and latency. Refer to [partial_quantization](.\u002Ftools\u002Fpartial_quantization\u002FREADME.md) for more details.\n\nStep.1 convert torch model to onnx or trt engine, and the output file would be generated in .\u002Fdeploy. end2end means to export trt with nms. trt_eval means to evaluate the exported trt engine on coco_val dataset after the export compelete.\n```shell\n# onnx export \npython tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640\n\n# trt export\npython tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640 --trt --end2end --trt_eval\n```\n\nStep.2 trt engine evaluation on coco_val dataset. end2end means to using trt_with_nms to evaluation.\n```shell\npython tools\u002Ftrt_eval.py -f configs\u002Fdamoyolo_tinynasL25_S.py -trt deploy\u002Fdamoyolo_tinynasL25_S_end2end_fp16_bs1.trt --batch_size 1 --img_size 640 --end2end\n```\n\nStep.3 onnx or trt engine inference demo and appoint test image\u002Fvideo by --path. end2end means to using trt_with_nms to inference.\n```shell\n# onnx inference\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg\n\n# trt inference\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdeploy\u002Fdamoyolo_tinynasL25_S_end2end_fp16_bs1.trt --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg --end2end\n```\n\u003C\u002Fdetails>\n\n## Industry Application Models:\nWe provide DAMO-YOLO models for applications in real scenarios, which are listed as follows. More powerful models are coming, please stay tuned.\n\n|[**Human Detection**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_human-detection_damoyolo\u002Fsummary)| [**Helmet Detection**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_safety-helmet\u002Fsummary)|[**Head Detection**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_head-detection_damoyolo\u002Fsummary) | [**Smartphone Detectioin**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_phone\u002Fsummary)|\n| :---: | :---: |  :---: | :---: | \n|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_57e77e5a3bc1.png' height=\"100px\" >| \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_153e9869c19f.png' height=\"100px\">|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_a7c7fe45bb14.png' height=\"100px\"> | \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_805a13536de5.png' height=\"100px\">|\n|[**Facemask Detection**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_facemask\u002Fsummary) |[**Cigarette Detection**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_cigarette\u002Fsummary) |[**Traffic Sign Detection**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_traffic_sign\u002Fsummary) | [**NFL-helmet detection**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FXianzheXu\u002Fcv_tinynas_object-detection_damoyolo_nfl-helmet\u002Fsummary)|\n|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3c1c44c59b25.png' height=\"100px\">| \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_8655c3fba86d.png' height=\"100px\">|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_988b4174ce57.png' height=\"100px\"> | \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3276e1779ed9.jpg' height=\"100px\">|\n\n\n\n## Third Party Resources\nIn order to promote communication among DAMO-YOLO users, we collect third-party resources in this section. If you have original content about DAMO-YOLO, please feel free to contact us at xianzhe.xxz@alibaba-inc.com.\n\n- DAMO-YOLO Overview: **slides**([中文](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fslides\u002FDAMO-YOLO-Overview.pdf) | [English](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fslides\u002FDAMO-YOLO-Overview-English.pdf)), **videos**([中文](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1hW4y1g7za\u002F?spm_id_from=333.337.search-card.all.click) | [English](https:\u002F\u002Fyoutu.be\u002FXYQPI7pvMiQ)).\n- [DAMO-YOLO Code Interpretation](https:\u002F\u002Fblog.csdn.net\u002Fjyyqqq\u002Farticle\u002Fdetails\u002F128419143)\n- [Practical Example for Finetuning on Custom Dataset](https:\u002F\u002Fblog.csdn.net\u002FCwhgn\u002Farticle\u002Fdetails\u002F128447380?spm=1001.2014.3001.5501)\n\n\n## Cite DAMO-YOLO\nIf you use DAMO-YOLO in your research, please cite our work by using the following BibTeX entry:\n\n```latex\n @article{damoyolo,\n   title={DAMO-YOLO: A Report on Real-Time Object Detection Design},\n   author={Xianzhe Xu, Yiqi Jiang, Weihua Chen, Yilun Huang, Yuan Zhang and Xiuyu Sun},\n   journal={arXiv preprint arXiv:2211.15444v2},\n   year={2022},\n }\n\n @inproceedings{sun2022mae,\n   title={Mae-det: Revisiting maximum entropy principle in zero-shot nas for efficient object detection},\n   author={Sun, Zhenhong and Lin, Ming and Sun, Xiuyu and Tan, Zhiyu and Li, Hao and Jin, Rong},\n   booktitle={International Conference on Machine Learning},\n   pages={20810--20826},\n   year={2022},\n   organization={PMLR}\n }\n\n@inproceedings{jiang2022giraffedet,\n  title={GiraffeDet: A Heavy-Neck Paradigm for Object Detection},\n  author={yiqi jiang and Zhiyu Tan and Junyan Wang and Xiuyu Sun and Ming Lin and Hao Li},\n  booktitle={International Conference on Learning Representations},\n  year={2022},\n}\n```\n\n","英语 | [简体中文](README_cn.md)\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_94cefbf4f96f.png\" width=\"1500\">\n\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flanguage-python-blue.svg)\n![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache-000000.svg)\n![Contributing](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)\n[![README-cn](https:\u002F\u002Fshields.io\u002Fbadge\u002FREADME-%E4%B8%AD%E6%96%87-blue)](README_cn.md)\n[![ThirdParty](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FThirdParty--Resources-brightgreen)](#third-parry-resources)\n[![IndustryModels](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIndustry--Models-orange)](#industry-application-models)\n\n\u003C\u002Fdiv>\n\n## 简介\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_367ca2cbee26.gif\" width=\"1500\">\u003C\u002Fdiv>\n\n欢迎来到 **DAMO-YOLO**！这是一种由阿里巴巴达摩院数据分析与智能实验室的TinyML团队开发的快速且精确的目标检测方法。它在性能上超越了当前最先进的YOLO系列模型。DAMO-YOLO基于YOLO进行了扩展，并引入了一些新技术，包括神经架构搜索（NAS）骨干网络、高效的重参数化广义FPN（RepGFPN）、带有AlignedOTA标签分配的轻量级头部以及蒸馏增强等。更多详细信息，请参阅我们的 [Arxiv报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15444)。此外，这里不仅提供强大的模型，还包含高效的训练策略以及从训练到部署的完整工具链。\n\n\u003Cdiv align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3ff9ddc5c119.png\" width=\"1200\">\u003C\u002Fdiv>\n\n## 更新\n- **[2023年4月12日：我们发布了DAMO-YOLO v0.3.1！] ![new](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_b2e9abe195d0.png)**\n    * 新增701类别的DAMO-YOLO-S模型，覆盖更多应用场景，并可作为高质量的预训练模型，以提升下游任务的性能。\n    * 升级了DAMO-YOLO-Nano系列模型，仅需1.56\u002F3.69\u002F6.04 FLOPs即可达到32.3\u002F38.2\u002F40.5 mAP，并在Intel CPU上以4.08\u002F5.05\u002F6.69毫秒的延迟实时运行。\n    * 新增DAMO-YOLO-L模型，在T4 GPU上仅需7.95毫秒延迟即可达到51.9 mAP。\n- **[2023年3月13日：我们发布了DAMO-YOLO v0.3.0！]**\n    * 发布DAMO-YOLO-Nano，仅需3.02 GFLOPs即可达到35.1 mAP。\n    * 升级了优化器构建器和配置文件，用户现在可以使用PyTorch支持的任何优化器。\n    * 优化了数据加载流程和训练参数，显著提升了DAMO-YOLO各模型的性能，例如DAMO-YOLO-T\u002FS\u002FM的mAP分别从43.0\u002F46.8\u002F50.0提升至43.6\u002F47.7\u002F50.2。\n- **[2023年2月15日：第三届反无人机挑战赛基线模型。]**\n    * 欢迎参加CVPR2023上的[第三届反无人机挑战赛](https:\u002F\u002Fanti-uav.github.io\u002FEvaluate\u002F)。该挑战赛提供了由DAMO-YOLO训练的基线模型，可在[DamoYolo_Anti-UAV-23_S](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_uav-detection_damoyolo\u002Fsummary)中找到。\n- **[2023年1月7日：我们发布了DAMO-YOLO v0.2.1！]**\n    * 增加了[TensorRT Int8量化教程](.\u002Ftools\u002Fpartial_quantization\u002FREADME.md)，在仅损失0.3%精度的情况下实现了19%的速度提升。\n    * 增加了[通用演示工具](#quick-start)，支持基于TensorRT\u002FOnnx\u002FTorch的视频\u002F图像\u002F摄像头推理。\n    * 增加了更多[行业应用模型](#industry-application-models)，包括[人体检测](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_human-detection_damoyolo\u002Fsummary)、[安全帽检测](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_safety-helmet\u002Fsummary)、[口罩检测](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_facemask\u002Fsummary)以及[香烟检测](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_cigarette\u002Fsummary)。\n    * 增加了[第三方资源](#third-party-resources)，包括[DAMO-YOLO代码解读](https:\u002F\u002Fblog.csdn.net\u002Fjyyqqq\u002Farticle\u002Fdetails\u002F128419143)、[自定义数据集微调实战示例](https:\u002F\u002Fblog.csdn.net\u002FCwhgn\u002Farticle\u002Fdetails\u002F128447380?spm=1001.2014.3001.5501)等。\n- **[2022年12月15日：我们发布了DAMO-YOLO v0.1.1！]**\n    * 增加了详细的[自定义数据集微调教程](.\u002Fassets\u002FCustomDatasetTutorial.md)。\n    * 解决了因无标注数据导致的卡顿问题（*如* [ISSUE#30](https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F30)）。欢迎随时联系我们，我们24小时在线为您服务。\n\n## 在线演示\n- [DAMO-YOLO-T](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo-t\u002Fsummary)、[DAMO-YOLO-S](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo\u002Fsummary)、[DAMO-YOLO-M](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo-m\u002Fsummary)已集成至ModelScope平台。现在可以在[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo\u002Fsummary)上进行训练！**快来体验DAMO-YOLO吧，ModelScope将为您提供免费的GPU资源。**\n\n## 模型库\n\n### 通用模型\n\n|模型 |尺寸 |mAP\u003Csup>val\u003Cbr>0.5:0.95 | T4 上的延迟\u003Cbr>TRT-FP16-BS1| FLOPs\u003Cbr>(G)| 参数量\u003Cbr>(M)| 阿里云下载 | Google 下载|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n|[DAMO-YOLO-T](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 42.0  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL20_T_420.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL20_T_420.onnx)|--|\n|[DAMO-YOLO-T*](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 43.6  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL20_T_436.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL20_T_436.onnx)|--|\n|[DAMO-YOLO-S](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 46.0  | 3.83  | 37.8  | 16.3  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL25_S_460.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL25_S_460.onnx)|--|\n|[DAMO-YOLO-S*](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 47.7  | 3.83  | 37.8  | 16.3 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL25_S_477.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL25_S_477.onnx) |--|\n|[DAMO-YOLO-M](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 49.2  | 5.62  | 61.8  | 28.2  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL35_M_492.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL35_M_492.onnx)|--|\n|[DAMO-YOLO-M*](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 50.2  | 5.62  | 61.8  | 28.2 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL35_M_502.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL35_M_502.onnx)|--|\n|[DAMO-YOLO-L](.\u002Fconfigs\u002Fdamoyolo_tinynasL45_L.py) | 640 | 50.8  | 7.95  | 97.3  | 42.1  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL45_L_508.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL45_L_508.onnx)|--|\n|[DAMO-YOLO-L*](.\u002Fconfigs\u002Fdamoyolo_tinynasL45_L.py) | 640 | 51.9  | 7.95  | 97.3  | 42.1  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL45_L_519.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fdamoyolo_tinynasL45_L_519.onnx)|--|\n\n\u003Cdetails>\n\n\u003Csummary>旧版模型\u003C\u002Fsummary>\n\n|模型 |尺寸 |mAP\u003Csup>val\u003Cbr>0.5:0.95 | T4 上的延迟\u003Cbr>TRT-FP16-BS1| FLOPs\u003Cbr>(G)| 参数量\u003Cbr>(M)| 阿里云下载 | Google 下载|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n|[DAMO-YOLO-T](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 41.8  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_T_418.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_T_418.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-9NzCRKJZs3ea_n35seEYSpq3M_RkhcT\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-7s8fqK5KC8z4sXCuh3N900chMtMSYri\u002Fview?usp=sharing)|\n|[DAMO-YOLO-T*](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_T.py) | 640 | 43.0  | 2.78  | 18.1  | 8.5  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL20_T.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL20_T.onnx) |[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-6fBf_oe9vITSTYgQkaYklL94REz2zCh\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-1lK83OwVKL4lgHTlbgEZ8pYMYZHhEtE\u002Fview?usp=sharing)|\n|[DAMO-YOLO-S](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 45.6  | 3.83  | 37.8  | 16.3  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-0GV1lxUS6bLHTOs7aNojsItgjDT6rK8\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1--CaKMHm-SjLnprZDMksO-jnbGbV9Zhp\u002Fview?usp=sharing)|\n|[DAMO-YOLO-S*](.\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py) | 640 | 46.8  | 3.83  | 37.8  | 16.3 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL25_S.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL25_S.onnx) |[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-O-ObHN970GRVKkL1TiAxfoMCpYGJS6B\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-NDqCpz2rs1IiKNyIzo1KSxoJACKV65N\u002Fview?usp=sharing)|\n|[DAMO-YOLO-M](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 48.7  | 5.62  | 61.8  | 28.2  |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL35_M_487.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL35_M_487.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-RMevyb9nwpDBeTPttiV_iwfsiW_M9ST\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-Cs4ozjAhTH_W32tGnq_L5TfE22vAD_c\u002Fview?usp=sharing)|\n|[DAMO-YOLO-M*](.\u002Fconfigs\u002Fdamoyolo_tinynasL35_M.py) | 640 | 50.0  | 5.62  | 61.8  | 28.2 |[torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fdamoyolo_tinynasL35_M.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fdamoyolo_tinynasL35_M.onnx)|[torch](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-RoKaO7U9U1UrweJb7c4Hs_S_qKFDExc\u002Fview?usp=sharing),[onnx](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-HRkLfGoFBjdQDiWudsS1zxicx53Pu5m\u002Fview?usp=sharing)|\n\n\u003C\u002Fdetails>\n\n- 我们报告了模型在 COCO2017 验证集上的 mAP，使用多类别 NMS。\n- 本表中的延迟是在不进行后处理（NMS）的情况下测量的。\n- \\* 表示通过蒸馏训练的模型。\n- 我们以 S 为教师模型来蒸馏 T，以 M 为教师模型来蒸馏 S，以 L 为教师模型来蒸馏 M，而 L 则是通过自身蒸馏得到的。\n\n### 轻量级模型\n|模型 |尺寸 |mAP\u003Csup>val\u003Cbr>0.5:0.95 | CPU延迟(ms)\u003Cbr> OpenVino-Intel8163| FLOPs\u003Cbr>(G)| 参数量\u003Cbr>(M)| 阿里云下载 | Google下载|\n| ------        |:---: | :---:     |:---:|:---: | :---: | :---:| :---:|\n| [DAMO-YOLO-Ns](.\u002Fconfigs\u002Fdamoyolo_tinynasL18_Ns.py)| 416| 32.3 | 4.08| 1.56 | 1.41 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_small.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL18_Ns.onnx) | -- |\n| [DAMO-YOLO-Nm](.\u002Fconfigs\u002Fdamoyolo_tinynasL18_Nm.py)| 416| 38.2 | 5.05| 3.69 | 2.71 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_middle.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL18_Nm.onnx) | -- |\n| [DAMO-YOLO-Nl](.\u002Fconfigs\u002Fdamoyolo_tinynasL20_Nl.py)| 416| 40.5 | 6.69| 6.04 | 5.69 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fckpt\u002Fbefore_distill\u002Fdamoyolo_nano_large.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL20_Nl.onnx) | -- |\n\n- 我们报告了模型在COCO2017验证集上的mAP，使用多类别NMS。\n- 表中的延迟是在不进行后处理的情况下测量的，遵循[picodet](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleDetection\u002Ftree\u002Frelease\u002F2.6\u002Fconfigs\u002Fpicodet)的标准。\n- 延迟评估基于[OpenVINO-2022.3.0](https:\u002F\u002Fgithub.com\u002Fopenvinotoolkit\u002Fopenvino)，使用的命令如下：\n     ```shell\n    # onnx导出，启用--benchmark以忽略后处理\n    python tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL18_Ns.py -c ..\u002Fdamoyolo_tinynasL18_Ns.pth --batch_size 1  --img_size 416 --benchmark\n    # 模型转换\n    mo --input_model damoyolo_tinynasL18_Ns.onnx --data_type FP16\n    # 延迟基准测试\n    .\u002Fbenchmark_app -m damoyolo_tinynasL18_Ns.xml -i .\u002Fassets\u002Fdog.jpg -api sync -d CPU -b 1 -hint latency \n    ```\n                                                        \n\n### 701类DAMO-YOLO模型\n我们提供了具有701个类别的DAMO-YOLO-S模型，用于通用目标检测。该模型已在包含COCO、Objects365和OpenImage在内的大型数据集上进行训练。此模型也可用作下游任务的预训练模型，使您能够轻松获得更好的性能。\n\n|预训练模型 | 下游任务 |mAP\u003Csup>val\u003Cbr>0.5:0.95 | 阿里云下载 | Google下载|\n| ------        |:---: | :---:     |:---:|:---: |\n| 80类-DAMO-YOLO-S | VisDrone | 24.6 | [torch](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fclean_models\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.pth),[onnx](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fonnx\u002Fbefore_distill\u002Fdamoyolo_tinynasL25_S_456.onnx) | - |\n| 701类-DAMO-YOLO-S | VisDrone | 26.6 | [torch](http:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002FLarge-Scale-Training\u002Fdamo_yolo_s_700%2B.pth),[onnx](http:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002FLarge-Scale-Training\u002Fdamo_yolo_s_700%2B.onnx) | - |\n- 注：可下载的模型是基于701类数据集的预训练模型。我们展示了VisDrone的结果，以证明我们的预训练模型可以提升下游任务的性能。\n\u003Cdiv align=\"left\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_39b44a6fc8fc.png\" width=\"750\">\u003C\u002Fdiv>\n\n## 快速入门\n\n\u003Cdetails>\n\u003Csummary>安装\u003C\u002Fsummary>\n\n步骤1. 安装DAMO-YOLO。\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Ftinyvision\u002Fdamo-yolo.git\ncd DAMO-YOLO\u002F\nconda create -n DAMO-YOLO python=3.7 -y\nconda activate DAMO-YOLO\nconda install pytorch==1.7.0 torchvision==0.8.0 torchaudio==0.7.0 cudatoolkit=10.2 -c pytorch\npip install -r requirements.txt\nexport PYTHONPATH=$PWD:$PYTHONPATH\n```\n步骤2. 安装[cocotools](https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi)。\n\n```shell\npip install cython;\npip install git+https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi.git#subdirectory=PythonAPI # 对于Linux\npip install git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI # 对于Windows\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>演示\u003C\u002Fsummary>\n\n步骤1. 从基准表中下载预训练的torch、onnx或tensorRT引擎，例如damoyolo_tinynasL25_S.pth、damoyolo_tinynasL25_S.onnx、damoyolo_tinynasL25_S.trt。\n\n步骤2. 使用-f(配置文件名)指定检测器的配置，--path指定输入数据路径，支持图片、视频和摄像头。例如：\n```shell\n# 使用torch引擎处理图片\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.pth --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg\n\n# 使用onnx引擎处理视频\npython tools\u002Fdemo.py video -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path your_video.mp4\n\n# 使用tensorRT引擎处理摄像头\npython tools\u002Fdemo.py camera -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.trt --conf 0.6 --infer_size 640 640 --device cuda --camid 0\n```\n\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>复现我们在COCO上的结果\u003C\u002Fsummary>\n\n步骤1. 准备COCO数据集\n```shell\ncd \u003CDAMO-YOLO Home>\nln -s \u002Fpath\u002Fto\u002Fyour\u002Fcoco .\u002Fdatasets\u002Fcoco\n```\n\n步骤2. 通过指定-f(配置文件名)复现我们在COCO上的结果\n```shell\npython -m torch.distributed.launch --nproc_per_node=8 tools\u002Ftrain.py -f configs\u002Fdamoyolo_tinynasL25_S.py\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>在您的数据上微调\u003C\u002Fsummary>\n\n详情请参阅[自定义数据集教程](.\u002Fassets\u002FCustomDatasetTutorial.md)。\n\n\u003C\u002Fdetails>\n\n\n\n\u003Cdetails>\n\u003Csummary>评估\u003C\u002Fsummary>\n\n```shell\npython -m torch.distributed.launch --nproc_per_node=8 tools\u002Feval.py -f configs\u002Fdamoyolo_tinynasL25_S.py --ckpt \u002Fpath\u002Fto\u002Fyour\u002Fdamoyolo_tinynasL25_S.pth\n```\n\u003C\u002Fdetails>\n\n\n\u003Cdetails>\n\u003Csummary>自定义tinynas骨干网络\u003C\u002Fsummary>\n步骤1. 如果您想自定义自己的骨干网络，请参考[DAMO-YOLO的MAE-NAS教程](https:\u002F\u002Fgithub.com\u002Falibaba\u002Flightweight-neural-architecture-search\u002Fblob\u002Fmain\u002Fscripts\u002Fdamo-yolo\u002FTutorial_NAS_for_DAMO-YOLO_cn.md)。这是一份详细的教程，介绍如何在延迟\u002F浮点运算次数的预算范围内获得最优的骨干网络。  \n\n步骤2. 搜索过程完成后，您可以将结构文本替换到配置文件中。最后，只需将骨干名称设置为TinyNAS_res或TinyNAS_csp，即可得到您自定义的ResNet-like或CSPNet-like骨干。请注意TinyNAS_res和TinyNAS_csp之间out_indices的区别。 \n```\nstructure = self.read_structure('tinynas_customize.txt')\nTinyNAS = { 'name'='TinyNAS_res', # ResNet-like Tinynas骨干\n            'out_indices': (2,4,5)}\nTinyNAS = { 'name'='TinyNAS_csp', # CSPNet-like Tinynas骨干\n            'out_indices': (2,3,4)}\n\n```\n\u003C\u002Fdetails>\n\n## 部署\n\u003Cdetails>\n\u003Csummary>安装\u003C\u002Fsummary>\n\n步骤1. 安装ONNX。\n```shell\npip install onnx==1.8.1\npip install onnxruntime==1.8.0\npip install onnx-simplifier==0.3.5\n```\n步骤2. 安装CUDA、CuDNN、TensorRT和pyCUDA\n\n2.1 CUDA\n```shell\nwget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F10.2\u002FProd\u002Flocal_installers\u002Fcuda_10.2.89_440.33.01_linux.run\nsudo sh cuda_10.2.89_440.33.01_linux.run\nexport PATH=$PATH:\u002Fusr\u002Flocal\u002Fcuda-10.2\u002Fbin\nexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:\u002Fusr\u002Flocal\u002Fcuda-10.2\u002Flib64\nsource ~\u002F.bashrc\n```\n2.2 CuDNN\n```shell\nsudo cp cuda\u002Finclude\u002F* \u002Fusr\u002Flocal\u002Fcuda\u002Finclude\u002F\nsudo cp cuda\u002Flib64\u002Flibcudnn* \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\u002F\nsudo chmod a+r \u002Fusr\u002Flocal\u002Fcuda\u002Finclude\u002Fcudnn.h\nsudo chmod a+r \u002Fusr\u002Flocal\u002Fcuda\u002Flib64\u002Flibcudnn*\n```\n2.3 TensorRT\n```shell\ncd TensorRT-7.2.1.6\u002Fpython\npip install tensorrt-7.2.1.6-cp37-none-linux_x86_64.whl\nexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:TensorRT-7.2.1.6\u002Flib\n```\n2.4 pycuda\n```shell\npip install pycuda==2022.1\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>模型转换\u003C\u002Fsummary>\n\n目前我们支持trt_int8量化，您可以将trt_type指定为int8来导出int8的TensorRT引擎。您也可以尝试部分量化，在精度和延迟之间取得良好的平衡。更多详情请参阅[partial_quantization](.\u002Ftools\u002Fpartial_quantization\u002FREADME.md)。\n\n步骤1：将PyTorch模型转换为ONNX或TensorRT引擎，输出文件将生成在.\u002Fdeploy目录下。end2end表示导出带有NMS的TensorRT；trt_eval表示在导出完成后，使用导出的TensorRT引擎在COCO_val数据集上进行评估。\n```shell\n# ONNX导出\npython tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640\n\n# TensorRT导出\npython tools\u002Fconverter.py -f configs\u002Fdamoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640 --trt --end2end --trt_eval\n```\n\n步骤2：在COCO_val数据集上评估TensorRT引擎。end2end表示使用带NMS的TensorRT进行评估。\n```shell\npython tools\u002Ftrt_eval.py -f configs\u002Fdamoyolo_tinynasL25_S.py -trt deploy\u002Fdamoyolo_tinynasL25_S_end2end_fp16_bs1.trt --batch_size 1 --img_size 640 --end2end\n```\n\n步骤3：ONNX或TensorRT引擎推理演示，并通过--path指定测试图像\u002F视频。end2end表示使用带NMS的TensorRT进行推理。\n```shell\n# ONNX推理\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdamoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg\n\n# TensorRT推理\npython tools\u002Fdemo.py image -f .\u002Fconfigs\u002Fdamoyolo_tinynasL25_S.py --engine .\u002Fdeploy\u002Fdamoyolo_tinynasL25_S_end2end_fp16_bs1.trt --conf 0.6 --infer_size 640 640 --device cuda --path .\u002Fassets\u002Fdog.jpg --end2end\n```\n\u003C\u002Fdetails>\n\n## 行业应用模型：\n我们提供了适用于实际场景的DAMO-YOLO模型，如下所示。更强大的模型即将推出，敬请期待。\n\n|[**人体检测**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_human-detection_damoyolo\u002Fsummary)| [**安全帽检测**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_safety-helmet\u002Fsummary)|[**头部检测**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_head-detection_damoyolo\u002Fsummary) | [**智能手机检测**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_phone\u002Fsummary)|\n| :---: | :---: |  :---: | :---: | \n|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_57e77e5a3bc1.png' height=\"100px\" >| \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_153e9869c19f.png' height=\"100px\">|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_a7c7fe45bb14.png' height=\"100px\"> | \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_805a13536de5.png' height=\"100px\">|\n|[**口罩检测**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_facemask\u002Fsummary) |[**香烟检测**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_cigarette\u002Fsummary) |[**交通标志检测**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fcv_tinynas_object-detection_damoyolo_traffic_sign\u002Fsummary) | [**NFL头盔检测**](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FXianzheXu\u002Fcv_tinynas_object-detection_damoyolo_nfl-helmet\u002Fsummary)|\n|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3c1c44c59b25.png' height=\"100px\">| \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_8655c3fba86d.png' height=\"100px\">|\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_988b4174ce57.png' height=\"100px\"> | \u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_readme_3276e1779ed9.jpg' height=\"100px\">|\n\n\n\n## 第三方资源\n为了促进DAMO-YOLO用户之间的交流，我们在本节收集了一些第三方资源。如果您有关于DAMO-YOLO的原创内容，请随时联系xianzhe.xxz@alibaba-inc.com。\n\n- DAMO-YOLO概述：**幻灯片**（[中文](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fslides\u002FDAMO-YOLO-Overview.pdf) | [英文](https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Fslides\u002FDAMO-YOLO-Overview-English.pdf))，**视频**（[中文](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1hW4y1g7za\u002F?spm_id_from=333.337.search-card.all.click) | [英文](https:\u002F\u002Fyoutu.be\u002FXYQPI7pvMiQ)）。\n- [DAMO-YOLO代码解读](https:\u002F\u002Fblog.csdn.net\u002Fjyyqqq\u002Farticle\u002Fdetails\u002F128419143)\n- [自定义数据集微调实战示例](https:\u002F\u002Fblog.csdn.net\u002FCwhgn\u002Farticle\u002Fdetails\u002F128447380?spm=1001.2014.3001.5501)\n\n\n## 引用DAMO-YOLO\n如果您在研究中使用了DAMO-YOLO，请使用以下BibTeX条目引用我们的工作：\n\n```latex\n @article{damoyolo,\n   title={DAMO-YOLO: A Report on Real-Time Object Detection Design},\n   author={Xianzhe Xu, Yiqi Jiang, Weihua Chen, Yilun Huang, Yuan Zhang and Xiuyu Sun},\n   journal={arXiv preprint arXiv:2211.15444v2},\n   year={2022},\n }\n\n @inproceedings{sun2022mae,\n   title={Mae-det: Revisiting maximum entropy principle in zero-shot nas for efficient object detection},\n   author={Sun, Zhenhong and Lin, Ming and Sun, Xiuyu and Tan, Zhiyu and Li, Hao and Jin, Rong},\n   booktitle={International Conference on Machine Learning},\n   pages={20810--20826},\n   year={2022},\n   organization={PMLR}\n }\n\n@inproceedings{jiang2022giraffedet,\n  title={GiraffeDet: A Heavy-Neck Paradigm for Object Detection},\n  author={yiqi jiang and Zhiyu Tan and Junyan Wang and Xiuyu Sun and Ming Lin and Hao Li},\n  booktitle={International Conference on Learning Representations},\n  year={2022},\n}\n```","# DAMO-YOLO 快速上手指南\n\nDAMO-YOLO 是由阿里巴巴达摩院 TinyML 团队开发的高性能目标检测算法。它在 YOLO 系列基础上引入了神经架构搜索（NAS）主干网络、重参数化广义特征金字塔（RepGFPN）以及蒸馏增强等技术，在速度与精度上均达到了业界领先水平。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows (WSL2)。\n*   **Python**: 版本 >= 3.7。\n*   **PyTorch**: 版本 >= 1.8 (建议 1.10+)。\n*   **CUDA**: 建议使用 CUDA 11.0+ 以获得最佳推理速度（支持 TensorRT）。\n*   **其他依赖**: `opencv-python`, `onnx`, `onnxruntime` 等。\n\n> **提示**：本项目已针对国内开发者优化，模型权重下载支持阿里云镜像，训练和部署工具链完整。\n\n## 2. 安装步骤\n\n### 2.1 克隆项目代码\n使用 git 克隆仓库到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO.git\ncd DAMO-YOLO\n```\n\n### 2.2 安装依赖\n推荐使用 `pip` 安装所需依赖。为了加速下载，建议使用国内镜像源（如清华源或阿里源）：\n\n```bash\n# 使用 pip 安装基础依赖\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 如果需要使用 TensorRT 加速，请确保已安装对应版本的 tensorrt 包\n# pip install tensorrt\n```\n\n> **注意**：如果您的环境中尚未安装 PyTorch，请先访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 根据您的 CUDA 版本安装对应的 PyTorch。\n\n## 3. 基本使用\n\n### 3.1 下载预训练模型\nDAMO-YOLO 提供了多种尺寸的模型（T\u002FS\u002FM\u002FL\u002FNano）。您可以直接从阿里云镜像下载预训练权重。以下以 **DAMO-YOLO-T** 为例：\n\n```bash\nmkdir weights\ncd weights\n# 下载 DAMO-YOLO-T 模型 (mAP 43.6)\nwget https:\u002F\u002Fidstcv.oss-cn-zhangjiakou.aliyuncs.com\u002FDAMO-YOLO\u002Frelease_model\u002Fclean_model_0317\u002Fdamoyolo_tinynasL20_T_436.pth\ncd ..\n```\n\n### 3.2 快速推理演示\n项目提供了通用的演示工具，支持图片、视频和摄像头推理，后端可切换为 Torch、ONNX 或 TensorRT。\n\n**对单张图片进行推理：**\n\n```bash\npython tools\u002Fdemo.py image \\\n  --config configs\u002Fdamoyolo_tinynasL20_T.py \\\n  --weights weights\u002Fdamoyolo_tinynasL20_T_436.pth \\\n  --path assets\u002Fdemo.jpg \\\n  --device cuda \\\n  --save_result\n```\n\n*   `--config`: 模型配置文件路径。\n*   `--weights`: 下载的权重文件路径。\n*   `--path`: 输入图片、视频文件或摄像头 ID（如 `0`）。\n*   `--device`: 运行设备 (`cuda` 或 `cpu`)。\n\n**运行后**，检测结果将保存在 `outputs\u002F` 目录下，并在终端输出检测耗时。\n\n### 3.3 导出 ONNX 模型（可选）\n为了方便部署到其他平台，可以将模型导出为 ONNX 格式：\n\n```bash\npython tools\u002Fexport_onnx.py \\\n  --config configs\u002Fdamoyolo_tinynasL20_T.py \\\n  --weights weights\u002Fdamoyolo_tinynasL20_T_436.pth \\\n  --output_path weights\u002Fdamoyolo_t.onnx\n```\n\n---\n*更多高级用法（如自定义数据集训练、TensorRT 量化部署）请参考项目根目录下的详细文档或 ModelScope 在线体验页面。*","某智慧工地安全团队需要在边缘设备上实时监测工人是否佩戴安全帽，以预防高空作业事故。\n\n### 没有 DAMO-YOLO 时\n- **检测速度慢**：传统模型在低算力边缘盒子上推理延迟高，无法达到实时预警要求，导致危险行为漏检。\n- **小目标识别差**：远距离或遮挡情况下的安全帽属于小目标，现有模型检出率低，误报和漏报频发。\n- **部署成本高**：为了维持精度不得不使用昂贵的 GPU 服务器，增加了硬件采购和维护预算。\n- **定制训练难**：缺乏高效的标签分配策略和蒸馏技术，针对特定工地场景微调模型时收敛慢且效果提升不明显。\n\n### 使用 DAMO-YOLO 后\n- **极致实时响应**：利用 DAMO-YOLO-Nano 系列模型，在 Intel CPU 上仅需几毫秒即可完成推理，轻松实现高清视频流的实时分析。\n- **精准捕捉细节**：得益于 NAS 搜索 backbone 和 AlignedOTA 标签分配技术，对远距离、小尺寸安全帽的识别精度（mAP）显著提升。\n- **低成本落地**：模型在保持高精度的同时大幅降低计算量（Flops），可直接部署在廉价的边缘设备甚至嵌入式芯片上。\n- **高效场景适配**：借助内置的知识蒸馏增强和高效训练策略，团队能快速基于少量工地数据完成模型微调，迅速上线专用检测器。\n\nDAMO-YOLO 通过平衡速度与精度，让低成本边缘设备也能具备工业级的高性能目标检测能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftinyvision_DAMO-YOLO_94cefbf4.png","tinyvision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftinyvision_7b1587a0.png",null,"https:\u002F\u002Fgithub.com\u002Ftinyvision",[77,81],{"name":78,"color":79,"percentage":80},"Python","#3572A5",99.8,{"name":82,"color":83,"percentage":84},"Shell","#89e051",0.2,3153,401,"2026-04-13T13:37:37","Apache-2.0","未说明","训练和高效推理建议使用 NVIDIA GPU（表格数据基于 T4 GPU 测试）；支持 Intel CPU 实时推理（需 OpenVINO）；支持 TensorRT FP16\u002FInt8 加速",{"notes":92,"python":89,"dependencies":93},"该工具由阿里达摩院开发，支持多种模型尺寸（Nano\u002FT\u002FS\u002FM\u002FL）。提供针对 Intel CPU (OpenVINO) 和 NVIDIA GPU (TensorRT) 的优化推理方案。支持自定义数据集微调及行业应用模型（如人脸口罩、安全帽检测等）。具体 Python 版本和详细依赖库需参考项目代码中的 requirements 文件，README 中未明确列出具体版本号。",[94,95,96,97],"PyTorch","TensorRT","ONNX","OpenVINO",[14,15],[100,101,102,103,104,105,106,107,108,109],"deep-learning","nas","object-detection","onnx","pytorch","tensorrt","yolo","yolov5","imagenet","damo-yolo","2026-03-27T02:49:30.150509","2026-04-16T01:49:43.059824",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},34957,"如何在自定义数据集上测试模型的推理速度（包含 NMS 时间）？","若要统计包含 NMS 的总推理时间，可以在 `tools\u002Ftorch_inference.py` 文件的第 102 行和 104 行加入 `time.time()` 获取时间戳后相减。具体代码如下：\n```python\n102    t0 = time.time()\n103    output = model(img)\n104    t1 = time.time()\n123    logger.info('t1-t0: {} s'.format(t1-t0))\n```\n注意：如果在配置文件中指定了 `config.model.head.nms` 为 `True`，则上述统计的时间即为模型前向推理 + NMS 的总用时；若未开启，则仅为前向推理时间。NMS 的逻辑定义在 `damo\u002Fbase_models\u002Fheads\u002Fzero_head.py` 文件中。","https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F55",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},34958,"训练时在 loss.backward() 阶段卡住是什么原因？如何解决？","该问题通常由数据集中存在大量无正样本（No Positive Samples）的图片引起。解决方案如下：\n1. **数据过滤**：在训练开始前过滤掉没有正样本的图片。\n2. **调整增强参数**：减弱 `mosaic_mixup` 数据增强中的相关参数，以减少生成无标签数据的情况。\n3. **代码更新**：该问题已在最新代码中修复。早期版本中去除 `pos_ind` 虽能解决卡住问题，但会增加显存开销和训练耗时，建议拉取最新代码运行。","https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F30",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},34959,"阿里云模型下载链接失效（报错 NoSuchKey）怎么办？","部分阿里云下载链接曾出现失效情况（报错 `\u003CCode>NoSuchKey\u003C\u002FCode>`）。维护者已确认并恢复了相关的阿里云下载链接。如果遇到此问题，请尝试重新访问官方提供的下载地址，或检查是否已拉取最新的 README 文档以获取更新后的链接。","https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F143",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},34960,"使用 converter.py 将 Torch 模型转为 TensorRT 失败或报错 cublas64 错误如何解决？","如果遇到 ONNX simplify 失败，建议在 Linux 环境下重新导出测试。如果遇到 `trt cublas64` 相关错误，可以使用以下命令行方式直接通过 `trtexec` 进行转换，指定 tacticSources 避开问题算子：\n```bash\ntrtexec --onnx=damoyolo_tinynasL20_N_351.onnx --tacticSources=-cublasLt,+cublas --workspace=2048 --fp16 --saveEngine=damoyolo_tinynasL20_N_351.trt\n```\n如果转换成功但在 `trt_eval.py` 推理时报错，请核对生成的 TRT 文件路径及配置是否匹配。","https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F97",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},34961,"模型蒸馏过程中为什么要做两遍 align_module（mimic 和 mgdloss）？","在 DAMO-YOLO 的蒸馏技术中，分别使用 mimic loss 和 mgd loss 进行两次对齐是为了更全面地迁移教师模型的知识。虽然具体细节需参考蒸馏技术文档，但社区反馈表明这种双重对齐机制有助于前期更好地收敛，从而获得不错的最终结果。","https:\u002F\u002Fgithub.com\u002Ftinyvision\u002FDAMO-YOLO\u002Fissues\u002F9",{"id":139,"question_zh":140,"answer_zh":141,"source_url":122},34962,"数据集中存在大量负样本（No Positive Samples）时，Box Loss 参与梯度回传会影响性能吗？","负样本的 Box Loss 回归目标为 0，将其加入梯度回传相当于引入一种正则化，但这可能破坏数据分布，对 DAMO-YOLO 这种将 Box 回归建模为概率分布的模型尤为敏感。从 mAP 计算角度看，如果分类训练良好，负样本的 Box 预测影响较小；但从数据分布角度，负样本 Box Loss 不适合加入梯度回传。建议通过过滤无正样本数据或调整 mosaic_mixup 参数来减少此类数据，最新代码已对此进行了优化处理。",[]]