[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ppogg--YOLOv5-Lite":3,"tool-ppogg--YOLOv5-Lite":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":116,"forks":117,"last_commit_at":118,"license":119,"difficulty_score":32,"env_os":120,"env_gpu":121,"env_ram":122,"env_deps":123,"category_tags":129,"github_topics":130,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":146,"updated_at":147,"faqs":148,"releases":183},6486,"ppogg\u002FYOLOv5-Lite","YOLOv5-Lite","🍅🍅🍅YOLOv5-Lite: Evolved from yolov5 and the size of model is only 900+kb (int8) and 1.7M (fp16). Reach 15 FPS on the Raspberry Pi 4B~","YOLOv5-Lite 是一款专为边缘设备打造的超轻量级目标检测模型，由经典的 YOLOv5 演进而来。它主要解决了传统检测模型在树莓派、手机等算力受限设备上运行缓慢、内存占用过高以及难以部署的痛点。通过引入 ShuffleNetV2 骨干网络、优化检测头结构以及移除复杂的 Focus 层，YOLOv5-Lite 在大幅降低计算量（Flops）和参数量的同时，依然保持了出色的检测精度。\n\n该工具特别适合嵌入式开发者、物联网工程师以及在移动端进行 AI 落地的研究人员使用。其核心技术亮点在于极致的轻量化与广泛的框架兼容性：最小模型经 int8 量化后体积仅约 900KB，却能在树莓派 4B 上实现每秒 15 帧的实时推理速度。此外，YOLOv5-Lite 原生支持 NCNN、MNN、TNN、OpenVINO 等多种主流推理框架，提供了从 PyTorch 训练到多平台部署的完整解决方案，让高性能目标检测算法能轻松运行在各种低功耗硬件上。","# YOLOv5-Lite：Lighter, faster and easier to deploy   ![](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5241425.svg)\n\n![论文插图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_6aae8eb24f00.png)\n\nPerform a series of ablation experiments on yolov5 to make it lighter (smaller Flops, lower memory, and fewer parameters) and faster (add shuffle channel, yolov5 head for channel reduce. It can infer at least 10+ FPS On the Raspberry Pi 4B when input the frame with 320×320) and is easier to deploy (removing the Focus layer and four slice operations, reducing the model quantization accuracy to an acceptable range).\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_01e62c7009a0.png)\n\n## Comparison of ablation experiment results\n\n  ID|Model | Input_size|Flops| Params | Size（M） |Map@0.5|Map@.5:0.95\n :-----:|:-----:|:-----:|:----------:|:----:|:----:|:----:|:----:|\n001| yolo-fastest| 320×320|0.25G|0.35M|1.4| 24.4| -\n002| YOLOv5-Lite\u003Csub>e\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>|320×320|0.73G|0.78M|1.7| 35.1|-|\n003| NanoDet-m| 320×320| 0.72G|0.95M|1.8|- |20.6\n004| yolo-fastest-xl| 320×320|0.72G|0.92M|3.5| 34.3| -\n005| YOLOX\u003Csub>Nano\u003C\u002Fsub>|416×416|1.08G|0.91M|7.3(fp32)| -|25.8|\n006| yolov3-tiny| 416×416| 6.96G|6.06M|23.0| 33.1|16.6\n007| yolov4-tiny| 416×416| 5.62G|8.86M| 33.7|40.2|21.7\n008| YOLOv5-Lite\u003Csub>s\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 416×416|1.66G |1.64M|3.4| 42.0|25.2\n009| YOLOv5-Lite\u003Csub>c\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 512×512|5.92G |4.57M|9.2| 50.9|32.5| \n010| NanoDet-EfficientLite2| 512×512| 7.12G|4.71M|18.3|- |32.6\n011| YOLOv5s(6.0)| 640×640| 16.5G|7.23M|14.0| 56.0|37.2\n012| YOLOv5-Lite\u003Csub>g\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 640×640|15.6G |5.39M|10.9| 57.6|39.1| \n\nSee the wiki: https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fwiki\u002FTest-the-map-of-models-about-coco\n\n## Comparison on different platforms\n\nEquipment|Computing backend|System|Input|Framework|v5lite-e|v5lite-s|v5lite-c|v5lite-g|YOLOv5s\n:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:\nInter|@i5-10210U|window(x86)|640×640|openvino|-|-|46ms|-|131ms\nNvidia|@RTX 2080Ti|Linux(x86)|640×640|torch|-|-|-|15ms|14ms\nRedmi K30|@Snapdragon 730G|Android(armv8)|320×320|ncnn|27ms|38ms|-|-|163ms\nXiaomi 10|@Snapdragon 865|Android(armv8)|320×320|ncnn|10ms|14ms|-|-|163ms\nRaspberrypi 4B|@ARM Cortex-A72|Linux(arm64)|320×320|ncnn|-|84ms|-|-|371ms\nRaspberrypi 4B|@ARM Cortex-A72|Linux(arm64)|320×320|mnn|-|71ms|-|-|356ms\nAXera-Pi|Cortex A7@CPU\u003Cbr \u002F>3.6TOPs @NPU|Linux(arm64)|640×640|axpi|-|-|-|22ms|22ms\n\n### The tutorial of 15FPS on Raspberry Pi 4B:\n[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849)\n\n* The above is a 4-thread test benchmark\n* Raspberrypi 4B enable bf16s optimization，[Raspberrypi 64 Bit OS](http:\u002F\u002Fdownloads.raspberrypi.org\u002Fraspios_arm64\u002Fimages\u002Fraspios_arm64-2020-08-24\u002F)\n\n###  qq交流群：993965802\n\n入群答案:剪枝 or 蒸馏 or 量化 or 低秩分解（任意其一均可）\n\n##  ·Model Zoo· \n\n#### @v5lite-e:\n\nModel|Size|Backbone|Head|Framework|Design for\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-e.pt|1.7m|shufflenetv2（Megvii）|v5Litee-head|Pytorch|Arm-cpu\nv5Lite-e.bin\u003Cbr \u002F>v5Lite-e.param|1.7m|shufflenetv2|v5Litee-head|ncnn|Arm-cpu\nv5Lite-e-int8.bin\u003Cbr \u002F>v5Lite-e-int8.param|0.9m|shufflenetv2|v5Litee-head|ncnn|Arm-cpu\nv5Lite-e-fp32.mnn|3.0m|shufflenetv2|v5Litee-head|mnn|Arm-cpu\nv5Lite-e-fp32.tnnmodel\u003Cbr \u002F>v5Lite-e-fp32.tnnproto|2.9m|shufflenetv2|v5Litee-head|tnn|arm-cpu\nv5Lite-e-320.onnx|3.1m|shufflenetv2|v5Litee-head|onnxruntime|x86-cpu\n\n#### @v5lite-s:\n\nModel|Size|Backbone|Head|Framework|Design for\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-s.pt|3.4m|shufflenetv2（Megvii）|v5Lites-head|Pytorch|Arm-cpu\nv5Lite-s.bin\u003Cbr \u002F>v5Lite-s.param|3.3m|shufflenetv2|v5Lites-head|ncnn|Arm-cpu\nv5Lite-s-int8.bin\u003Cbr \u002F>v5Lite-s-int8.param|1.7m|shufflenetv2|v5Lites-head|ncnn|Arm-cpu\nv5Lite-s.mnn|3.3m|shufflenetv2|v5Lites-head|mnn|Arm-cpu\nv5Lite-s-int4.mnn|987k|shufflenetv2|v5Lites-head|mnn|Arm-cpu\nv5Lite-s-fp16.bin\u003Cbr \u002F>v5Lite-s-fp16.xml|3.4m|shufflenetv2|v5Lites-head|openvivo|x86-cpu\nv5Lite-s-fp32.bin\u003Cbr \u002F>v5Lite-s-fp32.xml|6.8m|shufflenetv2|v5Lites-head|openvivo|x86-cpu\nv5Lite-s-fp16.tflite|3.3m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-fp32.tflite|6.7m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-int8.tflite|1.8m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-416.onnx|6.4m|shufflenetv2|v5Lites-head|onnxruntime|x86-cpu\n\n#### @v5lite-c:\n\nModel|Size|Backbone|Head|Framework|Design for\n:---:|:---:|:---:|:---:|:---:|:---:\nv5Lite-c.pt|9m|PPLcnet（Baidu）|v5s-head|Pytorch|x86-cpu \u002F x86-vpu\nv5Lite-c.bin\u003Cbr \u002F>v5Lite-c.xml|8.7m|PPLcnet|v5s-head|openvivo|x86-cpu \u002F x86-vpu\nv5Lite-c-512.onnx|18m|PPLcnet|v5s-head|onnxruntime|x86-cpu\n\n#### @v5lite-g:\n\nModel|Size|Backbone|Head|Framework|Design for\n:---:|:---:|:---:|:---:|:---:|:---:\nv5Lite-g.pt|10.9m|Repvgg（Tsinghua）|v5Liteg-head|Pytorch|x86-gpu \u002F arm-gpu \u002F arm-npu\nv5Lite-g-int8.engine|8.5m|Repvgg-yolov5|v5Liteg-head|Tensorrt|x86-gpu \u002F arm-gpu \u002F arm-npu\nv5lite-g-int8.tmfile|8.7m|Repvgg-yolov5|v5Liteg-head|Tengine| arm-npu\nv5Lite-g-640.onnx|21m|Repvgg-yolov5|yolov5-head|onnxruntime|x86-cpu\nv5Lite-g-640.joint|7.1m|Repvgg-yolov5|yolov5-head|axpi|arm-npu\n\n#### Download Link：\n\n> - [ ] `v5lite-e.pt`:   | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bjXo7KIFkOnB3pxixHeMPQ)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_DvT_qjznuE-ev_pDdGKwRV3MjZ3Zos8\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-fp16`:   | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_QvWvkhHB7kdcRZ6k4at1g)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1w4mThJmqjhT1deIXMQAQ5xjWI3JNyzUl?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-int8`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JO8qbbVx6zJ-6aq5EgM6PA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1YNtNVWlRqN8Dwc_9AtRkN0LFkDeJ92gN?usp=sharing) |\u003Cbr>\n>> |──────`mnn-e_bf16`: | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_yGGCJFat2bjaKEwxJjrFcU2mGEhH8I3\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`mnn-d_bf16`: | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TqijmdQtWd6ZUr2CiNLuHCEQnPUw1oVu\u002Fview?usp=sharing)|\u003Cbr> \n>> └──────`onnx-fp32`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1zIqKmOavRIrV8UJxbQWvhA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ot9eNlFMqMEzt_FHf0SkDHj1fOprOnTU\u002Fview?usp=sharing) |\u003Cbr> \n> - [ ] `v5lite-s.pt`:   | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1j0n0K1kqfv1Ouwa2QSnzCQ)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ccLTmGB5AkKPjDOyxF3tW7JxGWemph9f\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-fp16`:   | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1kWtwx1C0OTTxbwqJyIyXWg)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1w4mThJmqjhT1deIXMQAQ5xjWI3JNyzUl?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-int8`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QX6-oNynrW-f3i0P0Hqe4w) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1YNtNVWlRqN8Dwc_9AtRkN0LFkDeJ92gN?usp=sharing) |\u003Cbr> \n>> └──────`tengine-fp32`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F123r630O8Fco7X59wFU1crA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1VWmI2BC9MjH7BsrOz4VlSDVnZMXaxGOE?usp=sharing) |\u003Cbr>                \n> - [ ] `v5lite-c.pt`: [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1obs6uRB79m8e3uASVR6P1A) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1lHYRQKjqKCRXghUjwWkUB0HQ8ccKH6qa\u002Fview?usp=sharing) |\u003Cbr> \n>> └──────`openvino-fp16`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18p8HAyGJdmo2hham250b4A) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1s4KPSC4B0shG0INmQ6kZuPLnlUKAATyv?usp=sharing) |\u003Cbr> \n> - [ ] `v5lite-g.pt`: | [Baidu Drive](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F14zdTiTMI_9yTBgKGbv9pQw) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1oftzqOREGqDCerf7DtD5BZp9YWELlkMe\u002Fview?usp=sharing) |\u003Cbr> \n>> └──────`axpi-int8`: [Google Drive](https:\u002F\u002Fgithub.com\u002FAXERA-TECH\u002Fax-models\u002Fblob\u002Fmain\u002Fax620\u002Fv5Lite-g-sim-640.joint) |\u003Cbr> \n\n\n\nBaidu Drive Password: `pogg`\n\n#### v5lite-s model: TFLite Float32, Float16, INT8, Dynamic range quantization, ONNX, TFJS, TensorRT, OpenVINO IR FP32\u002FFP16, Myriad Inference Engin Blob, CoreML\n[https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite)\n\n#### Thanks for PINTO0309:[https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite)\n\n\n## \u003Cdiv>How to use\u003C\u002Fdiv>\n\n\u003Cdetails open>\n\u003Csummary>Install\u003C\u002Fsummary>\n\n[**Python>=3.6.0**](https:\u002F\u002Fwww.python.org\u002F) is required with all\n[requirements.txt](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Frequirements.txt) installed including\n[**PyTorch>=1.7**](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F):\n\u003C!-- $ sudo apt update && apt install -y libgl1-mesa-glx libsm6 libxext6 libxrender-dev -->\n\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\n$ cd YOLOv5-Lite\n$ pip install -r requirements.txt\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Inference with detect.py\u003C\u002Fsummary>\n\n`detect.py` runs inference on a variety of sources, downloading models automatically from\nthe [latest YOLOv5-Lite release](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Freleases) and saving results to `runs\u002Fdetect`.\n\n```bash\n$ python detect.py --source 0  # webcam\n                            file.jpg  # image \n                            file.mp4  # video\n                            path\u002F  # directory\n                            path\u002F*.jpg  # glob\n                            'https:\u002F\u002Fyoutu.be\u002FNUsoVlDFqZg'  # YouTube\n                            'rtsp:\u002F\u002Fexample.com\u002Fmedia.mp4'  # RTSP, RTMP, HTTP stream\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>Training\u003C\u002Fsummary>\n\n```bash\n$ python train.py --data coco.yaml --cfg v5lite-e.yaml --weights v5lite-e.pt --batch-size 128\n                                         v5lite-s.yaml           v5lite-s.pt              128\n                                         v5lite-c.yaml           v5lite-c.pt               96\n                                         v5lite-g.yaml           v5lite-g.pt               64\n```\n\n If you use multi-gpu. It's faster several times:\n  \n ```bash\n$ python -m torch.distributed.launch --nproc_per_node 2 train.py\n```\n  \n\u003C\u002Fdetails>  \n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>DataSet\u003C\u002Fsummary>\n\nTraining set and test set distribution （the path with xx.jpg）\n  \n ```bash\ntrain: ..\u002Fcoco\u002Fimages\u002Ftrain2017\u002F\nval: ..\u002Fcoco\u002Fimages\u002Fval2017\u002F\n```\n```bash\n├── images            # xx.jpg example\n│   ├── train2017        \n│   │   ├── 000001.jpg\n│   │   ├── 000002.jpg\n│   │   └── 000003.jpg\n│   └── val2017         \n│       ├── 100001.jpg\n│       ├── 100002.jpg\n│       └── 100003.jpg\n└── labels             # xx.txt example      \n    ├── train2017       \n    │   ├── 000001.txt\n    │   ├── 000002.txt\n    │   └── 000003.txt\n    └── val2017         \n        ├── 100001.txt\n        ├── 100002.txt\n        └── 100003.txt\n```\n  \n\u003C\u002Fdetails> \n\n\u003Cdetails open>\n\u003Csummary>Auto LabelImg\u003C\u002Fsummary>\n\n[**Link** ：https:\u002F\u002Fgithub.com\u002Fppogg\u002FAutoLabelImg](https:\u002F\u002Fgithub.com\u002Fppogg\u002FAutoLabelImg)  \n\nYou can use LabelImg based YOLOv5-5.0 and YOLOv5-Lite to AutoAnnotate, biubiubiu 🚀 🚀 🚀 \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_d6f849275ece.jpg\" width=\"950\"\u002F>\u003Cbr\u002F>\n\n  \n\u003C\u002Fdetails> \n\n\u003Cdetails open>\n\u003Csummary>Model Hub\u003C\u002Fsummary>\n\nHere, the original components of YOLOv5 and the reproduced components of YOLOv5-Lite are organized and stored in the [model hub](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fmodels\u002Fhub)：\n\n  ![modelhub](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_c4b9c1da2827.jpg)\n  \n  \u003Cdetails open>\n\u003Csummary>Heatmap Analysis\u003C\u002Fsummary>\n\n  \n   ```bash\n$ python main.py --type all\n```\n  \n![论文插图2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_08a742004daa.png)\n\n  Updating ...\n\n\u003C\u002Fdetails>\n\n## How to deploy\n\n[**ncnn**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Fncnn\u002FREADME.md)  for arm-cpu\n\n[**mnn**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Fmnn\u002FREADME.md) for arm-cpu\n\n[**openvino**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fpython_demo\u002Fopenvino\u002FREADME.md) x86-cpu or x86-vpu \n\n[**tensorrt(C++)**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Ftensorrt\u002FREADME.md) for arm-gpu or arm-npu or x86-gpu\n\n[**tensorrt(Python)**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fpython_demo\u002Ftensorrt) for arm-gpu or arm-npu or x86-gpu\n\n[**Android**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fandroid_demo\u002Fncnn-android-v5lite\u002FREADME.md) for arm-cpu\n\n## Android_demo \n\nThis is a Redmi phone, the processor is Snapdragon 730G, and yolov5-lite is used for detection. The performance is as follows:\n\nlink: https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fandroid_demo\u002Fncnn-android-v5lite\n\nAndroid_v5Lite-s: https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CtohY68N2B9XYuqFLiTp-Nd2kuFWgAUR\u002Fview?usp=sharing\n\nAndroid_v5Lite-g: https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1FnvkWxxP_aZwhi000xjIuhJ_OhqOUJcj\u002Fview?usp=sharing\n\nnew android app:[link] https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PRhW4fI1jq8VboPyishcIQ [keyword] pogg\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_d6701b6959a3.jpg\" width=\"650\"\u002F>\u003Cbr\u002F>\n\n## More detailed explanation\n\n#### Detailed model link:\n \n What is YOLOv5-Lite S\u002FE model:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F400545131](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F400545131)\n \n What is YOLOv5-Lite C model:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420737659](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420737659)\n\n What is YOLOv5-Lite G model:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F410874403](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F410874403)\n \n How to deploy on ncnn with fp16 or int8:\n csdn link (Chinese): [https:\u002F\u002Fblog.csdn.net\u002Fweixin_45829462\u002Farticle\u002Fdetails\u002F119787840](https:\u002F\u002Fblog.csdn.net\u002Fweixin_45829462\u002Farticle\u002Fdetails\u002F119787840)\n\n How to deploy on mnn with fp16 or int8:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849)\n \n How to deploy on onnxruntime:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476533259](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476533259)(old version)\n \n How to deploy on tensorrt:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F478630138](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F478630138)\n \n How to optimize on tensorrt:\n zhihu link (Chinese): [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F463074494](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F463074494)\n\n## Reference\n\nhttps:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\n\nhttps:\u002F\u002Fgithub.com\u002Fmegvii-model\u002FShuffleNet-Series\n\nhttps:\u002F\u002Fgithub.com\u002FTencent\u002Fncnn\n\n## Citing YOLOv5-Lite\nIf you use YOLOv5-Lite in your research, please cite our work and give a star ⭐:\n\n```\n @misc{yolov5lite2021,\n  title = {YOLOv5-Lite: Lighter, faster and easier to deploy},\n  author = {Xiangrong Chen and Ziman Gong},\n  doi = {10.5281\u002Fzenodo.5241425}\n  year={2021}\n}\n```\n","# YOLOv5-Lite：更轻量、更快、更易部署   ![](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5241425.svg)\n\n![论文插图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_6aae8eb24f00.png)\n\n我们在 YOLOv5 上进行了一系列消融实验，使其更加轻量化（FLOPs 更小、内存占用更低、参数量更少）且速度更快（引入通道混洗操作，并对 YOLOv5 的检测头进行通道裁剪）。在树莓派 4B 上，使用 320×320 分辨率的输入时，该模型能够达到至少 10+ FPS 的推理速度；同时，通过移除 Focus 层和四次切片操作，并将模型量化精度控制在可接受范围内，进一步简化了部署流程。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_01e62c7009a0.png)\n\n## 消融实验结果对比\n\n  ID|模型 | 输入尺寸|FLOPs| 参数量 | 大小（MB） |mAP@0.5|mAP@0.5:0.95\n :-----:|:-----:|:-----:|:----------:|:----:|:----:|:----:|:----:|\n001| yolo-fastest| 320×320|0.25G|0.35M|1.4| 24.4| -\n002| YOLOv5-Lite\u003Csub>e\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>|320×320|0.73G|0.78M|1.7| 35.1|-|\n003| NanoDet-m| 320×320| 0.72G|0.95M|1.8|- |20.6\n004| yolo-fastest-xl| 320×320|0.72G|0.92M|3.5| 34.3| -\n005| YOLOX\u003Csub>Nano\u003C\u002Fsub>|416×416|1.08G|0.91M|7.3(fp32)| -|25.8|\n006| yolov3-tiny| 416×416| 6.96G|6.06M|23.0| 33.1|16.6\n007| yolov4-tiny| 416×416| 5.62G|8.86M| 33.7|40.2|21.7\n008| YOLOv5-Lite\u003Csub>s\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 416×416|1.66G |1.64M|3.4| 42.0|25.2\n009| YOLOv5-Lite\u003Csub>c\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 512×512|5.92G |4.57M|9.2| 50.9|32.5| \n010| NanoDet-EfficientLite2| 512×512| 7.12G|4.71M|18.3|- |32.6\n011| YOLOv5s(6.0)| 640×640| 16.5G|7.23M|14.0| 56.0|37.2\n012| YOLOv5-Lite\u003Csub>g\u003C\u002Fsub>\u003Csup>ours\u003C\u002Fsup>| 640×640|15.6G |5.39M|10.9| 57.6|39.1| \n\n更多详情请参阅 Wiki：https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fwiki\u002FTest-the-map-of-models-about-coco\n\n## 不同平台上的性能对比\n\n设备|计算后端|系统|输入分辨率|框架|v5lite-e|v5lite-s|v5lite-c|v5lite-g|YOLOv5s\n:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:\nIntel|@i5-10210U|Windows(x86)|640×640|OpenVINO|-|-|46ms|-|131ms\nNVIDIA|@RTX 2080Ti|Linux(x86)|640×640|PyTorch|-|-|-|15ms|14ms\nRedmi K30|@Snapdragon 730G|Android(armv8)|320×320|NCNN|27ms|38ms|-|-|163ms\nXiaomi 10|@Snapdragon 865|Android(armv8)|320×320|NCNN|10ms|14ms|-|-|163ms\n树莓派 4B|@ARM Cortex-A72|Linux(arm64)|320×320|NCNN|-|84ms|-|-|371ms\n树莓派 4B|@ARM Cortex-A72|Linux(arm64)|320×320|MNN|-|71ms|-|-|356ms\nAXera-Pi|Cortex A7@CPU\u003Cbr \u002F>3.6TOPs @NPU|Linux(arm64)|640×640|axpi|-|-|-|22ms|22ms\n\n### 树莓派 4B 上实现 15 FPS 的教程：\n[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849)\n\n* 以上为四线程测试基准\n* 树莓派 4B 启用 bf16 优化，需使用 [Raspberry Pi 64 位操作系统](http:\u002F\u002Fdownloads.raspberrypi.org\u002Fraspios_arm64\u002Fimages\u002Fraspios_arm64-2020-08-24\u002F)\n\n### QQ交流群：993965802\n\n入群暗号：剪枝 或 蒸馏 或 量化 或 低秩分解（任选其一即可）\n\n##  ·模型动物园· \n\n#### @v5lite-e:\n\n模型|大小|骨干网络|头部|框架|适用场景\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-e.pt|1.7m|shufflenetv2（旷视科技）|v5Litee-head|Pytorch|Arm-cpu\nv5Lite-e.bin\u003Cbr \u002F>v5Lite-e.param|1.7m|shufflenetv2|v5Litee-head|ncnn|Arm-cpu\nv5Lite-e-int8.bin\u003Cbr \u002F>v5Lite-e-int8.param|0.9m|shufflenetv2|v5Litee-head|ncnn|Arm-cpu\nv5Lite-e-fp32.mnn|3.0m|shufflenetv2|v5Litee-head|mnn|Arm-cpu\nv5Lite-e-fp32.tnnmodel\u003Cbr \u002F>v5Lite-e-fp32.tnnproto|2.9m|shufflenetv2|v5Litee-head|tnn|arm-cpu\nv5Lite-e-320.onnx|3.1m|shufflenetv2|v5Litee-head|onnxruntime|x86-cpu\n\n#### @v5lite-s:\n\n模型|大小|骨干网络|头部|框架|适用场景\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-s.pt|3.4m|shufflenetv2（旷视科技）|v5Lites-head|Pytorch|Arm-cpu\nv5Lite-s.bin\u003Cbr \u002F>v5Lite-s.param|3.3m|shufflenetv2|v5Lites-head|ncnn|Arm-cpu\nv5Lite-s-int8.bin\u003Cbr \u002F>v5Lite-s-int8.param|1.7m|shufflenetv2|v5Lites-head|ncnn|Arm-cpu\nv5Lite-s.mnn|3.3m|shufflenetv2|v5Lites-head|mnn|Arm-cpu\nv5Lite-s-int4.mnn|987k|shufflenetv2|v5Lites-head|mnn|Arm-cpu\nv5Lite-s-fp16.bin\u003Cbr \u002F>v5Lite-s-fp16.xml|3.4m|shufflenetv2|v5Lites-head|openvivo|x86-cpu\nv5Lite-s-fp32.bin\u003Cbr \u002F>v5Lite-s-fp32.xml|6.8m|shufflenetv2|v5Lites-head|openvivo|x86-cpu\nv5Lite-s-fp16.tflite|3.3m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-fp32.tflite|6.7m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-int8.tflite|1.8m|shufflenetv2|v5Lites-head|tflite|arm-cpu\nv5Lite-s-416.onnx|6.4m|shufflenetv2|v5Lites-head|onnxruntime|x86-cpu\n\n#### @v5lite-c:\n\n模型|大小|骨干网络|头部|框架|适用场景\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-c.pt|9m|PPLcnet（百度）|v5s-head|Pytorch|x86-cpu \u002F x86-vpu\nv5Lite-c.bin\u003Cbr \u002F>v5Lite-c.xml|8.7m|PPLcnet|v5s-head|openvivo|x86-cpu \u002F x86-vpu\nv5Lite-c-512.onnx|18m|PPLcnet|v5s-head|onnxruntime|x86-cpu\n\n#### @v5lite-g:\n\n模型|大小|骨干网络|头部|框架|适用场景\n:---:|:---:|:---:|:---:|:---:|:---\nv5Lite-g.pt|10.9m|Repvgg（清华大学）|v5Liteg-head|Pytorch|x86-gpu \u002F arm-gpu \u002F arm-npu\nv5Lite-g-int8.engine|8.5m|Repvgg-yolov5|v5Liteg-head|Tensorrt|x86-gpu \u002F arm-gpu \u002F arm-npu\nv5lite-g-int8.tmfile|8.7m|Repvgg-yolov5|v5Liteg-head|Tengine| arm-npu\nv5Lite-g-640.onnx|21m|Repvgg-yolov5|yolov5-head|onnxruntime|x86-cpu\nv5Lite-g-640.joint|7.1m|Repvgg-yolov5|yolov5-head|axpi|arm-npu\n\n#### 下载链接：\n\n> - [ ] `v5lite-e.pt`:   | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bjXo7KIFkOnB3pxixHeMPQ)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_DvT_qjznuE-ev_pDdGKwRV3MjZ3Zos8\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-fp16`:   | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_QvWvkhHB7kdcRZ6k4at1g)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1w4mThJmqjhT1deIXMQAQ5xjWI3JNyzUl?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-int8`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JO8qbbVx6zJ-6aq5EgM6PA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1YNtNVWlRqN8Dwc_9AtRkN0LFkDeJ92gN?usp=sharing) |\u003Cbr>\n>> |──────`mnn-e_bf16`: | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_yGGCJFat2bjaKEwxJjrFcU2mGEhH8I3\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`mnn-d_bf16`: | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TqijmdQtWd6ZUr2CiNLuHCEQnPUw1oVu\u002Fview?usp=sharing)|\u003Cbr> \n>> └──────`onnx-fp32`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1zIqKmOavRIrV8UJxbQWvhA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ot9eNlFMqMEzt_FHf0SkDHj1fOprOnTU\u002Fview?usp=sharing) |\u003Cbr> \n> - [ ] `v5lite-s.pt`:   | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1j0n0K1kqfv1Ouwa2QSnzCQ)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1ccLTmGB5AkKPjDOyxF3tW7JxGWemph9f\u002Fview?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-fp16`:   | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1kWtwx1C0OTTxbwqJyIyXWg)  | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1w4mThJmqjhT1deIXMQAQ5xjWI3JNyzUl?usp=sharing) |\u003Cbr> \n>> |──────`ncnn-int8`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QX6-oNynrW-f3i0P0Hqe4w) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1YNtNVWlRqN8Dwc_9AtRkN0LFkDeJ92gN?usp=sharing) |\u003Cbr> \n>> └──────`tengine-fp32`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F123r630O8Fco7X59wFU1crA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1VWmI2BC9MjH7BsrOz4VlSDVnZMXaxGOE?usp=sharing) |\u003Cbr>                \n> - [ ] `v5lite-c.pt`: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1obs6uRB79m8e3uASVR6P1A) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1lHYRQKjqKCRXghUjwWkUB0HQ8ccKH6qa\u002Fview?usp=sharing) |\u003Cbr> \n>> └──────`openvino-fp16`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F18p8HAyGJdmo2hham250b4A) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1s4KPSC4B0shG0INmQ6kZuPLnlUKAATyv?usp=sharing) |\u003Cbr> \n> - [ ] `v5lite-g.pt`: | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F14zdTiTMI_9yTBgKGbv9pQw) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1oftzqOREGqDCerf7DtD5BZp9YWELlkMe\u002Fview?usp=sharing) |\u003Cbr> \n>> └──────`axpi-int8`: [Google Drive](https:\u002F\u002Fgithub.com\u002FAXERA-TECH\u002Fax-models\u002Fblob\u002Fmain\u002Fax620\u002Fv5Lite-g-sim-640.joint) |\u003Cbr> \n\n\n\n百度网盘密码: `pogg`\n\n#### v5lite-s 模型：TFLite Float32、Float16、INT8、动态范围量化、ONNX、TFJS、TensorRT、OpenVINO IR FP32\u002FFP16、Myriad Inference Engin Blob、CoreML\n[https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite)\n\n#### 感谢 PINTO0309:[https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo\u002Ftree\u002Fmain\u002F180_YOLOv5-Lite)\n\n## \u003Cdiv>使用方法\u003C\u002Fdiv>\n\n\u003Cdetails open>\n\u003Csummary>安装\u003C\u002Fsummary>\n\n需要 [**Python>=3.6.0**](https:\u002F\u002Fwww.python.org\u002F)，并安装所有\n[requirements.txt](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Frequirements.txt) 中的依赖项，包括\n[**PyTorch>=1.7**](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)：\n\u003C!-- $ sudo apt update && apt install -y libgl1-mesa-glx libsm6 libxext6 libxrender-dev -->\n\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\n$ cd YOLOv5-Lite\n$ pip install -r requirements.txt\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>使用 detect.py 进行推理\u003C\u002Fsummary>\n\n`detect.py` 可以对多种输入源进行推理，会自动从\n[最新的 YOLOv5-Lite 发布版本](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Freleases) 下载模型，并将结果保存到 `runs\u002Fdetect`。\n\n```bash\n$ python detect.py --source 0  # 网络摄像头\n                            file.jpg  # 图片 \n                            file.mp4  # 视频\n                            path\u002F  # 目录\n                            path\u002F*.jpg  # 全局匹配\n                            'https:\u002F\u002Fyoutu.be\u002FNUsoVlDFqZg'  # YouTube\n                            'rtsp:\u002F\u002Fexample.com\u002Fmedia.mp4'  # RTSP、RTMP、HTTP 流\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>训练\u003C\u002Fsummary>\n\n```bash\n$ python train.py --data coco.yaml --cfg v5lite-e.yaml --weights v5lite-e.pt --batch-size 128\n                                         v5lite-s.yaml           v5lite-s.pt              128\n                                         v5lite-c.yaml           v5lite-c.pt               96\n                                         v5lite-g.yaml           v5lite-g.pt               64\n```\n\n如果您使用多 GPU，速度会提升数倍：\n\n```bash\n$ python -m torch.distributed.launch --nproc_per_node 2 train.py\n```\n\n\u003C\u002Fdetails>  \n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>数据集\u003C\u002Fsummary>\n\n训练集和测试集的分布（路径中包含 xx.jpg）\n\n```bash\ntrain: ..\u002Fcoco\u002Fimages\u002Ftrain2017\u002F\nval: ..\u002Fcoco\u002Fimages\u002Fval2017\u002F\n```\n```bash\n├── images            # xx.jpg 示例\n│   ├── train2017        \n│   │   ├── 000001.jpg\n│   │   ├── 000002.jpg\n│   │   └── 000003.jpg\n│   └── val2017         \n│       ├── 100001.jpg\n│       ├── 100002.jpg\n│       └── 100003.jpg\n└── labels             # xx.txt 示例      \n    ├── train2017       \n    │   ├── 000001.txt\n    │   ├── 000002.txt\n    │   └── 000003.txt\n    └── val2017         \n        ├── 100001.txt\n        ├── 100002.txt\n        └── 100003.txt\n```\n  \n\u003C\u002Fdetails> \n\n\u003Cdetails open>\n\u003Csummary>Auto LabelImg\u003C\u002Fsummary>\n\n[**链接**：https:\u002F\u002Fgithub.com\u002Fppogg\u002FAutoLabelImg](https:\u002F\u002Fgithub.com\u002Fppogg\u002FAutoLabelImg)\n\n您可以使用基于 LabelImg 的 YOLOv5-5.0 和 YOLOv5-Lite 进行自动标注，biubiubiu 🚀 🚀 🚀 \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_d6f849275ece.jpg\" width=\"950\"\u002F>\u003Cbr\u002F>\n\n  \n\u003C\u002Fdetails> \n\n\u003Cdetails open>\n\u003Csummary>模型库\u003C\u002Fsummary>\n\n这里整理并存储了 YOLOv5 的原始组件以及 YOLOv5-Lite 的复现组件，位于 [模型库](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fmodels\u002Fhub)：\n\n  ![modelhub](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_c4b9c1da2827.jpg)\n  \n  \u003Cdetails open>\n\u003Csummary>热力图分析\u003C\u002Fsummary>\n\n  \n   ```bash\n$ python main.py --type all\n```\n  \n![论文插图2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_08a742004daa.png)\n\n  正在更新...\n\n\u003C\u002Fdetails>\n\n## 部署方式\n\n[**ncnn**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Fncnn\u002FREADME.md) 适用于 arm-cpu\n\n[**mnn**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Fmnn\u002FREADME.md) 适用于 arm-cpu\n\n[**openvino**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fpython_demo\u002Fopenvino\u002FREADME.md) 适用于 x86-cpu 或 x86-vpu \n\n[**tensorrt(C++)**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fcpp_demo\u002Ftensorrt\u002FREADME.md) 适用于 arm-gpu、arm-npu 或 x86-gpu\n\n[**tensorrt(Python)**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fpython_demo\u002Ftensorrt) 适用于 arm-gpu、arm-npu 或 x86-gpu\n\n[**Android**](https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fblob\u002Fmaster\u002Fandroid_demo\u002Fncnn-android-v5lite\u002FREADME.md) 适用于 arm-cpu\n\n## Android_demo \n\n这是一台 Redmi 手机，处理器为 Snapdragon 730G，使用 yolov5-lite 进行检测。性能如下：\n\n链接：https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Ftree\u002Fmaster\u002Fandroid_demo\u002Fncnn-android-v5lite\n\nAndroid_v5Lite-s：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CtohY68N2B9XYuqFLiTp-Nd2kuFWgAUR\u002Fview?usp=sharing\n\nAndroid_v5Lite-g：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1FnvkWxxP_aZwhi000xjIuhJ_OhqOUJcj\u002Fview?usp=sharing\n\n新 Android 应用：[链接] https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PRhW4fI1jq8VboPyishcIQ [关键词] pogg\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_readme_d6701b6959a3.jpg\" width=\"650\"\u002F>\u003Cbr\u002F>\n\n## 更详细的说明\n\n#### 模型详细链接：\n\nYOLOv5-Lite S\u002FE 模型是什么：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F400545131](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F400545131)\n\nYOLOv5-Lite C 模型是什么：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420737659](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420737659)\n\nYOLOv5-Lite G 模型是什么：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F410874403](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F410874403)\n\n如何使用 fp16 或 int8 在 ncnn 上部署：\nCSDN 链接（中文）：[https:\u002F\u002Fblog.csdn.net\u002Fweixin_45829462\u002Farticle\u002Fdetails\u002F119787840](https:\u002F\u002Fblog.csdn.net\u002Fweixin_45829462\u002Farticle\u002Fdetails\u002F119787840)\n\n如何使用 fp16 或 int8 在 mnn 上部署：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849)\n\n如何在 onnxruntime 上部署：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476533259](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476533259)（旧版本）\n\n如何在 tensorrt 上部署：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F478630138](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F478630138)\n\n如何在 tensorrt 上优化：\n知乎链接（中文）：[https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F463074494](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F463074494)\n\n## 参考文献\n\nhttps:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\n\nhttps:\u002F\u002Fgithub.com\u002Fmegvii-model\u002FShuffleNet-Series\n\nhttps:\u002F\u002Fgithub.com\u002FTencent\u002Fncnn\n\n## 引用 YOLOv5-Lite\n如果您在研究中使用 YOLOv5-Lite，请引用我们的工作并给个 star ⭐：\n\n```\n @misc{yolov5lite2021,\n  title = {YOLOv5-Lite: 轻量级、更快且更易部署},\n  author = {Xiangrong Chen 和 Ziman Gong},\n  doi = {10.5281\u002Fzenodo.5241425}\n  year={2021}\n}\n```","# YOLOv5-Lite 快速上手指南\n\nYOLOv5-Lite 是专为轻量化、高速推理和易部署优化的目标检测模型。它通过引入 ShuffleNetV2、PPLcNet 等轻量骨干网络，移除 Focus 层等操作，显著降低了参数量和计算量，特别适合在树莓派、移动端及边缘设备上运行。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, Windows, macOS\n*   **Python 版本**：>= 3.6.0\n*   **PyTorch 版本**：>= 1.7\n*   **硬件建议**：\n    *   训练：推荐 NVIDIA GPU\n    *   推理：支持 x86 CPU, ARM CPU (如树莓派), NPU 等多种后端\n\n## 2. 安装步骤\n\n### 克隆项目\n使用以下命令将代码库克隆到本地。国内用户若访问 GitHub 较慢，可尝试使用镜像源或代理。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\ncd YOLOv5-Lite\n```\n\n### 安装依赖\n安装项目所需的 Python 依赖包。为确保下载速度，建议指定国内镜像源（如清华源或阿里源）。\n\n```bash\n# 使用默认源\npip install -r requirements.txt\n\n# 推荐：使用清华镜像源加速安装\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n> **注意**：`requirements.txt` 会自动安装对应版本的 PyTorch。如果您需要特定版本的 CUDA 支持，请先手动安装 PyTorch，再运行上述命令安装其他依赖。\n\n## 3. 基本使用\n\n### 快速推理 (Inference)\n`detect.py` 脚本支持对图片、视频、摄像头及网络流进行推理。首次运行时会自动从 Release 页面下载预训练模型。\n\n**常用命令示例：**\n\n```bash\n# 调用摄像头实时检测 (source 0)\npython detect.py --source 0\n\n# 检测单张图片\npython detect.py --source file.jpg\n\n# 检测视频文件\npython detect.py --source file.mp4\n\n# 检测文件夹下的所有图片\npython detect.py --source path\u002F\n\n# 检测 YouTube 视频链接\npython detect.py --source 'https:\u002F\u002Fyoutu.be\u002FNUsoVlDFqZg'\n\n# 检测 RTSP 流\npython detect.py --source 'rtsp:\u002F\u002Fexample.com\u002Fmedia.mp4'\n```\n\n检测结果默认保存在 `runs\u002Fdetect` 目录下。\n\n### 模型训练 (Training)\n如果您需要使用自定义数据集进行训练，可以使用 `train.py`。YOLOv5-Lite 提供了四种不同量级的模型配置 (`e`, `s`, `c`, `g`)。\n\n**单卡训练示例：**\n\n```bash\n# 训练 v5lite-e 模型 (超轻量，适合 ARM CPU)\npython train.py --data coco.yaml --cfg v5lite-e.yaml --weights v5lite-e.pt --batch-size 128\n\n# 训练 v5lite-s 模型\npython train.py --data coco.yaml --cfg v5lite-s.yaml --weights v5lite-s.pt --batch-size 128\n\n# 训练 v5lite-c 模型 (适合 x86 CPU\u002FVPU)\npython train.py --data coco.yaml --cfg v5lite-c.yaml --weights v5lite-c.pt --batch-size 96\n\n# 训练 v5lite-g 模型 (高精度，适合 GPU\u002FNPU)\npython train.py --data coco.yaml --cfg v5lite-g.yaml --weights v5lite-g.pt --batch-size 64\n```\n\n**多卡加速训练：**\n如果您拥有多张 GPU，可以使用分布式训练加速：\n\n```bash\n# 使用 2 张 GPU 进行训练\npython -m torch.distributed.launch --nproc_per_node 2 train.py --data coco.yaml --cfg v5lite-e.yaml --weights v5lite-e.pt\n```\n\n### 数据集格式\n训练数据需遵循 YOLO 标准格式，目录结构如下：\n\n```text\ndataset_root\u002F\n├── images\n│   ├── train2017\u002F      # 训练集图片 (.jpg)\n│   └── val2017\u002F        # 验证集图片 (.jpg)\n└── labels\n    ├── train2017\u002F      # 训练集标签 (.txt)\n    └── val2017\u002F        # 验证集标签 (.txt)\n```\n\n配置文件 (`coco.yaml` 或自定义 yaml) 中需正确指向上述路径。","某农业初创团队需要在树莓派 4B 上部署一套实时害虫监测系统，用于田间边缘计算设备自动识别并统计虫害数量。\n\n### 没有 YOLOv5-Lite 时\n- **硬件性能瓶颈**：标准版 YOLOv5s 在树莓派 4B 上推理耗时高达 371ms，帧率不足 3 FPS，画面严重卡顿，无法捕捉快速飞行的昆虫。\n- **存储资源受限**：模型文件体积超过 14MB，对于闪存空间有限的嵌入式设备而言占用过高，难以同时容纳操作系统与其他业务逻辑。\n- **部署复杂度大**：原模型包含 Focus 层等复杂算子，在 ARM 架构下进行量化（Int8）时精度损失严重，导致漏检率飙升，难以落地。\n- **功耗与发热问题**：低效的推理过程迫使 CPU 长期高负荷运转，导致设备发热严重且电池续航急剧缩短，不适合野外长时间工作。\n\n### 使用 YOLOv5-Lite 后\n- **实时流畅检测**：YOLOv5-Lite 经过结构重优化（如引入 Shuffle Channel），在树莓派 4B 上轻松达到 15+ FPS，实现了对害虫运动的丝滑追踪。\n- **极致轻量存储**：模型大小压缩至 1.7MB（FP16）甚至 900KB+（Int8），仅为原版的十分之一，极大释放了嵌入式设备的存储空间。\n- **无损量化部署**：通过移除切片操作等改进，YOLOv5-Lite 在 Int8 量化下仍保持高精度（mAP@0.5 达 35.1%），完美平衡了速度与准确率。\n- **低功耗运行**：更少的参数量和计算量（Flops）显著降低了 CPU 负载，设备发热减少，支持太阳能供电下的全天候稳定运行。\n\nYOLOv5-Lite 通过将重型模型“瘦身”为嵌入式友好的轻量级方案，成功让低成本硬件具备了工业级的实时视觉感知能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fppogg_YOLOv5-Lite_01e62c70.png","ppogg","Xiangrong Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fppogg_3c0a3307.jpg","Hello, I'm pogg. I will record some  interesting experiment here.","None","Huizhou",null,"https:\u002F\u002Fgithub.com\u002Fppogg",[81,85,89,93,97,100,104,108,112],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",67.3,{"name":86,"color":87,"percentage":88},"Python","#3572A5",23.3,{"name":90,"color":91,"percentage":92},"Makefile","#427819",3.7,{"name":94,"color":95,"percentage":96},"C","#555555",2.6,{"name":98,"color":99,"percentage":32},"CMake","#DA3434",{"name":101,"color":102,"percentage":103},"Shell","#89e051",0.6,{"name":105,"color":106,"percentage":107},"Java","#b07219",0.4,{"name":109,"color":110,"percentage":111},"Dockerfile","#384d54",0.1,{"name":113,"color":114,"percentage":115},"TypeScript","#3178c6",0,2480,432,"2026-04-10T10:03:21","GPL-3.0","Linux, Windows, Android","非必需。支持 NVIDIA GPU (如 RTX 2080Ti) 配合 Torch\u002FTensorRT；支持 ARM NPU\u002FGPU (如 AXera-Pi, Snapdragon) 配合 NCNN\u002FMNN\u002FTengine\u002FAXPI；也支持纯 CPU (x86\u002FARM) 运行 OpenVINO\u002FONNXRuntime。","未说明 (模型参数量极小，最小模型仅 0.78M 参数，适合树莓派等低内存设备)",{"notes":124,"python":125,"dependencies":126},"该工具专为轻量化部署设计，支持多种推理后端：ARM CPU (ncnn, mnn, tnn), x86 CPU (openvino, onnxruntime), GPU\u002FNPU (tensorrt, axpi)。在树莓派 4B 上开启 bf16 优化后可达 10+ FPS。提供 e\u002Fs\u002Fc\u002Fg 四种不同规模的模型以适应不同算力设备。",">=3.6.0",[127,128],"PyTorch>=1.7","requirements.txt 中列出的其他依赖",[14,35],[131,132,133,134,135,136,137,138,139,140,141,142,143,144,145],"ncnn","yolov5","android-app","mnn","shufflenetv2","repvgg","transformer","tensorrt","pplcnet","openvivo","mobilenet","tflite","pytorch","picodet","onnxruntime","2026-03-27T02:49:30.150509","2026-04-11T10:03:12.816177",[149,154,159,164,169,174,179],{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},29350,"为什么自己训练的模型转换为 NCNN 后无法识别，但官方提供的模型转换后正常？","主要原因通常是训练时的输入图片尺寸与 NCNN 推理时的输入尺寸不一致。例如，训练时使用了 640x640 的图片，而运行 NCNN 程序时输入的是 320x320 的图片，导致模型无法输出正确结果。请检查并确保训练和推理阶段的图片预处理尺寸（img-size）完全一致。此外，还需检查 export.py 中是否有需要注释掉的特定行，以及 NCNN 推理代码本身是否存在逻辑问题。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F181",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},29351,"进行 INT8 量化后模型没有检测框输出，但 FP16 量化正常，如何解决？","INT8 量化失败通常与模型结构或量化校准过程有关。如果在保留 Focus 层的情况下出现此问题，建议检查 ONNX 简化（onnxsim）和 ncnnoptimize 的步骤是否正确。确保在转换过程中没有丢失关键算子。如果问题依旧，可以尝试对比官方模型的导出流程，检查是否需要在 export.py 中调整某些层的处理方式，或者重新进行校准数据集的准备以确保量化参数准确。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F53",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},29352,"为什么在 COCO 数据集上复现的 mAP 比作者提供的预训练模型低几个点？","mAP 差异通常是由测试参数设置不同导致的。请检查 test.py 或 eval.py 中的置信度阈值（conf-thres）和 IoU 阈值（iou-thres）。例如，将 conf-thres 从默认的极低值（如 0.0001）改为 0.1，或将 iou-thres 从 0.45 改为 0.5，都会显著影响最终的 mAP 数值。要复现官方结果，请务必使用与官方评测脚本完全一致的参数配置。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F63",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},29353,"如何正确训练基于 RepVGG 结构的模型以达到预期精度？","不建议直接使用 YOLOv5s 的预训练权重在自建数据集上训练 RepVGG 结构，这会导致效果很差。正确的策略是：首先在大型数据集（如 COCO）上使用目标网络结构（如 RepVGG-YOLOv5s）训练出一个高质量的预训练模型，然后再使用该预训练权重对你的自建数据集进行微调（Fine-tune）。直接迁移普通卷积网络的权重到重参数化网络往往无法收敛到最佳状态。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F58",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},29354,"手机端轻量化模型的检测分数（Score）普遍较低，应该如何设置阈值？","手机端轻量化模型（如 YOLOv5-Lite）的分数偏低是正常现象，这是因为其使用了 YOLOv5 的正负样本匹配机制，导致预测分值被压缩得比较低。因此，不能像传统模型那样将阈值设为 0.5。建议根据实际验证集的表现，将置信度阈值（conf-thres）调低（例如 0.1 或更低），并通过观察召回率和精确率的平衡来确定最佳阈值。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F22",{"id":175,"question_zh":176,"answer_zh":177,"source_url":178},29355,"使用 PicoDet 配置文件训练时报错或曲线异常，可能是什么原因？","训练 PicoDet 变体时，需确保命令行参数与配置文件严格匹配。参考成功训练的命令：`python train.py --weights weights\u002Fv5lite-s.pt --cfg models\u002Fhub\u002FPicoDet-s.yaml --data datasets\u002Fcoco128\u002Fcoco.yaml --batch-size 4 --img-size 320 --name picodet`。注意 batch-size 和 img-size 需适配显存和模型定义。如果训练曲线异常，请检查数据集 yaml 文件路径是否正确，以及类别数量是否与配置文件中的 head 设置一致。","https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fissues\u002F101",{"id":180,"question_zh":181,"answer_zh":182,"source_url":158},29356,"NCNN 推理时出现同一个物体被检测到两个框（重复检测），如何解决？","出现重复检测框通常是非极大值抑制（NMS）参数设置不当或模型输出层处理有问题。首先检查推理代码中的 NMS 阈值（iou-thres）是否过小，适当增大该阈值可以过滤掉重叠度过高的冗余框。其次，确认模型导出时是否保留了正确的后处理逻辑，如果是自定义训练的模型（如 YOLOv5s-Ghost），需确保其 Anchor 设置和输出维度与推理端的解码逻辑完全对应。",[184,189,194,199,204,209],{"id":185,"version":186,"summary_zh":187,"released_at":188},198127,"v1.5","更新 export.py，以提取带有 mnne&mnnd（用于 MNN 推理）头部的 v5lite ONNX 模型。@[ppogg](https:\u002F\u002Fgithub.com\u002Fppogg)\n更新 export.py，以提取带有端到端（用于 ONNX Runtime 推理）头部的 v5lite ONNX 模型。@[ppogg](https:\u002F\u002Fgithub.com\u002Fppogg)\n修复 export.py，使其能够提取带有 concat 头部的 v5lite ONNX 模型。@[ppogg](https:\u002F\u002Fgithub.com\u002Fppogg)\n更新 MNN SDK 推理 [https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F672633849)\n更新 ONNX Runtime SDK 推理（采用端到端解码）\n\n感谢所有 YOLOv5-Lite 的贡献者和用户！","2023-12-27T15:16:53",{"id":190,"version":191,"summary_zh":192,"released_at":193},198128,"v1.4","- 更新 export.py，以导出带有 concat 头的 v5lite ONNX 模型。@[ppogg](https:\u002F\u002Fgithub.com\u002Fppogg)\n- 添加 TensorRT 推理 SDK，感谢 @[ChaucerG](https:\u002F\u002Fgithub.com\u002FChaucerG)。\n- 添加 ONNX Runtime 推理 SDK，感谢 @[hpc203](https:\u002F\u002Fgithub.com\u002Fhpc203)。\n- 添加 GCNet 模型，感谢 @[315386775 ](https:\u002F\u002Fgithub.com\u002F315386775 )。\n- 更新 yolo.py @[ChaucerG](https:\u002F\u002Fgithub.com\u002FChaucerG) @[Alexsdfdfs](https:\u002F\u002Fgithub.com\u002FAlexsdfdfs) @[315386775 ](https:\u002F\u002Fgithub.com\u002F315386775 )。\n- 更新 model.py @[ppogg](https:\u002F\u002Fgithub.com\u002Fppogg) @[Alexsdfdfs](https:\u002F\u002Fgithub.com\u002FAlexsdfdfs) @[315386775 ](https:\u002F\u002Fgithub.com\u002F315386775 )。\n目前 YOLOv5-Lite 已支持 Android、NCNN、MNN、TNN、ONNX Runtime、TensorRT、OpenVINO 和 TFLite。未来该仓库可能会支持更多平台~\n感谢所有为 YOLOv5-Lite 做出贡献的开发者！\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fppogg\u002FYOLOv5-Lite\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Fcontrib.rocks\u002Fimage?repo=ppogg\u002FYOLOv5-Lite\" \u002F>\n\u003C\u002Fa>\n","2022-03-05T14:32:54",{"id":195,"version":196,"summary_zh":197,"released_at":198},198129,"v1.3","添加 OpenVINO 示例\n添加 v5lite-c.pt\n添加 v5lite-c IR 模型链接","2021-10-14T13:34:55",{"id":200,"version":201,"summary_zh":202,"released_at":203},198130,"v1.2","添加 v5lite-g.pt\n添加 MNN 示例\n添加模型库链接","2021-10-14T13:21:36",{"id":205,"version":206,"summary_zh":207,"released_at":208},198131,"v1.1","- 移除部分冗余代码\n- 添加 Android 开发示例\n- 发布首个 Android APK 版本\n- 添加更轻量的基线模型\n- 添加 eval.py 脚本\n- 更新基线模型\n```\n# 在 320×320 分辨率下评估：\n平均精度（AP）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.208\n平均精度（AP）@[ IoU=0.50      | area=   all | maxDets=100 ] = 0.362\n平均精度（AP）@[ IoU=0.75      | area=   all | maxDets=100 ] = 0.206\n平均精度（AP）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.049\n平均精度（AP）@[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.197\n平均精度（AP）@[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.373\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.216\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.339\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.368\n平均召回率（AR）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.122\n平均召回率（AR）@[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.403\n平均召回率（AR）@[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.597\n\n# 在 416×416 分辨率下评估：\n平均精度（AP）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.244\n平均精度（AP）@[ IoU=0.50      | area=   all | maxDets=100 ] = 0.413\n平均精度（AP）@[ IoU=0.75      | area=   all | maxDets=100 ] = 0.246\n平均精度（AP）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.076\n平均精度（AP）@[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.244\n平均精度（AP）@[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.401\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.238\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.380\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.412\n平均召回率（AR）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.181\n平均召回率（AR）@[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.448\n平均召回率（AR）@[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.626\n\n# 在 640×640 分辨率下评估：\n平均精度（AP）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.271\n平均精度（AP）@[ IoU=0.50      | area=   all | maxDets=100 ] = 0.457\n平均精度（AP）@[ IoU=0.75      | area=   all | maxDets=100 ] = 0.274\n平均精度（AP）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.125\n平均精度（AP）@[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.297\n平均精度（AP）@[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.364\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.254\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.422\n平均召回率（AR）@[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.460\n平均召回率（AR）@[ IoU=0.50:0.95 | area= small | maxDets=100 ] =","2021-08-25T01:23:19",{"id":210,"version":211,"summary_zh":212,"released_at":213},198132,"v1.0","关于\nshufflev2-yolov5：更轻量、更快，且更易于部署。该模型基于YOLOv5改进而来，模型大小仅为1.7 MB（INT8）和3.3 MB（FP16）。在树莓派4B上，当输入尺寸为320×320时，可达到10+ FPS。","2021-08-24T03:30:35"]