[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ultralytics--yolov3":3,"tool-ultralytics--yolov3":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":32,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":118,"github_topics":119,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":125,"updated_at":126,"faqs":127,"releases":164},7141,"ultralytics\u002Fyolov3","yolov3","YOLOv3 in PyTorch > ONNX > CoreML > TFLite","YOLOv3 是由 Ultralytics 基于 PyTorch 框架打造的高效计算机视觉模型，专注于解决实时物体检测难题。它能在单张图像中快速、精准地识别并定位多个目标对象，显著提升了检测速度与准确率，是连接算法研究与实际落地的重要桥梁。\n\n这款工具特别适合开发者、人工智能研究人员以及需要部署视觉应用的企业团队使用。无论是构建安防监控系统、开发自动驾驶辅助功能，还是进行学术实验，YOLOv3 都能提供坚实的技术支撑。其核心亮点在于卓越的跨平台兼容性：模型不仅支持在 PyTorch 环境中训练与推理，还能无缝导出为 ONNX、CoreML 及 TFLite 格式。这意味着用户可以轻松将模型部署到服务器、iOS 设备或移动端边缘计算设备上，极大地降低了工程化门槛。作为经典架构的现代化实现，YOLOv3 融合了多项最佳实践，既保留了原版的速度优势，又增强了稳定性，是探索目标检测领域值得信赖的开源选择。","\u003Cdiv align=\"center\">\n  \u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fplatform.ultralytics.com\u002F?utm_source=github&utm_medium=referral&utm_campaign=platform_launch&utm_content=banner&utm_term=ultralytics_github\" target=\"_blank\">\n      \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_a626afb3ae5a.png\" alt=\"Ultralytics YOLOv3 banner\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n[中文](https:\u002F\u002Fdocs.ultralytics.com\u002Fzh\u002F) | [한국어](https:\u002F\u002Fdocs.ultralytics.com\u002Fko\u002F) | [日本語](https:\u002F\u002Fdocs.ultralytics.com\u002Fja\u002F) | [Русский](https:\u002F\u002Fdocs.ultralytics.com\u002Fru\u002F) | [Deutsch](https:\u002F\u002Fdocs.ultralytics.com\u002Fde\u002F) | [Français](https:\u002F\u002Fdocs.ultralytics.com\u002Ffr\u002F) | [Español](https:\u002F\u002Fdocs.ultralytics.com\u002Fes) | [Português](https:\u002F\u002Fdocs.ultralytics.com\u002Fpt\u002F) | [Türkçe](https:\u002F\u002Fdocs.ultralytics.com\u002Ftr\u002F) | [Tiếng Việt](https:\u002F\u002Fdocs.ultralytics.com\u002Fvi\u002F) | [العربية](https:\u002F\u002Fdocs.ultralytics.com\u002Far\u002F)\n\n\u003Cdiv>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Factions\u002Fworkflows\u002Fci-testing.yml\">\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Factions\u002Fworkflows\u002Fci-testing.yml\u002Fbadge.svg\" alt=\"YOLOv3 CI\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F264818686\">\u003Cimg src=\"https:\u002F\u002Fzenodo.org\u002Fbadge\u002F264818686.svg\" alt=\"YOLOv3 Citation\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Fr\u002Fultralytics\u002Fyolov3\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fultralytics\u002Fyolov3?logo=docker\" alt=\"Docker Pulls\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1089800235347353640?logo=discord&logoColor=white&label=Discord&color=blue\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcommunity.ultralytics.com\u002F\">\u003Cimg alt=\"Ultralytics Forums\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscourse\u002Fusers?server=https%3A%2F%2Fcommunity.ultralytics.com&logo=discourse&label=Forums&color=blue\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fwww.reddit.com\u002Fr\u002Fultralytics\u002F\">\u003Cimg alt=\"Ultralytics Reddit\" src=\"https:\u002F\u002Fimg.shields.io\u002Freddit\u002Fsubreddit-subscribers\u002Fultralytics?style=flat&logo=reddit&logoColor=white&label=Reddit&color=blue\">\u003C\u002Fa>\n    \u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fbit.ly\u002Fyolov5-paperspace-notebook\">\u003Cimg src=\"https:\u002F\u002Fassets.paperspace.io\u002Fimg\u002Fgradient-badge.svg\" alt=\"Run on Gradient\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fultralytics\u002Fyolov5\u002Fblob\u002Fmaster\u002Ftutorial.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fwww.kaggle.com\u002Fmodels\u002Fultralytics\u002Fyolov5\">\u003Cimg src=\"https:\u002F\u002Fkaggle.com\u002Fstatic\u002Fimages\u002Fopen-in-kaggle.svg\" alt=\"Open In Kaggle\">\u003C\u002Fa>\n  \u003C\u002Fdiv>\n  \u003Cbr>\n\nUltralytics YOLOv3 is a robust and efficient [computer vision](https:\u002F\u002Fwww.ultralytics.com\u002Fglossary\u002Fcomputer-vision-cv) model developed by [Ultralytics](https:\u002F\u002Fwww.ultralytics.com\u002F). Built on the [PyTorch](https:\u002F\u002Fpytorch.org\u002F) framework, this implementation extends the original YOLOv3 architecture, renowned for its improvements in [object detection](https:\u002F\u002Fwww.ultralytics.com\u002Fglossary\u002Fobject-detection) speed and accuracy over earlier versions. It incorporates best practices and insights from extensive research, making it a reliable choice for a wide range of vision AI applications.\n\nExplore the [Ultralytics Docs](https:\u002F\u002Fdocs.ultralytics.com\u002F) for in-depth guidance (YOLOv3-specific docs may be limited, but general YOLO principles apply), open an issue on [GitHub](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002Fnew\u002Fchoose) for support, and join our [Discord community](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics) for questions and discussions!\n\nFor Enterprise License requests, please complete the form at [Ultralytics Licensing](https:\u002F\u002Fwww.ultralytics.com\u002Flicense).\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_efbb065e5cdf.png\" width=\"2%\" alt=\"Ultralytics GitHub\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fultralytics\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcd714b18f24.png\" width=\"2%\" alt=\"Ultralytics LinkedIn\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_eec1b5be1b52.png\" width=\"2%\" alt=\"Ultralytics Twitter\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fultralytics?sub_confirmation=1\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2d2c0bbec94d.png\" width=\"2%\" alt=\"Ultralytics YouTube\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.tiktok.com\u002F@ultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcddd8c14b41.png\" width=\"2%\" alt=\"Ultralytics TikTok\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fultralytics.com\u002Fbilibili\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_bef73368de25.png\" width=\"2%\" alt=\"Ultralytics BiliBili\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_74a722709467.png\" width=\"2%\" alt=\"Ultralytics Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n## 🚀 YOLO11: The Next Evolution\n\nWe are thrilled to introduce **Ultralytics YOLO11** 🚀, the latest advancement in our state-of-the-art vision models! Available now at the [Ultralytics YOLO GitHub repository](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics), YOLO11 continues our legacy of speed, precision, and user-friendly design. Whether you're working on [object detection](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fdetect\u002F), [instance segmentation](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fsegment\u002F), [pose estimation](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fpose\u002F), [image classification](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fclassify\u002F), or [oriented object detection (OBB)](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fobb\u002F), YOLO11 delivers the performance and flexibility needed for modern computer vision tasks.\n\nGet started today and unlock the full potential of YOLO11! Visit the [Ultralytics Docs](https:\u002F\u002Fdocs.ultralytics.com\u002F) for comprehensive guides and resources:\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fultralytics.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fultralytics) [![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_e8eae22b2ef6.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fultralytics)\n\n```bash\n# Install the ultralytics package\npip install ultralytics\n```\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.ultralytics.com\u002Fyolo\" target=\"_blank\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_fc0b98e6aa24.png\" alt=\"Ultralytics YOLO Performance Comparison\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 📚 Documentation\n\nSee the [Ultralytics Docs for YOLOv3](https:\u002F\u002Fdocs.ultralytics.com\u002Fmodels\u002Fyolov3\u002F) for full documentation on training, testing, and deployment using the Ultralytics framework. While YOLOv3-specific documentation may be limited, the general YOLO principles apply. Below are quickstart examples adapted for YOLOv3 concepts.\n\n\u003Cdetails open>\n\u003Csummary>Install\u003C\u002Fsummary>\n\nClone the repository and install dependencies from `requirements.txt` in a [**Python>=3.8.0**](https:\u002F\u002Fwww.python.org\u002F) environment. Ensure you have [**PyTorch>=1.8**](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F) installed. (Note: This repo is originally YOLOv5, dependencies should be compatible but tailored testing for YOLOv3 is recommended).\n\n```bash\n# Clone the YOLOv3 repository\ngit clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\n\n# Navigate to the cloned directory\ncd yolov3\n\n# Install required packages\npip install -r requirements.txt\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>Inference with PyTorch Hub\u003C\u002Fsummary>\n\nUse YOLOv3 via [PyTorch Hub](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fpytorch_hub_model_loading\u002F) for inference. [Models](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Ftree\u002Fmaster\u002Fmodels) like `yolov3.pt`, `yolov3-spp.pt`, `yolov3-tiny.pt` can be loaded.\n\n```python\nimport torch\n\n# Load a YOLOv3 model (e.g., yolov3, yolov3-spp)\nmodel = torch.hub.load(\"ultralytics\u002Fyolov3\", \"yolov3\", pretrained=True)  # specify 'yolov3' or other variants\n\n# Define the input image source (URL, local file, PIL image, OpenCV frame, numpy array, or list)\nimg = \"https:\u002F\u002Fultralytics.com\u002Fimages\u002Fzidane.jpg\"  # Example image\n\n# Perform inference\nresults = model(img)\n\n# Process the results (options: .print(), .show(), .save(), .crop(), .pandas())\nresults.print()  # Print results to console\nresults.show()  # Display results in a window\nresults.save()  # Save results to runs\u002Fdetect\u002Fexp\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Inference with detect.py\u003C\u002Fsummary>\n\nThe `detect.py` script runs inference on various sources. Use `--weights yolov3.pt` or other YOLOv3 variants. It automatically downloads models and saves results to `runs\u002Fdetect`.\n\n```bash\n# Run inference using a webcam with yolov3-tiny\npython detect.py --weights yolov3-tiny.pt --source 0\n\n# Run inference on a local image file with yolov3\npython detect.py --weights yolov3.pt --source img.jpg\n\n# Run inference on a local video file with yolov3-spp\npython detect.py --weights yolov3-spp.pt --source vid.mp4\n\n# Run inference on a screen capture\npython detect.py --weights yolov3.pt --source screen\n\n# Run inference on a directory of images\npython detect.py --weights yolov3.pt --source path\u002Fto\u002Fimages\u002F\n\n# Run inference on a text file listing image paths\npython detect.py --weights yolov3.pt --source list.txt\n\n# Run inference on a text file listing stream URLs\npython detect.py --weights yolov3.pt --source list.streams\n\n# Run inference using a glob pattern for images\npython detect.py --weights yolov3.pt --source 'path\u002Fto\u002F*.jpg'\n\n# Run inference on a YouTube video URL\npython detect.py --weights yolov3.pt --source 'https:\u002F\u002Fyoutu.be\u002FLNwODJXcvt4'\n\n# Run inference on an RTSP, RTMP, or HTTP stream\npython detect.py --weights yolov3.pt --source 'rtsp:\u002F\u002Fexample.com\u002Fmedia.mp4'\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Training\u003C\u002Fsummary>\n\nThe commands below show how to train YOLOv3 models on the [COCO dataset](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fdetect\u002Fcoco\u002F). Models and datasets are downloaded automatically. Use the largest `--batch-size` your hardware allows.\n\n```bash\n# Train YOLOv3-tiny on COCO for 300 epochs (example settings)\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3-tiny.yaml --batch-size 64\n\n# Train YOLOv3 on COCO for 300 epochs (example settings)\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3.yaml --batch-size 32\n\n# Train YOLOv3-SPP on COCO for 300 epochs (example settings)\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3-spp.yaml --batch-size 16\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>Tutorials\u003C\u002Fsummary>\n\nNote: These tutorials primarily use YOLOv5 examples but the principles often apply to YOLOv3 within the Ultralytics framework.\n\n- **[Train Custom Data](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftrain_custom_data\u002F)** 🚀 **RECOMMENDED**: Learn how to train models on your own datasets.\n- **[Tips for Best Training Results](https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fmodel-training-tips\u002F)** ☘️: Improve your model's performance with expert tips.\n- **[Multi-GPU Training](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmulti_gpu_training\u002F)**: Speed up training using multiple GPUs.\n- **[PyTorch Hub Integration](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fpytorch_hub_model_loading\u002F)** 🌟 **NEW**: Easily load models using PyTorch Hub.\n- **[Model Export (TFLite, ONNX, CoreML, TensorRT)](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_export\u002F)** 🚀: Convert your models to various deployment formats.\n- **[NVIDIA Jetson Deployment](https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fnvidia-jetson\u002F)** 🌟 **NEW**: Deploy models on NVIDIA Jetson devices.\n- **[Test-Time Augmentation (TTA)](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftest_time_augmentation\u002F)**: Enhance prediction accuracy with TTA.\n- **[Model Ensembling](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_ensembling\u002F)**: Combine multiple models for better performance.\n- **[Model Pruning\u002FSparsity](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_pruning_and_sparsity\u002F)**: Optimize models for size and speed.\n- **[Hyperparameter Evolution](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fhyperparameter_evolution\u002F)**: Automatically find the best training hyperparameters.\n- **[Transfer Learning with Frozen Layers](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftransfer_learning_with_frozen_layers\u002F)**: Adapt pretrained models to new tasks efficiently.\n- **[Architecture Summary](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Farchitecture_description\u002F)** 🌟 **NEW**: Understand the model architecture (focus on YOLOv3 principles).\n- **[Ultralytics Platform Training](https:\u002F\u002Fplatform.ultralytics.com)** 🚀 **RECOMMENDED**: Train and deploy YOLO models using Ultralytics Platform.\n- **[ClearML Logging](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fclearml_logging_integration\u002F)**: Integrate with ClearML for experiment tracking.\n- **[Neural Magic DeepSparse Integration](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fneural_magic_pruning_quantization\u002F)**: Accelerate inference with DeepSparse.\n- **[Comet Logging](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fcomet_logging_integration\u002F)** 🌟 **NEW**: Log experiments using Comet ML.\n\n\u003C\u002Fdetails>\n\n## 🧩 Integrations\n\nUltralytics offers robust integrations with leading AI platforms to enhance your workflow, including dataset labeling, training, visualization, and model management. Discover how Ultralytics, in collaboration with partners like [Weights & Biases](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F), [Comet ML](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F), [Roboflow](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Froboflow\u002F), and [Intel OpenVINO](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fopenvino\u002F), can optimize your AI projects. Explore more at [Ultralytics Integrations](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002F).\n\n\u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002F\" target=\"_blank\">\n    \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_50e26c114b97.png\" alt=\"Ultralytics active learning integrations\">\n\u003C\u002Fa>\n\u003Cbr>\n\u003Cbr>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fplatform.ultralytics.com\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_8347866424d0.png\" width=\"10%\" alt=\"Ultralytics Platform logo\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_8d4432467f80.png\" width=\"10%\" alt=\"Weights & Biases logo\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_1608466c8303.png\" width=\"10%\" alt=\"Comet ML logo\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fneural-magic\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_5e606e12f891.png\" width=\"10%\" alt=\"Neural Magic logo\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n|                                                         Ultralytics Platform 🌟                                                          |                                                          Weights & Biases                                                           |                                                                              Comet                                                                              |                                                        Neural Magic                                                         |\n| :--------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------------------------------------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------: |\n| Streamline YOLO workflows: Label, train, and deploy effortlessly with [Ultralytics Platform](https:\u002F\u002Fplatform.ultralytics.com). Try now! | Track experiments, hyperparameters, and results with [Weights & Biases](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F). | Free forever, [Comet ML](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F) lets you save YOLO models, resume training, and interactively visualize predictions. | Run YOLO inference up to 6x faster with [Neural Magic DeepSparse](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fneural-magic\u002F). |\n\n## ⭐ Ultralytics Platform\n\nExperience seamless AI development with [Ultralytics Platform](https:\u002F\u002Fplatform.ultralytics.com) ⭐, the ultimate platform for building, training, and deploying computer vision models. Visualize datasets, train YOLOv3, YOLOv5, and YOLOv8 🚀 models, and deploy them to real-world applications without writing any code. Transform images into actionable insights using our advanced tools and user-friendly [Ultralytics App](https:\u002F\u002Fwww.ultralytics.com\u002Fapp-install). Start your journey for **Free** today!\n\n\u003Ca align=\"center\" href=\"https:\u002F\u002Fplatform.ultralytics.com\" target=\"_blank\">\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_6312c927b6d8.png\" alt=\"Ultralytics Platform Platform Screenshot\">\u003C\u002Fa>\n\n## 🤔 Why YOLOv3?\n\nYOLOv3 marked a major leap forward in real-time object detection at its release. Key advantages include:\n\n- **Improved Accuracy:** Enhanced detection of small objects compared to YOLOv2.\n- **Multi-Scale Predictions:** Detects objects at three different scales, boosting performance across varied object sizes.\n- **Class Prediction:** Uses logistic classifiers for object classes, enabling multi-label classification.\n- **Feature Extractor:** Employs a deeper network (Darknet-53) versus the Darknet-19 used in YOLOv2.\n\nWhile newer models like YOLOv5 and YOLO11 offer further advancements, YOLOv3 remains a reliable and widely adopted baseline, efficiently implemented in PyTorch by Ultralytics.\n\n## ☁️ Environments\n\nGet started quickly with our pre-configured environments. Click the icons below for setup details.\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fpaperspace\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_a8a0da32fbe9.png\" width=\"10%\" alt=\"Run on Gradient\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fgoogle-colab\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_5f50c44b442e.png\" width=\"10%\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fkaggle\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2a9521b33b40.png\" width=\"10%\" alt=\"Open In Kaggle\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fdocker-quickstart\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_9a51970c78a3.png\" width=\"10%\" alt=\"Docker Image\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Famazon-sagemaker\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_cf3984428353.png\" width=\"10%\" alt=\"AWS Marketplace\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fgoogle-colab\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_fb1f61dd8d42.png\" width=\"10%\" alt=\"GCP Quickstart\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 🤝 Contribute\n\nWe welcome your contributions! Making YOLO models accessible and effective is a community effort. Please see our [Contributing Guide](https:\u002F\u002Fdocs.ultralytics.com\u002Fhelp\u002Fcontributing\u002F) to get started. Share your feedback through the [Ultralytics Survey](https:\u002F\u002Fwww.ultralytics.com\u002Fsurvey?utm_source=github&utm_medium=social&utm_campaign=Survey). Thank you to all our contributors for making Ultralytics YOLO better!\n\n[![Ultralytics open-source contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_70c90de047e1.png)](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fgraphs\u002Fcontributors)\n\n## 📜 License\n\nUltralytics provides two licensing options to meet different needs:\n\n- **AGPL-3.0 License**: An [OSI-approved](https:\u002F\u002Fopensource.org\u002Flicense\u002Fagpl-v3) open-source license ideal for academic research, personal projects, and testing. It promotes open collaboration and knowledge sharing. See the [LICENSE](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fblob\u002Fmaster\u002FLICENSE) file for details.\n- **Enterprise License**: Tailored for commercial applications, this license allows seamless integration of Ultralytics software and AI models into commercial products and services, bypassing the open-source requirements of AGPL-3.0. For commercial use cases, please contact us via [Ultralytics Licensing](https:\u002F\u002Fwww.ultralytics.com\u002Flicense).\n\n## 📧 Contact\n\nFor bug reports and feature requests related to Ultralytics YOLO implementations, please visit [GitHub Issues](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues). For general questions, discussions, and community support, join our [Discord server](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics)!\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_efbb065e5cdf.png\" width=\"3%\" alt=\"Ultralytics GitHub\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fultralytics\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcd714b18f24.png\" width=\"3%\" alt=\"Ultralytics LinkedIn\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_eec1b5be1b52.png\" width=\"3%\" alt=\"Ultralytics Twitter\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fultralytics?sub_confirmation=1\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2d2c0bbec94d.png\" width=\"3%\" alt=\"Ultralytics YouTube\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.tiktok.com\u002F@ultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcddd8c14b41.png\" width=\"3%\" alt=\"Ultralytics TikTok\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fultralytics.com\u002Fbilibili\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_bef73368de25.png\" width=\"3%\" alt=\"Ultralytics BiliBili\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_74a722709467.png\" width=\"3%\" alt=\"Ultralytics Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n","\u003Cdiv align=\"center\">\n  \u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fplatform.ultralytics.com\u002F?utm_source=github&utm_medium=referral&utm_campaign=platform_launch&utm_content=banner&utm_term=ultralytics_github\" target=\"_blank\">\n      \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_a626afb3ae5a.png\" alt=\"Ultralytics YOLOv3 banner\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\n[中文](https:\u002F\u002Fdocs.ultralytics.com\u002Fzh\u002F) | [한국어](https:\u002F\u002Fdocs.ultralytics.com\u002Fko\u002F) | [日本語](https:\u002F\u002Fdocs.ultralytics.com\u002Fja\u002F) | [Русский](https:\u002F\u002Fdocs.ultralytics.com\u002Fru\u002F) | [Deutsch](https:\u002F\u002Fdocs.ultralytics.com\u002Fde\u002F) | [Français](https:\u002F\u002Fdocs.ultralytics.com\u002Ffr\u002F) | [Español](https:\u002F\u002Fdocs.ultralytics.com\u002Fes) | [Português](https:\u002F\u002Fdocs.ultralytics.com\u002Fpt\u002F) | [Türkçe](https:\u002F\u002Fdocs.ultralytics.com\u002Ftr\u002F) | [Tiếng Việt](https:\u002F\u002Fdocs.ultralytics.com\u002Fvi\u002F) | [العربية](https:\u002F\u002Fdocs.ultralytics.com\u002Far\u002F)\n\n\u003Cdiv>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Factions\u002Fworkflows\u002Fci-testing.yml\">\u003Cimg src=\"https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Factions\u002Fworkflows\u002Fci-testing.yml\u002Fbadge.svg\" alt=\"YOLOv3 CI\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fzenodo.org\u002Fbadge\u002Flatestdoi\u002F264818686\">\u003Cimg src=\"https:\u002F\u002Fzenodo.org\u002Fbadge\u002F264818686.svg\" alt=\"YOLOv3 Citation\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Fr\u002Fultralytics\u002Fyolov3\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fpulls\u002Fultralytics\u002Fyolov3?logo=docker\" alt=\"Docker Pulls\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg alt=\"Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1089800235347353640?logo=discord&logoColor=white&label=Discord&color=blue\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcommunity.ultralytics.com\u002F\">\u003Cimg alt=\"Ultralytics Forums\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscourse\u002Fusers?server=https%3A%2F%2Fcommunity.ultralytics.com&logo=discourse&label=Forums&color=blue\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fwww.reddit.com\u002Fr\u002Fultralytics\u002F\">\u003Cimg alt=\"Ultralytics Reddit\" src=\"https:\u002F\u002Fimg.shields.io\u002Freddit\u002Fsubreddit-subscribers\u002Fultralytics?style=flat&logo=reddit&logoColor=white&label=Reddit&color=blue\">\u003C\u002Fa>\n    \u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fbit.ly\u002Fyolov5-paperspace-notebook\">\u003Cimg src=\"https:\u002F\u002Fassets.paperspace.io\u002Fimg\u002Fgradient-badge.svg\" alt=\"Run on Gradient\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fultralytics\u002Fyolov5\u002Fblob\u002Fmaster\u002Ftutorial.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fwww.kaggle.com\u002Fmodels\u002Fultralytics\u002Fyolov5\">\u003Cimg src=\"https:\u002F\u002Fkaggle.com\u002Fstatic\u002Fimages\u002Fopen-in-kaggle.svg\" alt=\"Open In Kaggle\">\u003C\u002Fa>\n  \u003C\u002Fdiv>\n  \u003Cbr>\n\nUltralytics YOLOv3 是由 [Ultralytics](https:\u002F\u002Fwww.ultralytics.com\u002F) 开发的一款强大且高效的 [计算机视觉](https:\u002F\u002Fwww.ultralytics.com\u002Fglossary\u002Fcomputer-vision-cv) 模型。该模型基于 [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 框架构建，扩展了原始的 YOLOv3 架构，以其在 [目标检测](https:\u002F\u002Fwww.ultralytics.com\u002Fglossary\u002Fobject-detection) 方面的速度和精度提升而闻名。它融合了大量研究中的最佳实践与洞见，使其成为各种视觉 AI 应用的理想选择。\n\n如需深入了解，请访问 [Ultralytics 文档](https:\u002F\u002Fdocs.ultralytics.com\u002F)（虽然 YOLOv3 的专用文档可能有限，但通用的 YOLO 原则同样适用）。如果您需要支持，欢迎在 [GitHub](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002Fnew\u002Fchoose) 上提交问题；同时，也欢迎您加入我们的 [Discord 社区](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics)，与大家交流讨论！\n\n如需企业许可，请填写 [Ultralytics 许可页面](https:\u002F\u002Fwww.ultralytics.com\u002Flicense)上的表格。\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_efbb065e5cdf.png\" width=\"2%\" alt=\"Ultralytics GitHub\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fultralytics\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcd714b18f24.png\" width=\"2%\" alt=\"Ultralytics LinkedIn\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_eec1b5be1b52.png\" width=\"2%\" alt=\"Ultralytics Twitter\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fultralytics?sub_confirmation=1\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2d2c0bbec94d.png\" width=\"2%\" alt=\"Ultralytics YouTube\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.tiktok.com\u002F@ultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcddd8c14b41.png\" width=\"2%\" alt=\"Ultralytics TikTok\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fultralytics.com\u002Fbilibili\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_bef73368de25.png\" width=\"2%\" alt=\"Ultralytics BiliBili\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"2%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_74a722709467.png\" width=\"2%\" alt=\"Ultralytics Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003Cbr>\n\n## 🚀 YOLO11：下一代进化\n\n我们非常高兴地推出 **Ultralytics YOLO11** 🚀，这是我们最先进的视觉模型的最新成果！现在即可在 [Ultralytics YOLO GitHub 仓库](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics) 中获取 YOLO11，它延续了我们在速度、精度和用户友好设计方面的传统。无论您从事的是 [目标检测](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fdetect\u002F)、[实例分割](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fsegment\u002F)、[姿态估计](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fpose\u002F)、[图像分类](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fclassify\u002F)，还是 [定向目标检测 (OBB)](https:\u002F\u002Fdocs.ultralytics.com\u002Ftasks\u002Fobb\u002F)，YOLO11 都能为现代计算机视觉任务提供所需的性能与灵活性。\n\n立即开始使用 YOLO11，释放其全部潜力吧！访问 [Ultralytics 文档](https:\u002F\u002Fdocs.ultralytics.com\u002F) 获取全面的指南和资源：\n\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fultralytics.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fultralytics) [![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_e8eae22b2ef6.png)](https:\u002F\u002Fpepy.tech\u002Fprojects\u002Fultralytics)\n\n```bash\n\n# 安装 ultralytics 包\npip install ultralytics\n```\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fwww.ultralytics.com\u002Fyolo\" target=\"_blank\">\n  \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_fc0b98e6aa24.png\" alt=\"Ultralytics YOLO 性能对比\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 📚 文档\n\n有关使用 Ultralytics 框架进行训练、测试和部署的完整文档，请参阅 [Ultralytics YOLOv3 文档](https:\u002F\u002Fdocs.ultralytics.com\u002Fmodels\u002Fyolov3\u002F)。虽然 YOLOv3 特有的文档可能较为有限，但 YOLO 的通用原则仍然适用。以下是一些针对 YOLOv3 概念改编的快速入门示例。\n\n\u003Cdetails open>\n\u003Csummary>安装\u003C\u002Fsummary>\n\n克隆仓库，并在 [**Python>=3.8.0**](https:\u002F\u002Fwww.python.org\u002F) 环境中安装 `requirements.txt` 中的依赖项。请确保已安装 [**PyTorch>=1.8**](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F)。（注意：此仓库最初是 YOLOv5 的，依赖项应兼容，但仍建议针对 YOLOv3 进行专门测试。）\n\n```bash\n# 克隆 YOLOv3 仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\n\n# 进入克隆后的目录\ncd yolov3\n\n# 安装所需包\npip install -r requirements.txt\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>通过 PyTorch Hub 进行推理\u003C\u002Fsummary>\n\n使用 [PyTorch Hub](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fpytorch_hub_model_loading\u002F) 通过 YOLOv3 进行推理。可以加载诸如 `yolov3.pt`、`yolov3-spp.pt`、`yolov3-tiny.pt` 等模型。\n\n```python\nimport torch\n\n# 加载 YOLOv3 模型（例如 yolov3、yolov3-spp）\nmodel = torch.hub.load(\"ultralytics\u002Fyolov3\", \"yolov3\", pretrained=True)  # 指定 'yolov3' 或其他变体\n\n# 定义输入图像来源（URL、本地文件、PIL 图像、OpenCV 帧、numpy 数组或列表）\nimg = \"https:\u002F\u002Fultralytics.com\u002Fimages\u002Fzidane.jpg\"  # 示例图像\n\n# 进行推理\nresults = model(img)\n\n# 处理结果（选项：.print()、.show()、.save()、.crop()、.pandas()）\nresults.print()  # 打印结果到控制台\nresults.show()  # 在窗口中显示结果\nresults.save()  # 将结果保存到 runs\u002Fdetect\u002Fexp\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>通过 detect.py 进行推理\u003C\u002Fsummary>\n\n`detect.py` 脚本可对多种来源执行推理。使用 `--weights yolov3.pt` 或其他 YOLOv3 变体即可。它会自动下载模型并将结果保存到 `runs\u002Fdetect`。\n\n```bash\n# 使用 yolov3-tiny 对摄像头视频进行推理\npython detect.py --weights yolov3-tiny.pt --source 0\n\n# 使用 yolov3 对本地图像文件进行推理\npython detect.py --weights yolov3.pt --source img.jpg\n\n# 使用 yolov3-spp 对本地视频文件进行推理\npython detect.py --weights yolov3-spp.pt --source vid.mp4\n\n# 对屏幕截图进行推理\npython detect.py --weights yolov3.pt --source screen\n\n# 对包含图像路径的目录进行推理\npython detect.py --weights yolov3.pt --source path\u002Fto\u002Fimages\u002F\n\n# 对包含图像路径列表的文本文件进行推理\npython detect.py --weights yolov3.pt --source list.txt\n\n# 对包含流 URL 列表的文本文件进行推理\npython detect.py --weights yolov3.pt --source list.streams\n\n# 使用 glob 模式对图像进行推理\npython detect.py --weights yolov3.pt --source 'path\u002Fto\u002F*.jpg'\n\n# 对 YouTube 视频 URL 进行推理\npython detect.py --weights yolov3.pt --source 'https:\u002F\u002Fyoutu.be\u002FLNwODJXcvt4'\n\n# 对 RTSP、RTMP 或 HTTP 流进行推理\npython detect.py --weights yolov3.pt --source 'rtsp:\u002F\u002Fexample.com\u002Fmedia.mp4'\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>训练\u003C\u002Fsummary>\n\n以下命令展示了如何在 [COCO 数据集](https:\u002F\u002Fdocs.ultralytics.com\u002Fdatasets\u002Fdetect\u002Fcoco\u002F) 上训练 YOLOv3 模型。模型和数据集会自动下载。请根据硬件能力选择最大的 `--batch-size`。\n\n```bash\n# 在 COCO 数据集上训练 YOLOv3-tiny，共 300 个 epoch（示例设置）\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3-tiny.yaml --batch-size 64\n\n# 在 COCO 数据集上训练 YOLOv3，共 300 个 epoch（示例设置）\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3.yaml --batch-size 32\n\n# 在 COCO 数据集上训练 YOLOv3-SPP，共 300 个 epoch（示例设置）\npython train.py --data coco.yaml --epochs 300 --weights '' --cfg yolov3-spp.yaml --batch-size 16\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails open>\n\u003Csummary>教程\u003C\u002Fsummary>\n\n注意：这些教程主要基于 YOLOv5 的示例，但在 Ultralytics 框架内，其原理通常也适用于 YOLOv3。\n\n- **[训练自定义数据](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftrain_custom_data\u002F)** 🚀 **推荐**：学习如何在自己的数据集上训练模型。\n- **[获得最佳训练效果的技巧](https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fmodel-training-tips\u002F)** ☘️：借助专家提示提升模型性能。\n- **[多 GPU 训练](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmulti_gpu_training\u002F)**：利用多个 GPU 加速训练。\n- **[PyTorch Hub 集成](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fpytorch_hub_model_loading\u002F)** 🌟 **新功能**：轻松通过 PyTorch Hub 加载模型。\n- **[模型导出（TFLite、ONNX、CoreML、TensorRT）](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_export\u002F)** 🚀：将模型转换为多种部署格式。\n- **[NVIDIA Jetson 部署指南](https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fnvidia-jetson\u002F)** 🌟 **新功能**：在 NVIDIA Jetson 设备上部署模型。\n- **[测试时增强（TTA）](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftest_time_augmentation\u002F)**：通过 TTA 提高预测准确率。\n- **[模型集成](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_ensembling\u002F)**：结合多个模型以获得更好性能。\n- **[模型剪枝\u002F稀疏化](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fmodel_pruning_and_sparsity\u002F)**：优化模型的大小和速度。\n- **[超参数进化](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fhyperparameter_evolution\u002F)**：自动寻找最佳训练超参数。\n- **[冻结层迁移学习](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Ftransfer_learning_with_frozen_layers\u002F)**：高效地将预训练模型适应新任务。\n- **[架构概览](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Farchitecture_description\u002F)** 🌟 **新功能**：了解模型架构（重点关注 YOLOv3 原则）。\n- **[Ultralytics 平台训练](https:\u002F\u002Fplatform.ultralytics.com)** 🚀 **推荐**：使用 Ultralytics 平台训练和部署 YOLO 模型。\n- **[ClearML 日志记录](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fclearml_logging_integration\u002F)**：与 ClearML 集成以跟踪实验。\n- **[Neural Magic DeepSparse 集成](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fneural_magic_pruning_quantization\u002F)**：借助 DeepSparse 加速推理。\n- **[Comet 日志记录集成](https:\u002F\u002Fdocs.ultralytics.com\u002Fyolov5\u002Ftutorials\u002Fcomet_logging_integration\u002F)** 🌟 **新功能**：使用 Comet ML 记录实验。\n\n\u003C\u002Fdetails>\n\n## 🧩 集成\n\nUltralytics 提供与领先 AI 平台的强大集成，以提升您的工作流，涵盖数据集标注、训练、可视化和模型管理。了解 Ultralytics 如何与 [Weights & Biases](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F)、[Comet ML](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F)、[Roboflow](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Froboflow\u002F) 和 [Intel OpenVINO](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fopenvino\u002F) 等合作伙伴携手，优化您的 AI 项目。更多内容请访问 [Ultralytics 集成](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002F)。\n\n\u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002F\" target=\"_blank\">\n    \u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_50e26c114b97.png\" alt=\"Ultralytics 主动学习集成\">\n\u003C\u002Fa>\n\u003Cbr>\n\u003Cbr>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fplatform.ultralytics.com\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_8347866424d0.png\" width=\"10%\" alt=\"Ultralytics Platform 标志\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"空格\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_8d4432467f80.png\" width=\"10%\" alt=\"Weights & Biases 标志\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"空格\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_1608466c8303.png\" width=\"10%\" alt=\"Comet ML 标志\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"15%\" height=\"0\" alt=\"空格\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fneural-magic\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_5e606e12f891.png\" width=\"10%\" alt=\"Neural Magic 标志\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n|                                                         Ultralytics Platform 🌟                                                          |                                                          Weights & Biases                                                           |                                                                              Comet                                                                              |                                                        Neural Magic                                                         |\n| :--------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------------------------------------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------------------------------------------: | :-------------------------------------------------------------------------------------------------------------------------: |\n| 简化 YOLO 工作流：通过 [Ultralytics Platform](https:\u002F\u002Fplatform.ultralytics.com) 轻松标注、训练和部署。立即试用！ | 使用 [Weights & Biases](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fweights-biases\u002F) 跟踪实验、超参数和结果。 | [Comet ML](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fcomet\u002F) 永久免费，可保存 YOLO 模型、恢复训练并交互式地可视化预测结果。 | 使用 [Neural Magic DeepSparse](https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fneural-magic\u002F) 将 YOLO 推理速度提升至原来的 6 倍。 |\n\n## ⭐ Ultralytics Platform\n\n借助 [Ultralytics Platform](https:\u002F\u002Fplatform.ultralytics.com)⭐，体验无缝的 AI 开发——这是构建、训练和部署计算机视觉模型的终极平台。无需编写任何代码，即可可视化数据集、训练 YOLOv3、YOLOv5 和 YOLOv8 🚀 模型，并将其部署到实际应用中。利用我们的先进工具和用户友好的 [Ultralytics App](https:\u002F\u002Fwww.ultralytics.com\u002Fapp-install)，将图像转化为可操作的洞察。今天就免费开始您的旅程吧！\n\n\u003Ca align=\"center\" href=\"https:\u002F\u002Fplatform.ultralytics.com\" target=\"_blank\">\n\u003Cimg width=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_6312c927b6d8.png\" alt=\"Ultralytics Platform 平台截图\">\u003C\u002Fa>\n\n## 🤔 为什么选择 YOLOv3？\n\nYOLOv3 在发布时标志着实时目标检测领域的一次重大飞跃。其主要优势包括：\n\n- **更高的准确性：** 相较于 YOLOv2，对小物体的检测能力显著提升。\n- **多尺度预测：** 能够在三个不同尺度上检测目标，从而在各种尺寸的目标上均表现出色。\n- **类别预测：** 使用逻辑分类器来预测目标类别，支持多标签分类。\n- **特征提取器：** 采用更深的网络（Darknet-53），而 YOLOv2 则使用 Darknet-19。\n\n尽管更新的模型如 YOLOv5 和 YOLO11 提供了进一步的改进，但 YOLOv3 仍然是一个可靠且广泛采用的基准，由 Ultralytics 在 PyTorch 中高效实现。\n\n## ☁️ 运行环境\n\n使用我们预配置的环境，快速入门。点击下方图标查看设置详情。\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fpaperspace\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_a8a0da32fbe9.png\" width=\"10%\" alt=\"在 Gradient 上运行\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fgoogle-colab\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_5f50c44b442e.png\" width=\"10%\" alt=\"在 Colab 中打开\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fkaggle\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2a9521b33b40.png\" width=\"10%\" alt=\"在 Kaggle 中打开\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fguides\u002Fdocker-quickstart\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_9a51970c78a3.png\" width=\"10%\" alt=\"Docker 镜像\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Famazon-sagemaker\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_cf3984428353.png\" width=\"10%\" alt=\"AWS Marketplace\"\u002F>\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"5%\" alt=\"\" \u002F>\n  \u003Ca href=\"https:\u002F\u002Fdocs.ultralytics.com\u002Fintegrations\u002Fgoogle-colab\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_fb1f61dd8d42.png\" width=\"10%\" alt=\"GCP 快速入门\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 🤝 贡献\n\n我们欢迎您的贡献！让 YOLO 模型更易用、更高效是一项社区共同的事业。请参阅我们的[贡献指南](https:\u002F\u002Fdocs.ultralytics.com\u002Fhelp\u002Fcontributing\u002F)开始参与。您也可以通过[Ultralytics 调查](https:\u002F\u002Fwww.ultralytics.com\u002Fsurvey?utm_source=github&utm_medium=social&utm_campaign=Survey)分享您的反馈。感谢所有贡献者，让 Ultralytics YOLO 不断进步！\n\n[![Ultralytics 开源贡献者](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_70c90de047e1.png)](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fgraphs\u002Fcontributors)\n\n## 📜 许可证\n\nUltralytics 提供两种许可证选项，以满足不同需求：\n\n- **AGPL-3.0 许可证**：这是一份[OSI 批准的](https:\u002F\u002Fopensource.org\u002Flicense\u002Fagpl-v3)开源许可证，非常适合学术研究、个人项目和测试。它鼓励开放协作与知识共享。详细信息请参阅[LICENSE](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fblob\u002Fmaster\u002FLICENSE)文件。\n- **企业许可证**：专为商业应用设计，该许可证允许将 Ultralytics 的软件和 AI 模型无缝集成到商业产品和服务中，同时规避 AGPL-3.0 的开源要求。如需用于商业用途，请通过[Ultralytics 许可](https:\u002F\u002Fwww.ultralytics.com\u002Flicense)联系我们。\n\n## 📧 联系方式\n\n如有关于 Ultralytics YOLO 实现的错误报告或功能请求，请访问[Github Issues](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues)。如有其他问题、讨论或社区支持需求，请加入我们的[Discord 服务器](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics)！\n\n\u003Cbr>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_efbb065e5cdf.png\" width=\"3%\" alt=\"Ultralytics GitHub\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Fultralytics\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcd714b18f24.png\" width=\"3%\" alt=\"Ultralytics LinkedIn\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_eec1b5be1b52.png\" width=\"3%\" alt=\"Ultralytics Twitter\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fyoutube.com\u002Fultralytics?sub_confirmation=1\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_2d2c0bbec94d.png\" width=\"3%\" alt=\"Ultralytics YouTube\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fwww.tiktok.com\u002F@ultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_dcddd8c14b41.png\" width=\"3%\" alt=\"Ultralytics TikTok\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fultralytics.com\u002Fbilibili\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_bef73368de25.png\" width=\"3%\" alt=\"Ultralytics BiliBili\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_896994f79d98.png\" width=\"3%\" alt=\"space\">\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fultralytics\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_readme_74a722709467.png\" width=\"3%\" alt=\"Ultralytics Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>","# YOLOv3 快速上手指南\n\nYOLOv3 是由 Ultralytics 开发的高效目标检测模型，基于 PyTorch 框架。本指南将帮助你快速完成环境配置、安装及基础推理。\n\n## 1. 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：>= 3.8.0\n*   **PyTorch 版本**：>= 1.8\n*   **硬件建议**：推荐使用 NVIDIA GPU 以加速推理和训练（需安装对应的 CUDA 驱动）\n\n> **国内加速提示**：\n> 建议使用国内镜像源安装依赖，以提升下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装步骤\n\n### 克隆仓库\n首先从 GitHub 克隆 YOLOv3 官方仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\ncd yolov3\n```\n\n### 安装依赖\n安装项目所需的 Python 依赖包：\n\n```bash\npip install -r requirements.txt\n```\n\n## 3. 基本使用\n\n### 方式一：使用 PyTorch Hub（最简便）\n无需下载代码仓库，直接通过 PyTorch Hub 加载预训练模型进行推理。\n\n```python\nimport torch\n\n# 加载 YOLOv3 预训练模型 (可选: yolov3, yolov3-spp, yolov3-tiny)\nmodel = torch.hub.load(\"ultralytics\u002Fyolov3\", \"yolov3\", pretrained=True)\n\n# 设置输入源 (可以是图片路径、URL、视频流等)\nimg = \"https:\u002F\u002Fultralytics.com\u002Fimages\u002Fzidane.jpg\"\n\n# 执行推理\nresults = model(img)\n\n# 查看结果\nresults.print()   # 在控制台打印检测结果\nresults.show()    # 弹出窗口显示带标注的图片\nresults.save()    # 将结果保存至 runs\u002Fdetect\u002Fexp 目录\n```\n\n### 方式二：使用命令行脚本 (`detect.py`)\n如果你已经克隆了仓库，可以使用自带的 `detect.py` 脚本对多种数据源进行检测。模型会自动下载。\n\n**检测本地图片：**\n```bash\npython detect.py --weights yolov3.pt --source img.jpg\n```\n\n**调用摄像头实时检测：**\n```bash\npython detect.py --weights yolov3-tiny.pt --source 0\n```\n\n**检测视频文件：**\n```bash\npython detect.py --weights yolov3-spp.pt --source vid.mp4\n```\n\n**检测网络视频流 (如 YouTube)：**\n```bash\npython detect.py --weights yolov3.pt --source 'https:\u002F\u002Fyoutu.be\u002FLNwODJXcvt4'\n```\n\n运行完成后，检测结果默认保存在 `runs\u002Fdetect\u002F` 文件夹中。","某智慧物流园区的技术团队正致力于升级其包裹分拣系统，需要实时识别传送带上不同尺寸和类型的快递包裹以引导机械臂抓取。\n\n### 没有 yolov3 时\n- 依赖传统图像处理算法，难以应对包裹堆叠、遮挡或光照变化，导致识别率低下且误报频繁。\n- 现有模型体积庞大，无法部署在边缘计算设备（如 Jetson Nano）上，必须将所有视频流传回云端处理，网络延迟高达数百毫秒。\n- 模型格式单一，缺乏从训练框架到终端推理引擎的流畅转换工具，工程师需花费数周手动重写代码以适配不同硬件。\n- 检测速度跟不上高速传送带的节奏，经常出现包裹已过站但系统尚未完成识别的情况，造成分拣错误。\n\n### 使用 yolov3 后\n- 利用 yolov3 强大的多尺度预测能力，精准识别各种角度和遮挡情况下的包裹，将复杂场景下的检出率提升至 98% 以上。\n- 借助 yolov3 原生支持的 PyTorch 到 TFLite\u002FCoreML 一键导出功能，成功将模型压缩并部署至边缘端，实现毫秒级本地实时推理。\n- 依托其高效的架构设计，单帧处理时间缩短至 20 毫秒以内，完美匹配高速流水线的节拍，彻底消除分拣滞后现象。\n- 社区提供的丰富预训练权重和文档支持，让团队仅用三天就完成了从模型微调到产线联调的全流程，大幅降低开发成本。\n\nyolov3 通过兼顾高精度与跨平台部署效率，帮助物流团队以极低的成本实现了从“云端滞后判断”到“边缘实时决策”的关键转型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fultralytics_yolov3_a58d0278.png","ultralytics","Ultralytics","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fultralytics_78986d03.png","Democratizing Vision AI",null,"hello@ultralytics.com","https:\u002F\u002Fultralytics.com","https:\u002F\u002Fgithub.com\u002Fultralytics",[81,85,89,93],{"name":82,"color":83,"percentage":84},"Python","#3572A5",80.1,{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",18.9,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.7,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.4,10564,3438,"2026-04-13T09:03:05","AGPL-3.0","Linux, macOS, Windows","未明确说明具体型号，但基于 PyTorch 框架，训练和推理通常建议使用支持 CUDA 的 NVIDIA GPU。显存需求取决于模型大小（yolov3-tiny, yolov3, yolov3-spp）和 batch size，官方示例中最大 batch size 为 64，建议显存 8GB+ 以获得较好性能。","未说明",{"notes":105,"python":106,"dependencies":107},"该仓库基于 Ultralytics YOLOv5 架构适配 YOLOv3。虽然 README 提到依赖应与 YOLOv5 兼容，但建议针对 YOLOv3 进行专门测试。首次运行推理或训练时会自动下载预训练模型和数据集。支持多种输入源（图片、视频、摄像头、屏幕捕获等）。可通过 requirements.txt 一键安装主要依赖。",">=3.8.0",[108,109,110,111,112,113,114,115,116,117],"torch>=1.8","numpy","opencv-python","Pillow","PyYAML","requests","tqdm","pandas","seaborn","matplotlib",[14,15],[64,120,121,122,123,124,72],"object-detection","yolo","yolov5","deep-learning","machine-learning","2026-03-27T02:49:30.150509","2026-04-13T22:45:49.590229",[128,133,137,142,146,151,156,160],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},32078,"如何使用自定义数据集训练 YOLOv3？数据标签格式有什么要求？","首先将数据标注为 Darknet 格式：每个图像对应一个标签文件，路径只需将图像路径中的 `\u002Fimages\u002F*.jpg` 替换为 `\u002Flabels\u002F*.txt`。标签文件每行代表一个物体，格式为 `class x_center y_center width height`。坐标必须是归一化的 xywh 格式（0-1 之间），如果是像素坐标需除以图像的宽和高。类别编号从 0 开始索引。如果没有检测到物体，则不需要标签文件。创建包含图像路径的 train.txt 和 test.txt 文件即可开始训练。","https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F192",{"id":134,"question_zh":135,"answer_zh":136,"source_url":132},32079,"我想用自监督模型（如 BYOL）预训练的权重初始化 YOLOv3 的前几层，其余层随机初始化，该如何操作？","虽然 Issue 中未给出具体代码修改步骤，但维护者建议确保使用 master 分支的最新代码。通常做法是在加载预训练权重时，只加载匹配层（前 10 层）的权重，对于不匹配的层或剩余层保持随机初始化。如果遇到具体问题，建议使用 Bug Report 模板提供最小可复现示例以便进一步诊断。",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},32080,"为什么我的训练 mAP 很低且测试损失发散？YOLOv3 的配置参数是多少？","您提到的配置问题可能混淆了仓库。当前仓库是 ultralytics\u002Fyolov3 (PyTorch 版本)，而不是 alexeyab\u002Fdarknet。如果您使用的是 Darknet 配置文件 (.cfg)，请参考 Darknet 仓库。在 ultralytics\u002Fyolov3 中，超参数已针对 COCO 数据集优化，适用于大多数目标检测问题。您可以参考官方文档中的自定义数据训练教程获取正确的启动命令和配置。如果需要在自定义问题上获得更好结果，可以自行优化超参数。","https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F310",{"id":143,"question_zh":144,"answer_zh":145,"source_url":141},32081,"YOLOv3 训练后如何查看结果？有混淆矩阵或 IOU 图表吗？","YOLOv3 是目标检测任务，通常不生成用于分类任务的混淆矩阵。训练完成后，结果会自动保存到 results.txt 文件中，并自动生成 results.png  plots 图表。您可以在训练目录中找到这些文件以分析模型性能。关于 IOU 图表，标准输出中主要关注 mAP 和损失曲线。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},32082,"这个仓库支持 CSPResNeXt50-PANet-SPP 架构吗？","该仓库主要专注于标准的 YOLOv3 及其变体。关于 CSPResNeXt50-PANet-SPP 等特定架构的支持，维护者指出在某些测试中（如 ASFF 实现）并未观察到明显的性能提升，甚至可能出现 mAP 下降的情况。提高 mAP 的关键因素之一通常是增加图像分辨率（例如从 608 提升到 800 或更高），而不是单纯更换骨干网络。建议参考最新的 YOLOv5 仓库获取更多先进的架构支持。","https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F698",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},32083,"如何对 YOLOv3 的训练超参数进行进化搜索（Hyperparameter Evolution）？","超参数定义在 train.py 中。可以使用 `--evolve` 标志启动进化过程。命令示例：`python3 train.py --data data\u002Fcoco.data --weights '' --img-size 320 --epochs 1 --batch-size 64 --accumulate 1 --evolve`。原理是每一代选择适应度最高（基于 epoch 0 的加权 mAP 和 F1）的一组参数进行变异，变异基于正态分布（约 20% 的标准差）。适应度函数可以在 utils\u002Fmetrics.py 中自定义权重。为了获得最佳结果，强烈建议参考 YOLOv5 的超参数进化教程，默认会进化 300 代。","https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F392",{"id":157,"question_zh":158,"answer_zh":159,"source_url":155},32084,"为什么我的超参数进化结果图看起来不正常或只有一代？","如果进化结果图看起来不理想或只显示了一代数据，可能是因为进化的代数太少。为了获得高性能的结果，需要运行足够的进化代数。维护者建议参考 YOLOv5 的超参数进化教程，其中默认代码会进化 300 代，从而能更有效地搜索到最优超参数组合。",{"id":161,"question_zh":162,"answer_zh":163,"source_url":132},32085,"YOLOv3 和 YOLOv5 有什么区别？现在应该用哪个？","Ultralytics 已经开源了 YOLOv5，它在速度、轻量化和准确性上都优于 YOLOv3。YOLOv5 具有更快的推理速度（支持 PyTorch FP16 和 AMP）、更轻的模型体积以及更高的 mAP。官方明确建议所有新项目直接使用 YOLOv5。YOLOv5 还提供了数据自动下载、原生混合精度训练、更多的导出格式（ONNX, TorchScript, CoreML）以及更完善的教程体系。",[165,170,175,180,185,190,195,200,205,210,215,220],{"id":166,"version":167,"summary_zh":168,"released_at":169},239321,"v9.6.0","本次发布将 **2021年10月12日发布的 YOLOv5 v6.0** 中的最新更新合并到了这个 Ultralytics YOLOv3 仓库中。这是 Ultralytics YOLOv3 维护工作的一部分，会在每次 YOLOv5 的重大版本发布时进行。YOLOv5 v6.0 版本的完整详情如下。\n\nhttps:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Freleases\u002Ftag\u002Fv6.0\n> [assets]: https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Freleases\n> [TTA]: https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F303\n> \n> 本次 YOLOv5 v6.0 发布引入了许多新功能和错误修复（来自 **73位贡献者** 的 **465个 Pull Request**），自我们上一次于四月份发布的 [v5.0](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Freleases\u002Ftag\u002Fv5.0) 以来，不仅对网络架构进行了调整，还推出了新的 P5 和 P6 “Nano” 模型：**YOLOv5n** 和 **YOLOv5n6**。这些 Nano 模型保持了 YOLOv5s 的深度倍数 0.33，但将宽度倍数从 0.50 降低到 0.25，从而使参数量减少了约 75%，从 750 万降至 190 万，非常适合移动设备和 CPU 上的部署。\n> \n> 使用示例：\n> ```bash\n> python detect.py --weights yolov5n.pt --img 640    # 在 640×640 分辨率下训练的 Nano P5 模型（mAP@0.5:0.95 为 28.4）\n> python detect.py --weights yolov5n6.pt --img 1280  # 在 1280×1280 分辨率下训练的 Nano P6 模型（mAP@0.5:0.95 为 34.0）\n> ```\n> \n> \n> ## 重要更新\n> \n> - **Roboflow 集成 ⭐ 新增**：通过我们的新集成，可以直接在任何 Roboflow 数据集上训练 YOLOv5 模型！（由 @Jacobsolawetz 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F4975）\n> \n> - **YOLOv5n “Nano” 模型 ⭐ 新增**：推出了一种比 YOLOv5s（750 万参数）更小的 YOLOv5n 模型（190 万参数），导出后的 INT8 模型大小仅为 2.1 MB，非常适合超轻量级的移动设备应用。（由 @glenn-jocher 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fdiscussions\u002F5027）\n> - **TensorFlow 和 Keras 导出**：现在可以使用 `python export.py --include saved_model pb tflite tfjs` 完整地导出 TensorFlow、Keras、TFLite 和 TF.js 模型。（由 @zldrobit 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F1127）\n> - **OpenCV DNN**：YOLOv5 ONNX 模型现与 OpenCV DNN 和 ONNX Runtime 兼容。（由 @SamFC10 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F4833）\n> - **模型架构**：更新后的骨干网络体积更小、速度更快且精度更高。\n>   - 用等效的 `Conv(k=6, s=2, p=2)` 层替代 `Focus()` 层，以提升模型的可导出性。（由 @thomasbi1 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F4825）\n>   - 引入新的 `SPPF()` 替代 `SPP()` 层，以减少运算次数。（由 @glenn-jocher 提出的 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F4420）\n>   - 将 P3 骨干层中的 `C3()` 重复次数由 9 次减少至 6 次，从而提升推理速度。\n>   - 将 `SPPF()` 放置在骨干网络的末端。\n>   - 在最后一个 `C3()` 骨干层中重新引入捷径连接。\n>   - 更新了 [超参数](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fblob\u002Fmaster\u002Fdata\u002Fhyps\u002Fhyp.scratch-high.yaml)，增加了 mixup 和 copy-paste 增强。\n> \n> \n> ## 新结果\n> \n> \u003Cp align=\"lef","2021-11-14T21:26:56",{"id":171,"version":172,"summary_zh":173,"released_at":174},239322,"v9.5.0","本次 YOLOv3 版本发布，将 **2021年4月11日发布的 YOLOv5 v5.0** 中的最新更新合并到了本仓库。这是 Ultralytics 日常维护的一部分，会在每次 YOLOv5 的重大版本发布时进行。YOLOv5 v5.0 版本的完整详情如下所示。\n\n\u003Cp align=\"left\">\u003Cimg width=\"800\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F26833433\u002F114424655-a0dc1e00-9bb8-11eb-9a2e-cbe21803f05c.png\">\u003C\u002Fp>\n\n\nhttps:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Freleases\u002Ftag\u002Fv5.0\n> 本次发布实现了 **YOLOv5-P6** 模型，并对 **YOLOv5-P5** 模型进行了重新训练：\n> \n> * **YOLOv5-P5** 模型（架构与 v4.0 版本相同）：3 个输出层 P3、P4、P5，步长分别为 8、16、32，在 `--img 640` 下训练。\n> * **YOLOv5-P6** 模型：**4 个输出层** P3、P4、P5、P6，步长分别为 8、16、32、64，在 `--img 1280` 下训练。\n> \n> 使用示例：\n> ```bash\n> # 命令行\n> python detect.py --weights yolov5m.pt --img 640  # P5 模型，输入图像大小为 640\n> python detect.py --weights yolov5m6.pt --img 640  # P6 模型，输入图像大小为 640\n> python detect.py --weights yolov5m6.pt --img 1280  # P6 模型，输入图像大小为 1280\n> ```\n> ```python\n> # PyTorch Hub\n> model = torch.hub.load('ultralytics\u002Fyolov5', 'yolov5m6')  # P6 模型\n> results = model(imgs, size=1280)  # 在 1280 分辨率下进行推理\n> ```\n> \n> 现在，所有尺寸的 YOLOv5 模型（s\u002Fm\u002Fl\u002Fx）都同时提供了 P5 和 P6 架构：\n> \n> ```bash\n> python detect.py --weights yolov5s.pt  # P5 模型\n>                            yolov5m.pt\n>                            yolov5l.pt\n>                            yolov5x.pt\n>                            yolov5s6.pt  # P6 模型\n>                            yolov5m6.pt\n>                            yolov5l6.pt\n>                            yolov5x6.pt\n> ```\n> \n> ## 重要更新\n> \n> - **YouTube 推理**：直接从 YouTube 视频中进行推理，例如 `python detect.py --source 'https:\u002F\u002Fyoutu.be\u002FNUsoVlDFqZg'`。支持直播视频和普通视频。（https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F2752）\n> - **AWS 集成**：新增 Amazon AWS 集成，并发布了新的 [AWS 快速入门指南](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fwiki\u002FAWS-Quickstart)，用于在 EC2 实例上轻松训练 YOLOv5 模型，以及恢复被中断的 Spot 实例。（https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F2185）\n> - **Supervise.ly 集成**：与 [Supervisely 生态系统](https:\u002F\u002Fgithub.com\u002Fsupervisely-ecosystem)的新集成，支持使用 Supervise.ly 训练和部署 YOLOv5 模型。（https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F2518）\n> - **改进的 W&B 集成**：允许将数据集和模型直接保存到 [Weights & Biases](https:\u002F\u002Fwandb.ai\u002Fsite?utm_campaign=repo_yolo_readme)。这不仅支持从 W&B 直接恢复训练（对于 Colab 等临时环境非常有用），还提供了更强大的可视化工具。详情请参阅 @AyushExel 的这篇[博客](https:\u002F\u002Fwandb.ai\u002Fcayush\u002Fyolov5-dsviz-demo\u002Freports\u002FObject-Detection-with-YOLO-and-Weights-Biases--Vmlldzo0NTgzMjk)。（https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fpull\u002F2125）\n> ","2021-04-12T16:01:32",{"id":176,"version":177,"summary_zh":178,"released_at":179},239323,"v9.1","本次发布是一个小版本更新，将 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5 中的大量错误修复、功能新增和性能改进应用到了本仓库。模型与 v9.0 版本保持一致。\n\n## 分支说明\n\n[ultralytics\u002Fyolov3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3) 仓库现已分为两个分支：\n* [主分支](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Ftree\u002Fmaster)：向前兼容所有 [YOLOv5](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5) 模型和方法（**推荐**）。\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3  # 主分支（默认）\n```\n* [归档分支](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Ftree\u002Farchive)：向后兼容原始 [darknet](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002F) *.cfg 模型（⚠️ 已不再维护）。\n```bash\n$ git clone -b archive https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3  # 归档分支\n```\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F26833433\u002F100382066-c8bc5200-301a-11eb-907b-799a0301595e.png\" width=\"800\">\n\n** GPU速度测量的是在 V100 GPU 上以批量大小 32 运行时，对 5000 张 COCO val2017 图像进行端到端处理的平均用时，包括图像预处理、PyTorch FP16 推理、后处理和 NMS。EfficientDet 数据来自 [google\u002Fautoml](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fautoml)，批量大小为 8。\n\n\n## 预训练检查点\n\n| 模型 | AP\u003Csup>val\u003C\u002Fsup> | AP\u003Csup>test\u003C\u002Fsup> | AP\u003Csub>50\u003C\u002Fsub> | GPU速度 | GPU帧率 || 参数量 | FLOPS |\n|---------- |------ |------ |------ | -------- | ------| ------ |------  |  :------: |\n| [YOLOv3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases)      | 43.3   | 43.3     | 63.0     | 4.8ms     | 208     || 61.9M  | 156.4B\n| [YOLOv3-SPP](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases)  | **44.3**   | **44.3**     | **64.6**     | 4.9ms     | 204     || 63.0M  | 157.0B\n| [YOLOv3-tiny](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases) | 17.6     | 34.9     | 34.9     | **1.7ms**     | **588**     || 8.9M  | 13.3B\n\n** AP\u003Csup>test\u003C\u002Fsup> 表示 COCO [test-dev2017](http:\u002F\u002Fcocodataset.org\u002F#upload) 服务器结果，其他所有 AP 结果均指 val2017 的准确率。  \n** 所有 AP 数值均为单模型单尺度，未使用集成或 TTA。可通过 `python test.py --data coco.yaml --img 640 --conf 0.001 --iou 0.65` 复现 mAP。  \n** GPU速度是在 GCP 的 [n1-standard-16](https:\u002F\u002Fcloud.google.com\u002Fcompute\u002Fdocs\u002Fmachine-types#n1_standard_machine_types) V100 实例上，对 5000 张 COCO val2017 图像进行平均计算得出的，包含图像预处理、FP16 推理、后处理和 NMS。NMS 时间约为 1–2 毫秒\u002F张。可通过 `python test.py --data coco.yaml --img 640 --conf 0.25 --iou 0.45` 复现速度。  \n** 所有检查点均采用默认设置和超参数训练至 300 个 epoch，未使用自动增强。 \n** 测试时增强（[TTA](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F303)）会在 3 种图像尺寸下运行。可通过 `python test.py --data coco.yaml --img 832 --iou 0.65 --aug` 复现 TTA。","2021-01-13T07:10:23",{"id":181,"version":182,"summary_zh":183,"released_at":184},239324,"v9.0","本次发布是对 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3 仓库的重大更新，实现了与 YOLOv5 的向前兼容，并将来自 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5 的大量错误修复、功能新增和性能改进合并到了本仓库中。\n\n## 分支说明\n\n[ultralytics\u002Fyolov3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3) 仓库现已分为两个分支：\n* [主分支](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Ftree\u002Fmaster)：与所有 [YOLOv5](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5) 模型及方法向前兼容（**推荐**）。\n```bash\n$ git clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3  # 主分支（默认）\n```\n* [归档分支](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Ftree\u002Farchive)：与原始 [darknet](https:\u002F\u002Fpjreddie.com\u002Fdarknet\u002F) *.cfg 模型向后兼容（⚠️ 已不再维护）。\n```bash\n$ git clone -b archive https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3  # 归档分支\n```\n\n\u003Cimg src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F26833433\u002F100382066-c8bc5200-301a-11eb-907b-799a0301595e.png\" width=\"800\">\n\n** GPU 速度测量的是在 V100 GPU 上以 32 的批量大小运行时，对 5000 张 COCO val2017 图像进行端到端处理的平均用时，包括图像预处理、PyTorch FP16 推理、后处理以及 NMS。EfficientDet 数据来自 [google\u002Fautoml](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fautoml)，批量大小为 8。\n\n\n## 预训练检查点\n\n| 模型 | AP\u003Csup>val\u003C\u002Fsup> | AP\u003Csup>test\u003C\u002Fsup> | AP\u003Csub>50\u003C\u002Fsub> | GPU 速度 | GPU 帧率 || 参数量 | FLOPS |\n|---------- |------ |------ |------ | -------- | ------| ------ |------  |  :------: |\n| [YOLOv3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases)      | 43.3   | 43.3     | 63.0     | 4.8ms     | 208     || 61.9M  | 156.4B\n| [YOLOv3-SPP](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases)  | **44.3**   | **44.3**     | **64.6**     | 4.9ms     | 204     || 63.0M  | 157.0B\n| [YOLOv3-tiny](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Freleases) | 17.6     | 34.9     | 34.9     | **1.7ms**     | **588**     || 8.9M  | 13.3B\n\n** AP\u003Csup>test\u003C\u002Fsup> 表示 COCO [test-dev2017](http:\u002F\u002Fcocodataset.org\u002F#upload) 服务器的结果，其他所有 AP 结果均指 val2017 的准确率。  \n** 所有 AP 数值均为单模型单尺度结果，未使用集成或 TTA。可通过 `python test.py --data coco.yaml --img 640 --conf 0.001 --iou 0.65` 重现 mAP。  \n** GPU 速度是在 GCP 的 [n1-standard-16](https:\u002F\u002Fcloud.google.com\u002Fcompute\u002Fdocs\u002Fmachine-types#n1_standard_machine_types) V100 实例上，对 5000 张 COCO val2017 图像进行平均计算得出的，包含图像预处理、FP16 推理、后处理和 NMS。NMS 时间约为 1–2 毫秒\u002F张。可通过 `python test.py --data coco.yaml --img 640 --conf 0.25 --iou 0.45` 重现该速度。  \n** 所有检查点均采用默认设置和超参数训练至 300 个 epoch（未使用自动增强）。  \n** 测试时增强（[TTA](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov5\u002Fissues\u002F303)）以 3 种图像尺寸运行。可通过 *重现 TTA*","2020-12-06T17:04:17",{"id":186,"version":187,"summary_zh":188,"released_at":189},239325,"v8","这是 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3 仓库的暗网兼容版本的最终发布。此版本向后兼容用于模型配置的暗网 *.cfg 文件。\n\n所有可用的 PyTorch (`*.pt`) 和暗网 (`*.weights`) 模型\u002F骨干网络均已附在下方的“Assets”部分中。\n\n\n## 重大变更\n本版本没有重大变更。\n\n## 错误修复\n- 各种\n\n## 新增功能\n- 各种\n\n## 速度\n\nhttps:\u002F\u002Fcloud.google.com\u002Fdeep-learning-vm\u002F  \n**机器类型:** 抢占式 [n1-standard-8](https:\u002F\u002Fcloud.google.com\u002Fcompute\u002Fdocs\u002Fmachine-types)（8 vCPU，30 GB 内存）   \n**CPU 平台:** Intel Skylake  \n**GPU:** K80（$0.14\u002F小时）、T4（$0.11\u002F小时）、V100（$0.74\u002F小时）CUDA 配合 [Nvidia Apex](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fapex) FP16\u002F32    \n**HDD:** 300 GB SSD\n**数据集:** COCO train 2014（117,263 张图像）  \n**模型:** `yolov3-spp.cfg`  \n**命令:**  `python3 train.py --data coco2017.data --img 416 --batch 32`\n\nGPU | 数量 | `--batch-size` | 图像\u002F秒 | 每轮时间 | 每轮成本\n--- |--- |--- |--- |--- |---\nK80    |1| 32 x 2 | 11  | 175 分钟  | $0.41\nT4     |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 41\u003Cbr>61 | 48 分钟\u003Cbr>32 分钟 | $0.09\u003Cbr>$0.11\nV100   |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 122\u003Cbr>**178** | 16 分钟\u003Cbr>**11 分钟** | **$0.21**\u003Cbr>$0.28\n2080Ti |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 81\u003Cbr>140 | 24 分钟\u003Cbr>14 分钟 | -\u003Cbr>-\n\n## mAP\n\n\u003Ci>\u003C\u002Fi>                      |尺寸 |COCO mAP\u003Cbr>@0.5...0.95 |COCO mAP\u003Cbr>@0.5 \n---                          | ---         | ---         | ---\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |320 |14.0\u003Cbr>28.7\u003Cbr>30.5\u003Cbr>**37.7** |29.1\u003Cbr>51.8\u003Cbr>52.3\u003Cbr>**56.8**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |416 |16.0\u003Cbr>31.2\u003Cbr>33.9\u003Cbr>**41.2** |33.0\u003Cbr>55.4\u003Cbr>56.9\u003Cbr>**60.6**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |512 |16.6\u003Cbr>32.7\u003Cbr>35.6\u003Cbr>**42.6** |34.9\u003Cbr>57.7\u003Cbr>59.5\u003Cbr>**62.4**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |608 |16.6\u003Cbr>33.1\u003Cbr>37.0\u003Cbr>**43.1** |35.4\u003Cbr>58.2\u003Cbr>60.7\u003Cbr>**62.8**\n\n## 待办事项 \n- 无","2020-11-18T23:20:12",{"id":191,"version":192,"summary_zh":193,"released_at":194},239326,"v7","此版本需要 PyTorch >= v1.4 才能正常运行。请从 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases 安装最新版本。\n\n## 破坏性变更\n本版本没有破坏性变更。\n\n## 错误修复\n- 各种修复\n\n## 新增功能\n- 改进了训练和测试时真值与预测结果的可视化绘图。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fpull\u002F1114\n- 提升了数据增强的速度。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fpull\u002F1110\n- 改进了 TensorBoard 的集成。\n- 根据数据集中的类别数量自动更新超参数。\n- 在 test.py 和 detect.py 中新增了推理时的数据增强选项，可通过 `--augment` 参数启用。\n- 在 train.py 中支持矩形训练，使用 `--rect` 参数。\n\n## 速度测试\n\nhttps:\u002F\u002Fcloud.google.com\u002Fdeep-learning-vm\u002F  \n**机器类型:** 抢占式 [n1-standard-8](https:\u002F\u002Fcloud.google.com\u002Fcompute\u002Fdocs\u002Fmachine-types)（8 vCPU，30 GB 内存）  \n**CPU 平台:** Intel Skylake  \n**GPU:** K80（$0.14\u002F小时）、T4（$0.11\u002F小时）、V100（$0.74\u002F小时），支持 CUDA，并使用 [Nvidia Apex](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fapex) 进行 FP16\u002F32 精度计算  \n**硬盘:** 300 GB SSD  \n**数据集:** COCO train 2014（117,263 张图像）  \n**模型:** `yolov3-spp.cfg`  \n**命令:** `python3 train.py --data coco2017.data --img 416 --batch 32`\n\nGPU | 数量 | `--batch-size` | 图像\u002F秒 | 每轮时间 | 每轮成本\n--- |--- |--- |--- |--- |---\nK80    |1| 32 x 2 | 11  | 175 分钟  | $0.41\nT4     |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 41\u003Cbr>61 | 48 分钟\u003Cbr>32 分钟 | $0.09\u003Cbr>$0.11\nV100   |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 122\u003Cbr>**178** | 16 分钟\u003Cbr>**11 分钟** | **$0.21**\u003Cbr>$0.28\n2080Ti |1\u003Cbr>2| 32 x 2\u003Cbr>64 x 1 | 81\u003Cbr>140 | 24 分钟\u003Cbr>14 分钟 | -\u003Cbr>-\n\n## mAP 测试结果\n\n\u003Ci>\u003C\u002Fi>                      |尺寸 |COCO mAP\u003Cbr>@0.5...0.95 |COCO mAP\u003Cbr>@0.5 \n---                          | ---         | ---         | ---\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |320 |14.0\u003Cbr>28.7\u003Cbr>30.5\u003Cbr>**37.7** |29.1\u003Cbr>51.8\u003Cbr>52.3\u003Cbr>**56.8**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |416 |16.0\u003Cbr>31.2\u003Cbr>33.9\u003Cbr>**41.2** |33.0\u003Cbr>55.4\u003Cbr>56.9\u003Cbr>**60.6**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |512 |16.6\u003Cbr>32.7\u003Cbr>35.6\u003Cbr>**42.6** |34.9\u003Cbr>57.7\u003Cbr>59.5\u003Cbr>**62.4**\nYOLOv3-tiny\u003Cbr>YOLOv3\u003Cbr>YOLOv3-SPP\u003Cbr>**[YOLOv3-SPP-ultralytics](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1UcR-zVoMs7DH5dj3N1bswkiQTA4dmKF4)** |608 |16.6\u003Cbr>33.1\u003Cbr>37.0\u003Cbr>**43.1** |35.4\u003Cbr>58.2\u003Cbr>60.7\u003Cbr>**62.8**\n\n## 待办事项（欢迎贡献和 PR！）\n- 添加 iOS 应用程序对相机胶卷中的照片和视频进行推理的功能，以及“灵活”或至少是矩形推理的支持。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F224","2020-05-04T19:24:57",{"id":196,"version":197,"summary_zh":198,"released_at":199},239327,"v6","本版本需要 PyTorch >= v1.0.0 才能正常运行。请从 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases 安装最新版本。\n\n## 重大变更\n本版本没有重大变更。\n\n## Bug 修复\n- NMS 现在会过滤掉导致其在某些边缘情况下卡死的 NaN 和 Inf 值。\n\n## 新增功能\n- 矩形推理。detect.py 现在会自动使用矩形推理处理图像、视频和摄像头流，并通过留白填充至最小可行的 32 的倍数尺寸。这使得高清视频的推理速度最高可提升 40%：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F232\n- Conv2d + Batchnorm2d 层融合：detect.py 现在会在运行推理前自动将模型中的 Conv2d 和 Batchnorm2d 层进行融合。这能使推理速度提升约 5–10%。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F224\n- train.py 中的所有超参数现已参数化并归类分组。同时，train.py 中还新增了遗传超参数进化代码。\n\n## 性能\n\nhttps:\u002F\u002Fcloud.google.com\u002Fdeep-learning-vm\u002F  \n**机器类型：** n1-standard-8（8 个 vCPU，30 GB 内存）  \n**CPU 平台：** Intel Skylake  \n**GPU：** K80（$0.198\u002F小时）、P4（$0.279\u002F小时）、T4（$0.353\u002F小时）、P100（$0.493\u002F小时）、V100（$0.803\u002F小时）  \n**硬盘：** 100 GB SSD  \n**数据集：** COCO train 2014  \n\n| GPU | `batch_size` | 每批时间 | 每轮时间 | 每轮成本 |\n| --- | --- | --- | --- | --- |\n| \u003Ci>\u003C\u002Fi> | （图片） | （秒\u002F批） |  |  |\n| 1 K80 | 16 | 1.43s | 175 分钟 | $0.58 |\n| 1 P4 | 8 | 0.51s | 125 分钟 | $0.58 |\n| 1 T4 | 16 | 0.78s | 94 分钟 | $0.55 |\n| 1 P100 | 16 | 0.39s | 48 分钟 | $0.39 |\n| 2 P100 | 32 | 0.48s | 29 分钟 | $0.47 |\n| 4 P100 | 64 | 0.65s | 20 分钟 | $0.65 |\n| 1 V100 | 16 | 0.25s | 31 分钟 | $0.41 |\n| 2 V100 | 32 | 0.29s | 18 分钟 | $0.48 |\n| 4 V100 | 64 | 0.41s | 13 分钟 | $0.70 |\n| 8 V100 | 128 | 0.49s | 7 分钟 | $0.80 |\n\n## 待办事项（欢迎贡献和 PR！）\n- 在 iOS 应用中添加对相机胶卷中照片和视频的推理功能，以及“灵活”或至少是矩形推理功能。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F224\n- 添加参数以在“darknet”和“power”两种方法之间切换。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F168\n- 使用 YAPF 进行代码格式化检查（包括可能按照 PEP8 79 字符行长标准进行换行）。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F88\n- 修复 mAP bug：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F222\n- 矩形训练。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F232\n- 遗传超参数进化。这里亟需帮助！如果您有可用的硬件资源，请联系我们，我们需要您的支持来扩展超参数搜索范围，以造福所有人！","2019-04-24T15:52:17",{"id":201,"version":202,"summary_zh":203,"released_at":204},239328,"v5","本版本需要 PyTorch >= v1.0.0 才能正常运行。请从 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases 安装最新版本。\n\n## 重大变更\n本版本没有重大变更。\n\n## 错误修复\n- 无\n\n## 新增功能\n- 视频推理。detect.py 现在可以自动处理图像和视频。图像和视频的结果会分别以各自格式保存（视频推理会保存新的视频文件）。\n- 迁移学习现在无论 YOLO 层的大小如何，都会自动运行 https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F152。\n\n## 性能\n\nhttps:\u002F\u002Fcloud.google.com\u002Fdeep-learning-vm\u002F  \n**机器类型:** n1-standard-8 (8 vCPUs, 30 GB 内存)  \n**CPU 平台:** Intel Skylake  \n**GPU:** K80 ($0.198\u002F小时)、P4 ($0.279\u002F小时)、T4 ($0.353\u002F小时)、P100 ($0.493\u002F小时)、V100 ($0.803\u002F小时)  \n**硬盘:** 100 GB SSD  \n**数据集:** COCO train 2014 \n\nGPU | `batch_size` | 每批时间 | 每轮时间 | 每轮成本\n--- |---| --- | --- | --- \n\u003Ci>\u003C\u002Fi> |  (图片)  | (秒\u002F批) |  |\n1 K80 | 16 | 1.43秒  | 175分钟  | $0.58\n1 P4 | 8 | 0.51秒  | 125分钟  | $0.58\n1 T4 | 16 | 0.78秒  | 94分钟  | $0.55\n1 P100 | 16 | 0.39秒  | 48分钟  | $0.39\n2 P100 | 32 | 0.48秒 | 29分钟 | $0.47\n4 P100 | 64 | 0.65秒 | 20分钟 | $0.65\n1 V100 | 16 | 0.25秒  | 31分钟 | $0.41\n2 V100 | 32 | 0.29秒 | 18分钟 | $0.48\n4 V100 | 64 | 0.41秒 | 13分钟 | $0.70\n8 V100 | 128 | 0.49秒 | 7分钟 | $0.80\n\n## 待办事项（欢迎贡献和 PR！）\n- 在 iOS 应用中添加对相机胶卷中照片和视频的推理功能。\n- 添加参数以在 'darknet' 和 'power' 方法之间切换。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F168\n- 使用 YAPF 进行代码风格检查（包括可能按照 PEP8 79 字符行长标准进行换行）。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F88\n- 对损失函数常数进行超参数搜索。","2019-04-03T10:38:11",{"id":206,"version":207,"summary_zh":208,"released_at":209},239329,"v4","此版本需要 PyTorch >= v1.0.0 才能正常运行。请从 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases 安装最新版本。\n\n## 重大变更\n本版本没有重大变更。\n\n## 错误修复\n- 多 GPU 支持现已正常工作：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F21。\n- `test.py` 现在原生输出的结果与 pycocotools 在大多数情况下相差不超过 1%：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F2。\n\n## 新增功能\n- 数据加载器现为多线程：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F141。\n- 通过更智能的 NMS，mAP 得到提升。在所有图像尺寸 320–608 下，mAP 均略高于 Darknet 的 mAP。\n\n\u003Ci>\u003C\u002Fi> | [ultralytics\u002Fyolov3](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3) 使用 `pycocotools` | [darknet\u002Fyolov3](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767)\n--- | --- | ---\nYOLOv3-320 | 51.8 | 51.5  \nYOLOv3-416 | 55.4 | 55.3  \nYOLOv3-608 | 58.2 | 57.9  \n\n``` bash\nsudo rm -rf yolov3 && git clone https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\n# bash yolov3\u002Fdata\u002Fget_coco_dataset.sh\nsudo rm -rf cocoapi && git clone https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi && cd cocoapi\u002FPythonAPI && make && cd ..\u002F.. && cp -r cocoapi\u002FPythonAPI\u002Fpycocotools yolov3\ncd yolov3\n\npython3 test.py --save-json --conf-thres 0.001 --img-size 416\nNamespace(batch_size=32, cfg='cfg\u002Fyolov3.cfg', conf_thres=0.001, data_cfg='cfg\u002Fcoco.data', img_size=416, iou_thres=0.5, nms_thres=0.5, save_json=True, weights='weights\u002Fyolov3.weights')\nUsing cuda _CudaDeviceProperties(name='Tesla V100-SXM2-16GB', major=7, minor=0, total_memory=16130MB, multi_processor_count=80)\n      Image      Total          P          R        mAP\nCalculating mAP: 100%|█████████████████████████████████| 157\u002F157 [08:34\u003C00:00,  2.53s\u002Fit]\n       5000       5000     0.0896      0.756      0.555\n Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.312\n Average Precision  (AP) @[ IoU=0.50      | area=   all | maxDets=100 ] = 0.554\n Average Precision  (AP) @[ IoU=0.75      | area=   all | maxDets=100 ] = 0.317\n Average Precision  (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.145\n Average Precision  (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.343\n Average Precision  (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.452\n Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.268\n Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.411\n Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.435\n Average Recall     (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.244\n Average Recall     (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.477\n Average Recall     (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.587\n \npython3 test.py --save-json --conf-thres 0.001 --img-size 608 --batch-size 16\nNamespace(batch_size=16, cfg='cfg\u002Fyolov3.cfg', conf_thres=0.001, data_cfg='cfg\u002Fcoco.data', img_size=608, iou_thres=0.5, ","2019-03-31T18:36:03",{"id":211,"version":212,"summary_zh":213,"released_at":214},239330,"v3.0","本版本需要 PyTorch >= v1.0.0 才能正常运行。请从 https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases 安装最新版本。\n\n## 重大变更\n本版本无重大变更。\n\n## Bug 修复\n- 多 GPU 支持：https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F21。\n\n## 新增功能\n- 创建了以下教程：\n  - https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fwiki\u002FExample:-Transfer-Learning\n  - https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fwiki\u002FExample:-Train-Single-Image\n  - https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fwiki\u002FExample:-Train-Single-Class\n  - https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fwiki\u002FTrain-Custom-Data\n- `test.py` 现在可通过 `--save-json` 标志可选地输出与 pycocotools 兼容的 JSON 文件，并使用 pycocotools 计算官方 COCO mAP。输出已通过 https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02767 中的官方 Darknet 结果进行验证。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F2#issuecomment-434751531。\n\n\u003Ci>\u003C\u002Fi> | ultralytics\u002Fyolov3 mAP | darknet mAP\n--- | ---| ---   \nYOLOv3-320 | 51.3 | 51.5  \nYOLOv3-416 | 54.9 | 55.3  \nYOLOv3-608 | 57.9 | 57.9  \n\n## 性能\n- 通过代码优化，训练速度提升 10%。未来可通过对数据加载器进行多线程化进一步提升性能（已在待办事项列表中）。\n\nhttps:\u002F\u002Fcloud.google.com\u002Fdeep-learning-vm\u002F  \n**机器类型:** n1-highmem-4（4 个 vCPU，26 GB 内存）  \n**CPU 平台:** Intel Skylake  \n**GPU:** 1–4 块 NVIDIA Tesla P100  \n**HDD:** 100 GB SSD  \n\nGPU | `batch_size` | 速度 | COCO epoch\n--- |---| --- | --- \n(P100)   |  (图像)  | (秒\u002F批次) | (分钟\u002Fepoch)\n1 | 16 | 0.54s  | 66分钟\n2 | 32 | 0.99s | 61分钟\n4 | 64 | 1.61s | 49分钟\n\n## 待办事项（欢迎提供帮助和 PR！）\n- 数据加载器应支持多线程。目前单线程加载每批次约需 230 毫秒，占总批次时间 550 毫秒的 40%，导致 GPU 利用率偏低。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F141\n- `test.py` 应原生输出与 pycocotools 相同的结果。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F2\n- 视频推理。将视频文件传递给 `detect.py` 进行检测。\n- YAPF 代码格式化（包括可能调整为 PEP8 79 字符\u002F行的标准）。https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F88。\n- 在相机胶卷中添加 iOS 应用对照片和视频的推理功能。\n- 添加参数以在“darknet”和“power”两种方法之间切换。","2019-03-20T23:19:17",{"id":216,"version":217,"summary_zh":218,"released_at":219},239331,"v2.0","This release requires PyTorch >= v1.0.0 to function properly. Please install the latest version from https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases\r\n\r\n## Breaking Changes\r\nThere are no breaking changes in this release.\r\n\r\n## Bug Fixes\r\n- N\u002FA\r\n\r\n## Added Functionality\r\n- MultiScale Training https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F52: `train.py --multi-scale` will train each batch at a randomly selected image size from 320 to 608 pixels. \r\n- Webcam Inference https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F89: set `webcam=True` in detect.py.\r\n- Video Inference. Pass a video file to detect.py.\r\n- YOLOv3-tiny support https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F51: `detect.py --cfg cfg\u002Fyolov3-tiny.cfg --weights weights\u002Fyolov3-tiny.pt`\r\n- YOLOv3-spp support https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F16. `detect.py --cfg cfg\u002Fyolov3-spp.cfg --weights weights\u002Fyolov3-spp.pt`\r\n- ONNX Export https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F82: `ONNX_EXPORT = True` in models.py.\r\n\r\n## Performance\r\n- 20% improvement in training speed via code optimization and removal of redundant `batch_report` functionality. All of this functionality, including computation of TP, FP, FN, Precision, Recall and mAP is now done in test.py after each training epoch.\r\n\r\n## TODO (help and PR's welcome!)\r\n- Multi GPU support https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F21.\r\n- YAPF linting (including possible wrap to PEP8 79 character-line standard) https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F88.\r\n- `test.py` should ideally output text files in the official COCO mAP format as well for external mAP computation https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fyolov3\u002Fissues\u002F2#issuecomment-434751531.","2019-02-11T17:54:06",{"id":221,"version":222,"summary_zh":223,"released_at":224},239332,"v1.0","This is an initial release. This repository currently works well for inference, with no known issues, with training still under development. Current COCO training mAP using this repo is 0.522 (at 416 x 416) after 62 epochs (using all default training settings, simply running `python3 train.py`). We are exploring ways to improve this further. \r\n\r\nLoss curves, Precision, Recall and mAP.\r\n![coco_training_loss](https:\u002F\u002Fuser-images.githubusercontent.com\u002F26833433\u002F49826061-4501f000-fd86-11e8-89e2-67e986cb2c2b.png)\r\n\r\n\r\n\r\nRecommend PyTorch >0 v1.0.0 to run this repo, which includes numerous bug fixes: https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Freleases\r\n\r\n# Inference\r\n- Inference appears to be working well, no known issues.\r\n\r\n# Training\r\n- Training is still under development. v1.0 benchmark is currently 0.522 mAP at epoch 62 at 416 image size without multi-scale training.\r\n- Balancing of the various loss terms seem to have great effect on the results, the current constants were tuned for training performance. Further study is needed here.\r\n- Augmentation may be a bit aggressive, experimentation is needed at reduced levels.\r\n- Training seems to suffer jumps in losses (visible in plots above). This may be associated with restarting a stopped training session, the cause is unclear, and some users seem not to experience this.\r\n\r\n# Validation\r\n- mAP calculation is now correct. mAP is calculated per class per image, and then averaged over images. Despite this, current mAP calculation in `test.py` seems to be slightly different than the official COCO mAP code.\r\n- It would be very useful for `test.py` to additionally output text files in the official COCO mAP format.\r\n\r\n# Multi-GPU \r\n- Multi GPU is currently not supported. PRs welcome!\r\n\r\n# Performance\r\n- Numerous commits addressed performance issues. Largest changes produced by not reporting P, R, TP, FP, FN each batch, and by reducing data movement between GPU and CPU. Current training speed is about 1 epoch per hour (16-image batches at 416 x 416 each take about 0.7 seconds) on a GCP P100.","2018-12-11T19:50:16"]