[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-iMoonLab--yolov13":3,"tool-iMoonLab--yolov13":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[27,13,15,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":24,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":105,"github_topics":106,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":146},10051,"iMoonLab\u002Fyolov13","yolov13","Implementation of \"YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception\".","YOLOv13 是一款新一代实时目标检测开源模型，旨在以极高的效率和精度识别图像或视频中的物体。它主要解决了传统检测器在复杂场景下难以捕捉高阶视觉关联、以及模型轻量化与高性能难以兼得的痛点，让设备在保持快速响应的同时，也能精准处理细节丰富的画面。\n\n这款工具非常适合计算机视觉开发者、算法研究人员以及需要部署边缘检测应用的工程师使用。无论是进行学术研究、模型训练，还是将检测功能集成到 Android 手机、华为昇腾或瑞芯微等硬件设备中，YOLOv13 都提供了完善的支持和便捷的接口。\n\n其核心技术亮点在于引入了“超图增强自适应视觉感知”机制。通过 HyperACE 模块，它能将特征像素视为超图节点，自适应地探索并聚合多尺度间的高阶关联信息；配合 FullPAD 全流水线聚合分发范式，实现了整个网络层级的细粒度信息流动与协同。此外，YOLOv13 采用基于深度可分离卷积的轻量化模块，在大幅减少参数量和计算成本的同时，依然保留了强大的感受野，提供了从 Nano 到 X-Large 多种尺寸变体，满足不同场景的性能需求。","\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_7ebe0622bbe8.png\" width=\"110\" style=\"margin-bottom: 0.2;\"\u002F>\n\u003Cp>\n\u003Ch2 align=\"center\">YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception\u003C\u002Fh2>\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-b31b1b?logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.17733)\n[![iMoonLab](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FiMoonLab-Homepage-blueviolet?logo=github&logoColor=white)](https:\u002F\u002Fgithub.com\u002FiMoonLab)\n[![HyperAI Demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHyperAI-Demo-red?logo=hyperledger&logoColor=white)](https:\u002F\u002Fapp.hyper.ai\u002Fconsole\u002Fpublic\u002Ftutorials\u002FNIC3cpjlw7u)\n  \n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_2868cd3c61bd.png\">\n\u003C\u002Fdiv>\n\n## Updates\n\n- 2025\u002F11\u002F18: [A Demo and Tutorial of YOLOv13](https:\u002F\u002Fapp.hyper.ai\u002Fconsole\u002Fpublic\u002Ftutorials\u002FNIC3cpjlw7u) is online. Thanks to [HyperAI](https:\u002F\u002Fhyper.ai\u002Fcn)!\n\n- 2025\u002F07\u002F19: [HuggingFace Spaces Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fatalaydenknalbant\u002FYolov13) is online. Thanks to [Atalay](https:\u002F\u002Fgithub.com\u002Fatalaydenknalbant)!\n\n- 2025\u002F06\u002F27: [Converting YOLOv13](https:\u002F\u002Fgithub.com\u002Fkaylorchen\u002Fai_framework_demo) to Huawei Ascend (OM), Rockchip (RKNN) formats is supported. Thanks to [kaylorchen](https:\u002F\u002Fgithub.com\u002Fkaylorchen)!\n\n- 2025\u002F06\u002F25: [FastAPI REST API](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Ftree\u002Fmain\u002Fexamples\u002FYOLOv13-FastAPI-REST-API) is supported. Thanks to [MohibShaikh](https:\u002F\u002Fgithub.com\u002FMohibShaikh)!\n\n- 2025\u002F06\u002F24: 🔥 **The paper of YOLOv13 can be downloaded**: [🔗 YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.17733).\n\n- 2025\u002F06\u002F24: [Android deployment](https:\u002F\u002Fgithub.com\u002Fmpj1234\u002Fncnn-yolov13-android\u002Ftree\u002Fmain) is supported. Thanks to [mpj1234](https:\u002F\u002Fgithub.com\u002Fmpj1234)!\n\n- 2025\u002F06\u002F22: YOLOv13 model weights released.\n\n- 2025\u002F06\u002F21: The code of YOLOv13 has been open-sourced.\n\n\n\n\u003Ch2>Table of Contents\u003C\u002Fh2>\n\n- [Technical Briefing 💡](#technical-briefing-)\n- [Main Results 🏆](#main-results-)\n  - [1. MS COCO Benchmark](#1-ms-coco-benchmark)\n  - [2. Visualizations](#2-visualizations)\n- [Quick Start 🚀](#quick-start-)\n  - [1. Install Dependencies](#1-install-dependencies)\n  - [2. Validation](#2-validation)\n  - [3. Training](#3-training)\n  - [4. Prediction](#4-prediction)\n  - [5. Export](#5-export)\n- [Related Projects 🔗](#related-projects-)\n- [Cite YOLOv13 📝](#cite-yolov13-)\n\n\n\n## Technical Briefing 💡\n\n\n**Introducing YOLOv13**—the next-generation real-time detector with cutting-edge performance and efficiency. YOLOv13 family includes four variants: Nano, Small, Large, and X-Large, powered by:\n\n* **HyperACE: Hypergraph-based Adaptive Correlation Enhancement**\n\n  * Treats pixels in multi-scale feature maps as hypergraph vertices.\n  * Adopts a learnable hyperedge construction module to adaptively exploring high-order correlations between vertices.\n  * A message passing module with linear complexity is leveraged to effectively aggregate multi-scale features with the guidance of high-order correlations to achieve effective visual perception of complex scenarios.\n\n* **FullPAD: Full-Pipeline Aggregation-and-Distribution Paradigm**\n\n  * Uses the HyperACE to aggregate multi-scale features of the backbone and extract high-order correlations in the hypergraph space.\n  * FullPAD paradigm further leverages three separate tunnels to forward these correlation-enhanced features to the connection between the backbone and neck, the internal layers of the neck, and the connection between the neck and head, respectively. In this way, YOLOv13 achieves fine‑grained information flow and representational synergy across the entire pipeline.\n  * FullPAD significantly improves gradient propagation and enhances the detection performance.\n\n* **Model Lightweighting via DS-based Blocks**\n\n  * Replaces large-kernel convolutions with blocks building based on depthwise separable convolutions (DSConv, DS-Bottleneck, DS-C3k, DS-C3k2), preserving receptive field while greatly reducing parameters and computation.\n  * Achieves faster inference speed without sacrificing accuracy.\n\n> YOLOv13 seamlessly combines hypergraph computation with end-to-end information collaboration to deliver a more accurate, robust, and efficient real-time detection solution.\n\n\n\n## Main Results 🏆\n\n### 1. MS COCO Benchmark\n\n**Table 1. Quantitative comparison with other state-of-the-art real-time object detectors on the MS COCO dataset**\n\n\n| **Method** | **FLOPs (G)** | **Parameters(M)** | **AP\u003Csub>50:95\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **AP\u003Csub>50\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **AP\u003Csub>75\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **Latency (ms)** |\n| :--- | :---: | :---: | :---: | :---: | :---: | :---: |\n| YOLOv6-3.0-N | 11.4 | 4.7 | 37.0 | 52.7 | – | 2.74 |\n| Gold-YOLO-N | 12.1 | 5.6 | 39.6 | 55.7 | – | 2.97 |\n| YOLOv8-N | 8.7 | 3.2 | 37.4 | 52.6 | 40.5 | 1.77 |\n| YOLOv10-N | 6.7 | 2.3 | 38.5 | 53.8 | 41.7 | 1.84 |\n| YOLO11-N | 6.5 | 2.6 | 38.6 | 54.2 | 41.6 | 1.53 |\n| YOLOv12-N | 6.5 | 2.6 | 40.1 | 56.0 | 43.4 | 1.83 |\n| **YOLOv13-N** | **6.4** | **2.5** | **41.6** | **57.8** | **45.1** | **1.97** |\n|           |           |            |                 |           | \n| YOLOv6-3.0-S | 45.3 | 18.5 | 44.3 | 61.2 | – | 3.42 |\n| Gold-YOLO-S | 46.0 | 21.5 | 45.4 | 62.5 | – | 3.82 |\n| YOLOv8-S | 28.6 | 11.2 | 45.0 | 61.8 | 48.7 | 2.33 |\n| RT-DETR-R18 | 60.0 | 20.0 | 46.5 | 63.8 | – | 4.58 |\n| RT-DETRv2-R18 | 60.0 | 20.0 | 47.9 | 64.9 | – | 4.58 |\n| YOLOv9-S | 26.4 | 7.1 | 46.8 | 63.4 | 50.7 | 3.44 |\n| YOLOv10-S | 21.6 | 7.2 | 46.3 | 63.0 | 50.4 | 2.53 |\n| YOLO11-S | 21.5 | 9.4 | 45.8 | 62.6 | 49.8 | 2.56 |\n| YOLOv12-S | 21.4 | 9.3 | 47.1 | 64.2 | 51.0 | 2.82 |\n| **YOLOv13-S** | **20.8** | **9.0** | **48.0** | **65.2** | **52.0** | **2.98** |\n|           |           |            |                 |           | \n| YOLOv6-3.0-L | 150.7 | 59.6 | 51.8 | 69.2 | – | 9.01 |\n| Gold-YOLO-L | 151.7 | 75.1 | 51.8 | 68.9 | – | 10.69 |\n| YOLOv8-L | 165.2 | 43.7 | 53.0 | 69.8 | 57.7 | 8.13 |\n| RT-DETR-R50 | 136.0 | 42.0 | 53.1 | 71.3 | – | 6.93 |\n| RT-DETRv2-R50 | 136.0 | 42.0 | 53.4 | 71.6 | – | 6.93 |\n| YOLOv9-C | 102.1 | 25.3 | 53.0 | 70.2 | 57.8 | 6.64 |\n| YOLOv10-L | 120.3 | 24.4 | 53.2 | 70.1 | 57.2 | 7.31 |\n| YOLO11-L | 86.9 | 25.3 | 52.3 | 69.2 | 55.7 | 6.23 |\n| YOLOv12-L | 88.9 | 26.4 | 53.0 | 70.0 | 57.9 | 7.10 |\n| **YOLOv13-L** | **88.4** | **27.6** | **53.4** | **70.9** | **58.1** | **8.63** |\n|           |           |            |                 |           | \n| YOLOv8-X | 257.8 | 68.2 | 54.0 | 71.0 | 58.8 | 12.83 |\n| RT-DETR-R101 | 259.0 | 76.0 | 54.3 | 72.7 | – | 13.51 |\n| RT-DETRv2-R101| 259.0 | 76.0 | 54.3 | 72.8 | – | 13.51 |\n| YOLOv10-X | 160.4 | 29.5 | 54.4 | 71.3 | 59.3 | 10.70 |\n| YOLO11-X | 194.9 | 56.9 | 54.2 | 71.0 | 59.1 | 11.35 |\n| YOLOv12-X | 199.0 | 59.1 | 54.4 | 71.1 | 59.3 | 12.46 |\n| **YOLOv13-X** | **199.2** | **64.0** | **54.8** | **72.0** | **59.8** | **14.67** |\n\n\n### 2. Visualizations\n\n\u003Cdiv>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_430cbf50f0eb.png\" width=\"100%\" height=\"100%\">\n\u003C\u002Fdiv>\n\n**Visualization examples of YOLOv10-N\u002FS, YOLO11-N\u002FS, YOLOv12-N\u002FS, and YOLOv13-N\u002FS.**\n\n\u003Cdiv>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_81e4645aeafc.png\" width=\"60%\" height=\"60%\">\n\u003C\u002Fdiv>\n\n**Representative visualization examples of adaptive hyperedges. The hyperedges in the first and second columns mainly focus on the high-order interactions among objects in the foreground. The third column mainly focuses on the high-order interactions between the background and part of the foreground. The visualization of these hyperedges can intuitively reflect the high-order visual associations modeled by the YOLOv13.**\n\n\n\n## Quick Start 🚀\n\n### 1. Install Dependencies\n\n```\nwget https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\u002Freleases\u002Fdownload\u002Fv2.7.3\u002Fflash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl\nconda create -n yolov13 python=3.11\nconda activate yolov13\npip install -r requirements.txt\npip install -e .\n```\nYOLOv13 suppports Flash Attention acceleration.\n\n### 2. Validation\n[`YOLOv13-N`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13n.pt)\n[`YOLOv13-S`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13s.pt)\n[`YOLOv13-L`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13l.pt)\n[`YOLOv13-X`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13x.pt)\n\nUse the following code to validate the YOLOv13 models on the COCO dataset. Make sure to replace `{n\u002Fs\u002Fl\u002Fx}` with the desired model scale (nano, small, plus, or ultra).\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # Replace with the desired model scale\n```\n\n### 3. Training\n\nUse the following code to train the YOLOv13 models. Make sure to replace `yolov13n.yaml` with the desired model configuration file path, and `coco.yaml` with your coco dataset configuration file.\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13n.yaml')\n\n# Train the model\nresults = model.train(\n  data='coco.yaml',\n  epochs=600, \n  batch=256, \n  imgsz=640,\n  scale=0.5,  # S:0.9; L:0.9; X:0.9\n  mosaic=1.0,\n  mixup=0.0,  # S:0.05; L:0.15; X:0.2\n  copy_paste=0.1,  # S:0.15; L:0.5; X:0.6\n  device=\"0,1,2,3\",\n)\n\n# Evaluate model performance on the validation set\nmetrics = model.val('coco.yaml')\n\n# Perform object detection on an image\nresults = model(\"path\u002Fto\u002Fyour\u002Fimage.jpg\")\nresults[0].show()\n\n```\n\n\n### 4. Prediction\nUse the following code to perform object detection using the YOLOv13 models. Make sure to replace `{n\u002Fs\u002Fl\u002Fx}` with the desired model scale.\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # Replace with the desired model scale\nmodel.predict()\n```\n\n### 5. Export\nUse the following code to export the YOLOv13 models to ONNX or TensorRT format. Make sure to replace `{n\u002Fs\u002Fl\u002Fx}` with the desired model scale.\n```python\nfrom ultralytics import YOLO\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # Replace with the desired model scale\nmodel.export(format=\"engine\", half=True)  # or format=\"onnx\"\n```\n\n## Related Projects 🔗\n\n- The code is based on [Ultralytics](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics). Thanks for their excellent work!\n- Other wonderful works about Hypergraph Computation:\n  - \"Hypergraph Neural Networks\": [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.09401)] [[code](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002FHGNN)]\n  - \"HGNN+: General Hypergraph Nerual Networks\": [[paper](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9795251)] [[code](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002FDeepHypergraph)]\n  - \"SoftHGNN: Soft Hypergraph Neural Networks for General Visual Recognition\": [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.15325)] [[code](https:\u002F\u002Fgithub.com\u002FMengqi-Lei\u002FSoftHGNN)]\n\n## Cite YOLOv13 📝\n```bibtex\n@article{yolov13,\n  title={YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception},\n  author={Lei, Mengqi and Li, Siqi and Wu, Yihong and et al.},\n  journal={arXiv preprint arXiv:2506.17733},\n  year={2025}\n}\n```\n\n","\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_7ebe0622bbe8.png\" width=\"110\" style=\"margin-bottom: 0.2;\"\u002F>\n\u003Cp>\n\u003Ch2 align=\"center\">YOLOv13：基于超图增强自适应视觉感知的实时目标检测\u003C\u002Fh2>\n\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-Paper-b31b1b?logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.17733)\n[![iMoonLab](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FiMoonLab-Homepage-blueviolet?logo=github&logoColor=white)](https:\u002F\u002Fgithub.com\u002FiMoonLab)\n[![HyperAI Demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHyperAI-Demo-red?logo=hyperledger&logoColor=white)](https:\u002F\u002Fapp.hyper.ai\u002Fconsole\u002Fpublic\u002Ftutorials\u002FNIC3cpjlw7u)\n  \n\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_2868cd3c61bd.png\">\n\u003C\u002Fdiv>\n\n## 更新\n\n- 2025年11月18日：[YOLOv13演示与教程](https:\u002F\u002Fapp.hyper.ai\u002Fconsole\u002Fpublic\u002Ftutorials\u002FNIC3cpjlw7u)已上线。感谢[HyperAI](https:\u002F\u002Fhyper.ai\u002Fcn)！\n\n- 2025年7月19日：[HuggingFace Spaces演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fatalaydenknalbant\u002FYolov13)已上线。感谢[Atalay](https:\u002F\u002Fgithub.com\u002Fatalaydenknalbant)！\n\n- 2025年6月27日：支持将YOLOv13转换为华为Ascend（OM）、Rockchip（RKNN）格式。感谢[kaylorchen](https:\u002F\u002Fgithub.com\u002Fkaylorchen)！\n\n- 2025年6月25日：支持[FastAPI REST API](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Ftree\u002Fmain\u002Fexamples\u002FYOLOv13-FastAPI-REST-API)。感谢[MohibShaikh](https:\u002F\u002Fgithub.com\u002FMohibShaikh)！\n\n- 2025年6月24日：🔥 **YOLOv13论文可下载**：[🔗 YOLOv13：基于超图增强自适应视觉感知的实时目标检测](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.17733)。\n\n- 2025年6月24日：支持[Android部署](https:\u002F\u002Fgithub.com\u002Fmpj1234\u002Fncnn-yolov13-android\u002Ftree\u002Fmain)。感谢[mpj1234](https:\u002F\u002Fgithub.com\u002Fmpj1234)！\n\n- 2025年6月22日：发布YOLOv13模型权重。\n\n- 2025年6月21日：YOLOv13代码已开源。\n\n\n\n\u003Ch2>目录\u003C\u002Fh2>\n\n- [技术简介 💡](#technical-briefing-)\n- [主要结果 🏆](#main-results-)\n  - [1. MS COCO基准测试](#1-ms-coco-benchmark)\n  - [2. 可视化](#2-visualizations)\n- [快速入门 🚀](#quick-start-)\n  - [1. 安装依赖](#1-install-dependencies)\n  - [2. 验证](#2-validation)\n  - [3. 训练](#3-training)\n  - [4. 预测](#4-prediction)\n  - [5. 导出](#5-export)\n- [相关项目 🔗](#related-projects-)\n- [引用YOLOv13 📝](#cite-yolov13-)\n\n\n\n## 技术简介 💡\n\n\n**隆重推出YOLOv13**——新一代实时检测器，具备前沿的性能与效率。YOLOv13家族包含Nano、Small、Large和X-Large四种变体，其核心技术包括：\n\n* **HyperACE：基于超图的自适应相关性增强**\n\n  * 将多尺度特征图中的像素视为超图顶点。\n  * 采用可学习的超边构建模块，自适应地探索顶点间的高阶相关性。\n  * 利用线性复杂度的消息传递模块，在高阶相关性的引导下有效聚合多尺度特征，从而实现对复杂场景的有效视觉感知。\n\n* **FullPAD：全管道聚合与分配范式**\n\n  * 使用HyperACE聚合骨干网络的多尺度特征，并在超图空间中提取高阶相关性。\n  * FullPAD范式进一步利用三条独立通道，分别将这些相关性增强的特征传递至骨干与颈部之间的连接处、颈部内部层以及颈部与头部之间的连接处。通过这种方式，YOLOv13实现了整个网络中细粒度的信息流动与表征协同。\n  * FullPAD显著改善了梯度传播，提升了检测性能。\n\n* **基于DS的模块实现模型轻量化**\n\n  * 用基于深度可分离卷积的模块（DSConv、DS-Bottleneck、DS-C3k、DS-C3k2）替代大卷积核卷积，在大幅减少参数和计算量的同时保持感受野不变。\n  * 在不牺牲精度的前提下，实现更快的推理速度。\n\n> YOLOv13无缝结合超图计算与端到端信息协作，提供更准确、鲁棒且高效的实时检测解决方案。\n\n\n\n## 主要结果 🏆\n\n### 1. MS COCO基准测试\n\n**表1. 与其他最先进实时目标检测器在MS COCO数据集上的定量对比**\n\n\n| **方法** | **FLOPs (G)** | **参数(M)** | **AP\u003Csub>50:95\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **AP\u003Csub>50\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **AP\u003Csub>75\u003C\u002Fsub>\u003Csup>val\u003C\u002Fsup>** | **延迟(ms)** |\n| :--- | :---: | :---: | :---: | :---: | :---: | :---: |\n| YOLOv6-3.0-N | 11.4 | 4.7 | 37.0 | 52.7 | – | 2.74 |\n| Gold-YOLO-N | 12.1 | 5.6 | 39.6 | 55.7 | – | 2.97 |\n| YOLOv8-N | 8.7 | 3.2 | 37.4 | 52.6 | 40.5 | 1.77 |\n| YOLOv10-N | 6.7 | 2.3 | 38.5 | 53.8 | 41.7 | 1.84 |\n| YOLO11-N | 6.5 | 2.6 | 38.6 | 54.2 | 41.6 | 1.53 |\n| YOLOv12-N | 6.5 | 2.6 | 40.1 | 56.0 | 43.4 | 1.83 |\n| **YOLOv13-N** | **6.4** | **2.5** | **41.6** | **57.8** | **45.1** | **1.97** |\n|           |           |            |                 |           | \n| YOLOv6-3.0-S | 45.3 | 18.5 | 44.3 | 61.2 | – | 3.42 |\n| Gold-YOLO-S | 46.0 | 21.5 | 45.4 | 62.5 | – | 3.82 |\n| YOLOv8-S | 28.6 | 11.2 | 45.0 | 61.8 | 48.7 | 2.33 |\n| RT-DETR-R18 | 60.0 | 20.0 | 46.5 | 63.8 | – | 4.58 |\n| RT-DETRv2-R18 | 60.0 | 20.0 | 47.9 | 64.9 | – | 4.58 |\n| YOLOv9-S | 26.4 | 7.1 | 46.8 | 63.4 | 50.7 | 3.44 |\n| YOLOv10-S | 21.6 | 7.2 | 46.3 | 63.0 | 50.4 | 2.53 |\n| YOLO11-S | 21.5 | 9.4 | 45.8 | 62.6 | 49.8 | 2.56 |\n| YOLOv12-S | 21.4 | 9.3 | 47.1 | 64.2 | 51.0 | 2.82 |\n| **YOLOv13-S** | **20.8** | **9.0** | **48.0** | **65.2** | **52.0** | **2.98** |\n|           |           |            |                 |           | \n| YOLOv6-3.0-L | 150.7 | 59.6 | 51.8 | 69.2 | – | 9.01 |\n| Gold-YOLO-L | 151.7 | 75.1 | 51.8 | 68.9 | – | 10.69 |\n| YOLOv8-L | 165.2 | 43.7 | 53.0 | 69.8 | 57.7 | 8.13 |\n| RT-DETR-R50 | 136.0 | 42.0 | 53.1 | 71.3 | – | 6.93 |\n| RT-DETRv2-R50 | 136.0 | 42.0 | 53.4 | 71.6 | – | 6.93 |\n| YOLOv9-C | 102.1 | 25.3 | 53.0 | 70.2 | 57.8 | 6.64 |\n| YOLOv10-L | 120.3 | 24.4 | 53.2 | 70.1 | 57.2 | 7.31 |\n| YOLO11-L | 86.9 | 25.3 | 52.3 | 69.2 | 55.7 | 6.23 |\n| YOLOv12-L | 88.9 | 26.4 | 53.0 | 70.0 | 57.9 | 7.10 |\n| **YOLOv13-L** | **88.4** | **27.6** | **53.4** | **70.9** | **58.1** | **8.63** |\n|           |           |            |                 |           | \n| YOLOv8-X | 257.8 | 68.2 | 54.0 | 71.0 | 58.8 | 12.83 |\n| RT-DETR-R101 | 259.0 | 76.0 | 54.3 | 72.7 | – | 13.51 |\n| RT-DETRv2-R101 | 259.0 | 76.0 | 54.3 | 72.8 | – | 13.51 |\n| YOLOv10-X | 160.4 | 29.5 | 54.4 | 71.3 | 59.3 | 10.70 |\n| YOLO11-X | 194.9 | 56.9 | 54.2 | 71.0 | 59.1 | 11.35 |\n| YOLOv12-X | 199.0 | 59.1 | 54.4 | 71.1 | 59.3 | 12.46 |\n| **YOLOv13-X** | **199.2** | **64.0** | **54.8** | **72.0** | **59.8** | **14.67** |\n\n### 2. 可视化\n\n\u003Cdiv>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_430cbf50f0eb.png\" width=\"100%\" height=\"100%\">\n\u003C\u002Fdiv>\n\n**YOLOv10-N\u002FS、YOLO11-N\u002FS、YOLOv12-N\u002FS 和 YOLOv13-N\u002FS 的可视化示例。**\n\n\u003Cdiv>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_readme_81e4645aeafc.png\" width=\"60%\" height=\"60%\">\n\u003C\u002Fdiv>\n\n**自适应超边的代表性可视化示例。第一列和第二列中的超边主要关注前景中物体之间的高阶交互；第三列则主要关注背景与部分前景之间的高阶交互。这些超边的可视化能够直观地反映出 YOLOv13 所建模的高阶视觉关联。**\n\n\n\n## 快速入门 🚀\n\n### 1. 安装依赖\n\n```\nwget https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\u002Freleases\u002Fdownload\u002Fv2.7.3\u002Fflash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl\nconda create -n yolov13 python=3.11\nconda activate yolov13\npip install -r requirements.txt\npip install -e .\n```\nYOLOv13 支持 Flash Attention 加速。\n\n### 2. 验证\n[`YOLOv13-N`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13n.pt)\n[`YOLOv13-S`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13s.pt)\n[`YOLOv13-L`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13l.pt)\n[`YOLOv13-X`](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases\u002Fdownload\u002Fyolov13\u002Fyolov13x.pt)\n\n使用以下代码在 COCO 数据集上验证 YOLOv13 模型。请确保将 `{n\u002Fs\u002Fl\u002Fx}` 替换为所需的模型规模（nano、small、plus 或 ultra）。\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # 替换为所需的模型规模\n```\n\n### 3. 训练\n\n使用以下代码训练 YOLOv13 模型。请确保将 `yolov13n.yaml` 替换为所需的模型配置文件路径，将 `coco.yaml` 替换为您的 COCO 数据集配置文件。\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13n.yaml')\n\n# 训练模型\nresults = model.train(\n  data='coco.yaml',\n  epochs=600, \n  batch=256, \n  imgsz=640,\n  scale=0.5,  # S:0.9; L:0.9; X:0.9\n  mosaic=1.0,\n  mixup=0.0,  # S:0.05; L:0.15; X:0.2\n  copy_paste=0.1,  # S:0.15; L:0.5; X:0.6\n  device=\"0,1,2,3\",\n)\n\n# 在验证集上评估模型性能\nmetrics = model.val('coco.yaml')\n\n# 对图像进行目标检测\nresults = model(\"path\u002Fto\u002Fyour\u002Fimage.jpg\")\nresults[0].show()\n\n```\n\n\n### 4. 预测\n使用以下代码利用 YOLOv13 模型进行目标检测。请确保将 `{n\u002Fs\u002Fl\u002Fx}` 替换为所需的模型规模。\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # 替换为所需的模型规模\nmodel.predict()\n```\n\n### 5. 导出\n使用以下代码将 YOLOv13 模型导出为 ONNX 或 TensorRT 格式。请确保将 `{n\u002Fs\u002Fl\u002Fx}` 替换为所需的模型规模。\n```python\nfrom ultralytics import YOLO\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')  # 替换为所需的模型规模\nmodel.export(format=\"engine\", half=True)  # 或 format=\"onnx\"\n```\n\n## 相关项目 🔗\n\n- 该代码基于 [Ultralytics](https:\u002F\u002Fgithub.com\u002Fultralytics\u002Fultralytics)。感谢他们的出色工作！\n- 其他关于超图计算的优秀工作：\n  - “超图神经网络”：[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.09401)] [[代码](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002FHGNN)]\n  - “HGNN+: 通用超图神经网络”：[[论文](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9795251)] [[代码](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002FDeepHypergraph)]\n  - “SoftHGNN：用于通用视觉识别的软超图神经网络”：[[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.15325)] [[代码](https:\u002F\u002Fgithub.com\u002FMengqi-Lei\u002FSoftHGNN)]\n\n## 引用 YOLOv13 📝\n```bibtex\n@article{yolov13,\n  title={YOLOv13：基于超图增强的自适应视觉感知的实时目标检测},\n  author={Lei, Mengqi and Li, Siqi and Wu, Yihong and et al.},\n  journal={arXiv preprint arXiv:2506.17733},\n  year={2025}\n}\n```","# YOLOv13 快速上手指南\n\nYOLOv13 是新一代实时目标检测模型，引入了基于超图的自适应相关性增强（HyperACE）和全流水线聚合分发范式（FullPAD），在保持极低延迟的同时显著提升了检测精度。本指南帮助开发者快速完成环境搭建与基础使用。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+)\n*   **Python 版本**: 3.11\n*   **GPU 驱动**: 支持 CUDA 的 NVIDIA 显卡（用于加速推理与训练）\n*   **核心依赖**:\n    *   PyTorch 2.2+\n    *   Flash Attention 2.7.3 (YOLOv13 支持此加速模块)\n    *   Ultralytics 框架\n\n## 安装步骤\n\n建议使用 Conda 创建独立虚拟环境以避免依赖冲突。以下命令包含国内镜像源加速配置（如可用）及官方预编译包安装。\n\n```bash\n# 1. 下载并安装 Flash Attention 预编译包 (针对 cu11 + torch2.2 + python3.11)\nwget https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\u002Freleases\u002Fdownload\u002Fv2.7.3\u002Fflash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl\n\n# 2. 创建并激活 Python 3.11 虚拟环境\nconda create -n yolov13 python=3.11 -y\nconda activate yolov13\n\n# 3. 安装项目依赖 (建议配置 pip 国内镜像源以加速下载)\n# pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install -r requirements.txt\n\n# 4. 以可编辑模式安装 YOLOv13\npip install -e .\n```\n\n## 基本使用\n\nYOLOv13 完全兼容 Ultralytics API，支持验证、训练、预测和模型导出。\n\n### 1. 模型验证与推理\n加载预训练权重（提供 Nano\u002FSmall\u002FLarge\u002FX-Large 四种尺度）并进行图片检测。\n\n```python\nfrom ultralytics import YOLO\n\n# 加载模型，将 {n\u002Fs\u002Fl\u002Fx} 替换为需要的模型尺度 (例如 yolov13n.pt)\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')\n\n# 执行预测\nresults = model(\"path\u002Fto\u002Fyour\u002Fimage.jpg\")\n\n# 显示结果\nresults[0].show()\n```\n\n### 2. 模型训练\n使用自定义数据集或 COCO 数据集进行训练。以下示例展示了针对 Nano 模型的典型训练配置，其他尺度需调整 `scale`, `mixup`, `copy_paste` 等增强参数。\n\n```python\nfrom ultralytics import YOLO\n\n# 加载模型配置文件\nmodel = YOLO('yolov13n.yaml')\n\n# 开始训练\nresults = model.train(\n  data='coco.yaml',       # 数据集配置文件路径\n  epochs=600,             # 训练轮数\n  batch=256,              # 批次大小\n  imgsz=640,              # 输入图像尺寸\n  scale=0.5,              # 缩放增强 (S:0.9; L:0.9; X:0.9)\n  mosaic=1.0,             # Mosaic 增强概率\n  mixup=0.0,              # Mixup 增强概率 (S:0.05; L:0.15; X:0.2)\n  copy_paste=0.1,         # Copy-Paste 增强概率 (S:0.15; L:0.5; X:0.6)\n  device=\"0,1,2,3\",       # 指定使用的 GPU ID\n)\n\n# 验证模型性能\nmetrics = model.val('coco.yaml')\n```\n\n### 3. 模型导出\n支持导出为 ONNX 或 TensorRT (engine) 格式以便部署。\n\n```python\nfrom ultralytics import YOLO\n\nmodel = YOLO('yolov13{n\u002Fs\u002Fl\u002Fx}.pt')\n\n# 导出为 TensorRT engine (半精度)\nmodel.export(format=\"engine\", half=True)\n\n# 或导出为 ONNX\n# model.export(format=\"onnx\")\n```\n\n> **提示**：预训练权重文件可从 [GitHub Releases](https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Freleases) 下载，对应文件名分别为 `yolov13n.pt`, `yolov13s.pt`, `yolov13l.pt`, `yolov13x.pt`。","某智慧物流园区的技术团队正致力于升级其自动化分拣系统，需要在高速传送带上实时精准识别各类形状不规则、部分遮挡的快递包裹。\n\n### 没有 yolov13 时\n- 面对包裹堆叠或严重遮挡场景，传统检测模型因缺乏高阶特征关联能力，频繁出现漏检或误判，导致分拣错误率居高不下。\n- 为了维持一定的识别精度，不得不部署重型模型，致使边缘计算设备推理延迟高，无法匹配传送带的高速运转节奏。\n- 多尺度特征融合不够精细，小尺寸标签或异形包裹在复杂背景下极易丢失，需人工介入复核，增加了运营成本。\n- 模型参数量大且计算冗余，难以在功耗受限的嵌入式工控机或移动端设备上流畅运行，部署灵活性差。\n\n### 使用 yolov13 后\n- 借助 HyperACE 超图自适应增强技术，yolov13 能敏锐捕捉像素间的高阶关联，即使在包裹紧密堆叠时也能实现极高精度的完整识别。\n- 依托 FullPAD 全流水线聚合范式，yolov13 在保持实时高速推理的同时显著提升了梯度传播效率，完美适配高速分拣节拍。\n- 通过细粒度的信息流协同机制，yolov13 强化了对多尺度特征的感知，轻松锁定微小标签及异形件，基本消除了人工复核需求。\n- 基于深度可分离卷积的轻量化设计大幅降低了参数与算力消耗，使 yolov13 能轻松部署于各类边缘设备及安卓终端，扩展性极强。\n\nyolov13 通过超图增强与全链路优化，在极端复杂的工业场景中实现了速度与精度的双重突破，重新定义了实时物体检测的效率标杆。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FiMoonLab_yolov13_81e4645a.png","iMoonLab","iMoon: Intelligent Media and Cognition Group","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FiMoonLab_a7b2d59b.png","",null,"https:\u002F\u002Fmoon-lab.tech\u002F","https:\u002F\u002Fgithub.com\u002FiMoonLab",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.6,{"name":85,"color":86,"percentage":87},"Shell","#89e051",0.2,{"name":89,"color":90,"percentage":87},"Dockerfile","#384d54",1636,171,"2026-04-19T14:12:16","AGPL-3.0","Linux","需要 NVIDIA GPU 以支持 Flash Attention 加速，预编译包指定 CUDA 11 (cu11)，具体显存需求未说明（建议根据模型规模 N\u002FS\u002FL\u002FX 配置 4GB-24GB+）","未说明",{"notes":99,"python":100,"dependencies":101},"1. 官方安装示例明确提供了针对 Linux x86_64 架构、Python 3.11、CUDA 11 和 Torch 2.2 的 Flash Attention 预编译包 (.whl)，其他环境需自行编译或寻找对应版本。\n2. 项目基于 Ultralytics 框架，支持训练、验证、预测及导出为 ONNX\u002FTensorRT 格式。\n3. 支持华为 Ascend (OM) 和 Rockchip (RKNN) 部署，以及 Android 端部署。","3.11",[102,103,104],"ultralytics","flash-attn==2.7.3","torch>=2.2",[15],[107,108,109,64,110,111,112],"hypergraph-learning","object-detection","yolo","correlation-modelling","real-time-object-detection","visual-recognition","2026-03-27T02:49:30.150509","2026-04-20T17:01:50.174157",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},45154,"训练 YOLOv13 OBB（定向边界框）模型时，每个 epoch 后的验证阶段报错 \"TypeError: not all arguments converted during string formatting\" 怎么办？","该错误通常发生在打印结果时的字符串格式化环节。虽然官方回复指出只要有预训练模型通常无需大量修改源码，且 YOLOv13 OBB 使用了全局注意力机制（Global Attention Mechanism），在处理具有位置关系的物体间表现良好，但遇到此具体报错时，建议检查 `ultralytics\u002Fmodels\u002Fyolo\u002Fdetect\u002Fval.py` 文件中 `print_results` 方法的格式化字符串与传入参数是否匹配。如果自行修改代码遇到困难，建议优先使用官方提供的预训练模型进行测试，避免不必要的源码改动。","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F49",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},45155,"在 H20-NVL GPU 上训练时出现 \"Floating point exception (core dumped)\" 错误，尤其是增加 batch size 或分辨率时，如何解决？","此问题可能与 H20 GPU 的驱动或其显存分区（MIG 实例）有关。即使 nvidia-smi 显示总显存充足，如果管理员将显卡划分为较小的切片（如 16GB 或 24GB），稍微增加 batch size 就可能导致溢出。解决方案包括：\n1. 检查实际可用的显存大小及是否有其他进程占用。\n2. 尝试降低 batch size 或图像分辨率。\n3. 官方建议使用论文中指定的 GPU（如 A800 或 A100）以确保兼容性。\n4. 有趣的是，有用户反馈 Nano 模型在大 batch 下运行正常，而 X 模型在高显存占用时报错，这可能特定于某些模型架构与硬件的兼容性问题。","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F29",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},45156,"在 Windows 上将 YOLOv13 导出为 ONNX 模型时，设置 `half=True` 和 `half=False` 生成的文件大小和精度似乎一样，为什么？","这不是 Windows 系统的问题，而是导出脚本的默认行为所致。`torch.onnx.export` 默认直接导出加载的 FP32 模型，不会自动调用 `model.half()` 或将初始值转换为 float16。因此无论 `--half` 参数如何设置，输出均为 FP32。\n\n解决方案是进行“导出后转换”：\n1. 先正常导出为 FP32 的 ONNX 模型。\n2. 使用 `onnxconverter_common` 库将其转换为 FP16。代码如下：\n```python\nimport onnx\nfrom onnxconverter_common import float16\n\n# 加载 FP32 ONNX 模型\nmodel = onnx.load(\"yolov13.onnx\")\n\n# 将所有 float32 张量转换为 float16\nmodel_fp16 = float16.convert_float_to_float16(model)\n\n# 保存新的 FP16 模型\nonnx.save(model_fp16, \"yolov13_fp16.onnx\")\n```","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F24",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},45157,"训练时遇到 \"AttributeError: Can't get attribute 'DSC3k2' ...\" 错误，提示找不到模块属性，如何解决？","该错误通常是因为 Python 运行时加载了 conda 环境中安装的 `ultralytics` 库，而不是项目目录下的本地版本，导致无法识别自定义模块（如 DSC3k2）。\n\n解决方法是在启动训练前，强制 Python 优先加载项目目录下的模块。请在终端执行以下命令设置环境变量：\n```bash\nexport PYTHONPATH=$(pwd):$PYTHONPATH\n```\n设置完成后再次运行训练脚本即可。","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F21",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},45158,"为什么 YOLOv13 在训练大尺寸图像（如 imgsz=1280）时，显存占用率远高于 YOLOv11？","这是因为 YOLOv13 的主干网络（Backbone）保留了来自 YOLOv12 的 **Area-Attention**（即 **A2C2f 模块**）。该模块的计算复杂度与像素数量呈平方关系。因此，当图像尺寸增大时，计算成本和显存占用会显著上升，导致在相同 batch size 和分辨率下，YOLOv13 的显存占用远高于 YOLOv11。这是模型架构设计的特性，如需降低显存占用，建议减小图像分辨率或 batch size。","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F16",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},45159,"YOLOv13 是否支持 OBB（定向边界框）任务？效果如何？","YOLOv13 支持 OBB 模型。官方确认已成功训练 YOLOv13 OBB 模型。该模型引入了全局注意力机制（Global Attention Mechanism），在处理整个图中具有位置关系的物体之间表现良好。不过，也有用户反馈在某些特定任务上，YOLOv13 的表现可能不如 YOLOv11，具体效果取决于数据集和任务场景。如果有预训练模型，通常不需要对源码进行大量修改即可使用。","https:\u002F\u002Fgithub.com\u002FiMoonLab\u002Fyolov13\u002Fissues\u002F66",[147],{"id":148,"version":64,"summary_zh":76,"released_at":149},360023,"2025-06-22T08:55:23"]