[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lyuwenyu--RT-DETR":3,"tool-lyuwenyu--RT-DETR":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":76,"owner_website":76,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":106,"env_deps":108,"category_tags":113,"github_topics":114,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":149},8063,"lyuwenyu\u002FRT-DETR","RT-DETR","[CVPR 2024] Official RT-DETR (RTDETR paddle pytorch), Real-Time DEtection TRansformer, DETRs Beat YOLOs on Real-time Object Detection. 🔥 🔥 🔥 ","RT-DETR 是一款专为实时目标检测打造的高性能开源模型，其核心理念是证明基于 Transformer 的检测器（DETRs）在速度与精度上均可超越传统的 YOLO 系列。它主要解决了以往 Transformer 模型推理速度慢、难以满足实时性要求，而传统卷积神经网络在复杂场景下精度遭遇瓶颈的问题。\n\n该工具非常适合计算机视觉领域的研究人员、算法工程师以及需要部署高精度检测系统的开发者使用。无论是学术研究还是工业级应用（如自动驾驶、安防监控），RT-DETR 都能提供强有力的支持。\n\n其技术亮点在于独特的混合编码器设计，能够高效处理多尺度特征，并去除了后处理中耗时的非极大值抑制（NMS）步骤，从而实现了真正的端到端实时检测。项目不仅提供了 PaddlePaddle 和 PyTorch 双版本官方实现，还持续迭代推出了 RT-DETRv2 及结合视觉基础模型的 RT-DETRv4 等新版本，显著提升了小目标检测能力与整体精度。此外，它对 ONNX、TensorRT 等主流部署框架的良好支持，也让模型落地变得更加便捷高效。","English | [简体中文](README_cn.md)\n\n\n\u003Ch2 align=\"center\">RT-DETR: DETRs Beat YOLOs on Real-time Object Detection\u003C\u002Fh2>\n\u003Cp align=\"center\">\n    \u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fblob\u002Fmain\u002FLICENSE\">\n        \u003Cimg alt=\"license\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLICENSE-Apache%202.0-blue\">\n    \u003C\u002Fa> -->\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fblob\u002Fmain\u002FLICENSE\">\n        \u003Cimg alt=\"license\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpulls\">\n        \u003Cimg alt=\"prs\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\">\n        \u003Cimg alt=\"issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Flyuwenyu\u002FRT-DETR?color=pink\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\">\n        \u003Cimg alt=\"issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08069\">\n        \u003Cimg alt=\"arXiv\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2304.08069-red\">\n    \u003C\u002Fa>\n    \u003Ca href=\"mailto: lyuwenyu@foxmail.com\">\n        \u003Cimg alt=\"emal\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontact_me-email-yellow\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\nThis is the official implementation of papers \n- [DETRs Beat YOLOs on Real-time Object Detection](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08069)\n- [RT-DETRv2: Improved Baseline with Bag-of-Freebies for Real-Time Detection Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17140)\n\n\n\u003Cdetails>\n\u003Csummary>Fig\u003C\u002Fsummary>\n\n\u003Ctable>\u003Ctr>\n\u003Ctd>\u003Cimg src=https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fassets\u002F77494834\u002F0ede1dc1-a854-43b6-9986-cf9090f11a61 border=0 width=500>\u003C\u002Ftd>\n\u003Ctd>\u003Cimg src=https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F437877e9-1d4f-4d30-85e8-aafacfa0ec56 border=0 width=500>\u003C\u002Ftd>\n\u003C\u002Ftr>\u003C\u002Ftable>\n\u003C\u002Fdetails>\n\n\n## 🚀 Updates\n- \\[2025.11.18\\] Release the **newest** member of the RT-DETR family: [RT-DETRv4:Painlessly Furthering Real-Time Object Detection with Vision Foundation Models](https:\u002F\u002Fgithub.com\u002FRT-DETRs\u002FRT-DETRv4).\nBy harnessing the rapidly evolving capabilities of Vision Foundation Models (VFMs), we boost lightweight detectors and, without incurring any extra inference latency, significantly improve the performance of the full-size model.\n- \\[2024.11.28\\] Add torch tool for parameters and flops statistics. see [run_profile.py](.\u002Frtdetrv2_pytorch\u002Ftools\u002Frun_profile.py)\n- \\[2024.10.10\\] Add sliced inference support for small object detecion. [#468](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpull\u002F468)\n- \\[2024.09.23\\] Add ✅[Regnet and DLA34](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Ftree\u002Fmain\u002Frtdetr_pytorch) for RTDETR.\n- \\[2024.08.27\\] Add hubconf.py file to support torch hub.\n- \\[2024.08.22\\] Improve the performance of ✅ [RT-DETRv2-S](.\u002Frtdetrv2_pytorch\u002F) to 48.1 mAP (\u003Cfont color=green>+1.6\u003C\u002Ffont> compared to RT-DETR-R18).\n- \\[2024.07.24\\] Release ✅ [RT-DETRv2](.\u002Frtdetrv2_pytorch\u002F)!\n- \\[2024.02.27\\] Our work has been accepted to CVPR 2024!\n- \\[2024.01.23\\] Fix difference on data augmentation with paper in rtdetr_pytorch [#84](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F5dc64138e439247b4e707dd6cebfe19d8d77f5b1).\n- \\[2023.11.07\\] Add pytorch ✅ *rtdetr_r34vd* for requests [#107](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F107), [#114](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F114).\n- \\[2023.11.05\\] Upgrade the logic of `remap_mscoco_category` to facilitate training of custom datasets, see detils in [*Train custom data*](.\u002Frtdetr_pytorch\u002F) part. [#81](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F95fc522fd7cf26c64ffd2ad0c622c392d29a9ebf).\n- \\[2023.10.23\\] Add [*discussion for deployments*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F95), supported onnxruntime, TensorRT, openVINO.\n- \\[2023.10.12\\] Add tuning code for pytorch version, now you can tuning rtdetr based on pretrained weights.\n- \\[2023.09.19\\] Upload ✅ [*pytorch weights*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F42) convert from paddle version.\n- \\[2023.08.24] Release RT-DETR-R18 pretrained models on objects365. *49.2 mAP* and *217 FPS*.\n- \\[2023.08.22\\] Upload ✅ [*rtdetr_pytorch*](.\u002Frtdetr_pytorch\u002F) source code. Please enjoy it!\n- \\[2023.08.15\\] Release RT-DETR-R101 pretrained models on objects365. *56.2 mAP* and *74 FPS*.\n- \\[2023.07.30\\] Release RT-DETR-R50 pretrained models on objects365. *55.3 mAP* and *108 FPS*.\n- \\[2023.07.28\\] Fix some bugs, and add some comments. [1](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpull\u002F14), [2](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F3b5cbcf8ae3b907e6b8bb65498a6be7c6736eabc).\n- \\[2023.07.13\\] Upload ✅ [*training logs on coco*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F8).\n- \\[2023.05.17\\] Release RT-DETR-R18, RT-DETR-R34, RT-DETR-R50-m（example for scaled).\n- \\[2023.04.17\\] Release RT-DETR-R50, RT-DETR-R101, RT-DETR-L, RT-DETR-X.\n\n## 📣 News\n- RTDETR and RTDETRv2 are now available in Hugging Face Transformers. [#413](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F413), [#549](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F549)\n- RTDETR is now available in [ultralytics\u002Fultralytics](https:\u002F\u002Fdocs.ultralytics.com\u002Fzh\u002Fmodels\u002Frtdetr\u002F).\n\n## 📍 Implementations\n- 🔥 RT-DETRv2\n  - paddle: [code&weight](.\u002Frtdetrv2_paddle\u002F)\n  - pytorch: [code&weight](.\u002Frtdetrv2_pytorch\u002F)\n- 🔥 RT-DETR \n  - paddle: [code&weight](.\u002Frtdetr_paddle)\n  - pytorch: [code&weight](.\u002Frtdetr_pytorch)\n\n\n| Model | Input shape | Dataset | $AP^{val}$ | $AP^{val}_{50}$| Params(M) | FLOPs(G) | T4 TensorRT FP16(FPS)\n|:---:|:---:| :---:|:---:|:---:|:---:|:---:|:---:|\n| RT-DETR-R18 | 640 | COCO | 46.5 | 63.8 | 20 | 60 | 217 |\n| RT-DETR-R34 | 640 | COCO | 48.9 | 66.8 | 31 | 92 | 161 |\n| RT-DETR-R50-m | 640 | COCO | 51.3 | 69.6 | 36 | 100 | 145 |\n| RT-DETR-R50 |  640 | COCO | 53.1 | 71.3 | 42 | 136 | 108 |\n| RT-DETR-R101 | 640 | COCO | 54.3 | 72.7 | 76 | 259 | 74 |\n| RT-DETR-HGNetv2-L | 640 | COCO | 53.0 | 71.6 | 32 | 110 | 114 |\n| RT-DETR-HGNetv2-X | 640 | COCO | 54.8 | 73.1 | 67 | 234 | 74 |\n| RT-DETR-R18 | 640 | COCO + Objects365 | **49.2** | **66.6** | 20 | 60 | **217** |\n| RT-DETR-R50 | 640 | COCO + Objects365 | **55.3** | **73.4** | 42 | 136 | **108** |\n| RT-DETR-R101 | 640 | COCO + Objects365 | **56.2** | **74.6** | 76 | 259 | **74** |\n**RT-DETRv2-S** | 640 | COCO  | **48.1** \u003Cfont color=green>(+1.6)\u003C\u002Ffont> | **65.1** | 20 | 60 | 217 |\n**RT-DETRv2-M**\u003Csup>*\u003Csup> | 640 | COCO  | **49.9** \u003Cfont color=green>(+1.0)\u003C\u002Ffont> | **67.5** | 31 | 92 | 161 |\n**RT-DETRv2-M** | 640 | COCO | **51.9** \u003Cfont color=green>(+0.6)\u003C\u002Ffont> | **69.9** | 36 | 100 | 145 |\n**RT-DETRv2-L** | 640 | COCO | **53.4** \u003Cfont color=green>(+0.3)\u003C\u002Ffont> | **71.6** | 42 | 136 | 108 |\n**RT-DETRv2-X** | 640 | COCO | 54.3 | **72.8** \u003Cfont color=green>(+0.1)\u003C\u002Ffont>  | 76 | 259| 74 |\n\n**Notes:**\n- `COCO + Objects365` in the table means finetuned model on COCO using pretrained weights trained on Objects365.\n\n\n## 🦄 Performance\n\n### 🏕️ Complex Scenarios\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flyuwenyu_RT-DETR_readme_c5e40e658ed7.png\" width=500 >\n\u003C\u002Fdiv>\n\n### 🌋 Difficult Conditions\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flyuwenyu_RT-DETR_readme_9b059d142361.png\" width=500 >\n\u003C\u002Fdiv>\n\n## Citation\nIf you use `RT-DETR` or `RTDETRv2` in your work, please use the following BibTeX entries:\n```\n@misc{lv2023detrs,\n      title={DETRs Beat YOLOs on Real-time Object Detection},\n      author={Yian Zhao and Wenyu Lv and Shangliang Xu and Jinman Wei and Guanzhong Wang and Qingqing Dang and Yi Liu and Jie Chen},\n      year={2023},\n      eprint={2304.08069},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n\n@misc{lv2024rtdetrv2improvedbaselinebagoffreebies,\n      title={RT-DETRv2: Improved Baseline with Bag-of-Freebies for Real-Time Detection Transformer}, \n      author={Wenyu Lv and Yian Zhao and Qinyao Chang and Kui Huang and Guanzhong Wang and Yi Liu},\n      year={2024},\n      eprint={2407.17140},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17140}, \n}\n```\n","中文 | [English](README.md)\n\n\n\u003Ch2 align=\"center\">RT-DETR：DETRs在实时目标检测上超越YOLO系列\u003C\u002Fh2>\n\u003Cp align=\"center\">\n    \u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fblob\u002Fmain\u002FLICENSE\">\n        \u003Cimg alt=\"license\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLICENSE-Apache%202.0-blue\">\n    \u003C\u002Fa> -->\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fblob\u002Fmain\u002FLICENSE\">\n        \u003Cimg alt=\"license\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpulls\">\n        \u003Cimg alt=\"prs\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\">\n        \u003Cimg alt=\"issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Flyuwenyu\u002FRT-DETR?color=pink\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\">\n        \u003Cimg alt=\"issues\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flyuwenyu\u002FRT-DETR\">\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08069\">\n        \u003Cimg alt=\"arXiv\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2304.08069-red\">\n    \u003C\u002Fa>\n    \u003Ca href=\"mailto: lyuwenyu@foxmail.com\">\n        \u003Cimg alt=\"emal\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontact_me-email-yellow\">\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n\n这是以下论文的官方实现：\n- [DETRs在实时目标检测上超越YOLO系列](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.08069)\n- [RT-DETRv2：基于免费工具包的实时检测Transformer改进基线](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17140)\n\n\n\u003Cdetails>\n\u003Csummary>图\u003C\u002Fsummary>\n\n\u003Ctable>\u003Ctr>\n\u003Ctd>\u003Cimg src=https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fassets\u002F77494834\u002F0ede1dc1-a854-43b6-9986-cf9090f11a61 border=0 width=500>\u003C\u002Ftd>\n\u003Ctd>\u003Cimg src=https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F437877e9-1d4f-4d30-85e8-aafacfa0ec56 border=0 width=500>\u003C\u002Ftd>\n\u003C\u002Ftr>\u003C\u002Ftable>\n\u003C\u002Fdetails>\n\n\n## 🚀 更新\n- \\[2025.11.18\\] 发布RT-DETR家族的**最新**成员：[RT-DETRv4：借助视觉基础模型轻松推进实时目标检测](https:\u002F\u002Fgithub.com\u002FRT-DETRs\u002FRT-DETRv4)。通过利用快速发展的视觉基础模型（VFMs）的能力，我们提升了轻量级检测器的性能，并且在不增加任何额外推理延迟的情况下，显著提高了全尺寸模型的性能。\n- \\[2024.11.28\\] 添加用于参数和FLOPs统计的PyTorch工具。详见[run_profile.py](.\u002Frtdetrv2_pytorch\u002Ftools\u002Frun_profile.py)\n- \\[2024.10.10\\] 为小目标检测添加切片推理支持。[#468](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpull\u002F468)\n- \\[2024.09.23\\] 为RTDETR新增✅[Regnet和DLA34](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Ftree\u002Fmain\u002Frtdetr_pytorch)。\n- \\[2024.08.27\\] 添加hubconf.py文件以支持PyTorch Hub。\n- \\[2024.08.22\\] 将✅[RT-DETRv2-S](.\u002Frtdetrv2_pytorch\u002F)的性能提升至48.1 mAP（相比RT-DETR-R18提高\u003Cfont color=green>+1.6\u003C\u002Ffont>）。\n- \\[2024.07.24\\] 正式发布✅[RT-DETRv2](.\u002Frtdetrv2_pytorch\u002F)！\n- \\[2024.02.27\\] 我们的工作已被CVPR 2024接收！\n- \\[2024.01.23\\] 修复rtdetr_pytorch中与论文在数据增强上的差异 [#84](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F5dc64138e439247b4e707dd6cebfe19d8d77f5b1)。\n- \\[2023.11.07\\] 根据需求添加PyTorch版✅ *rtdetr_r34vd* [#107](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F107), [#114](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F114)。\n- \\[2023.11.05\\] 升级`remap_mscoco_category`逻辑，以方便训练自定义数据集，详情请参见[*训练自定义数据*](.\u002Frtdetr_pytorch\u002F)部分。[#81](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F95fc522fd7cf26c64ffd2ad0c622c392d29a9ebf)。\n- \\[2023.10.23\\] 添加[*部署讨论*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F95)，支持ONNX Runtime、TensorRT、OpenVINO。\n- \\[2023.10.12\\] 为PyTorch版本添加调优代码，现在您可以基于预训练权重对rtdetr进行调优。\n- \\[2023.09.19\\] 上传从Paddle版本转换而来的✅[*PyTorch权重*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F42)。\n- \\[2023.08.24\\] 在objects365数据集上发布RT-DETR-R18预训练模型。*49.2 mAP*和*217 FPS*。\n- \\[2023.08.22\\] 上传✅[*rtdetr_pytorch*](.\u002Frtdetr_pytorch\u002F)源代码。欢迎大家使用！\n- \\[2023.08.15\\] 在objects365数据集上发布RT-DETR-R101预训练模型。*56.2 mAP*和*74 FPS*。\n- \\[2023.07.30\\] 在objects365数据集上发布RT-DETR-R50预训练模型。*55.3 mAP*和*108 FPS*。\n- \\[2023.07.28\\] 修复了一些bug，并添加了一些注释。[1](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fpull\u002F14), [2](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fcommit\u002F3b5cbcf8ae3b907e6b8bb65498a6be7c6736eabc)。\n- \\[2023.07.13\\] 上传✅[*COCO数据集上的训练日志*](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F8)。\n- \\[2023.05.17\\] 发布RT-DETR-R18、RT-DETR-R34、RT-DETR-R50-m（缩放示例）。\n- \\[2023.04.17\\] 发布RT-DETR-R50、RT-DETR-R101、RT-DETR-L、RT-DETR-X。\n\n## 📣 新闻\n- RTDETR和RTDETRv2现已在Hugging Face Transformers中上线。[#413](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F413), [#549](https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F549)\n- RTDETR现已在[ultralytics\u002Fultralytics](https:\u002F\u002Fdocs.ultralytics.com\u002Fzh\u002Fmodels\u002Frtdetr\u002F)中上线。\n\n## 📍 实现\n- 🔥 RT-DETRv2\n  - Paddle：[代码&权重](.\u002Frtdetrv2_paddle\u002F)\n  - PyTorch：[代码&权重](.\u002Frtdetrv2_pytorch\u002F)\n- 🔥 RT-DETR\n  - Paddle：[代码&权重](.\u002Frtdetr_paddle)\n  - PyTorch：[代码&权重](.\u002Frtdetr_pytorch)\n\n\n| 模型 | 输入尺寸 | 数据集 | $AP^{val}$ | $AP^{val}_{50}$| 参数(M) | FLOPs(G) | T4 TensorRT FP16(FPS)\n|:---:|:---:| :---:|:---:|:---:|:---:|:---:|:---:|\n| RT-DETR-R18 | 640 | COCO | 46.5 | 63.8 | 20 | 60 | 217 |\n| RT-DETR-R34 | 640 | COCO | 48.9 | 66.8 | 31 | 92 | 161 |\n| RT-DETR-R50-m | 640 | COCO | 51.3 | 69.6 | 36 | 100 | 145 |\n| RT-DETR-R50 | 640 | COCO | 53.1 | 71.3 | 42 | 136 | 108 |\n| RT-DETR-R101 | 640 | COCO | 54.3 | 72.7 | 76 | 259 | 74 |\n| RT-DETR-HGNetv2-L | 640 | COCO | 53.0 | 71.6 | 32 | 110 | 114 |\n| RT-DETR-HGNetv2-X | 640 | COCO | 54.8 | 73.1 | 67 | 234 | 74 |\n| RT-DETR-R18 | 640 | COCO + Objects365 | **49.2** | **66.6** | 20 | 60 | **217** |\n| RT-DETR-R50 | 640 | COCO + Objects365 | **55.3** | **73.4** | 42 | 136 | **108** |\n| RT-DETR-R101 | 640 | COCO + Objects365 | **56.2** | **74.6** | 76 | 259 | **74** |\n**RT-DETRv2-S** | 640 | COCO  | **48.1** \u003Cfont color=green>(+1.6)\u003C\u002Ffont> | **65.1** | 20 | 60 | 217 |\n**RT-DETRv2-M**\u003Csup>*\u003Csup> | 640 | COCO  | **49.9** \u003Cfont color=green>(+1.0)\u003C\u002Ffont> | **67.5** | 31 | 92 | 161 |\n**RT-DETRv2-M** | 640 | COCO | **51.9** \u003Cfont color=green>(+0.6)\u003C\u002Ffont> | **69.9** | 36 | 100 | 145 |\n**RT-DETRv2-L** | 640 | COCO | **53.4** \u003Cfont color=green>(+0.3)\u003C\u002Ffont> | **71.6** | 42 | 136 | 108 |\n**RT-DETRv2-X** | 640 | COCO | 54.3 | **72.8** \u003Cfont color=green>(+0.1)\u003C\u002Ffont> | 76 | 259 | 74 |\n\n**注释：**\n- 表格中的`COCO + Objects365`表示在Objects365上预训练的权重基础上，在COCO数据集上进行微调的模型。\n\n\n## 🦄 性能\n\n### 🏕️ 复杂场景\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flyuwenyu_RT-DETR_readme_c5e40e658ed7.png\" width=500 >\n\u003C\u002Fdiv>\n\n### 🌋 困难条件\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flyuwenyu_RT-DETR_readme_9b059d142361.png\" width=500 >\n\u003C\u002Fdiv>\n\n## 引用\n如果您在工作中使用了 `RT-DETR` 或 `RTDETRv2`，请使用以下 BibTeX 条目：\n```\n@misc{lv2023detrs,\n      title={DETRs 在实时目标检测中超越 YOLO},\n      author={Yian Zhao 和 Wenyu Lv 和 Shangliang Xu 和 Jinman Wei 和 Guanzhong Wang 和 Qingqing Dang 和 Yi Liu 和 Jie Chen},\n      year={2023},\n      eprint={2304.08069},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV}\n}\n\n@misc{lv2024rtdetrv2improvedbaselinebagoffreebies,\n      title={RT-DETRv2：面向实时检测 Transformer 的改进基线及免费工具包}, \n      author={Wenyu Lv 和 Yian Zhao 和 Qinyao Chang 和 Kui Huang 和 Guanzhong Wang 和 Yi Liu},\n      year={2024},\n      eprint={2407.17140},\n      archivePrefix={arXiv},\n      primaryClass={cs.CV},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17140}, \n}\n```","# RT-DETR 快速上手指南\n\nRT-DETR 是百度提出的实时目标检测模型，在保持高推理速度的同时，精度超越了同量级的 YOLO 系列模型。本指南基于官方 PyTorch 实现，帮助开发者快速部署和使用。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 18.04+), Windows, macOS\n- **Python**: 3.8 - 3.10\n- **GPU**: 支持 CUDA 的 NVIDIA 显卡（可选，CPU 亦可运行但速度较慢）\n\n### 前置依赖\n请确保已安装以下基础依赖：\n- PyTorch >= 1.8\n- torchvision\n- opencv-python\n- pycocotools (用于 COCO 数据集评估)\n\n> **国内加速建议**：推荐使用清华或阿里镜像源安装 PyTorch 和其他依赖，以提升下载速度。\n> ```bash\n> pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n> # 或使用国内镜像\n> pip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装步骤\n\n克隆官方仓库并安装依赖：\n\n```bash\n# 1. 克隆代码库\ngit clone https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR.git\ncd RT-DETR\u002Frtdetr_pytorch\n\n# 2. 安装项目依赖\npip install -r requirements.txt\n\n# 3. (可选) 如果需要使用 COCO 评估指标，安装 pycocotools\npip install pycocotools\n```\n\n> **注意**：本项目包含 RT-DETR 和最新的 RT-DETRv2 版本。上述路径 `rtdetr_pytorch` 为经典版，若需使用性能更强的 v2 版本，请进入 `rtdetrv2_pytorch` 目录操作。\n\n## 3. 基本使用\n\n### 方式一：使用 Torch Hub (最快捷)\n\n无需下载代码，直接通过 PyTorch Hub 加载预训练模型进行推理。\n\n```python\nimport torch\nimport cv2\n\n# 加载预训练模型 (RT-DETR-R50)\nmodel = torch.hub.load('lyuwenyu\u002FRT-DETR', 'rtdetr_r50vd', pretrained=True, device='cuda')\nmodel.eval()\n\n# 准备图像\nimg_path = 'assets\u002Fdemo.jpg' # 替换为你的图片路径\nimg = cv2.imread(img_path)\nimg_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)\n\n# 推理\nresults = model(img_rgb)\n\n# 打印结果\nprint(results)\n# results 包含 boxes, scores, labels 等信息\n```\n\n支持的模型名称包括：`rtdetr_r18vd`, `rtdetr_r34vd`, `rtdetr_r50vd`, `rtdetr_r101vd` 以及 v2 系列的 `rtdetrv2_r18vd`, `rtdetrv2_r34vd` 等。\n\n### 方式二：本地脚本推理\n\n如果你已经克隆了代码库，可以使用官方提供的推理脚本。\n\n```bash\n# 单张图片推理\npython tools\u002Finfer.py -c configs\u002Frtdetr\u002Frtdetr_r50vd_6x_coco.yml \\\n     -o weights=https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Freleases\u002Fdownload\u002Fv0.1\u002Frtdetr_r50vd_dec3_6x_coco.pth \\\n     source=assets\u002Fdemo.jpg\n\n# 视频推理\npython tools\u002Finfer.py -c configs\u002Frtdetr\u002Frtdetr_r50vd_6x_coco.yml \\\n     -o weights=https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Freleases\u002Fdownload\u002Fv0.1\u002Frtdetr_r50vd_dec3_6x_coco.pth \\\n     source=0  # 0 代表摄像头，也可替换为视频文件路径\n```\n\n### 方式三：导出 ONNX\u002FTensorRT (部署用)\n\nRT-DETR 支持导出为 ONNX 格式，以便在 TensorRT、OpenVINO 等框架中加速部署。\n\n```bash\n# 导出 ONNX 模型\npython tools\u002Fexport_onnx.py -c configs\u002Frtdetr\u002Frtdetr_r50vd_6x_coco.yml \\\n     -o weights=rtdetr_r50vd_dec3_6x_coco.pth \\\n     check=True\n```\n\n导出的 `.onnx` 文件可直接用于后续的边缘端或服务器端高性能部署。","某智慧物流园区的技术团队正在部署一套自动化分拣系统，需要实时识别传送带上高速移动且尺寸各异的各种包裹。\n\n### 没有 RT-DETR 时\n- **速度与精度难以兼得**：使用传统的 YOLO 系列模型时，为了追求实时帧率不得不降低输入分辨率，导致小件包裹漏检率高；若提高精度则延迟增加，无法跟上流水线速度。\n- **复杂场景适应力弱**：面对包裹密集堆叠或相互遮挡的情况，基于锚框（Anchor-based）的算法容易产生大量重复检测框，后处理（NMS）耗时且容易误删目标。\n- **调优成本高昂**：针对不同大小的包裹需要手动设计多尺度锚框参数，反复试验才能找到平衡点，耗费开发人员数周时间。\n\n### 使用 RT-DETR 后\n- **实时性与高精度突破**：RT-DETR 利用 Transformer 架构的全局注意力机制，在保持与轻量级 YOLO 相当的推理速度下，显著提升了检测精度，完美捕捉高速运动的小包裹。\n- **无锚框设计简化流程**：摒弃了复杂的锚框设计和非极大值抑制（NMS）后处理步骤，天然解决了密集遮挡问题，大幅降低了误检率并减少了端到端延迟。\n- **开箱即用的泛化能力**：凭借强大的基线性能和预训练权重，团队无需繁琐的参数微调即可直接适配园区自定义的包裹数据集，将模型落地周期从数周缩短至几天。\n\nRT-DETR 成功打破了实时检测中“速度”与“精度”的博弈僵局，让物流分拣系统在零额外延迟的前提下实现了工业级的识别准确率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flyuwenyu_RT-DETR_c5e40e65.png","lyuwenyu","吕文玉","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flyuwenyu_f6341f5f.png",null,"Harbin Institute of Technology","Beijing, China","lyuwenyu@foxmail.com","https:\u002F\u002Fgithub.com\u002Flyuwenyu",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Python","#3572A5",97.3,{"name":87,"color":88,"percentage":89},"Cuda","#3A4E3A",2.5,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",0.2,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.1,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0,5087,599,"2026-04-16T02:31:33","Apache-2.0","未说明","需要 NVIDIA GPU 以获得最佳实时性能（表格数据基于 T4 TensorRT FP16），具体显存和 CUDA 版本未在 README 中明确说明，但需支持 TensorRT、ONNXRuntime 或 OpenVINO 部署。",{"notes":109,"python":106,"dependencies":110},"该项目同时提供 PyTorch 和 PaddlePaddle 两种实现版本。支持多种部署后端，包括 ONNXRuntime、TensorRT 和 OpenVINO。模型已在 Hugging Face Transformers 和 Ultralytics 库中集成。训练自定义数据集时需注意数据增强逻辑的调整。",[111,112],"PyTorch (torch)","PaddlePaddle (paddle)",[15],[115,116],"rtdetr","rtdetrv2","2026-03-27T02:49:30.150509","2026-04-16T16:13:08.939506",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},36104,"使用矩形输入（非正方形）进行训练时，为什么模型性能会下降？","输入形状与数据分布密切相关。如果将图像 Resize 为较小的矩形（相对于以长边为准的正方形），会导致目标物体在输入中变小，从而可能导致性能降低。建议确认您的数据集是否适合矩形输入。如果必须使用矩形，请确保调整后的尺寸不会过度缩小目标物体，或者尝试调整宽高顺序看是否有改善。","https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F13",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},36105,"使用 torchrun 多卡训练自定义数据集时程序卡死怎么办？","这通常是因为多卡之间输出的 key 不一致（例如一张卡带有 'dn' 前缀而另一张没有），导致 `reduce_all` 时 shape 不匹配而卡死。解决方法是检查并修改 `logger.py` 或 `dist.py` 中的 `reduce_dict` 函数，确保所有 GPU 的输出字典结构一致，或者直接注释掉\u002F移除导致问题的 `reduce_dict` 调用。","https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F242",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},36106,"无法复现论文中的模型效果（如 mAP 偏低）怎么办？","复现结果存在微小差异（如 0.3-0.5 mAP）通常是正常的，可能由显卡型号不同、随机数种子未固定等因素引起。如果差异过大，建议参考官方提供的完整训练日志（例如 rtdetrv2_r18vd_120e_coco 的日志）来核对超参数和训练细节，确保配置完全一致。","https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F619",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},36107,"运行 flops.py 计算参数量时报错 'TypeError: flops() got multiple values for argument' 如何解决？","该错误通常是由于环境中存在多个 PaddlePaddle 版本或 Python 环境混淆导致的。请执行 `which python` 确认当前使用的 Python 路径，并确保 `paddle` 库安装在对应的 `site-packages` 下。切换至正确的虚拟环境或重新安装对应版本的 PaddlePaddle 即可解决。","https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F148",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},36108,"如何判断模型训练是否过拟合？应该看 Loss 还是 mAP？","建议在 Train mode 下跑一遍测试集（将数据增强设置为 Eval mode）来获取测试集 Loss。但在判断过拟合时，测试集的 mAP（平均精度均值）比测试集 Loss 更具参考价值。如果训练集指标上升而测试集 mAP 下降或不再提升，则说明可能过拟合。","https:\u002F\u002Fgithub.com\u002Flyuwenyu\u002FRT-DETR\u002Fissues\u002F20",{"id":146,"question_zh":147,"answer_zh":148,"source_url":124},36109,"在多线程 DataLoader 中使用复杂数据增强（如 Mosaic）报错 'Tensor holds no memory' 怎么办？","该错误表明 Tensor 未正确初始化内存。在 PaddlePaddle 的多线程 DataLoader 中，某些复杂的数据增强操作可能导致张量传递问题。建议检查数据增强代码中是否在传递给 DataLoader 之前正确调用了相关初始化方法，或者尝试简化数据增强流程，避免在多线程环境下执行不支持的操作。",[]]