Deformable-DETR
Deformable-DETR 是一款基于 Transformer 架构的端到端目标检测开源模型,旨在高效识别图像中的各类物体。它主要解决了其前身 DETR 模型存在的两大痛点:训练收敛速度极慢,以及对小尺寸物体检测效果不佳的问题。传统 DETR 因注意力机制计算复杂度高,往往需要数百个训练周期才能生效,而 Deformable-DETR 通过引入创新的“可变形注意力机制”,仅对参考点周围的一小组关键采样点进行关注,大幅降低了计算复杂度。
这一技术亮点使得 Deformable-DETR 在保持甚至提升检测精度(尤其是小目标)的同时,将所需的训练轮次减少了约 10 倍,显著缩短了研发迭代时间。该工具非常适合计算机视觉领域的研究人员、算法工程师及开发者使用,帮助他们快速构建高性能的目标检测系统,或作为基准模型进行深入的学术探索。对于希望摆脱繁琐人工设计组件、追求更高效训练流程的技术团队而言,Deformable-DETR 是一个极具价值的选择。
使用场景
某自动驾驶初创公司的算法团队正致力于提升车辆对远处行人及小型交通标志的实时检测能力,以保障夜间行车安全。
没有 Deformable-DETR 时
- 训练周期漫长:沿用原始 DETR 模型需要训练 500 个 epoch 才能收敛,单次实验耗时数周,严重拖慢算法迭代速度。
- 小目标漏检率高:由于 Transformer 注意力机制受限于固定的特征分辨率,难以捕捉远处微小的行人或标志,导致 APs(小目标精度)仅为 20.5%。
- 计算资源浪费:全局注意力机制对整张特征图进行无差别计算,产生了巨大的 FLOPs 开销,却未带来相应的精度提升。
- 部署落地困难:模型收敛慢且对小物体不敏感,使得团队难以在有限的开发周期内达到量产所需的可靠性标准。
使用 Deformable-DETR 后
- 收敛速度飞跃:借助可变形注意力机制,模型仅需 50 个 epoch 即可达到甚至超越原有性能,训练时间缩短为原来的十分之一。
- 小目标检测显著增强:通过聚焦参考点周围的关键采样点,有效提升了特征空间分辨率,小目标检测精度(APs)大幅攀升至更高水平。
- 计算效率优化:稀疏化的采样策略避免了冗余计算,在降低显存占用和 FLOPs 的同时,保持了高效的推理速度。
- 快速迭代验证:工程师可以在一天内完成多次模型调优与验证,迅速响应长尾场景中的检测失效问题,加速产品上市进程。
Deformable-DETR 通过革新注意力机制,彻底解决了端到端检测器训练慢、小目标识别弱的核心痛点,让高精度视觉感知模型的落地变得高效可行。
运行环境要求
- Linux
必需 NVIDIA GPU,测试环境为 Tesla V100,需安装 CUDA >= 9.2
未说明

快速开始
可变形DETR
本仓库是论文《可变形DETR:用于端到端目标检测的可变形Transformer》(arXiv:2010.04159)的官方实现。
简介
TL;DR。 可变形DETR是一种高效且收敛速度快的端到端目标检测器。它通过一种基于采样的高效注意力机制,有效缓解了DETR计算复杂度高、收敛慢的问题。


摘要。 DETR最近被提出,旨在消除目标检测中大量手工设计的组件,同时展现出良好的性能。然而,由于Transformer注意力模块在处理图像特征图时的局限性,DETR存在收敛缓慢和特征空间分辨率有限的问题。为了解决这些问题,我们提出了可变形DETR,其注意力模块仅关注参考点周围的一小部分关键采样点。与DETR相比,可变形DETR在训练轮数减少10倍的情况下,仍能取得更好的性能(尤其是在小目标检测上)。我们在COCO基准数据集上的大量实验验证了我们方法的有效性。
许可证
本项目采用Apache 2.0许可证发布。
更改日志
有关主要更改的详细记录,请参阅changelog.md。
引用可变形DETR
如果您在研究中使用了可变形DETR,请考虑引用以下文献:
@article{zhu2020deformable,
title={Deformable DETR: Deformable Transformers for End-to-End Object Detection},
author={Zhu, Xizhou and Su, Weijie and Lu, Lewei and Li, Bin and Wang, Xiaogang and Dai, Jifeng},
journal={arXiv preprint arXiv:2010.04159},
year={2020}
}
主要结果
| 方法 | Epochs | AP | APS | APM | APL | params (M) |
FLOPs (G) |
Total Train Time (GPU hours) |
Train Speed (GPU hours /epoch) |
Infer Speed (FPS) |
Batch Infer Speed (FPS) |
URL |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Faster R-CNN + FPN | 109 | 42.0 | 26.6 | 45.4 | 53.4 | 42 | 180 | 380 | 3.5 | 25.6 | 28.0 | - |
| DETR | 500 | 42.0 | 20.5 | 45.8 | 61.1 | 41 | 86 | 2000 | 4.0 | 27.0 | 38.3 | - |
| DETR-DC5 | 500 | 43.3 | 22.5 | 47.3 | 61.1 | 41 | 187 | 7000 | 14.0 | 11.4 | 12.4 | - |
| DETR-DC5 | 50 | 35.3 | 15.2 | 37.5 | 53.6 | 41 | 187 | 700 | 14.0 | 11.4 | 12.4 | - |
| DETR-DC5+ | 50 | 36.2 | 16.3 | 39.2 | 53.9 | 41 | 187 | 700 | 14.0 | 11.4 | 12.4 | - |
| Deformable DETR (single scale) |
50 | 39.4 | 20.6 | 43.0 | 55.5 | 34 | 78 | 160 | 3.2 | 27.0 | 42.4 | config log model |
| Deformable DETR (single scale, DC5) |
50 | 41.5 | 24.1 | 45.3 | 56.0 | 34 | 128 | 215 | 4.3 | 22.1 | 29.4 | config log model |
| Deformable DETR | 50 | 44.5 | 27.1 | 47.6 | 59.6 | 40 | 173 | 325 | 6.5 | 15.0 | 19.4 | config log model |
| + iterative bounding box refinement | 50 | 46.2 | 28.3 | 49.2 | 61.5 | 41 | 173 | 325 | 6.5 | 15.0 | 19.4 | config log model |
| ++ two-stage Deformable DETR | 50 | 46.9 | 29.6 | 50.1 | 61.6 | 41 | 173 | 340 | 6.8 | 14.5 | 18.8 | config log model |
注释:
- 所有Deformable DETR模型均使用总批量大小为32进行训练。
- 训练和推理速度均在NVIDIA Tesla V100 GPU上测量。
- “Deformable DETR (single scale)”表示仅使用res5特征图(步幅为32)作为可变形Transformer编码器的输入特征图。
- “DC5”表示移除ResNet C5阶段的步幅,并改为使用2倍膨胀率。
- “DETR-DC5+”表示对DETR-DC5进行了一些修改,包括使用焦点损失进行边界框分类,并将对象查询数量增加到300。
- “Batch Infer Speed”指以批量大小为4进行推理,以最大化GPU利用率。
- 原始实现基于我们的内部代码库。由于平台切换中的诸多细节差异,最终的准确性和运行时间可能存在细微差别。
安装
要求
Linux系统,CUDA≥9.2,GCC≥5.4
Python≥3.7
我们建议您使用Anaconda创建一个conda环境:
conda create -n deformable_detr python=3.7 pip然后激活该环境:
conda activate deformable_detrPyTorch≥1.5.1,torchvision≥0.6.1(请按照此处的说明进行安装)
例如,如果您使用的CUDA版本是9.2,可以按如下方式安装PyTorch和torchvision:
conda install pytorch=1.5.1 torchvision=0.6.1 cudatoolkit=9.2 -c pytorch其他依赖项
pip install -r requirements.txt
编译CUDA算子
cd ./models/ops
sh ./make.sh
# 单元测试(应显示所有检查均为True)
python test.py
使用
数据集准备
请下载COCO 2017数据集,并按以下方式组织:
code_root/
└── data/
└── coco/
├── train2017/
├── val2017/
└── annotations/
├── instances_train2017.json
└── instances_val2017.json
训练
单节点训练
例如,在8张GPU上训练Deformable DETR的命令如下:
GPUS_PER_NODE=8 ./tools/run_dist_launch.sh 8 ./configs/r50_deformable_detr.sh
多节点训练
例如,在2个节点上分别使用8张GPU训练Deformable DETR的命令如下:
在节点1上:
MASTER_ADDR=<节点1的IP地址> NODE_RANK=0 GPUS_PER_NODE=8 ./tools/run_dist_launch.sh 16 ./configs/r50_deformable_detr.sh
在节点2上:
MASTER_ADDR=<节点1的IP地址> NODE_RANK=1 GPUS_PER_NODE=8 ./tools/run_dist_launch.sh 16 ./configs/r50_deformable_detr.sh
在Slurm集群上训练
如果你使用的是Slurm集群,可以简单地运行以下命令,在1个节点的8张GPU上进行训练:
GPUS_PER_NODE=8 ./tools/run_dist_slurm.sh <分区> deformable_detr 8 configs/r50_deformable_detr.sh
或者在2个节点上,每个节点8张GPU:
GPUS_PER_NODE=8 ./tools/run_dist_slurm.sh <分区> deformable_detr 16 configs/r50_deformable_detr.sh
加速训练的一些技巧
- 如果你的文件系统读取图像较慢,可以考虑启用
--cache_mode选项,以便在训练开始时将整个数据集加载到内存中。 - 可以根据你的GPU显存情况,适当增大批大小以最大化GPU利用率,例如设置
--batch_size 3或--batch_size 4。
评估
你可以获取Deformable DETR的配置文件和预训练模型(链接见“主要结果”部分),然后运行以下命令在COCO 2017验证集上对其进行评估:
<配置文件路径> --resume <预训练模型路径> --eval
你也可以使用./tools/run_dist_launch.sh或./tools/run_dist_slurm.sh来进行分布式评估。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
opencv
OpenCV 是一个功能强大的开源计算机视觉库,被誉为机器视觉领域的“瑞士军刀”。它主要解决让计算机“看懂”图像和视频的核心难题,提供了从基础的图像读取、色彩转换、边缘检测,到复杂的人脸识别、物体追踪、3D 重建及深度学习模型部署等全方位算法支持。无论是处理静态图片还是分析实时视频流,OpenCV 都能高效完成特征提取与模式识别任务。 这款工具特别适合计算机视觉开发者、人工智能研究人员以及机器人工程师使用。对于希望将视觉感知能力集成到应用中的软件工程师,或是需要快速验证算法原型的学术研究者,OpenCV 都是不可或缺的基础设施。虽然普通用户通常不会直接操作代码,但日常生活中使用的扫码支付、美颜相机和自动驾驶系统,背后往往都有它的身影。 OpenCV 的独特亮点在于其卓越的性能与广泛的兼容性。它采用 C++ 编写以确保高速运算,同时提供 Python、Java 等多种语言接口,极大降低了开发门槛。库中内置了数千种优化算法,并支持跨平台运行,能够无缝对接各类硬件加速器。作为社区驱动的项目,OpenCV 拥有活跃的生态系统和丰富的学习资源,持续推动着视觉技术的前沿发展。