Awesome-3D-Object-Detection
Awesome-3D-Object-Detection 是一个专注于基于激光雷达(LiDAR)的 3D 物体检测技术的精选资源库。它系统性地整理了该领域的前沿学术论文、开源代码实现以及核心数据集,旨在为自动驾驶和机器人感知领域的研究者提供一站式的知识导航。
在自动驾驶技术中,如何从复杂的三维点云数据中精准、实时地识别车辆、行人等障碍物是一大挑战。Awesome-3D-Object-Detection 通过汇聚 KITTI、nuScenes、Waymo 等权威数据集信息,以及 CVPR、ICCV 等顶级会议的最新研究成果(如 VoxelNet、PointNet、BirdNet 等经典算法),帮助使用者快速梳理技术发展脉络,复现先进模型,从而加速算法研发与迭代进程。
这份资源库特别适合人工智能研究人员、自动驾驶算法工程师以及相关领域的学生使用。无论是希望入门 3D 视觉的新手,还是寻求最新技术突破的资深开发者,都能从中找到有价值的参考。其独特的价值在于对"LiDAR 基于方法”的垂直聚焦,剔除了无关干扰,让使用者能更高效地获取高质量的技术情报,是探索三维空间感知世界不可或缺的得力助手。
使用场景
某自动驾驶初创公司的感知算法团队正致力于提升其 L4 级无人车在复杂城市路况下的障碍物识别精度,急需引入最新的激光雷达(LiDAR)三维检测技术。
没有 Awesome-3D-Object-Detection 时
- 文献检索效率低下:工程师需手动在 arXiv、GitHub 及各大顶会网站分散搜索,耗时数周才能拼凑出完整的 3D 检测论文清单,极易遗漏关键成果。
- 数据集匹配困难:面对 KITTI、nuScenes、Waymo 等众多数据集,团队难以快速确认哪些数据适合当前场景,导致前期数据清洗和适配工作反复返工。
- 复现门槛高企:缺乏经过筛选的代码库指引,开发人员常陷入寻找不可用或版本过时的开源项目困境,无法快速验证 VoxelNet、PointNet 等经典算法的实际效果。
- 技术选型盲目:由于不清楚 CVPR、ICCV 等顶级会议的最新 workshop 动态,团队难以判断哪些基于 LiDAR 的方法(如 BirdNet、HDNET)最具落地潜力,增加了试错成本。
使用 Awesome-3D-Object-Detection 后
- 一站式资源聚合:团队直接利用该清单获取了按方法分类的精选论文与代码链接,将技术调研周期从数周压缩至两天,迅速锁定了前沿方案。
- 数据基准清晰化:通过清单中详细列出的 KITTI、nuScenes 等数据集样本数量及特性,团队快速选定了最适合城市道路测试的数据集,加速了模型训练流程。
- 复现路径明确:依托清单提供的权威代码仓库链接,开发人员顺利复现了 RT3D、LMNet 等实时检测算法,并在内部数据集上完成了快速基准测试。
- 紧跟学术前沿:团队通过清单追踪到最新的自动驾驶 Workshop 议题,及时引入了多视图融合等最新技术思路,显著提升了车辆在遮挡场景下的检测鲁棒性。
Awesome-3D-Object-Detection 通过构建标准化的知识索引,将原本碎片化的研发资源转化为高效的创新引擎,极大加速了自动驾驶感知系统的迭代进程。
运行环境要求
未说明
未说明

快速开始
3D目标检测精选资源
一份精心整理的3D目标检测研究列表(基于激光雷达的方法)。
欢迎通过 Pull Request 更新此列表。:smiley:

数据集
-
- 3,712 个训练样本
- 3,769 个验证样本
- 7,518 个测试样本
-
- 28,000 个训练样本
- 6,000 个验证样本
- 6,000 个测试样本
-
- 798 个训练序列,约包含 158,361 个激光雷达样本
- 202 个验证序列,包含 40,077 个激光雷达样本。
顶级会议与研讨会
会议
- 计算机视觉与模式识别会议 (CVPR)
- 国际计算机视觉会议 (ICCV)
- 欧洲计算机视觉会议 (ECCV)
研讨会
CVPR 2019 自动驾驶研讨会(nuScenes 3D 检测)(http://cvpr2019.wad.vision/)
CVPR 2020 自动驾驶研讨会(BDD1k 3D 跟踪)(http://cvpr2020.wad.vision/)
CVPR 2021 自动驾驶研讨会(Waymo 3D 检测)(http://cvpr2021.wad.vision/)
CVPR 2022 自动驾驶研讨会(Waymo 3D 检测)(http://cvpr2022.wad.vision/)
论文(基于激光雷达的方法)
- 基于激光雷达点云的3D目标检测端到端多视角融合 论文
- 使用全卷积网络从3D激光雷达中进行车辆检测(百度) 论文
- VoxelNet:基于点云的3D目标检测端到端学习 论文
- 使用深度卷积网络在占用栅格地图中进行目标检测与分类 论文
- RT3D:用于自动驾驶的激光雷达点云中的实时3D车辆检测 论文
- BirdNet:一种基于激光雷达信息的3D目标检测框架 论文
- LMNet:使用3D激光雷达在CPU上实现的实时多类目标检测 论文
- HDNET:利用高清地图进行3D目标检测 论文
- PointNet:面向3D分类与分割的点集深度学习 论文
- PointNet++:度量空间中点集的深度层次特征学习 论文
- IPOD:基于密集点的点云目标检测器 论文
- PIXOR:从点云中进行实时3D目标检测 论文
- DepthCN:利用3D-LIDAR和ConvNet进行车辆检测 论文
- Voxel-FPN:点云3D目标检测中的多尺度体素特征聚合 论文
- STD:点云的稀疏到稠密3D目标检测器 论文
- Fast Point R-CNN 论文
- StarNet:针对点云目标检测的定向计算 论文
- 面向点云3D目标检测的类别平衡分组与采样 论文
- LaserNet:一种高效的概率型3D目标检测器,适用于自动驾驶 论文
- FVNet:用于实时点云目标检测的3D前视提案生成 论文
- Part-A^2 Net:面向点云目标检测的3D部件感知与聚合神经网络 论文
- PointRCNN:点云中的3D目标提案生成与检测 论文
- Complex-YOLO:点云上的实时3D目标检测 论文
- YOLO4D:一种基于ST方法的激光雷达点云实时多目标检测与分类 论文
- YOLO3D:端到端实时激光雷达点云中的3D定向目标边界框检测 论文
- 基于伪激光雷达点云的单目3D目标检测 论文
- 用于自动驾驶的柱状体目标检测(ECCV2020) 论文
- EPNet:通过图像语义增强点特征以进行3D目标检测(ECCV2020) 论文
- 多回波激光雷达用于3D目标检测(ICCV2021) 论文
- LIGA-Stereo:学习基于立体视觉的3D检测器的激光雷达几何感知表示(ICCV2021) 论文
- SPG:通过语义点生成实现3D目标检测的无监督领域自适应(ICCV2021) 论文
- 结构感知的单阶段点云3D目标检测(CVPR2020) 论文 代码
- MLCVNet:用于3D目标检测的多级上下文VoteNet(CVPR2020) 论文 代码
- 3DSSD:基于点的3D单阶段目标检测器(CVPR2020) 论文 代码
- 基于激光雷达的在线3D视频目标检测,结合图消息传递和时空Transformer注意力(CVPR2020) 论文 代码
- PV-RCNN:用于3D目标检测的点-体素特征集合抽象(CVPR2020) 论文 代码
- Point-GNN:用于点云中3D目标检测的图神经网络(CVPR2020) 论文 代码
- MLCVNet:用于3D目标检测的多级上下文VoteNet(CVPR2020) 论文
- 基于密度聚类的点云3D目标检测(CVPR2020) 论文
- 看到的就是得到的:利用可见性进行3D目标检测(CVPR2020) 论文
- PointPainting:用于3D目标检测的序列融合(CVPR2020) 论文
- HVNet:基于混合体素的激光雷达3D目标检测网络(CVPR2020) 论文
- 激光雷达R-CNN:一种高效通用的3D目标检测器(CVPR2021) 论文
- 基于中心的3D目标检测与跟踪(CVPR2021) 论文
- 3DIoUMatch:利用IoU预测进行半监督3D目标检测(CVPR2021) 论文
- 接受单步3D目标检测器与稀疏Transformer相结合(CVPR2022) 论文,代码
- 面向激光雷达3D目标检测的点密度感知体素(CVPR2022) 论文,代码
- 面向点云理解的统一查询范式(CVPR2022) 论文
- 超越3D暹罗跟踪:面向点云中单个目标跟踪的运动中心范式(CVPR2022) 论文, 代码
- 并非所有点都平等:学习高度高效的基于点的3D激光雷达点云检测器(CVPR2022) 论文,代码
- 回归现实:利用形状引导的标签增强进行弱监督3D目标检测(CVPR2022) 论文,代码
- 体素集合Transformer:一种集合到集合的方法,用于从点云中进行3D目标检测(CVPR2022) 论文,代码
- BoxeR:面向2D和3D Transformer的框注意力(CVPR2022) 论文,代码,中文介绍
- 规范投票:迈向3D场景中鲁棒的定向边界框检测(CVPR2022) 论文,代码
- DeepFusion:用于多模态3D目标检测的激光雷达-相机深度融合(CVPR2022) 论文,代码
- TransFusion:利用Transformer实现3D目标检测的鲁棒激光雷达-相机融合。(CVPR2022) 论文,代码
- Point2Seq:将3D目标视为序列进行检测。(CVPR2022) 论文,代码
- CAT-Det:用于多模态3D目标检测的对比增强Transformer(CVPR2022) 论文
- 激光雷达降雪模拟用于鲁棒3D目标检测(CVPR2022) 论文,代码
- 统一Transformer跟踪器用于目标跟踪(CVPR2022) 论文,代码
- 稀疏融合稠密:通过深度补全实现高质量3D检测(CVPR2022) 论文
- M^2BEV:多摄像头联合3D检测与分割,采用统一鸟瞰图表示(CVPR2022) 论文
- RBGNet:基于射线的分组用于3D目标检测(CVPR2022) 论文,代码
- 快速点Transformer(CVPR2022) 论文
- 用于3D目标检测的焦距稀疏卷积网络(CVPR2022) 论文,代码
- FUTR3D:一个用于3D检测的统一传感器融合框架(CVPR2022) 论文
- VISTA:通过双交叉视图空间注意力提升3D目标检测性能(CVPR2022) 论文,代码
- OccAM的激光:基于遮挡的归因图,用于激光雷达数据上的3D目标检测器(CVPR2022) 论文
- 用于3D目标检测的体素场融合(CVPR2022) 论文,代码
- FSD V2:通过虚拟体素改进完全稀疏的3D目标检测
- LinK:用于激光雷达3D感知的线性核(CVPR2023) 论文,代码
- DSVT:带有旋转集合的动态稀疏体素Transformer(CVPR2023) 论文,代码
- VoxelNeXt:用于3D目标检测与跟踪的完全稀疏体素网(CVPR2023) 论文,代码
- LargeKernel3D:在3D稀疏CNN中扩大卷积核尺寸(CVPR2023) 论文,代码
- FocalFormer3D:专注于困难实例的3D目标检测(ICCV2023) 论文,代码
- CTRL:一旦检测到,永不丢失:超越人类水平的离线激光雷达3D目标检测(ICCV2023) 论文,代码
- Real-Aug:用于3D目标检测中激光雷达增强的真实场景合成(arxiv2023) 论文,代码
竞赛解决方案
工程实现
综述
- 2021年4月 基于点云的自动驾驶3D目标检测与分类方法:综述与分类 论文
- 2021年7月 自动驾驶中的3D目标检测:综述 论文
- 2021年7月 自动驾驶中的多模态3D目标检测:综述 论文
- 2021年10月 基于激光雷达的深度学习自动驾驶3D目标检测方法综合综述 论文
- 2021年12月 面向3D点云的深度学习:综述 论文
书籍
- 基于激光雷达和摄像头的3D目标检测算法:设计与仿真 书籍
视频
- Aivia在线研讨会:3D目标检测与跟踪 视频
- 3D Object Retrieval 2021研讨会 视频
- UCSD SU实验室的3D深度学习教程 视频
- 讲座:自动驾驶汽车(图宾根大学安德烈亚斯·盖格教授) 视频
- 当前点云目标检测方法及未来方向(2021年4月) 视频
- 在CPU上以30+ FPS实现最新3D目标检测——MediaPipe与OpenCV Python(2021年5月) 视频
- MIT自动驾驶研讨会(2019年11月) 视频
- 商汤科技研讨会1 视频
- 商汤科技研讨会2 幻灯片
课程
博客
- Waymo博客
- Apollo介绍之Perception模块
- Apollo笔记(Apollo学习笔记)——面向初学者的Apollo学习笔记。
- PointNet系列论文解读
- Deep3dBox:利用深度学习与几何学进行3D边界框估计
- SECOND算法解析
- PointRCNN深度解读
- Fast PointRCNN论文解读
- PointPillars论文和代码解析
- VoxelNet论文和代码解析
- CenterPoint源码分析
- PV-RCNN:3D目标检测Waymo挑战赛+KITTI榜单单模态第一算法
- LiDAR R-CNN:一种快速、通用的二阶段3D检测器
- 混合体素网络(HVNet)
- 自动驾驶感知| Range Image论文分享
- SST:单步长稀疏Transformer 3D物体检测器
著名研究组/学者
- 王乃彦@Tusimple
- 李洪生@香港中文大学
- Oncel Tuzel@苹果公司
- 奥斯卡·贝伊博姆@nuTonomy
- 拉奎尔·乌尔塔孙@多伦多大学
- 菲利普·克雷亨布尔@UT奥斯汀
- 德瓦·拉马南@卡内基梅隆大学
- 贾亚·贾@香港中文大学
- 托马斯·芬克豪瑟@普林斯顿大学
- 莱昂尼达斯·吉巴斯@斯坦福大学
- 史蒂文·瓦斯兰德@多伦多大学
- 瓦伊斯·阿尔沙里夫@Google Brain
- 蔡宇宁(前)@waymo
- 郭玉兰@国防科技大学
- 张磊@香港理工大学
- 李鸿洋@商汤科技
- 卢克·范·古尔@ETH
- 桑雅·菲德勒@NVIDIA
- 艾伦·L·尤伊尔@约翰霍普金斯大学
- OpenDriveLab
著名代码库
- 点云库(PCL)
- Torchsparse
- Spconv
- Det3D
- mmdetection3d
- OpenPCDet
- Centerpoint
- Apollo Auto - 百度开源自动驾驶平台
- AutoWare - 东京大学自动驾驶平台
- Openpilot - 一个旨在改进当前大多数新车中现有驾驶辅助系统的开源软件
- DeepVision3D
- MinkowskiEngine
著名工具包
致谢
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备