[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-vvincenttttt--Awesome-3D-Object-Detection":3,"tool-vvincenttttt--Awesome-3D-Object-Detection":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":78,"stars":80,"forks":81,"last_commit_at":82,"license":78,"difficulty_score":83,"env_os":84,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":89,"github_topics":91,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":115},4734,"vvincenttttt\u002FAwesome-3D-Object-Detection","Awesome-3D-Object-Detection","Papers, code and datasets about deep learning for 3D Object Detection.","Awesome-3D-Object-Detection 是一个专注于基于激光雷达（LiDAR）的 3D 物体检测技术的精选资源库。它系统性地整理了该领域的前沿学术论文、开源代码实现以及核心数据集，旨在为自动驾驶和机器人感知领域的研究者提供一站式的知识导航。\n\n在自动驾驶技术中，如何从复杂的三维点云数据中精准、实时地识别车辆、行人等障碍物是一大挑战。Awesome-3D-Object-Detection 通过汇聚 KITTI、nuScenes、Waymo 等权威数据集信息，以及 CVPR、ICCV 等顶级会议的最新研究成果（如 VoxelNet、PointNet、BirdNet 等经典算法），帮助使用者快速梳理技术发展脉络，复现先进模型，从而加速算法研发与迭代进程。\n\n这份资源库特别适合人工智能研究人员、自动驾驶算法工程师以及相关领域的学生使用。无论是希望入门 3D 视觉的新手，还是寻求最新技术突破的资深开发者，都能从中找到有价值的参考。其独特的价值在于对\"LiDAR 基于方法”的垂直聚焦，剔除了无关干扰，让使用者能更高效地获取高质量的技术情报，是探索三维空间感知世界不可或缺的得力助手。","[![Maintenance](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMaintained%3F-YES-green.svg)]()\n[![Ask Me Anything !](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAsk%20me-anything-1abc9c.svg)](https:\u002F\u002FGitHub.com\u002FNaereen\u002Fama)\n[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning.svg?color=blue)](https:\u002F\u002Fgithub.com\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning\u002Fblob\u002Fmaster\u002FLICENSE)\n\n\n# Awesome-3D-Object-Detection\nA curated list of research in 3D Object Detection(**Lidar-based Method**). \n\nYou are very welcome to pull request to update this list. :smiley:   \n![3D Object Detection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvvincenttttt_Awesome-3D-Object-Detection_readme_8495c4ae725f.png)\n![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvvincenttttt_Awesome-3D-Object-Detection_readme_ea5045126005.png)\n## Dataset\n- [KITTI Dataset](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002Feval_object.php?obj_benchmark=3d)\n  - 3,712 training samples\n  - 3,769 validation samples\n  - 7,518 testing samples\n\n- [nuScenes Dataset](https:\u002F\u002Fwww.nuscenes.org\u002F)\n  - 28k training samples\n  - 6k validation samples\n  - 6k testing samples\n\n- [Lyft Dataset](https:\u002F\u002Flevel-5.global\u002Fdata\u002Fperception\u002F)\n- [Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdownload\u002F)\n  - 798 training sequences with around 158, 361 LiDAR samples\n  - 202 validation sequences with 40, 077 LiDAR samples.\n\n## Top conference & workshop\n### Conferene\n- Conference on Computer Vision and Pattern Recognition(CVPR)\n- International Conference on Computer Vision(ICCV)\n- European Conference on Computer Vision(ECCV)\n### Workshop\n- CVPR 2019 Workshop on Autonomous Driving([nuScenes 3D detection](http:\u002F\u002Fcvpr2019.wad.vision\u002F))\n- CVPR 2020 Workshop on Autonomous Driving([BDD1k 3D tracking](http:\u002F\u002Fcvpr2020.wad.vision\u002F))\n- CVPR 2021 Workshop on Autonomous Driving([waymo 3D detection](http:\u002F\u002Fcvpr2021.wad.vision\u002F))\n- CVPR 2022 Workshop on Autonomous Driving([waymo 3D detection](http:\u002F\u002Fcvpr2022.wad.vision\u002F))\n- [CVPR 2021 Workshop on 3D Vision and Robotics](https:\u002F\u002Fsites.google.com\u002Fview\u002Fcvpr2021-3d-vision-robotics)\n- [CVPR 2021 Workshop on 3D Scene Understanding for Vision, Graphics, and Robotics](https:\u002F\u002Fscene-understanding.com\u002F)\n\n- [ICCV 2019 Workshop on Autonomous Driving](http:\u002F\u002Fwad.ai\u002F)\n- [ICCV 2021 Workshop on Autonomous Vehicle Vision (AVVision)](https:\u002F\u002Favvision.xyz\u002Ficcv21\u002F), [note](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021W\u002FAVVision\u002Fpapers\u002FFan_Autonomous_Vehicle_Vision_2021_ICCV_Workshop_Summary_ICCVW_2021_paper.pdf)\n- [ICCV 2021 Workshop SSLAD Track 2 - 3D Object Detection](https:\u002F\u002Fcompetitions.codalab.org\u002Fcompetitions\u002F33236#learn_the_details)\n- [ECCV 2020 Workshop on Commands for Autonomous Vehicles](https:\u002F\u002Fc4av-2020.github.io\u002F)\n- [ECCV 2020 Workshop on Perception for Autonomous Driving](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpad2020)\n## Paper (Lidar-based method)\n- End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds [paper](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection\u002Fblob\u002Fmaster)\n- Vehicle Detection from 3D Lidar Using Fully Convolutional Network(baidu) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.07916)\n- VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.06396.pdf)\n- Object Detection and Classification in Occupancy Grid Maps using Deep Convolutional Networks [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.08689.pdf)\n- RT3D: Real-Time 3-D Vehicle Detection in LiDAR Point Cloud for Autonomous Driving [paper](https:\u002F\u002Fwww.onacademic.com\u002Fdetail\u002Fjournal_1000040467923610_4dfe.html)\n- BirdNet: a 3D Object Detection Framework from LiDAR information [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01195.pdf)\n- LMNet: Real-time Multiclass Object Detection on CPU using 3D LiDAR [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.04902.pdf)\n- HDNET: Exploit HD Maps for 3D Object Detection [paper](https:\u002F\u002Flink.zhihu.com\u002F?target=http%3A\u002F\u002Fproceedings.mlr.press\u002Fv87\u002Fyang18b\u002Fyang18b.pdf)\n- PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.00593.pdf)\n- PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.02413)\n- IPOD: Intensive Point-based Object Detector for Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.05276v1)\n- PIXOR: Real-time 3D Object Detection from Point Clouds [paper](http:\u002F\u002Fwww.cs.toronto.edu\u002F~wenjie\u002Fpapers\u002Fcvpr18\u002Fpixor.pdf)\n- DepthCN: Vehicle Detection Using 3D-LIDAR and ConvNet [paper](https:\u002F\u002Fwww.baidu.com\u002Flink?url=EaE2zYjHkWvF33nsET2eNvbFGFu8-D3wWPia04uyKm95jMetHsSv3Zk-tODPGm5clsgCUgtVULsZ6IQqv0EYS_Z8El7Zzh57XzlJroSkaOuC8yv7r1XXL4bUrM2tWrTgjwqzfMV2tMTnFNbMOmHLTkUobgMg7HKoS6WW6PfQzkG&wd=&eqid=8f320cfa0005b878000000055e528b6d)\n- Voxel-FPN: multi-scale voxel feature aggregation in 3D object detection from point clouds [paper](https:\u002F\u002Farxiv.org\u002Fftp\u002Farxiv\u002Fpapers\u002F1907\u002F1907.05286.pdf)\n- STD: Sparse-to-Dense 3D Object Detector for Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.10471)\n- Fast Point R-CNN [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.02990)\n- StarNet: Targeted Computation for Object Detection in Point Clouds [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.11069)\n- Class-balanced Grouping and Sampling for Point Cloud 3D Object Detection [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.09492v1)\n- LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.08701v1)\n- FVNet: 3D Front-View Proposal Generation for Real-Time Object Detection from Point Clouds[ paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.10750v1)\n- Part-A^2 Net: 3D Part-Aware and Aggregation Neural Network for Object Detection from Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.03670v1)\n- PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.04244)\n- Complex-YOLO: Real-time 3D Object Detection on Point Clouds [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06199)\n- YOLO4D: A ST Approach for RT Multi-object Detection and Classification from LiDAR Point Clouds [paper](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection\u002Fblob\u002Fmaster)\n- YOLO3D: End-to-end real-time 3D Oriented Object Bounding Box Detection from LiDAR Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.02350)\n- Monocular 3D Object Detection with Pseudo-LiDAR Point Cloud [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.09847.pdf)\n- Pillar-based Object Detection for Autonomous Driving (ECCV2020) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.10323)\n- EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection(ECCV2020) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.08856)\n- Multi-Echo LiDAR for 3D Object Detection(ICCV2021) [paper](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FMan_Multi-Echo_LiDAR_for_3D_Object_Detection_ICCV_2021_paper.pdf)\n- LIGA-Stereo: Learning LiDAR Geometry Aware Representations for Stereo-based 3D Detector(ICCV2021) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08258)\n- SPG: Unsupervised Domain Adaptation for 3D Object Detection via Semantic Point Generation(ICCV2021) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.06709)\n- Structure Aware Single-stage 3D Object Detection from Point Cloud（CVPR2020) [paper](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fhtml\u002FHe_Structure_Aware_Single-Stage_3D_Object_Detection_From_Point_Cloud_CVPR_2020_paper.html) [code](https:\u002F\u002Fgithub.com\u002Fskyhehe123\u002FSA-SSD)\n- MLCVNet: Multi-Level Context VoteNet for 3D Object Detection（CVPR2020) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.05679) [code](https:\u002F\u002Fgithub.com\u002FNUAAXQ\u002FMLCVNet)\n- 3DSSD: Point-based 3D Single Stage Object Detector（CVPR2020） [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.10187) [code](https:\u002F\u002Fgithub.com\u002Ftomztyang\u002F3DSSD)\n- LiDAR-based Online 3D Video Object Detection with Graph-based Message Passing and Spatiotemporal Transformer Attention（CVPR2020） [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.01389) [code](https:\u002F\u002Fgithub.com\u002Fyinjunbo\u002F3DVID)\n- PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection(CVPR2020) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.13192) [code](https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FPV-RCNN)\n- Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud（CVPR2020） [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.01251) [code](https:\u002F\u002Fgithub.com\u002FWeijingShi\u002FPoint-GNN)\n- MLCVNet: Multi-Level Context VoteNet for 3D Object Detection（CVPR2020） [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.05679)\n- Density Based Clustering for 3D Object Detection in Point Clouds（CVPR2020） [paper](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FAhmed_Density-Based_Clustering_for_3D_Object_Detection_in_Point_Clouds_CVPR_2020_paper.pdf)\n- What You See is What You Get: Exploiting Visibility for 3D Object Detection（CVPR2020) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.04986.pdf)\n- PointPainting: Sequential Fusion for 3D Object Detection(CVPR2020) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.10150.pdf)\n- HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection（CVPR2020) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.00186)\n- LiDAR R-CNN: An Efficient and Universal 3D Object Detector（CVPR2021) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.15297)\n- Center-based 3D Object Detection and Tracking(CVPR2021) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.11275)\n- 3DIoUMatch: Leveraging IoU Prediction for Semi-Supervised 3D Object Detection(CVPR2021) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2012.04355.pdf)\n- Embracing Single Stride 3D Object Detector with Sparse Transformer(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2112.06375.pdf), [code](https:\u002F\u002Fgithub.com\u002FTuSimple\u002FSST)\n- Point Density-Aware Voxels for LiDAR 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.05662), [code](https:\u002F\u002Fgithub.com\u002FTRAILab\u002FPDV)\n- A Unified Query-based Paradigm for Point Cloud Understanding(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01252#:~:text=Abstract%3A%203D%20point%20cloud%20understanding,including%20detection%2C%20segmentation%20and%20classification.)\n- Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01252#:~:text=Abstract%3A%203D%20point%20cloud%20understanding,including%20detection%2C%20segmentation%20and%20classification.), [code](https:\u002F\u002Fgithub.com\u002FGhostish\u002FOpen3DSOT)\n- Not All Points Are Equal: Learning Highly Efficient Point-based Detectors for 3D LiDAR Point Clouds(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11139), [code](https:\u002F\u002Fgithub.com\u002Fyifanzhang713\u002FIA-SSD)\n- Back To Reality: Weakly-supervised 3D Object Detection with Shape-guided Label Enhancement(CVPR2022) [paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2203.05238), [code](https:\u002F\u002Fgithub.com\u002Fxuxw98\u002FBackToReality)\n- Voxel Set Transformer: A Set-to-Set Approach to 3D Object Detection from Point Clouds(CVPR2022) [paper](https:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002Fpaper\u002FVoxSeT_cvpr22.pdf), [code](https:\u002F\u002Fgithub.com\u002Fskyhehe123\u002FVoxSeT)\n- BoxeR: Box-Attention for 2D and 3D Transformers(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13087), [code](https:\u002F\u002Fgithub.com\u002Fkienduynguyen\u002Fboxer), [中文介绍](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FUnUJJBwcAsRgz6TnQf_b7w)\n- Canonical Voting: Towards Robust Oriented Bounding Box Detection in 3D Scenes(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.12001), [code](https:\u002F\u002Fgithub.com\u002Fqq456cvb\u002FCanonicalVoting)\n- DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.08195), [code](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Flingvo)\n- TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with Transformers. (CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11496), [code](https:\u002F\u002Fgithub.com\u002Fxuyangbai\u002Ftransfusion)\n- Point2Seq: Detecting 3D Objects as Sequences. (CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.13394), [code](https:\u002F\u002Fgithub.com\u002Focnflag\u002Fpoint2seq)\n- CAT-Det: Contrastively Augmented Transformer for Multi-modal 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.00325)\n- LiDAR Snowfall Simulation for Robust 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15118), [code](https:\u002F\u002Fgithub.com\u002Fsyscv\u002Flidar_snow_sim)\n- Unified Transformer Tracker for Object Tracking(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15175), [code](https:\u002F\u002Fgithub.com\u002Fvisionml\u002Fpytracking)\n- Sparse Fuse Dense: Towards High Quality 3D Detection with Depth Completion(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09780)\n- M^2BEV: Multi-Camera Joint 3D Detection and Segmentation with Unified Birds-Eye View Representation(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.05088)\n- RBGNet: Ray-based Grouping for 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02251), [code](https:\u002F\u002Fgithub.com\u002Fhaiyang-w\u002Frbgnet)\n- Fast Point Transformer(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.04702)\n- Focal Sparse Convolutional Networks for 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Fjiaya.me\u002Fpapers\u002Fcvpr22_FocalSparseConv.pdf), [code](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FFocalsConv)\n- FUTR3D: A Unified Sensor Fusion Framework for 3D Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10642)\n- VISTA: Boosting 3D Object Detection via Dual Cross-VIew SpaTial Attention(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09704), [code](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FVISTA)\n- OccAM’s Laser: Occlusion-based Attribution Maps for 3D Object Detectors on LiDAR Data(CVPR2022) [paper](https:\u002F\u002Flink.zhihu.com\u002F?target=https%3A\u002F\u002Farxiv.org\u002Fpdf\u002F2204.06577.pdf)\n- Voxel Field Fusion for 3D Object Detection(CVPR2022) [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.15938.pdf), [code](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FVFF)\n- FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels\n- LinK: Linear Kernel for LiDAR-based 3D Perception(CVPR2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16094), [code](https:\u002F\u002Fgithub.com\u002FMCG-NJU\u002FLinK)\n- DSVT: Dynamic Sparse Voxel Transformer with Rotated Sets(CVPR2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06051), [code](https:\u002F\u002Fgithub.com\u002FHaiyang-W\u002FDSVT)\n- VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking(CVPR2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11301), [code](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FVoxelNeXt)\n- LargeKernel3D: Scaling up Kernels in 3D Sparse CNNs(CVPR2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10555),  [code](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FLargeKernel3D)\n- FocalFormer3D : Focusing on Hard Instance for 3D Object Detection(ICCV2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04556), [code](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FFocalFormer3D)\n- CTRL: Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR based 3D Object Detection(ICCV2023)  [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12315), [code](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST)\n- Real-Aug: Realistic Scene Synthesis for LiDAR Augmentation in 3D Object Detection(arxiv2023) [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12853), [code](https:\u002F\u002Fgithub.com\u002FJinglinZhan\u002FReal-Aug)\n## Competition Solution\n- [6th AI Driving Olympics, ICRA 2021](https:\u002F\u002Fdriving-olympics.ai\u002F)\n- [5th AI Driving Olympics, NeurIPS 2020](https:\u002F\u002Fdriving-olympics.ai\u002F)\n- [Workshop on Benchmarking Progress in Autonomous Driving, ICRA 2020](http:\u002F\u002Fmontrealrobotics.ca\u002Fdriving-benchmarks\u002F)\n- [Workshop on Autonomous Driving, CVPR 2019](https:\u002F\u002Fsites.google.com\u002Fview\u002Fwad2019)\n## Engineering\n- Pointpillars-ONNX [code](https:\u002F\u002Fgithub.com\u002FSmallMunich\u002Fnutonomy_pointpillars)\n- Centerpoint-ONNX [code](https:\u002F\u002Fgithub.com\u002FCarkusL\u002FCenterPoint)\n- BEVFormer-TensorRT [code](https:\u002F\u002Fgithub.com\u002FDerryHub\u002FBEVFormer_tensorrt)\n## Survey\n- 2021.04 Point-cloud based 3D object detection and classification methods for self-driving applications: A survey and taxonomy [paper](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fabs\u002Fpii\u002FS1566253520304097)\n- 2021.07 3D Object Detection for Autonomous Driving: A Survey [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10823)\n- 2021.07 Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.12735)\n- 2021.10 A comprehensive survey of LIDAR-based 3D object detection methods with deep learning for autonomous driving [paper](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fabs\u002Fpii\u002FS0097849321001321)\n- 2021.12 Deep Learning for 3D Point Clouds: A Survey [paper](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9127813)\n## Book\n- 3D Object Detection Algorithms Based on Lidar and Camera: Design and Simulation [book](https:\u002F\u002Fwww.amazon.com\u002FObject-Detection-Algorithms-Based-Camera\u002Fdp\u002F6200536538)\n## Video\n- Aivia online workshop: 3D object detection and tracking [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=P0TrkwAdFYQ)\n- 3D Object Retrieval 2021 workshop [video](https:\u002F\u002F3dor2021.github.io\u002Fprogramme.html)\n- 3D Deep Learning Tutorial from SU lab at UCSD [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vfL6uJYFrp4)\n- Lecture: Self-Driving Cars (Prof. Andreas Geiger, University of Tübingen) [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vfL6uJYFrp4)\n- Current Approaches and Future Directions for Point Cloud Object (2021.04) [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xFFCQVwYeec)\n- Latest 3D OBJECT DETECTION with 30+ FPS on CPU - MediaPipe and OpenCV Python (2021.05) [video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=f-Ibri14KMY)\n- MIT autonomous driving seminar (2019.11) [video](https:\u002F\u002Fspace.bilibili.com\u002F174493426\u002Fchannel\u002Fseries)\n- sensetime seminar1 [video](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Bf4y1b7PF?spm_id_from=333.999.0.0)\n- sensetime seminar2 [slides](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11CoKCxRFgzbIujMXxTZjHDo_hV0arEQ7sUFWFXWaX8o\u002Fedit#slide=id.p1)\n## Course\n- [University of Toronto, csc2541](http:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fcourses\u002FCSC2541\u002F06_3D_detection.pdf)\n- [University of Tübingen, Self-Driving Cars](https:\u002F\u002Funi-tuebingen.de\u002Ffakultaeten\u002Fmathematisch-naturwissenschaftliche-fakultaet\u002Ffachbereiche\u002Finformatik\u002Flehrstuehle\u002Fautonomous-vision\u002Flectures\u002Fself-driving-cars\u002F) *(Strong Recommendation)*\n- [baidu-Udacity](https:\u002F\u002Fapollo.auto\u002Fdevcenter\u002Fdevcenter.html)\n- [baidu-apollo](http:\u002F\u002Fbit.baidu.com\u002FSubject\u002Findex\u002Fid\u002F16.html)\n- [University of Toronto, coursera](https:\u002F\u002Fwww.coursera.org\u002Fspecializations\u002Fself-driving-cars?ranMID=40328&ranEAID=9IqCvd3EEQc&ranSiteID=9IqCvd3EEQc-MlZGCwEU2294XsVYWDNwzw&siteID=9IqCvd3EEQc-MlZGCwEU2294XsVYWDNwzw&utm_content=10&utm_medium=partners&utm_source=linkshare&utm_campaign=9IqCvd3EEQc)\n\n## Blog\n- [Waymo Blog](https:\u002F\u002Fblog.waymo.com\u002F)\n- [apollo介绍之Perception模块](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F142401769)\n- [Apollo notes (Apollo学习笔记) - Apollo learning notes for beginners.](https:\u002F\u002Fgithub.com\u002Fdaohu527\u002FDig-into-Apollo#ledger-%E7%9B%AE%E5%BD%95)\n- [PointNet系列论文解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F44809266)\n- [Deep3dBox: 3D Bounding Box Estimation Using Deep Learning and Geometry](https:\u002F\u002Fpatrick-llgc.github.io\u002FLearning-Deep-Learning\u002Fpaper_notes\u002Fdeep3dbox.html)\n- [SECOND算法解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F356892010)\n- [PointRCNN深度解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F361973979)\n- [Fast PointRCNN论文解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F363926237)\n- [PointPillars论文和代码解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F357626425)\n- [VoxelNet论文和代码解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F352419316)\n- [CenterPoint源码分析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F444447881)\n- [PV-RCNN: 3D目标检测 Waymo挑战赛+KITTI榜 单模态第一算法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F148942116)\n- [LiDAR R-CNN：一种快速、通用的二阶段3D检测器](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359800738)\n- [混合体素网络（HVNet)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F122426949)\n- [自动驾驶感知| Range Image paper分享](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420708905)\n- [SST：单步长稀疏Transformer 3D物体检测器](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476056546)\n## Famous Research Group\u002FScholar\n- [Naiyan Wang@Tusimple](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=yAWtq6QAAAAJ&hl=en)\n- [Hongsheng Li@CUHK](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=BN2Ze-QAAAAJ&hl=en)\n- [Oncel Tuzel@Apple](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Fe7NTe0AAAAJ&hl=en)\n- [Oscar Beijbom@nuTonomy](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=XP_Hxm4AAAAJ&hl=en)\n- [Raquel Urtasun@University of Toronto](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=jyxO2akAAAAJ&hl=en)\n- [Philipp Krähenbühl@UT Austin](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=dzOd2hgAAAAJ&view_op=list_works&sortby=pubdate)\n- [Deva Ramanan@CMU](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=9B8PoXUAAAAJ&view_op=list_works&sortby=pubdate)\n- [Jiaya Jia@CUHK](https:\u002F\u002Fjiaya.me\u002F)\n- [Thomas Funkhouser@princeton](https:\u002F\u002Fwww.cs.princeton.edu\u002F~funk\u002F)\n- [Leonidas Guibas@Stanford](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=5JlEyTAAAAAJ&view_op=list_works&sortby=pubdate)\n- [Steven Waslander@University of Toronto](https:\u002F\u002Fwww.trailab.utias.utoronto.ca\u002F)\n- [Ouais Alsharif@Google Brain](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=nFefEI8AAAAJ&view_op=list_works&sortby=pubdate)\n- [Yuning CHAI(former)@waymo](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=i7U4YogAAAAJ&view_op=list_works&sortby=pubdate)\n- [Yulan Guo@NUDT](http:\u002F\u002Fyulanguo.me\u002F)\n- [Lei Zhang@The Hong Kong Polytechnic University](https:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002F)\n- [Hongyang Li@sensetime](https:\u002F\u002Flihongyang.info\u002F)\n- [Luc Van Gool@ETH](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=TwMib_QAAAAJ&hl=en)\n- [Sanja Fidler@NVIDIA](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=CUlqK5EAAAAJ&view_op=list_works&citft=1&email_for_op=tianhaofu1%40gmail.com&sortby=pubdate)\n- [Alan L. Yuille@JHU](https:\u002F\u002Fwww.cs.jhu.edu\u002F~ayuille\u002F)\n- [OpenDriveLab](https:\u002F\u002Fgithub.com\u002FOpenDriveLab)\n## Famous CodeBase\n- [Point Cloud Library (PCL)](https:\u002F\u002Fgithub.com\u002FPointCloudLibrary\u002Fpcl)\n- [Torchsparse](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse)\n- [Spconv](https:\u002F\u002Fgithub.com\u002Ftraveller59\u002Fspconv)\n- [Det3D](https:\u002F\u002Fgithub.com\u002Fpoodarchu\u002FDet3D)\n- [mmdetection3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n- [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet)\n- [Centerpoint](https:\u002F\u002Fgithub.com\u002Ftianweiy\u002FCenterPoint)\n- [Apollo Auto - Baidu open autonomous driving platform](https:\u002F\u002Fgithub.com\u002FApolloAuto)\n- [AutoWare - The University of Tokyo autonomous driving platform](https:\u002F\u002Fwww.autoware.org\u002F)\n- [Openpilot - A open source software built to improve upon the existing driver assistance in most new cars on the road today](https:\u002F\u002Fcomma.ai\u002F)\n- [DeepVision3D](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FDeepVision3D)\n- [MinkowskiEngine](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FMinkowskiEngine)\n\n\n## Famous Toolkit\n- [ZED Box](https:\u002F\u002Fwww.stereolabs.com\u002Fdocs\u002Fobject-detection\u002F)\n\n# Acknowlegement\n[Awesome System for Machine Learning](https:\u002F\u002Fgithub.com\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning)\n\n[awesome-3D-object-detection](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection)\n\n\n","[![维护中](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FMaintained%3F-YES-green.svg)]()\n[![问我任何问题！](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAsk%20me-anything-1abc9c.svg)](https:\u002F\u002FGitHub.com\u002FNaereen\u002Fama)\n[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n[![GitHub 许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning.svg?color=blue)](https:\u002F\u002Fgithub.com\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning\u002Fblob\u002Fmaster\u002FLICENSE)\n\n\n# 3D目标检测精选资源\n一份精心整理的3D目标检测研究列表（基于激光雷达的方法）。\n\n欢迎通过 Pull Request 更新此列表。:smiley:   \n![3D目标检测](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvvincenttttt_Awesome-3D-Object-Detection_readme_8495c4ae725f.png)\n![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvvincenttttt_Awesome-3D-Object-Detection_readme_ea5045126005.png)\n## 数据集\n- [KITTI 数据集](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002Feval_object.php?obj_benchmark=3d)\n  - 3,712 个训练样本\n  - 3,769 个验证样本\n  - 7,518 个测试样本\n\n- [nuScenes 数据集](https:\u002F\u002Fwww.nuscenes.org\u002F)\n  - 28,000 个训练样本\n  - 6,000 个验证样本\n  - 6,000 个测试样本\n\n- [Lyft 数据集](https:\u002F\u002Flevel-5.global\u002Fdata\u002Fperception\u002F)\n- [Waymo 开放数据集](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdownload\u002F)\n  - 798 个训练序列，约包含 158,361 个激光雷达样本\n  - 202 个验证序列，包含 40,077 个激光雷达样本。\n\n## 顶级会议与研讨会\n### 会议\n- 计算机视觉与模式识别会议 (CVPR)\n- 国际计算机视觉会议 (ICCV)\n- 欧洲计算机视觉会议 (ECCV)\n\n### 研讨会\n- CVPR 2019 自动驾驶研讨会（nuScenes 3D 检测）([http:\u002F\u002Fcvpr2019.wad.vision\u002F](http:\u002F\u002Fcvpr2019.wad.vision\u002F))\n- CVPR 2020 自动驾驶研讨会（BDD1k 3D 跟踪）([http:\u002F\u002Fcvpr2020.wad.vision\u002F](http:\u002F\u002Fcvpr2020.wad.vision\u002F))\n- CVPR 2021 自动驾驶研讨会（Waymo 3D 检测）([http:\u002F\u002Fcvpr2021.wad.vision\u002F](http:\u002F\u002Fcvpr2021.wad.vision\u002F))\n- CVPR 2022 自动驾驶研讨会（Waymo 3D 检测）([http:\u002F\u002Fcvpr2022.wad.vision\u002F](http:\u002F\u002Fcvpr2022.wad.vision\u002F))\n- [CVPR 2021 3D 视觉与机器人研讨会](https:\u002F\u002Fsites.google.com\u002Fview\u002Fcvpr2021-3d-vision-robotics)\n- [CVPR 2021 3D 场景理解研讨会：面向视觉、图形学和机器人领域](https:\u002F\u002Fscene-understanding.com\u002F)\n\n- [ICCV 2019 自动驾驶研讨会](http:\u002F\u002Fwad.ai\u002F)\n- [ICCV 2021 自动驾驶视觉研讨会 (AVVision)](https:\u002F\u002Favvision.xyz\u002Ficcv21\u002F)，[注释](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021W\u002FAVVision\u002Fpapers\u002FFan_Autonomous_Vehicle_Vision_2021_ICCV_Workshop_Summary_ICCVW_2021_paper.pdf)\n- [ICCV 2021 SSLAD Track 2 - 3D 目标检测](https:\u002F\u002Fcompetitions.codalab.org\u002Fcompetitions\u002F33236#learn_the_details)\n- [ECCV 2020 自动驾驶指令研讨会](https:\u002F\u002Fc4av-2020.github.io\u002F)\n- [ECCV 2020 自动驾驶感知研讨会](https:\u002F\u002Fsites.google.com\u002Fview\u002Fpad2020)\n\n## 论文（基于激光雷达的方法）\n- 基于激光雷达点云的3D目标检测端到端多视角融合 [论文](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection\u002Fblob\u002Fmaster)\n- 使用全卷积网络从3D激光雷达中进行车辆检测（百度） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.07916)\n- VoxelNet：基于点云的3D目标检测端到端学习 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.06396.pdf)\n- 使用深度卷积网络在占用栅格地图中进行目标检测与分类 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.08689.pdf)\n- RT3D：用于自动驾驶的激光雷达点云中的实时3D车辆检测 [论文](https:\u002F\u002Fwww.onacademic.com\u002Fdetail\u002Fjournal_1000040467923610_4dfe.html)\n- BirdNet：一种基于激光雷达信息的3D目标检测框架 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01195.pdf)\n- LMNet：使用3D激光雷达在CPU上实现的实时多类目标检测 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.04902.pdf)\n- HDNET：利用高清地图进行3D目标检测 [论文](https:\u002F\u002Flink.zhihu.com\u002F?target=http%3A\u002F\u002Fproceedings.mlr.press\u002Fv87\u002Fyang18b\u002Fyang18b.pdf)\n- PointNet：面向3D分类与分割的点集深度学习 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.00593.pdf)\n- PointNet++：度量空间中点集的深度层次特征学习 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.02413)\n- IPOD：基于密集点的点云目标检测器 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.05276v1)\n- PIXOR：从点云中进行实时3D目标检测 [论文](http:\u002F\u002Fwww.cs.toronto.edu\u002F~wenjie\u002Fpapers\u002Fcvpr18\u002Fpixor.pdf)\n- DepthCN：利用3D-LIDAR和ConvNet进行车辆检测 [论文](https:\u002F\u002Fwww.baidu.com\u002Flink?url=EaE2zYjHkWvF33nsET2eNvbFGFu8-D3wWPia04uyKm95jMetHsSv3Zk-tODPGm5clsgCUgtVULsZ6IQqv0EYS_Z8El7Zzh57XzlJroSkaOuC8yv7r1XXL4bUrM2tWrTgjwqzfMV2tMTnFNbMOmHLTkUobgMg7HKoS6WW6PfQzkG&wd=&eqid=8f320cfa0005b878000000055e528b6d)\n- Voxel-FPN：点云3D目标检测中的多尺度体素特征聚合 [论文](https:\u002F\u002Farxiv.org\u002Fftp\u002Farxiv\u002Fpapers\u002F1907\u002F1907.05286.pdf)\n- STD：点云的稀疏到稠密3D目标检测器 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.10471)\n- Fast Point R-CNN [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.02990)\n- StarNet：针对点云目标检测的定向计算 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.11069)\n- 面向点云3D目标检测的类别平衡分组与采样 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.09492v1)\n- LaserNet：一种高效的概率型3D目标检测器，适用于自动驾驶 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.08701v1)\n- FVNet：用于实时点云目标检测的3D前视提案生成 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.10750v1)\n- Part-A^2 Net：面向点云目标检测的3D部件感知与聚合神经网络 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.03670v1)\n- PointRCNN：点云中的3D目标提案生成与检测 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.04244)\n- Complex-YOLO：点云上的实时3D目标检测 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06199)\n- YOLO4D：一种基于ST方法的激光雷达点云实时多目标检测与分类 [论文](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection\u002Fblob\u002Fmaster)\n- YOLO3D：端到端实时激光雷达点云中的3D定向目标边界框检测 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1808.02350)\n- 基于伪激光雷达点云的单目3D目标检测 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.09847.pdf)\n- 用于自动驾驶的柱状体目标检测（ECCV2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.10323)\n- EPNet：通过图像语义增强点特征以进行3D目标检测（ECCV2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.08856)\n- 多回波激光雷达用于3D目标检测（ICCV2021） [论文](https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FICCV2021\u002Fpapers\u002FMan_Multi-Echo_LiDAR_for_3D_Object_Detection_ICCV_2021_paper.pdf)\n- LIGA-Stereo：学习基于立体视觉的3D检测器的激光雷达几何感知表示（ICCV2021） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08258)\n- SPG：通过语义点生成实现3D目标检测的无监督领域自适应（ICCV2021） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.06709)\n- 结构感知的单阶段点云3D目标检测（CVPR2020） [论文](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fhtml\u002FHe_Structure_Aware_Single-Stage_3D_Object_Detection_From_Point_Cloud_CVPR_2020_paper.html) [代码](https:\u002F\u002Fgithub.com\u002Fskyhehe123\u002FSA-SSD)\n- MLCVNet：用于3D目标检测的多级上下文VoteNet（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.05679) [代码](https:\u002F\u002Fgithub.com\u002FNUAAXQ\u002FMLCVNet)\n- 3DSSD：基于点的3D单阶段目标检测器（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.10187) [代码](https:\u002F\u002Fgithub.com\u002Ftomztyang\u002F3DSSD)\n- 基于激光雷达的在线3D视频目标检测，结合图消息传递和时空Transformer注意力（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.01389) [代码](https:\u002F\u002Fgithub.com\u002Fyinjunbo\u002F3DVID)\n- PV-RCNN：用于3D目标检测的点-体素特征集合抽象（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.13192) [代码](https:\u002F\u002Fgithub.com\u002Fsshaoshuai\u002FPV-RCNN)\n- Point-GNN：用于点云中3D目标检测的图神经网络（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.01251) [代码](https:\u002F\u002Fgithub.com\u002FWeijingShi\u002FPoint-GNN)\n- MLCVNet：用于3D目标检测的多级上下文VoteNet（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.05679)\n- 基于密度聚类的点云3D目标检测（CVPR2020） [论文](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2020\u002Fpapers\u002FAhmed_Density-Based_Clustering_for_3D_Object_Detection_in_Point_Clouds_CVPR_2020_paper.pdf)\n- 看到的就是得到的：利用可见性进行3D目标检测（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1912.04986.pdf)\n- PointPainting：用于3D目标检测的序列融合（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.10150.pdf)\n- HVNet：基于混合体素的激光雷达3D目标检测网络（CVPR2020） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.00186)\n- 激光雷达R-CNN：一种高效通用的3D目标检测器（CVPR2021） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.15297)\n- 基于中心的3D目标检测与跟踪（CVPR2021） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.11275)\n- 3DIoUMatch：利用IoU预测进行半监督3D目标检测（CVPR2021） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2012.04355.pdf)\n- 接受单步3D目标检测器与稀疏Transformer相结合（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2112.06375.pdf)，[代码](https:\u002F\u002Fgithub.com\u002FTuSimple\u002FSST)\n- 面向激光雷达3D目标检测的点密度感知体素（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.05662)，[代码](https:\u002F\u002Fgithub.com\u002FTRAILab\u002FPDV)\n- 面向点云理解的统一查询范式（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01252#:~:text=Abstract%3A%203D%20point%20cloud%20understanding,including%20detection%2C%20segmentation%20and%20classification.)\n- 超越3D暹罗跟踪：面向点云中单个目标跟踪的运动中心范式（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01252#:~:text=Abstract%3A%203D%20point%20cloud%20understanding,including%20detection%2C%20segmentation%20and%20classification.), [代码](https:\u002F\u002Fgithub.com\u002FGhostish\u002FOpen3DSOT)\n- 并非所有点都平等：学习高度高效的基于点的3D激光雷达点云检测器（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11139)，[代码](https:\u002F\u002Fgithub.com\u002Fyifanzhang713\u002FIA-SSD)\n- 回归现实：利用形状引导的标签增强进行弱监督3D目标检测（CVPR2022） [论文](http:\u002F\u002Farxiv.org\u002Fabs\u002F2203.05238)，[代码](https:\u002F\u002Fgithub.com\u002Fxuxw98\u002FBackToReality)\n- 体素集合Transformer：一种集合到集合的方法，用于从点云中进行3D目标检测（CVPR2022） [论文](https:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002Fpaper\u002FVoxSeT_cvpr22.pdf)，[代码](https:\u002F\u002Fgithub.com\u002Fskyhehe123\u002FVoxSeT)\n- BoxeR：面向2D和3D Transformer的框注意力（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.13087)，[代码](https:\u002F\u002Fgithub.com\u002Fkienduynguyen\u002Fboxer)，[中文介绍](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FUnUJJBwcAsRgz6TnQf_b7w)\n- 规范投票：迈向3D场景中鲁棒的定向边界框检测（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2011.12001)，[代码](https:\u002F\u002Fgithub.com\u002Fqq456cvb\u002FCanonicalVoting)\n- DeepFusion：用于多模态3D目标检测的激光雷达-相机深度融合（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.08195)，[代码](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Flingvo)\n- TransFusion：利用Transformer实现3D目标检测的鲁棒激光雷达-相机融合。（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11496)，[代码](https:\u002F\u002Fgithub.com\u002Fxuyangbai\u002Ftransfusion)\n- Point2Seq：将3D目标视为序列进行检测。（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.13394)，[代码](https:\u002F\u002Fgithub.com\u002Focnflag\u002Fpoint2seq)\n- CAT-Det：用于多模态3D目标检测的对比增强Transformer（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.00325)\n- 激光雷达降雪模拟用于鲁棒3D目标检测（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15118)，[代码](https:\u002F\u002Fgithub.com\u002Fsyscv\u002Flidar_snow_sim)\n- 统一Transformer跟踪器用于目标跟踪（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.15175)，[代码](https:\u002F\u002Fgithub.com\u002Fvisionml\u002Fpytracking)\n- 稀疏融合稠密：通过深度补全实现高质量3D检测（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09780)\n- M^2BEV：多摄像头联合3D检测与分割，采用统一鸟瞰图表示（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.05088)\n- RBGNet：基于射线的分组用于3D目标检测（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2204.02251)，[代码](https:\u002F\u002Fgithub.com\u002Fhaiyang-w\u002Frbgnet)\n- 快速点Transformer（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.04702)\n- 用于3D目标检测的焦距稀疏卷积网络（CVPR2022） [论文](https:\u002F\u002Fjiaya.me\u002Fpapers\u002Fcvpr22_FocalSparseConv.pdf)，[代码](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FFocalsConv)\n- FUTR3D：一个用于3D检测的统一传感器融合框架（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.10642)\n- VISTA：通过双交叉视图空间注意力提升3D目标检测性能（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.09704)，[代码](https:\u002F\u002Fgithub.com\u002FGorilla-Lab-SCUT\u002FVISTA)\n- OccAM的激光：基于遮挡的归因图，用于激光雷达数据上的3D目标检测器（CVPR2022） [论文](https:\u002F\u002Flink.zhihu.com\u002F?target=https%3A\u002F\u002Farxiv.org\u002Fpdf\u002F2204.06577.pdf)\n- 用于3D目标检测的体素场融合（CVPR2022） [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.15938.pdf)，[代码](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FVFF)\n- FSD V2：通过虚拟体素改进完全稀疏的3D目标检测\n- LinK：用于激光雷达3D感知的线性核（CVPR2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.16094)，[代码](https:\u002F\u002Fgithub.com\u002FMCG-NJU\u002FLinK)\n- DSVT：带有旋转集合的动态稀疏体素Transformer（CVPR2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.06051)，[代码](https:\u002F\u002Fgithub.com\u002FHaiyang-W\u002FDSVT)\n- VoxelNeXt：用于3D目标检测与跟踪的完全稀疏体素网（CVPR2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.11301)，[代码](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FVoxelNeXt)\n- LargeKernel3D：在3D稀疏CNN中扩大卷积核尺寸（CVPR2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.10555)，[代码](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FLargeKernel3D)\n- FocalFormer3D：专注于困难实例的3D目标检测（ICCV2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04556)，[代码](https:\u002F\u002Fgithub.com\u002FNVlabs\u002FFocalFormer3D)\n- CTRL：一旦检测到，永不丢失：超越人类水平的离线激光雷达3D目标检测（ICCV2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12315)，[代码](https:\u002F\u002Fgithub.com\u002Ftusen-ai\u002FSST)\n- Real-Aug：用于3D目标检测中激光雷达增强的真实场景合成（arxiv2023） [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12853)，[代码](https:\u002F\u002Fgithub.com\u002FJinglinZhan\u002FReal-Aug)\n\n## 竞赛解决方案\n- [第六届AI自动驾驶奥运会，ICRA 2021](https:\u002F\u002Fdriving-olympics.ai\u002F)\n- [第五届AI自动驾驶奥运会，NeurIPS 2020](https:\u002F\u002Fdriving-olympics.ai\u002F)\n- [ICRA 2020自动驾驶基准测试进展研讨会](http:\u002F\u002Fmontrealrobotics.ca\u002Fdriving-benchmarks\u002F)\n- [CVPR 2019自动驾驶研讨会](https:\u002F\u002Fsites.google.com\u002Fview\u002Fwad2019)\n## 工程实现\n- Pointpillars-ONNX [代码](https:\u002F\u002Fgithub.com\u002FSmallMunich\u002Fnutonomy_pointpillars)\n- Centerpoint-ONNX [代码](https:\u002F\u002Fgithub.com\u002FCarkusL\u002FCenterPoint)\n- BEVFormer-TensorRT [代码](https:\u002F\u002Fgithub.com\u002FDerryHub\u002FBEVFormer_tensorrt)\n## 综述\n- 2021年4月 基于点云的自动驾驶3D目标检测与分类方法：综述与分类 [论文](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fabs\u002Fpii\u002FS1566253520304097)\n- 2021年7月 自动驾驶中的3D目标检测：综述 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10823)\n- 2021年7月 自动驾驶中的多模态3D目标检测：综述 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.12735)\n- 2021年10月 基于激光雷达的深度学习自动驾驶3D目标检测方法综合综述 [论文](https:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fabs\u002Fpii\u002FS0097849321001321)\n- 2021年12月 面向3D点云的深度学习：综述 [论文](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9127813)\n## 书籍\n- 基于激光雷达和摄像头的3D目标检测算法：设计与仿真 [书籍](https:\u002F\u002Fwww.amazon.com\u002FObject-Detection-Algorithms-Based-Camera\u002Fdp\u002F6200536538)\n## 视频\n- Aivia在线研讨会：3D目标检测与跟踪 [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=P0TrkwAdFYQ)\n- 3D Object Retrieval 2021研讨会 [视频](https:\u002F\u002F3dor2021.github.io\u002Fprogramme.html)\n- UCSD SU实验室的3D深度学习教程 [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vfL6uJYFrp4)\n- 讲座：自动驾驶汽车（图宾根大学安德烈亚斯·盖格教授） [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=vfL6uJYFrp4)\n- 当前点云目标检测方法及未来方向（2021年4月） [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xFFCQVwYeec)\n- 在CPU上以30+ FPS实现最新3D目标检测——MediaPipe与OpenCV Python（2021年5月） [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=f-Ibri14KMY)\n- MIT自动驾驶研讨会（2019年11月） [视频](https:\u002F\u002Fspace.bilibili.com\u002F174493426\u002Fchannel\u002Fseries)\n- 商汤科技研讨会1 [视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Bf4y1b7PF?spm_id_from=333.999.0.0)\n- 商汤科技研讨会2 [幻灯片](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11CoKCxRFgzbIujMXxTZjHDo_hV0arEQ7sUFWFXWaX8o\u002Fedit#slide=id.p1)\n## 课程\n- [多伦多大学，csc2541](http:\u002F\u002Fwww.cs.toronto.edu\u002F~urtasun\u002Fcourses\u002FCSC2541\u002F06_3D_detection.pdf)\n- [图宾根大学，自动驾驶汽车](https:\u002F\u002Funi-tuebingen.de\u002Ffakultaeten\u002Fmathematisch-naturwissenschaftliche-fakultaet\u002Ffachbereiche\u002Finformatik\u002Flehrstuehle\u002Fautonomous-vision\u002Flectures\u002Fself-driving-cars\u002F) *(强烈推荐)*\n- [百度-Udacity](https:\u002F\u002Fapollo.auto\u002Fdevcenter\u002Fdevcenter.html)\n- [百度-Apollo](http:\u002F\u002Fbit.baidu.com\u002FSubject\u002Findex\u002Fid\u002F16.html)\n- [多伦多大学，coursera](https:\u002F\u002Fwww.coursera.org\u002Fspecializations\u002Fself-driving-cars?ranMID=40328&ranEAID=9IqCvd3EEQc&ranSiteID=9IqCvd3EEQc-MlZGCwEU2294XsVYWDNwzw&siteID=9IqCvd3EEQc-MlZGCwEU2294XsVYWDNwzw&utm_content=10&utm_medium=partners&utm_source=linkshare&utm_campaign=9IqCvd3EEQc)\n\n## 博客\n- [Waymo博客](https:\u002F\u002Fblog.waymo.com\u002F)\n- [Apollo介绍之Perception模块](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F142401769)\n- [Apollo笔记（Apollo学习笔记）——面向初学者的Apollo学习笔记。](https:\u002F\u002Fgithub.com\u002Fdaohu527\u002FDig-into-Apollo#ledger-%E7%9B%AE%E5%BD%95)\n- [PointNet系列论文解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F44809266)\n- [Deep3dBox：利用深度学习与几何学进行3D边界框估计](https:\u002F\u002Fpatrick-llgc.github.io\u002FLearning-Deep-Learning\u002Fpaper_notes\u002Fdeep3dbox.html)\n- [SECOND算法解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F356892010)\n- [PointRCNN深度解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F361973979)\n- [Fast PointRCNN论文解读](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F363926237)\n- [PointPillars论文和代码解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F357626425)\n- [VoxelNet论文和代码解析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F352419316)\n- [CenterPoint源码分析](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F444447881)\n- [PV-RCNN：3D目标检测Waymo挑战赛+KITTI榜单单模态第一算法](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F148942116)\n- [LiDAR R-CNN：一种快速、通用的二阶段3D检测器](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359800738)\n- [混合体素网络（HVNet)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F122426949)\n- [自动驾驶感知| Range Image论文分享](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F420708905)\n- [SST：单步长稀疏Transformer 3D物体检测器](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F476056546)\n## 著名研究组\u002F学者\n- [王乃彦@Tusimple](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=yAWtq6QAAAAJ&hl=en)\n- [李洪生@香港中文大学](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=BN2Ze-QAAAAJ&hl=en)\n- [Oncel Tuzel@苹果公司](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Fe7NTe0AAAAJ&hl=en)\n- [奥斯卡·贝伊博姆@nuTonomy](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=XP_Hxm4AAAAJ&hl=en)\n- [拉奎尔·乌尔塔孙@多伦多大学](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=jyxO2akAAAAJ&hl=en)\n- [菲利普·克雷亨布尔@UT奥斯汀](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=dzOd2hgAAAAJ&view_op=list_works&sortby=pubdate)\n- [德瓦·拉马南@卡内基梅隆大学](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=9B8PoXUAAAAJ&view_op=list_works&sortby=pubdate)\n- [贾亚·贾@香港中文大学](https:\u002F\u002Fjiaya.me\u002F)\n- [托马斯·芬克豪瑟@普林斯顿大学](https:\u002F\u002Fwww.cs.princeton.edu\u002F~funk\u002F)\n- [莱昂尼达斯·吉巴斯@斯坦福大学](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=5JlEyTAAAAAJ&view_op=list_works&sortby=pubdate)\n- [史蒂文·瓦斯兰德@多伦多大学](https:\u002F\u002Fwww.trailab.utias.utoronto.ca\u002F)\n- [瓦伊斯·阿尔沙里夫@Google Brain](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=nFefEI8AAAAJ&view_op=list_works&sortby=pubdate)\n- [蔡宇宁（前）@waymo](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=i7U4YogAAAAJ&view_op=list_works&sortby=pubdate)\n- [郭玉兰@国防科技大学](http:\u002F\u002Fyulanguo.me\u002F)\n- [张磊@香港理工大学](https:\u002F\u002Fwww4.comp.polyu.edu.hk\u002F~cslzhang\u002F)\n- [李鸿洋@商汤科技](https:\u002F\u002Flihongyang.info\u002F)\n- [卢克·范·古尔@ETH](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=TwMib_QAAAAJ&hl=en)\n- [桑雅·菲德勒@NVIDIA](https:\u002F\u002Fscholar.google.com\u002Fcitations?hl=en&user=CUlqK5EAAAAJ&view_op=list_works&citft=1&email_for_op=tianhaofu1%40gmail.com&sortby=pubdate)\n- [艾伦·L·尤伊尔@约翰霍普金斯大学](https:\u002F\u002Fwww.cs.jhu.edu\u002F~ayuille\u002F)\n- [OpenDriveLab](https:\u002F\u002Fgithub.com\u002FOpenDriveLab)\n\n## 著名代码库\n- [点云库（PCL）](https:\u002F\u002Fgithub.com\u002FPointCloudLibrary\u002Fpcl)\n- [Torchsparse](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse)\n- [Spconv](https:\u002F\u002Fgithub.com\u002Ftraveller59\u002Fspconv)\n- [Det3D](https:\u002F\u002Fgithub.com\u002Fpoodarchu\u002FDet3D)\n- [mmdetection3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)\n- [OpenPCDet](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet)\n- [Centerpoint](https:\u002F\u002Fgithub.com\u002Ftianweiy\u002FCenterPoint)\n- [Apollo Auto - 百度开源自动驾驶平台](https:\u002F\u002Fgithub.com\u002FApolloAuto)\n- [AutoWare - 东京大学自动驾驶平台](https:\u002F\u002Fwww.autoware.org\u002F)\n- [Openpilot - 一个旨在改进当前大多数新车中现有驾驶辅助系统的开源软件](https:\u002F\u002Fcomma.ai\u002F)\n- [DeepVision3D](https:\u002F\u002Fgithub.com\u002Fdvlab-research\u002FDeepVision3D)\n- [MinkowskiEngine](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FMinkowskiEngine)\n\n\n## 著名工具包\n- [ZED Box](https:\u002F\u002Fwww.stereolabs.com\u002Fdocs\u002Fobject-detection\u002F)\n\n# 致谢\n[机器学习系统大全](https:\u002F\u002Fgithub.com\u002FHuaizhengZhang\u002FAwesome-System-for-Machine-Learning)\n\n[3D目标检测精选项目](https:\u002F\u002Fgithub.com\u002FTom-Hardy-3D-Vision-Workshop\u002Fawesome-3D-object-detection)","# Awesome-3D-Object-Detection 快速上手指南\n\n**项目简介**：\n`Awesome-3D-Object-Detection` 并非一个可直接运行的单一软件包，而是一个精选的**基于 LiDAR 的 3D 目标检测研究资源列表**。它汇集了主流数据集、顶级会议论文及对应的开源代码实现。本指南将指导开发者如何利用该列表中的资源，快速搭建环境并运行经典的 3D 检测模型（以列表中高频出现的 **PointRCNN** 或 **PV-RCNN** 为例）。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求。由于 3D 点云处理对计算性能要求较高，强烈建议使用配备 NVIDIA GPU 的 Linux 环境。\n\n*   **操作系统**：Ubuntu 18.04 \u002F 20.04 (推荐)\n*   **硬件要求**：\n    *   GPU: NVIDIA 显卡 (显存建议 ≥ 8GB，支持 CUDA 10.2 或 11.x)\n    *   CPU: 多核处理器\n*   **前置依赖**：\n    *   Python >= 3.7\n    *   CUDA Toolkit & cuDNN (需与 PyTorch 版本匹配)\n    *   Git\n    *   C++ 编译器 (g++)\n\n**推荐国内加速方案**：\n配置 pip 使用清华或阿里镜像源，以加快依赖包下载速度。\n```bash\npip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 2. 安装步骤\n\n由于该仓库是论文列表，您需要选择其中具体的某个算法项目进行安装。以下以列表中经典的 **OpenPCDet** 框架（支持 PV-RCNN, PointRCNN, SECOND 等多种算法）为例进行安装，这是复现列表中大多数 SOTA 模型的首选通用框架。\n\n### 2.1 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet.git\ncd OpenPCDet\n```\n\n### 2.2 创建虚拟环境并安装 PyTorch\n建议使用 Conda 管理环境。以下命令安装与 CUDA 11.3 兼容的 PyTorch（请根据实际显卡驱动调整版本）：\n```bash\nconda create -n pcdet python=3.8 -y\nconda activate pcdet\n\n# 使用清华镜像安装 PyTorch\nconda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3 -c pytorch -c conda-forge\n```\n\n### 2.3 安装项目依赖\n安装 `requirements.txt` 中的基础依赖：\n```bash\npip install -r requirements.txt\n```\n\n### 2.4 编译扩展模块\n3D 检测算法通常包含自定义的 CUDA 算子（如点云采样、体素化等），需要编译安装：\n```bash\npython setup.py develop\n```\n*注：若编译报错，请检查 `gcc` 和 `nvcc` 版本是否匹配。*\n\n## 3. 基本使用\n\n安装完成后，您需要准备数据并运行预训练模型进行推理或训练。\n\n### 3.1 数据集准备\n列表中提到的 **KITTI** 是最常用的入门数据集。\n1.  从 [KITTI 官网](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F) 下载数据。\n2.  按照 `OpenPCDet\u002Fdata\u002Fkitti` 目录下的结构整理数据。\n3.  生成信息文件（Info Files）：\n    ```bash\n    python -m pcdet.datasets.kitti.kitti_dataset create_kitti_infos tools\u002Fcfgs\u002Fdataset_configs\u002Fkitti_dataset.yaml\n    ```\n\n### 3.2 运行推理示例\n假设您已下载了 **PointRCNN** 的预训练权重（可在原论文链接或 OpenPCDet 提供的模型库中找到），执行以下命令对 KITTI 验证集进行推理：\n\n```bash\npython demo.py --cfg_file tools\u002Fcfgs\u002Fkitti_models\u002Fpointrcnn.yaml \\\n               --ckpt checkpoint\u002Fpointrcnn.pth \\\n               --data_path data\u002Fkitti\u002Ftraining\u002Fvelodyne\u002F000008.bin \\\n               --ext .bin\n```\n\n### 3.3 启动训练\n若要复现列表中的 **PV-RCNN** 算法，使用以下命令启动训练（支持多卡）：\n\n```bash\npython train.py --cfg_file tools\u002Fcfgs\u002Fkitti_models\u002Fpv_rcnn.yaml \\\n                --batch_size 4 \\\n                --epochs 80 \\\n                --workers 4\n```\n\n**提示**：\n*   对于列表中其他特定论文（如 `VoxelNet`, `Complex-YOLO`），请访问其对应的 GitHub 链接（通常在 README 的 Paper 部分提供），遵循该项目独立的 `README.md` 进行安装，因为不同早期项目的依赖环境可能存在差异。\n*   推荐优先尝试集成在 `OpenPCDet` 或 `MMDetection3D` 中的现代算法，以获得更好的维护性和兼容性。","某自动驾驶初创公司的感知算法团队正致力于提升其 L4 级无人车在复杂城市路况下的障碍物识别精度，急需引入最新的激光雷达（LiDAR）三维检测技术。\n\n### 没有 Awesome-3D-Object-Detection 时\n- **文献检索效率低下**：工程师需手动在 arXiv、GitHub 及各大顶会网站分散搜索，耗时数周才能拼凑出完整的 3D 检测论文清单，极易遗漏关键成果。\n- **数据集匹配困难**：面对 KITTI、nuScenes、Waymo 等众多数据集，团队难以快速确认哪些数据适合当前场景，导致前期数据清洗和适配工作反复返工。\n- **复现门槛高企**：缺乏经过筛选的代码库指引，开发人员常陷入寻找不可用或版本过时的开源项目困境，无法快速验证 VoxelNet、PointNet 等经典算法的实际效果。\n- **技术选型盲目**：由于不清楚 CVPR、ICCV 等顶级会议的最新 workshop 动态，团队难以判断哪些基于 LiDAR 的方法（如 BirdNet、HDNET）最具落地潜力，增加了试错成本。\n\n### 使用 Awesome-3D-Object-Detection 后\n- **一站式资源聚合**：团队直接利用该清单获取了按方法分类的精选论文与代码链接，将技术调研周期从数周压缩至两天，迅速锁定了前沿方案。\n- **数据基准清晰化**：通过清单中详细列出的 KITTI、nuScenes 等数据集样本数量及特性，团队快速选定了最适合城市道路测试的数据集，加速了模型训练流程。\n- **复现路径明确**：依托清单提供的权威代码仓库链接，开发人员顺利复现了 RT3D、LMNet 等实时检测算法，并在内部数据集上完成了快速基准测试。\n- **紧跟学术前沿**：团队通过清单追踪到最新的自动驾驶 Workshop 议题，及时引入了多视图融合等最新技术思路，显著提升了车辆在遮挡场景下的检测鲁棒性。\n\nAwesome-3D-Object-Detection 通过构建标准化的知识索引，将原本碎片化的研发资源转化为高效的创新引擎，极大加速了自动驾驶感知系统的迭代进程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvvincenttttt_Awesome-3D-Object-Detection_d022a08a.png","vvincenttttt","Vincent","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvvincenttttt_c2872152.png","Quantitative Researcher","Global Hedge Fund","Singapore",null,"https:\u002F\u002Fgithub.com\u002Fvvincenttttt",684,55,"2026-03-30T04:49:44",5,"","未说明",{"notes":87,"python":85,"dependencies":88},"该仓库是一个关于基于激光雷达（LiDAR）的 3D 目标检测研究的精选列表（Awesome List），主要包含数据集链接、相关会议\u002F研讨会信息以及论文和代码库的索引。它本身不是一个可直接运行的软件工具或框架，因此 README 中未提供具体的操作系统、GPU、内存、Python 版本或依赖库等运行环境需求。用户需根据列表中引用的具体论文项目（如 PointRCNN, PV-RCNN 等）的代码仓库去查询相应的环境配置。",[],[14,90,13,15],"其他",[92,93,94,95,96,97,98,99,100,101,102,103,104,105,106,107,108,109,110,111],"object-detection","deep-learning","autonomous-driving","point-cloud","machine-learning","computer-vision","paper","deep-neural-networks","point-cloud-detection","point-cloud-processing","point-clouds","3d-representation","reading-list","papers","study-notes","cvpr","cvpr2022","cvpr2021","cvpr2020","python","2026-03-27T02:49:30.150509","2026-04-07T09:51:16.611252",[],[]]