[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HuangCongQing--3D-Point-Clouds":3,"tool-HuangCongQing--3D-Point-Clouds":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156033,2,"2026-04-14T23:32:00",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":106,"github_topics":108,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":122,"updated_at":123,"faqs":124,"releases":125},7661,"HuangCongQing\u002F3D-Point-Clouds","3D-Point-Clouds","🔥3D点云目标检测&语义分割(深度学习)-SOTA方法,代码,论文,数据集等","3D-Point-Clouds 是一个专注于自动驾驶感知领域的开源知识聚合平台，旨在为 3D 点云处理提供从理论到实践的一站式解决方案。它系统性地整理了当前最前沿（SOTA）的深度学习算法、经典传统方法代码、核心学术论文以及主流数据集资源，重点覆盖点云目标检测、语义分割及多目标跟踪等关键任务。\n\n针对研究人员和开发者在复现先进算法时面临的资料分散、框架选型困难及环境配置复杂等痛点，3D-Point-Clouds 提供了详尽的框架对比与代码注解笔记，涵盖 OpenPCDet、MMDetection3D、Paddle3D 等主流开发框架，并梳理了从 PointNet 系列到 VoxelNet、PointPillars 等经典模型的演进脉络。此外，项目还包含了点云可视化、数据标注工具总结及数据集下载脚本等实用工程内容，有效降低了技术入门门槛。\n\n该资源特别适合从事自动驾驶感知算法研究的科研人员、希望快速上手点云处理的软件工程师，以及对 PCL、ROS 与深度学习结合应用感兴趣的技术爱好者。无论是需要追踪最新学术动态，还是寻求工业级代码落地参考，3D-Point-Clouds 都能提供扎实的技","3D-Point-Clouds 是一个专注于自动驾驶感知领域的开源知识聚合平台，旨在为 3D 点云处理提供从理论到实践的一站式解决方案。它系统性地整理了当前最前沿（SOTA）的深度学习算法、经典传统方法代码、核心学术论文以及主流数据集资源，重点覆盖点云目标检测、语义分割及多目标跟踪等关键任务。\n\n针对研究人员和开发者在复现先进算法时面临的资料分散、框架选型困难及环境配置复杂等痛点，3D-Point-Clouds 提供了详尽的框架对比与代码注解笔记，涵盖 OpenPCDet、MMDetection3D、Paddle3D 等主流开发框架，并梳理了从 PointNet 系列到 VoxelNet、PointPillars 等经典模型的演进脉络。此外，项目还包含了点云可视化、数据标注工具总结及数据集下载脚本等实用工程内容，有效降低了技术入门门槛。\n\n该资源特别适合从事自动驾驶感知算法研究的科研人员、希望快速上手点云处理的软件工程师，以及对 PCL、ROS 与深度学习结合应用感兴趣的技术爱好者。无论是需要追踪最新学术动态，还是寻求工业级代码落地参考，3D-Point-Clouds 都能提供扎实的技术支撑，帮助用户高效构建从数据处理到模型部署的全栈能力。","# 3D-Point-Clouds\n\n3D点云SOTA方法,代码,论文,数据集(点云目标检测&amp;分割)  \n* 如有疑问，微信：shuangyu_ai\n* 更多自动驾驶相关交流群，欢迎扫码加入：[自动驾驶感知(PCL\u002FROS+DL)：技术交流群汇总(新版)](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247486575&idx=1&sn=3145b7a5e9dda45595e1b51aa7e45171&chksm=ec2aa068db5d297efec6ba982d6a73d2170ef09a01130b7f44819b01de46b30f13644347dbf2#rd)\n\n应同学建议，创建了星球 **【自动驾驶感知(PCL\u002FROS+DL)】** 专注于自动驾驶感知领域，包括传统方法(PCL点云库,ROS)和深度学习（目标检测+语义分割）方法。同时涉及Apollo，Autoware(基于ros2)，BEV感知，三维重建，SLAM(视觉+激光雷达) ，模型压缩（蒸馏+剪枝+量化等），自动驾驶模拟仿真，自动驾驶数据集标注&数据闭环等自动驾驶全栈技术，欢迎扫码二维码加入，一起登顶自动驾驶的高峰！\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_2f85d10d70bf.png)\n\n**点云处理方法上主要包括两类方法：**\n\n* 深度学习方法 [`python`]\n  * 目标检测&语义分割&多目标跟踪（MOT）\n  * [【202212done】目标检测最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n  * [【202304done】语义分割最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n* 传统上基于规则的方法 [`c++`]\n  * PCL:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fpcl-learning\n  * ROS:   https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FROS\n  * Apollo笔记：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fapollo_note\n\n@[双愚](https:\u002F\u002Fgithub.com\u002FHuangCongQing) , 若fork或star请注明来源\n\n## TODO\n\n  - [x] [【202212done】目标检测最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n  - [x] [【202304done】语义分割最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n  - [x] [【202209done】目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)文章撰写](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F569189196?)\n  - [x] [【202208done】数据集调研总结](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F551861727)\n  - [x] [【202406done】3D语义分割框架综述(mmdetection3d|OpenPCSeg|Pointcept)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F701605684?)\n  - [ ] 数据集详细剖析：kitti&waymo&nuScenes\n  - [ ] Apollo学习https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fapollo_note\n\n\n## 目录\n\n#### 0 目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)\n> [【202209done】目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)文章撰写](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F569189196?)\n\n代码注解笔记：\n1. **pcdet:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fpcdet-note**\n2. **mmdetection3d:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fmmdetection3d-note**\n3. det3d: TODO\n4. paddle3d: TODO\n\n#### 1 paper(code)\n\n* paperswithcode: https:\u002F\u002Fpaperswithcode.com\u002F\n\n#### 2 Datasets\n\n**[自动驾驶相关数据集调研总结【附下载地址】(更新ing)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F551861727)**\n\n\n数据集基本处理: [数据集标注文件处理](https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FPython#%E7%82%B9%E4%BA%91%E7%9B%B8%E5%85%B3%E5%A4%84%E7%90%86)\n\n部分数据下载脚本：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdownload_3D_dataset\n\n\n\n\n#### 3 点云可视化\n\n点云可视化笔记和代码：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FPoint-Clouds-Visualization\n\n3D点云可视化的库有很多，你的选择可能是：\n\n- pcl 点云可视化 [`c++`]\n- ROS topic可视化  [`c++`] [`python`]\n- open3D [`python`]\n- mayavi[`python`]\n- matplolib [`python`]\n\n\n#### 4 点云数据标注\n数据标注工具总结：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdata-labeling-tools\n\n\n## paper(code)\n\n### 3D_Object_Detection\n- [x]  [**>>>目标检测最新论文实时更新**](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n\n\n\n* One-stage\n* Two-stage\n\n#### One-stage\n\n> Voxel-Net、SECOND、PointPillars、HVNet、DOPS、Point-GNN、SA-SSD、3D-VID、3DSSD\n\n* Voxel-Net\n* SECOND\n* PointPillars\n* HVNet\n* DOPS\n* Point-GNN\n* SA-SSD\n* 3D-VID\n* 3DSSD\n\n#### Two-stage\n\n\n> F-pointNet、F-ConvNet、Point-RCNN、Part-A^2、PV-RCNN、Fast Point RCNN、TANet\n\n* F-pointNet\n* F-ConvNet\n* Point-RCNN\n* Part-A^2\n* PV-RCNN\n* Fast Point RCNN\n* TANet\n\n### 3D_Semantic_Segmentation\n\n- [x]  [**>>>语义分割最新论文实时更新**](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n\n\n**PointNet** is proposed to learn per-point features using shared MLPs and global features using symmetrical pooling functions. Based on PointNet, a series of point-based networks have been proposed\n\n>Point-based Methods: these methods can be roughly divided into pointwise MLP methods, point convolution methods, RNN-based methods, and graph-based methods\n\n#### 1 pointwise MLP methods\n\n> PointNet++，PointSIFT，PointWeb，ShellNet，RandLA-Net\n\n\n\nPointNet++\nPointSIFT\nPointWeb\nShellNet\nRandLA-Net\n\n\n\n\n#### 2 point convolution methods\n\n> PointCNN PCCN A-CNN ConvPoint pointconv KPConv DPC InterpCNN\n\n\n* PointCNN\n* PCCN\n* A-CNN\n* ConvPoint\n* pointconv\n* KPConv\n* DPC\n* InterpCNN\n\n\n#### 3 RNN-based methods\n> G+RCU  RSNet  3P-RNN  DAR-Net\n\n\n* G+RCU  \n* RSNet  \n* 3P-RNN  \n* DAR-Net\n\n\n#### 4 graph-based methods\n\n> DGCNN SPG SSP+SPG PyramNet GACNet PAG HDGCN  HPEIN SPH3D-GCN DPAM\n\n\n* DGCNN\n* SPG\n* SSP+SPG\n* PyramNet\n* GACNet\n* PAG\n* HDGCN\n* HPEIN\n* SPH3D-GCN\n* DPAM\n\n### 3D_Instance Segmentation\n\n\n## Datasets\n\n### 数据集下载\n\n*  **shell脚本下载方式: https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdownload_3D_dataset**\n\n- [https:\u002F\u002Fhyper.ai\u002Fdatasets](https:\u002F\u002Fhyper.ai\u002Fdatasets)\n- [https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets](https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets)\n\n> Graviti 收录了 400 多个高质量 CV 类数据集，覆盖无人驾驶、智慧零售、机器人等多种 AI 应用领域。举两个例子：\n> 文章> [https:\u002F\u002Fbbs.cvmart.net\u002Ftopics\u002F3346](https:\u002F\u002Fbbs.cvmart.net\u002Ftopics\u002F3346)\n\n- Google数据集搜索：[https:\u002F\u002Ftoolbox.google.com\u002Fdatasetsearch](https:\u002F\u002Ftoolbox.google.com\u002Fdatasetsearch)\n- Datahub，分享高质量数据集平台：[https:\u002F\u002Fdatahub.io\u002F](https:\u002F\u002Fdatahub.io\u002F)\n- 用于上传和查找数据集的机器学习数据集存储库：[https:\u002F\u002Fwww.webdoctx.com\u002Fwww.mldata.org](https:\u002F\u002Fwww.webdoctx.com\u002Fwww.mldata.org)\n- datafountain收集数据集：[https:\u002F\u002Fwww.datafountain.cn\u002FdataSets](https:\u002F\u002Fwww.datafountain.cn\u002FdataSets)\n- tinymind收集数据集：[https:\u002F\u002Fwww.tinymind.cn\u002Fsites#group_22](https:\u002F\u002Fwww.tinymind.cn\u002Fsites#group_22) 看到的一篇文章,里面有介绍很多数据集的：[世界上最有价值的不是石油而是数据(附数据资源下载链接)](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FAo8SO9j2IPurl45Noy1dVw)\n- [https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets](https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets)\n\n## Datasets数据集汇总\n\n[https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis#---datasets](https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis#---datasets)\n\n- **[**[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)] The KITTI Vision Benchmark Suite. [`det.`]**常用\n- [[ModelNet](http:\u002F\u002Fmodelnet.cs.princeton.edu\u002F)] The Princeton ModelNet . [**`cls.`**]\n- [[ShapeNet](https:\u002F\u002Fwww.shapenet.org\u002F)] A collaborative dataset between researchers at Princeton, Stanford and TTIC. [**`seg.`**]\n- [[PartNet](https:\u002F\u002Fshapenet.org\u002Fdownload\u002Fparts)] The PartNet dataset provides fine grained part annotation of objects in ShapeNetCore. [**`seg.`**]\n- [[PartNet](http:\u002F\u002Fkevinkaixu.net\u002Fprojects\u002Fpartnet.html)] PartNet benchmark from Nanjing University and National University of Defense Technology. [**`seg.`**]\n- **[**[**S3DIS**](http:\u002F\u002Fbuildingparser.stanford.edu\u002Fdataset.html#Download)**] The Stanford Large-Scale 3D Indoor Spaces Dataset. [`seg.`]**常用\n- [[ScanNet](http:\u002F\u002Fwww.scan-net.org\u002F)] Richly-annotated 3D Reconstructions of Indoor Scenes. [**`cls.`** **`seg.`**]\n- [[Stanford 3D](https:\u002F\u002Fgraphics.stanford.edu\u002Fdata\u002F3Dscanrep\u002F)] The Stanford 3D Scanning Repository. [**`reg.`**]\n- [[UWA Dataset](http:\u002F\u002Fstaffhome.ecm.uwa.edu.au\u002F~00053650\u002Fdatabases.html)] . [**`cls.`** **`seg.`** **`reg.`**]\n- [[Princeton Shape Benchmark](http:\u002F\u002Fshape.cs.princeton.edu\u002Fbenchmark\u002F)] The Princeton Shape Benchmark.\n- [[SYDNEY URBAN OBJECTS DATASET](http:\u002F\u002Fwww.acfr.usyd.edu.au\u002Fpapers\u002FSydneyUrbanObjectsDataset.shtml)] This dataset contains a variety of common urban road objects scanned with a Velodyne HDL-64E LIDAR, collected in the CBD of Sydney, Australia. There are 631 individual scans of objects across classes of vehicles, pedestrians, signs and trees. [**`cls.`** **`match.`**]\n- [[ASL Datasets Repository(ETH)](https:\u002F\u002Fprojects.asl.ethz.ch\u002Fdatasets\u002Fdoku.php?id=home)] This site is dedicated to provide datasets for the Robotics community with the aim to facilitate result evaluations and comparisons. [**`cls.`** **`match.`** **`reg.`** **`det`**]\n- [[Large-Scale Point Cloud Classification Benchmark(ETH)](http:\u002F\u002Fwww.semantic3d.net\u002F)] This benchmark closes the gap and provides a large labelled 3D point cloud data set of natural scenes with over 4 billion points in total. [**`cls.`**]\n- [[Robotic 3D Scan Repository](http:\u002F\u002Fasrl.utias.utoronto.ca\u002Fdatasets\u002F3dmap\u002F)] The Canadian Planetary Emulation Terrain 3D Mapping Dataset is a collection of three-dimensional laser scans gathered at two unique planetary analogue rover test facilities in Canada.\n- [[Radish](http:\u002F\u002Fradish.sourceforge.net\u002F)] The Robotics Data Set Repository (Radish for short) provides a collection of standard robotics data sets.\n- [[IQmulus & TerraMobilita Contest](http:\u002F\u002Fdata.ign.fr\u002Fbenchmarks\u002FUrbanAnalysis\u002F#)] The database contains 3D MLS data from a dense urban environment in Paris (France), composed of 300 million points. The acquisition was made in January 2013. [**`cls.`** **`seg.`** **`det.`**]\n- [[Oakland 3-D Point Cloud Dataset](http:\u002F\u002Fwww.cs.cmu.edu\u002F~vmr\u002Fdatasets\u002Foakland_3d\u002Fcvpr09\u002Fdoc\u002F)] This repository contains labeled 3-D point cloud laser data collected from a moving platform in a urban environment.\n- [[Robotic 3D Scan Repository](http:\u002F\u002Fkos.informatik.uni-osnabrueck.de\u002F3Dscans\u002F)] This repository provides 3D point clouds from robotic experiments，log files of robot runs and standard 3D data sets for the robotics community.\n- [[Ford Campus Vision and Lidar Data Set](http:\u002F\u002Frobots.engin.umich.edu\u002FSoftwareData\u002FFord)] The dataset is collected by an autonomous ground vehicle testbed, based upon a modified Ford F-250 pickup truck.\n- [[The Stanford Track Collection](https:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fteichman\u002Fstc\u002F)] This dataset contains about 14,000 labeled tracks of objects as observed in natural street scenes by a Velodyne HDL-64E S2 LIDAR.\n- [[PASCAL3D+](http:\u002F\u002Fcvgl.stanford.edu\u002Fprojects\u002Fpascal3d.html)] Beyond PASCAL: A Benchmark for 3D Object Detection in the Wild. [**`pos.`** **`det.`**]\n- [[3D MNIST](https:\u002F\u002Fwww.kaggle.com\u002Fdaavoo\u002F3d-mnist)] The aim of this dataset is to provide a simple way to get started with 3D computer vision problems such as 3D shape recognition. [**`cls.`**]\n- [[WAD](http:\u002F\u002Fwad.ai\u002F2019\u002Fchallenge.html)] [[ApolloScape](http:\u002F\u002Fapolloscape.auto\u002Ftracking.html)] The datasets are provided by Baidu Inc. [**`tra.`** **`seg.`** **`det.`**]\n- [[nuScenes](https:\u002F\u002Fd3u7q4379vrm7e.cloudfront.net\u002Fobject-detection)] The nuScenes dataset is a large-scale autonomous driving dataset.用过\n- [[PreSIL](https:\u002F\u002Fuwaterloo.ca\u002Fwaterloo-intelligent-systems-engineering-lab\u002Fprojects\u002Fprecise-synthetic-image-and-lidar-presil-dataset-autonomous)] Depth information, semantic segmentation (images), point-wise segmentation (point clouds), ground point labels (point clouds), and detailed annotations for all vehicles and people. [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00160)] [**`det.`** **`aut.`**]\n- [[3D Match](http:\u002F\u002F3dmatch.cs.princeton.edu\u002F)] Keypoint Matching Benchmark, Geometric Registration Benchmark, RGB-D Reconstruction Datasets. [**`reg.`** **`rec.`** **`oth.`**]\n- [[BLVD](https:\u002F\u002Fgithub.com\u002FVCCIV\u002FBLVD)] (a) 3D detection, (b) 4D tracking, (c) 5D interactive event recognition and (d) 5D intention prediction. [[ICRA 2019 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.06405v1)] [**`det.`** **`tra.`** **`aut.`** **`oth.`**]\n- [[PedX](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03605)] 3D Pose Estimation of Pedestrians, more than 5,000 pairs of high-resolution (12MP) stereo images and LiDAR data along with providing 2D and 3D labels of pedestrians. [[ICRA 2019 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03605)] [**`pos.`** **`aut.`**]\n- [[H3D](https:\u002F\u002Fusa.honda-ri.com\u002FH3D)] Full-surround 3D multi-object detection and tracking dataset. [[ICRA 2019 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.01568)] [**`det.`** **`tra.`** **`aut.`**]\n- [[Argoverse BY ARGO AI]](https:\u002F\u002Fwww.argoverse.org\u002F) Two public datasets (3D Tracking and Motion Forecasting) supported by highly detailed maps to test, experiment, and teach self-driving vehicles how to understand the world around them.[[CVPR 2019 paper](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FChang_Argoverse_3D_Tracking_and_Forecasting_With_Rich_Maps_CVPR_2019_paper.html)][**`tra.`** **`aut.`**]\n- [[Matterport3D](https:\u002F\u002Fniessner.github.io\u002FMatterport\u002F)] RGB-D: 10,800 panoramic views from 194,400 RGB-D images. Annotations: surface reconstructions, camera poses, and 2D and 3D semantic segmentations. Keypoint matching, view overlap prediction, normal prediction from color, semantic segmentation, and scene classification. [[3DV 2017 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06158)] [[code](https:\u002F\u002Fgithub.com\u002Fniessner\u002FMatterport)] [[blog](https:\u002F\u002Fmatterport.com\u002Fblog\u002F2017\u002F09\u002F20\u002Fannouncing-matterport3d-research-dataset\u002F)]\n- [[SynthCity](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.04758)] SynthCity is a 367.9M point synthetic full colour Mobile Laser Scanning point cloud. Nine categories. [**`seg.`** **`aut.`**]\n- [[Lyft Level 5](https:\u002F\u002Flevel5.lyft.com\u002Fdataset\u002F?source=post_page)] Include high quality, human-labelled 3D bounding boxes of traffic agents, an underlying HD spatial semantic map. [**`det.`** **`seg.`** **`aut.`**]\n- **[**[**SemanticKITTI**](http:\u002F\u002Fsemantic-kitti.org\u002F)**] Sequential Semantic Segmentation, 28 classes, for autonomous driving. All sequences of KITTI odometry labeled. [**[**ICCV 2019 paper**](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01416)**] [`seg.` `oth.` `aut.`]**常用\n- [[NPM3D](http:\u002F\u002Fnpm3d.fr\u002Fparis-lille-3d)] The Paris-Lille-3D has been produced by a Mobile Laser System (MLS) in two different cities in France (Paris and Lille). [**`seg.`**]\n- [[The Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)] The Waymo Open Dataset is comprised of high resolution sensor data collected by Waymo self-driving cars in a wide variety of conditions. [**`det.`**]\n- [[A*3D: An Autonomous Driving Dataset in Challeging Environments](https:\u002F\u002Fgithub.com\u002FI2RDL2\u002FASTAR-3D)] A*3D: An Autonomous Driving Dataset in Challeging Environments. [**`det.`**]\n- [[PointDA-10 Dataset](https:\u002F\u002Fgithub.com\u002Fcanqin001\u002FPointDAN)] Domain Adaptation for point clouds.\n- [[Oxford Robotcar](https:\u002F\u002Frobotcar-dataset.robots.ox.ac.uk\u002F)] The dataset captures many different combinations of weather, traffic and pedestrians. [**`cls.`** **`det.`** **`rec.`**]\n\n### 常用分割数据集\n\n- **[**[**S3DIS**](http:\u002F\u002Fbuildingparser.stanford.edu\u002Fdataset.html#Download)**] The Stanford Large-Scale 3D Indoor Spaces Dataset. [`seg.`] [`常用`]\n- **[**[**SemanticKITTI**](http:\u002F\u002Fsemantic-kitti.org\u002F)**] Sequential Semantic Segmentation, 28 classes, for autonomous driving. All sequences of KITTI odometry labeled. [**[**ICCV 2019 paper**](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01416)**] [`seg.` `oth.` `aut.`] [`常用`]\n- **Semantic3d**\n\n### 常用分类数据集\n\ntodo\n\n### 常用目标检测数据集\n\n- **[**[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)] The KITTI Vision Benchmark Suite. [`det.`]**常用\n- [[nuScenes](https:\u002F\u002Fd3u7q4379vrm7e.cloudfront.net\u002Fobject-detection)] The nuScenes dataset is a large-scale autonomous driving dataset.用过\n- [[The Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)] The Waymo Open Dataset is comprised of high resolution sensor data collected by Waymo self-driving cars in a wide variety of conditions. [**`det.`**]\n\n## References\n\n* https:\u002F\u002Fgithub.com\u002Ftimzhang642\u002F3D-Machine-Learning\n* https:\u002F\u002Fgithub.com\u002Fvictorphd\u002Fautonomous-vahicles-learning-resource\n* https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis\n* https:\u002F\u002Fgithub.com\u002FNUAAXQ\u002Fawesome-point-cloud-analysis-2021\n* https:\u002F\u002Fgithub.com\u002FQingyongHu\u002FSoTA-Point-Cloud\n* https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.12033 : Deep Learning for 3D Point Clouds: A Survey\n* https:\u002F\u002Fgithub.com\u002Fzhulf0804\u002F3D-PointCloud\n\n## License\n\nCopyright (c) [双愚](https:\u002F\u002Fgithub.com\u002FHuangCongQing). All rights reserved.\n\nLicensed under the [MIT](.\u002FLICENSE) License.\n\n---\n\n\n微信公众号：**【双愚】**（huang_chongqing） 聊科研技术,谈人生思考,欢迎关注~\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_6c821e44b3ea.png)\n\n**往期推荐：**\n1. [本文不提供职业建议，却能助你一生](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FrBR62qoAEeT56gGYTA0law)\n2. [聊聊我们大学生面试](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247484016&idx=1&sn=08bc46266e00572e46f3e5d9ffb7c612&chksm=ec2aae77db5d276150cde1cb1dc6a53e03eba024adfbd1b22a048a7320c2b6872fb9dfef32aa&scene=178&cur_album_id=2253272068899471368#rd)\n3. [清华大学刘知远：好的研究方法从哪来](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247486340&idx=1&sn=6c5f69bb37d91a343b1a1e7f6929ddae&chksm=ec2aa783db5d2e95ba4c472471267721cafafbe10c298a6d5fae9fed295f455a72f783872249&scene=178&cur_album_id=1855544495514140673#rd)\n\n本人创建星球 **【自动驾驶感知(PCL\u002FROS+DL)】** 专注于自动驾驶感知领域，包括传统方法(PCL点云库,ROS)和深度学习（目标检测+语义分割）方法。同时涉及Apollo，Autoware(基于ros2)，BEV感知，三维重建，SLAM(视觉+激光雷达) ，模型压缩（蒸馏+剪枝+量化等），自动驾驶模拟仿真，自动驾驶数据集标注&数据闭环等自动驾驶全栈技术，欢迎扫码二维码加入，一起登顶自动驾驶的高峰！\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_2f85d10d70bf.png)\n","# 3D-Point-Clouds\n\n3D点云SOTA方法,代码,论文,数据集(点云目标检测&amp;分割)  \n* 如有疑问，微信：shuangyu_ai\n* 更多自动驾驶相关交流群，欢迎扫码加入：[自动驾驶感知(PCL\u002FROS+DL)：技术交流群汇总(新版)](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247486575&idx=1&sn=3145b7a5e9dda45595e1b51aa7e45171&chksm=ec2aa068db5d297efec6ba982d6a73d2170ef09a01130b7f44819b01de46b30f13644347dbf2#rd)\n\n应同学建议，创建了星球 **【自动驾驶感知(PCL\u002FROS+DL)】** 专注于自动驾驶感知领域，包括传统方法(PCL点云库,ROS)和深度学习（目标检测+语义分割）方法。同时涉及Apollo，Autoware(基于ros2)，BEV感知，三维重建，SLAM(视觉+激光雷达) ，模型压缩（蒸馏+剪枝+量化等），自动驾驶模拟仿真，自动驾驶数据集标注&数据闭环等自动驾驶全栈技术，欢迎扫码二维码加入，一起登顶自动驾驶的高峰！\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_2f85d10d70bf.png)\n\n**点云处理方法上主要包括两类方法：**\n\n* 深度学习方法 [`python`]\n  * 目标检测&语义分割&多目标跟踪（MOT）\n  * [【202212done】目标检测最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n  * [【202304done】语义分割最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n* 传统上基于规则的方法 [`c++`]\n  * PCL:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fpcl-learning\n  * ROS:   https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FROS\n  * Apollo笔记：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fapollo_note\n\n@[双愚](https:\u002F\u002Fgithub.com\u002FHuangCongQing) , 若fork或star请注明来源\n\n## TODO\n\n  - [x] [【202212done】目标检测最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n  - [x] [【202304done】语义分割最新论文实时更新](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n  - [x] [【202209done】目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)文章撰写](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F569189196?)\n  - [x] [【202208done】数据集调研总结](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F551861727)\n  - [x] [【202406done】3D语义分割框架综述(mmdetection3d|OpenPCSeg|Pointcept)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F701605684?)\n  - [ ] 数据集详细剖析：kitti&waymo&nuScenes\n  - [ ] Apollo学习https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fapollo_note\n\n\n## 目录\n\n#### 0 目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)\n> [【202209done】目标检测框架(pcdet+mmdetection3d+det3d+paddle3d)文章撰写](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F569189196?)\n\n代码注解笔记：\n1. **pcdet:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fpcdet-note**\n2. **mmdetection3d:https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fmmdetection3d-note**\n3. det3d: TODO\n4. paddle3d: TODO\n\n#### 1 paper(code)\n\n* paperswithcode: https:\u002F\u002Fpaperswithcode.com\u002F\n\n#### 2 Datasets\n\n**[自动驾驶相关数据集调研总结【附下载地址】(更新ing)](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F551861727)**\n\n\n数据集基本处理: [数据集标注文件处理](https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FPython#%E7%82%B9%E4%BA%91%E7%9B%B8%E5%85%B3%E5%A4%84%E7%90%86)\n\n部分数据下载脚本：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdownload_3D_dataset\n\n\n\n\n#### 3 点云可视化\n\n点云可视化笔记和代码：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002FPoint-Clouds-Visualization\n\n3D点云可视化的库有很多，你的选择可能是：\n\n- pcl 点云可视化 [`c++`]\n- ROS topic可视化  [`c++`] [`python`]\n- open3D [`python`]\n- mayavi[`python`]\n- matplolib [`python`]\n\n\n#### 4 点云数据标注\n数据标注工具总结：https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdata-labeling-tools\n\n\n## paper(code)\n\n### 3D_Object_Detection\n- [x]  [**>>>目标检测最新论文实时更新**](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349104)\n\n\n\n* One-stage\n* Two-stage\n\n#### One-stage\n\n> Voxel-Net、SECOND、PointPillars、HVNet、DOPS、Point-GNN、SA-SSD、3D-VID、3DSSD\n\n* Voxel-Net\n* SECOND\n* PointPillars\n* HVNet\n* DOPS\n* Point-GNN\n* SA-SSD\n* 3D-VID\n* 3DSSD\n\n#### Two-stage\n\n\n> F-pointNet、F-ConvNet、Point-RCNN、Part-A^2、PV-RCNN、Fast Point RCNN、TANet\n\n* F-pointNet\n* F-ConvNet\n* Point-RCNN\n* Part-A^2\n* PV-RCNN\n* Fast Point RCNN\n* TANet\n\n### 3D_Semantic_Segmentation\n\n- [x]  [**>>>语义分割最新论文实时更新**](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F591349481)\n\n\n**PointNet** is proposed to learn per-point features using shared MLPs and global features using symmetrical pooling functions. Based on PointNet, a series of point-based networks have been proposed\n\n>Point-based Methods: these methods can be roughly divided into pointwise MLP methods, point convolution methods, RNN-based methods, and graph-based methods\n\n#### 1 pointwise MLP methods\n\n> PointNet++，PointSIFT，PointWeb，ShellNet，RandLA-Net\n\n\n\nPointNet++\nPointSIFT\nPointWeb\nShellNet\nRandLA-Net\n\n\n\n\n#### 2 point convolution methods\n\n> PointCNN PCCN A-CNN ConvPoint pointconv KPConv DPC InterpCNN\n\n\n* PointCNN\n* PCCN\n* A-CNN\n* ConvPoint\n* pointconv\n* KPConv\n* DPC\n* InterpCNN\n\n\n#### 3 RNN-based methods\n> G+RCU  RSNet  3P-RNN  DAR-Net\n\n\n* G+RCU  \n* RSNet  \n* 3P-RNN  \n* DAR-Net\n\n\n#### 4 graph-based methods\n\n> DGCNN SPG SSP+SPG PyramNet GACNet PAG HDGCN  HPEIN SPH3D-GCN DPAM\n\n\n* DGCNN\n* SPG\n* SSP+SPG\n* PyramNet\n* GACNet\n* PAG\n* HDGCN\n* HPEIN\n* SPH3D-GCN\n* DPAM\n\n### 3D_Instance Segmentation\n\n\n## Datasets\n\n### 数据集下载\n\n*  **shell脚本下载方式: https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdownload_3D_dataset**\n\n- [https:\u002F\u002Fhyper.ai\u002Fdatasets](https:\u002F\u002Fhyper.ai\u002Fdatasets)\n- [https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets](https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets)\n\n> Graviti 收录了 400 多个高质量 CV 类数据集，覆盖无人驾驶、智慧零售、机器人等多种 AI 应用领域。举两个例子：\n> 文章> [https:\u002F\u002Fbbs.cvmart.net\u002Ftopics\u002F3346](https:\u002F\u002Fbbs.cvmart.net\u002Ftopics\u002F3346)\n\n- Google数据集搜索：[https:\u002F\u002Ftoolbox.google.com\u002Fdatasetsearch](https:\u002F\u002Ftoolbox.google.com\u002Fdatasetsearch)\n- Datahub，分享高质量数据集平台：[https:\u002F\u002Fdatahub.io\u002F](https:\u002F\u002Fdatahub.io\u002F)\n- 用于上传和查找数据集的机器学习数据集存储库：[https:\u002F\u002Fwww.webdoctx.com\u002Fwww.mldata.org](https:\u002F\u002Fwww.webdoctx.com\u002Fwww.mldata.org)\n- datafountain收集数据集：[https:\u002F\u002Fwww.datafountain.cn\u002FdataSets](https:\u002F\u002Fwww.datafountain.cn\u002FdataSets)\n- tinymind收集数据集：[https:\u002F\u002Fwww.tinymind.cn\u002Fsites#group_22](https:\u002F\u002Fwww.tinymind.cn\u002Fsites#group_22) 看到的一篇文章,里面有介绍很多数据集的：[世界上最有价值的不是石油而是数据(附数据资源下载链接)](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FAo8SO9j2IPurl45Noy1dVw)\n- [https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets](https:\u002F\u002Fwww.graviti.cn\u002Fopen-datasets)\n\n## Datasets数据集汇总\n\n[https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis#---datasets](https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis#---datasets)\n\n- **[**[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)] KITTI 视觉基准测试套件。[`seg.`]**常用\n- [[ModelNet](http:\u002F\u002Fmodelnet.cs.princeton.edu\u002F)] 普林斯顿 ModelNet 数据集。[**`cls.`**]\n- [[ShapeNet](https:\u002F\u002Fwww.shapenet.org\u002F)] 普林斯顿大学、斯坦福大学和 TTIC 研究人员合作构建的数据集。[**`seg.`**]\n- [[PartNet](https:\u002F\u002Fshapenet.org\u002Fdownload\u002Fparts)] PartNet 数据集提供了 ShapeNetCore 中物体的细粒度部件标注。[**`seg.`**]\n- [[PartNet](http:\u002F\u002Fkevinkaixu.net\u002Fprojects\u002Fpartnet.html)] 来自南京大学和国防科技大学的 PartNet 基准数据集。[**`seg.`**]\n- **[**[**S3DIS**](http:\u002F\u002Fbuildingparser.stanford.edu\u002Fdataset.html#Download)**] 斯坦福大规模室内三维空间数据集。[`seg.`]**常用\n- [[ScanNet](http:\u002F\u002Fwww.scan-net.org\u002F)] 丰富标注的室内场景三维重建数据集。[**`cls.`** **`seg.`**]\n- [[Stanford 3D](https:\u002F\u002Fgraphics.stanford.edu\u002Fdata\u002F3Dscanrep\u002F)] 斯坦福三维扫描资源库。[**`reg.`**]\n- [[UWA 数据集](http:\u002F\u002Fstaffhome.ecm.uwa.edu.au\u002F~00053650\u002Fdatabases.html)] 。[**`cls.`** **`seg.`** **`reg.`**]\n- [[普林斯顿形状基准测试](http:\u002F\u002Fshape.cs.princeton.edu\u002Fbenchmark\u002F)] 普林斯顿形状基准测试。\n- [[SYDNEY URBAN OBJECTS DATASET](http:\u002F\u002Fwww.acfr.usyd.edu.au\u002Fpapers\u002FSydneyUrbanObjectsDataset.shtml)] 该数据集包含使用 Velodyne HDL-64E 激光雷达扫描的多种常见城市道路物体，采集于澳大利亚悉尼市中心商务区。共包含 631 个独立扫描，涵盖车辆、行人、标志和树木等类别。[**`cls.`** **`match.`**]\n- [[ASL 数据集仓库(ETH)](https:\u002F\u002Fprojects.asl.ethz.ch\u002Fdatasets\u002Fdoku.php?id=home)] 该网站致力于为机器人社区提供数据集，旨在促进结果评估和比较。[**`cls.`** **`match.`** **`reg.`** **`det`**]\n- [[大型点云分类基准(ETH)](http:\u002F\u002Fwww.semantic3d.net\u002F)] 该基准填补了空白，提供了一个包含超过 40 亿个点的自然场景大型标注三维点云数据集。[**`cls.`**]\n- [[机器人三维扫描资源库](http:\u002F\u002Fasrl.utias.utoronto.ca\u002Fdatasets\u002F3dmap\u002F)] 加拿大行星模拟地形三维测绘数据集是一系列在加拿大两个独特的行星模拟探测车测试设施中收集的三维激光扫描数据。\n- [[Radish](http:\u002F\u002Fradish.sourceforge.net\u002F)] 机器人数据集仓库（简称 Radish）提供了一系列标准机器人数据集。\n- [[IQmulus & TerraMobilita 比赛](http:\u002F\u002Fdata.ign.fr\u002Fbenchmarks\u002FUrbanAnalysis\u002F#)] 该数据库包含来自法国巴黎密集城市环境的 3D MLS 数据，由 3 亿个点组成。数据采集于 2013 年 1 月。[**`cls.`** **`seg.`** **`det.`**]\n- [[Oakland 三维点云数据集](http:\u002F\u002Fwww.cs.cmu.edu\u002F~vmr\u002Fdatasets\u002Foakland_3d\u002Fcvpr09\u002Fdoc\u002F)] 该存储库包含从移动平台上在城市环境中收集的带标签的三维点云激光数据。\n- [[机器人三维扫描资源库](http:\u002F\u002Fkos.informatik.uni-osnabrueck.de\u002F3Dscans\u002F)] 该资源库提供来自机器人实验的三维点云、机器人运行日志以及面向机器人社区的标准三维数据集。\n- [[福特校园视觉与激光雷达数据集](http:\u002F\u002Frobots.engin.umich.edu\u002FSoftwareData\u002FFord)] 该数据集由一辆基于改装福特 F-250 皮卡的自主地面车辆试验平台收集。\n- [[斯坦福轨迹集合](https:\u002F\u002Fcs.stanford.edu\u002Fpeople\u002Fteichman\u002Fstc\u002F)] 该数据集包含约 14,000 条由 Velodyne HDL-64E S2 激光雷达在自然街道场景中观测到的物体轨迹标注。\n- [[PASCAL3D+](http:\u002F\u002Fcvgl.stanford.edu\u002Fprojects\u002Fpascal3d.html)] 超越 PASCAL：野外三维目标检测基准。[**`pos.`** **`det.`**]\n- [[3D MNIST](https:\u002F\u002Fwww.kaggle.com\u002Fdaavoo\u002F3d-mnist)] 该数据集旨在为 3D 计算机视觉问题（如 3D 形状识别）提供一个简单的入门途径。[**`cls.`**]\n- [[WAD](http:\u002F\u002Fwad.ai\u002F2019\u002Fchallenge.html)] [[ApolloScape](http:\u002F\u002Fapolloscape.auto\u002Ftracking.html)] 这些数据集由百度公司提供。[**`tra.`** **`seg.`** **`det.`**]\n- [[nuScenes](https:\u002F\u002Fd3u7q4379vrm7e.cloudfront.net\u002Fobject-detection)] nuScenes 数据集是一个大规模的自动驾驶数据集。用过\n- [[PreSIL](https:\u002F\u002Fuwaterloo.ca\u002Fwaterloo-intelligent-systems-engineering-lab\u002Fprojects\u002Fprecise-synthetic-image-and-lidar-presil-dataset-autonomous)] 包含深度信息、语义分割（图像）、逐点分割（点云）、地面点标签（点云）以及所有车辆和人员的详细标注。[[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.00160)] [**`det.`** **`aut.`**]\n- [[3D Match](http:\u002F\u002F3dmatch.cs.princeton.edu\u002F)] 关键点匹配基准、几何配准基准、RGB-D 重建数据集。[**`reg.`** **`rec.`** **`oth.`**]\n- [[BLVD](https:\u002F\u002Fgithub.com\u002FVCCIV\u002FBLVD)] (a) 三维检测，(b) 四维跟踪，(c) 五维交互事件识别，(d) 五维意图预测。[[ICRA 2019 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.06405v1)] [**`det.`** **`tra.`** **`aut.`** **`oth.`**]\n- [[PedX](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03605)] 行人三维姿态估计，超过 5,000 对高分辨率（12MP）立体图像和激光雷达数据，并提供行人的 2D 和 3D 标注。[[ICRA 2019 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.03605)] [**`pos.`** **`aut.`**]\n- [[H3D](https:\u002F\u002Fusa.honda-ri.com\u002FH3D)] 全环绕三维多目标检测与跟踪数据集。[[ICRA 2019 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.01568)] [**`det.`** **`tra.`** **`aut.`**]\n- [[Argoverse BY ARGO AI]](https:\u002F\u002Fwww.argoverse.org\u002F) 两个公开数据集（三维跟踪和运动预测），辅以高度详细的地图，用于测试、实验和训练自动驾驶车辆理解周围世界的能力。[[CVPR 2019 论文](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPR_2019\u002Fhtml\u002FChang_Argoverse_3D_Tracking_and_Forecasting_With_Rich_Maps_CVPR_2019_paper.html)][**`tra.`** **`aut.`**]\n- [[Matterport3D](https:\u002F\u002Fniessner.github.io\u002FMatterport\u002F)] RGB-D：由 194,400 张 RGB-D 图像生成的 10,800 张全景视图。标注包括表面重建、相机位姿以及 2D 和 3D 语义分割。还涉及关键点匹配、视图重叠预测、基于颜色的法线预测、语义分割和场景分类。[[3DV 2017 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.06158)] [[code](https:\u002F\u002Fgithub.com\u002Fniessner\u002FMatterport)] [[blog](https:\u002F\u002Fmatterport.com\u002Fblog\u002F2017\u002F09\u002F20\u002Fannouncing-matterport3d-research-dataset\u002F)]\n- [[SynthCity](https:\u002F\u002Farxiv.org\u002Fabs\u002F1907.04758)] SynthCity 是一个包含 3.679 亿个点的合成全彩色移动激光扫描点云，涵盖九个类别。[**`seg.`** **`aut.`**]\n- [[Lyft Level 5](https:\u002F\u002Flevel5.lyft.com\u002Fdataset\u002F?source=post_page)] 包括高质量的人工标注交通参与者三维边界框，以及底层高清空间语义地图。[**`det.`** **`seg.`** **`aut.`**]\n- **[**[**SemanticKITTI**](http:\u002F\u002Fsemantic-kitti.org\u002F)**] 顺序语义分割，28 个类别，用于自动驾驶。KITTI 测距的所有序列均已标注。[[ICCV 2019 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01416)] [`seg.` `oth.` `aut.`]**常用\n- [[NPM3D](http:\u002F\u002Fnpm3d.fr\u002Fparis-lille-3d)] 巴黎-里尔-3D 数据由移动激光系统（MLS）在法国两个不同城市（巴黎和里尔）采集而成。[**`seg.`**]\n- [[Waymo 开放数据集](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)] Waymo 开放数据集由 Waymo 自动驾驶汽车在各种条件下收集的高分辨率传感器数据组成。[**`det.`**]\n- [[A*3D: 挑战性环境下自动驾驶数据集](https:\u002F\u002Fgithub.com\u002FI2RDL2\u002FASTAR-3D)] A*3D: 挑战性环境下自动驾驶数据集。[**`det.`**]\n- [[PointDA-10 数据集](https:\u002F\u002Fgithub.com\u002Fcanqin001\u002FPointDAN)] 面向点云的领域适应。\n- [[牛津 Robotcar](https:\u002F\u002Frobotcar-dataset.robots.ox.ac.uk\u002F)] 该数据集记录了多种不同的天气、交通和行人组合。[**`cls.`** **`det.`** **`rec.`**]\n\n### 常用分割数据集\n\n- **[**[**S3DIS**](http:\u002F\u002Fbuildingparser.stanford.edu\u002Fdataset.html#Download)**] 斯坦福大规模室内空间三维数据集。[`seg.`] [`常用`]\n- **[**[**SemanticKITTI**](http:\u002F\u002Fsemantic-kitti.org\u002F)**] 用于自动驾驶的序列语义分割数据集，包含28个类别。KITTI里程计的所有序列均已标注。[**[**ICCV 2019论文**](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.01416)**] [`seg.` `oth.` `aut.`] [`常用`]\n- **Semantic3d**\n\n### 常用分类数据集\n\n待办\n\n### 常用目标检测数据集\n\n- **[**[KITTI](http:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F)] KITTI视觉基准测试套件。[`det.`]**常用\n- [[nuScenes](https:\u002F\u002Fd3u7q4379vrm7e.cloudfront.net\u002Fobject-detection)] nuScenes数据集是一个大规模的自动驾驶数据集。用过\n- [[Waymo开放数据集](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)] Waymo开放数据集由Waymo自动驾驶汽车在各种条件下采集的高分辨率传感器数据组成。[**`det.`**]\n\n## 参考文献\n\n* https:\u002F\u002Fgithub.com\u002Ftimzhang642\u002F3D-Machine-Learning\n* https:\u002F\u002Fgithub.com\u002Fvictorphd\u002Fautonomous-vahicles-learning-resource\n* https:\u002F\u002Fgithub.com\u002FYochengliu\u002Fawesome-point-cloud-analysis\n* https:\u002F\u002Fgithub.com\u002FNUAAXQ\u002Fawesome-point-cloud-analysis-2021\n* https:\u002F\u002Fgithub.com\u002FQingyongHu\u002FSoTA-Point-Cloud\n* https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.12033：面向3D点云的深度学习综述\n* https:\u002F\u002Fgithub.com\u002Fzhulf0804\u002F3D-PointCloud\n\n## 许可证\n\n版权所有 © [双愚](https:\u002F\u002Fgithub.com\u002FHuangCongQing)。保留所有权利。\n\n根据 [MIT](.\u002FLICENSE) 许可证授权。\n\n---\n\n\n微信公众号：**【双愚】**（huang_chongqing） 聊科研技术,谈人生思考,欢迎关注~\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_6c821e44b3ea.png)\n\n**往期推荐：**\n1. [本文不提供职业建议，却能助你一生](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FrBR62qoAEeT56gGYTA0law)\n2. [聊聊我们大学生面试](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247484016&idx=1&sn=08bc46266e00572e46f3e5d9ffb7c612&chksm=ec2aae77db5d276150cde1cb1dc6a53e03eba024adfbd1b22a048a7320c2b6872fb9dfef32aa&scene=178&cur_album_id=2253272068899471368#rd)\n3. [清华大学刘知远：好的研究方法从哪来](https:\u002F\u002Fmp.weixin.qq.com\u002Fs?__biz=MzI4OTY1MjA3Mg==&mid=2247486340&idx=1&sn=6c5f69bb37d91a343b1a1e7f6929ddae&chksm=ec2aa783db5d2e95ba4c472471267721cafafbe10c298a6d5fae9fed295f455a72f783872249&scene=178&cur_album_id=1855544495514140673#rd)\n\n本人创建星球 **【自动驾驶感知(PCL\u002FROS+DL)】** 专注于自动驾驶感知领域，包括传统方法(PCL点云库,ROS)和深度学习（目标检测+语义分割）方法。同时涉及Apollo，Autoware(基于ros2)，BEV感知，三维重建，SLAM(视觉+激光雷达) ，模型压缩（蒸馏+剪枝+量化等），自动驾驶模拟仿真，自动驾驶数据集标注&数据闭环等自动驾驶全栈技术，欢迎扫码二维码加入，一起登顶自动驾驶的高峰！\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_readme_2f85d10d70bf.png)","# 3D-Point-Clouds 快速上手指南\n\n本指南旨在帮助开发者快速进入 3D 点云处理领域，涵盖从环境准备、框架安装到基础使用的全流程。本项目主要聚合了自动驾驶感知领域的 SOTA 方法（目标检测与语义分割），包括深度学习（Python）与传统方法（C++\u002FPCL\u002FROS）。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04\u002F22.04) 或 macOS。Windows 用户建议使用 WSL2 或 Docker。\n*   **硬件要求**:\n    *   **GPU**: 推荐使用 NVIDIA GPU (显存 >= 8GB)，用于加速深度学习模型训练与推理。\n    *   **CPU**: 多核处理器，用于数据预处理及传统 PCL 算法运行。\n*   **前置依赖**:\n    *   **Python**: 3.7 - 3.9 (深度学习框架兼容性最佳版本)\n    *   **CUDA & cuDNN**: 根据显卡驱动版本安装对应的 CUDA Toolkit (通常建议 CUDA 11.x)。\n    *   **C++ 编译器**: `g++`, `cmake` (用于编译 PCL 或部分算子)。\n    *   **基础库**: `git`, `wget`, `curl`。\n\n> **提示**：国内开发者建议使用清华源或阿里源配置 `pip` 和 `apt`，以加速依赖下载。\n\n## 2. 安装步骤\n\n本项目是一个资源汇总仓库，核心功能依赖于具体的深度学习框架（如 OpenPCDet, MMDetection3D）或传统库（PCL）。以下提供两种主流路径的安装命令。\n\n### 路径 A：深度学习框架安装 (推荐)\n\n以目前社区最活跃的 **OpenPCDet** 为例（支持 VoxelNet, PointPillars, PV-RCNN 等）：\n\n```bash\n# 1. 创建虚拟环境 (推荐 conda)\nconda create -n pcdet python=3.8\nconda activate pcdet\n\n# 2. 安装 PyTorch (根据 CUDA 版本选择，此处以 CUDA 11.3 为例)\n# 国内加速镜像推荐：使用清华源\npip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\u002Ftorch_stable.html\n\n# 3. 安装基础依赖\npip install numpy scipy scikit-image tensorboardX easydict pyyaml opencv-python mayavi\n\n# 4. 克隆并安装 OpenPCDet\ngit clone https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002FOpenPCDet.git\ncd OpenPCDet\n\n# 5. 编译安装 (包含 CUDA 扩展)\npip install -r requirements.txt\npython setup.py develop\n```\n\n若需使用 **MMDetection3D**：\n\n```bash\n# 安装 MMEngine 和 MMCV\npip install -U openmim\nmim install mmengine\nmim install \"mmcv>=2.0.0\"\n\n# 安装 MMDetection3D\nmim install mmdet3d\n```\n\n### 路径 B：传统方法环境 (PCL & ROS)\n\n适用于基于规则的方法及点云预处理：\n\n```bash\n# Ubuntu 下安装 PCL 和 ROS (以 Noetic 为例)\nsudo apt update\nsudo apt install libpcl-dev ros-noetic-pcl-ros ros-noetic-rviz\n\n# 验证 PCL 安装\npkg-config --modversion pcl_common\n```\n\n### 数据集准备 (可选)\n\n项目提供了脚本用于下载常用自动驾驶数据集（KITTI, nuScenes, Waymo 等）：\n\n```bash\n# 克隆数据集下载脚本仓库\ngit clone https:\u002F\u002Fgithub.com\u002FHuangCongQing\u002Fdownload_3D_dataset.git\ncd download_3D_dataset\n\n# 执行下载脚本 (需根据具体数据集修改脚本内链接或参数)\n# 示例：下载 KITTI 数据集相关脚本\nbash download_kitti.sh \n```\n\n## 3. 基本使用\n\n安装完成后，您可以进行点云可视化或运行预训练模型进行目标检测。\n\n### 3.1 点云可视化\n\n使用 Python 库（如 Open3D 或 Mayavi）快速查看 `.pcd` 或 `.bin` 文件。\n\n```python\nimport open3d as o3d\nimport numpy as np\n\n# 读取二进制点云文件 (以 KITTI 格式为例)\ndef load_bin_point_cloud(file_path):\n    point_cloud = np.fromfile(file_path, dtype=np.float32).reshape(-1, 4)\n    return point_cloud[:, :3]  # 只取 x, y, z\n\n# 加载数据\npoints = load_bin_point_cloud('sample.bin')\n\n# 创建点云对象\npcd = o3d.geometry.PointCloud()\npcd.points = o3d.utility.Vector3dVector(points)\n\n# 可视化\no3d.visualization.draw_geometries([pcd], window_name=\"3D Point Cloud Viewer\")\n```\n\n### 3.2 运行目标检测模型 (基于 OpenPCDet)\n\n使用预训练模型对单帧点云进行推理：\n\n```bash\n# 进入 OpenPCDet 目录\ncd OpenPCDet\n\n# 运行测试脚本\n# --cfg_file: 配置文件路径\n# --ckpt: 预训练权重路径\n# --data_path: 待测试的点云文件路径\npython demo.py --cfg_file configs\u002Fkitti_models\u002Fpv_rcnn.yaml \\\n               --ckpt checkpoint\u002Fpv_rcnn_8369.pth \\\n               --data_path data\u002Fkitti\u002Ftraining\u002Fvelodyne\u002F000000.bin\n```\n\n运行成功后，程序将生成带有 3D 检测框的可视化结果图片，并在终端输出检测到的物体类别及坐标。\n\n### 3.3 传统方法处理 (PCL C++ 示例)\n\n若使用 C++ 进行滤波处理：\n\n```cpp\n#include \u003Cpcl\u002Fio\u002Fpcd_io.h>\n#include \u003Cpcl\u002Ffilters\u002Fvoxel_grid.h>\n\nint main () {\n  pcl::PointCloud\u003Cpcl::PointXYZ>::Ptr cloud (new pcl::PointCloud\u003Cpcl::PointXYZ>);\n  pcl::PointCloud\u003Cpcl::PointXYZ>::Ptr filtered_cloud (new pcl::PointCloud\u003Cpcl::PointXYZ>);\n\n  \u002F\u002F 读取点云\n  if (pcl::io::loadPCDFile\u003Cpcl::PointXYZ> (\"input.pcd\", *cloud) == -1) {\n    PCL_ERROR (\"Couldn't read file input.pcd \\n\");\n    return (-1);\n  }\n\n  \u002F\u002F 体素网格下采样\n  pcl::VoxelGrid\u003Cpcl::PointXYZ> sor;\n  sor.setInputCloud (cloud);\n  sor.setLeafSize (0.1f, 0.1f, 0.1f);\n  sor.filter (*filtered_cloud);\n\n  \u002F\u002F 保存结果\n  pcl::io::savePCDFileASCII (\"output_filtered.pcd\", *filtered_cloud);\n  return (0);\n}\n```\n\n---\n*更多详细论文解读、框架对比及进阶教程，请参考项目原文档中的知乎专栏链接或加入技术交流群获取最新资源。*","某自动驾驶初创公司的感知算法团队正在研发城市道路下的车辆与行人检测系统，急需从海量激光雷达数据中训练出高精度的 3D 检测模型。\n\n### 没有 3D-Point-Clouds 时\n- **论文复现成本极高**：工程师需手动在 arXiv 和 GitHub 大海捞针，寻找 PointPillars 或 PV-RCNN 等 SOTA 模型的代码，常遇到版本不兼容或缺失依赖库的“坑”，单篇论文复现耗时数周。\n- **数据预处理繁琐**：面对 KITTI、nuScenes 等不同格式的数据集，团队需重复编写解析脚本和标注转换工具，缺乏统一的标准处理流程，导致数据清洗占据 70% 的开发时间。\n- **技术选型盲目**：难以快速对比 One-stage 与 Two-stage 各类算法在特定场景下的优劣，缺乏系统的综述指引，导致模型架构选型往往依靠试错，迭代效率低下。\n- **可视化调试困难**：缺少便捷的点云可视化工具链，开发人员难以直观观察原始点云分布与模型预测框的匹配情况，排查误检漏检原因如同“盲人摸象”。\n\n### 使用 3D-Point-Clouds 后\n- **开箱即用的高效复现**：直接调用整理好的 pcdet、mmdetection3d 等框架笔记与代码注解，快速跑通 Voxel-Net、Point-RCNN 等主流算法基线，将模型验证周期从数周缩短至数天。\n- **标准化的数据流水线**：利用汇总的数据集下载脚本与标注处理工具，一键完成多源数据的格式统一与预处理，让团队能专注于核心算法优化而非数据清洗。\n- **清晰的技术演进地图**：依托实时更新的论文列表与分类综述（如语义分割框架对比），团队能迅速锁定适合城市场景的最新 SOTA 方法，制定科学的技术路线图。\n- **多维度的可视化支持**：借助推荐的 Open3D、PCL 等可视化方案，开发人员可即时渲染点云与检测框，直观分析长尾场景下的失败案例，显著加速模型调优过程。\n\n3D-Point-Clouds 通过整合从数据处理、模型复现到可视化调试的全栈资源，将自动驾驶感知算法的研发效率提升了数倍，让团队能更专注于解决复杂的长尾场景问题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHuangCongQing_3D-Point-Clouds_170d94eb.png","HuangCongQing","双愚","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHuangCongQing_09d59228.jpg","There is a long way to go!  \r\n\r\nInterested in : VLA, deep learning, autonomous driving, 3D detection\u002Fsegmentation","UCAS Master","Beijing, China",null,"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fchongqing-huang-730228149\u002F","https:\u002F\u002Fgithub.com\u002FHuangCongQing",[83],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",100,610,84,"2026-04-14T17:01:55","MIT",4,"","未说明",{"notes":95,"python":93,"dependencies":96},"该项目是一个资源汇总列表（Awesome List），而非单一的可执行软件包。它整理了点云处理的两类方法：基于 C++ 的传统方法（PCL, ROS）和基于 Python 的深度学习方法（目标检测、语义分割等）。具体的运行环境需求取决于用户选择使用的具体子项目（如 PCDet、MMDetection3D 等）或算法模型，需参考各子项目的独立文档。可视化工具支持 C++ 和 Python 多种库。",[97,98,99,100,101,102,103,104,105],"PCL (C++)","ROS","Open3D","Mayavi","Matplotlib","PCDet","MMDetection3D","Det3D","Paddle3D",[16,15,107,14],"其他",[109,110,111,112,113,114,115,116,117,118,119,120,121],"3d-point-clouds","sota","pcl","ros-melodic","deep-learning","point-cloud","cpp","python3","dataset","ros","3d-detection","3d-point-cloud","3d-semantic-segmentation","2026-03-27T02:49:30.150509","2026-04-15T13:05:06.674988",[],[]]