[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenDriveLab--DriveAGI":3,"tool-OpenDriveLab--DriveAGI":64},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[15,16,52,61,13,62,35,14,63],"插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":140},4335,"OpenDriveLab\u002FDriveAGI","DriveAGI","Notably, GenAD & Dataset Survey. A Collection of Foundation Driving Models by OpenDriveLab. For Vista and DriveLM, please refer to individual page.","DriveAGI 是由 OpenDriveLab 推出的自动驾驶基础模型集合，旨在推动通用自动驾驶技术的发展。它核心解决了当前自动驾驶研究面临的数据匮乏与模型泛化能力不足的难题。通过发布 GenAD 项目，DriveAGI 提供了目前规模最大的真实世界驾驶视频数据集 OpenDV，其容量高达 1700 小时，是主流 nuScenes 数据集的 300 倍，涵盖了城市、高速及乡村等多样场景。此外，集合中还包含了具备高保真长时序预测能力的通用驾驶世界模型 Vista，以及支持多模态交互的 DriveLM 等前沿成果。\n\n该项目特别适合自动驾驶领域的研究人员与开发者使用。对于希望训练高性能感知或决策模型的团队，DriveAGI 不仅提供了海量数据，还贴心地推出了仅占原数据 1\u002F20 的 OpenDV-mini 版本，大幅降低了实验门槛和存储成本。其独特的技术亮点在于构建了从大规模数据清洗、语言标注到世界模型预测的完整闭环，支持模型执行多模态动作并评估驾驶行为。无论是进行学术探索还是工程验证，DriveAGI 都为构建更智能、更通用的自动驾驶系统提供了坚实的基础设施。","> [!IMPORTANT]\n> 🌟 Stay up to date at [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news)!\n\n\n## Table of Contents\n- [NEWS](#news)\n- ⭐ [GenAD: OpenDV Dataset](#opendv) (CVPR 2024 Hightlight)\n- [Vista](#vista) (NeurIPS 2024)\n- [DriveLM](#drivelm) (ECCV 2024 Oral)\n- [DriveData Survey](#drivedata-survey) (SCIENTIA SINICA Informationis 2024)\n  \u003C!-- - [Abstract](#abstract)\n  - [Related Work Collection](#related-work-collection) -->\n- [OpenScene](#openscene)\n- [OpenLane-V2 Update](#openlane-v2-update)\n\n\n\n## NEWS\n\u003Cdetails>\n\n**\u003Cfont color=\"red\">[ NEW❗️]\u003C\u002Ffont> `2024\u002F09\u002F08`** We released a mini version of `OpenDV-YouTube`, containing **25 hours** of driving videos. Feel free to try the mini subset by following instructions at [OpenDV-mini](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fblob\u002Fmain\u002Fopendv\u002FREADME.md)!\n\n**`2024\u002F05\u002F28`** We released our latest research, [Vista](#vista), a generalizable driving world model. It's capable of predicting high-fidelity and long-horizon futures, executing multi-modal actions, and serving as a generalizable reward function to assess driving behaviors. \n\n\n**`2024\u002F03\u002F24`** `OpenDV-YouTube Update:` **Full suite of toolkits for OpenDV-YouTube** is now available, including data downloading and processing scripts, as well as language annotations. Please refer to [OpenDV-YouTube](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv).\n\n**`2024\u002F03\u002F15`** We released the complete video list of `OpenDV-YouTube`, a large-scale driving video dataset, for [GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) project. Data downloading and processing script, as well as language annotations, will be released next week. Stay tuned.\n\n**`2024\u002F01\u002F24`**\nWe are excited to announce some update to [our survey](#drivedata-survey) and would like to thank John Lambert, Klemens Esterle from the public community for their advice to improve the manuscript.\n\u003C\u002Fdetails>\n\n\n\n## GenAD: OpenDV Dataset \u003Ca name=\"opendv\">\u003C\u002Fa>\n![opendv](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_DriveAGI_readme_63257688eaea.png)\n> Examples of **real-world** driving scenarios in the OpenDV dataset, including urban, highway, rural scenes, etc.\n\n### [⭐ **Generalized Predictive Model for Autonomous Driving**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) (**CVPR 2024, Highlight**)\n\n### [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=a4H6Jj-7IC0) | [Poster](assets\u002Fcvpr24_genad_poster.png) | [Slides](https:\u002F\u002Fopendrivelab.github.io\u002Fcontent\u002FGenAD_slides_with_vista.pdf)\n\n🎦 The **Largest Driving Video dataset** to date, containing more than **1700 hours** of real-world driving videos and being 300 times larger than the widely used nuScenes dataset.\n\n\n- **Complete video list** (under YouTube license): [OpenDV Videos](https:\u002F\u002Fdocs.google.com\u002Fspreadsheets\u002Fd\u002F1bHWWP_VXeEe5UzIG-QgKFBdH7mNlSC4GFSJkEhFnt2I).\n  - The downloaded raw videos (`mostly 1080P`) consume about `3 TB` storage space. However, these hour-long videos cannot be directly applied for model training as they are extremely memory consuming.\n  - Therefore, we preprocess them into conseductive images which are more flexible and efficient to load during training. Processed images consumes about `24 TB` storage space in total.\n  - It's recommended to set up your experiments on a small subset, say **1\u002F20** of the whole dataset. An official mini subset is also provided and you can refer to [**OpenDV-mini**](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv#about-opendv-youtube-and-opendv-mini) for details. After stablizing the training, you can then apply your method on the whole dataset and hope for the best 🤞.\n- \u003Cfont color=\"red\">**[ New❗️]**\u003C\u002Ffont> **Mini subset**: [OpenDV-mini](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv).\n  - A mini version of `OpenDV-YouTube`. The raw videos consume about `44 GB` of storage space and the processed images will consume about `390 GB` of storage space.\n- **Step-by-step instruction for data preparation**: [OpenDV-YouTube](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv\u002FREADME.md).\n- **Language annotation for OpenDV-YouTube**: [OpenDV-YouTube-Language](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOpenDriveLab\u002FOpenDV-YouTube-Language).\n\n\n**Quick facts:**\n- Task: large-scale video prediction for driving scenes.\n- Data source: `YouTube`, with careful collection and filtering process.\n- Diversity Highlights: 1700 hours of driving videos, covering more than 244 cities in 40 countries.\n- Related work: [GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) **`Accepted at CVPR 2024, Highlight`**\n- `Note`: Annotations for other public datasets in OpenDV-2K will not be released since we randomly sampled a subset of them in training, which are incomplete and hard to trace back to their origins (i.e., file name). Nevertheless, it's easy to reproduce the collection and annotation process on your own following [our paper]((https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630)).\n\n```bibtex\n@inproceedings{yang2024genad,\n  title={Generalized Predictive Model for Autonomous Driving},\n  author={Jiazhi Yang and Shenyuan Gao and Yihang Qiu and Li Chen and Tianyu Li and Bo Dai and Kashyap Chitta and Penghao Wu and Jia Zeng and Ping Luo and Jun Zhang and Andreas Geiger and Yu Qiao and Hongyang Li},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  year={2024}\n}\n```\n\n## Vista\n\u003Cdiv id=\"top\" align=\"center\">\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_DriveAGI_readme_784489d921b3.gif\" width=\"1000px\" >\n\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n> Simulated futures in a wide range of driving scenarios by [Vista](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398). Best viewed on [demo page](https:\u002F\u002Fvista-demo.github.io\u002F).\n\u003Cdetails>\n\n### [🌏 **A Generalizable Driving World Model with High Fidelity and Versatile Controllability**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398) (NeurIPS 2024)\n\n**Quick facts:**\n- Introducing the world's first **generalizable driving world model**.\n- Task: High-fidelity, action-conditioned, and long-horizon future prediction for driving scenes in the wild.\n- Dataset: [`OpenDV-YouTube`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv), `nuScenes`\n- Code and model: https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FVista\n- Video Demo: https:\u002F\u002Fvista-demo.github.io\n- Related work: [Vista](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398), [GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630)\n\n```bibtex\n@inproceedings{gao2024vista,\n title={Vista: A Generalizable Driving World Model with High Fidelity and Versatile Controllability}, \n author={Shenyuan Gao and Jiazhi Yang and Li Chen and Kashyap Chitta and Yihang Qiu and Andreas Geiger and Jun Zhang and Hongyang Li},\n booktitle={Advances in Neural Information Processing Systems (NeurIPS)},\n year={2024}\n}\n\n@inproceedings{yang2024genad,\n  title={{Generalized Predictive Model for Autonomous Driving}},\n  author={Jiazhi Yang and Shenyuan Gao and Yihang Qiu and Li Chen and Tianyu Li and Bo Dai and Kashyap Chitta and Penghao Wu and Jia Zeng and Ping Luo and Jun Zhang and Andreas Geiger and Yu Qiao and Hongyang Li},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n  year={2024}\n}\n```\n\n\u003C\u002Fdetails>\n\n## DriveLM\n\u003Cdetails>\nIntroducing the First benchmark on **Language Prompt for Driving**.\n\n**Quick facts:**\n- Task: given the language prompts as input, predict the trajectory in the scene\n- Origin dataset: `nuScenes`, `CARLA (To be released)`\n- Repo: https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM, https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FELM\n- Related work: [DriveLM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14150), [ELM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04593)\n- Related challenge: [Driving with Language AGC Challenge 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#driving_with_language)\n\u003C\u002Fdetails>\n\n## DriveData Survey\n\u003Cdetails>\n\n### Abstract\nWith the continuous maturation and application of autonomous driving technology, a systematic examination of open-source autonomous driving datasets becomes instrumental in fostering the robust evolution of the industry ecosystem. In this survey, we provide a comprehensive analysis of more than 70 papers on the timeline, impact, challenges, and future trends in autonomous driving dataset.\n\n> **Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future**\n> - [English Version](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.03408)\n> - [Chinese Version](https:\u002F\u002Fwww.sciengine.com\u002FSSI\u002Fdoi\u002F10.1360\u002FSSI-2023-0313) **`Accepted at SCIENTIA SINICA Informationis (中文版)`**\n\n ```bib\n@article{li2024_driving_dataset_survey,\n  title = {Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future},\n  author = {Hongyang Li and Yang Li and Huijie Wang and Jia Zeng and Huilin Xu and Pinlong Cai and Li Chen and Junchi Yan and Feng Xu and Lu Xiong and Jingdong Wang and Futang Zhu and Chunjing Xu and Tiancai Wang and Fei Xia and Beipeng Mu and Zhihui Peng and Dahua Lin and Yu Qiao},\n  journal = {SCIENTIA SINICA Informationis},\n  year = {2024},\n  doi = {10.1360\u002FSSI-2023-0313}\n}\n```\n\n\u003C!-- > [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>1\u003C\u002Fsup>, Yang Li\u003Csup>1\u003C\u002Fsup>, [Huijie Wang](https:\u002F\u002Ffaikit.github.io\u002F)\u003Csup>1\u003C\u002Fsup>, [Jia Zeng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=kYrUfMoAAAAJ)\u003Csup>1\u003C\u002Fsup>, Pinlong Cai\u003Csup>1\u003C\u002Fsup>, Dahua Lin\u003Csup>1\u003C\u002Fsup>, Junchi Yan\u003Csup>2\u003C\u002Fsup>, Feng Xu\u003Csup>3\u003C\u002Fsup>, Lu Xiong\u003Csup>4\u003C\u002Fsup>, Jingdong Wang\u003Csup>5\u003C\u002Fsup>, Futang Zhu\u003Csup>6\u003C\u002Fsup>, Kai Yan\u003Csup>7\u003C\u002Fsup>, Chunjing Xu\u003Csup>8\u003C\u002Fsup>, Tiancai Wang\u003Csup>9\u003C\u002Fsup>, Beipeng Mu\u003Csup>10\u003C\u002Fsup>, Shaoqing Ren\u003Csup>11\u003C\u002Fsup>, Zhihui Peng\u003Csup>12\u003C\u002Fsup>, Yu Qiao\u003Csup>1\u003C\u002Fsup>\n> \n> \u003Csup>1\u003C\u002Fsup> Shanghai AI Lab, \u003Csup>2\u003C\u002Fsup> Shanghai Jiao Tong University, \u003Csup>3\u003C\u002Fsup> Fudan University, \u003Csup>4\u003C\u002Fsup> Tongji University, \u003Csup>5\u003C\u002Fsup> Baidu, \u003Csup>6\u003C\u002Fsup> BYD, \u003Csup>7\u003C\u002Fsup> Changan, \u003Csup>8\u003C\u002Fsup> Huawei, \u003Csup>9\u003C\u002Fsup> Megvii Technology, \u003Csup>10\u003C\u002Fsup> Meituan, \u003Csup>11\u003C\u002Fsup> Nio Automotive, \u003Csup>12\u003C\u002Fsup> Agibot\n> -->\n\n![overview](assets\u002FDrivedata_overview.jpg \"Drivedata_overview\")\n>Current autonomous driving datasets can broadly be categorized into two generations since the 2010s. We define the Impact (y-axis) of a dataset based on sensor configuration, input modality, task category, data scale, ecosystem, etc.\n\n![overview](assets\u002FDrivedata_timeline.jpg \"Drivedata_timeline\")\n\n### Related Work Collection \n\nWe present comprehensive paper collections, leaderboards, and challenges.(Click to expand)\n\n\u003Cdetails>\n\u003Csummary>Challenges and Leaderboards\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth >Title\u003C\u002Fth>\n    \u003Cth >Host\u003C\u002Fth>\n    \u003Cth >Year\u003C\u002Fth>\n    \u003Cth >Task\u003C\u002Fth>\n    \u003Cth >Entry\u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7 >\u003Ca href=\"https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html\" target=\"_blank\" title=\"Autonomous Driving Challenge\">Autonomous Driving Challenge\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=7 > OpenDriveLab\u003C\u002Ftd>\n      \u003Ctd rowspan=7 >CVPR2023\u003C\u002Ftd>\n       \u003Ctd>Perception \u002F OpenLane Topology\u003C\u002Ftd>\n    \t\u003Ctd rowspan=7> 111 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Online HD Map Construction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F 3D Occupancy Prediction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n        \u003Ctd>Prediction & Planning \u002F nuPlan Planning\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=23 >\u003Ca href=\"https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F\" target=\"_blank\" title=\"Waymo Open Dataset\nChallenges\">Waymo Open Dataset Challenges\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=23 > Waymo\u003C\u002Ftd>\n      \u003Ctd rowspan=8>CVPR2023\u003C\u002Ftd>\n       \u003Ctd>Perception \u002F 2D Video Panoptic Segmentation\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 35 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Pose Estimation\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F Motion Prediction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Ctd>Prediction \u002F Sim Agents\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd rowspan=8>CVPR2022\u003C\u002Ftd>\n       \u003Ctd>Prediction \u002F Motion Prediction\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 128 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F Occupancy and Flow Prediction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F 3D Semantic Segmentation\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F 3D Camera-only Detection\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n \u003Ctd rowspan=7>CVPR2021\u003C\u002Ftd>\n       \u003Ctd>Prediction \u002F Motion Prediction\u003C\u002Ftd>\n    \t\u003Ctd rowspan=7> 115 \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F Interaction Prediction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Real-time 3D Detection\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Real-time 2D Detection\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=19 >\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Ftasks.html\" target=\"_blank\" title=\"Argoverse\nChallenges\">Argoverse Challenges\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=19 > Argoverse\u003C\u002Ftd>\n      \u003Ctd rowspan=8>CVPR2023\u003C\u002Ftd>\n       \u003Ctd>Prediction \u002F Multi-agent Forecasting\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 81 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception & Prediction \u002F Unified Sensorbased Detection, Tracking, and Forecasting\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F LiDAR Scene Flow\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F 3D Occupancy Forecasting\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \u003Ctd rowspan=6>CVPR2022\u003C\u002Ftd>\n       \u003Ctd>Perception \u002F 3D Object Detection\u003C\u002Ftd>\n    \t\u003Ctd rowspan=6> 81 \u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F Motion Forecasting\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Stereo Depth Estimation\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd rowspan=5>CVPR2021\u003C\u002Ftd>\n       \u003Ctd>Perception \u002F Stereo Depth Estimation\u003C\u002Ftd>\n    \t\u003Ctd rowspan=5> 368 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F Motion Forecasting\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F Streaming 2D Detection\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=5 >\u003Ca href=\"https:\u002F\u002Fcarlachallenge.org\u002F\" target=\"_blank\" title=\"CARLA Autonomous Driving Challenge\">CARLA Autonomous Driving Challenge\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=5 > CARLA Team, Intel\u003C\u002Ftd>\n      \u003Ctd rowspan=2 >2023\u003C\u002Ftd>\n      \u003Ctd>Planning \u002F CARLA AD Challenge 2.0\u003C\u002Ftd>\n    \t\u003Ctd rowspan=2> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd rowspan=2 >NeurIPS2022\u003C\u002Ftd>\n       \u003Ctd>Planning \u002F CARLA AD Challenge 1.0\u003C\u002Ftd>\n       \u003Ctd rowspan=2> 19 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd rowspan=1 >NeurIPS2021\u003C\u002Ftd>\n       \u003Ctd>Planning \u002F CARLA AD Challenge 1.0\u003C\u002Ftd>\n       \u003Ctd rowspan=1> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7 >\u003Ca href=\"https:\u002F\u002Fiacc.pazhoulab-huangpu.com\u002F\" target=\"_blank\" title=\"粤港澳大湾区\n      （黄埔）国际算法算例大赛\">粤港澳大湾区\n（黄埔）国际算法算例大赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=7> 琶洲实验室\u003C\u002Ftd>\n      \u003Ctd rowspan=4>2023\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 跨场景单目深度估计\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 路侧毫米波雷达标定和目标跟踪\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=3>2022\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 路侧三维感知算法\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 街景图像店面招牌文字识别\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=9 >\u003Ca href=\"https:\u002F\u002Fdriving-olympics.ai\u002F\" target=\"_blank\" title=\"AI Driving Olympics\">AI Driving Olympics\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=9 > ETH Zurich, University of Montreal,Motional\u003C\u002Ftd>\n      \u003Ctd> NeurIP2021 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>Perception \u002F nuScenes Panoptic\u003C\u002Ftd>\n    \t\u003Ctd> 11 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7>ICRA2021\u003C\u002Ftd>\n       \u003Ctd>Perception \u002F nuScenes Detection\u003C\u002Ftd>\n       \u003Ctd rowspan=7> 456 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F nuScenes Tracking\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Prediction \u002F nuScenes Prediction\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>Perception \u002F nuScenes LiDAR Segmentation\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=1 >\u003Ca href=\"https:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fjittor\u002Fnews\u002F2021-1-22-13-14-comp\u002F\" target=\"_blank\" title=\"计图 (Jittor)人工智能算法挑战赛\">计图 (Jittor)人工智能算法挑战赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=1 > 国家自然科学基金委信息科学部\u003C\u002Ftd>\n      \u003Ctd> 2021 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>感知 \u002F 交通标志检测\u003C\u002Ftd>\n    \t\u003Ctd> 37 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=1 >\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"KITTI Vision Benchmark Suite\">KITTI Vision Benchmark Suite\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=1 > University of Tübingen \u003C\u002Ftd>\n      \u003Ctd> 2012 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>Perception \u002F Stereo, Flow, Scene Flow, Depth,\nOdometry, Object, Tracking, Road, Semantics\u003C\u002Ftd>\n    \t\u003Ctd> 5,610 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Perception Datasets\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=3 colspan=1>Dataset\u003C\u002Fth>\n    \u003Cth rowspan=3 >Year\u003C\u002Ftd>\n    \u003Cth  align=\"middle\" colspan=3 >Diversity\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=3 >Sensor\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>Annotation\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>Paper\u003C\u002Fth>\n\u003C\u002Ftr> \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Cth> Scenes\u003C\u002Fth>\n    \t\u003Cth> Hours \u003C\u002Fth>\n    \t\u003Cth> Region \u003C\u002Fth>\n  \t  \u003Cth> Camera\u003C\u002Fth>\n    \t\u003Cth> Lidar \u003C\u002Fth>\n    \t\u003Cth> Other \u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"Homepage\">KITTI\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2012\u003C\u002Ftd>\n    \t\u003Ctd> 50 \u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> Font-view \u003C\u002Ftd>\n      \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>2D BBox & 3D BBox\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FGeiger2012CVPR.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cityscapes-dataset.com\u002F\" target=\"_blank\" title=\"Homepage\">Cityscapes\u003C\u002Fa>\u003C\u002Ftd>  \t  \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> Font-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.01685\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fww1.6d-vision.com\u002Flostandfounddataset\" target=\"_blank\" \n      title=\"Homepage\">Lost and Found\u003C\u002Fa>\u003C\u002Ftd>  \t  \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> 112 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> Font-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1609.04653\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Feval-vistas.mapillary.com\u002F\" target=\"_blank\" \n      title=\"Homepage\">Mapillary\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> Global\u003C\u002Ftd>\n    \t\u003Ctd> Street-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FNeuhold_The_Mapillary_Vistas_ICCV_2017_paper.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fsensors.ini.uzh.ch\u002Fnews_page\u002FDDD17.html\" target=\"_blank\" \n      title=\"Homepage\">DDD17\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2017\u003C\u002Ftd>\n    \t\u003Ctd> 36\u003C\u002Ftd>\n    \t\u003Ctd> 12 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> GPS & CAN-bus & Event Camera\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.01458.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" \n      title=\"Homepage\">Apolloscape\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> 103\u003C\u002Ftd>\n    \t\u003Ctd> 2.5 \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd> 3D BBox & 2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.06184.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJinkyuKimUCB\u002FBDD-X-dataset\" target=\"_blank\" \n      title=\"Homepage\">BDD-X\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> 6984\u003C\u002Ftd>\n    \t\u003Ctd> 77 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>Language\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1807.11546.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002Fhdd\" target=\"_blank\" \n      title=\"Homepage\">HDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 104 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.02307v1.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fidd.insaan.iiit.ac.in\u002Fdataset\u002Fdetails\u002F\" target=\"_blank\" \n      title=\"Homepage\">IDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> 182\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10200v1.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fsemantic-kitti.org\u002F\" target=\"_blank\" \n      title=\"Homepage\">SemanticKITTI\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019\u003C\u002Ftd>\n    \t\u003Ctd> 50\u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> EU \u003C\u002Ftd>\n    \t\u003Ctd> ✗ \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01416.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvaleoai\u002FWoodScape\" target=\"_blank\" \n      title=\"Homepage\">Woodscape\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> Global\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus \u003C\u002Ftd>\n      \u003Ctd>3D BBox & 2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.01489.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrivingstereo-dataset.github.io\u002F\" target=\"_blank\" \n      title=\"Homepage\">DrivingStereo\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 42\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS \u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8954165\u002F\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRobotics-BUT\u002FBrno-Urban-Dataset\" target=\"_blank\" \n      title=\"Homepage\">Brno-Urban\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 67\u003C\u002Ftd>\n    \t\u003Ctd> 10 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & Infrared Camera \u003C\u002Ftd>\n      \u003Ctd> -\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.06897.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI2RDL2\u002FASTAR-3D\" target=\"_blank\" \n      title=\"Homepage\">A*3D\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 55 \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd> 3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.07541v1.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftalk2car\u002FTalk2Car\" target=\"_blank\" \n      title=\"Homepage\">Talk2Car\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 850\u003C\u002Ftd>\n    \t\u003Ctd> 283.3 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>Language & 3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.10838.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Farunv\u002Fpersonal\u002Ftalk2nav.html\" target=\"_blank\" \n      title=\"Homepage\">Talk2Nav\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 10714\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> Sim\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>Language \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.02029.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Faras62\u002FPIEPredict\" target=\"_blank\" \n      title=\"Homepage\">PIE\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FRasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweisongwen\u002FUrbanLoco\" target=\"_blank\" \n      title=\"Homepage\">UrbanLoco\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 13\u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n  \t  \u003Ctd>AS & NA\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> IMU \u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.09513.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002Ftitan\" target=\"_blank\" \n      title=\"Homepage\">TITAN\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 700\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.13886.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002FH3D\" target=\"_blank\" \n      title=\"Homepage\">H3D \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 160 \u003C\u002Ftd>\n    \t\u003Ctd> 0.77 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.01568.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.a2d2.audi\u002Fa2d2\u002Fen\u002Fdownload.html\" target=\"_blank\" \n      title=\"Homepage\">A2D2\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 5.6  \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 360°  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.06320.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvaleoai\u002Fcarrada_dataset\" target=\"_blank\" \n      title=\"Homepage\">CARRADA\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 30  \u003C\u002Ftd>\n    \t\u003Ctd> 0.3 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> Front-view  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> Radar\u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.01456.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdata.mendeley.com\u002Fdatasets\u002F766ygrbt8y\u002F3\" target=\"_blank\" \n      title=\"Homepage\">DAWN\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019  \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> Global\u003C\u002Ftd>\n    \t\u003Ctd> Front-view  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.05402.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fpmwenzel\u002F4seasons-dataset\" target=\"_blank\" \n      title=\"Homepage\">4Seasons\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> Front-view  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU\u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06364.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsauradip\u002Fnight_image_semantic_segmentation#Urban%20Night%20Driving%20Dataset\" target=\"_blank\" \n      title=\"Homepage\">UNDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> Front-view  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8803299\n\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fwww.poss.pku.edu.cn\u002F\" target=\"_blank\" \n      title=\"Homepage\">SemanticPOSS\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> ✗  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.09147.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeikaiTan\u002FToronto-3D\" target=\"_blank\" \n      title=\"Homepage\">Toronto-3D\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 4 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> ✗ \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPRW_2020\u002Fpapers\u002Fw11\u002FTan_Toronto-3D_A_Large-Scale_Mobile_LiDAR_Dataset_for_Semantic_Segmentation_of_CVPRW_2020_paper.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgurkirt\u002Froad-dataset\" target=\"_blank\" \n      title=\"Homepage\">ROAD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 22 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd>Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D BBox & Topology \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.11585.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbassam-motional\u002FReasonable-Crowd\" target=\"_blank\" \n      title=\"Homepage\">Reasonable Crowd\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> Sim\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>Language \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.13507.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgamma.umd.edu\u002Fresearchdirections\u002Fautonomousdriving\u002Fmeteor\u002F\" target=\"_blank\" \n      title=\"Homepage\">METEOR\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 1250 \u003C\u002Ftd>\n    \t\u003Ctd> 20.9  \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> GPS  \u003C\u002Ftd>\n      \u003Ctd>Language \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.07648.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscaleapi\u002Fpandaset-devkit\" target=\"_blank\" \n      title=\"Homepage\">PandaSet\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 179 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.12610.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FENSTA-U2IS\u002FMUAD-Dataset\" target=\"_blank\" \n      title=\"Homepage\">MUAD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> Sim \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg& 2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01437.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fmucar3.de\u002Firos2022-ppniv-tas-nir\u002F\" target=\"_blank\" \n      title=\"Homepage\">TAS-NIR\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd>Infrared Camera \u003C\u002Ftd>\n      \u003Ctd>2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09368.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FLiDAR-Perception\u002FLiDAR-CS\" target=\"_blank\" \n      title=\"Homepage\">LiDAR-CS\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> Sim \u003C\u002Ftd>\n    \t\u003Ctd> ✗  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12515.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwilddash.cc\u002F\" target=\"_blank\" \n      title=\"Homepage\">WildDash \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> Front-view \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FOliver_Zendel_WildDash_-_Creating_ECCV_2018_paper.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene\" target=\"_blank\" \n      title=\"Homepage\">OpenScene\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> AS & NA\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D Occ \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15654.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fzod.zenseact.com\u002F\" target=\"_blank\" \n      title=\"Homepage\">ZOD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1473 \u003C\u002Ftd>\n    \t\u003Ctd> 8.2  \u003C\u002Ftd>\n  \t  \u003Ctd> EU   \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓   \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus \u003C\u002Ftd>\n      \u003Ctd>3D BBox & 2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02008\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002F\" target=\"_blank\" \n      title=\"Homepage\">nuScenes\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> AS & NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & CAN-bus & Radar & HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.11027.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Fav1.html\" target=\"_blank\" \n      title=\"Homepage\">Argoverse V1\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 324k  \u003C\u002Ftd>\n    \t\u003Ctd>320   \u003C\u002Ftd>\n  \t  \u003Ctd>   NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.02620.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwaymo-research\u002Fwaymo-open-dataset\" target=\"_blank\" \n      title=\"Homepage\">Waymo\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd>6.4  \u003C\u002Ftd>\n  \t  \u003Ctd> NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox & 3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.04838.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fkitti360Scripts\" target=\"_blank\" \n      title=\"Homepage\">KITTI-360\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 366  \u003C\u002Ftd>\n    \t\u003Ctd> 2.5  \u003C\u002Ftd>\n  \t  \u003Ctd> EU \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.13410.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fonce-for-auto-driving.github.io\u002Findex.html\" target=\"_blank\" \n      title=\"Homepage\">ONCE\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021  \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 144  \u003C\u002Ftd>\n  \t  \u003Ctd> AS  \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox  \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.11037.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002Fnuplan\" target=\"_blank\" \n      title=\"Homepage\">nuPlan \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 120  \u003C\u002Ftd>\n  \t  \u003Ctd> AS & NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox    \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.11810.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Fav2.html\" target=\"_blank\" \n      title=\"Homepage\">Argoverse V2\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 4  \u003C\u002Ftd>\n  \t  \u003Ctd>   NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox  \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.00493.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM\" target=\"_blank\" \n      title=\"Homepage\">DriveLM \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> AS & NA \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>Language \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n\u003Ctr align=\"middle\">\n\u003C\u002Ftable>\n\n\u003C\u002Ftable>\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Mapping Datasets\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=3 colspan=1>Dataset\u003C\u002Ftd>\n    \u003Cth rowspan=3 >Year\u003C\u002Ftd>\n    \u003Cth  align=\"middle\" colspan=2 >Diversity\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=2 >Sensor\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=4 >Annotation\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>Paper\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Cth> Scenes\u003C\u002Fth>\n    \t\u003Cth> Frames \u003C\u002Fth>\n  \t  \u003Cth> Camera\u003C\u002Fth>\n    \t\u003Cth> Lidar \u003C\u002Fth>\n    \t\u003Cth> Type \u003C\u002Fth>\n    \t\u003Cth> Space \u003C\u002Fth>\n    \t\u003Cth> Inst. \u003C\u002Fth>\n    \t\u003Cth> Track \u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"Homepage\">Caltech Lanes\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2008\u003C\u002Ftd>\n      \u003Ctd>4\u003C\u002Ftd>\n    \t\u003Ctd> 1224\u002F1224 \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSeokjuLee\u002FVPGNet\" target=\"_blank\" title=\"Homepage\">VPG\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2017\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 20K\u002F20K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_iccv_2017\u002Fhtml\u002FLee_VPGNet_Vanishing_Point_ICCV_2017_paper.html\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTuSimple\u002Ftusimple-benchmark\" target=\"_blank\" title=\"Homepage\">TUsimple\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2017\u003C\u002Ftd>\n      \u003Ctd>6.4K\u003C\u002Ftd>\n    \t\u003Ctd> 6.4K\u002F128K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTuSimple\u002Ftusimple-benchmark\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fxingangpan.github.io\u002Fprojects\u002FCULane.html\" target=\"_blank\" title=\"Homepage\">CULane\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2018\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 133K\u002F133K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.06080.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" title=\"Homepage\">ApolloScape\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2018 \u003C\u002Ftd>\n      \u003Ctd>235\u003C\u002Ftd>\n    \t\u003Ctd>115K\u002F115K\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✓\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06184.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Funsupervised-llamas.com\u002Fllamas\u002F\" target=\"_blank\" title=\"Homepage\">LLAMAS\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2019\u003C\u002Ftd>\n      \u003Ctd>14\u003C\u002Ftd>\n    \t\u003Ctd> 79K\u002F100K  \u003C\u002Ftd>\n    \t\u003Ctd> Front-view Image \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> Laneline \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9022318\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyuliangguo\u002FPytorch_Generalized_3D_Lane_Detection\" target=\"_blank\" title=\"Homepage\">3D Synthetic\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2020\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 10K\u002F10K  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.10656.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSoulmateB\u002FCurveLanes\" target=\"_blank\" title=\"Homepage\">CurveLanes\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2020\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 150K\u002F150K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.12147.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyujun0-0\u002Fmma-net\" target=\"_blank\" title=\"Homepage\">VIL-100\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2021 \u003C\u002Ftd>\n      \u003Ctd>100 \u003C\u002Ftd>\n    \t\u003Ctd> 10K\u002F10K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08482.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\" target=\"_blank\" title=\"Homepage\">OpenLane-V1\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2022\u003C\u002Ftd>\n      \u003Ctd>1K \u003C\u002Ftd>\n    \t\u003Ctd> 200K\u002F200K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  3D  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fonce-3dlanes.github.io\u002F\" target=\"_blank\" title=\"Homepage\">ONCE-3DLane\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2022 \u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 211K\u002F211K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  3D \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fpapers\u002FYan_ONCE-3DLanes_Building_Monocular_3D_Lane_Detection_CVPR_2022_paper.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\" target=\"_blank\" title=\"Homepage\">OpenLane-V2\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2023 \u003C\u002Ftd>\n      \u003Ctd>2K \u003C\u002Ftd>\n    \t\u003Ctd>72K\u002F72K \u003C\u002Ftd>\n    \t\u003Ctd> Multi-view Image  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> Lane Centerline, Lane Segment \u003C\u002Ftd>\n      \u003Ctd>  3D  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10440.pdf\" target=\"_blank\" title=\"Homepage\">Link\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n\u003C\u002Ftr>\n\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>Prediction and Planning Datasets\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=1 colspan=1>Subtask\u003C\u002Fth>\n    \u003Cth rowspan=1 > Input\u003C\u002Fth>\n    \u003Cth  colspan=1 >Output\u003C\u002Fth>\n    \u003Cth  colspan=1 >Evaluation\u003C\u002Fth>\n    \u003Cth  colspan=1 >Dataset\u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=9 > Motion Prediction\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9> Surrounding Traffic States \u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=9 > Spatiotemporal Trajectories of Single\u002FMultiple Vehicle(s) \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9 > Displacement Error \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\" target=\"_blank\" \n      title=\"Homepage\">Argoverse\u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002F\" target=\"_blank\" \n      title=\"Homepage\">nuScenes\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \t\u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwaymo-research\u002Fwaymo-open-dataset\" target=\"_blank\" \n      title=\"Homepage\">Waymo\u003C\u002Fa>\u003C\u002Ftd>   \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Finteraction-dataset\u002Finteraction-dataset\" target=\"_blank\" \n      title=\"Homepage\">Interaction\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Ftum-cps.pages.gitlab.lrz.de\u002Fmona-dataset\u002F\" target=\"_blank\" \n      title=\"Homepage\">MONA\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=7 > Trajectory Planning\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=7> Motion States for Ego Vehicles, Scenario Cognition and Prediction \u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=7 > Trajectories for Ego Vehicles \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=7 > Displacement Error, Safety, Compliance, Comfort \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002Fnuplan\" target=\"_blank\" \n      title=\"Homepage\">nuPlan \u003C\u002Fa>\u003C\u002Ftd>  \t \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fcarlachallenge.org\u002F\" target=\"_blank\" \n      title=\"Homepage\"> CARLA \u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>   \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmetadriverse\u002Fmetadrive\" target=\"_blank\" title=\"Homepage\">MetaDrive\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" title=\"Homepage\">Apollo\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=9 > Path Planning\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9> Maps for Road Network\u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=9 > Routes Connecting to Nodes and Links \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9 > Efficiency, Energy Conservation \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fstamp\u002Fstamp.jsp?tp=&arnumber=4653466\" target=\"_blank\" \n      title=\"Homepage\">OpenStreetMap \u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbstabler\u002FTransportationNetworks\" target=\"_blank\" \n      title=\"Homepage\">Transportation Networks \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>  \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fasu-trans-ai-lab\u002FDTALite\" target=\"_blank\" \n      title=\"Homepage\"> DTAlite \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdot.ca.gov\u002Fprograms\u002Ftraffic-operations\u002Fmpr\u002Fpems-source\" target=\"_blank\" \n      title=\"Homepage\">PeMS  \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftoddwschneider\u002Fnyc-taxi-data\" target=\"_blank\" \n      title=\"Homepage\">New York City Taxi Data  \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\u003C\u002Fdetails>\n\u003C\u002Fdetails>\n\n\n\n## OpenScene\n\u003Cdetails>\n\nThe Largest up-to-date **3D Occupancy Forecasting** dataset for visual pre-training.\n\n**Quick facts:**\n- Task: given the large amount of data, predict the 3D occupancy in the environment. \n- Origin dataset: `nuPlan`\n- Repo: https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene\n- Related work: [OccNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOccNet)\n- Related challenge: [3D Occupancy Prediction Challenge 2023](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html#Track3), [Occupancy and Flow AGC Challenge 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#occupancy_and_flow), [Predictive World Model AGC Challenge 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#predictive_world_model)\n\u003C\u002Fdetails>\n\n## OpenLane-V2 Update\n\u003Cdetails>\n\nFlourishing [OpenLane-V2](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2) with **Standard Definition (SD) Map and Map Elements**.\n\n**Quick facts:**\n- Task: given multi-view images and SD-map (also known as ADAS map) as input, build the driving scene on the fly _without_ the aid of HD-map. \n- Repo: https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\n- Related work: [OpenLane-V2](https:\u002F\u002Fopenreview.net\u002Fforum?id=OMOOO3ls6g), [TopoNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FTopoNet), [LaneSegNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet)\n- Related challenge: [Lane Topology Challenge 2023](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html#openlane_topology), [Mapless Driving AGC Challenge 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n\u003C\u002Fdetails>\n\n\n","> [!IMPORTANT]\n> 🌟 请在 [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news) 上获取最新资讯！\n\n\n## 目录\n- [新闻](#news)\n- ⭐ [GenAD：OpenDV 数据集](#opendv)（CVPR 2024 精选）\n- [Vista](#vista)（NeurIPS 2024）\n- [DriveLM](#drivelm)（ECCV 2024 口头报告）\n- [DriveData 调查](#drivedata-survey)（SCIENTIA SINICA Informationis 2024）\n  \u003C!-- - [摘要](#abstract)\n  - [相关工作汇编](#related-work-collection) -->\n- [OpenScene](#openscene)\n- [OpenLane-V2 更新](#openlane-v2-update)\n\n\n\n## 新闻\n\u003Cdetails>\n\n**\u003Cfont color=\"red\">[ 新❗️]\u003C\u002Ffont> `2024\u002F09\u002F08`** 我们发布了 `OpenDV-YouTube` 的迷你版本，包含 **25 小时**的驾驶视频。欢迎按照 [OpenDV-mini](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fblob\u002Fmain\u002Fopendv\u002FREADME.md) 中的说明尝试这个迷你子集！\n\n**`2024\u002F05\u002F28`** 我们发布了最新的研究成果，[Vista](#vista)，一种可泛化的驾驶世界模型。它能够预测高保真度、长时程的未来场景，执行多模态动作，并可用作泛化奖励函数来评估驾驶行为。\n\n\n**`2024\u002F03\u002F24`** `OpenDV-YouTube 更新：` **OpenDV-YouTube 的全套工具包**现已发布，包括数据下载与处理脚本以及语言标注。详情请参阅 [OpenDV-YouTube](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv)。\n\n**`2024\u002F03\u002F15`** 我们为 [GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) 项目发布了大规模驾驶视频数据集 `OpenDV-YouTube` 的完整视频列表。数据下载与处理脚本以及语言标注将于下周发布，请持续关注。\n\n**`2024\u002F01\u002F24`**\n我们很高兴地宣布对 [我们的调查](#drivedata-survey) 进行了一些更新，并感谢来自社区的 John Lambert 和 Klemens Esterle 对文稿提出的宝贵建议。\n\u003C\u002Fdetails>\n\n\n\n## GenAD：OpenDV 数据集 \u003Ca name=\"opendv\">\u003C\u002Fa>\n![opendv](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_DriveAGI_readme_63257688eaea.png)\n> OpenDV 数据集中 **真实世界**驾驶场景示例，包括城市、高速公路、乡村等场景。\n\n### [⭐ **用于自动驾驶的广义预测模型**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630)（**CVPR 2024，精选**）\n\n### [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=a4H6Jj-7IC0) | [海报](assets\u002Fcvpr24_genad_poster.png) | [演示文稿](https:\u002F\u002Fopendrivelab.github.io\u002Fcontent\u002FGenAD_slides_with_vista.pdf)\n\n🎦 至今为止 **最大的驾驶视频数据集**，包含超过 **1700 小时**的真实世界驾驶视频，其规模是广泛使用的 nuScenes 数据集的 300 倍。\n\n\n- **完整视频列表**（基于 YouTube 许可）：[OpenDV 视频](https:\u002F\u002Fdocs.google.com\u002Fspreadsheets\u002Fd\u002F1bHWWP_VXeEe5UzIG-QgKFBdH7mNlSC4GFSJkEhFnt2I)。\n  - 下载的原始视频（大多为 1080P）大约占用 `3 TB` 的存储空间。然而，这些长达数小时的视频直接用于模型训练会非常消耗内存。\n  - 因此，我们将其预处理为连续图像，这样在训练过程中加载起来更加灵活高效。处理后的图像总共占用约 `24 TB` 的存储空间。\n  - 建议先在小规模子集上进行实验，比如整个数据集的 **1\u002F20**。官方也提供了一个迷你子集，详细信息请参阅 [**OpenDV-mini**](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv#about-opendv-youtube-and-opendv-mini)。待训练稳定后，再将方法应用于整个数据集，祝你好运 🤞。\n- \u003Cfont color=\"red\">**[ 新❗️]**\u003C\u002Ffont> **迷你子集**：[OpenDV-mini](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv)。\n  - `OpenDV-YouTube` 的迷你版本。原始视频大约占用 `44 GB` 的存储空间，而处理后的图像则需要约 `390 GB` 的存储空间。\n- **数据准备的分步指南**：[OpenDV-YouTube](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv\u002FREADME.md)。\n- **OpenDV-YouTube 的语言标注**：[OpenDV-YouTube-Language](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOpenDriveLab\u002FOpenDV-YouTube-Language)。\n\n\n**快速事实：**\n- 任务：针对驾驶场景的大规模视频预测。\n- 数据来源：`YouTube`，经过精心收集和筛选。\n- 多样性亮点：1700 小时的驾驶视频，覆盖 40 个国家的 244 多座城市。\n- 相关工作：[GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630) **被 CVPR 2024 接受，入选精选**。\n- `注`：由于我们在训练中随机抽取了 OpenDV-2K 中其他公开数据集的一部分，因此不会发布这些数据集的标注。这些子集并不完整，且难以追溯其原始来源（即文件名）。不过，您可以根据我们的论文 ((https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630)) 自行重现收集和标注过程。\n\n```bibtex\n@inproceedings{yang2024genad,\n  title={Generalized Predictive Model for Autonomous Driving},\n  author={Jiazhi Yang and Shenyuan Gao and Yihang Qiu and Li Chen and Tianyu Li and Bo Dai and Kashyap Chitta and Penghao Wu and Jia Zeng and Ping Luo and Jun Zhang and Andreas Geiger and Yu Qiao and Hongyang Li},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition},\n  year={2024}\n}\n```\n\n## Vista\n\u003Cdiv id=\"top\" align=\"center\">\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_DriveAGI_readme_784489d921b3.gif\" width=\"1000px\" >\n\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n> [Vista](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398) 在各种驾驶场景中模拟的未来画面。建议在 [演示页面](https:\u002F\u002Fvista-demo.github.io\u002F) 上查看。\n\u003Cdetails>\n\n### [🌏 **具有高保真度和多功能可控性的通用驾驶世界模型**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398) (NeurIPS 2024)\n\n**快速事实：**\n- 推出全球首个**通用驾驶世界模型**。\n- 任务：对野外驾驶场景进行高保真、动作条件化且长 horizon 的未来预测。\n- 数据集：[`OpenDV-YouTube`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Ftree\u002Fmain\u002Fopendv)、`nuScenes`\n- 代码与模型：https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FVista\n- 视频演示：https:\u002F\u002Fvista-demo.github.io\n- 相关工作：[Vista](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398)、[GenAD](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.09630)\n\n```bibtex\n@inproceedings{gao2024vista,\n title={Vista: A Generalizable Driving World Model with High Fidelity and Versatile Controllability}, \n author={Shenyuan Gao and Jiazhi Yang and Li Chen and Kashyap Chitta and Yihang Qiu and Andreas Geiger and Jun Zhang and Hongyang Li},\n booktitle={Advances in Neural Information Processing Systems (NeurIPS)},\n year={2024}\n}\n\n@inproceedings{yang2024genad,\n  title={{Generalized Predictive Model for Autonomous Driving}},\n  author={Jiazhi Yang and Shenyuan Gao and Yihang Qiu and Li Chen and Tianyu Li and Bo Dai and Kashyap Chitta and Penghao Wu and Jia Zeng and Ping Luo and Jun Zhang and Andreas Geiger and Yu Qiao and Hongyang Li},\n  booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n  year={2024}\n}\n```\n\n\u003C\u002Fdetails>\n\n## DriveLM\n\u003Cdetails>\n推出首个关于**驾驶语言提示**的基准测试。\n\n**快速事实：**\n- 任务：以语言提示作为输入，预测场景中的轨迹\n- 原始数据集：`nuScenes`、`CARLA（即将发布）`\n- 仓库：https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM、https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FELM\n- 相关工作：[DriveLM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14150)、[ELM](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04593)\n- 相关挑战：[2024年语言驱动自动驾驶挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#driving_with_language)\n\u003C\u002Fdetails>\n\n## 驾驶数据综述\n\u003Cdetails>\n\n### 摘要\n随着自动驾驶技术的不断成熟与应用，系统性地审视开源自动驾驶数据集对于推动行业生态系统的稳健发展至关重要。在本综述中，我们对超过70篇论文进行了全面分析，探讨了自动驾驶数据集的时间线、影响力、挑战及未来趋势。\n\n> **自动驾驶开源数据生态系统：现状与未来**\n> - [英文版](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.03408)\n> - [中文版](https:\u002F\u002Fwww.sciengine.com\u002FSSI\u002Fdoi\u002F10.1360\u002FSSI-2023-0313) **`已被《中国科学：信息科学》接收`**\n\n ```bib\n@article{li2024_driving_dataset_survey,\n  title = {自动驾驶开源数据生态系统：现状与未来},\n  author = {Hongyang Li 和 Yang Li 和 Huijie Wang 和 Jia Zeng 和 Huilin Xu 和 Pinlong Cai 和 Li Chen 和 Junchi Yan 和 Feng Xu 和 Lu Xiong 和 Jingdong Wang 和 Futang Zhu 和 Chunjing Xu 和 Tiancai Wang 和 Fei Xia 和 Beipeng Mu 和 Zhihui Peng 和 Dahua Lin 和 Yu Qiao},\n  journal = {中国科学：信息科学},\n  year = {2024},\n  doi = {10.1360\u002FSSI-2023-0313}\n}\n```\n\n\u003C!-- > [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>1\u003C\u002Fsup>, Yang Li\u003Csup>1\u003C\u002Fsup>, [Huijie Wang](https:\u002F\u002Ffaikit.github.io\u002F)\u003Csup>1\u003C\u002Fsup>, [Jia Zeng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=kYrUfMoAAAAJ)\u003Csup>1\u003C\u002Fsup>, Pinlong Cai\u003Csup>1\u003C\u002Fsup>, Dahua Lin\u003Csup>1\u003C\u002Fsup>, Junchi Yan\u003Csup>2\u003C\u002Fsup>, Feng Xu\u003Csup>3\u003C\u002Fsup>, Lu Xiong\u003Csup>4\u003C\u002Fsup>, Jingdong Wang\u003Csup>5\u003C\u002Fsup>, Futang Zhu\u003Csup>6\u003C\u002Fsup>, Kai Yan\u003Csup>7\u003C\u002Fsup>, Chunjing Xu\u003Csup>8\u003C\u002Fsup>, Tiancai Wang\u003Csup>9\u003C\u002Fsup>, Beipeng Mu\u003Csup>10\u003C\u002Fsup>, Shaoqing Ren\u003Csup>11\u003C\u002Fsup>, Zhihui Peng\u003Csup>12\u003C\u002Fsup>, Yu Qiao\u003Csup>1\u003C\u002Fsup>\n> \n> \u003Csup>1\u003C\u002Fsup> 上海人工智能实验室，\u003Csup>2\u003C\u002Fsup> 上海交通大学，\u003Csup>3\u003C\u002Fsup> 复旦大学，\u003Csup>4\u003C\u002Fsup> 同济大学，\u003Csup>5\u003C\u002Fsup> 百度，\u003Csup>6\u003C\u002Fsup> 比亚迪，\u003Csup>7\u003C\u002Fsup> 长安汽车，\u003Csup>8\u003C\u002Fsup> 华为，\u003Csup>9\u003C\u002Fsup> 美团，\u003Csup>10\u003C\u002Fsup> 小米，\u003Csup>11\u003C\u002Fsup> 蔚来汽车，\u003Csup>12\u003C\u002Fsup> Agibot\n> -->\n\n![overview](assets\u002FDrivedata_overview.jpg \"Drivedata_overview\")\n当前的自动驾驶数据集自2010年代以来大致可分为两代。我们根据传感器配置、输入模态、任务类别、数据规模、生态系统等因素定义数据集的影响力（纵轴）。\n\n![overview](assets\u002FDrivedata_timeline.jpg \"Drivedata_timeline\")\n\n### 相关工作汇编\n\n我们提供了全面的论文合集、排行榜和挑战赛。（点击展开）\n\n\u003Cdetails>\n\u003Csummary>挑战赛与排行榜\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth >标题\u003C\u002Fth>\n    \u003Cth >主办方\u003C\u002Fth>\n    \u003Cth >年份\u003C\u002Fth>\n    \u003Cth >任务\u003C\u002Fth>\n    \u003Cth >参赛队伍\u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7 >\u003Ca href=\"https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html\" target=\"_blank\" title=\"Autonomous Driving Challenge\">自动驾驶挑战赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=7 > OpenDriveLab\u003C\u002Ftd>\n      \u003Ctd rowspan=7 >CVPR2023\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F OpenLane 拓扑\u003C\u002Ftd>\n    \t\u003Ctd rowspan=7> 111 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 在线高清地图构建\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 3D 占用预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n        \u003Ctd>预测与规划 \u002F nuPlan 规划\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=23 >\u003Ca href=\"https:\u002F\u002Fwaymo.com\u002Fopen\u002Fchallenges\u002F\" target=\"_blank\" title=\"Waymo Open Dataset\nChallenges\">Waymo Open Dataset Challenges\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=23 > Waymo\u003C\u002Ftd>\n      \u003Ctd rowspan=8>CVPR2023\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 2D视频全景分割\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 35 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 姿态估计\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 运动预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Ctd>预测 \u002F 模拟智能体\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd rowspan=8>CVPR2022\u003C\u002Ftd>\n       \u003Ctd>预测 \u002F 运动预测\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 128 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 占用与流预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 3D语义分割\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 3D纯相机检测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n \u003Ctd rowspan=7>CVPR2021\u003C\u002Ftd>\n       \u003Ctd>预测 \u002F 运动预测\u003C\u002Ftd>\n    \t\u003Ctd rowspan=7> 115 \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 交互预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 实时3D检测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 实时2D检测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=19 >\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Ftasks.html\" target=\"_blank\" title=\"Argoverse\nChallenges\">Argoverse Challenges\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=19 > Argoverse\u003C\u002Ftd>\n      \u003Ctd rowspan=8>CVPR2023\u003C\u002Ftd>\n       \u003Ctd>预测 \u002F 多智能体预测\u003C\u002Ftd>\n    \t\u003Ctd rowspan=8> 81 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知与预测 \u002F 统一的基于传感器的检测、跟踪和预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F LiDAR场景流\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 3D占用预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \u003Ctd rowspan=6>CVPR2022\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 3D目标检测\u003C\u002Ftd>\n    \t\u003Ctd rowspan=6> 81 \u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 运动预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 立体深度估计\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd rowspan=5>CVPR2021\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 立体深度估计\u003C\u002Ftd>\n    \t\u003Ctd rowspan=5> 368 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F 运动预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 流式2D检测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=5 >\u003Ca href=\"https:\u002F\u002Fcarlachallenge.org\u002F\" target=\"_blank\" title=\"CARLA自动驾驶挑战赛\">CARLA自动驾驶挑战赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=5 > CARLA团队, 英特尔\u003C\u002Ftd>\n      \u003Ctd rowspan=2 >2023\u003C\u002Ftd>\n      \u003Ctd>规划 \u002F CARLA AD挑战赛2.0\u003C\u002Ftd>\n    \t\u003Ctd rowspan=2> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd rowspan=2 >NeurIPS2022\u003C\u002Ftd>\n       \u003Ctd>规划 \u002F CARLA AD挑战赛1.0\u003C\u002Ftd>\n       \u003Ctd rowspan=2> 19 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd rowspan=1 >NeurIPS2021\u003C\u002Ftd>\n       \u003Ctd>规划 \u002F CARLA AD挑战赛1.0\u003C\u002Ftd>\n       \u003Ctd rowspan=1> - \u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7 >\u003Ca href=\"https:\u002F\u002Fiacc.pazhoulab-huangpu.com\u002F\" target=\"_blank\" title=\"粤港澳大湾区\n      （黄埔）国际算法算例大赛\">粤港澳大湾区\n（黄埔）国际算法算例大赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=7> 琶洲实验室\u003C\u002Ftd>\n      \u003Ctd rowspan=4>2023\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 跨场景单目深度估计\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 路侧毫米波雷达标定和目标跟踪\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=3>2022\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F 路侧三维感知算法\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F 街景图像店面招牌文字识别\u003C\u002Ftd>\n       \u003Ctd> - \u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=9 >\u003Ca href=\"https:\u002F\u002Fdriving-olympics.ai\u002F\" target=\"_blank\" title=\"AI Driving Olympics\">AI Driving Olympics\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=9 > ETH Zurich, University of Montreal,Motional\u003C\u002Ftd>\n      \u003Ctd> NeurIP2021 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>感知 \u002F nuScenes全景分割\u003C\u002Ftd>\n    \t\u003Ctd> 11 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=7>ICRA2021\u003C\u002Ftd>\n       \u003Ctd>感知 \u002F nuScenes检测\u003C\u002Ftd>\n       \u003Ctd rowspan=7> 456 \u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F nuScenes跟踪\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>预测 \u002F nuScenes预测\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>感知 \u002F nuScenes LiDAR分割\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=1 >\u003Ca href=\"https:\u002F\u002Fcg.cs.tsinghua.edu.cn\u002Fjittor\u002Fnews\u002F2021-1-22-13-14-comp\u002F\" target=\"_blank\" title=\"计图 (Jittor)人工智能算法挑战赛\">计图 (Jittor)人工智能算法挑战赛\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=1 > 国家自然科学基金委信息科学部\u003C\u002Ftd>\n      \u003Ctd> 2021 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>感知 \u002F 交通标志检测\u003C\u002Ftd>\n    \t\u003Ctd> 37 \u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd rowspan=1 >\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"KITTI视觉基准测试套件\">KITTI视觉基准测试套件\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd rowspan=1 > 图宾根大学 \u003C\u002Ftd>\n      \u003Ctd> 2012 \u003C\u002Ftd>\n      \u003Ctd rowspan=1>感知 \u002F 立体、光流、场景流、深度、\n里程计、目标、跟踪、道路、语义\u003C\u002Ftd>\n    \t\u003Ctd> 5,610 \u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003C\u002Ftable>\n\u003Cp align=\"right\">( \u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>感知数据集\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=3 colspan=1>数据集\u003C\u002Fth>\n    \u003Cth rowspan=3 >年份\u003C\u002Ftd>\n    \u003Cth  align=\"middle\" colspan=3 >多样性\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=3 >传感器\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>标注\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>论文\u003C\u002Fth>\n\u003C\u002Ftr> \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Cth> 场景\u003C\u002Fth>\n    \t\u003Cth> 小时\u003C\u002Fth>\n    \t\u003Cth> 区域\u003C\u002Fth>\n  \t  \u003Cth> 相机\u003C\u002Fth>\n    \t\u003Cth> Lidar \u003C\u002Fth>\n    \t\u003Cth> 其他 \u003C\u002Fth>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"主页\">KITTI\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2012\u003C\u002Ftd>\n    \t\u003Ctd> 50 \u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 字体视图 \u003C\u002Ftd>\n      \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>2D BBox & 3D BBox\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fpublications\u002FGeiger2012CVPR.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr.\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cityscapes-dataset.com\u002F\" target=\"_blank\" title=\"主页\">Cityscapes\u003C\u002Fa>\u003C\u002Ftd>  \t  \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D 分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1604.01685\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fww1.6d-vision.com\u002Flostandfounddataset\" target=\"_blank\" \n      title=\"主页\">Lost and Found\u003C\u002Fa>\u003C\u002Ftd>  \t  \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> 112 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D 分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1609.04653\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Feval-vistas.mapillary.com\u002F\" target=\"_blank\" \n      title=\"主页\">Mapillary\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> 全球\u003C\u002Ftd>\n    \t\u003Ctd> 街景视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D 分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2017\u002Fpapers\u002FNeuhold_The_Mapillary_Vistas_ICCV_2017_paper.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fsensors.ini.uzh.ch\u002Fnews_page\u002FDDD17.html\" target=\"_blank\" \n      title=\"主页\">DDD17\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2017\u003C\u002Ftd>\n    \t\u003Ctd> 36\u003C\u002Ftd>\n    \t\u003Ctd> 12 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> GPS、CAN总线和事件相机\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.01458.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" \n      title=\"主页\">Apolloscape\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2016\u003C\u002Ftd>\n    \t\u003Ctd> 103\u003C\u002Ftd>\n    \t\u003Ctd> 2.5 \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> GPS和IMU\u003C\u002Ftd>\n      \u003Ctd> 3D边界框和2D分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.06184.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FJinkyuKimUCB\u002FBDD-X-dataset\" target=\"_blank\" \n      title=\"主页\">BDD-X\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> 6984\u003C\u002Ftd>\n    \t\u003Ctd> 77 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗ \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>语言\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1807.11546.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002Fhdd\" target=\"_blank\" \n      title=\"主页\">HDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 104 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS、IMU和CAN总线\u003C\u002Ftd>\n      \u003Ctd>2D边界框\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.02307v1.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fidd.insaan.iiit.ac.in\u002Fdataset\u002Fdetails\u002F\" target=\"_blank\" \n      title=\"主页\">IDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2018\u003C\u002Ftd>\n    \t\u003Ctd> 182\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1811.10200v1.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fsemantic-kitti.org\u002F\" target=\"_blank\" \n      title=\"主页\">SemanticKITTI\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019\u003C\u002Ftd>\n    \t\u003Ctd> 50\u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> EU \u003C\u002Ftd>\n    \t\u003Ctd> ✗ \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>3D分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1904.01416.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvaleoai\u002FWoodScape\" target=\"_blank\" \n      title=\"主页\">Woodscape\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> 全球\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS、IMU和CAN总线\u003C\u002Ftd>\n      \u003Ctd>3D边界框和2D分割\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.01489.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdrivingstereo-dataset.github.io\u002F\" target=\"_blank\" \n      title=\"主页\">DrivingStereo\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 42\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS \u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8954165\u002F\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRobotics-BUT\u002FBrno-Urban-Dataset\" target=\"_blank\" \n      title=\"主页\">Brno-Urban\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 67\u003C\u002Ftd>\n    \t\u003Ctd> 10 \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS、IMU和红外相机\u003C\u002Ftd>\n      \u003Ctd> -\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.06897.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FI2RDL2\u002FASTAR-3D\" target=\"_blank\" \n      title=\"主页\">A*3D\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 55 \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd> 3D边界框\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.07541v1.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftalk2car\u002FTalk2Car\" target=\"_blank\" \n      title=\"主页\">Talk2Car\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 850\u003C\u002Ftd>\n    \t\u003Ctd> 283.3 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>语言和3D边界框\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.10838.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdata.vision.ee.ethz.ch\u002Farunv\u002Fpersonal\u002Ftalk2nav.html\" target=\"_blank\" \n      title=\"主页\">Talk2Nav\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 10714\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> 模拟环境\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>语言\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.02029.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Faras62\u002FPIEPredict\" target=\"_blank\" \n      title=\"主页\">PIE\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D边界框\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCV_2019\u002Fpapers\u002FRasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweisongwen\u002FUrbanLoco\" target=\"_blank\" \n      title=\"主页\">UrbanLoco\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 13\u003C\u002Ftd>\n    \t\u003Ctd> -\u003C\u002Ftd>\n  \t  \u003Ctd>AS & NA\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> IMU \u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.09513.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002Ftitan\" target=\"_blank\" \n      title=\"主页\">TITAN\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 700\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2003.13886.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fusa.honda-ri.com\u002FH3D\" target=\"_blank\" \n      title=\"主页\">H3D \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 160 \u003C\u002Ftd>\n    \t\u003Ctd> 0.77 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1903.01568.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.a2d2.audi\u002Fa2d2\u002Fen\u002Fdownload.html\" target=\"_blank\" \n      title=\"主页\">A2D2\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 5.6  \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd> 360°  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.06320.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fvaleoai\u002Fcarrada_dataset\" target=\"_blank\" \n      title=\"主页\">CARRADA\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 30  \u003C\u002Ftd>\n    \t\u003Ctd> 0.3 \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 前视图  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> Radar\u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.01456.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdata.mendeley.com\u002Fdatasets\u002F766ygrbt8y\u002F3\" target=\"_blank\" \n      title=\"主页\">DAWN\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019  \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> 全球\u003C\u002Ftd>\n    \t\u003Ctd> 前视图  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.05402.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fpmwenzel\u002F4seasons-dataset\" target=\"_blank\" \n      title=\"主页\">4Seasons\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019\u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 前视图  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU\u003C\u002Ftd>\n      \u003Ctd>- \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06364.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsauradip\u002Fnight_image_semantic_segmentation#Urban%20Night%20Driving%20Dataset\" target=\"_blank\" \n      title=\"主页\">UNDD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> -\u003C\u002Ftd>\n    \t\u003Ctd> 前视图  \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8803299\n\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"http:\u002F\u002Fwww.poss.pku.edu.cn\u002F\" target=\"_blank\" \n      title=\"主页\">SemanticPOSS\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> ✗  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2002.09147.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FWeikaiTan\u002FToronto-3D\" target=\"_blank\" \n      title=\"主页\">Toronto-3D\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 4 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> ✗ \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_CVPRW_2020\u002Fpapers\u002Fw11\u002FTan_Toronto-3D_A_Large-Scale_Mobile_LiDAR_Dataset_for_Semantic_Segmentation_of_CVPRW_2020_paper.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fgurkirt\u002Froad-dataset\" target=\"_blank\" \n      title=\"主页\">ROAD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 22 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> EU\u003C\u002Ftd>\n    \t\u003Ctd>前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D BBox & Topology \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.11585.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbassam-motional\u002FReasonable-Crowd\" target=\"_blank\" \n      title=\"主页\">Reasonable Crowd\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> 模拟\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>语言 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.13507.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgamma.umd.edu\u002Fresearchdirections\u002Fautonomousdriving\u002Fmeteor\u002F\" target=\"_blank\" \n      title=\"主页\">METEOR\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 1250 \u003C\u002Ftd>\n    \t\u003Ctd> 20.9  \u003C\u002Ftd>\n  \t  \u003Ctd> AS\u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd> GPS  \u003C\u002Ftd>\n      \u003Ctd>语言 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.07648.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscaleapi\u002Fpandaset-devkit\" target=\"_blank\" \n      title=\"主页\">PandaSet\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> 179 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> NA\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU \u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.12610.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FENSTA-U2IS\u002FMUAD-Dataset\" target=\"_blank\" \n      title=\"主页\">MUAD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> 模拟 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg& 2D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.01437.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fmucar3.de\u002Firos2022-ppniv-tas-nir\u002F\" target=\"_blank\" \n      title=\"主页\">TAS-NIR\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 前视图 \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd>红外相机 \u003C\u002Ftd>\n      \u003Ctd>2D Seg\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.09368.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FLiDAR-Perception\u002FLiDAR-CS\" target=\"_blank\" \n      title=\"主页\">LiDAR-CS\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> 6 \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> 模拟 \u003C\u002Ftd>\n    \t\u003Ctd> ✗  \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12515.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwilddash.cc\u002F\" target=\"_blank\" \n      title=\"主页\">WildDash \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> -  \u003C\u002Ftd>\n  \t  \u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 前视 \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ECCV_2018\u002Fpapers\u002FOliver_Zendel_WildDash_-_Creating_ECCV_2018_paper.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene\" target=\"_blank\" \n      title=\"主页\">OpenScene\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> 美国和北美\u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗   \u003C\u002Ftd>\n    \t\u003Ctd> \u003C\u002Ftd>\n      \u003Ctd>3D Occ \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15654.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fzod.zenseact.com\u002F\" target=\"_blank\" \n      title=\"主页\">ZOD\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1473 \u003C\u002Ftd>\n    \t\u003Ctd> 8.2  \u003C\u002Ftd>\n  \t  \u003Ctd> 欧盟   \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓   \u003C\u002Ftd>\n    \t\u003Ctd> GPS & IMU & CAN-bus \u003C\u002Ftd>\n      \u003Ctd>3D BBox & 2D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.02008\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002F\" target=\"_blank\" \n      title=\"主页\">nuScenes\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> 美国和北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> GPS & CAN-bus & Radar & HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.11027.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Fav1.html\" target=\"_blank\" \n      title=\"主页\">Argoverse V1\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 324k  \u003C\u002Ftd>\n    \t\u003Ctd>320   \u003C\u002Ftd>\n  \t  \u003Ctd> 北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd> HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.02620.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwaymo-research\u002Fwaymo-open-dataset\" target=\"_blank\" \n      title=\"主页\">Waymo\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2019 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd>6.4  \u003C\u002Ftd>\n  \t  \u003Ctd> 北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>2D BBox & 3D BBox \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1912.04838.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fkitti360Scripts\" target=\"_blank\" \n      title=\"主页\">KITTI-360\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2020 \u003C\u002Ftd>\n    \t\u003Ctd> 366  \u003C\u002Ftd>\n    \t\u003Ctd> 2.5  \u003C\u002Ftd>\n  \t  \u003Ctd> 欧盟 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox & 3D Seg \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.13410.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fonce-for-auto-driving.github.io\u002Findex.html\" target=\"_blank\" \n      title=\"主页\">ONCE\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021  \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 144  \u003C\u002Ftd>\n  \t  \u003Ctd> 美国  \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox  \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.11037.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002Fnuplan\" target=\"_blank\" \n      title=\"主页\">nuPlan \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2021 \u003C\u002Ftd>\n    \t\u003Ctd> - \u003C\u002Ftd>\n    \t\u003Ctd> 120  \u003C\u002Ftd>\n  \t  \u003Ctd> 美国和北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>3D BBox    \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.11810.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\u002Fav2.html\" target=\"_blank\" \n      title=\"主页\">Argoverse V2\u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2022 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 4  \u003C\u002Ftd>\n  \t  \u003Ctd> 北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✓  \u003C\u002Ftd>\n    \t\u003Ctd>  HDMap\u003C\u002Ftd>\n      \u003Ctd>3D BBox  \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.00493.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM\" target=\"_blank\" \n      title=\"主页\">DriveLM \u003C\u002Fa>\u003C\u002Ftd>  \t  \n      \u003Ctd> 2023 \u003C\u002Ftd>\n    \t\u003Ctd> 1000 \u003C\u002Ftd>\n    \t\u003Ctd> 5.5  \u003C\u002Ftd>\n  \t  \u003Ctd> 美国和北美 \u003C\u002Ftd>\n    \t\u003Ctd> 360° \u003C\u002Ftd>\n      \u003Ctd> ✗  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>语言 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n\u003Ctr align=\"middle\">\n\u003C\u002Ftable>\n\n\u003C\u002Ftable>\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>地图数据集\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=3 colspan=1>数据集\u003C\u002Ftd>\n    \u003Cth rowspan=3 >年份\u003C\u002Ftd>\n    \u003Cth  align=\"middle\" colspan=2 >多样性\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=2 >传感器\u003C\u002Fth>\n    \u003Cth  align=\"middle\" colspan=4 >标注\u003C\u002Fth>\n    \u003Cth rowspan=3 colspan=1>论文\u003C\u002Fth>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Cth> 场景\u003C\u002Fth>\n    \t\u003Cth> 帧数 \u003C\u002Fth>\n  \t  \u003Cth> 相机\u003C\u002Fth>\n    \t\u003Cth> Lidar \u003C\u002Fth>\n    \t\u003Cth> 类型 \u003C\u002Fth>\n    \t\u003Cth> 空间 \u003C\u002Fth>\n    \t\u003Cth> 实例 \u003C\u002Fth>\n    \t\u003Cth> 轨迹 \u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"主页\">Caltech Lanes\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2008\u003C\u002Ftd>\n      \u003Ctd>4\u003C\u002Ftd>\n    \t\u003Ctd> 1224\u002F1224 \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd> 个人车辆  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.cvlibs.net\u002Fdatasets\u002Fkitti\u002F\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSeokjuLee\u002FVPGNet\" target=\"_blank\" title=\"主页\">VPG\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2017\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 20K\u002F20K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd> 个人车辆  \u003C\u002Ftd>\n    \t\u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_iccv_2017\u002Fhtml\u002FLee_VPGNet_Vanishing_Point_ICCV_2017_paper.html\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTuSimple\u002Ftusimple-benchmark\" target=\"_blank\" title=\"主页\">TUsimple\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2017\u003C\u002Ftd>\n      \u003Ctd>6.4K\u003C\u002Ftd>\n    \t\u003Ctd> 6.4K\u002F128K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FTuSimple\u002Ftusimple-benchmark\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fxingangpan.github.io\u002Fprojects\u002FCULane.html\" target=\"_blank\" title=\"主页\">CULane\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2018\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 133K\u002F133K \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.06080.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" title=\"主页\">ApolloScape\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2018 \u003C\u002Ftd>\n      \u003Ctd>235\u003C\u002Ftd>\n    \t\u003Ctd>115K\u002F115K\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✓\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.06184.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Funsupervised-llamas.com\u002Fllamas\u002F\" target=\"_blank\" title=\"主页\">LLAMAS\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2019\u003C\u002Ftd>\n      \u003Ctd>14\u003C\u002Ftd>\n    \t\u003Ctd> 79K\u002F100K  \u003C\u002Ftd>\n    \t\u003Ctd> 前视图像 \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> 车道线 \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F9022318\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyuliangguo\u002FPytorch_Generalized_3D_Lane_Detection\" target=\"_blank\" title=\"主页\">3D Synthetic\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2020\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 10K\u002F10K  \u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.10656.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSoulmateB\u002FCurveLanes\" target=\"_blank\" title=\"主页\">CurveLanes\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2020\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 150K\u002F150K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.12147.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyujun0-0\u002Fmma-net\" target=\"_blank\" title=\"主页\">VIL-100\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2021 \u003C\u002Ftd>\n      \u003Ctd>100 \u003C\u002Ftd>\n    \t\u003Ctd> 10K\u002F10K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  PV  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✗\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.08482.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\" target=\"_blank\" title=\"主页\">OpenLane-V1\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2022\u003C\u002Ftd>\n      \u003Ctd>1K \u003C\u002Ftd>\n    \t\u003Ctd> 200K\u002F200K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n      \u003Ctd>  3D  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fonce-3dlanes.github.io\u002F\" target=\"_blank\" title=\"主页\">ONCE-3DLane\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2022 \u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n    \t\u003Ctd> 211K\u002F211K  \u003C\u002Ftd>\n    \t\u003Ctd>  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd>   \u003C\u002Ftd>\n      \u003Ctd>  3D \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>-\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent\u002FCVPR2022\u002Fpapers\u002FYan_ONCE-3DLanes_Building_Monocular_3D_Lane_Detection_CVPR_2022_paper.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\" target=\"_blank\" title=\"主页\">OpenLane-V2\u003C\u002Fa>\u003C\u002Ftd>\n  \t  \u003Ctd> 2023 \u003C\u002Ftd>\n      \u003Ctd>2K \u003C\u002Ftd>\n    \t\u003Ctd>72K\u002F72K \u003C\u002Ftd>\n    \t\u003Ctd> 多视角图像  \u003C\u002Ftd>\n  \t  \u003Ctd> ✗\u003C\u002Ftd>\n    \t\u003Ctd> 车道中心线、车道段 \u003C\u002Ftd>\n      \u003Ctd>  3D  \u003C\u002Ftd>\n    \t\u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>✓\u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10440.pdf\" target=\"_blank\" title=\"主页\">链接\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n\u003C\u002Ftr>\n\n\n\u003C\u002Ftable>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\n\u003Csummary>预测与规划数据集\u003C\u002Fsummary>\n\n\u003Ctable>\n\u003Ccapital>\u003C\u002Fcapital>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \u003Cth rowspan=1 colspan=1>子任务\u003C\u002Fth>\n    \u003Cth rowspan=1 > 输入\u003C\u002Fth>\n    \u003Cth  colspan=1 >输出\u003C\u002Fth>\n    \u003Cth  colspan=1 >评估\u003C\u002Fth>\n    \u003Cth  colspan=1 >数据集\u003C\u002Fth>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=9 > 运动预测\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9> 周围交通状态 \u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=9 > 单辆或多辆车辆的时空轨迹 \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9 > 位移误差 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.argoverse.org\" target=\"_blank\" \n      title=\"主页\">Argoverse\u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002F\" target=\"_blank\" \n      title=\"主页\">nuScenes\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n    \t\u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fwaymo-research\u002Fwaymo-open-dataset\" target=\"_blank\" \n      title=\"主页\">Waymo\u003C\u002Fa>\u003C\u002Ftd>   \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Finteraction-dataset\u002Finteraction-dataset\" target=\"_blank\" \n      title=\"主页\">Interaction\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Ftum-cps.pages.gitlab.lrz.de\u002Fmona-dataset\u002F\" target=\"_blank\" \n      title=\"主页\">MONA\u003C\u002Fa>\u003C\u002Ftd>  \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=7 > 轨迹规划\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=7> 自车运动状态、场景认知与预测 \u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=7 > 自车轨迹 \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=7 > 位移误差、安全性、合规性、舒适性 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fwww.nuscenes.org\u002Fnuplan\" target=\"_blank\" \n      title=\"主页\">nuPlan \u003C\u002Fa>\u003C\u002Ftd>  \t \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fcarlachallenge.org\u002F\" target=\"_blank\" \n      title=\"主页\"> CARLA \u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>   \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmetadriverse\u002Fmetadrive\" target=\"_blank\" title=\"主页\">MetaDrive\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FApolloScapeAuto\u002Fdataset-api\" target=\"_blank\" title=\"主页\">Apollo\u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003Ctr align=\"middle\">\n  \t  \u003Ctd rowspan=9 > 路径规划\u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9> 道路网络地图\u003C\u002Ftd>\n  \t  \u003Ctd  rowspan=9 > 连接节点与路段的路径 \u003C\u002Ftd>\n    \t\u003Ctd  rowspan=9 > 效率、节能 \u003C\u002Ftd>\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fieeexplore.ieee.org\u002Fstamp\u002Fstamp.jsp?tp=&arnumber=4653466\" target=\"_blank\" \n      title=\"主页\">OpenStreetMap \u003C\u002Fa>\u003C\u002Ftd> \n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbstabler\u002FTransportationNetworks\" target=\"_blank\" \n      title=\"主页\">交通运输网络 \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>  \n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fasu-trans-ai-lab\u002FDTALite\" target=\"_blank\" \n      title=\"主页\"> DTAlite \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\">\n       \u003Ctd>\u003Ca href=\"https:\u002F\u002Fdot.ca.gov\u002Fprograms\u002Ftraffic-operations\u002Fmpr\u002Fpems-source\" target=\"_blank\" \n      title=\"主页\">PeMS  \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \u003C\u002Ftr>\n\u003Ctr align=\"middle\"> \n      \u003Ctd>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Ftoddwschneider\u002Fnyc-taxi-data\" target=\"_blank\" \n      title=\"主页\">纽约市出租车数据  \u003C\u002Fa>\u003C\u002Ftd>\n\u003C\u002Ftr>\n\n\u003C\u002Ftable>\n\u003C\u002Fdetails>\n\u003C\u002Fdetails>\n\n\n\n\n\n## OpenScene\n\u003Cdetails>\n\n目前最大的、最新的用于视觉预训练的**3D占用预测**数据集。\n\n**快速信息：**\n- 任务：基于大量数据，预测环境中的3D占用情况。\n- 原始数据集：`nuPlan`\n- 仓库：https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene\n- 相关工作：[OccNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOccNet)\n- 相关挑战：[2023年3D占用预测挑战赛](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html#Track3)、[2024年占用与流量AGC挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#occupancy_and_flow)、[2024年预测性世界模型AGC挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#predictive_world_model)\n\u003C\u002Fdetails>\n\n## OpenLane-V2 更新\n\u003Cdetails>\n\n蓬勃发展的[OpenLane-V2](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2)，包含**标准分辨率（SD）地图及地图要素**。\n\n**快速信息：**\n- 任务：以多视角图像和SD地图（也称ADAS地图）作为输入，在没有高清地图辅助的情况下，实时构建驾驶场景。\n- 仓库：https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\n- 相关工作：[OpenLane-V2](https:\u002F\u002Fopenreview.net\u002Fforum?id=OMOOO3ls6g)、[TopoNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FTopoNet)、[LaneSegNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet)\n- 相关挑战：[2023年车道拓扑挑战赛](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html#openlane_topology)、[2024年无图驾驶AGC挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n\u003C\u002Fdetails>","# DriveAGI 快速上手指南\n\nDriveAGI 是由 OpenDriveLab 开源的自动驾驶通用智能项目集合，包含大规模驾驶视频数据集（OpenDV）、世界模型（Vista）、语言驱动基准（DriveLM）等前沿成果。本指南将帮助你快速搭建环境并体验核心功能。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（运行世界模型或处理视频数据建议显存 ≥ 24GB）\n*   **存储**: \n    *   基础代码运行：至少 50GB\n    *   OpenDV-mini 数据集：约 440GB (原始视频 + 处理后图像)\n    *   完整 OpenDV 数据集：需预留 27TB+ 空间（初次尝试强烈建议使用 mini 版）\n*   **前置依赖**:\n    *   Git\n    *   FFmpeg (用于视频处理)\n    *   CUDA Toolkit (版本需与 PyTorch 匹配)\n\n> 💡 **国内加速建议**：\n> *   代码克隆可使用 Gitee 镜像（如有）或配置 `git config --global http.proxy`。\n> *   Python 包安装推荐配置清华源或阿里源：\n>     ```bash\n>     pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n>     ```\n> *   HuggingFace 模型下载若受阻，可使用 `HF_ENDPOINT` 环境变量指向国内镜像：\n>     ```bash\n>     export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n>     ```\n\n## 安装步骤\n\n### 1. 克隆项目代码\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI.git\ncd DriveAGI\n```\n\n### 2. 创建虚拟环境并安装依赖\n\n推荐使用 Conda 管理环境。以下以 **Vista** (世界模型) 和 **GenAD** (数据预处理) 的通用依赖为例：\n\n```bash\n# 创建环境 (根据具体子项目需求调整 python 版本，通常 3.9+ 较稳妥)\nconda create -n driveagi python=3.9 -y\nconda activate driveagi\n\n# 安装 PyTorch (请务必根据你的 CUDA 版本前往 pytorch.org 获取对应命令，以下为示例)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n\n# 安装项目核心依赖\npip install -r requirements.txt\n```\n\n> **注意**：DriveAGI 是一个聚合仓库，不同子项目（如 `vista`, `opendv`, `drivelm`）可能有独立的 `requirements.txt`。请进入对应子目录检查并安装特定依赖。例如使用 Vista 模型：\n> ```bash\n> cd vista\n> pip install -r requirements.txt\n> ```\n\n### 3. 数据准备 (以 OpenDV-mini 为例)\n\n由于完整数据集过大，新手请先下载 **OpenDV-mini** 进行验证。\n\n1.  **获取视频列表与脚本**：\n    参考 `opendv\u002FREADME.md` 中的指引。\n2.  **下载数据**：\n    使用提供的脚本从 YouTube 下载迷你版视频（约 44GB）。\n    ```bash\n    cd opendv\n    # 执行下载脚本 (具体命令请参考该目录下的最新说明)\n    python download_opendv_mini.py \n    ```\n3.  **数据预处理**：\n    将视频转换为模型可用的图像帧序列（处理后约 390GB）。\n    ```bash\n    python preprocess_videos.py --input_dir .\u002Fraw_videos --output_dir .\u002Fprocessed_images --subset mini\n    ```\n\n## 基本使用\n\n以下展示两个最核心的使用场景：运行世界模型推理和使用数据集。\n\n### 场景一：运行 Vista 世界模型推理\n\nVista 能够根据当前帧和动作指令预测未来驾驶场景。\n\n1.  **下载预训练模型**：\n    从 HuggingFace 下载 Vista 权重（配置国内镜像加速）：\n    ```bash\n    export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n    huggingface-cli download OpenDriveLab\u002FVista --local-dir .\u002Fcheckpoints\u002Fvista\n    ```\n\n2.  **执行推理**：\n    使用提供的示例脚本进行未来帧预测。\n    ```bash\n    cd ..\u002Fvista\n    python demo\u002Finference.py \\\n        --config configs\u002Fvista_demo.yaml \\\n        --checkpoint ..\u002Fcheckpoints\u002Fvista\u002Fmodel.pth \\\n        --input_image assets\u002Fdemo_input.jpg \\\n        --action \"turn_left\" \\\n        --output_dir .\u002Fresults\n    ```\n    *运行成功后，`.\u002Fresults` 目录下将生成预测的未来驾驶视频序列。*\n\n### 场景二：加载 OpenDV 数据集进行训练准备\n\n如果你打算基于 GenAD 论文复现视频预测任务，可使用 PyTorch DataLoader 加载处理好的数据。\n\n```python\nimport torch\nfrom opendv.dataset import OpenDVDataSet\n\n# 初始化数据集 (指向预处理后的图像目录)\ndataset = OpenDVDataSet(\n    root_dir='.\u002Fopendv\u002Fprocessed_images',\n    split='mini_train',\n    seq_length=16,\n    transform=None\n)\n\n# 创建 DataLoader\ndataloader = torch.utils.data.DataLoader(\n    dataset, \n    batch_size=4, \n    shuffle=True, \n    num_workers=4\n)\n\n# 简单遍历验证\nfor batch in dataloader:\n    video_frames, actions = batch\n    print(f\"Batch shape: {video_frames.shape}\")\n    break\n```\n\n---\n*更多详细文档、完整数据集下载及特定任务（如 DriveLM 语言标注）请查阅各子模块目录下的 `README.md`。*","某自动驾驶初创公司的算法团队正致力于提升车辆在复杂城市路况下的长时预测能力，急需大规模真实驾驶数据来训练新一代端到端模型。\n\n### 没有 DriveAGI 时\n- **数据规模严重受限**：团队仅能依赖 nuScenes 等公开数据集，其数据量仅为实际需求的几百分之一，导致模型难以覆盖罕见的极端路况（Corner Cases）。\n- **场景多样性不足**：现有数据多集中于特定城市或高速路段，缺乏乡村、恶劣天气及复杂交互场景，模型泛化能力差，换个城市就“水土不服”。\n- **预处理成本高昂**：原始视频清洗、帧抽取和标注需耗费数周人力，且缺乏统一的语言描述注释，阻碍了多模态大模型的快速迭代。\n- **长时预测效果不佳**：由于缺乏长时序连续视频，模型无法学习长时间跨度的驾驶逻辑，难以准确预测未来几秒后的交通流变化。\n\n### 使用 DriveAGI 后\n- **海量数据触手可及**：直接接入 OpenDV 数据集，利用其超 1700 小时的真实驾驶视频（是 nuScenes 的 300 倍），瞬间填补了数据缺口。\n- **全域场景覆盖**：借助涵盖城市、高速、乡村等多维度的丰富场景，模型迅速学会了处理各类复杂交互，显著提升了跨地域的泛化性能。\n- **开箱即用的多模态数据**：利用 DriveAGI 提供的预处理图像脚本和语言注释，团队在几天内便完成了数据准备，大幅加速了 GenAD 等模型的训练进程。\n- **精准长时推演**：基于 Vista 世界模型的能力，系统现在能高保真地预测长时序未来画面，并作为奖励函数评估驾驶行为，让车辆决策更具前瞻性。\n\nDriveAGI 通过提供工业级规模的驾驶数据与前沿基础模型，将自动驾驶研发从“数据饥渴”时代带入了“数据富足”的新阶段。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_DriveAGI_63257688.png","OpenDriveLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenDriveLab_721a66c7.png","AI for Robotics and Autonomous Driving at The University of Hong Kong (HKU)",null,"contact@opendrivelab.com","https:\u002F\u002Fopendrivelab.com","https:\u002F\u002Fgithub.com\u002FOpenDriveLab",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,793,34,"2026-04-03T08:30:23","Apache-2.0",4,"未说明","未说明（但涉及大规模视频预测和世界模型训练，通常隐含需要高性能 NVIDIA GPU）","未说明（处理完整数据集需极大内存，原文建议先在小子集上实验）",{"notes":96,"python":92,"dependencies":97},"README 主要介绍数据集（OpenDV-YouTube, OpenDV-mini）和相关论文（GenAD, Vista, DriveLM），未直接提供具体的代码运行环境配置。数据存储需求巨大：完整原始视频约 3TB，处理后图像约 24TB；迷你版（Mini subset）原始视频约 44GB，处理后图像约 390GB。官方强烈建议先在 1\u002F20 的小子集或 Mini 版本上稳定实验后，再尝试全量数据集。具体代码和模型实现需参考子项目仓库（如 github.com\u002FOpenDriveLab\u002FVista）。",[92],[52,13,16],[100,101,102,103,104,105,106,107,108],"foundation-model","autonomous-driving","embodied-ai","general-artificial-intelligence","policy-learning","large-dataset","video-dataset","video-generation","world-models","2026-03-27T02:49:30.150509","2026-04-06T18:51:48.605257",[112,117,122,127,132,136],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},19759,"运行 mini-dataset-extract 或 video2img 脚本时出现 'Invalid NAL unit size' 和 'missing picture in access unit' 错误怎么办？","该问题通常是由 `yt-dlp` 版本不兼容引起的。解决方案是将 `yt-dlp` 升级或更改为特定版本 `2024.8.6`。修改后请重新运行脚本，问题即可解决。维护者已确认该版本在测试服务器上工作正常，并计划更新 requirements.txt。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fissues\u002F20",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},19760,"GenAD 的训练代码、推理代码以及数据处理脚本会开源吗？","作者基于 OpenDV 和 GenAD 开发了升级版本（Vista），相关的论文、代码和模型将在稍后发布。对于数据处理脚本，建议参考 GenAD 论文附录中的处理流程，复现结果相对直接。同时可以关注作者的新工作：https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17398 和 https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FVista。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fissues\u002F13",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},19761,"如何获取 YouTube 视频的内参（intrinsic params）以用于训练 Mono3D 模型？","YouTube 视频上传时元数据中不包含相机内参，因此无法直接获取。如果您的目标是获取视频中物体的 3D 边界框，建议参考 3D 物体检测领域的相关工作，例如 DetAny3D (https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDetAny3D)。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fissues\u002F27",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19762,"使用 GenAD 编码器进行规划任务时，应该使用哪个扩散时间步（diffusion timestep）？","应使用时间步 0（timestep 0），这对应于无噪声的最低扩散级别。GenAD 的 UNet 使用 $\\sigma$ 作为条件来表示时间步，从时间步到 $\\sigma$ 的转换可参考 Vista 项目中的实现代码：https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FVista\u002Fblob\u002Fmain\u002Fvwm\u002Fmodules\u002Fdiffusionmodules\u002Fdiscretizer.py#L40-L62。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI\u002Fissues\u002F15",{"id":133,"question_zh":134,"answer_zh":135,"source_url":131},19763,"在使用 GenAD 进行特征提取时，输入帧是否经过噪声增强处理？","不需要。在特征提取过程中，使用的是原始的干净帧（cleaned frames），不应用任何噪声增强（noise augmentation）。",{"id":137,"question_zh":138,"answer_zh":139,"source_url":131},19764,"使用 GenAD 进行规划任务时，特征是从编码器的哪一层提取的？","特征提取过程在 GenAD UNet 的中间块（middle block）结束。所有的上采样块（upsampling blocks）在此任务中均不使用。",[]]