[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenDriveLab--OpenLane-V2":3,"tool-OpenDriveLab--OpenLane-V2":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75832,"2026-04-17T21:58:25",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":76,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":102,"view_count":46,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":106,"updated_at":107,"faqs":108,"releases":144},8798,"OpenDriveLab\u002FOpenLane-V2","OpenLane-V2","[NeurIPS 2023 Track Datasets and Benchmarks] OpenLane-V2: The First Perception and Reasoning Benchmark for Road Driving","OpenLane-V2 是全球首个专注于自动驾驶场景结构感知与推理的基准测试平台，由 OpenDriveLab 团队推出并入选 NeurIPS 2023。它旨在解决自动驾驶系统在复杂道路环境中“看不懂”车道拓扑关系和地图结构的难题，通过提供大规模、高精度的标注数据集和标准化评估体系，帮助算法更准确地理解车道线、路口连接及语义地图信息。\n\n该工具特别适合自动驾驶领域的研究人员、算法开发者及高校团队使用。无论是从事感知模型训练、拓扑推理研究，还是参与 CVPR 等顶级会议挑战赛，OpenLane-V2 都能提供权威的数据支持和公平的评测环境。其独特亮点在于不仅包含丰富的图像与雷达数据，还引入了细粒度的车道段（lane segment）和语义地图（SD map）标注，并持续更新评估指标以反映最新技术进展。此外，项目配套提供了完善的开发工具包（devkit）和在线测试服务器，方便用户快速验证模型效果并追踪行业前沿水平。作为开源社区的重要基础设施，OpenLane-V2 正推动着自动驾驶从单纯感知向深层场景理解迈进。","> [!IMPORTANT]\n> 🌟 Stay up to date at [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news)!\n\n\u003Cdiv id=\"top\" align=\"center\">\n\n# OpenLane-V2\n**The World's First Perception and Reasoning Benchmark for Scene Structure in Autonomous Driving.**\n\n[![OpenLane-V2](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenLane--V2-v2.0-blueviolet)](\u002Fdata)\n[![devkit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdevkit-v2.1.0-blueviolet)](\u002Fdocs\u002Fgetting_started.md)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue)](#license--citation)\n[![testserver](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest%20Server-%F0%9F%A4%97-ffc107)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024\u002Fmapless-driving-2024)\n\n\u003C!-- **English | [中文](.\u002FREADME-zh-hans.md)**\n\n_In terms of ambiguity, the English version shall prevail._ -->\n\n\u003C\u002Fdiv>\n\n> - [Paper](https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper_files\u002Fpaper\u002F2023\u002Fhash\u002F3c0a4c8c236144f1b99b7e1531debe9c-Abstract-Datasets_and_Benchmarks.html) (Accepted at NeurIPS 2023 Track Datasets and Benchmarks)\n> - [CVPR 2023 Autonomous Driving Challenge - OpenLane Topology Track](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology)\n> - [CVPR 2024 Autonomous Grand Challenge - Mapless Driving Track](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n> - Point of contact: [Huijie (王晖杰)](mailto:wanghuijie@pjlab.org.cn) or [Tianyu (李天羽)](mailto:litianyu@pjlab.org.cn)\n\n## Leaderboard\n\n### Mapless Driving at CVPR 2024 AGC (Server remains `active`)\nWe maintain a [leaderboard](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving) and [test server](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024\u002Fmapless-driving-2024) on the task of **Driving Scene Topology**. If you wish to add new \u002F modify results to the leaderboard, please drop us an email.\n\n- [Challenge 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_20f6d0289d94.png)\n\n\n### OpenLane Topology Challenge at CVPR 2023 (Server remains `active`)\nWe maintain a [leaderboard](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology) and [test server](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Foverview) on the task of **OpenLane Topology**. If you wish to add new \u002F modify results to the leaderboard, please drop us an email following the instructions [here](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Fsubmission).\n\n- [Challenge 2023](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_e9cb9981dce9.png)\n\n\n## Table of Contents\n- [News](#news)\n- [Introducing `OpenLane-V2 Update`](#introducing-openlane-v2-update)\n- [Task and Evaluation](#task-and-evaluation)\n- [Highlights](#highlights-of-openlane-v2)\n- [Getting Started](#getting-started)\n- [License & Citation](#license--citation)\n- [Related Resources](#related-resources)\n\n\n## News\n\n> Note\n> \n> The difference between `v1.x` and `v2.x` is that we updated APIs and materials on lane segment and SD map in `v2.x`.\n>\n> ❗️Update on **evaluation metrics** led to differences in TOP scores between `vx.1` ([`v1.1`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Freleases\u002Ftag\u002Fv1.1.0), [`v2.1`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Freleases\u002Ftag\u002Fv2.1.0)) and `vx.0` (`v1.0`, `v2.0`).\n> We encourage the use of **`vx.1`** metrics.\n> For more details please see issue [#76](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F76).\n\n- **`2024\u002F06\u002F01`** The [Autonomous Grand Challenge](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving) wraps up.\n- **`2024\u002F03\u002F01`** We are hosting **CVPR 2024 Autonomous Grand Challenge**.\n- **`2023\u002F11\u002F01`** Devkit `v2.1.0` and `v1.1.0` released.\n- **`2023\u002F08\u002F28`** Dataset `subset_B` released.\n- **`2023\u002F07\u002F21`** Dataset `v2.0` and Devkit `v2.0.0` released.\n- **`2023\u002F07\u002F05`** The [test server of OpenLane Topology](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Foverview) is re-opened.\n- **`2023\u002F06\u002F01`** The [Challenge at the CVPR 2023 Workshop](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology) wraps up.\n- **`2023\u002F04\u002F21`** A baseline based on [InternImage](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternImage) released. Check out [here](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternImage\u002Ftree\u002Fmaster\u002Fautonomous_driving\u002Fopenlane-v2).\n- **`2023\u002F04\u002F20`** [OpenLane-V2 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10440) is available on arXiv.\n- **`2023\u002F02\u002F15`** Dataset `v1.0`, Devkit `v1.0.0`, and baseline model released.\n- **`2023\u002F01\u002F15`** Initial OpenLane-V2 dataset sample `v0.1` released.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Introducing `OpenLane-V2 Update`\n\nWe are happy to announce an important update to the OpenLane family, featuring two sets of additional data and annotations.\n\n- **`Map Element Bucket`.** We provide a diverse span of road elements (as a `bucket`) to build the driving scene - on par with all elements in HD Map. Armed with the newly introduced [**lane segment**](\u002Fdocs\u002Ffeatures.md#map-element-bucket) representations, we unify various map elements to incorporate comprehensive aspects of the captured static scenes to empower [DriveAGI](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI).  \n:bell: The proposed **lane segment** representation is published with [**LaneSegNet**](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet) in ICLR 2024!\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_6ebfbf2a632e.png\" width=\"696px\">\n\u003C\u002Fp>\n\n-  **`Standard-definition (SD) Map`.** As a new sensor input, [**SD Map**](\u002Fdocs\u002Ffeatures.md#sd-map) supplements multi-view images with topological and positional priors to strengthen structural acknowledge in the neural networks.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_e72201131a69.png\" width=\"696px\">\n\u003C\u002Fp>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Task and Evaluation\n\n### Driving Scene Topology\n\nGiven sensor inputs, lane segments are required to be perceived, instead of lane centerlines in the task of OpenLane Topology.\nBesides, pedestrian crossings and road boundaries are also desired to build a comprehensive understanding of the driving scenes.\nThe [OpenLane-V2 UniScore (OLUS)](docs\u002Fmetrics.md#driving-scene-topology) is utilized  to summarize model performance in all aspects.\n\n### OpenLane Topology\nGiven sensor inputs, participants are required to deliver not only perception results of lanes and traffic elements but also topology relationships among lanes and between lanes and traffic elements simultaneously.\nIn this task, we use [OpenLane-V2 Score (OLS)](docs\u002Fmetrics.md#openlane-topology) to evaluate model performance.\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## Highlights of OpenLane-V2\n\n### Unifying Map Representations\n\nOne of the superior formulations in the bucket is [**Lane Segment**](\u002Fdocs\u002Ffeatures.md#map-element-bucket). It serves as a unifying and versatile representation of lanes, paving the way for multiple downstream applications. With the introduction of [**SD Map**](\u002Fdocs\u002Ffeatures.md#sd-map), the autonomous driving system is capable of utilizing these informative priors for achieving satisfactory performance in perception and reasoning.\n\nThe following table sums up a detailed comparison of different `lane formulations` to achieve various functionalities.\n\n\u003Ctable>\n  \u003Ctr align=\"center\">\n    \u003Ctd rowspan=\"2\">Lane Formulation\u003C\u002Ftd>\n    \u003Ctd colspan=\"8\">Functionality\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>3D Space\u003C\u002Ftd>\n    \u003Ctd>Laneline Cateogry\u003C\u002Ftd>\n    \u003Ctd>Lane Direction\u003C\u002Ftd>\n    \u003Ctd>Drivable Area\u003C\u002Ftd>\n    \u003Ctd>Lane-level Drivable Area\u003C\u002Ftd>\n    \u003Ctd>Lane-lane Topology\u003C\u002Ftd>\n    \u003Ctd>Bind to Traffic Element\u003C\u002Ftd>\n    \u003Ctd>Laneline-less\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>2D Laneline\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>3D Laneline\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>Online (pseudo) HD Map\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>Lane Centerline\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>\u003Cb>Lane Segment\u003C\u002Fb> (newly released)\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n> - 3D Space: whether the perceived entities are represented in the 3D space.\n> - Laneline Category: categories of the visible laneline, such as solid and dash.\n> - Lane Direction: the driving direction that vehicles need to follow in a particular lane.\n> - Drivable Area: the entire area where vehicles are allowed to drive.\n> - Lane-level Drivable Area: drivable area of a single lane, which restricts vehicles from trespassing neighboring lanes.\n> - Lane-lane Topology: connectivity of lanes that builds the lane network to provide routing information.\n> - Bind to Traffic Element: correspondence to traffic elements, which provide regulations according to traffic rules.\n> - Laneline-less: the ability to provide guidance in areas where no visible laneline is available, such as intersections.\n\n\n### Introducing 3D Laneline \nPrevious datasets annotate lanes on images in the perspective view. Such a type of 2D annotation is insufficient to fulfill real-world requirements.\nFollowing the [OpenLane-V1](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane) practice, we annotate [**lanes in 3D space**](\u002Fdocs\u002Ffeatures.md#3d-lane-detection) to reflect the geometric properties in the real 3D world.\n\n### Recognizing Extremely Small Traffic Elements\nNot only preventing collision but also facilitating efficiency is essential. \nVehicles follow predefined traffic rules for self-disciplining and cooperating with others to ensure a safe and efficient traffic system.\n[**Traffic elements**](\u002Fdocs\u002Ffeatures.md#traffic-element-recognition) on the roads, such as traffic lights and road signs, provide practical and real-time information.\n\n### Topology Reasoning between Lane and Road Elements \nA traffic element is only valid for its corresponding lanes. \nFollowing the wrong signals would be catastrophic. \nAlso, lanes have their predecessors and successors to build the map. \nAutonomous vehicles are required to **reason** about the [**topology relationships**](\u002Fdocs\u002Ffeatures.md#topology-recognition) to drive in the right way.\n\n\u003C!--\n### Data scale and diversity matters - building on top of renowned Benchmarks\nExperience from the sunny day does not apply to the dancing snowflakes.\nFor machine learning, data is the must-have food.\nWe provide annotations on data collected in various cities, from Austin to Singapore and from Boston to Miami.\nThe **diversity** of data enables models to generalize in different atmospheres and landscapes.\n-->\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## Getting Started\n- [Download Data](\u002Fdocs\u002Fgetting_started.md#download-data)\n- [Install Devkit](\u002Fdocs\u002Fgetting_started.md#install-devkit)\n- [Prepare Dataset](\u002Fdocs\u002Fgetting_started.md#prepare-dataset)\n- [Train a Model](\u002Fdocs\u002Fgetting_started.md#train-a-model)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## License & Citation\n\n> Prior to using the OpenLane-V2 dataset, you should agree to the terms of use of the [nuScenes](https:\u002F\u002Fwww.nuscenes.org\u002Fnuscenes) and [Argoverse 2](https:\u002F\u002Fwww.argoverse.org\u002Fav2.html) datasets respectively.\n> OpenLane-V2 is distributed under [CC BY-NC-SA 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0) license.\n> All code within this repository is under [Apache License 2.0](.\u002FLICENSE).\n\nPlease use the following citation when referencing OpenLane-V2:\n\n```bibtex\n@inproceedings{wang2023openlanev2,\n  title={OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping}, \n  author={Wang, Huijie and Li, Tianyu and Li, Yang and Chen, Li and Sima, Chonghao and Liu, Zhenbo and Wang, Bangjun and Jia, Peijin and Wang, Yuting and Jiang, Shengyin and Wen, Feng and Xu, Hang and Luo, Ping and Yan, Junchi and Zhang, Wei and Li, Hongyang},\n  booktitle={NeurIPS},\n  year={2023}\n}\n\n@article{li2023toponet,\n  title={Graph-based Topology Reasoning for Driving Scenes},\n  author={Li, Tianyu and Chen, Li and Wang, Huijie and Li, Yang and Yang, Jiazhi and Geng, Xiangwei and Jiang, Shengyin and Wang, Yuting and Xu, Hang and Xu, Chunjing and Yan, Junchi and Luo, Ping and Li, Hongyang},\n  journal={arXiv preprint arXiv:2304.05277},\n  year={2023}\n}\n\n@inproceedings{li2023lanesegnet,\n  title={LaneSegNet: Map Learning with Lane Segment Perception for Autonomous Driving},\n  author={Li, Tianyu and Jia, Peijin and Wang, Bangjun and Chen, Li and Jiang, Kun and Yan, Junchi and Li, Hongyang},\n  booktitle={ICLR},\n  year={2024}\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## Related Resources\n[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n- [DriveAGI](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI) | [DriveLM](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM) | [OpenScene](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene)\n- [TopoNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FTopoNet) | [LaneSegNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet)\n- [PersFormer](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane) | [OpenLane](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane)\n- [BEV Perception Survey & Recipe](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FBEVPerception-Survey-Recipe) | [BEVFormer](https:\u002F\u002Fgithub.com\u002Ffundamentalvision\u002FBEVFormer)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n","> [!IMPORTANT]\n> 🌟 请在 [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news) 上获取最新资讯！\n\n\u003Cdiv id=\"top\" align=\"center\">\n\n# OpenLane-V2\n**全球首个面向自动驾驶场景结构的感知与推理基准。**\n\n[![OpenLane-V2](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpenLane--V2-v2.0-blueviolet)](\u002Fdata)\n[![devkit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdevkit-v2.1.0-blueviolet)](\u002Fdocs\u002Fgetting_started.md)\n[![LICENSE](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202.0-blue)](#license--citation)\n[![testserver](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest%20Server-%F0%9F%A4%97-ffc107)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024\u002Fmapless-driving-2024)\n\n\u003C!-- **English | [中文](.\u002FREADME-zh-hans.md)**\n\n_In terms of ambiguity, the English version shall prevail._ -->\n\n\u003C\u002Fdiv>\n\n> - [论文](https:\u002F\u002Fproceedings.neurips.cc\u002Fpaper_files\u002Fpaper\u002F2023\u002Fhash\u002F3c0a4c8c236144f1b99b7e1531debe9c-Abstract-Datasets_and_Benchmarks.html)（已被NeurIPS 2023数据集与基准赛道收录）\n> - [CVPR 2023 自动驾驶挑战赛——OpenLane拓扑赛道](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology)\n> - [CVPR 2024 自主驾驶大挑战——无地图驾驶赛道](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n> - 联系人：[Huijie (王晖杰)](mailto:wanghuijie@pjlab.org.cn) 或 [Tianyu (李天羽)](mailto:litianyu@pjlab.org.cn)\n\n## 排行榜\n\n### CVPR 2024 AGC 无地图驾驶赛道（服务器仍处于“运行中”状态）\n我们在“驾驶场景拓扑”任务上维护着一个排行榜和测试服务器。如需添加或修改排行榜上的结果，请按照以下说明发送邮件给我们。\n\n- [2024年挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_20f6d0289d94.png)\n\n\n### CVPR 2023 OpenLane拓扑挑战赛（服务器仍处于“运行中”状态）\n我们在“OpenLane拓扑”任务上维护着一个排行榜和测试服务器。如需添加或修改排行榜上的结果，请按照此处的说明发送邮件给我们。\n\n- [2023年挑战赛](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology)\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_e9cb9981dce9.png)\n\n\n## 目录\n- [新闻](#news)\n- [介绍 `OpenLane-V2 更新`](#introducing-openlane-v2-update)\n- [任务与评估](#task-and-evaluation)\n- [亮点](#highlights-of-openlane-v2)\n- [快速入门](#getting-started)\n- [许可与引用](#license--citation)\n- [相关资源](#related-resources)\n\n\n## 新闻\n\n> 注意\n> \n> `v1.x` 和 `v2.x` 的区别在于，我们在 `v2.x` 中更新了车道段和标准地图的相关 API 和资料。\n>\n> ❗️ **评估指标** 的更新导致了 `vx.1`（[`v1.1`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Freleases\u002Ftag\u002Fv1.1.0)，[`v2.1`](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Freleases\u002Ftag\u002Fv2.1.0)) 和 `vx.0`（`v1.0`，`v2.0`）之间的 TOP 分数差异。\n> 我们建议使用 **`vx.1`** 指标。\n> 更多详情请参阅议题 [#76](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F76)。\n\n- **`2024\u002F06\u002F01`** 自主驾驶大挑战（[opendrivelab.com\u002Fchallenge2024\u002F#mapless_driving](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#mapless_driving)）圆满结束。\n- **`2024\u002F03\u002F01`** 我们正在举办 **CVPR 2024 自主驾驶大挑战**。\n- **`2023\u002F11\u002F01`** 发布了开发工具包 `v2.1.0` 和 `v1.1.0`。\n- **`2023\u002F08\u002F28`** 发布了数据集子集 `subset_B`。\n- **`2023\u002F07\u002F21`** 发布了数据集 `v2.0` 和开发工具包 `v2.0.0`。\n- **`2023\u002F07\u002F05`** OpenLane拓扑的测试服务器（[eval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Foverview](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Foverview)）重新开放。\n- **`2023\u002F06\u002F01`** CVPR 2023研讨会中的挑战赛（[opendrivelab.com\u002Fchallenge2023\u002F#openlane_topology](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2023\u002F#openlane_topology)）圆满结束。\n- **`2023\u002F04\u002F21`** 基于 [InternImage](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternImage) 的基线发布。详情请见 [这里](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternImage\u002Ftree\u002Fmaster\u002Fautonomous_driving\u002Fopenlane-v2)。\n- **`2023\u002F04\u002F20`** [OpenLane-V2 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10440) 已在 arXiv 上发表。\n- **`2023\u002F02\u002F15`** 数据集 `v1.0`、开发工具包 `v1.0.0` 以及基线模型发布。\n- **`2023\u002F01\u002F15`** 初步的 OpenLane-V2 数据集样本 `v0.1` 发布。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 介绍 `OpenLane-V2 更新`\n\n我们很高兴地宣布 OpenLane 系列的一项重要更新，其中包括两套额外的数据和标注。\n\n- **“地图元素桶”。** 我们提供多样化的道路元素（作为一个“桶”），用于构建驾驶场景——其涵盖的内容与高清地图中的所有元素相当。借助新引入的 [**车道段**](\u002Fdocs\u002Ffeatures.md#map-element-bucket) 表示法，我们将各种地图元素统一起来，以全面捕捉静态场景的各个方面，从而赋能 [DriveAGI](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI)。\n:bell: 所提出的 **车道段** 表示法已随 [**LaneSegNet**](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet) 在 ICLR 2024 上发表！\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_6ebfbf2a632e.png\" width=\"696px\">\n\u003C\u002Fp>\n\n- **“标准定义（SD）地图”。** 作为一种新的传感器输入，[**SD 地图**](\u002Fdocs\u002Ffeatures.md#sd-map) 可以补充多视角图像，提供拓扑和位置先验信息，从而增强神经网络对场景结构的理解。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_readme_e72201131a69.png\" width=\"696px\">\n\u003C\u002Fp>\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 任务与评估\n\n### 驾驶场景拓扑\n\n在给定传感器输入的情况下，本任务要求感知的是车道段，而非 OpenLane 拓扑任务中的车道中心线。\n此外，还需要识别人行横道和道路边界，以全面理解驾驶场景。\n我们使用 [OpenLane-V2 综合评分（OLUS）](docs\u002Fmetrics.md#driving-scene-topology) 来综合评估模型在各个方面的表现。\n\n### OpenLane 拓扑\n\n在给定传感器输入的情况下，参赛者不仅需要输出车道和交通要素的感知结果，还需同时预测车道之间以及车道与交通要素之间的拓扑关系。\n在此任务中，我们使用 [OpenLane-V2 评分（OLS）](docs\u002Fmetrics.md#openlane-topology) 来评估模型性能。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## OpenLane-V2 亮点\n\n### 统一的地图表示\n\n在这一组中，最优秀的表示方法之一是[**车道段**](\u002Fdocs\u002Ffeatures.md#map-element-bucket)。它作为一种统一且多功能的车道表示形式，为多种下游应用奠定了基础。随着[**SD地图**](\u002Fdocs\u002Ffeatures.md#sd-map)的引入，自动驾驶系统能够利用这些信息丰富的先验知识，在感知和推理方面达到令人满意的效果。\n\n下表总结了不同`车道表示法`在实现各种功能方面的详细对比。\n\n\u003Ctable>\n  \u003Ctr align=\"center\">\n    \u003Ctd rowspan=\"2\">车道表示法\u003C\u002Ftd>\n    \u003Ctd colspan=\"8\">功能\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>3D空间\u003C\u002Ftd>\n    \u003Ctd>车道线类别\u003C\u002Ftd>\n    \u003Ctd>车道方向\u003C\u002Ftd>\n    \u003Ctd>可行驶区域\u003C\u002Ftd>\n    \u003Ctd>车道级可行驶区域\u003C\u002Ftd>\n    \u003Ctd>车道间拓扑关系\u003C\u002Ftd>\n    \u003Ctd>与交通要素绑定\u003C\u002Ftd>\n    \u003Ctd>无车道线\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>2D车道线\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>3D车道线\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>在线（伪）高清地图\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>车道中心线\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr align=\"center\">\n    \u003Ctd>\u003Cb>车道段\u003C\u002Fb>（新发布）\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n    \u003Ctd>✅\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n> - 3D空间：感知到的实体是否以3D空间形式表示。\n> - 车道线类别：可见车道线的类别，如实线、虚线等。\n> - 车道方向：车辆在特定车道中需要遵循的行驶方向。\n> - 可行驶区域：允许车辆行驶的整个区域。\n> - 车道级可行驶区域：单个车道的可行驶区域，限制车辆驶入相邻车道。\n> - 车道间拓扑关系：车道之间的连通性，构建车道网络以提供路径规划信息。\n> - 与交通要素绑定：与交通要素的对应关系，根据交通规则提供相应的规定。\n> - 无车道线：在没有可见车道线的区域（如交叉口）提供引导的能力。\n\n\n### 引入3D车道线\n以往的数据集通常在透视视图的图像上标注车道。这种2D标注方式不足以满足实际需求。\n参照[OpenLane-V1](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane)的做法，我们标注了[**3D空间中的车道**](\u002Fdocs\u002Ffeatures.md#3d-lane-detection)，以反映真实3D世界中的几何属性。\n\n### 识别极小的交通要素\n不仅要避免碰撞，还要提高效率。\n车辆遵循预设的交通规则，既能自我约束，又能与其他车辆协作，从而确保交通安全和高效运行。\n道路上的[**交通要素**](\u002Fdocs\u002Ffeatures.md#traffic-element-recognition)，如交通信号灯和路标，提供了实用且实时的信息。\n\n### 车道与道路要素之间的拓扑推理\n交通要素仅对其对应的车道有效。\n如果跟随错误的信号，后果将不堪设想。\n此外，车道之间存在前驱和后继关系，共同构成了地图网络。\n自动驾驶车辆需要对[**拓扑关系**](\u002Fdocs\u002Ffeatures.md#topology-recognition)进行推理，以确保正确行驶。\n\n\u003C!--\n### 数据规模与多样性至关重要——基于知名基准数据集构建\n在晴朗天气下的经验并不适用于雪花飞舞的场景。\n对于机器学习而言，数据就是不可或缺的“粮食”。\n我们提供了在多个城市收集的数据标注，从奥斯汀到新加坡，从波士顿到迈阿密。\n数据的**多样性**使模型能够在不同的气候和地形条件下具备泛化能力。\n-->\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## 开始使用\n- [下载数据](\u002Fdocs\u002Fgetting_started.md#download-data)\n- [安装开发工具包](\u002Fdocs\u002Fgetting_started.md#install-devkit)\n- [准备数据集](\u002Fdocs\u002Fgetting_started.md#prepare-dataset)\n- [训练模型](\u002Fdocs\u002Fgetting_started.md#train-a-model)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## 许可与引用\n\n> 在使用OpenLane-V2数据集之前，您应分别同意[nuScenes](https:\u002F\u002Fwww.nuscenes.org\u002Fnuscenes)和[Argoverse 2](https:\u002F\u002Fwww.argoverse.org\u002Fav2.html)数据集的使用条款。\n> OpenLane-V2采用[CC BY-NC-SA 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0)许可协议分发。\n> 本仓库内的所有代码均采用[Apache License 2.0](.\u002FLICENSE)许可。\n\n请在引用OpenLane-V2时使用以下参考文献：\n\n```bibtex\n@inproceedings{wang2023openlanev2,\n  title={OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping}, \n  author={Wang, Huijie and Li, Tianyu and Li, Yang and Chen, Li and Sima, Chonghao and Liu, Zhenbo and Wang, Bangjun and Jia, Peijin and Wang, Yuting and Jiang, Shengyin and Wen, Feng and Xu, Hang and Luo, Ping and Yan, Junchi and Zhang, Wei and Li, Hongyang},\n  booktitle={NeurIPS},\n  year={2023}\n}\n\n@article{li2023toponet,\n  title={Graph-based Topology Reasoning for Driving Scenes},\n  author={Li, Tianyu and Chen, Li and Wang, Huijie and Li, Yang and Yang, Jiazhi and Geng, Xiangwei and Jiang, Shengyin and Wang, Yuting and Xu, Hang and Xu, Chunjing and Yan, Junchi and Luo, Ping and Li, Hongyang},\n  journal={arXiv preprint arXiv:2304.05277},\n  year={2023}\n}\n\n@inproceedings{li2023lanesegnet,\n  title={LaneSegNet: Map Learning with Lane Segment Perception for Autonomous Driving},\n  author={Li, Tianyu and Jia, Peijin and Wang, Bangjun and Chen, Li and Jiang, Kun and Yan, Junchi and Li, Hongyang},\n  booktitle={ICLR},\n  year={2024}\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n\n## 相关资源\n[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n- [DriveAGI](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveAGI) | [DriveLM](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FDriveLM) | [OpenScene](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenScene)\n- [TopoNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FTopoNet) | [LaneSegNet](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FLaneSegNet)\n- [PersFormer](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane) | [OpenLane](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane)\n- [BEV感知综述与实践指南](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FBEVPerception-Survey-Recipe) | [BEVFormer](https:\u002F\u002Fgithub.com\u002Ffundamentalvision\u002FBEVFormer)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>","# OpenLane-V2 快速上手指南\n\nOpenLane-V2 是全球首个用于自动驾驶场景结构感知与推理的基准测试工具。本指南将帮助开发者快速完成环境配置、安装及基础使用。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04\u002F22.04)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（建议显存 ≥ 16GB 以训练大型模型）\n*   **前置依赖**:\n    *   PyTorch (建议 1.10+)\n    *   MMCV \u002F MMDetection3D (OpenLane-V2 基于 OpenMMLab 生态构建)\n    *   Git, Wget\u002FcURL\n\n> **注意**：OpenLane-V2 数据集依赖于 [nuScenes](https:\u002F\u002Fwww.nuscenes.org\u002F) 和 [Argoverse 2](https:\u002F\u002Fwww.argoverse.org\u002Fav2.html) 数据集。使用前请分别同意并下载这两个数据集。\n\n## 2. 安装步骤\n\n### 2.1 克隆仓库\n首先克隆 OpenLane-V2 代码库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2.git\ncd OpenLane-V2\n```\n\n### 2.2 创建虚拟环境\n建议使用 Conda 创建独立的 Python 环境：\n\n```bash\nconda create -n openlane-v2 python=3.8 -y\nconda activate openlane-v2\n```\n\n### 2.3 安装依赖与 Devkit\n根据官方 `requirements.txt` 安装基础依赖，并安装 OpenLane-V2 的开发工具包（Devkit）。\n\n> **国内加速建议**：如果下载速度慢，可临时切换 pip 源为清华源或阿里源。\n> `export PIP_CONFIG_FILE=\u002Fdev\u002Fnull && pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n安装核心 Devkit（具体版本请参考最新 Release，此处以 v2.1.0 为例）：\n\n```bash\n# 安装基础依赖\npip install -r requirements.txt\n\n# 安装 OpenLane-V2 devkit (可编辑模式)\npip install -e .\n```\n\n*注：若需使用基于 InternImage 的基线模型，请参考 [InternImage 仓库](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternImage\u002Ftree\u002Fmaster\u002Fautonomous_driving\u002Fopenlane-v2) 进行额外配置。*\n\n## 3. 基本使用\n\n### 3.1 数据准备\n在使用前，需将下载的 nuScenes 和 Argoverse 2 数据整理到指定目录，并生成 OpenLane-V2 格式的数据集。\n\n假设数据根目录为 `\u002Fdata\u002Fnuscenes` 和 `\u002Fdata\u002Fargoverse`，执行以下脚本进行数据转换（具体路径请在 `configs\u002F` 中确认）：\n\n```bash\n# 示例：准备数据脚本 (具体命令参考 docs\u002Fgetting_started.md)\npython tools\u002Fdata_converter\u002Fcreate_data.py \\\n    --root-path \u002Fdata\u002Fnuscenes \\\n    --out-dir .\u002Fdata\u002Fopenlane-v2 \\\n    --extra-tag nuscenes\n```\n\n### 3.2 模型训练\n配置好数据后，使用提供的配置文件启动训练。以下是一个简单的训练示例：\n\n```bash\n# 单卡训练示例\npython tools\u002Ftrain.py configs\u002Fopenlane-v2\u002Fr50_800x320.py --work-dir .\u002Fwork_dirs\u002Fr50_baseline\n\n# 多卡训练示例 (8 张 GPU)\nbash tools\u002Fdist_train.sh configs\u002Fopenlane-v2\u002Fr50_800x320.py 8 --work-dir .\u002Fwork_dirs\u002Fr50_baseline\n```\n\n### 3.3 模型评估\n训练完成后，使用测试集评估模型性能（如 OpenLane-V2 Score, OLS）：\n\n```bash\n# 单卡测试\npython tools\u002Ftest.py configs\u002Fopenlane-v2\u002Fr50_800x320.py .\u002Fwork_dirs\u002Fr50_baseline\u002Flatest.pth --eval ols\n\n# 多卡测试\nbash tools\u002Fdist_test.sh configs\u002Fopenlane-v2\u002Fr50_800x320.py .\u002Fwork_dirs\u002Fr50_baseline\u002Flatest.pth 8 --eval ols\n```\n\n### 3.4 提交结果至排行榜\n若希望将结果提交至 CVPR Challenge 测试服务器，可生成提交格式的 JSON 文件：\n\n```bash\npython tools\u002Fmisc\u002Fgenerate_submission.py \\\n    configs\u002Fopenlane-v2\u002Fr50_800x320.py \\\n    .\u002Fwork_dirs\u002Fr50_baseline\u002Flatest.pth \\\n    .\u002Fsubmission_results\n```\n\n生成的 `.\u002Fsubmission_results` 文件夹内容可上传至 [Eval.AI](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1925\u002Foverview) 或 [HuggingFace Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024\u002Fmapless-driving-2024) 进行测试。","某自动驾驶初创公司的感知算法团队正在研发一款适用于复杂城市道路的 L4 级无人配送车，亟需提升车辆对车道拓扑结构的理解能力。\n\n### 没有 OpenLane-V2 时\n- **数据标注成本高昂**：团队需人工逐帧标注车道线及其复杂的连接关系（如汇入、分出），耗时且极易出错，导致训练数据积累缓慢。\n- **场景覆盖单一**：自建数据集多来自理想路况，缺乏无高精地图依赖下的极端案例（如车道线模糊、施工改道），模型在真实长尾场景中频繁失效。\n- **评估标准缺失**：仅能检测车道线位置，无法量化评估模型对“车道间逻辑关系”的推理能力，难以定位算法在路径规划层面的根本缺陷。\n- **研发迭代封闭**：缺乏统一的基准测试平台，团队无法与行业顶尖方案横向对比，容易陷入局部优化的误区。\n\n### 使用 OpenLane-V2 后\n- **获取高质量真值**：直接利用其提供的全球首个包含车道拓扑推理的大规模基准数据集，大幅减少人工标注投入，快速构建高鲁棒性训练集。\n- **强化无图驾驶能力**：基于其特有的“无地图驾驶”挑战赛道数据进行训练，显著提升了车辆在未见过的复杂路口和临时改道路况下的通行成功率。\n- **精准量化推理性能**：采用官方定义的拓扑评价指标，不仅能判断车道线在哪里，更能精确衡量模型是否正确理解了车道连通性，指导算法针对性优化。\n- **对齐行业顶尖水平**：通过提交结果至活跃的 Leaderboard 和测试服务器，实时对标 CVPR 挑战赛中的全球最优方案，明确技术差距并加速迭代。\n\nOpenLane-V2 通过提供标准化的感知与推理基准，帮助团队突破了从“看见车道”到“理解路网”的技术瓶颈，大幅缩短了无高精地图自动驾驶方案的落地周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane-V2_6ebfbf2a.gif","OpenDriveLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenDriveLab_721a66c7.png","AI for Robotics and Autonomous Driving at The University of Hong Kong (HKU)",null,"contact@opendrivelab.com","https:\u002F\u002Fopendrivelab.com","https:\u002F\u002Fgithub.com\u002FOpenDriveLab",[84,88],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",87.5,{"name":89,"color":90,"percentage":91},"Python","#3572A5",12.5,662,77,"2026-04-15T07:11:59","Apache-2.0",4,"未说明",{"notes":99,"python":97,"dependencies":100},"README 主要介绍了数据集基准、任务定义及更新内容，具体的运行环境需求（如操作系统、GPU、Python 版本及依赖库）未在提供的文本中列出，需参考文中提到的 'Getting Started' 章节链接（\u002Fdocs\u002Fgetting_started.md）获取详细安装指南。该工具基于 nuScenes 和 Argoverse 2 数据集，使用前需同意相应数据的使用条款。",[97],[18],[103,104,105],"topology-reasoning","traffic-element-recognition","3d-lane-detection","2026-03-27T02:49:30.150509","2026-04-18T11:10:22.963202",[109,114,119,124,129,134,139],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},39467,"提交结果文件时遇到\"文件大小限制为 500 MB\"的错误，如何解决？","可以通过减少表示单个车道的点数或更改数据类型来减小文件体积。具体方法包括修改数据集代码（如 openlane_v2_dataset.py），对中心线点进行下采样（例如每个中心线使用 11 个点），并将数据类型转换为 np.float16。虽然这可能会略微影响高精度下的性能，但能有效满足提交限制。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F26",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},39468,"如何验证解压后的数据集文件是否完整（train\u002Ftest\u002Fval 文件夹的文件数量）？","可以使用命令 `find -name \"*.json\" | wc -l` 统计 JSON 文件数量。正确的文件数量参考如下：\n- Train 文件夹：JSON 文件约 22477 个（也有用户测得 54576 个，需核对版本），JPG 图片 157339 张。\n- Test 文件夹：JSON 文件 4816 个，JPG 图片 33712 张。\n- Val 文件夹：JSON 文件 4806 个，JPG 图片 33642 张。\n如果数量不符，可能是解压过程中出错，建议检查 MD5 值并重新解压。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F6",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},39469,"OpenLane-V2 的数据与 nuScenes 的 3D 检测标注如何关联？是否保留了 sample_token？","OpenLane-V2 中的 `source_id` 对应 nuScenes 中的 `scene_token`。虽然未直接记录 `sample_token`，但可以通过 `scene_token` 和 `timestamp`（时间戳）将 OpenLane-V2 的样本与 nuScenes 的样本进行关联。请注意，OpenLane-V2 中的时间戳是与前视相机对齐的。对于 Subset A (Argoverse2) 也有类似的关联方式。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F78",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},39470,"拓扑损失（Topology Loss）计算中，为什么使用 (1-GT) 且将类别 0 视为正样本？","在真值（GT）中存在连接的边（正样本）时，网络应将其预测为类别 0。这意味着邻接矩阵的第 0 通道应具有较大的值。在计算损失时使用 (1-GT) 是为了匹配这种定义：当 GT 为 1（连接）时，(1-GT) 为 0，对应网络输出的第 0 类（表示连接）。最终通过大于 0.5 的阈值来判断预测的边是否为正样本（即连接状态）。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F17",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},39471,"Baseline 模型输入图像骨干网络的分辨率是多少？是否需要调整？","输入图像的分辨率可以根据需求自由调整。虽然原始图像可能是 1550x2048，但在进入骨干网络前可能会经过裁剪或缩放操作。根据维护者的经验，分辨率的变化对显存消耗的影响较大，而对模型最终性能的影响相对较小。因此，如果显存受限，可以适当降低分辨率。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F24",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39472,"无法复现 baseline_large 配置的 2D 检测性能，准确率极低或可视化结果异常，怎么办？","这可能是由于代码版本或数据版本不一致导致的。维护者已经更新了 baseline_large 的配置和代码，建议拉取最新的代码库并重新尝试训练。此外，确保训练和评估过程中的数据预处理流程一致，避免因增强策略或坐标转换差异导致的结果偏差。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F23",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39473,"baseline_large 模型相比普通 baseline 使用了哪些额外的数据增强方法？","baseline_large 使用的额外增强方法并非全新发明，可以参考基于相机的 3D 检测模型（如 BEVFormer 等）中常用的增强策略，例如 BEV 空间内的随机旋转或平移。具体的配置可以在 `plugin\u002Fmmdet3d\u002Fconfigs\u002Fbaseline_large.py` 中找到。由于代码和数据的迭代，报告的分数可能会有细微差别。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2\u002Fissues\u002F22",[145,150,154,159,163],{"id":146,"version":147,"summary_zh":148,"released_at":149},315416,"v2.1.0","修复问题 #76。","2023-11-01T03:47:43",{"id":151,"version":152,"summary_zh":79,"released_at":153},315417,"v1.1.0","2023-11-01T03:00:07",{"id":155,"version":156,"summary_zh":157,"released_at":158},315418,"v2.0.1","修复：封闭区域的插值","2023-07-31T01:37:10",{"id":160,"version":161,"summary_zh":79,"released_at":162},315419,"v2.0.0","2023-07-21T09:53:08",{"id":164,"version":165,"summary_zh":79,"released_at":166},315420,"v1.0.0","2023-07-19T06:27:56"]