[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OpenDriveLab--OpenLane":3,"tool-OpenDriveLab--OpenLane":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":107,"env_os":108,"env_gpu":108,"env_ram":108,"env_deps":109,"category_tags":112,"github_topics":113,"view_count":118,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":119,"updated_at":120,"faqs":121,"releases":157},196,"OpenDriveLab\u002FOpenLane","OpenLane","[ECCV 2022 Oral] OpenLane: Large-scale Realistic 3D Lane Dataset","OpenLane 是一个大规模、真实场景下的 3D 车道线数据集，旨在推动自动驾驶中的 3D 感知研究。它基于 Waymo 开放数据集构建，包含 1000 个视频片段、约 20 万帧图像和超过 88 万条精细标注的车道线，同时还提供“路径最近物体”（CIPO）和场景标签（如天气、光照等）信息。传统车道检测多局限于 2D 或仿真环境，而 OpenLane 提供了真实世界中复杂道路结构的 3D 标注，解决了高质量 3D 车道数据稀缺的问题。该数据集特别适合自动驾驶领域的研究人员和算法开发者，可用于训练和评估 3D 车道检测、场景理解等模型。其技术亮点包括统一的坐标系标注、时序帧位姿信息支持序列建模，以及配套的标准化评估工具包。使用前需注册 Waymo 开放数据集并遵守其许可协议。OpenLane 与芯片设计工具 OpenLane 同名但无关联，请注意区分。","> [!IMPORTANT]\n> 🌟 Stay up to date at [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news)!\n\n# OpenLane-V1\nOpenLane is the first real-world and the largest scaled 3D lane dataset to date. Our dataset collects valuable contents from [public perception dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F), providing lane and closest-in-path object(CIPO) annotations for **1000** segments. In short, OpenLane owns **200K** frames and over **880K** carefully annotated lanes. We have released the OpenLane Dataset publicly to aid the research community in making advancements in 3D perception and autonomous driving technology. See details in [Paper.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane_readme_181e6cb95694.jpg\"  height = \"300\"  \u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane_readme_373d8222256a.gif\"  height = \"300\" \u002F>\n\nThis repository is organized as the following.\n\n- [Get Started](#get-started)\n  - [Download](#download)\n  - [Evaluation Kit](#evaluation-kit)\n- [Data](#data)\n  - [Lane Annotation](#lane-annotation)\n  - [CIPO\u002FScenes Annotation](#ciposcenes-annotation)\n- [Benchmark and Leaderboard](#benchmark-and-leaderboard)\n  - [Benchmark](#benchmark)\n  - [Leaderboard](#leaderboard)\n- [Citation](#citation)\n- [License](#license)\n\n> Note that our OpenLane is an autonomous driving dataset, while there's another repository with the same name [The-OpenROAD-Project\u002FOpenLane](https:\u002F\u002Fgithub.com\u002FThe-OpenROAD-Project\u002FOpenLane). \n\n## News\n- [2023\u002F03]: We announced a brand-new dataset on scene understanding and are holding a challenge on the dataset, check out on [OpenLane-V2](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2) and [challenge website](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html) :star:.\n- [2023\u002F03]: We are maintaining a leaderboard on [paperswithcode](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-lane-detection-on-openlane) :microphone:.\n- [2022\u002F11]: We released `v1.2` of the Openlane dataset and features are shown as following.\n  - Add frame pose info for sequential research. \n  - [Filter some noise points](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F23) and [fix coordinate system bug](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F31).\n- [2022\u002F09]: Update evaluation metrics, prune gt points by visibility before evaluation, fixing issue [A question about prune_3d_lane_by_visibility](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F18).           \n- [2022\u002F07]: We released `v1.1` of the Openlane dataset, fixing [3D lane evaluation issues](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F15) and some json files mismatch.\n- [2022\u002F04]: We released v1.0 of the [PersFormer codebase](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane), providing a baseline method on OpenLane dataset.\n- [2022\u002F03]: We released v1.0 of the Openlane dataset including 1000 segments with labels of 3D\u002F2D lanes and CIPO\u002FScenes.\n  \n## Get Started\nPlease follow these steps to make yourself familiar with the OpenLane dataset. Create an issue if you need any further information.\n### Download\nYou can download the entire OpenLane dataset [here](data\u002FREADME.md). Note that before using OpenLane dataset, you should register at [Waymo Open Dataset Website](waymo.com\u002Fopen) and agreed to these Terms since OpenLane is built on top of Waymo Open Dataset.\n\n### Evaluation Kit\nWe provide evaluation tools on both lane and CIPO, following the same data format as Waymo and common evaluation pipeline in 2D\u002F3D lane detection. Please refer to [Evaluation Kit Instruction](eval\u002FREADME.md).\n  \n## Data\nOpenLane dataset is constructed on mainstream datasets in the field of autonomous driving. In v1.0, we release the annotation on [Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F). In the future we'll update for annotation on [nuScenes](https:\u002F\u002Fwww.nuscenes.org\u002Fnuscenes). \nOpenLane dataset focuses on lane detection as well as CIPO. We annotate all the lanes in each frame, including those in the opposite direction if no curbside exists in the middle. In addition to the lane detection task, we also annotate: (a) scene tags, such as weather and locations; (b) the CIPO, which is defined as the most concerned target w.r.t. ego vehicle; such a tag is quite pragmatic for subsequent modules as in planning\u002Fcontrol, besides a whole set of objects from perception. The introduction about the [coordinates system](.\u002Fdata\u002FCoordinate_Sys.md) can be found here. \n\n### Lane Annotation\nWe annotate lane in the following format.\n- Lane shape. Each 2D\u002F3D lane is presented as a set of 2D\u002F3D points.\n- Lane category. Each lane has a category such as double yellow line or curb.\n- Lane property. Some of lanes have a property such as right, left.\n- Lane tracking ID. Each lane except curb has a unique id. \n\nFor more annotation criterion, please refer to [Lane Anno Criterion](anno_criterion\u002FLane\u002FREADME.md).\n\n### CIPO\u002FScenes Annotation\nWe annotate CIPO and Scenes in the following format.\n- 2D bounding box with a category representing the importance level of object. \n- Scene Tag. It describes in which scenario this frame is collected.\n- Weather Tag. It describes under what weather this frame is collected.\n- Hours Tag. It annotates in what time this frame is collected.\n\nFor more annotation criterion, please refer to [CIPO Anno Criterion](anno_criterion\u002FCIPO\u002FREADME.md).\n  \n## Benchmark and Leaderboard\n\n### Benchmark\n\nWe provide an initial benchmark on OpenLane 2D\u002F3D Lane Detection and you are welcome to **pull request** and add your work here! To thoroughly evaluate the model, we provide different case split from the entire validation set. They are Up&Down case, Curve case, Extreme Weather case, Night case, Intersection case, and Merge&Split case. More detail can be found in [Lane Anno Criterion](anno_criterion\u002FLane\u002FREADME.md)\nBased on the [Lane Eval Metric](eval\u002FLANE_evaluation\u002FREADME.md), results (**F-Score**) of different 2D\u002F3D methods on different cases are shown as follows. \n- 2D Lane Detection \n  \n| Method     | All  | Up&\u003Cbr>Down | Curve | Extreme\u003Cbr>Weather | Night | Intersection | Merge&\u003Cbr>Split |\n| :----:     |:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n| LaneATT-S  | 28.3 | 25.3 | 25.8 | 32.0 | 27.6 | 14.0 | 24.3 | \n| LaneATT-M  | 31.0 | 28.3 | 27.4 | 34.7 | 30.2 | 17.0 | 26.5 | \n| PersFormer | 42.0 | 40.7 | 46.3 | 43.7 | 36.1 | 28.9 | 41.2 |  \n| CondLaneNet-S | 52.3 | 55.3 | 57.5 | 45.8 | 46.6 | 48.4 | 45.5 | \n| CondLaneNet-M | 55.0 | 58.5 | 59.4 | 49.2 | 48.6 | 50.7 | 47.8 | \n|**CondLaneNet-L**|**59.1**|**62.1**|**62.9**|**54.7**|**51.0**|**55.7**|**52.3**|  \n\n- 3D Lane Detection\n  \n| Method     |Version| All  | Up &\u003Cbr>Down | Curve | Extreme\u003Cbr>Weather | Night | Intersection | Merge&\u003Cbr>Split |  Best model |x-c|x-f|z-c|z-f|Category Accuracy|\n| :----:     |:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n| GenLaneNet |1.1| 32.3 | 25.4 | 33.5 | 28.1 | 18.7 | 21.4 | 31.0 |    [model](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLScLRUvr14taMIZzGZs7ZDRIOchPQQ50rdIWyipQeRl2bsO9dQ\u002Fviewform?usp=sharing)    |0.593| 0.494|0.140|0.195|\u002F|\n| 3DLaneNet  |1.1| 44.1 | 40.8 | 46.5 | 47.5 | 41.5 | 32.1 | 41.7 |    -    | -|-| -|-|-|\n|**PersFormer**|1.1|**50.5**|**45.6**|**58.7**|**54.0**|**50.0**|**41.6**|**53.1**|[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TwjmFB3p3luCG8ytZ4MEI-TMoDT2Vn3G\u002Fview?usp=share_link)  | 0.319|0.325|0.112|0.141|89.51|\n|**PersFormer**|1.2|**52.9**|**47.5**|**58.4**|**51.8**|**47.4**|**42.1**|**50.9**|[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jtDfnxcNNbefgpYGfue1XlvcvtmfPZj7\u002Fview?usp=share_link)  | 0.291|0.294| 0.080|0.116|89.24|\n\nThe implementation of PersFormer can be found [here](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane).\n\n### Leaderboard\n\nFor comparison, we provide a leaderboard on [paperwithcode](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-lane-detection-on-openlane).\n\n\n## Citation\n\nPlease use the following citation when referencing [OpenLane](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089):\n```bibtex\n    @inproceedings{chen2022persformer,\n      title={PersFormer: 3D Lane Detection via Perspective Transformer and the OpenLane Benchmark},\n      author={Chen, Li and Sima, Chonghao and Li, Yang and Zheng, Zehan and Xu, Jiajie and Geng, Xiangwei and Li, Hongyang and He, Conghui and Shi, Jianping and Qiao, Yu and Yan, Junchi},\n      booktitle={European Conference on Computer Vision (ECCV)},\n      year={2022}\n    }\n```\n\n\n## License\nOur dataset is based on the [Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F) and therefore we distribute the data under [Creative Commons Attribution-NonCommercial-ShareAlike](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F) license and [Waymo Dataset License Agreement for Non-Commercial Use (August 2019)](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fterms\u002F). You are free to share and adapt the data, but have to give appropriate credit and may not use the work for commercial purposes.\nAll code within this repository is under [Apache License 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0).\n","> [!IMPORTANT]\n> 🌟 请访问 [opendrivelab.com](https:\u002F\u002Fopendrivelab.com\u002F#news) 获取最新动态！\n\n# OpenLane-V1\nOpenLane 是目前首个真实世界、规模最大的 3D 车道线（lane）数据集。我们的数据集基于 [公开感知数据集](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F) 构建，为 **1000** 个片段提供了车道线及路径最近物体（CIPO, Closest-In-Path Object）的标注。简而言之，OpenLane 包含 **20 万** 帧图像和超过 **88 万** 条精心标注的车道线。我们已公开发布 OpenLane 数据集，以助力研究社区在 3D 感知与自动驾驶技术方面取得进展。详情请参见 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089)。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane_readme_181e6cb95694.jpg\"  height = \"300\"  \u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane_readme_373d8222256a.gif\"  height = \"300\" \u002F>\n\n本仓库结构如下：\n\n- [快速开始](#快速开始)\n  - [下载](#下载)\n  - [评估工具包](#评估工具包)\n- [数据](#数据)\n  - [车道线标注](#车道线标注)\n  - [CIPO\u002F场景标注](#ciposcenes-标注)\n- [基准测试与排行榜](#基准测试与排行榜)\n  - [基准测试](#基准测试)\n  - [排行榜](#排行榜)\n- [引用](#引用)\n- [许可证](#许可证)\n\n> 注意：我们的 OpenLane 是一个自动驾驶数据集，而另一个同名仓库 [The-OpenROAD-Project\u002FOpenLane](https:\u002F\u002Fgithub.com\u002FThe-OpenROAD-Project\u002FOpenLane) 与此无关。\n\n## 新闻\n- [2023\u002F03]：我们发布了全新的场景理解数据集，并正在举办相关挑战赛，欢迎访问 [OpenLane-V2](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane-V2) 和 [挑战赛官网](https:\u002F\u002Fopendrivelab.com\u002FAD23Challenge.html) :star:。\n- [2023\u002F03]：我们已在 [paperswithcode](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-lane-detection-on-openlane) 维护排行榜 :microphone:。\n- [2022\u002F11]：我们发布了 OpenLane 数据集 `v1.2` 版本，主要更新包括：\n  - 为序列化研究添加帧位姿（frame pose）信息。\n  - [过滤部分噪声点](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F23) 并 [修复坐标系错误](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F31)。\n- [2022\u002F09]：更新评估指标，在评估前根据可见性对真值（gt）点进行剪枝，修复了问题 [A question about prune_3d_lane_by_visibility](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F18)。\n- [2022\u002F07]：我们发布了 OpenLane 数据集 `v1.1` 版本，修复了 [3D 车道线评估问题](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F15) 及部分 JSON 文件不匹配的问题。\n- [2022\u002F04]：我们发布了 [PersFormer 代码库](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane) v1.0，为 OpenLane 数据集提供了一个基线方法。\n- [2022\u002F03]：我们发布了 OpenLane 数据集 v1.0，包含 1000 个片段，带有 3D\u002F2D 车道线及 CIPO\u002F场景的标注。\n\n## 快速开始\n请按照以下步骤熟悉 OpenLane 数据集。如需更多信息，请提交 issue。\n### 下载\n您可以[在此](data\u002FREADME.md)下载完整的 OpenLane 数据集。请注意，由于 OpenLane 基于 Waymo Open Dataset 构建，在使用前您需在 [Waymo Open Dataset 官网](https:\u002F\u002Fwaymo.com\u002Fopen) 注册并同意其使用条款。\n\n### 评估工具包\n我们提供了针对车道线和 CIPO 的评估工具，遵循与 Waymo 相同的数据格式以及 2D\u002F3D 车道线检测中通用的评估流程。详情请参考 [评估工具包说明](eval\u002FREADME.md)。\n\n## 数据\nOpenLane 数据集构建于自动驾驶领域的主流数据集之上。在 v1.0 中，我们基于 [Waymo Open Dataset](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F) 发布了标注数据。未来我们还将为 [nuScenes](https:\u002F\u002Fwww.nuscenes.org\u002Fnuscenes) 提供标注。\n\nOpenLane 数据集聚焦于车道线检测及 CIPO。我们标注了每一帧中的所有车道线，包括在无路缘隔离的情况下对向车道的车道线。除车道线检测任务外，我们还标注了：(a) 场景标签，如天气和地点；(b) CIPO（路径最近物体），即相对于自车（ego vehicle）最需关注的目标；此类标签对于后续的规划\u002F控制模块具有实际意义，而不仅限于感知模块输出的完整物体集合。[坐标系](.\u002Fdata\u002FCoordinate_Sys.md) 的说明请参见此处。\n\n### 车道线标注\n我们采用以下格式标注车道线：\n- **车道线形状**：每条 2D\u002F3D 车道线表示为一组 2D\u002F3D 点。\n- **车道线类别**：每条车道线具有类别，例如双黄线或路缘（curb）。\n- **车道线属性**：部分车道线具有方向属性，如“右”、“左”。\n- **车道线跟踪 ID**：除路缘外，每条车道线均具有唯一 ID。\n\n更多标注准则请参考 [车道线标注规范](anno_criterion\u002FLane\u002FREADME.md)。\n\n### CIPO\u002F场景标注\n我们采用以下格式标注 CIPO 和场景：\n- **2D 边界框**：附带表示物体重要性级别的类别。\n- **场景标签**：描述该帧采集时所处的场景。\n- **天气标签**：描述该帧采集时的天气状况。\n- **时间标签**：标注该帧采集的时间段。\n\n更多标注准则请参考 [CIPO 标注规范](anno_criterion\u002FCIPO\u002FREADME.md)。\n\n## 基准测试与排行榜\n\n### 基准测试（Benchmark）\n\n我们提供了在 OpenLane 2D\u002F3D 车道线检测任务上的初步基准测试结果，欢迎通过 **Pull Request** 提交您的工作！为了全面评估模型性能，我们将整个验证集划分为多种场景：上坡与下坡（Up&Down）、弯道（Curve）、极端天气（Extreme Weather）、夜间（Night）、交叉路口（Intersection）以及车道合并与分叉（Merge&Split）。更多细节请参见 [车道标注标准（Lane Anno Criterion）](anno_criterion\u002FLane\u002FREADME.md)。\n\n基于 [车道评估指标（Lane Eval Metric）](eval\u002FLANE_evaluation\u002FREADME.md)，不同 2D\u002F3D 方法在各类场景下的结果（**F-Score**）如下所示：\n\n- **2D 车道线检测**\n\n| 方法（Method） | 全部（All） | 上坡与\u003Cbr>下坡（Up&\u003Cbr>Down） | 弯道（Curve） | 极端\u003Cbr>天气（Extreme\u003Cbr>Weather） | 夜间（Night） | 交叉路口（Intersection） | 合并与\u003Cbr>分叉（Merge&\u003Cbr>Split） |\n| :----: |:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n| LaneATT-S | 28.3 | 25.3 | 25.8 | 32.0 | 27.6 | 14.0 | 24.3 | \n| LaneATT-M | 31.0 | 28.3 | 27.4 | 34.7 | 30.2 | 17.0 | 26.5 | \n| PersFormer | 42.0 | 40.7 | 46.3 | 43.7 | 36.1 | 28.9 | 41.2 |  \n| CondLaneNet-S | 52.3 | 55.3 | 57.5 | 45.8 | 46.6 | 48.4 | 45.5 | \n| CondLaneNet-M | 55.0 | 58.5 | 59.4 | 49.2 | 48.6 | 50.7 | 47.8 | \n| **CondLaneNet-L** | **59.1** | **62.1** | **62.9** | **54.7** | **51.0** | **55.7** | **52.3** |  \n\n- **3D 车道线检测**\n\n| 方法（Method） | 版本（Version） | 全部（All） | 上坡与\u003Cbr>下坡（Up &\u003Cbr>Down） | 弯道（Curve） | 极端\u003Cbr>天气（Extreme\u003Cbr>Weather） | 夜间（Night） | 交叉路口（Intersection） | 合并与\u003Cbr>分叉（Merge&\u003Cbr>Split） | 最佳模型（Best model） | x-c | x-f | z-c | z-f | 类别准确率（Category Accuracy） |\n| :----: |:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n| GenLaneNet | 1.1 | 32.3 | 25.4 | 33.5 | 28.1 | 18.7 | 21.4 | 31.0 | [model](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLScLRUvr14taMIZzGZs7ZDRIOchPQQ50rdIWyipQeRl2bsO9dQ\u002Fviewform?usp=sharing) | 0.593 | 0.494 | 0.140 | 0.195 | \u002F |\n| 3DLaneNet | 1.1 | 44.1 | 40.8 | 46.5 | 47.5 | 41.5 | 32.1 | 41.7 | - | - | - | - | - | - |\n| **PersFormer** | 1.1 | **50.5** | **45.6** | **58.7** | **54.0** | **50.0** | **41.6** | **53.1** | [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TwjmFB3p3luCG8ytZ4MEI-TMoDT2Vn3G\u002Fview?usp=share_link) | 0.319 | 0.325 | 0.112 | 0.141 | 89.51 |\n| **PersFormer** | 1.2 | **52.9** | **47.5** | **58.4** | **51.8** | **47.4** | **42.1** | **50.9** | [model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jtDfnxcNNbefgpYGfue1XlvcvtmfPZj7\u002Fview?usp=share_link) | 0.291 | 0.294 | 0.080 | 0.116 | 89.24 |\n\nPersFormer 的实现代码可在此处找到：[https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane)。\n\n### 排行榜（Leaderboard）\n\n为便于比较，我们在 [paperswithcode](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-lane-detection-on-openlane) 上提供了排行榜。\n\n## 引用（Citation）\n\n引用 [OpenLane](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.11089) 时，请使用以下 BibTeX：\n\n```bibtex\n    @inproceedings{chen2022persformer,\n      title={PersFormer: 3D Lane Detection via Perspective Transformer and the OpenLane Benchmark},\n      author={Chen, Li and Sima, Chonghao and Li, Yang and Zheng, Zehan and Xu, Jiajie and Geng, Xiangwei and Li, Hongyang and He, Conghui and Shi, Jianping and Qiao, Yu and Yan, Junchi},\n      booktitle={European Conference on Computer Vision (ECCV)},\n      year={2022}\n    }\n```\n\n## 许可证（License）\n\n本数据集基于 [Waymo 开放数据集（Waymo Open Dataset）](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fdata\u002Fperception\u002F) 构建，因此数据遵循 [知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议（Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License）](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F) 以及 [Waymo 非商业用途数据集许可协议（2019 年 8 月版）](https:\u002F\u002Fwaymo.com\u002Fopen\u002Fterms\u002F) 发布。您可以自由地分享和改编这些数据，但必须给予适当署名，且不得用于商业目的。\n\n本仓库中的所有代码均采用 [Apache License 2.0](https:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0) 许可。","# OpenLane 快速上手指南\n\n> ⚠️ 注意：OpenLane 是一个用于自动驾驶的 **3D 车道线数据集**，并非芯片设计工具。请勿与 [The-OpenROAD-Project\u002FOpenLane](https:\u002F\u002Fgithub.com\u002FThe-OpenROAD-Project\u002FOpenLane) 混淆。\n\n## 环境准备\n\n- **操作系统**：Linux（推荐 Ubuntu 18.04\u002F20.04）\n- **Python 版本**：≥ 3.7\n- **依赖项**：\n  - 需先注册并同意 [Waymo Open Dataset 使用条款](https:\u002F\u002Fwaymo.com\u002Fopen\u002F)\n  - 建议使用 `conda` 或 `virtualenv` 创建独立环境\n- **存储空间**：数据集约数百 GB，请确保有足够磁盘空间\n\n## 安装步骤\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane.git\n   cd OpenLane\n   ```\n\n2. 安装评估工具依赖（可选，用于评测）：\n   ```bash\n   pip install -r eval\u002Frequirements.txt\n   ```\n\n3. 下载数据集：\n   - 访问 [data\u002FREADME.md](data\u002FREADME.md) 获取下载链接\n   - **国内用户建议**：通过 Waymo 官网下载后，使用阿里云、百度网盘等第三方渠道加速（官方未提供国内镜像）\n\n> 📌 提示：使用数据前必须在 [Waymo Open Dataset 网站](https:\u002F\u002Fwaymo.com\u002Fopen\u002F) 注册并同意许可协议。\n\n## 基本使用\n\n### 1. 查看数据结构\n数据以 JSON 格式标注，每帧包含车道线、CIPO（最近路径物体）、场景标签等信息：\n```json\n{\n  \"lane_lines\": [\n    {\n      \"id\": 101,\n      \"category\": \"double yellow\",\n      \"xyz\": [[x1,y1,z1], [x2,y2,z2], ...],\n      \"uv\": [[u1,v1], [u2,v2], ...]\n    }\n  ],\n  \"cipo\": { \"bbox_2d\": [x1,y1,x2,y2], \"category\": \"car\" },\n  \"scene_tags\": [\"urban\", \"daytime\", \"clear\"]\n}\n```\n\n### 2. 运行评估示例\n假设已有模型预测结果 `pred.json`，可使用官方评估工具：\n```bash\npython eval\u002FLANE_evaluation\u002Feval.py \\\n  --gt_dir \u002Fpath\u002Fto\u002Fgt_annotations \\\n  --pred_dir \u002Fpath\u002Fto\u002Fpred.json \\\n  --eval_mode 3d\n```\n\n### 3. 可视化（可选）\n参考仓库中的 `visualize\u002F` 目录脚本，或使用官方基线模型 [PersFormer](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FPersFormer_3DLane) 进行推理与可视化。\n\n---\n\n✅ 更多细节请查阅：\n- [数据格式说明](data\u002FCoordinate_Sys.md)\n- [评估指标文档](eval\u002FLANE_evaluation\u002FREADME.md)\n- [最新榜单](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002F3d-lane-detection-on-openlane)","某自动驾驶初创公司的感知算法团队正在研发高精度3D车道线检测模型，用于城市复杂道路环境下的车辆定位与路径规划。\n\n### 没有 OpenLane 时\n- 团队只能依赖合成数据或小规模自采数据集，难以覆盖真实世界中弯道、坡道、遮挡等多样场景。\n- 缺乏统一的3D车道标注标准和评估协议，不同模块间结果难以对齐，调试效率低下。\n- 需自行从原始传感器数据中提取车道信息并构建真值，耗时数月且标注质量不稳定。\n- 无法有效验证模型在长距离、跨帧一致性等关键指标上的表现，上线风险高。\n- 与学术界最新进展脱节，难以复现论文方法或参与公开竞赛。\n\n### 使用 OpenLane 后\n- 直接使用包含20万帧、88万条精细标注的真实3D车道数据，快速覆盖城市主干道、匝道、施工区等复杂场景。\n- 基于OpenLane提供的标准化标注格式和官方评估工具包，团队一周内就搭建起可复现的训练-评估闭环。\n- 利用已对齐的Waymo数据与位姿信息，轻松实现时序建模和多帧融合策略验证。\n- 在OpenLane Leaderboard上横向对比PersFormer等SOTA方法，明确优化方向，模型F1-score提升12%。\n- 凭借在OpenLane上的良好表现，团队成功入围OpenDriveLab举办的自动驾驶挑战赛决赛。\n\nOpenLane为3D车道感知研究提供了稀缺的真实世界基准，大幅降低算法研发门槛并加速技术迭代。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpenDriveLab_OpenLane_181e6cb9.jpg","OpenDriveLab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpenDriveLab_721a66c7.png","AI for Robotics and Autonomous Driving at The University of Hong Kong (HKU)",null,"contact@opendrivelab.com","https:\u002F\u002Fopendrivelab.com","https:\u002F\u002Fgithub.com\u002FOpenDriveLab",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"C++","#f34b7d",56.3,{"name":88,"color":89,"percentage":90},"Python","#3572A5",26.8,{"name":92,"color":93,"percentage":94},"C","#555555",15.4,{"name":96,"color":97,"percentage":98},"Makefile","#427819",1.4,{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.1,572,52,"2026-04-02T00:05:00","Apache-2.0",4,"未说明",{"notes":110,"python":108,"dependencies":111},"该仓库主要提供 OpenLane 数据集及其评估工具，不包含训练或推理代码。使用前需在 Waymo Open Dataset 官网注册并同意其许可协议。数据基于 Waymo Open Dataset 构建，适用于 3D 车道检测等自动驾驶研究任务。实际运行环境需求取决于用户使用的具体模型（如 PersFormer），可参考相关模型仓库（如 OpenDriveLab\u002FPersFormer_3DLane）获取详细依赖信息。",[108],[13,15,51],[114,115,116,117],"dataset","deep-learning","lane-detection","autonomous-driving",5,"2026-03-27T02:49:30.150509","2026-04-06T05:19:31.177471",[122,127,132,137,142,147,152],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},490,"3D车道线标注是如何生成的？是否使用了PersFormer或LiDAR数据？","3D车道线标注并非直接由PersFormer生成，而是通过结合LiDAR数据与图像信息构建的标注流程。具体细节未在Issue中详述，但项目方提到后续会优化标注质量，并已在V1.2版本中引入平滑算法改善曲线噪声问题。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F19",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},491,"训练代码是否会开源？","是的，项目方已开源PersFormer的v1.0代码库，地址为：https:\u002F\u002Fgithub.com\u002FOpenPerceptionX\u002FPersFormer_3DLane。用户可在该仓库中查看训练相关代码并提交问题。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F1",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},492,"为什么将3D车道线映射到点云时会出现剧烈抖动或不平滑的曲线？","这是由于原始标注中部分车道线（尤其是路缘）的Z值不够平滑所致。项目方已在Lane3d_1000_V1.2版本中加入XY方向的平滑算法以消除此类异常曲线。更新后的数据可通过百度网盘下载：https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BqxNE8rD0E3r3VqIKw0pqg?pwd=apqv。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F23",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},493,"为什么需要重新计算相机外参（extrinsics）？原始外参是相对于哪个坐标系的？","Waymo车辆坐标系定义为x向前、y向左、z向上，而LaneNet使用的道路坐标系不同。因此需通过旋转矩阵R_vg和R_gc对原始外参进行变换，使其适配道路坐标系。代码中还强制将平移项的x\u002Fy设为0，以对齐坐标原点。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F24",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},494,"标注质量存在问题，例如车道类别混淆或出现(0,0)的异常点，如何处理？","项目方已承认部分标注存在噪声，并在新发布的数据集中进行了过滤和修复。建议使用更新后的V1.2版本数据集以获得更高质量的标注。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F38",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},495,"在累积多帧3D车道GT时出现模糊或离群点，如何提升精度？","该问题可能源于坐标变换错误。正确做法是在将车道点从相机坐标系转换到世界坐标系时，需对旋转矩阵转置：`lane_points_w = lane_points_c @ T_wc[:3, :3].T + T_wc[:3, 3].reshape(1, 3)`。此外，项目方表示新版本OpenLane将有效改善此问题。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F35",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},496,"能否提供3D车道线生成管线（ground truth生成流程）的代码？","Issue中未直接提供完整管线代码，但项目方已在PersFormer仓库（https:\u002F\u002Fgithub.com\u002FOpenPerceptionX\u002FPersFormer_3DLane）开源相关实现，可参考其中数据处理和标注生成逻辑。","https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FOpenLane\u002Fissues\u002F30",[]]