[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hustvl--MapTR":3,"tool-hustvl--MapTR":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":113,"env_os":114,"env_gpu":115,"env_ram":116,"env_deps":117,"category_tags":124,"github_topics":125,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":135,"updated_at":136,"faqs":137,"releases":173},9314,"hustvl\u002FMapTR","MapTR","[ICLR'23 Spotlight & ECCV'24 & IJCV'24] MapTR: Structured Modeling and Learning for Online Vectorized HD Map Construction","MapTR 是一个专为自动驾驶领域设计的端到端框架，旨在实时构建高精度的矢量化高清地图（HD Map）。传统地图构建方法往往流程繁琐、依赖后处理且难以适应动态环境，而 MapTR 通过结构化建模与学习，直接从传感器数据中生成精确的车道线、道路边界等矢量元素，有效解决了在线地图构建的效率与精度难题。\n\n该工具特别适合自动驾驶算法研究人员、感知系统开发者以及高校科研团队使用。其核心亮点在于摒弃了复杂的后处理步骤，实现了真正的“端到端”输出；同时支持多种 BEV（鸟瞰图）编码器，具备极强的灵活性与泛化能力。升级版 MapTRv2 进一步引入了中心线语义建模，显著提升了收敛速度与下游规划任务的兼容性。凭借在 ICLR、ECCV 及 IJCV 等顶级会议期刊上的 spotlight 收录表现，MapTR 已成为当前矢量地图构建领域兼具速度与性能的优秀开源方案，助力开发者更高效地搭建自动驾驶感知系统。","\u003Cdiv align=\"center\">\n\u003Ch1>MapTR \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhustvl_MapTR_readme_ff05dc4dad24.png\" width=\"30\">\u003C\u002Fh1>\n\u003Ch3>An End-to-End Framework for Online Vectorized HD Map Construction\u003C\u002Fh3>\n\n[Bencheng Liao](https:\u002F\u002Fgithub.com\u002FLegendBC)\u003Csup>1,2,3\u003C\u002Fsup> \\*, [Shaoyu Chen](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PIeNN2gAAAAJ&hl=en&oi=sra)\u003Csup>1,3\u003C\u002Fsup> \\*, [Yunchi Zhang](https:\u002F\u002Fgithub.com\u002Fzyc10ud)\u003Csup>1,3\u003C\u002Fsup> , [Bo Jiang](https:\u002F\u002Fgithub.com\u002Frb93dett)\u003Csup>1,3\u003C\u002Fsup> ,[Tianheng Cheng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PH8rJHYAAAAJ&hl=zh-CN)\u003Csup>1,3\u003C\u002Fsup>, [Qian Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=pCY-bikAAAAJ&hl=zh-CN)\u003Csup>3\u003C\u002Fsup>, [Wenyu Liu](http:\u002F\u002Feic.hust.edu.cn\u002Fprofessor\u002Fliuwenyu\u002F)\u003Csup>1\u003C\u002Fsup>, [Chang Huang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=IyyEKyIAAAAJ&hl=zh-CN)\u003Csup>3\u003C\u002Fsup>, [Xinggang Wang](https:\u002F\u002Fxwcv.github.io)\u003Csup>1 :email:\u003C\u002Fsup>\n \n\u003Csup>1\u003C\u002Fsup> School of EIC, HUST, \u003Csup>2\u003C\u002Fsup> Institute of Artificial Intelligence, HUST, \u003Csup>3\u003C\u002Fsup> Horizon Robotics\n\n(\\*) equal contribution, (\u003Csup>:email:\u003C\u002Fsup>) corresponding author.\n\nArXiv Preprint ([arXiv 2208.14437](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14437))\n\n[openreview ICLR'23](https:\u002F\u002Fopenreview.net\u002Fforum?id=k7p_YAO7yE), accepted as **ICLR Spotlight**\n\nextended ArXiv Preprint MapTRv2 ([arXiv 2308.05736](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736)), accepted to [**IJCV 2024**](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11263-024-02235-z)\n\n\u003C\u002Fdiv>\n\n#\n### News\n* **`Feb. 27th, 2025`:** Check out our latest work, [DiffusionDrive](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FDiffusionDrive), accepted to CVPR 2025! This study explores multi-modal end-to-end driving using diffusion models for real-time and real-world applications.\n* **`Oct. 6th, 2024`:** MapTRv2 is accepted to IJCV 2024!\n* **`Feb 20th, 2024`:** MapTRv2-based VADv2 is presented on arXiv  [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.13243)    [project page](https:\u002F\u002Fhgao-cv.github.io\u002FVADv2\u002F).\n* **`Aug. 31th, 2023`:** initial MapTRv2 is released at ***maptrv2*** branch. Please run `git checkout maptrv2` to use it.\n* **`Aug. 14th, 2023`:** As required by many researchers, the code of MapTR-based map annotation framework (VMA) will be released at https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVMA recently.\n* **`Aug. 10th, 2023`:** We release [MapTRv2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736) on Arxiv. MapTRv2 demonstrates much stronger performance and much faster convergence. To better meet the requirement of the downstream planner (like [PDM](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnuplan_garage)), we introduce an extra semantic——centerline (using path-wise modeling proposed by [LaneGAP](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FLaneGAP)). Code & model will be released in late August. Please stay tuned!\n* **`May. 12th, 2023`:** MapTR now support various bevencoder, such as [BEVFormer encoder](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer.py) and [BEVFusion bevpool](projects\\configs\\maptr\\maptr_tiny_r50_24e_bevpool.py). Check it out!\n* **`Apr. 20th, 2023`:** Extending MapTR to a general map annotation framework ([paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.09807.pdf), [code](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVMA)), with high flexibility in terms of spatial scale and element type.\n* **`Mar. 22nd, 2023`:** By leveraging MapTR, VAD ([paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12077), [code](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVAD))  models the driving scene as fully vectorized representation, achieving SoTA end-to-end planning performance!\n* **`Jan. 21st, 2023`:** MapTR is accepted to ICLR 2023 as **Spotlight Presentation**!\n* **`Nov. 11st, 2022`:** We release an initial version of MapTR.\n* **`Aug. 31st, 2022`:** We released our paper on Arxiv. Code\u002FModels are coming soon. Please stay tuned! ☕️\n\n\n## Introduction\n\u003Cdiv align=\"center\">\u003Ch4>MapTR\u002FMapTRv2 is a simple, fast and strong online vectorized HD map construction framework.\u003C\u002Fh4>\u003C\u002Fdiv>\n\n![framework](assets\u002Fteaser.png \"framework\")\n\nHigh-definition (HD) map provides abundant and precise static environmental information of the driving scene, serving as a fundamental and indispensable component for planning in autonomous driving system. In this paper, we present **Map** **TR**ansformer, an end-to-end framework for online vectorized HD map construction. We propose a unified permutation-equivalent modeling approach, i.e., modeling map element as a point set with a group of equivalent permutations, which accurately describes the shape of map element and stabilizes the learning process. We design a hierarchical query embedding scheme to flexibly encode structured map information and perform hierarchical bipartite matching for map element learning. To speed up convergence, we further introduce auxiliary one-to-many matching and dense supervision. The proposed method well copes with various map elements with arbitrary shapes. It runs at real-time inference speed and achieves state-of-the-art performance on both nuScenes and Argoverse2 datasets. Abundant qualitative results show stable and robust map construction quality in complex and various driving scenes.\n\n## Models\n> Results from the [MapTRv2 paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736)\n\n\n![comparison](assets\u002Fcomparison.png \"comparison\")\n\n| Method | Backbone | Lr Schd | mAP| FPS|\n| :---: | :---: | :---: | :---: | :---: \n| MapTR | R18 | 110ep | 45.9 | 35.0| \n| MapTR | R50 | 24ep | 50.3 | 15.1| \n| MapTR | R50 | 110ep | 58.7|15.1|\n| MapTRv2 | R18 | 110ep | 52.3 | 33.7|\n| MapTRv2 | R50 | 24ep | 61.5 | 14.1|\n| MapTRv2 | R50 | 110ep | 68.7 | 14.1|\n| MapTRv2 | V2-99 | 110ep | 73.4 | 9.9|\n\n**Notes**: \n\n- FPS is measured on NVIDIA RTX3090 GPU with batch size of 1 (containing 6 view images).\n- All the experiments are performed on 8 NVIDIA GeForce RTX 3090 GPUs. \n\n> Results from this repo. \n\n### MapTR\n\n\u003Cdiv align=\"center\">\u003Ch4> nuScenes dataset\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| Method | Backbone | BEVEncoder |Lr Schd | mAP| FPS|memory | Config | Download |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTR-nano | R18 |GKT | 110ep |46.3  |35.0| 11907M (bs 24) |[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_nano_r18_110e.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-wVO1pZhFif2igJoz-s451swQvPSto2m\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Hd25seDQKn8Vv6AQxPfSoiu-tY2i4Haa\u002Fview?usp=sharing) |\n| MapTR-tiny | R50 | GKT |24ep | 50.0 |15.1| 10287M (bs 4) | [config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py)|[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1n1FUFnRqdskvmpLdnsuX_VK6pET19h95\u002Fview?usp=share_link) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1nvPkk0EMHV8Q82E9usEKKYx7P38bCx1U\u002Fview?usp=share_link) |\n| MapTR-tiny | R50 |GKT | 110ep | 59.3 |15.1| 10287M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_110e.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1SCF93LEEmXU0hMwPiUz9p2CWbL1FpB1h\u002Fview?usp=share_link) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TQ4j_0Sf2ipzeYsEZZAHYzX4dCUaBqyp\u002Fview?usp=share_link) |\n| MapTR-tiny | Camera & LiDAR | GKT |24ep | 62.7 | 6.0 | 11858M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_fusion_24e.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CFlJrl3ZDj3gIOysf5Cli9bX5LEYSYO4\u002Fview?usp=share_link) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1rb3S4oluxdZjNm2aJ5lBH23jrkYIaJbC\u002Fview?usp=share_link) |\n| MapTR-tiny | R50 | bevpool |24ep | 50.1 | 14.7 | 9817M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevpool.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16PK9XohV55_3qPVDtpXIl4_Iumw9EnfA\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F14nioV3_VV9KehmxK7XcAHxM8X6JH5WIr\u002Fview?usp=sharing) |\n| MapTR-tiny | R50 | bevformer |24ep | 48.7 | 15.0 | 10219M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1y-UBwGBSb2xiV40AuQEBhB-xJyV7VusX\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1r35bRhTGVtyZTP8drXBTOIhLYGCzjEaF\u002Fview?usp=sharing) |\n| MapTR-tiny\u003Csup>+\u003C\u002Fsup> | R50 | GKT |24ep | 51.3 | 15.1 | 15158M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_t4.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1SWmBriDG8vwLXmWTHGVdrRUrDBxzGa3a\u002Fview?usp=drive_link) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1pJmNL7AhmkwA5Er6nZVpw7qApEhcwMFY\u002Fview?usp=drive_link) |\n| MapTR-tiny\u003Csup>+\u003C\u002Fsup> | R50 | bevformer |24ep | 53.3 | 15.0 | 15087M (bs 4)|[config](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer_t4.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1sbXTawEbpV61TwVULCMRRDTLYzZ6SL7U\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1YGI_X6Cb2zV13CHMsDvEs8RJRMzeiUzM\u002Fview?usp=sharing) |\n\n**Notes**: \n\n-  \u003Csup>+\u003C\u002Fsup> means that we introduce temporal setting.\n\n### MapTRv2\nPlease `git checkout maptrv2` and follow the install instruction to use following checkpoint\n\n\u003Cdiv align=\"center\">\u003Ch4> nuScenes dataset\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| Method | Backbone | BEVEncoder |Lr Schd | mAP| FPS|memory | Config | Download |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTRv2| R50 |bevpool | 24ep | 61.4 |14.1| 19426M (bs 24) |[config](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_nusc_r50_24ep.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1AmQ3fT-J-MM4B8kh_9Gm2G5guM92Agww\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1rrAXza6FTYUs8kfr5126qWU6-FNGGMwD\u002Fview?usp=sharing) |\n| MapTRv2*| R50 |bevpool | 24ep | 54.3 |WIP| 20363M (bs 24) |[config](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_nusc_r50_24ep_w_centerline.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1m02OKAKPhzMOaSu_4STVcepY8jbE7v3o\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1cEV7sfiWS0-9Uu1eQEt2xm77l4mAuHMM\u002Fview?usp=sharing) |\n\n\n\u003Cdiv align=\"center\">\u003Ch4> Argoverse2 dataset\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| Method | Backbone | BEVEncoder |Lr Schd | mAP| FPS|memory | Config | Download |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTRv2| R50 |bevpool | 6ep | 64.3 |14.1| 20580 (bs 24) |[config](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_av2_3d_r50_6ep.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18-uyyP4ijjMRizSSOsV0GnPgtMNlPfG5\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Z5-4ATksKZbcfnGLnEc5aEsxA79GlqRN\u002Fview?usp=sharing) |\n| MapTRv2*| R50 |bevpool | 6ep | 61.3 |WIP| 21515 (bs 24) |[config](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_av2_3d_r50_6ep_w_centerline.py) |[model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wXugPxU8HKeGxPAyFdgb53D5_zGmiCen\u002Fview?usp=sharing) \u002F [log](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1vm60KzlGrbz5IEAXgKyqxrOydUF1F-6E\u002Fview?usp=sharing) |\n\n**Notes**: \n\n- \\* means that we introduce an extra semantic——centerline (using path-wise modeling proposed by [LaneGAP](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FLaneGAP)).\n\n## Qualitative results on nuScenes val split and Argoverse2 val split\n\n\u003Cdiv align=\"center\">\u003Ch4> MapTR\u002FMapTRv2 maintains stable and robust map construction quality in various driving scenes.\u003C\u002Fh4>\u003C\u002Fdiv>\n\n![visualization](assets\u002FMapTRv2_av2_visualizations.png \"visualization\")\n\n\n\n### *MapTRv2 on whole nuScenes val split*\n[**Youtube**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=s7McToPNlJ4)\n\n### *MapTRv2 on whole Argoverse2 val split*\n[**Youtube**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nC8W_2BZuys)\n\n\u003C!-- ### *Sunny&Cloudy*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059686-11e4dd4b-46db-4411-b680-17ed6deebda2.mp4\n\n### *Rainy*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059697-94622ddb-e76a-4fa7-9c44-a688d2e439c0.mp4\n\n### *Night*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059706-f7f5a7d8-1d1d-46e0-8be3-c770cf96d694.mp4 -->\n\n### *End-to-end Planning based on MapTR*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26790424\u002F229679664-0e9ba5e8-bf2c-45e0-abbc-36d840ee5cc9.mp4\n\n\n\n## Getting Started\n- [Installation](docs\u002Finstall.md)\n- [Prepare Dataset](docs\u002Fprepare_dataset.md)\n- [Train and Eval](docs\u002Ftrain_eval.md)\n- [Visualization](docs\u002Fvisualization.md)\n\n\n## Catalog\n- [x] temporal modules\n- [x] centerline detection & topology support (refer to ***maptrv2*** branch)\n- [x] multi-modal checkpoints\n- [x] multi-modal code\n- [ ] lidar modality code\n- [x] argoverse2 dataset \n- [x] Nuscenes dataset \n- [x] MapTR checkpoints\n- [x] MapTR code\n- [x] Initialization\n\n## Acknowledgements\n\nMapTR is based on [mmdetection3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d). It is also greatly inspired by the following outstanding contributions to the open-source community: [BEVFusion](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fbevfusion), [BEVFormer](https:\u002F\u002Fgithub.com\u002Ffundamentalvision\u002FBEVFormer), [HDMapNet](https:\u002F\u002Fgithub.com\u002FTsinghua-MARS-Lab\u002FHDMapNet), [GKT](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FGKT), [VectorMapNet](https:\u002F\u002Fgithub.com\u002FMrmoore98\u002FVectorMapNet_code).\n\n## Citation\nIf you find MapTR is useful in your research or applications, please consider giving us a star 🌟 and citing it by the following BibTeX entry.\n```bibtex\n@article{liao2024maptrv2,\n  title={Maptrv2: An end-to-end framework for online vectorized hd map construction},\n  author={Liao, Bencheng and Chen, Shaoyu and Zhang, Yunchi and Jiang, Bo and Zhang, Qian and Liu, Wenyu and Huang, Chang and Wang, Xinggang},\n  journal={International Journal of Computer Vision},\n  pages={1--23},\n  year={2024},\n  publisher={Springer}\n}\n```\n```bibtex\n@inproceedings{MapTR,\n  title={MapTR: Structured Modeling and Learning for Online Vectorized HD Map Construction},\n  author={Liao, Bencheng and Chen, Shaoyu and Wang, Xinggang and Cheng, Tianheng, and Zhang, Qian and Liu, Wenyu and Huang, Chang},\n  booktitle={International Conference on Learning Representations},\n  year={2023}\n}\n```\n```bibtex\n@inproceedings{liao2025lane,\n  title={Lane graph as path: Continuity-preserving path-wise modeling for online lane graph construction},\n  author={Liao, Bencheng and Chen, Shaoyu and Jiang, Bo and Cheng, Tianheng and Zhang, Qian and Liu, Wenyu and Huang, Chang and Wang, Xinggang},\n  booktitle={European Conference on Computer Vision},\n  pages={334--351},\n  year={2024},\n  organization={Springer}\n}\n```\n","\u003Cdiv align=\"center\">\n\u003Ch1>MapTR \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhustvl_MapTR_readme_ff05dc4dad24.png\" width=\"30\">\u003C\u002Fh1>\n\u003Ch3>一种用于在线矢量化高清地图构建的端到端框架\u003C\u002Fh3>\n\n[Bencheng Liao](https:\u002F\u002Fgithub.com\u002FLegendBC)\u003Csup>1,2,3\u003C\u002Fsup> \\*, [Shaoyu Chen](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PIeNN2gAAAAJ&hl=en&oi=sra)\u003Csup>1,3\u003C\u002Fsup> \\*, [Yunchi Zhang](https:\u002F\u002Fgithub.com\u002Fzyc10ud)\u003Csup>1,3\u003C\u002Fsup> , [Bo Jiang](https:\u002F\u002Fgithub.com\u002Frb93dett)\u003Csup>1,3\u003C\u002Fsup> ,[Tianheng Cheng](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=PH8rJHYAAAAJ&hl=zh-CN)\u003Csup>1,3\u003C\u002Fsup>, [Qian Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=pCY-bikAAAAJ&hl=zh-CN)\u003Csup>3\u003C\u002Fsup>, [Wenyu Liu](http:\u002F\u002Feic.hust.edu.cn\u002Fprofessor\u002Fliuwenyu\u002F)\u003Csup>1\u003C\u002Fsup>, [Chang Huang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=IyyEKyIAAAAJ&hl=zh-CN)\u003Csup>3\u003C\u002Fsup>, [Xinggang Wang](https:\u002F\u002Fxwcv.github.io)\u003Csup>1 :email:\u003C\u002Fsup>\n \n\u003Csup>1\u003C\u002Fsup> 华中科技大学电子信息与通信学院，\u003Csup>2\u003C\u002Fsup> 华中科技大学人工智能研究院，\u003Csup>3\u003C\u002Fsup> 地平线机器人\n\n(\\*) 共同第一作者，(\u003Csup>:email:\u003C\u002Fsup>) 通讯作者。\n\nArXiv 预印本 ([arXiv 2208.14437](https:\u002F\u002Farxiv.org\u002Fabs\u002F2208.14437))\n\n[openreview ICLR'23](https:\u002F\u002Fopenreview.net\u002Fforum?id=k7p_YAO7yE)，被接受为 **ICLR Spotlight**\n\n扩展版 ArXiv 预印本 MapTRv2 ([arXiv 2308.05736](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736))，被 **IJCV 2024** 接受 ([link.springer.com\u002Farticle\u002F10.1007\u002Fs11263-024-02235-z](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11263-024-02235-z))\n\n\u003C\u002Fdiv>\n\n#\n### 新闻\n* **`2025年2月27日`:** 查看我们最新成果，[DiffusionDrive](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FDiffusionDrive)，已被 CVPR 2025 接受！本研究探索使用扩散模型进行多模态端到端驾驶，适用于实时和真实世界应用。\n* **`2024年10月6日`:** MapTRv2 被 IJCV 2024 接受！\n* **`2024年2月20日`:** 基于 MapTRv2 的 VADv2 已在 arXiv 上发表 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.13243)    [项目页面](https:\u002F\u002Fhgao-cv.github.io\u002FVADv2\u002F)。\n* **`2023年8月31日`:** 初始 MapTRv2 在 ***maptrv2*** 分支发布。请运行 `git checkout maptrv2` 来使用。\n* **`2023年8月14日`:** 根据众多研究人员的要求，基于 MapTR 的地图标注框架 (VMA) 的代码将于近期在 https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVMA 上发布。\n* **`2023年8月10日`:** 我们在 Arxiv 上发布了 [MapTRv2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736)。MapTRv2 展示了更强的性能和更快的收敛速度。为了更好地满足下游规划器（如 [PDM](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnuplan_garage)）的需求，我们引入了一种额外的语义——中心线（采用 [LaneGAP](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FLaneGAP) 提出的路径建模方法）。代码和模型将于八月底发布。敬请关注！\n* **`2023年5月12日`:** MapTR 现在支持多种 BEV 编码器，例如 [BEVFormer 编码器](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer.py) 和 [BEVFusion BEV 池化](projects\\configs\\maptr\\maptr_tiny_r50_24e_bevpool.py)。快来体验吧！\n* **`2023年4月20日`:** 将 MapTR 扩展为通用的地图标注框架 ([论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.09807.pdf), [代码](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVMA))，在空间尺度和元素类型方面具有高度灵活性。\n* **`2023年3月22日`:** 通过利用 MapTR，VAD（[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.12077), [代码](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FVAD)) 将驾驶场景建模为完全矢量化的表示，实现了当前最佳的端到端规划性能！\n* **`2023年1月21日`:** MapTR 被 ICLR 2023 接受，并作为 **Spotlight Presentation** 进行展示！\n* **`2022年11月11日`:** 我们发布了 MapTR 的初始版本。\n* **`2022年8月31日`:** 我们在 Arxiv 上发表了论文。代码\u002F模型即将发布。敬请关注！☕️\n\n\n## 简介\n\u003Cdiv align=\"center\">\u003Ch4>MapTR\u002FMapTRv2 是一个简单、快速且强大的在线矢量化高清地图构建框架。\u003C\u002Fh4>\u003C\u002Fdiv>\n\n![framework](assets\u002Fteaser.png \"framework\")\n\n高清（HD）地图提供了丰富而精确的驾驶场景静态环境信息，是自动驾驶系统规划中不可或缺的基础组成部分。在本文中，我们提出了 **Map** **TR**ansformer，一种用于在线矢量化高清地图构建的端到端框架。我们提出了一种统一的置换等价建模方法，即把地图元素建模为一组等价置换下的点集，这种方法能够准确描述地图元素的形状并稳定学习过程。我们设计了一种分层查询嵌入方案，以灵活编码结构化的地图信息，并进行分层二部匹配来学习地图元素。为了加快收敛速度，我们进一步引入了辅助的一对多匹配和密集监督。所提出的 方法能够很好地处理各种形状各异的地图元素。它能够在实时推理速度下运行，并在 nuScenes 和 Argoverse2 数据集上均达到当前最先进的性能。丰富的定性结果表明，在复杂多样的驾驶场景中，地图构建质量稳定且鲁棒。\n\n## 模型\n> 来自 [MapTRv2 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05736) 的结果\n\n\n![comparison](assets\u002Fcomparison.png \"comparison\")\n\n| 方法 | 主干网络 | 学习率调度 | mAP | FPS |\n| :---: | :---: | :---: | :---: | :---: \n| MapTR | R18 | 110epoch | 45.9 | 35.0| \n| MapTR | R50 | 24epoch | 50.3 | 15.1| \n| MapTR | R50 | 110epoch | 58.7|15.1|\n| MapTRv2 | R18 | 110epoch | 52.3 | 33.7|\n| MapTRv2 | R50 | 24epoch | 61.5 | 14.1|\n| MapTRv2 | R50 | 110epoch | 68.7 | 14.1|\n| MapTRv2 | V2-99 | 110epoch | 73.4 | 9.9|\n\n**注释**:\n\n- FPS 是在 NVIDIA RTX3090 GPU 上以 batch size 为 1（包含 6 张视图图像）测量的。\n- 所有实验均在 8 块 NVIDIA GeForce RTX 3090 GPU 上进行。\n\n> 来自本仓库的结果。\n\n### MapTR\n\n\u003Cdiv align=\"center\">\u003Ch4> nuScenes 数据集\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| 方法 | 主干网络 | BEV 编码器 | 学习率调度 | mAP | FPS | 显存 | 配置文件 | 下载 |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTR-nano | R18 |GKT | 110epoch |46.3  |35.0| 11907M (bs 24) |[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_nano_r18_110e.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-wVO1pZhFif2igJoz-s451swQvPSto2m\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Hd25seDQKn8Vv6AQxPfSoiu-tY2i4Haa\u002Fview?usp=sharing) |\n| MapTR-tiny | R50 | GKT |24epoch | 50.0 |15.1| 10287M (bs 4) | [配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py)|[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1n1FUFnRqdskvmpLdnsuX_VK6pET19h95\u002Fview?usp=share_link) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1nvPkk0EMHV8Q82E9usEKKYx7P38bCx1U\u002Fview?usp=share_link) |\n| MapTR-tiny | R50 |GKT | 110epoch | 59.3 |15.1| 10287M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_110e.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1SCF93LEEmXU0hMwPiUz9p2CWbL1FpB1h\u002Fview?usp=share_link) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1TQ4j_0Sf2ipzeYsEZZAHYzX4dCUaBqyp\u002Fview?usp=share_link) |\n| MapTR-tiny | 摄像头 & LiDAR | GKT |24epoch | 62.7 | 6.0 | 11858M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_fusion_24e.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1CFlJrl3ZDj3gIOysf5Cli9bX5LEYSYO4\u002Fview?usp=share_link) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1rb3S4oluxdZjNm2aJ5lBH23jrkYIaJbC\u002Fview?usp=share_link) |\n| MapTR-tiny | R50 | bevpool |24epoch | 50.1 | 14.7 | 9817M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevpool.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16PK9XohV55_3qPVDtpXIl4_Iumw9EnfA\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F14nioV3_VV9KehmxK7XcAHxM8X6JH5WIr\u002Fview?usp=sharing) |\n| MapTR-tiny | R50 | bevformer |24epoch | 48.7 | 15.0 | 10219M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1y-UBwGBSb2xiV40AuQEBhB-xJyV7VusX\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1r35bRhTGVtyZTP8drXBTOIhLYGCzjEaF\u002Fview?usp=sharing) |\n| MapTR-tiny\u003Csup>+\u003C\u002Fsup> | R50 | GKT |24epoch | 51.3 | 15.1 | 15158M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_t4.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1SWmBriDG8vwLXmWTHGVdrRUrDBxzGa3a\u002Fview?usp=drive_link) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1pJmNL7AhmkwA5Er6nZVpw7qApEhcwMFY\u002Fview?usp=drive_link) |\n| MapTR-tiny\u003Csup>+\u003C\u002Fsup> | R50 | bevformer |24epoch | 53.3 | 15.0 | 15087M (bs 4)|[配置](projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e_bevformer_t4.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1sbXTawEbpV61TwVULCMRRDTLYzZ6SL7U\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1YGI_X6Cb2zV13CHMsDvEs8RJRMzeiUzM\u002Fview?usp=sharing) |\n\n**注释**: \n\n-  \u003Csup>+\u003C\u002Fsup> 表示我们引入了时序设置。\n\n### MapTRv2\n请执行 `git checkout maptrv2` 并按照安装说明使用以下检查点。\n\n\u003Cdiv align=\"center\">\u003Ch4> nuScenes 数据集\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| 方法 | 主干网络 | BEV 编码器 | 学习率调度 | mAP | FPS | 显存 | 配置文件 | 下载 |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTRv2| R50 |bevpool | 24epoch | 61.4 |14.1| 19426M (bs 24) |[配置](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_nusc_r50_24ep.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1AmQ3fT-J-MM4B8kh_9Gm2G5guM92Agww\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1rrAXza6FTYUs8kfr5126qWU6-FNGGMwD\u002Fview?usp=sharing) |\n| MapTRv2*| R50 |bevpool | 24epoch | 54.3 |进行中| 20363M (bs 24) |[配置](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_nusc_r50_24ep_w_centerline.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1m02OKAKPhzMOaSu_4STVcepY8jbE7v3o\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1cEV7sfiWS0-9Uu1eQEt2xm77l4mAuHMM\u002Fview?usp=sharing) |\n\n\n\u003Cdiv align=\"center\">\u003Ch4> Argoverse2 数据集\u003C\u002Fh4>\u003C\u002Fdiv>\n\n| 方法 | 主干网络 | BEV 编码器 | 学习率调度 | mAP | FPS | 显存 | 配置文件 | 下载 |\n| :---: | :---: | :---: | :---: |  :---: | :---:|:---:| :---: | :---: |\n| MapTRv2| R50 |bevpool | 6epoch | 64.3 |14.1| 20580 (bs 24) |[配置](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_av2_3d_r50_6ep.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18-uyyP4ijjMRizSSOsV0GnPgtMNlPfG5\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1Z5-4ATksKZbcfnGLnEc5aEsxA79GlqRN\u002Fview?usp=sharing) |\n| MapTRv2*| R50 |bevpool | 6epoch | 61.3 |进行中| 21515 (bs 24) |[配置](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fblob\u002Fmaptrv2\u002Fprojects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_av2_3d_r50_6ep_w_centerline.py) |[模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1wXugPxU8HKeGxPAyFdgb53D5_zGmiCen\u002Fview?usp=sharing) \u002F [日志](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1vm60KzlGrbz5IEAXgKyqxrOydUF1F-6E\u002Fview?usp=sharing) |\n\n**注释**: \n\n- \\* 表示我们引入了一个额外的语义——中心线（采用 [LaneGAP](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FLaneGAP) 提出的路径建模方法）。\n\n## nuScenes 验证集和 Argoverse2 验证集上的定性结果\n\n\u003Cdiv align=\"center\">\u003Ch4> MapTR\u002FMapTRv2 在各种驾驶场景中均能保持稳定且鲁棒的地图构建质量。\u003C\u002Fh4>\u003C\u002Fdiv>\n\n![可视化](assets\u002FMapTRv2_av2_visualizations.png \"可视化\")\n\n\n\n### *MapTRv2 在整个 nuScenes 验证集上的表现*\n[**Youtube**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=s7McToPNlJ4)\n\n### *MapTRv2 在整个 Argoverse2 验证集上的表现*\n[**Youtube**](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nC8W_2BZuys)\n\n\u003C!-- ### *晴朗&多云*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059686-11e4dd4b-46db-4411-b680-17ed6deebda2.mp4\n\n### *雨天*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059697-94622ddb-e76a-4fa7-9c44-a688d2e439c0.mp4\n\n### *夜晚*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F31960625\u002F187059706-f7f5a7d8-1d1d-46e0-8be3-c770cf96d694.mp4 -->\n\n### *基于 MapTR 的端到端规划*\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F26790424\u002F229679664-0e9ba5e8-bf2c-45e0-abbc-36d840ee5cc9.mp4\n\n\n\n## 快速入门\n- [安装](docs\u002Finstall.md)\n- [数据集准备](docs\u002Fprepare_dataset.md)\n- [训练与评估](docs\u002Ftrain_eval.md)\n- [可视化](docs\u002Fvisualization.md)\n\n\n## 目录\n- [x] 时序模块\n- [x] 中心线检测及拓扑支持（参考 ***maptrv2*** 分支）\n- [x] 多模态检查点\n- [x] 多模态代码\n- [ ] LiDAR 模态代码\n- [x] argoverse2 数据集 \n- [x] Nuscenes 数据集 \n- [x] MapTR 检查点\n- [x] MapTR 代码\n- [x] 初始化\n\n## 致谢\n\nMapTR 基于 [mmdetection3d](https:\u002F\u002Fgithub.com\u002Fopen-mmlab\u002Fmmdetection3d)。同时，我们也深受以下开源社区杰出贡献的启发：[BEVFusion](https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Fbevfusion)、[BEVFormer](https:\u002F\u002Fgithub.com\u002Ffundamentalvision\u002FBEVFormer)、[HDMapNet](https:\u002F\u002Fgithub.com\u002FTsinghua-MARS-Lab\u002FHDMapNet)、[GKT](https:\u002F\u002Fgithub.com\u002Fhustvl\u002FGKT)、[VectorMapNet](https:\u002F\u002Fgithub.com\u002FMrmoore98\u002FVectorMapNet_code)。\n\n## 引用\n如果您在研究或应用中发现 MapTR 有所帮助，请考虑为我们点个赞 🌟，并使用以下 BibTeX 条目进行引用。\n```bibtex\n@article{liao2024maptrv2,\n  title={Maptrv2: 用于在线矢量化高清地图构建的端到端框架},\n  author={Liao, Bencheng 和 Chen, Shaoyu 和 Zhang, Yunchi 和 Jiang, Bo 和 Zhang, Qian 和 Liu, Wenyu 和 Huang, Chang 和 Wang, Xinggang},\n  journal={国际计算机视觉杂志},\n  pages={1--23},\n  year={2024},\n  publisher={Springer}\n}\n```\n```bibtex\n@inproceedings{MapTR,\n  title={MapTR：面向在线矢量化高清地图构建的结构化建模与学习},\n  author={Liao, Bencheng 和 Chen, Shaoyu 和 Wang, Xinggang 和 Cheng, Tianheng、Zhang, Qian、Liu, Wenyu、Huang, Chang},\n  booktitle={国际学习表示会议},\n  year={2023}\n}\n```\n```bibtex\n@inproceedings{liao2025lane,\n  title={车道图即路径：用于在线车道图构建的保连续性路径式建模},\n  author={Liao, Bencheng 和 Chen, Shaoyu 和 Jiang, Bo 和 Cheng, Tianheng 和 Zhang, Qian 和 Liu, Wenyu 和 Huang, Chang 和 Wang, Xinggang},\n  booktitle={欧洲计算机视觉大会},\n  pages={334--351},\n  year={2024},\n  organization={Springer}\n}\n```","# MapTR 快速上手指南\n\nMapTR 是一个用于在线矢量化高精地图（HD Map）构建的端到端框架，支持 nuScenes 和 Argoverse2 数据集，具备实时推理速度和业界领先的性能。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04)\n*   **GPU**: NVIDIA GPU (显存建议 16GB 以上，训练多卡需 8x RTX 3090 或同等算力)\n*   **CUDA**: 11.1 或更高版本\n*   **Python**: 3.7 - 3.9\n*   **PyTorch**: 1.9.0 或更高版本\n*   **MMCV**: 1.5.0 或更高版本 (需与 PyTorch 版本匹配)\n*   **MMDetection3D**: 0.17.0 或更高版本\n\n**前置依赖安装建议：**\n推荐使用 conda 管理环境。国内用户可使用清华源加速下载。\n\n```bash\nconda create -n maptr python=3.8 -y\nconda activate maptr\n# 使用清华源安装 PyTorch (示例为 CUDA 11.3，请根据实际情况调整)\npip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu113\u002Ftorch_stable.html\n```\n\n## 2. 安装步骤\n\n### 2.1 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR.git\ncd MapTR\n```\n\n> **注意**：如果您需要使用性能更强的 **MapTRv2** 版本，请切换分支：\n> ```bash\n> git checkout maptrv2\n> ```\n\n### 2.2 安装核心依赖\n项目基于 MMDetection3D 开发，需先安装 MMCV 和 MMDetection3D。\n\n```bash\n# 安装 mmcv-full (请根据 torch 和 cuda 版本选择对应命令，此处以 torch1.10+cu113 为例)\npip install mmcv-full==1.5.0 -f https:\u002F\u002Fdownload.openmmlab.com\u002Fmmcv\u002Fdist\u002Fcu113\u002Ftorch1.10\u002Findex.html\n\n# 安装 mmdet 和 mmdet3d\npip install mmdet==2.22.0\npip install mmdet3d==0.17.0\n```\n\n### 2.3 安装 MapTR\n将当前目录作为包进行安装，以便注册自定义模块。\n\n```bash\npip install -e .\n```\n\n## 3. 基本使用\n\n### 3.1 数据准备\n在使用前需下载并处理数据集（nuScenes 或 Argoverse2）。详细的数据转换脚本请参考 `docs\u002Fprepare_dataset.md`。\n\n以 nuScenes 为例，目录结构通常如下：\n```text\ndata\u002F\n├── nuscenes\u002F\n│   ├── maps\u002F\n│   ├── samples\u002F\n│   ├── sweeps\u002F\n│   ├── v1.0-trainval\u002F\n│   └── ...\n```\n*确保已运行官方提供的数据预处理脚本生成所需的 `.pkl` 信息文件。*\n\n### 3.2 模型训练\n使用提供的配置文件启动训练。以下示例使用单节点 8 卡训练 MapTR-tiny (R50 backbone)：\n\n```bash\n.\u002Ftools\u002Fdist_train.sh projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py 8 --work-dir work_dirs\u002Fmaptr_tiny\n```\n\n*   `projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py`: 配置文件路径。\n*   `8`: GPU 数量。\n*   `work_dirs\u002Fmaptr_tiny`: 模型权重和日志输出目录。\n\n若使用 **MapTRv2**，请确保在 `maptrv2` 分支下，并使用对应的 config 路径（如 `projects\u002Fconfigs\u002Fmaptrv2\u002Fmaptrv2_nusc_r50_24ep.py`）。\n\n### 3.3 模型评估\n使用预训练权重在验证集上进行测试：\n\n```bash\n.\u002Ftools\u002Fdist_test.sh projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py work_dirs\u002Fmaptr_tiny\u002Flatest.pth 8 --eval bbox\n```\n\n*   `latest.pth`: 替换为您训练好的或下载的预训练模型路径。\n*   `--eval bbox`: 评估指标，对于地图构建任务通常关注 mAP。\n\n### 3.4 可视化结果\n训练或测试完成后，可生成可视化结果查看地图构建效果：\n\n```bash\npython tools\u002Fvisualization.py projects\u002Fconfigs\u002Fmaptr\u002Fmaptr_tiny_r50_24e.py work_dirs\u002Fmaptr_tiny\u002Flatest.pth --show-dir vis_results\n```\n\n生成的图像将保存在 `vis_results` 目录中，展示相机视角下的矢量化地图元素（车道线、路沿等）。","某自动驾驶初创团队正在开发城市 NOA（导航辅助驾驶）功能，急需在车辆行驶过程中实时构建高精度的矢量地图以支持路径规划。\n\n### 没有 MapTR 时\n- **依赖离线数据**：系统严重依赖预先采集的静态高精地图，一旦遇到道路施工或临时改道，车辆因无法感知最新路况而被迫退出智驾模式。\n- **延迟高且算力浪费**：采用传统的“先生成栅格图、再提取矢量线”的两阶段方案，处理链路长，导致地图更新延迟超过 200ms，难以应对高速变道等紧急场景。\n- **拓扑关系易出错**：后处理算法难以精准判断车道线与人行横道的复杂连接关系，常出现车道断裂或路口拓扑混乱，导致规划器频繁急刹。\n- **泛化能力弱**：模型在未见过的新城市或特殊路口表现不佳，需要大量人工规则进行修补，维护成本极高。\n\n### 使用 MapTR 后\n- **在线实时构建**：MapTR 实现了端到端的在线矢量化建图，车辆仅凭车载传感器即可实时生成当前路段的高精地图，无惧道路临时变更。\n- **推理速度大幅提升**：得益于其结构化建模设计，MapTR 去除了繁琐的后处理步骤，将建图延迟降低至 50ms 以内，显著提升了系统的响应实时性。\n- **拓扑结构更精准**：通过直接预测矢量元素及其拓扑关系，MapTR 能准确还原复杂的路口车道连接，使规划路径更加平滑自然，减少不必要的减速。\n- **泛化性强且易部署**：模型在不同城市场景中表现出极强的鲁棒性，无需针对特定路口编写规则代码，大幅降低了算法迭代和落地维护的难度。\n\nMapTR 通过将高精地图构建从“离线重资产”转变为“在线轻负载”，彻底解决了动态场景下的实时感知与规划难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhustvl_MapTR_ff05dc4d.png","hustvl","HUST Vision Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhustvl_3e2bf80d.png","HUST Vision Lab of the School of EIC in HUST. Lab Lead @xinggangw",null,"https:\u002F\u002Fgithub.com\u002Fhustvl",[80,84,88,92,96,100,103,106],{"name":81,"color":82,"percentage":83},"Python","#3572A5",90.9,{"name":85,"color":86,"percentage":87},"C++","#f34b7d",4.6,{"name":89,"color":90,"percentage":91},"Cuda","#3A4E3A",3.7,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.6,{"name":97,"color":98,"percentage":99},"Batchfile","#C1F12E",0,{"name":101,"color":102,"percentage":99},"Makefile","#427819",{"name":104,"color":105,"percentage":99},"Dockerfile","#384d54",{"name":107,"color":108,"percentage":99},"CSS","#663399",1490,240,"2026-04-17T14:19:22","MIT",4,"Linux","必需 NVIDIA GPU。实验基于 8x NVIDIA GeForce RTX 3090 (24GB 显存) 进行。单卡推理测试使用 RTX 3090。根据显存占用表，训练需至少 12GB-24GB 显存（取决于模型大小和 batch size），推荐 RTX 3090 或更高。CUDA 版本未明确说明，但通常需匹配 PyTorch 版本（建议 11.3+）。","未说明（参考显存占用，系统内存建议 64GB+ 以处理大规模数据集和多卡训练）",{"notes":118,"python":119,"dependencies":120},"1. 该项目基于 MMDetection3D 框架开发，安装前需先配置 mmcv 和 mmdet3d 环境。\n2. 不同模型变体对显存需求差异巨大：MapTR-nano 训练约需 12GB 显存 (bs 24)，而 MapTRv2 训练需约 20GB+ 显存 (bs 24)。\n3. 支持 nuScenes 和 Argoverse2 数据集，需单独下载并预处理。\n4. MapTRv2 版本位于独立的 'maptrv2' 分支，使用时需切换分支。\n5. 支持多种 BEV 编码器（如 BEVFormer, BEVFusion\u002Fbevpool），需在配置文件中指定。","未说明（通常此类项目需要 Python 3.7 或 3.8+）",[121,122,123],"PyTorch","mmcv","mmdetection3d",[35,13],[126,127,128,129,130,131,132,133,134],"bev","end-to-end","real-time","transformer","online-hdmap-construction","shape-representation","vectorized-hdmap","autonomous-driving","iclr2023","2026-03-27T02:49:30.150509","2026-04-19T06:02:49.506417",[138,143,148,153,158,163,168],{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},41797,"如何使用提供的预训练权重进行推理和可视化？","使用可视化工具脚本 `vis_pred.py`，命令格式如下：\n`python .\u002Ftool\u002Fmaptr\u002Fvis_pred.py \u002Fpath\u002Fto\u002Fconfig \u002Fpath\u002Fto\u002Fckpt --gt-format fixed_num_pts polyline_pts --score-thresh 0.4`\n文件摆放位置遵循教程即可，脚本会通过读取 config 自动设置路径，无需专门配置。该脚本用于可视化整个测试集的推理结果。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F15",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},41798,"训练时遇到 CUDA 显存不足（Out of Memory）错误怎么办？","可以通过减少批次大小（batch size）来解决。请修改 `train.py` 中的 `samples_per_gpu` 变量，或者在对应的配置文件（如 `maptr_nano_r18_110e.py`）中降低 batch size 设置。对于显存较小的显卡（如 2GB），必须显著减小批次大小才能运行。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F21",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},41799,"评估结果 mAP 明显低于官方日志记录的值，可能是什么原因？","这通常是由于环境依赖包版本不一致导致的。有用户反馈在更换新的运行环境后得到了预期的结果。建议检查并重新安装相关依赖包，特别是与几何计算或评估指标相关的库，确保环境与官方一致。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F44",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},41800,"模型评估时报错 'numpy.int64' object has no attribute 'intersects' 如何解决？","这是 `shapely` 库版本兼容性问题。请将 `shapely` 版本降级至 `1.8.5.post1`。较高版本（如 2.0b2）会导致 `STRTree` 查询返回的类型变化，从而引发该属性错误。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F11",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},41801,"在哪里可以找到真值（GT）和预测结果的地图可视化代码？","维护者已更新并发布了可视化代码及相关文档。请拉取最新的代码仓库并查看更新后的文档说明，即可使用最新的功能进行 GT 和预测结果的可视化。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F35",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},41802,"Argoverse2 数据集中 lidar 坐标系与 ego 车辆坐标系是否相同？转换矩阵是否有误？","在 Argoverse2 数据集中，代码中的 `lidar2cam` 实际上对应的是 `ego2img`。关于坐标变换，需注意车辆坐标系与 lidar 坐标系的区别。此外，如果在训练管道中对图像进行了填充（Padding）操作（如 `PadMultiViewImage`），相机内参发生变化，但代码中可能未同步更新 `lidar2cam` 矩阵，需自行检查并调整相应的变换逻辑以匹配处理后的图像尺寸。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F107",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},41803,"是否会开源论文表 3 中消融实验使用的其他 2D-to-BEV 变换代码？","目前暂无计划立即发布这部分代码，因为这可能会破坏现有的代码结构，且 2D-to-BEV 变换并非该项目的核心贡献。维护者表示可能会在未来开源项目目录（catalog）中列出的其他部分时一并考虑发布。","https:\u002F\u002Fgithub.com\u002Fhustvl\u002FMapTR\u002Fissues\u002F29",[174],{"id":175,"version":176,"summary_zh":177,"released_at":178},333855,"dataset_annotation","我们提供了MapTRv2中使用的标注文件，这些文件也可以通过我们在***maptrv2***分支中提供的脚本生成。","2023-09-01T16:04:25"]