[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-autonomousvision--navsim":3,"tool-autonomousvision--navsim":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[26,15,13,45],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":101,"github_topics":102,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":106,"updated_at":107,"faqs":108,"releases":139},2083,"autonomousvision\u002Fnavsim","navsim","[CoRL '25] Pseudo-Simulation for Autonomous Driving; [NeurIPS '24] NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking","navsim 是一款专为自动驾驶研发设计的“伪仿真”评估工具，旨在解决传统测试方法在效率与真实性之间难以兼顾的痛点。传统的开环评估虽然计算速度快，但无法反映车辆决策对环境的实际影响；而闭环仿真虽能模拟动态交互，却往往因场景构建复杂、计算成本高且缺乏真实感而难以大规模推广。\n\nnavsim 创新性地提出了一种数据驱动的评估范式：它基于真实的驾驶数据，仅在车辆规划轨迹附近生成合成的观测信息，从而在保留真实世界复杂性的同时，高效模拟出车辆行为引发的环境反馈。这种方法既拥有开环评估的高速特性，又能达到与闭环仿真高度一致的评价准确性，极大地降低了大规模算法迭代的门槛。\n\n该工具特别适合自动驾驶领域的算法研究人员、工程师以及高校学者使用，尤其是那些致力于端到端驾驶模型开发、需要频繁验证策略有效性并关注榜单排名的团队。作为 NeurIPS 2024 和 CoRL 2025 的获奖成果，navsim 不仅提供了严谨的基准测试平台（Benchmark），还配套了公开的排行榜，帮助开发者快速定位模型短板，推动自动驾驶技术从实验室走向现实道路。","\u003Cdiv id=\"top\" align=\"center\">\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_navsim_readme_b95c8e6deabd.png\" width=\"600\">\n  \u003Ch2 align=\"center\">Pseudo-Simulation for Autonomous Driving\u003C\u002Fh1>\n  \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.04218\">Paper\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fvveicao.github.io\u002Fprojects\u002FNavsimV2\u002FCao2025_supp.pdf\">Supplementary\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-navhard\"> Public Leaderboard v2 (navhard)\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024-P\u002Fe2e-driving-navtest\"> Public Leaderboard v1 (navtest)\u003C\u002Fa> \u003C\u002Fh3>\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\u003Cbr\u002F>\n\n> [**Pseudo-Simulation for Autonomous Driving**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.04218)\n>\n> [Wei Cao](https:\u002F\u002Fvveicao.github.io\u002F)\u003Csup>3,5\u003C\u002Fsup>, [Marcel Hallgarten](https:\u002F\u002Fmh0797.github.io\u002F)\u003Csup>1,3,6\u003C\u002Fsup>, [Tianyu Li](https:\u002F\u002Fgithub.com\u002Fsephyli)\u003Csup>4\u003C\u002Fsup>, [Daniel Dauner](https:\u002F\u002Fdanieldauner.github.io\u002F)\u003Csup>1\u003C\u002Fsup>, [Xunjiang Gu](https:\u002F\u002Falfredgu001324.github.io\u002F)\u003Csup>6\u003C\u002Fsup>, [Caojun Wang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=35xHlDUAAAAJ)\u003Csup>4\u003C\u002Fsup>, [Yakov Miron](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fyakov-miron-0826121b\u002F)\u003Csup>3\u003C\u002Fsup>,\\\n> [Marco Aiello](https:\u002F\u002Fwww.iaas.uni-stuttgart.de\u002Fen\u002Finstitute\u002Fteam\u002FAiello-00001\u002F)\u003Csup>5\u003C\u002Fsup>, [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>4\u003C\u002Fsup>, [Igor Gilitschenski](https:\u002F\u002Fwww.gilitschenski.org\u002Figor\u002F)\u003Csup>6,7\u003C\u002Fsup>, [Boris Ivanovic](https:\u002F\u002Fwww.borisivanovic.com\u002F)\u003Csup>2\u003C\u002Fsup>, [Marco Pavone](https:\u002F\u002Fweb.stanford.edu\u002F~pavone\u002F)\u003Csup>2,8\u003C\u002Fsup>, [Andreas Geiger](https:\u002F\u002Fwww.cvlibs.net\u002F)\u003Csup>1\u003C\u002Fsup>, and [Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>  \u003Cbr>\n>\n> \u003Csup>1\u003C\u002Fsup>University of Tübingen, Tübingen AI Center, \u003Csup>2\u003C\u002Fsup>NVIDIA Research, \u003Csup>3\u003C\u002Fsup>Robert Bosch GmbH\\\n> \u003Csup>4\u003C\u002Fsup>OpenDriveLab at Shanghai Innovation Institute, \u003Csup>5\u003C\u002Fsup>University of Stuttgart, \u003Csup>6\u003C\u002Fsup>University of Toronto, \u003Csup>7\u003C\u002Fsup>Vector Institute, \u003Csup>8\u003C\u002Fsup>Stanford University\n>\n> Conference on Robot Learning (CoRL), 2025\n\u003Cbr\u002F>\n\nThe main branch contains the code for NAVSIM v2, used in the 2025 NAVSIM challenge. \u003Cb style='color:red;'>For NAVSIM v1, as well as its `navtest` leaderboard, which are also part of this repository, please check the [v1.1 branch](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.1).\u003C\u002Fb>\n\n\u003Cbr\u002F>\n\n> [**NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15349)\n>\n> [Daniel Dauner](https:\u002F\u002Fdanieldauner.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>, [Marcel Hallgarten](https:\u002F\u002Fmh0797.github.io\u002F)\u003Csup>1,5\u003C\u002Fsup>, [Tianyu Li](https:\u002F\u002Fgithub.com\u002Fsephyli)\u003Csup>3\u003C\u002Fsup>, [Xinshuo Weng](https:\u002F\u002Fxinshuoweng.com\u002F)\u003Csup>4\u003C\u002Fsup>, [Zhiyu Huang](https:\u002F\u002Fmczhi.github.io\u002F)\u003Csup>4,6\u003C\u002Fsup>, [Zetong Yang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oPiZSVYAAAAJ)\u003Csup>3\u003C\u002Fsup>,\\\n> [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>3\u003C\u002Fsup>, [Igor Gilitschenski](https:\u002F\u002Fwww.gilitschenski.org\u002Figor\u002F)\u003Csup>7,8\u003C\u002Fsup>, [Boris Ivanovic](https:\u002F\u002Fwww.borisivanovic.com\u002F)\u003Csup>4\u003C\u002Fsup>, [Marco Pavone](https:\u002F\u002Fweb.stanford.edu\u002F~pavone\u002F)\u003Csup>4,9\u003C\u002Fsup>, [Andreas Geiger](https:\u002F\u002Fwww.cvlibs.net\u002F)\u003Csup>1,2\u003C\u002Fsup>, and [Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>  \u003Cbr>\n>\n> \u003Csup>1\u003C\u002Fsup>University of Tübingen, \u003Csup>2\u003C\u002Fsup>Tübingen AI Center, \u003Csup>3\u003C\u002Fsup>OpenDriveLab at Shanghai AI Lab, \u003Csup>4\u003C\u002Fsup>NVIDIA Research\\\n> \u003Csup>5\u003C\u002Fsup>Robert Bosch GmbH, \u003Csup>6\u003C\u002Fsup>Nanyang Technological University, \u003Csup>7\u003C\u002Fsup>University of Toronto, \u003Csup>8\u003C\u002Fsup>Vector Institute, \u003Csup>9\u003C\u002Fsup>Stanford University\n>\n> Advances in Neural Information Processing Systems (NeurIPS), 2024 \\\n> Track on Datasets and Benchmarks\n\u003Cbr\u002F>\n\n\n## Highlights \u003Ca name=\"highlight\">\u003C\u002Fa>\n\n🚀 **TL;DR:** We introduce Pseudo-Simulation, a novel AV evaluation methodology that combines the efficiency of open-loop evaluation with the robustness of closed-loop evaluation. By augmenting real data with synthetic observations near the planned trajectory, pseudo-simulation achieves strong correlation with closed-loop simulation while being much faster and easier to scale.\n\n🤔 **Motivation:** Current AV evaluation methods face critical trade-offs: closed-loop simulation is resource-intensive and requires model access rather than just model predictions, while open-loop evaluation overlooks important factors such as error recovery and behavior deviation from the expert path. An evaluation paradigm bridging the gap is required for large-scale, rapid validation.\n\n🏆 **Highlights:** Pseudo-simulation achieves a strong correlation with traditional, computationally expensive closed-loop simulations while requiring 6x less compute. Unlike traditional closed-loop simulation, pseudo-simulation is neither sequential nor interactive, enabling the open-loop computation of all evaluation metrics in our leaderboard. It served as the primary evaluation framework for the \u003Ca href=\"https:\u002F\u002Fopendrivelab.com\u002Fchallenge2025\u002F#navsim-e2e-driving\">AGC2025 NAVSIM End-to-End Driving Challenge\u003C\u002Fa>.\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_navsim_readme_701cf69cd076.png)\n\n## Table of Contents\n\n1. [Highlights](#highlight)\n2. [Getting started](#gettingstarted)\n3. [Changelog](#changelog)\n4. [License and citation](#licenseandcitation)\n5. [Other resources](#otherresources)\n\n## Getting started \u003Ca name=\"gettingstarted\">\u003C\u002Fa>\n\n- [Download and installation](docs\u002Finstall.md)\n- [Understanding and creating agents](docs\u002Fagents.md)\n- [Understanding the data format and classes](docs\u002Fcache.md)\n- [Dataset splits vs. filtered training \u002F test splits](docs\u002Fsplits.md)\n- [Understanding the Extended PDM Score](docs\u002Fmetrics.md)\n- [Understanding the traffic simulation](docs\u002Ftraffic_agents.md)\n- [Submitting to the Leaderboard](docs\u002Fsubmission.md)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Changelog \u003Ca name=\"changelog\">\u003C\u002Fa>\n- **`[2025\u002F09\u002F29]`** Bugfix\n  - Fixed a bug in metric filtering where `\"multiplicative_metrics_prod\"` and `\"weighted_metrics\"` were not correctly excluded by the human filter (see [Issue #151](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F151#issue-3379282167)).\n- **`[2025\u002F07\u002F16]`** **[[ICCV] Hugging Face Warmup leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv)**   release \n  - This release introduces a **registration system**:  \n    - After logging in with your Hugging Face account, click Register and fill in your team information  \n    - The admin will review your registration request within 24 hours  \n- **`[2025\u002F04\u002F28]`** NAVSIM v2.2 release (official devkit version for [AGC 2025](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2025\u002F#navsim-e2e-driving))\n  - Release of `private_test_hard` dataset (see [splits](docs\u002Fsplits.md)) for the [HuggingFace NAVSIM v2 End-to-End Driving Challenge 2025 Leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-2025).\n    - The submission deadline is 2025-05-11 00:00:00 UTC\n    - You are limited to one upload per day on the challenge leaderboard, which should take approximately 2 hours to evaluate after a succesful submission.\n  - Fixed bug in `openscene_meta_datas` for `navhard` and `warmup`\n    - If you used `navhard_two_stage\u002Fopenscene_meta_datas` or `warmup_two_stage\u002Fopenscene_meta_datas` to evaluate your model, please re-download and use the new data.\n  - ⚠️ **IMPORTANT**: Using the `test`\u002F`navtest`\u002F`navhard_two_stage`\u002F`warmup_two_stage`\u002F`private_test_two_stage` splits for training your challenge submissions is not allowed.\n    - Using any other publicly available datasets or pretrained weights is allowed.\n    - Furthermore, to be eligible for awards, the use of data must be described explicitly in the technical report for your submission.\n- **`[2025\u002F04\u002F24]`** [NAVSIM v2.1.2](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1.2) release\n  - Release of `navhard_two_stage` dataset (see [splits](docs\u002Fsplits.md))\n  - Updated Extended Predictive Driver Model Score (EPDMS) for the [Hugging Face Warmup leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv). See see [metrics](docs\u002Fmetrics.md) for details regarding the implementation.\n- **`[2025\u002F04\u002F13]`** [NAVSIM v2.1.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1.1) release\n  - Updated dataset for the warmup leaderboard with minor fixes\n- **`[2025\u002F04\u002F08]`** [NAVSIM v2.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1) release\n  - Added new dataset for the [Hugging Face Warmup leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv) (see [submission](docs\u002Fsubmission.md))\n  - Introduced support for two-stage reactive traffic agents (see [traffic simulation](docs\u002Fmetrics.md))\n- **`[2025\u002F02\u002F28]`** [NAVSIM v2.0](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.0) release\n  - Extends the PDM Score with more metrics and penalties (see [metrics](docs\u002Fmetrics.md))\n  - Adds a new two-stage pseudo closed-loop simulation (see [metrics](docs\u002Fmetrics.md))\n  - Adds support for reactive traffic agent policies (see [traffic simulation](docs\u002Fmetrics.md))\n- **`[2024\u002F09\u002F03]`** [NAVSIM v1.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.1) release\n  - Leaderboard for `navtest` on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024-P\u002Fe2e-driving-navsim)\n  - Release of baseline checkpoints on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fautonomousvision\u002Fnavsim_baselines)\n  - Updated docs for [submission](docs\u002Fsubmission.md) and [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15349)\n- **`[2024\u002F04\u002F21]`** [NAVSIM v1.0](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.0) release (official devkit version for [AGC 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#end_to_end_driving_at_scale))\n  - Parallelization of metric caching \u002F evaluation\n  - Adds [Transfuser](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15997) baseline (see [agents](docs\u002Fagents.md#Baselines))\n  - Adds standardized training and test filtered splits (see [splits](docs\u002Fsplits.md))\n  - Visualization tools (see [tutorial_visualization.ipynb](tutorial\u002Ftutorial_visualization.ipynb))\n- **`[2024\u002F04\u002F03]`** [NAVSIM v0.4](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.4) release\n  - Support for test phase frames of competition\n  - Download script for trainval\n  - Egostatus MLP Agent and training pipeline\n- **`[2024\u002F03\u002F25]`** [NAVSIM v0.3](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.3) release\n  - Adds code for Leaderboard submission\n- **`[2024\u002F03\u002F11]`** [NAVSIM v0.2](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.2) release\n  - Easier installation and download\n  - mini and test data split integration\n  - Privileged `Human` agent\n- **`[2024\u002F02\u002F20]`** [NAVSIM v0.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.1) release (initial demo)\n  - OpenScene-mini sensor blobs and annotation logs\n  - Naive `ConstantVelocity` agent\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## License and citation \u003Ca name=\"licenseandcitation\">\u003C\u002Fa>\n\nAll assets and code in this repository are under the [Apache 2.0 license](.\u002FLICENSE) unless specified otherwise. The datasets (including nuPlan and OpenScene) inherit their own distribution licenses. Please consider citing our papers if they help your research.\n\n```BibTeX\n@inproceedings{Cao2025CORL, \n\tauthor = {Wei Cao and Marcel Hallgarten and Tianyu Li and Daniel Dauner and Xunjiang Gu and Caojun Wang and Yakov Miron and Marco Aiello and Hongyang Li and Igor Gilitschenski and Boris Ivanovic and Marco Pavone and Andreas Geiger and Kashyap Chitta}, \n\ttitle = {Pseudo-Simulation for Autonomous Driving}, \n\tbooktitle = {Conference on Robot Learning (CoRL)}, \n\tyear = {2025}, \n}\n```\n\n```BibTeX\n@inproceedings{Dauner2024NEURIPS,\n\ttitle = {NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking},\n\tauthor = {Daniel Dauner and Marcel Hallgarten and Tianyu Li and Xinshuo Weng and Zhiyu Huang and Zetong Yang and Hongyang Li and Igor Gilitschenski and Boris Ivanovic and Marco Pavone and Andreas Geiger and Kashyap Chitta},\n\tbooktitle = {Advances in Neural Information Processing Systems (NeurIPS)},\n\tyear = {2024},\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n\n## Other resources \u003Ca name=\"otherresources\">\u003C\u002Fa>\n\n- [SLEDGE](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsledge) | [tuPlan garage](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Ftuplan_garage) | [CARLA garage](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fcarla_garage) | [Survey on E2EAD](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FEnd-to-end-Autonomous-Driving)\n- [PlanT](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fplant) | [KING](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fking) | [TransFuser](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Ftransfuser) | [NEAT](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fneat)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">back to top\u003C\u002Fa>)\u003C\u002Fp>\n","\u003Cdiv id=\"top\" align=\"center\">\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_navsim_readme_b95c8e6deabd.png\" width=\"600\">\n  \u003Ch2 align=\"center\">自动驾驶伪仿真\u003C\u002Fh1>\n  \u003Ch3 align=\"center\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.04218\">论文\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fvveicao.github.io\u002Fprojects\u002FNavsimV2\u002FCao2025_supp.pdf\">补充材料\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-navhard\">公开排行榜 v2（navhard）\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024-P\u002Fe2e-driving-navtest\">公开排行榜 v1（navtest）\u003C\u002Fa> \u003C\u002Fh3>\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\u003Cbr\u002F>\n\n> [**自动驾驶伪仿真**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.04218)\n>\n> [Wei Cao](https:\u002F\u002Fvveicao.github.io\u002F)\u003Csup>3,5\u003C\u002Fsup>, [Marcel Hallgarten](https:\u002F\u002Fmh0797.github.io\u002F)\u003Csup>1,3,6\u003C\u002Fsup>, [Tianyu Li](https:\u002F\u002Fgithub.com\u002Fsephyli)\u003Csup>4\u003C\u002Fsup>, [Daniel Dauner](https:\u002F\u002Fdanieldauner.github.io\u002F)\u003Csup>1\u003C\u002Fsup>, [Xunjiang Gu](https:\u002F\u002Falfredgu001324.github.io\u002F)\u003Csup>6\u003C\u002Fsup>, [Caojun Wang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=35xHlDUAAAAJ)\u003Csup>4\u003C\u002Fsup>, [Yakov Miron](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fyakov-miron-0826121b\u002F)\u003Csup>3\u003C\u002Fsup>,\\\n> [Marco Aiello](https:\u002F\u002Fwww.iaas.uni-stuttgart.de\u002Fen\u002Finstitute\u002Fteam\u002FAiello-00001\u002F)\u003Csup>5\u003C\u002Fsup>, [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>4\u003C\u002Fsup>, [Igor Gilitschenski](https:\u002F\u002Fwww.gilitschenski.org\u002Figor\u002F)\u003Csup>6,7\u003C\u002Fsup>, [Boris Ivanovic](https:\u002F\u002Fwww.borisivanovic.com\u002F)\u003Csup>2\u003C\u002Fsup>, [Marco Pavone](https:\u002F\u002Fweb.stanford.edu\u002F~pavone\u002F)\u003Csup>2,8\u003C\u002Fsup>, [Andreas Geiger](https:\u002F\u002Fwww.cvlibs.net\u002F)\u003Csup>1\u003C\u002Fsup>, and [Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>  \u003Cbr>\n>\n> \u003Csup>1\u003C\u002Fsup>图宾根大学，图宾根人工智能中心，\u003Csup>2\u003C\u002Fsup>NVIDIA 研究所，\u003Csup>3\u003C\u002Fsup>罗伯特·博世公司\\\n> \u003Csup>4\u003C\u002Fsup>上海创新研究院 OpenDriveLab，\u003Csup>5\u003C\u002Fsup>斯图加特大学，\u003Csup>6\u003C\u002Fsup>多伦多大学，\u003Csup>7\u003C\u002Fsup>Vector 研究所，\u003Csup>8\u003C\u002Fsup>斯坦福大学\n>\n> 机器人学习大会 (CoRL), 2025\n\u003Cbr\u002F>\n\n主分支包含用于 2025 年 NAVSIM 挑战赛的 NAVSIM v2 代码。\u003Cb style='color:red;'>关于 NAVSIM v1 及其 `navtest` 排行榜，它们也属于本仓库的一部分，请查看 [v1.1 分支](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.1)。\u003C\u002Fb>\n\n\u003Cbr\u002F>\n\n> [**NAVSIM：数据驱动的非反应式自动驾驶车辆仿真与基准测试**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15349)\n>\n> [Daniel Dauner](https:\u002F\u002Fdanieldauner.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>, [Marcel Hallgarten](https:\u002F\u002Fmh0797.github.io\u002F)\u003Csup>1,5\u003C\u002Fsup>, [Tianyu Li](https:\u002F\u002Fgithub.com\u002Fsephyli)\u003Csup>3\u003C\u002Fsup>, [Xinshuo Weng](https:\u002F\u002Fxinshuoweng.com\u002F)\u003Csup>4\u003C\u002Fsup>, [Zhiyu Huang](https:\u002F\u002Fmczhi.github.io\u002F)\u003Csup>4,6\u003C\u002Fsup>, [Zetong Yang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oPiZSVYAAAAJ)\u003Csup>3\u003C\u002Fsup>,\\\n> [Hongyang Li](https:\u002F\u002Flihongyang.info\u002F)\u003Csup>3\u003C\u002Fsup>, [Igor Gilitschenski](https:\u002F\u002Fwww.gilitschenski.org\u002Figor\u002F)\u003Csup>7,8\u003C\u002Fsup>, [Boris Ivanovic](https:\u002F\u002Fwww.borisivanovic.com\u002F)\u003Csup>4\u003C\u002Fsup>, [Marco Pavone](https:\u002F\u002Fweb.stanford.edu\u002F~pavone\u002F)\u003Csup>4,9\u003C\u002Fsup>, [Andreas Geiger](https:\u002F\u002Fwww.cvlibs.net\u002F)\u003Csup>1,2\u003C\u002Fsup>, and [Kashyap Chitta](https:\u002F\u002Fkashyap7x.github.io\u002F)\u003Csup>1,2\u003C\u002Fsup>  \u003Cbr>\n>\n> \u003Csup>1\u003C\u002Fsup>图宾根大学，\u003Csup>2\u003C\u002Fsup>图宾根人工智能中心，\u003Csup>3\u003C\u002Fsup>上海人工智能实验室 OpenDriveLab，\u003Csup>4\u003C\u002Fsup>NVIDIA 研究所\\\n> \u003Csup>5\u003C\u002Fsup>罗伯特·博世公司，\u003Csup>6\u003C\u002Fsup>南洋理工大学，\u003Csup>7\u003C\u002Fsup>多伦多大学，\u003Csup>8\u003C\u002Fsup>Vector 研究所，\u003Csup>9\u003C\u002Fsup>斯坦福大学\n>\n> 神经信息处理系统进展会议 (NeurIPS), 2024 \\\n> 数据集与基准测试赛道\n\u003Cbr\u002F>\n\n\n## 亮点 \u003Ca name=\"highlight\">\u003C\u002Fa>\n\n🚀 **简而言之：** 我们提出了伪仿真这一全新的自动驾驶车辆评估方法，它结合了开环评估的高效性与闭环评估的鲁棒性。通过在规划轨迹附近用合成观测数据增强真实数据，伪仿真能够与闭环仿真保持高度相关，同时速度更快、更易于扩展。\n\n🤔 **动机：** 当前的自动驾驶车辆评估方法存在关键权衡：闭环仿真资源消耗巨大，且需要访问模型而非仅依赖模型预测；而开环评估则忽略了诸如误差恢复和行为偏离专家路径等重要因素。为了实现大规模、快速的验证，亟需一种能够弥合两者差距的评估范式。\n\n🏆 **亮点：** 伪仿真与传统的、计算成本高昂的闭环仿真具有高度相关性，但所需计算量仅为后者的六分之一。与传统闭环仿真不同，伪仿真既不是顺序执行的，也不是交互式的，因此可以在我们的排行榜中以开环方式计算所有评估指标。它曾作为 \u003Ca href=\"https:\u002F\u002Fopendrivelab.com\u002Fchallenge2025\u002F#navsim-e2e-driving\">AGC2025 NAVSIM 端到端驾驶挑战赛\u003C\u002Fa> 的主要评估框架。\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_navsim_readme_701cf69cd076.png)\n\n## 目录\n\n1. [亮点](#highlight)\n2. [入门指南](#gettingstarted)\n3. [更新日志](#changelog)\n4. [许可与引用](#licenseandcitation)\n5. [其他资源](#otherresources)\n\n## 入门指南 \u003Ca name=\"gettingstarted\">\u003C\u002Fa>\n\n- [下载与安装](docs\u002Finstall.md)\n- [理解并创建智能体](docs\u002Fagents.md)\n- [理解数据格式与类](docs\u002Fcache.md)\n- [数据集划分 vs. 过滤后的训练\u002F测试划分](docs\u002Fsplits.md)\n- [理解扩展 PDM 分数](docs\u002Fmetrics.md)\n- [理解交通仿真](docs\u002Ftraffic_agents.md)\n- [提交至排行榜](docs\u002Fsubmission.md)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 更改记录 \u003Ca name=\"changelog\">\u003C\u002Fa>\n- **`[2025\u002F09\u002F29]`** 修复错误\n  - 修复了指标筛选中的一个错误，该错误导致 `\"multiplicative_metrics_prod\"` 和 `\"weighted_metrics\"` 未能被人工筛选正确排除（参见 [Issue #151](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F151#issue-3379282167)）。\n- **`[2025\u002F07\u002F16]`** **[[ICCV] Hugging Face 热身排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv)** 发布 \n  - 此版本引入了**注册系统**：  \n    - 使用您的 Hugging Face 账户登录后，点击“注册”并填写团队信息  \n    - 管理员将在 24 小时内审核您的注册请求  \n- **`[2025\u002F04\u002F28]`** NAVSIM v2.2 发布（用于 [AGC 2025](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2025\u002F#navsim-e2e-driving) 的官方开发工具包版本）\n  - 发布了 `private_test_hard` 数据集（参见 [splits](docs\u002Fsplits.md)），用于 [HuggingFace NAVSIM v2 端到端驾驶挑战赛 2025 排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-2025)。\n    - 提交截止日期为 2025 年 5 月 11 日 00:00:00 UTC\n    - 您每天在挑战赛排行榜上仅限一次上传，成功提交后大约需要 2 小时进行评估。\n  - 修复了 `navhard` 和 `warmup` 的 `openscene_meta_datas` 中的错误\n    - 如果您曾使用 `navhard_two_stage\u002Fopenscene_meta_datas` 或 `warmup_two_stage\u002Fopenscene_meta_datas` 来评估模型，请重新下载并使用新数据。\n  - ⚠️ **重要提示**：不允许将 `test`\u002F`navtest`\u002F`navhard_two_stage`\u002F`warmup_two_stage`\u002F`private_test_two_stage` 分割用于训练您的挑战赛提交内容。\n    - 允许使用任何其他公开可用的数据集或预训练权重。\n    - 此外，为了有资格获得奖项，必须在您的提交技术报告中明确说明所使用的数据。\n- **`[2025\u002F04\u002F24]`** [NAVSIM v2.1.2](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1.2) 发布\n  - 发布了 `navhard_two_stage` 数据集（参见 [splits](docs\u002Fsplits.md)）\n  - 更新了 [Hugging Face 热身排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv) 的扩展预测驾驶员模型评分 (EPDMS)。有关实现细节，请参阅 [metrics](docs\u002Fmetrics.md)。\n- **`[2025\u002F04\u002F13]`** [NAVSIM v2.1.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1.1) 发布\n  - 对热身排行榜的数据集进行了更新，并包含一些小修复。\n- **`[2025\u002F04\u002F08]`** [NAVSIM v2.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.1) 发布\n  - 为 [Hugging Face 热身排行榜](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup-iccv) 添加了新的数据集（参见 [submission](docs\u002Fsubmission.md)）\n  - 引入了对两阶段反应式交通代理的支持（参见 [traffic simulation](docs\u002Fmetrics.md)）。\n- **`[2025\u002F02\u002F28]`** [NAVSIM v2.0](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv2.0) 发布\n  - 在 PDM 评分中增加了更多指标和惩罚项（参见 [metrics](docs\u002Fmetrics.md)）\n  - 添加了新的两阶段伪闭环仿真（参见 [metrics](docs\u002Fmetrics.md)）\n  - 增加了对反应式交通代理策略的支持（参见 [traffic simulation](docs\u002Fmetrics.md)）。\n- **`[2024\u002F09\u002F03]`** [NAVSIM v1.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.1) 发布\n  - 在 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024-P\u002Fe2e-driving-navsim) 上发布了 `navtest` 的排行榜\n  - 在 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fautonomousvision\u002Fnavsim_baselines) 上发布了基线检查点\n  - 更新了关于 [submission](docs\u002Fsubmission.md) 和 [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15349) 的文档。\n- **`[2024\u002F04\u002F21]`** [NAVSIM v1.0](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv1.0) 发布（用于 [AGC 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#end_to_end_driving_at_scale) 的官方开发工具包版本）\n  - 实现了指标缓存\u002F评估的并行化\n  - 添加了 [Transfuser](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15997) 基线（参见 [agents](docs\u002Fagents.md#Baselines)）\n  - 添加了标准化的训练和测试过滤分割（参见 [splits](docs\u002Fsplits.md)）\n  - 可视化工具（参见 [tutorial_visualization.ipynb](tutorial\u002Ftutorial_visualization.ipynb)）\n- **`[2024\u002F04\u002F03]`** [NAVSIM v0.4](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.4) 发布\n  - 支持比赛的测试阶段帧\n  - 提供 trainval 下载脚本\n  - 自我状态 MLP 代理及训练流程。\n- **`[2024\u002F03\u002F25]`** [NAVSIM v0.3](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.3) 发布\n  - 增加了用于排行榜提交的代码。\n- **`[2024\u002F03\u002F11]`** [NAVSIM v0.2](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.2) 发布\n  - 安装和下载更加简便\n  - 集成了 mini 和 test 数据分割\n  - 特权 `Human` 代理。\n- **`[2024\u002F02\u002F20]`** [NAVSIM v0.1](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Ftree\u002Fv0.1) 发布（初始演示版）\n  - OpenScene-mini 传感器数据块和标注日志\n  - 天真 `ConstantVelocity` 代理。\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 许可证与引用 \u003Ca name=\"licenseandcitation\">\u003C\u002Fa>\n\n除非另有说明，本仓库中的所有资产和代码均受 [Apache 2.0 许可证](.\u002FLICENSE) 管辖。数据集（包括 nuPlan 和 OpenScene）则遵循其各自的分发许可证。如果您在研究中使用了我们的论文，请考虑引用它们。\n\n```BibTeX\n@inproceedings{Cao2025CORL, \n\tauthor = {Wei Cao and Marcel Hallgarten and Tianyu Li and Daniel Dauner and Xunjiang Gu and Caojun Wang and Yakov Miron and Marco Aiello and Hongyang Li and Igor Gilitschenski and Boris Ivanovic and Marco Pavone and Andreas Geiger and Kashyap Chitta}, \n\ttitle = {Pseudo-Simulation for Autonomous Driving}, \n\tbooktitle = {Conference on Robot Learning (CoRL)}, \n\tyear = {2025}, \n}\n```\n\n```BibTeX\n@inproceedings{Dauner2024NEURIPS,\n\ttitle = {NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking},\n\tauthor = {Daniel Dauner and Marcel Hallgarten and Tianyu Li and Xinshuo Weng and Zhiyu Huang and Zetong Yang and Hongyang Li and Igor Gilitschenski and Boris Ivanovic and Marco Pavone and Andreas Geiger and Kashyap Chitta},\n\tbooktitle = {Advances in Neural Information Processing Systems (NeurIPS)},\n\tyear = {2024},\n}\n```\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>\n\n## 其他资源 \u003Ca name=\"otherresources\">\u003C\u002Fa>\n\n- [SLEDGE](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fsledge) | [tuPlan garage](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Ftuplan_garage) | [CARLA garage](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fcarla_garage) | [E2EAD 调查](https:\u002F\u002Fgithub.com\u002FOpenDriveLab\u002FEnd-to-end-Autonomous-Driving)\n- [PlanT](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fplant) | [KING](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fking) | [TransFuser](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Ftransfuser) | [NEAT](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fneat)\n\n\u003Cp align=\"right\">(\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>)\u003C\u002Fp>","# NAVSIM 快速上手指南\n\nNAVSIM 是一个用于自动驾驶的“伪仿真”（Pseudo-Simulation）评估框架。它结合了开环评估的高效性和闭环评估的鲁棒性，通过在规划轨迹附近增强真实数据合成观测值，实现了与昂贵闭环仿真高度相关但计算成本低得多的评估方式。该工具是 AGC2025 端到端驾驶挑战赛的核心评估平台。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04 或更高版本)\n*   **Python**: 3.9 或更高版本\n*   **硬件**: 建议使用带有 CUDA 支持的 NVIDIA GPU 以加速模型推理和评估（虽然核心评估逻辑主要依赖 CPU 并行，但模型运行通常需要 GPU）。\n*   **前置依赖**:\n    *   `git`\n    *   `conda` 或 `venv` (强烈推荐使用 Conda 管理环境)\n    *   `cmake` (用于编译部分依赖)\n\n## 2. 安装步骤\n\n### 2.1 克隆仓库\n首先，从 GitHub 克隆 NAVSIM v2 代码库（当前主分支对应 2025 年挑战赛版本）：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim.git\ncd navsim\n```\n\n> **注意**：如果您需要使用旧版 NAVSIM v1 (navtest leaderboard)，请切换至 `v1.1` 分支：`git checkout v1.1`。\n\n### 2.2 创建并激活虚拟环境\n使用 Conda 创建隔离环境（推荐）：\n\n```bash\nconda create -n navsim python=3.9 -y\nconda activate navsim\n```\n\n### 2.3 安装依赖\n安装项目所需的 Python 依赖包。项目通常提供 `requirements.txt` 或通过 `setup.py` 安装。\n\n```bash\n# 安装基础依赖\npip install -r requirements.txt\n\n# 以可编辑模式安装 navsim 包本身\npip install -e .\n```\n\n> **国内加速提示**：如果下载速度较慢，建议使用国内镜像源（如清华源）：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> pip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 2.4 数据集准备\nNAVSIM 基于 OpenScene 和 nuPlan 数据。您需要按照 [docs\u002Finstall.md](docs\u002Finstall.md) 中的指引下载数据。\n通常涉及运行下载脚本并将数据放置在指定目录（例如 `data_root`）。\n\n```bash\n# 示例：下载训练验证集（具体脚本请参考 docs\u002Finstall.md）\npython scripts\u002Fdownload_data.py --split trainval\n```\n\n## 3. 基本使用\n\nNAVSIM 的核心工作流包括：加载数据 -> 运行智能体（Agent）生成轨迹 -> 计算指标（如 EPDMS）。\n\n### 3.1 运行基准智能体\nNAVSIM 内置了一些基准智能体（如 `ConstantVelocity`, `EgoStatusMLP` 等）。以下命令展示如何在一个小数据集上运行评估：\n\n```bash\n# 使用 ConstantVelocity 基准智能体在 mini 分割集上进行评估\npython navsim\u002Fscripts\u002Frun_agent.py \\\n    --agent_name constant_velocity \\\n    --split mini \\\n    --output_dir outputs\u002Fdemo_run\n```\n\n### 3.2 自定义智能体评估\n如果您训练了自己的模型，需要创建一个继承自 `AbstractAgent` 的类。以下是一个最简单的自定义智能体示例结构：\n\n```python\n# my_agent.py\nfrom navsim.agents.abstract_agent import AbstractAgent\nfrom navsim.common.dataclasses import AgentInput, Scenario\nimport numpy as np\n\nclass MySimpleAgent(AbstractAgent):\n    def name(self) -> str:\n        return \"my_simple_agent\"\n\n    def get_trajectory(self, agent_input: AgentInput) -> np.ndarray:\n        # 这里编写您的模型推理逻辑\n        # 返回形状为 (num_frames, 7) 的轨迹数组 [x, y, z, qx, qy, qz, qw]\n        # 此处仅作为示例，返回零轨迹\n        num_frames = agent_input.history[0].shape[0] # 获取历史帧数作为参考\n        trajectory = np.zeros((num_frames, 7)) \n        return trajectory\n```\n\n运行自定义智能体：\n\n```bash\npython navsim\u002Fscripts\u002Frun_agent.py \\\n    --agent_path my_agent.py \\\n    --agent_class_name MySimpleAgent \\\n    --split mini \\\n    --output_dir outputs\u002Fmy_model_run\n```\n\n### 3.3 查看结果\n评估完成后，指标结果（包括扩展的 PDM Score, EPDMS）将保存在 `outputs` 目录下的 JSON 文件中。您可以使用提供的可视化工具查看仿真效果：\n\n```bash\n# 启动可视化教程 (需安装 jupyter)\njupyter notebook tutorial\u002Ftutorial_visualization.ipynb\n```\n\n---\n**提示**：对于参加 AGC2025 挑战赛的用户，请务必阅读 `docs\u002Fsubmission.md` 了解如何打包结果并提交到 Hugging Face Leaderboard。严禁使用 `test` 或 `private_test` 分割数据进行训练。","某自动驾驶初创团队正在迭代其端到端规划模型，急需在发布前验证算法在复杂路口应对突发切入车辆时的安全性与鲁棒性。\n\n### 没有 navsim 时\n- **仿真失真严重**：传统闭环仿真中的背景车辆行为过于刻板或随机，无法还原真实数据中人类驾驶员的微妙博弈，导致“仿真表现好，实车就出事”。\n- **评估成本高昂**：为了获得可信的测试结果，团队不得不依赖昂贵的实车路测或构建高保真数字孪生场景，一次完整回归测试需耗时数天。\n- **开发迭代缓慢**：由于缺乏高效且可信的自动化评估手段，算法工程师不敢频繁提交大幅度的模型更新，生怕引入难以察觉的安全隐患。\n- **指标相关性弱**：简单的开环指标（如轨迹误差）无法反映实际驾驶安全度，团队常陷入“指标优化但体验下降”的困境。\n\n### 使用 navsim 后\n- **数据驱动的真实感**：navsim 利用真实路测数据生成“伪仿真”环境，在自车规划轨迹周围合成符合真实分布的动态障碍物，完美复现了人类驾驶员的反应模式。\n- **极速规模化评估**：无需搭建复杂的物理引擎，navsim 直接在增强后的真实数据流上运行，将原本数天的测试压缩至几小时，支持每日数百次模型迭代。\n- **高置信度安全验证**：其评估结果与传统高成本闭环仿真高度相关，团队可放心地基于 navsim 的评分筛选模型，提前拦截了多个潜在的碰撞风险。\n- **精准指导优化**：提供的基准测试（Benchmark）直接关联实际驾驶表现，让研发团队能精准定位模型在交互博弈中的短板并针对性调优。\n\nnavsim 通过融合真实数据的多样性与仿真评估的高效性，为自动驾驶算法提供了一把既快又准的“虚拟标尺”，彻底改变了模型迭代的验证范式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fautonomousvision_navsim_701cf69c.png","autonomousvision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fautonomousvision_e0fa4bb2.png",null,"https:\u002F\u002Fgithub.com\u002Fautonomousvision",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",96.6,{"name":85,"color":86,"percentage":87},"Shell","#89e051",1.9,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",1.5,928,103,"2026-04-04T13:48:35","Apache-2.0",4,"未说明",{"notes":99,"python":97,"dependencies":100},"README 提供的文本主要介绍了工具的背景、版本历史、数据集划分规则及提交指南，具体的运行环境需求（如操作系统、GPU、内存、Python 版本及依赖库）未在本文本中列出，需参考文中提到的 'docs\u002Finstall.md' 文档获取详细安装说明。该工具主要用于自动驾驶伪仿真评估，涉及 nuPlan 和 OpenScene 数据集。",[97],[15],[103,104,105],"autonomous-driving","planning","self-driving","2026-03-27T02:49:30.150509","2026-04-06T06:44:07.045024",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},9490,"运行评估脚本时 PDM Score 为零，但 NC 和 TTC 指标正常，可能是什么原因？","这通常是由于在较新架构的 CPU（如 Intel 8457C）上运行时，openblas 的微内核选择问题导致的。解决方案是将 numpy 升级到 1.26.4 版本。升级后，请清除所有 metric_caches 并重新构建它们。如果升级 numpy 无效，可以尝试将代码中的 `np.linalg.pinv()` 替换为 `torch.linalg.inv()` 或使用 `torch.linalg.pinv` 进行计算后再转回 numpy 数组。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F28",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},9491,"在使用 EPDMS 进行闭环评估时，为什么 human_penalty_filter 机制下报告的子分数被豁免为 1.0，但最终总分似乎仍基于原始的 0.0 计算？","这是一个误解。代码中显示的 `pdm_score` 并不是最终的 EPDMS 分数，它仅用于评估 PDM 方法生成的候选轨迹以选择最佳轨迹。在 PDM 框架中，需要一种基于规则的方法（此处为 PDM）作为 Ego Progress 指标的基线。最终的 EPDMS 分数是在场景聚合器（scene_aggregator.py）中重新聚合计算的，跳过了该特定的 pdm_score 直接使用其他指标进行后续处理。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F151",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},9492,"提交 Navsim leaderboard 时遇到 \"Hugging Face Hub is unreachable\" 错误，如何解决？","首先请检查是否阅读了说明文档，确认上传的是模型（model）而不是数据集（dataset），这是导致该误导性报错的常见原因。如果确认上传类型正确但仍遇到问题，可能是 Hugging Face 服务端暂时不可用或账户权限问题，建议联系维护者提供详细信息，或在不同计算机\u002F账户尝试。若涉及团队注册问题，可以通过 Google Form 修改团队信息，或直接发邮件给维护者手动更新。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F162",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},9493,"无法在 Hugging Face e2e challenge 页面注册团队或遇到注册错误怎么办？","注册时如果遇到困难，可以尝试仅在团队中包含自己一人进行注册，系统通常会批准此类请求。注册成功后，您可以通过官方提供的 Google Form 链接修改或添加团队成员信息。如果在 Hugging Face  tracks 中必须更新团队信息且无法自行操作，可以发送邮件给维护者，提供团队详情以便他们手动更新。注意，某些特殊字符（如 '-' 或 'é'）通常不是导致错误的原因。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F160",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},9494,"复现 Transfuser 基线模型时，得到的 PDMS 分数（约 80.0）低于论文报告的 84.0，是什么原因？","这种分数波动在复现过程中是常见的。根据社区反馈，即使使用 Hugging Face 上提供的预训练检查点在测试集上进行评估，结果也往往在 80.0 左右，而非论文中的 84.0。这可能与具体的训练配置有关，建议使用单张 GPU 并将 batch size 设置为 64 进行训练，同时检查学习率等超参数设置是否与原始实验环境一致。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F35",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},9495,"训练模型时出现 FileNotFoundError，提示找不到 sensor_blobs 或 logs 目录，该如何解决？","该错误通常是因为数据集路径配置不正确或数据未完整下载。请确保您已按照文档要求下载了完整的 navtrain 数据集，并且配置文件中的数据集根目录路径指向了包含 `sensor_blobs` 和 `logs` 文件夹的正确位置。检查路径中是否有多余的空格或错误的层级结构。","https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fissues\u002F27",[140,145,150,155,160,165,170,175,180,185],{"id":141,"version":142,"summary_zh":143,"released_at":144},106894,"v2.1.2","- Release of `navhard_two_stage` dataset (see [splits](docs\u002Fsplits.md))\r\n - Updated Extended Predictive Driver Model Score (EPDMS) for the [Hugging Face Warmup leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup). See see [metrics](docs\u002Fmetrics.md) for details regarding the implementation.","2025-04-28T07:55:12",{"id":146,"version":147,"summary_zh":148,"released_at":149},106895,"v2.1.1","- Updated dataset for the warmup leaderboard with minor fixes","2025-04-28T07:54:14",{"id":151,"version":152,"summary_zh":153,"released_at":154},106896,"v2.1","  - Added new dataset for the [Hugging Face Warmup leaderboard](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2025\u002Fe2e-driving-warmup) (see [submission](docs\u002Fsubmission.md))\r\n  - Introduced support for two-stage reactive traffic agents (see [traffic simulation](docs\u002Fmetrics.md))","2025-04-28T07:52:13",{"id":156,"version":157,"summary_zh":158,"released_at":159},106897,"v2.0","  Official devkit version for the 2025 warm-up phase:\r\n  - Extends the PDM Score with more metrics and penalties (see [metrics](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fblob\u002Fcf08b01f457a10fbf26f756770ff5f37a4dccb71\u002Fdocs\u002Fmetrics.md))\r\n  - Adds a new two-stage pseudo closed-loop simulation (see [metrics](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fblob\u002Fcf08b01f457a10fbf26f756770ff5f37a4dccb71\u002Fdocs\u002Fmetrics.md))\r\n  - Adds support for reactive traffic agent policies (see [traffic simulation](https:\u002F\u002Fgithub.com\u002Fautonomousvision\u002Fnavsim\u002Fblob\u002Fcf08b01f457a10fbf26f756770ff5f37a4dccb71\u002Fdocs\u002Ftraffic_agents.md))\r\n ","2025-03-04T18:15:45",{"id":161,"version":162,"summary_zh":163,"released_at":164},106898,"v1.1","- Leaderboard for `navtest` on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FAGC2024-P\u002Fe2e-driving-navsim)\r\n- Release of baseline checkpoints on [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fautonomousvision\u002Fnavsim_baselines)\r\n- Updated docs for [submission](docs\u002Fsubmission.md) and [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15349)\r\n- Code refactoring, formatting, minor fixes","2024-09-04T09:31:16",{"id":166,"version":167,"summary_zh":168,"released_at":169},106899,"v1.0","- Official devkit version for [AGC 2024](https:\u002F\u002Fopendrivelab.com\u002Fchallenge2024\u002F#end_to_end_driving_at_scale)\r\n- Parallelization of metric caching \u002F evaluation\r\n- Adds [Transfuser](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.15997) baseline (see [agents](docs\u002Fagents.md#Baselines))\r\n- Adds standardized training and test filtered splits (see [splits](docs\u002Fsplits.md))\r\n- Visualization tools (see [tutorial_visualization.ipynb](tutorial\u002Ftutorial_visualization.ipynb))","2024-09-04T09:30:07",{"id":171,"version":172,"summary_zh":173,"released_at":174},106900,"v0.4","- Support for test phase frames of competition\r\n- Download script for trainval\r\n- Egostatus MLP Agent and training pipeline","2024-09-04T09:27:49",{"id":176,"version":177,"summary_zh":178,"released_at":179},106901,"v0.3","- Adds code for Leaderboard submission","2024-09-04T09:26:53",{"id":181,"version":182,"summary_zh":183,"released_at":184},106902,"v0.2","  - Easier installation and download\r\n  - mini and test data split integration\r\n  - Privileged `Human` agent","2024-09-04T09:25:54",{"id":186,"version":187,"summary_zh":188,"released_at":189},106903,"v0.1","  - OpenScene-mini sensor blobs and annotation logs\r\n  - Naive `ConstantVelocity` agent","2024-09-04T09:24:49"]