[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-InternRobotics--InternNav":3,"tool-InternRobotics--InternNav":65},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,26,14,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":10,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,51,52,53,14,54,15,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,51,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":101,"env_os":102,"env_gpu":103,"env_ram":102,"env_deps":104,"category_tags":110,"github_topics":111,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":159},8717,"InternRobotics\u002FInternNav","InternNav","InternRobotics' open platform for building generalized navigation foundation models.","InternNav 是商汤机器人（InternRobotics）推出的开源工具箱，专为构建通用具身导航基础模型而设计。它基于 PyTorch、Habitat 和 Isaac Sim 打造，旨在解决机器人在复杂环境中“听懂指令并自主移动”的难题，支持从视觉语言导航到连续轨迹规划的全流程开发。\n\n无论是学术研究人员还是算法工程师，都能利用 InternNav 灵活定制导航系统的各个模块。它不仅兼容主流仿真平台，还内置了 6 大数据集与 10 多个经典基线模型，大幅降低了复现前沿算法的门槛。其核心亮点在于集成了目前最先进的导航基础模型 InternVLA-N1，该模型基于包含 3000+ 场景和 83 万条数据的高质量数据集训练而成，具备卓越的零样本泛化能力，能在真实世界中表现出色。此外，InternNav 还率先支持双系统导航架构及交互式实例目标导航等新任务，为探索下一代智能移动机器人提供了坚实的技术底座。","\u003Cdiv align=\"center\">\n\n[![demo](assets\u002FInternNav.gif \"demo\")](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fD0F1jIax5Y)\n\n[![HomePage](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomePage-144B9E?logo=ReactOS&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002F)\n[![Technical Report — InternVLA-N1](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTechnical_Report-InternVLA--N1-BB2649?logo=adobeacrobatreader&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002Fstatic\u002Fpdfs\u002FInternVLA_N1.pdf)\n[![DualVLN Paper — arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-DualVLN-B31B1B?logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.08186)\n[![doc](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocument-FFA500?logo=readthedocs&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Findex.html)\n[![GitHub star chart](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FInternRobotics\u002FInternNav?style=square)](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav)\n[![GitHub Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FInternRobotics\u002FInternNav)](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues)\n\u003Ca href=\"https:\u002F\u002Fcdn.vansin.top\u002Ftaoyuan.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-07C160?logo=wechat&logoColor=white\" height=\"20\" style=\"display:inline\">\u003C\u002Fa>\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1373946774439591996?logo=discord)](https:\u002F\u002Fdiscord.gg\u002F5jeaQHUj4B)\n\n\u003C\u002Fdiv>\n\n## 🏠 Introduction\n\nInternNav is an All-in-one open-source toolbox for embodied navigation based on PyTorch, Habitat and Isaac Sim.\n\n### Highlights\n- Modular Support of the Entire Navigation System\n\nWe support modular customization and study of the entire navigation system, including vision-language navigation with discrete action space (VLN-CE), visual navigation (VN) given point\u002Fimage\u002Ftrajectory goals, and the whole VLN system with continuous trajectory outputs.\n\n- Compatibility with Mainstream Simulation Platforms\n\nThe toolbox is compatible with different training and evaluation requirements, supporting different environments for the usage of mainstream simulation platforms such as Habitat and Isaac Sim.\n\n- Comprehensive Datasets, Models and Benchmarks\n\nThe toolbox supports the most comprehensive 6 datasets \\& benchmarks and 10+ popular baselines, including both mainstream and our established brand new ones.\n\n- State of the Art\n\nThe toolbox supports the most advanced high-quality navigation dataset, InternData-N1, which includes 3k+ scenes and 830k VLN data covering diverse embodiments and scenes, and the first dual-system navigation foundation model with leading performance on all the benchmarks and zero-shot generalization capability in the real world, InternVLA-N1.\n\n## 🔥 News\n| Time   | Update |\n|---------|--------|\n| 2026\u002F01 | InternNav v0.3.0 released. |\n| 2025\u002F12 | We introduce Interactive Instance Goal Navigation (IIGN) and release VL-LN Bench to enable InternVLA-N1 to solve this task, with large-scale dialog-trajectory collection plus training and evaluation support. See [our website](https:\u002F\u002F0309hws.github.io\u002FVL-LN.github.io\u002F) for details.|\n| 2025\u002F12 | Training code for InternVLA-N1 and the corresponding [usage doc](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Fquick_start\u002Ftraining.html) is now available. This release provides two model configurations: InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> and InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan>. For model architecture and training details, please refer to the [DualVLN paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.08186).|\n| 2025\u002F11 | InternNav v0.2.0 released — added distributed evaluation support for VLN-PE.|\n| 2025\u002F10 | Add a [inference-only demo](scripts\u002Fnotebooks\u002Finference_only_demo.ipynb) of InternVLA-N1. |\n| 2025\u002F10 | InternVLA-N1 [technical report](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002Fstatic\u002Fpdfs\u002FInternVLA_N1.pdf) is released. Please check our [homepage](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002F). |\n| 2025\u002F09 | Real-world deployment code of InternVLA-N1 released. Upload 3D printing [files](assets\u002F3d_printing_files\u002Fgo2_stand.STEP) for Unitree Go2. |\n| 2025\u002F07 | Hosting the 🏆 IROS 2025 Grand Challenge (see updates at [official website](https:\u002F\u002Finternrobotics.shlab.org.cn\u002Fchallenge\u002F2025\u002F)) |\n| 2025\u002F07 | InternNav v0.1.1 released |\n\n## 📋 Table of Contents\n- [🏠 Introduction](#-introduction)\n- [🔥 News](#-news)\n- [📚 Getting Started](#-getting-started)\n- [📦 Overview of Benchmark \\& Model Zoo](#-overview)\n- [🔧 Customization](#-customization)\n- [👥 Contribute](#-contribute)\n- [🚀 Community Deployment & Best Practices](#-community-deployment--best-practices)\n- [🔗 Citation](#-citation)\n- [📄 License](#-license)\n- [👏 Acknowledgements](#-acknowledgements)\n\n## 📚 Getting Started\n\nPlease refer to the [documentation](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Fquick_start\u002Findex.html) for quick start with InternNav, from installation to training or evaluating supported models.\n\n## 📦 Overview\n\n### 🧪 Supported Benchmarks\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n         \u003Cb>VLN Benchmarks\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>VN Benchmarks\u003C\u002Fb>\n      \u003C\u002Ftd>\n   \u003C\u002Ftr>\n   \u003Ctr align=\"center\" valign=\"top\">\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.02857\">VLN-CE\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.13019\">VLN-PE\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08712\">Cluttered Environments\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08712\">GRScenes-100\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n   \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n### 🤗 Model Zoo & Downloads\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n         \u003Cb>🧠 VLN Single-System\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>🎯 VN System (System1)\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>🤝 VLN Multi-System\u003C\u002Fb>\n      \u003C\u002Ftd>\n   \u003C\u002Ftr>\n   \u003Ctr align=\"center\" valign=\"top\">\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">Seq2Seq\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">CMA\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">RDP\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FStreamVLN\">StreamVLN\u003C\u002Fa> \u003Cem>(coming soon)\u003C\u002Fem>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">DD-PPO\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">iPlanner\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">ViPlanner\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">GNM\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">ViNT\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">NoMad\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">NavDP \u003Csmall>InternVLA-N1 (System 1)\u003C\u002Fsmall>\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-System2\">InternVLA-N1 (System 2)\u003C\u002Fa> + \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\" style=\"color: #1e90ff;\">Decoupled System1\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-w-NavDP\">InternVLA-N1 (Dual System) \u003Csmall>w\u002F NavDP*\u003C\u002Fsmall> \u003C\u002Fa>  \u003Csmall> (NavDP*\u003C\u002Fsmall> indicates joint tuning with System 2)\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-DualVLN\">InternVLA-N1 (Dual System) \u003Csmall>DualVLN\u003C\u002Fsmall>\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n   \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003C!-- **📝 Note:**\n- VLN-CE RxR benchmark and StreamVLN model will be supported soon.\n- **NE**: Navigation Error (lower is better) • **OS**: Oracle Success (higher is better) • **SR**: Success Rate (higher is better) • **SPL**: Success weighted by Path Length (higher is better) -->\n\n\n### 📊 Benchmark Results\n\n\n#### \u003Cu>VLN-CE Benchmarks\u003C\u002Fu>\n\n**📍 R2R Dataset**\n| Model | Observation | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|-------------|------|------|------|-------|\n| InternVLA-N1-wo-dagger (S2) + [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 4.89 | 60.6 | 55.4 | 52.1 |\n| InternVLA-N1-wo-dagger (Dual System) \u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan>  | RGB-D | 4.83 | 63.3 | 58.2 | 54.0 |\n| InternVLA-N1 (S2) + [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 4.25 | 68.3 | 60.9 | 55.2 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> | RGB-D | 4.22 | 70.4 | 64.1 | 58.1 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | RGB | **4.05** | **70.7** | **64.3** | **58.5** |\n\n**📍 RxR Dataset**\n| Model | Observation | NE ↓ |  SR ↑ | SPL ↑ | nDTW ↑ |\n|-------|-------------|------|------|------|-------|\n| InternVLA-N1 (S2) + [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 5.71 | 63.5 | 55.0 | 46.8 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> | RGB-D | 4.70 | 59.7 | 50.6 | 69.7 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | RGB | **4.58** | **61.4** | **51.8** | **70.0** |\n\n#### \u003Cu>VLN-PE Benchmarks\u003C\u002Fu>\n\n**📍 Flash Controller on R2R Unseen**\n| Model | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|------|------|------|-------|\n| Seq2Seq | 8.27 | 43.0 | 15.7 | 9.7 |\n| CMA | 7.52 | 45.0 | 24.4 | 18.2 |\n| RDP | 6.98 | 42.5 | 24.9 | 17.5 |\n| InternVLA-N1 (System 2) + iPlanner | 4.91 | 55.53 | 47.07 | 41.09 |\n| InternVLA-N1 (System 2) + NavDP | 4.22 | 67.33 | 58.72 | 50.98 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | **3.90** | **69.93** | **63.62** | **56.49** |\n\n**📍 Physical Controller on R2R Unseen**\n| Model | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|------|------|------|-------|\n| Seq2Seq | 7.88 | 28.1 | 15.1 | 10.7 |\n| CMA | 7.26 | 31.4 | 22.1 | 18.6 |\n| RDP | 6.72 | 36.9 | 25.2 | 17.7 |\n| InternVLA-N1 (Dual System)\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | **4.66** | **55.9** | **51.6** | **42.49** |\n\n\n#### \u003Cu>Visual Navigation Benchmarks\u003C\u002Fu>\n\n**📍 ClutteredEnv Dataset**\n| Model | SR ↑ | SPL ↑ |\n|-------|------|-------|\n| iPlanner | 84.8 | 83.6 |\n| ViPlanner | 72.4 | 72.3 |\n| NavDP \u003CInternVLA-N1 (System 1)> | **89.8** | **87.7** |\n\n**📍 InternScenes Dataset**\n| Model | SR ↑ | SPL ↑ |\n|-------|------|-------|\n| iPlanner | 48.8 | 46.7 |\n| ViPlanner | 54.3 | 52.5 |\n| NavDP \u003CInternVLA-N1 (System 1)> | **65.7** | **60.7** |\n\n## 🔧 Customization\n\nPlease refer to the [tutorial](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Ftutorials\u002Findex.html) for advanced usage of InternNav, including customization of datasets, models and experimental settings.\n\n## 👥 Contribute\n\nIf you would like to contribute to InternNav, please check out our [contribution guide]().\nFor example, raising issues, fixing bugs in the framework, and adapting or adding new policies and data to the framework.\n\n**Note:** We welcome the feedback of the model's zero-shot performance when deploying in your own environment. Please show us your results and offer us your future demands regarding the model's capability. We will select the most valuable ones and collaborate with users together to solve them in the next few months :)\n\n## 🚀 Community Deployment & Best Practices\n\nWe are excited to see InternNav being deployed and extended by the community across different robots and real-world scenarios.\nBelow are selected community-driven deployment guides and solution write-ups, which may serve as practical references for advanced users.\n\n- **IROS Challenge Nav Track: Champion Solution (2025)**\n  A complete system-level solution and design analysis for Vision-and-Language Navigation in Physical Environments.\n  🔗 https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F1969046543286907790\n\n- **Go2 Series Deployment Tutorial (ShanghaiTech University)**\n  Step-by-step edge deployment guide for InternNav-based perception and navigation.\n  🔗 https:\u002F\u002Fgithub.com\u002Fcmjang\u002FInternNav-deploy\n\n- **G1 Series Deployment Tutorial (Wuhan University)**\n  Detailed educational materials on vision-language navigation deployment.\n  🔗 [*Chapter 5: Vision-Language Navigation (Part II)*](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fp3cJzbRvecMajiTh9mXoAw)\n\n## 🔗 Citation\n\nIf you find our InternVLA-N1 (Dual System) model helpful, please cite our ICLR paper and previous technical report:\n```bibtex\n@inproceedings{\n  wei2026ground,\n  title={Ground Slow, Move Fast: A Dual-System Foundation Model for Generalizable Vision-Language Navigation},\n  author={Meng Wei and Chenyang Wan and Jiaqi Peng and Xiqian Yu and Yuqiang Yang and Delin Feng and Wenzhe Cai and Chenming Zhu and Tai Wang and Jiangmiao Pang and Xihui Liu},\n  booktitle={The Fourteenth International Conference on Learning Representations},\n  year={2026},\n  url={https:\u002F\u002Fopenreview.net\u002Fforum?id=GK4rznYwhn}\n}\n@misc{internvla-n1,\n    title = {{InternVLA-N1: An} Open Dual-System Navigation Foundation Model with Learned Latent Plans},\n    author = {InternNav Team},\n    year = {2025},\n    booktitle={arXiv},\n}\n```\n\nIf you use this InternNav codebase to develop your method, please cite our codebase:\n```bibtex\n@misc{internnav2025,\n    title = {{InternNav: InternRobotics'} open platform for building generalized navigation foundation models},\n    author = {InternNav Contributors},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav}},\n    year = {2025}\n}\n```\n\n\n\u003Cdetails>\u003Csummary>If you use the specific pretrained models and benchmarks, please kindly cite the original papers below.\u003C\u002Fsummary>\n\n```BibTex\n\n@inproceedings{vlnpe,\n  title={Rethinking the Embodied Gap in Vision-and-Language Navigation: A Holistic Study of Physical and Visual Disparities},\n  author={Wang, Liuyi and Xia, Xinyuan and Zhao, Hui and Wang, Hanqing and Wang, Tai and Chen, Yilun and Liu, Chengju and Chen, Qijun and Pang, Jiangmiao},\n  booktitle={Proceedings of the IEEE\u002FCVF International Conference on Computer Vision (ICCV)},\n  year={2025}\n}\n@inproceedings{streamvln,\n    title = {StreamVLN: Streaming Vision-and-Language Navigation via SlowFast Context Modeling},\n    author = {Wei, Meng and Wan, Chenyang and Yu, Xiqian and Wang, Tai and Yang, Yuqiang and Mao, Xiaohan and Zhu, Chenming and Cai, Wenzhe and Wang, Hanqing and Chen, Yilun and Liu, Xihui and Pang, Jiangmiao},\n    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},\n    year = {2026}\n}\n@inproceedings{navdp,\n    title = {NavDP: Learning Sim-to-Real Navigation Diffusion Policy with Privileged Information Guidance},\n    author = {Wenzhe Cai, Jiaqi Peng, Yuqiang Yang, Yujian Zhang, Meng Wei, Hanqing Wang, Yilun Chen, Tai Wang and Jiangmiao Pang},\n    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},\n    year = {2026},\n}\n```\n\n\u003C\u002Fdetails>\n\n\n## 📄 License\n\nInternNav's codes are [MIT licensed](LICENSE).\nThe open-sourced InternData-N1 data are under the \u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License \u003C\u002Fa>\u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"Creative Commons License\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInternRobotics_InternNav_readme_8a4e76cf0ed2.png\" \u002F>\u003C\u002Fa>.\nOther datasets like VLN-CE inherit their own distribution licenses.\n\n## 👏 Acknowledgement\n\n- [InternUtopia](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternUtopia) (Previously `GRUtopia`): The closed-loop evaluation and GRScenes-100 data in this framework relies on the InternUtopia framework.\n- [Diffusion Policy](https:\u002F\u002Fgithub.com\u002Freal-stanford\u002Fdiffusion_policy): Diffusion policy implementation.\n- [LongCLIP](https:\u002F\u002Fgithub.com\u002Fbeichenzbc\u002FLong-CLIP): Long-text CLIP model.\n- [VLN-CE](https:\u002F\u002Fgithub.com\u002Fjacobkrantz\u002FVLN-CE): Vision-and-Language Navigation in Continuous Environments based on Habitat.\n- [Qwen2.5-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5-VL): The pretrained vision-language foundation model.\n- [LeRobot](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Flerobot): The data format used in this project largely follows the conventions of LeRobot.\n","\u003Cdiv align=\"center\">\n\n[![demo](assets\u002FInternNav.gif \"demo\")](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fD0F1jIax5Y)\n\n[![HomePage](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHomePage-144B9E?logo=ReactOS&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002F)\n[![Technical Report — InternVLA-N1](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTechnical_Report-InternVLA--N1-BB2649?logo=adobeacrobatreader&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002Fstatic\u002Fpdfs\u002FInternVLA_N1.pdf)\n[![DualVLN Paper — arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-DualVLN-B31B1B?logo=arxiv&logoColor=white)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.08186)\n[![doc](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocument-FFA500?logo=readthedocs&logoColor=white)](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Findex.html)\n[![GitHub star chart](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FInternRobotics\u002FInternNav?style=square)](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav)\n[![GitHub Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FInternRobotics\u002FInternNav)](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues)\n\u003Ca href=\"https:\u002F\u002Fcdn.vansin.top\u002Ftaoyuan.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-07C160?logo=wechat&logoColor=white\" height=\"20\" style=\"display:inline\">\u003C\u002Fa>\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1373946774439591996?logo=discord)](https:\u002F\u002Fdiscord.gg\u002F5jeaQHUj4B)\n\n\u003C\u002Fdiv>\n\n## 🏠 简介\n\nInternNav 是一个基于 PyTorch、Habitat 和 Isaac Sim 的一体化开源具身导航工具箱。\n\n### 亮点\n- 全栈导航系统的模块化支持\n\n我们支持整个导航系统的模块化定制与研究，包括离散动作空间的视觉-语言导航（VLN-CE）、给定点\u002F图像\u002F轨迹目标的视觉导航（VN），以及连续轨迹输出的完整 VLN 系统。\n\n- 与主流仿真平台的兼容性\n\n该工具箱兼容不同的训练和评估需求，支持 Habitat 和 Isaac Sim 等主流仿真平台的不同环境。\n\n- 全面的数据集、模型和基准测试\n\n该工具箱支持最全面的 6 个数据集和基准测试，以及 10 多种流行的基线模型，既包括主流方法，也包含我们新建立的创新方法。\n\n- 当前最先进的水平\n\n该工具箱支持最先进的高质量导航数据集 InternData-N1，其中包含 3000 多个场景和 83 万条 VLN 数据，覆盖多样化的具身形态和场景；同时还推出了首个双系统导航基础模型 InternVLA-N1，该模型在所有基准测试中均表现出色，并具备在真实世界中的零样本泛化能力。\n\n## 🔥 最新消息\n| 时间   | 更新内容 |\n|---------|--------|\n| 2026\u002F01 | InternNav v0.3.0 发布。 |\n| 2025\u002F12 | 我们引入了交互式实例目标导航（IIGN），并发布了 VL-LN 基准测试，以使 InternVLA-N1 能够解决这一任务。同时提供了大规模对话-轨迹数据集的收集、训练和评估支持。详情请参见 [我们的网站](https:\u002F\u002F0309hws.github.io\u002FVL-LN.github.io\u002F)。|\n| 2025\u002F12 | InternVLA-N1 的训练代码及相应的 [使用文档](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Fquick_start\u002Ftraining.html) 已经发布。本次发布提供了两种模型配置：InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> 带 NavDP*\u003C\u002Fspan> 和 InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan>。有关模型架构和训练细节，请参阅 [DualVLN 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.08186)。|\n| 2025\u002F11 | InternNav v0.2.0 发布——新增了 VLN-PE 的分布式评估支持。|\n| 2025\u002F10 | 添加了 InternVLA-N1 的 [仅推理演示](scripts\u002Fnotebooks\u002Finference_only_demo.ipynb)。|\n| 2025\u002F10 | InternVLA-N1 的 [技术报告](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002Fstatic\u002Fpdfs\u002FInternVLA_N1.pdf) 已发布。请访问我们的 [主页](https:\u002F\u002Finternrobotics.github.io\u002Finternvla-n1.github.io\u002F) 查看。|\n| 2025\u002F09 | InternVLA-N1 的真实世界部署代码发布。上传 Unitree Go2 的 3D 打印 [文件](assets\u002F3d_printing_files\u002Fgo2_stand.STEP)。|\n| 2025\u002F07 | 主办 🏆 IROS 2025 Grand Challenge（详情请见 [官方网站](https:\u002F\u002Finternrobotics.shlab.org.cn\u002Fchallenge\u002F2025\u002F)）。|\n| 2025\u002F07 | InternNav v0.1.1 发布。\n\n## 📋 目录\n- [🏠 简介](#-introduction)\n- [🔥 最新消息](#-news)\n- [📚 快速入门](#-getting-started)\n- [📦 基准测试与模型库概览](#-overview)\n- [🔧 自定义](#-customization)\n- [👥 贡献](#-contribute)\n- [🚀 社区部署与最佳实践](#-community-deployment--best-practices)\n- [🔗 引用](#-citation)\n- [📄 许可证](#-license)\n- [👏 致谢](#-acknowledgements)\n\n## 📚 快速入门\n\n请参阅 [文档](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Fquick_start\u002Findex.html)，了解如何从安装到训练或评估支持的模型，快速上手 InternNav。\n\n## 📦 概览\n\n### 🧪 支持的基准测试\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n         \u003Cb>VLN 基准测试\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>VN 基准测试\u003C\u002Fb>\n      \u003C\u002Ftd>\n   \u003C\u002Ftr>\n   \u003Ctr align=\"center\" valign=\"top\">\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.02857\">VLN-CE\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.13019\">VLN-PE\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08712\">杂乱环境\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08712\">GRScenes-100\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n   \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n### 🤗 模型动物园与下载\n\n\u003Ctable align=\"center\">\n  \u003Ctbody>\n    \u003Ctr align=\"center\" valign=\"bottom\">\n      \u003Ctd>\n         \u003Cb>🧠 VLN 单系统\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>🎯 VN 系统（System1）\u003C\u002Fb>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cb>🤝 VLN 多系统\u003C\u002Fb>\n      \u003C\u002Ftd>\n   \u003C\u002Ftr>\n   \u003Ctr align=\"center\" valign=\"top\">\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">Seq2Seq\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">CMA\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FVLN-PE\">RDP\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FStreamVLN\">StreamVLN\u003C\u002Fa> \u003Cem>(即将推出)\u003C\u002Fem>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">DD-PPO\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">iPlanner\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">ViPlanner\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">GNM\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">ViNT\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">NoMad\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\">NavDP \u003Csmall>InternVLA-N1（System 1）\u003C\u002Fsmall>\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n      \u003Ctd>\n         \u003Cul>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-System2\">InternVLA-N1（System 2）\u003C\u002Fa> + \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FNavDP?tab=readme-ov-file#%EF%B8%8F-installation-of-baseline-library\" style=\"color: #1e90ff;\">解耦的 System1\u003C\u002Fa>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-w-NavDP\">InternVLA-N1（双系统）\u003Csmall>w\u002F NavDP*\u003C\u002Fsmall>\u003C\u002Fa> \u003Csmall>（NavDP* 表示与 System 2 联合调优）\u003C\u002Fsmall>\u003C\u002Fli>\n            \u003Cli align=\"left\">\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInternRobotics\u002FInternVLA-N1-DualVLN\">InternVLA-N1（双系统）\u003Csmall>DualVLN\u003C\u002Fsmall>\u003C\u002Fa>\u003C\u002Fli>\n         \u003C\u002Ful>\n      \u003C\u002Ftd>\n   \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003C!-- **📝 注意：**\n- VLN-CE RxR 基准测试和 StreamVLN 模型将很快支持。\n- **NE**：导航误差（越低越好）• **OS**：Oracle 成功率（越高越好）• **SR**：成功率（越高越好）• **SPL**：按路径长度加权的成功率（越高越好） -->\n\n\n### 📊 基准测试结果\n\n\n#### \u003Cu>VLN-CE 基准测试\u003C\u002Fu>\n\n**📍 R2R 数据集**\n| 模型 | 观测方式 | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|-------------|------|------|------|-------|\n| InternVLA-N1-wo-dagger（S2）+ [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 4.89 | 60.6 | 55.4 | 52.1 |\n| InternVLA-N1-wo-dagger（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> | RGB-D | 4.83 | 63.3 | 58.2 | 54.0 |\n| InternVLA-N1（S2）+ [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 4.25 | 68.3 | 60.9 | 55.2 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> | RGB-D | 4.22 | 70.4 | 64.1 | 58.1 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | RGB | **4.05** | **70.7** | **64.3** | **58.5** |\n\n**📍 RxR 数据集**\n| 模型 | 观测方式 | NE ↓ | SR ↑ | SPL ↑ | nDTW ↑ |\n|-------|-------------|------|------|------|-------|\n| InternVLA-N1（S2）+ [ShortestPathFollower](https:\u002F\u002Faihabitat.org\u002Fdocs\u002Fhabitat-lab\u002Fhabitat.tasks.nav.shortest_path_follower.ShortestPathFollower.html) | - | 5.71 | 63.5 | 55.0 | 46.8 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> with NavDP*\u003C\u002Fspan> | RGB-D | 4.70 | 59.7 | 50.6 | 69.7 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | RGB | **4.58** | **61.4** | **51.8** | **70.0** |\n\n#### \u003Cu>VLN-PE 基准测试\u003C\u002Fu>\n\n**📍 R2R 未见场景中的 Flash 控制器**\n| 模型 | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|------|------|------|-------|\n| Seq2Seq | 8.27 | 43.0 | 15.7 | 9.7 |\n| CMA | 7.52 | 45.0 | 24.4 | 18.2 |\n| RDP | 6.98 | 42.5 | 24.9 | 17.5 |\n| InternVLA-N1（System 2）+ iPlanner | 4.91 | 55.53 | 47.07 | 41.09 |\n| InternVLA-N1（System 2）+ NavDP | 4.22 | 67.33 | 58.72 | 50.98 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | **3.90** | **69.93** | **63.62** | **56.49** |\n\n**📍 R2R 未见场景中的物理控制器**\n| 模型 | NE ↓ | OS ↑ | SR ↑ | SPL ↑ |\n|-------|------|------|------|-------|\n| Seq2Seq | 7.88 | 28.1 | 15.1 | 10.7 |\n| CMA | 7.26 | 31.4 | 22.1 | 18.6 |\n| RDP | 6.72 | 36.9 | 25.2 | 17.7 |\n| InternVLA-N1（双系统）\u003Cspan style=\"color: #28a745; font-size: 0.9em\"> DualVLN \u003C\u002Fspan> | **4.66** | **55.9** | **51.6** | **42.49** |\n\n\n#### \u003Cu>视觉导航基准测试\u003C\u002Fu>\n\n**📍 ClutteredEnv 数据集**\n| 模型 | SR ↑ | SPL ↑ |\n|-------|------|-------|\n| iPlanner | 84.8 | 83.6 |\n| ViPlanner | 72.4 | 72.3 |\n| NavDP \u003CInternVLA-N1（System 1）> | **89.8** | **87.7** |\n\n**📍 InternScenes 数据集**\n| 模型 | SR ↑ | SPL ↑ |\n|-------|------|-------|\n| iPlanner | 48.8 | 46.7 |\n| ViPlanner | 54.3 | 52.5 |\n| NavDP \u003CInternVLA-N1（System 1）> | **65.7** | **60.7** |\n\n## 🔧 自定义\n\n请参阅[教程](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Ftutorials\u002Findex.html)，了解 InternNav 的高级用法，包括数据集、模型和实验设置的自定义。\n\n## 👥 贡献\n\n如果您希望为 InternNav 做出贡献，请查看我们的[贡献指南]()。例如，提交问题、修复框架中的错误，以及适配或添加新的策略和数据到框架中。\n\n**注：** 我们欢迎您在自己的环境中部署该模型时提供的零样本性能反馈。请向我们展示您的结果，并告知我们对未来模型能力的需求。我们将挑选最有价值的建议，在接下来的几个月内与用户合作共同解决它们 :)\n\n## 🚀 社区部署与最佳实践\n\n我们很高兴看到InternNav正在被社区应用于不同机器人和真实场景中，并不断扩展其功能。\n\n以下是一些精选的社区驱动部署指南和解决方案文章，可供高级用户参考：\n\n- **IROS挑战赛导航赛道：冠军方案（2025）**\n  一套完整的物理环境中视觉-语言导航系统级解决方案及设计分析。\n  🔗 https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F1969046543286907790\n\n- **Go2系列部署教程（上海科技大学）**\n  基于InternNav的感知与导航的边缘部署分步指南。\n  🔗 https:\u002F\u002Fgithub.com\u002Fcmjang\u002FInternNav-deploy\n\n- **G1系列部署教程（武汉大学）**\n  关于视觉-语言导航部署的详细教学材料。\n  🔗 [*第5章：视觉-语言导航（下）*](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002Fp3cJzbRvecMajiTh9mXoAw)\n\n## 🔗 引用\n\n如果您觉得我们的InternVLA-N1（双系统）模型有所帮助，请引用我们的ICLR论文及之前的技术报告：\n```bibtex\n@inproceedings{\n  wei2026ground,\n  title={Ground Slow, Move Fast: A Dual-System Foundation Model for Generalizable Vision-Language Navigation},\n  author={Meng Wei and Chenyang Wan and Jiaqi Peng and Xiqian Yu and Yuqiang Yang and Delin Feng and Wenzhe Cai and Chenming Zhu and Tai Wang and Jiangmiao Pang and Xihui Liu},\n  booktitle={The Fourteenth International Conference on Learning Representations},\n  year={2026},\n  url={https:\u002F\u002Fopenreview.net\u002Fforum?id=GK4rznYwhn}\n}\n@misc{internvla-n1,\n    title = {{InternVLA-N1: An} Open Dual-System Navigation Foundation Model with Learned Latent Plans},\n    author = {InternNav Team},\n    year = {2025},\n    booktitle={arXiv},\n}\n```\n\n如果您使用本InternNav代码库开发了自己的方法，请引用我们的代码库：\n```bibtex\n@misc{internnav2025,\n    title = {{InternNav: InternRobotics'} open platform for building generalized navigation foundation models},\n    author = {InternNav Contributors},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav}},\n    year = {2025}\n}\n```\n\n\n\u003Cdetails>\u003Csummary>如果您使用了特定的预训练模型和基准测试，请务必引用以下原始论文。\u003C\u002Fsummary>\n\n```BibTex\n\n@inproceedings{vlnpe,\n  title={Rethinking the Embodied Gap in Vision-and-Language Navigation: A Holistic Study of Physical and Visual Disparities},\n  author={Wang, Liuyi and Xia, Xinyuan and Zhao, Hui and Wang, Hanqing and Wang, Tai and Chen, Yilun and Liu, Chengju and Chen, Qijun and Pang, Jiangmiao},\n  booktitle={Proceedings of the IEEE\u002FCVF International Conference on Computer Vision (ICCV)},\n  year={2025}\n}\n@inproceedings{streamvln,\n    title = {StreamVLN: Streaming Vision-and-Language Navigation via SlowFast Context Modeling},\n    author = {Wei, Meng and Wan, Chenyang and Yu, Xiqian and Wang, Tai and Yang, Yuqiang and Mao, Xiaohan and Zhu, Chenming and Cai, Wenzhe and Wang, Hanqing and Chen, Yilun and Liu, Xihui and Pang, Jiangmiao},\n    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},\n    year = {2026}\n}\n@inproceedings{navdp,\n    title = {NavDP: Learning Sim-to-Real Navigation Diffusion Policy with Privileged Information Guidance},\n    author = {Wenzhe Cai, Jiaqi Peng, Yuqiang Yang, Yujian Zhang, Meng Wei, Hanqing Wang, Yilun Chen, Tai Wang and Jiangmiao Pang},\n    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},\n    year = {2026},\n}\n```\n\n\u003C\u002Fdetails>\n\n\n## 📄 许可协议\n\nInternNav的代码采用[MIT许可证](LICENSE)。\n开源的InternData-N1数据则遵循\u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">知识共享署名-非商业性使用-相同方式共享4.0国际许可协议\u003C\u002Fa>\u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc-sa\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInternRobotics_InternNav_readme_8a4e76cf0ed2.png\" \u002F>\u003C\u002Fa>。\n其他数据集如VLN-CE则沿用各自的发布许可。\n\n## 👏 致谢\n\n- [InternUtopia](https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternUtopia)（原名`GRUtopia`）：本框架中的闭环评估及GRScenes-100数据依赖于InternUtopia框架。\n- [Diffusion Policy](https:\u002F\u002Fgithub.com\u002Freal-stanford\u002Fdiffusion_policy)：扩散策略实现。\n- [LongCLIP](https:\u002F\u002Fgithub.com\u002Fbeichenzbc\u002FLong-CLIP)：长文本CLIP模型。\n- [VLN-CE](https:\u002F\u002Fgithub.com\u002Fjacobkrantz\u002FVLN-CE)：基于Habitat的连续环境下的视觉-语言导航。\n- [Qwen2.5-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5-VL)：预训练的视觉-语言基础模型。\n- [LeRobot](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Flerobot)：本项目使用的数据格式很大程度上遵循LeRobot的规范。","# InternNav 快速上手指南\n\nInternNav 是一个基于 PyTorch、Habitat 和 Isaac Sim 的一体化具身导航开源工具箱，支持视觉语言导航（VLN）、视觉导航（VN）及双系统导航模型（如 InternVLA-N1）的训练与评估。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡 (建议显存 ≥ 16GB 用于训练大型模型)\n*   **前置依赖**:\n    *   PyTorch (与 CUDA 版本匹配)\n    *   Habitat-Sim (用于仿真环境)\n    *   Isaac Sim (可选，如需使用相关环境)\n\n> **提示**：由于涉及复杂的仿真器依赖，强烈建议使用 Conda 管理虚拟环境。国内用户可配置清华或中科大镜像源加速包下载。\n\n## 安装步骤\n\n### 1. 创建并激活虚拟环境\n```bash\nconda create -n internnav python=3.9 -y\nconda activate internnav\n```\n\n### 2. 安装 PyTorch\n请根据您的 CUDA 版本选择对应的安装命令（以下为 CUDA 11.8 示例，国内用户可使用清华源）：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 克隆项目代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav.git\ncd InternNav\n```\n\n### 4. 安装项目依赖\n安装核心依赖库及 Habitat 相关组件：\n```bash\npip install -e .\n```\n\n> **注意**：若需使用 Isaac Sim 环境或特定数据集，请参考官方文档中的额外依赖安装说明。部分大型仿真器可能需要单独编译安装。\n\n## 基本使用\n\nInternNav 提供了从推理演示到完整训练的流程。以下是两个最常用的入门场景。\n\n### 场景一：运行推理演示 (Inference Only)\n快速体验预训练的 **InternVLA-N1** 模型效果，无需重新训练。\n\n```bash\n# 进入脚本目录\ncd scripts\u002Fnotebooks\n\n# 运行 Jupyter Notebook 演示 (需先安装 jupyter)\njupyter notebook inference_only_demo.ipynb\n```\n在 Notebook 中按照单元格顺序执行，即可加载模型并在仿真环境中进行导航测试。\n\n### 场景二：启动模型训练\n以训练 **InternVLA-N1 (Dual System)** 模型为例，使用默认配置文件启动训练任务。\n\n```bash\n# 示例命令：使用 VLN-CE 基准数据进行训练\npython tools\u002Ftrain.py \\\n    --config configs\u002Finternvla_n1_dual_vln.yaml \\\n    --data-path .\u002Fdata\u002Fvln_ce \\\n    --output-dir .\u002Foutputs\u002Finternvla_n1_exp\n```\n\n*   `--config`: 指定模型架构与超参数配置文件（支持 Single-System, Dual-System 等多种配置）。\n*   `--data-path`: 指向已准备好的数据集路径（如 R2R, RxR 等）。\n*   `--output-dir`: 模型权重与日志的输出目录。\n\n训练完成后，可在 `.\u002Foutputs` 目录下查看日志并使用评估脚本测试模型性能。\n\n> **更多资源**：\n> *   详细的数据集准备与自定义教程：[官方文档 - Tutorials](https:\u002F\u002Finternrobotics.github.io\u002Fuser_guide\u002Finternnav\u002Ftutorials\u002Findex.html)\n> *   预训练模型下载：[HuggingFace Model Zoo](https:\u002F\u002Fhuggingface.co\u002FInternRobotics)","某智慧物流团队正致力于开发一款能在复杂仓库环境中自主执行“去 A 区货架取货”指令的移动机器人。\n\n### 没有 InternNav 时\n- **环境适配成本高**：团队需分别针对 Habitat 和 Isaac Sim 编写两套独立的仿真接口代码，难以统一训练与评估标准。\n- **泛化能力受限**：基于传统规则或小型数据集训练的模型，一旦进入未见过的真实仓库布局，导航成功率急剧下降，频繁迷路。\n- **研发周期漫长**：缺乏端到端的基础模型支持，从视觉感知到路径规划需手动串联多个模块，调试离散动作空间与连续轨迹输出耗时数月。\n- **数据瓶颈明显**：自建场景数据量小且单一，无法覆盖多样化的仓库角落和动态障碍物，导致模型鲁棒性不足。\n\n### 使用 InternNav 后\n- **一站式仿真兼容**：利用 InternNav 的模块化架构，团队在同一套代码库中无缝切换 Habitat 与 Isaac Sim 环境，大幅降低了环境适配工作量。\n- **零样本泛化突破**：直接加载预训练的 InternVLA-N1 基础模型，机器人凭借在 3000+ 场景中学习的经验，实现了在真实新环境中的零样本成功导航。\n- **全系统高效构建**：借助工具对 VLN-CE 及连续轨迹输出的原生支持，团队快速完成了从语言指令到平滑移动轨迹的端到端部署，研发效率提升数倍。\n- **数据生态丰富**：直接复用 InternData-N1 大规模数据集进行微调，模型迅速掌握了处理复杂对话指令和动态避障的高阶能力。\n\nInternNav 通过提供统一的全栈导航工具箱与领先的基础模型，将机器人从“特定场景的遥控玩具”进化为“具备通用理解能力的智能体”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInternRobotics_InternNav_6b35c853.png","InternRobotics","Intern Robotics","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FInternRobotics_3c4861a1.png","Building inclusive infrastructure for Embodied AI, from Shanghai AI Lab.",null,"embodiedai@pjlab.org.cn","https:\u002F\u002Finternrobotics.shlab.org.cn","https:\u002F\u002Fgithub.com\u002FInternRobotics",[85,89,93],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",66,{"name":90,"color":91,"percentage":92},"Python","#3572A5",33.6,{"name":94,"color":95,"percentage":96},"Shell","#89e051",0.3,806,111,"2026-04-17T16:09:40","MIT",4,"未说明","需要 NVIDIA GPU（基于 PyTorch, Habitat, Isaac Sim），具体型号和显存未说明",{"notes":105,"python":102,"dependencies":106},"该工具是基于 PyTorch、Habitat 和 Isaac Sim 的具身导航工具箱。支持多种仿真平台（Habitat 和 Isaac Sim）及数据集。由于依赖 Isaac Sim，通常建议在 Linux 环境下运行并配备高性能 NVIDIA 显卡。具体的版本要求和安装细节需参考官方文档链接。",[107,108,109],"PyTorch","Habitat","Isaac Sim",[54,15],[112,113,114,115,116,117,118,119,120,121],"mllms","navigation","robotics","vision-language-action-model","vision-language-navigation","visual-navigation","spatial-ai","spatial-intelligence","vla","vlm","2026-03-27T02:49:30.150509","2026-04-18T09:19:23.207243",[125,130,135,139,144,149,154],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},39061,"S2 模型训练效果与论文指标差距较大（如 SR 低 15 个点），可能是什么原因？","建议尝试将 gradient accumulate step 设为 2，并调大 batch size。通常 batch size 越大效果越好。如果使用的是部分数据集（如仅 R2R+RXR+scalevln），效果可能会略低于论文中的全量数据训练结果（例如 48.2 vs 更高）。此外，请确认是否使用了足够的算力（如 32 卡 A100）进行训练。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F300",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},39062,"在真实环境部署 DualVLN 时，LLM 输出只有 discrete action，无法进入 System 1 推理，且机器人出现转圈或无法识别停止指令的情况，如何解决？","这可能是因为下载的模型权重文件损坏。建议重新下载权重文件后再试。有用户反馈在 Go2 机器人上重新下载权重后，即使不额外抬高相机也能获得较好的性能。如果问题依旧，请检查日志中是否有 'non-meta parameter' 相关的警告，并确保服务器端代码逻辑正确。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F327",{"id":136,"question_zh":137,"answer_zh":138,"source_url":134},39063,"运行 realworld 部署脚本时遇到 OOM（显存溢出）错误，如何解决？","需要在调用 agent.step 方法时添加 `with torch.no_grad():` 上下文管理器。具体修改是在 `scripts\u002Frealworld\u002Fhttp_internvla_server.py` 文件中，找到 `dual_sys_output = agent.step(...)` 这一行，在其外层包裹 `with torch.no_grad():`。这样可以避免计算梯度，从而节省显存解决 OOM 问题。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39064,"S1 模型从头训练时 Loss 基本不下降，网络难以收敛，该怎么办？","首先检查 aux_loss 的下降情况，正常训练下该项 loss 最终应能降到 0.2 左右。如果 aux_loss 下降不明显，可能是训练步数不足。建议在 batch size 为 1024 的设置下，尝试训练约 80k steps。如果仍不收敛，请对比官方日志确认其他超参数设置是否一致。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F158",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},39065,"推理时遇到 AttributeError: 'InternVLAN1Model' object has no attribute 'latent_queries' 错误，如何解决？","该错误通常是由于模型配置文件与实际加载的 checkpoint 不匹配导致的。请检查 `AgentCfg` 中的 `policy_name` 是否正确对应了所使用的模型版本（例如 'InternVLAN1_Policy'）。如果是使用特定的 snapshot 路径（如 N1-wo-dagger），请确保配置中的模型架构定义与该 checkpoint 完全一致，必要时需更新代码以适配新版本的模型结构。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F238",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},39066,"真机部署时机器人出现“过早转弯”现象（例如距离目标物体还有 3 米就转弯导致撞墙），可能的原因是什么？","这可能与相机的型号及安装视角有关。请确认使用的 RGBD 相机是否为 Intel D435i。不同相机的视场角（FOV）和深度感知能力不同，可能会影响模型对距离的判断。如果是相机视角问题，可能需要调整相机安装高度或角度，使其更接近训练数据时的采集视角。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F175",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},39067,"NavDP 训练代码中只使用了无目标导航和点目标导航任务，与论文中提到的使用四种任务不符，这是为什么？","这是因为存在不同版本的模型。`navdp-cross-modal` 模型是在包含 HM3D, MP3D, 3D-Front, Replica, Gibson 和 HSSD 场景的全量数据集上训练的，并且增加了 goal encoding alignment loss，因此效果更好。而旧版模型仅使用了部分子集数据进行训练。如果遇到加载 `navdp-cross-modal.ckpt` 时报 shape mismatch 错误，是因为模型架构尺寸不同，需要使用对应的配置文件或更新代码以适配新的 position embedding 维度（如从 130 改为 132）。","https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fissues\u002F51",[160,165,170,175,180],{"id":161,"version":162,"summary_zh":163,"released_at":164},314984,"0.3.1","## v0.3.1 版本更新日志（2026年2月9日）  \n### 亮点  \n- 更新 InternData-N1 VLN-PE v0.5 格式的数据集转换 (#288)  \n- 支持 Habitat 评估中的 `vis_debug` 选项 (#265)  \n\n### 新特性  \n- 支持 Habitat 评估中的 `vis_debug` 选项 (#265)  \n\n### 优化  \n- 将子模块路径由 `src` 更新为 `third_party` (#266)  \n\n### Bug 修复  \n- 修复 VLLN 路径处理问题 (#228)  \n- 修复 InternData-N1 VLN-PE v0.5 格式的数据集转换问题 (#288)  \n\n完整更新日志：https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fcompare\u002Frelease\u002Fv0.3.0...release\u002Fv0.3.1","2026-02-11T02:56:14",{"id":166,"version":167,"summary_zh":168,"released_at":169},314985,"0.3.0","## v0.3.0 更改日志（2026年1月5日）  \n### 亮点  \n- 支持 InternVLA-N1 的训练及在 RxR 数据集上的评估 (#184)  \n- 支持 [VL-LN 基准](https:\u002F\u002Farxiv.org\u002Fhtml\u002F2512.22342v2) 的训练与评估 (#193, #198)  \n- 新增无碰撞闪避控制器 (#189)  \n\n### 新特性  \n- 添加 InternVLA-N1 的训练代码 (#184)  \n- 支持在 RxR 数据集上进行评估 (#184)  \n- 添加 VL-LN 基准基线的训练代码 (#198)  \n- 支持在 VL-LN 基准上进行评估 (#193)  \n- 新增无碰撞闪避控制器 (#189)  \n\n### 改进  \n- 在 Habitat 评估器中解耦 System 2 和双系统评估功能，以提高可读性 (#184)  \n- 更新 VLN-PE 中的 InternVLA-N1 代理，使其与更新后的 InternVLA-N1 策略接口保持一致 (#184)  \n- 增强 Habitat 评估流水线，以处理结果中的 NaN 值 (#217)  \n- 更新 README，加入社区教程 (#217)  \n\n### Bug 修复  \n- 修复 requirements 文件中 diffusers 的版本问题 (#184)  \n- 修复 VLN-PE 中结果 JSON 的保存路径 (#217)  \n- 修复 RxR 评估结果收集中的一个 bug (#217)  \n- 移除 scripts\u002Fdemo 中的遗留代码 (#217)  \n\n### 贡献者  \n@kellyiss @DuangZhu @0309hws @kew6688  \n\n完整更改日志：https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fcompare\u002Frelease\u002Fv0.2.0...release\u002Fv0.3.0","2026-01-07T05:29:47",{"id":171,"version":172,"summary_zh":173,"released_at":174},314986,"0.2.0","\r\n## v0.2.0 版本更新日志（2025年12月4日）\r\n### 亮点\r\n- 支持 VLN-PE 的分布式评估，使用 16 张 GPU 将完整基准测试的运行时间缩短至约 1.6 小时（相比单 GPU 评估提速约 13 倍）(#168)\r\n- 通过将 `DistributedEvaluator` 和 `HabitatEnv` 集成到 InternNav 框架中，优化 Habitat 评估流程 (#168)\r\n- 支持用于依赖隔离的安装标志：`[habitat]`、`[isaac]`、`[model]` (#135)\r\n\r\n### 新特性\r\n- 支持 VLN-PE 的分布式评估 (#168)\r\n- 支持统一的评估脚本 `eval.py`，并在 `scripts\u002Feval\u002Fconfigs` 中新增 Habitat 评估配置文件 (#168)\r\n- 支持用于依赖隔离的安装标志 (#168)\r\n\r\n### 优化\r\n- 添加带有 episode pool 管理功能的 `HabitatEnv` (#168)\r\n- 更新 `InternUtopiaEnv` 以支持分布式执行和 episode pool 管理 (#168)\r\n- 在 VLN-PE 中增强 `episode_loader`，使其兼容新的分布式模式 (#168)\r\n- 更新 `data_collector` 以支持进度检查点保存以及在分布式评估中的增量结果聚合。(#168)\r\n\r\n### Bug 修复\r\n- 修复评估器启动时 Isaac Sim 初始化后日志记录器被禁用的问题 (#168)\r\n- 修复数据加载器中 `revise_one_data()` 被错误地应用于所有数据集的 bug (#168)\r\n- 修复 InternVLA-N1 评估过程中可视化图像尺寸不匹配的问题 (#168)\r\n- 修复 rdp 策略下分布式评估崩溃的问题 (#168)\r\n- 修复 GitHub CI 测试问题 (#168)\r\n\r\n### 贡献者\r\n本次发布共有 3 名开发者参与贡献。  \r\n@kew6688、@Gariscat、@yuqiang-yang\r\n\r\n完整更新日志：https:\u002F\u002Fgithub.com\u002FInternRobotics\u002FInternNav\u002Fcompare\u002Frelease\u002Fv0.1.0...release\u002Fv0.2.0","2025-12-08T08:59:36",{"id":176,"version":177,"summary_zh":178,"released_at":179},314987,"0.1.1","- 修复现有问题\n- 根据问题更新\n- 新的 Docker 镜像\n- IROS 挑战提交脚本已修复","2025-09-16T08:37:06",{"id":181,"version":182,"summary_zh":183,"released_at":184},314988,"0.1.0","欢迎来到 InternNav IROS 挑战赛发布版。本版本为参赛者提供了一个稳定的代码基线，同时附带基准模型和已发布的 InternVLA-N1 基准数据集。","2025-09-08T03:32:05"]