InternNav

GitHub
806 111 较难 1 次阅读 今天MIT其他语言模型
AI 解读 由 AI 自动生成,仅供参考

InternNav 是商汤机器人(InternRobotics)推出的开源工具箱,专为构建通用具身导航基础模型而设计。它基于 PyTorch、Habitat 和 Isaac Sim 打造,旨在解决机器人在复杂环境中“听懂指令并自主移动”的难题,支持从视觉语言导航到连续轨迹规划的全流程开发。

无论是学术研究人员还是算法工程师,都能利用 InternNav 灵活定制导航系统的各个模块。它不仅兼容主流仿真平台,还内置了 6 大数据集与 10 多个经典基线模型,大幅降低了复现前沿算法的门槛。其核心亮点在于集成了目前最先进的导航基础模型 InternVLA-N1,该模型基于包含 3000+ 场景和 83 万条数据的高质量数据集训练而成,具备卓越的零样本泛化能力,能在真实世界中表现出色。此外,InternNav 还率先支持双系统导航架构及交互式实例目标导航等新任务,为探索下一代智能移动机器人提供了坚实的技术底座。

使用场景

某智慧物流团队正致力于开发一款能在复杂仓库环境中自主执行“去 A 区货架取货”指令的移动机器人。

没有 InternNav 时

  • 环境适配成本高:团队需分别针对 Habitat 和 Isaac Sim 编写两套独立的仿真接口代码,难以统一训练与评估标准。
  • 泛化能力受限:基于传统规则或小型数据集训练的模型,一旦进入未见过的真实仓库布局,导航成功率急剧下降,频繁迷路。
  • 研发周期漫长:缺乏端到端的基础模型支持,从视觉感知到路径规划需手动串联多个模块,调试离散动作空间与连续轨迹输出耗时数月。
  • 数据瓶颈明显:自建场景数据量小且单一,无法覆盖多样化的仓库角落和动态障碍物,导致模型鲁棒性不足。

使用 InternNav 后

  • 一站式仿真兼容:利用 InternNav 的模块化架构,团队在同一套代码库中无缝切换 Habitat 与 Isaac Sim 环境,大幅降低了环境适配工作量。
  • 零样本泛化突破:直接加载预训练的 InternVLA-N1 基础模型,机器人凭借在 3000+ 场景中学习的经验,实现了在真实新环境中的零样本成功导航。
  • 全系统高效构建:借助工具对 VLN-CE 及连续轨迹输出的原生支持,团队快速完成了从语言指令到平滑移动轨迹的端到端部署,研发效率提升数倍。
  • 数据生态丰富:直接复用 InternData-N1 大规模数据集进行微调,模型迅速掌握了处理复杂对话指令和动态避障的高阶能力。

InternNav 通过提供统一的全栈导航工具箱与领先的基础模型,将机器人从“特定场景的遥控玩具”进化为“具备通用理解能力的智能体”。

运行环境要求

操作系统
  • 未说明
GPU

需要 NVIDIA GPU(基于 PyTorch, Habitat, Isaac Sim),具体型号和显存未说明

内存

未说明

依赖
notes该工具是基于 PyTorch、Habitat 和 Isaac Sim 的具身导航工具箱。支持多种仿真平台(Habitat 和 Isaac Sim)及数据集。由于依赖 Isaac Sim,通常建议在 Linux 环境下运行并配备高性能 NVIDIA 显卡。具体的版本要求和安装细节需参考官方文档链接。
python未说明
PyTorch
Habitat
Isaac Sim
InternNav hero image

快速开始

demo

HomePage Technical Report — InternVLA-N1 DualVLN Paper — arXiv doc GitHub star chart GitHub Issues Discord

🏠 简介

InternNav 是一个基于 PyTorch、Habitat 和 Isaac Sim 的一体化开源具身导航工具箱。

亮点

  • 全栈导航系统的模块化支持

我们支持整个导航系统的模块化定制与研究,包括离散动作空间的视觉-语言导航(VLN-CE)、给定点/图像/轨迹目标的视觉导航(VN),以及连续轨迹输出的完整 VLN 系统。

  • 与主流仿真平台的兼容性

该工具箱兼容不同的训练和评估需求,支持 Habitat 和 Isaac Sim 等主流仿真平台的不同环境。

  • 全面的数据集、模型和基准测试

该工具箱支持最全面的 6 个数据集和基准测试,以及 10 多种流行的基线模型,既包括主流方法,也包含我们新建立的创新方法。

  • 当前最先进的水平

该工具箱支持最先进的高质量导航数据集 InternData-N1,其中包含 3000 多个场景和 83 万条 VLN 数据,覆盖多样化的具身形态和场景;同时还推出了首个双系统导航基础模型 InternVLA-N1,该模型在所有基准测试中均表现出色,并具备在真实世界中的零样本泛化能力。

🔥 最新消息

时间 更新内容
2026/01 InternNav v0.3.0 发布。
2025/12 我们引入了交互式实例目标导航(IIGN),并发布了 VL-LN 基准测试,以使 InternVLA-N1 能够解决这一任务。同时提供了大规模对话-轨迹数据集的收集、训练和评估支持。详情请参见 我们的网站
2025/12 InternVLA-N1 的训练代码及相应的 使用文档 已经发布。本次发布提供了两种模型配置:InternVLA-N1(双系统) 带 NavDP* 和 InternVLA-N1(双系统) DualVLN 。有关模型架构和训练细节,请参阅 DualVLN 论文
2025/11 InternNav v0.2.0 发布——新增了 VLN-PE 的分布式评估支持。
2025/10 添加了 InternVLA-N1 的 仅推理演示
2025/10 InternVLA-N1 的 技术报告 已发布。请访问我们的 主页 查看。
2025/09 InternVLA-N1 的真实世界部署代码发布。上传 Unitree Go2 的 3D 打印 文件
2025/07 主办 🏆 IROS 2025 Grand Challenge(详情请见 官方网站)。
2025/07 InternNav v0.1.1 发布。

📋 目录

📚 快速入门

请参阅 文档,了解如何从安装到训练或评估支持的模型,快速上手 InternNav。

📦 概览

🧪 支持的基准测试

VLN 基准测试 VN 基准测试

🤗 模型动物园与下载

🧠 VLN 单系统 🎯 VN 系统(System1) 🤝 VLN 多系统

📊 基准测试结果

VLN-CE 基准测试

📍 R2R 数据集

模型 观测方式 NE ↓ OS ↑ SR ↑ SPL ↑
InternVLA-N1-wo-dagger(S2)+ ShortestPathFollower - 4.89 60.6 55.4 52.1
InternVLA-N1-wo-dagger(双系统) with NavDP* RGB-D 4.83 63.3 58.2 54.0
InternVLA-N1(S2)+ ShortestPathFollower - 4.25 68.3 60.9 55.2
InternVLA-N1(双系统) with NavDP* RGB-D 4.22 70.4 64.1 58.1
InternVLA-N1(双系统) DualVLN RGB 4.05 70.7 64.3 58.5

📍 RxR 数据集

模型 观测方式 NE ↓ SR ↑ SPL ↑ nDTW ↑
InternVLA-N1(S2)+ ShortestPathFollower - 5.71 63.5 55.0 46.8
InternVLA-N1(双系统) with NavDP* RGB-D 4.70 59.7 50.6 69.7
InternVLA-N1(双系统) DualVLN RGB 4.58 61.4 51.8 70.0

VLN-PE 基准测试

📍 R2R 未见场景中的 Flash 控制器

模型 NE ↓ OS ↑ SR ↑ SPL ↑
Seq2Seq 8.27 43.0 15.7 9.7
CMA 7.52 45.0 24.4 18.2
RDP 6.98 42.5 24.9 17.5
InternVLA-N1(System 2)+ iPlanner 4.91 55.53 47.07 41.09
InternVLA-N1(System 2)+ NavDP 4.22 67.33 58.72 50.98
InternVLA-N1(双系统) DualVLN 3.90 69.93 63.62 56.49

📍 R2R 未见场景中的物理控制器

模型 NE ↓ OS ↑ SR ↑ SPL ↑
Seq2Seq 7.88 28.1 15.1 10.7
CMA 7.26 31.4 22.1 18.6
RDP 6.72 36.9 25.2 17.7
InternVLA-N1(双系统) DualVLN 4.66 55.9 51.6 42.49

视觉导航基准测试

📍 ClutteredEnv 数据集

模型 SR ↑ SPL ↑
iPlanner 84.8 83.6
ViPlanner 72.4 72.3
NavDP <InternVLA-N1(System 1)> 89.8 87.7

📍 InternScenes 数据集

模型 SR ↑ SPL ↑
iPlanner 48.8 46.7
ViPlanner 54.3 52.5
NavDP <InternVLA-N1(System 1)> 65.7 60.7

🔧 自定义

请参阅教程,了解 InternNav 的高级用法,包括数据集、模型和实验设置的自定义。

👥 贡献

如果您希望为 InternNav 做出贡献,请查看我们的贡献指南。例如,提交问题、修复框架中的错误,以及适配或添加新的策略和数据到框架中。

注: 我们欢迎您在自己的环境中部署该模型时提供的零样本性能反馈。请向我们展示您的结果,并告知我们对未来模型能力的需求。我们将挑选最有价值的建议,在接下来的几个月内与用户合作共同解决它们 :)

🚀 社区部署与最佳实践

我们很高兴看到InternNav正在被社区应用于不同机器人和真实场景中,并不断扩展其功能。

以下是一些精选的社区驱动部署指南和解决方案文章,可供高级用户参考:

🔗 引用

如果您觉得我们的InternVLA-N1(双系统)模型有所帮助,请引用我们的ICLR论文及之前的技术报告:

@inproceedings{
  wei2026ground,
  title={Ground Slow, Move Fast: A Dual-System Foundation Model for Generalizable Vision-Language Navigation},
  author={Meng Wei and Chenyang Wan and Jiaqi Peng and Xiqian Yu and Yuqiang Yang and Delin Feng and Wenzhe Cai and Chenming Zhu and Tai Wang and Jiangmiao Pang and Xihui Liu},
  booktitle={The Fourteenth International Conference on Learning Representations},
  year={2026},
  url={https://openreview.net/forum?id=GK4rznYwhn}
}
@misc{internvla-n1,
    title = {{InternVLA-N1: An} Open Dual-System Navigation Foundation Model with Learned Latent Plans},
    author = {InternNav Team},
    year = {2025},
    booktitle={arXiv},
}

如果您使用本InternNav代码库开发了自己的方法,请引用我们的代码库:

@misc{internnav2025,
    title = {{InternNav: InternRobotics'} open platform for building generalized navigation foundation models},
    author = {InternNav Contributors},
    howpublished={\url{https://github.com/InternRobotics/InternNav}},
    year = {2025}
}
如果您使用了特定的预训练模型和基准测试,请务必引用以下原始论文。

@inproceedings{vlnpe,
  title={Rethinking the Embodied Gap in Vision-and-Language Navigation: A Holistic Study of Physical and Visual Disparities},
  author={Wang, Liuyi and Xia, Xinyuan and Zhao, Hui and Wang, Hanqing and Wang, Tai and Chen, Yilun and Liu, Chengju and Chen, Qijun and Pang, Jiangmiao},
  booktitle={Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV)},
  year={2025}
}
@inproceedings{streamvln,
    title = {StreamVLN: Streaming Vision-and-Language Navigation via SlowFast Context Modeling},
    author = {Wei, Meng and Wan, Chenyang and Yu, Xiqian and Wang, Tai and Yang, Yuqiang and Mao, Xiaohan and Zhu, Chenming and Cai, Wenzhe and Wang, Hanqing and Chen, Yilun and Liu, Xihui and Pang, Jiangmiao},
    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},
    year = {2026}
}
@inproceedings{navdp,
    title = {NavDP: Learning Sim-to-Real Navigation Diffusion Policy with Privileged Information Guidance},
    author = {Wenzhe Cai, Jiaqi Peng, Yuqiang Yang, Yujian Zhang, Meng Wei, Hanqing Wang, Yilun Chen, Tai Wang and Jiangmiao Pang},
    booktitle={2026 IEEE International Conference on Robotics and Automation (ICRA)},
    year = {2026},
}

📄 许可协议

InternNav的代码采用MIT许可证。 开源的InternData-N1数据则遵循知识共享署名-非商业性使用-相同方式共享4.0国际许可协议知识共享许可。 其他数据集如VLN-CE则沿用各自的发布许可。

👏 致谢

  • InternUtopia(原名GRUtopia):本框架中的闭环评估及GRScenes-100数据依赖于InternUtopia框架。
  • Diffusion Policy:扩散策略实现。
  • LongCLIP:长文本CLIP模型。
  • VLN-CE:基于Habitat的连续环境下的视觉-语言导航。
  • Qwen2.5-VL:预训练的视觉-语言基础模型。
  • LeRobot:本项目使用的数据格式很大程度上遵循LeRobot的规范。

版本历史

0.3.12026/02/11
0.3.02026/01/07
0.2.02025/12/08
0.1.12025/09/16
0.1.02025/09/08

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

159.3k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent

spec-kit

Spec Kit 是一款专为提升软件开发效率而设计的开源工具包,旨在帮助团队快速落地“规格驱动开发”(Spec-Driven Development)模式。传统开发中,需求文档往往与代码实现脱节,导致沟通成本高且结果不可控;而 Spec Kit 通过将规格说明书转化为可执行的指令,让 AI 直接依据明确的业务场景生成高质量代码,从而减少从零开始的随意编码,确保产出结果的可预测性。 该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程,用户只需通过简单的命令行操作,即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念,支持社区扩展与预设模板,允许用户根据特定技术栈定制开发流程。此外,Spec Kit 强调官方维护的安全性,提供稳定的版本管理,帮助开发者在享受 AI 红利的同时,依然牢牢掌握架构设计的主动权,真正实现从“凭感觉写代码”到“按规格建系统”的转变。

88.7k|★★☆☆☆|今天
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|1周前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|1周前
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|1周前
语言模型数据工具其他