GR00T-Dreams

GitHub
523 52 困难 1 次阅读 2天前Apache-2.0视频数据工具其他
AI 解读 由 AI 自动生成,仅供参考

GR00T-Dreams 是英伟达 GEAR 实验室推出的一项创新方案,旨在利用世界模型解决机器人训练中数据匮乏的难题。它基于 NVIDIA Cosmos 视频基础模型,仅需一张初始图片和简单的语言指令,就能生成海量的合成机器人运动轨迹视频。

传统机器人学习往往依赖昂贵且难以获取的真实遥操作数据,导致在新环境或新任务上的泛化能力受限。GR00T-Dreams 通过生成逼真的合成数据,让机器人无需大量真实演示即可学会在陌生环境中执行复杂任务,显著降低了数据采集成本并提升了模型的通用性。

该工具主要面向机器人领域的研究人员与开发者,特别是那些从事具身智能、强化学习或需要构建大规模训练数据集的团队。其技术亮点在于完整的自动化流水线:从微调视频世界模型、生成合成视频,到利用逆动力学模型(IDM)提取动作并转换为标准格式,最终可直接用于微调如 GR00T N1 等机器人策略模型。目前,该项目已开源核心代码与预训练模型,支持多种主流机器人形态,为加速通用机器人技术的研发提供了强有力的基础设施。

使用场景

某机器人初创公司正急于让新购入的 Fourier GR1 人形机器人在未实地部署的陌生厨房环境中,学会“从碗中盛菜到盘子”的复杂操作。

没有 GR00T-Dreams 时

  • 数据采集成本极高:工程师需远程操控机器人反复试错,耗时数周才能收集到足够的遥操作演示数据。
  • 泛化能力严重不足:一旦厨房布局微调或餐具颜色改变,模型因缺乏多样化样本而直接失效,需重新采集。
  • 长尾场景覆盖难:难以模拟打滑、遮挡等罕见意外情况,导致机器人在真实落地时面对突发状况手足无措。
  • 硬件依赖性强:在真机到位前,算法团队只能空转等待,无法提前进行有效的策略训练与验证。

使用 GR00T-Dreams 后

  • 零样本生成轨迹:仅需输入一张厨房照片和“盛菜”指令,GR00T-Dreams 利用 Cosmos 世界模型瞬间生成海量逼真的合成视频轨迹。
  • 环境适应性飞跃:通过调整提示词,轻松生成不同光照、物体位置甚至突发干扰下的训练数据,大幅提升模型泛化性。
  • 自动提取动作策略:工具链自动将合成视频转化为标准的 LeRobot 格式动作序列,无需人工标注即可用于微调 GR1 控制器。
  • 研发周期大幅缩短:在真机抵达前,团队已利用合成数据完成预训练,将新任务部署时间从数周压缩至数天。

GR00T-Dreams 通过构建虚拟世界模型,彻底打破了机器人学习对昂贵实体数据的依赖,让通用具身智能的快速落地成为可能。

运行环境要求

操作系统
  • Linux
GPU
  • 必需 NVIDIA GPU
  • 需支持 Cosmos-Predict2 (14B 参数视频世界模型) 及 Qwen2.5-VL/GPT-4o 评估
  • 虽然未明确具体显存,但运行 14B 模型通常建议 24GB+ (如 A100/H100),且命令中指定了 cuda:0,表明依赖 CUDA 环境
内存

未说明 (建议 64GB+ 以处理视频生成和大模型推理)

依赖
notes1. 核心依赖:必须首先按照外部链接安装 'cosmos-predict2' 环境,这是生成合成视频的基础。 2. 硬件架构:主要面向 NVIDIA Isaac GR00T N1 及特定机器人实体(Franka, GR1, SO-100, RoboCasa)。 3. 评估依赖:成功率评估需要本地部署 Qwen2.5-VL 或调用 GPT-4o API;物理一致性评估需要 videophy 相关组件。 4. 工作流:包含微调视频世界模型、生成视频、提取动作 (IDM)、微调策略网络及基准测试五个步骤。 5. 操作系统推断:鉴于涉及 NVIDIA 深层生态 (Cosmos, Isaac) 及 torchrun 分布式训练脚本,默认仅支持 Linux。
python未说明 (需支持 torchrun,通常建议 3.10+)
torch
cosmos-predict2
transformers (隐含,用于 Qwen)
accelerate (隐含,用于训练)
GR00T-Dreams hero image

快速开始

GR00T 梦想

介绍视频

NVIDIA Isaac GR00T-Dreams 蓝图利用 NVIDIA Cosmos 世界基础模型,通过单张图像和语言指令生成海量的合成轨迹数据。这使得机器人无需特定的遥操作数据,便能在陌生环境中学习新任务。

作为第一步,我们发布了 DreamGen:通过视频世界模型解锁机器人学习中的泛化能力 网站 | 论文

我们提供了 DreamGen 的完整流程,其中 Cosmos-Predict2 作为视频世界模型被纳入该仓库。本仓库分为以下几部分:

  1. 微调视频世界模型
  2. 生成合成视频
  3. 提取 IDM 动作
  4. 在 GR00T N1 上进行微调
  5. 复现 DreamGenBench 数据

请按照 cosmos-predict2-setup 中的说明安装 cosmos-predict2 的运行环境。

高阶工作流请参见 参考架构

1. 微调视频世界模型

详情请参阅 cosmos-predict2/documentations/training_gr00t.md

2. 使用微调后的视频世界模型生成合成机器人视频

详情请参阅 cosmos-predict2/documentations/training_gr00t.md#inference-for-dreamgen-benchmark

3. 使用微调后的 IDM 模型将机器人动作提取为 LeRobot 格式

3.1 转换目录结构

此步骤将第 2 步中的目录结构转换为第 3.2 步所需的格式。

此脚本用于将第 2 步的目录结构转换为第 3 步所需的格式。
在第 2 步中,目录结构如下:

results/dream_gen_benchmark/
└── cosmos_predict2_14b_gr1_object/
    ├── 0_用右手拿起抹刀,并将碗中的食物盛到金属盘上.mp4
    ├── 1_用右手关上饭盒.mp4
    └── ...

而在第 3 步中,目录结构应为:

results/dream_gen_benchmark/
└── cosmos_predict2_14b_gr1_object_step3/
    ├── 用右手拿起抹刀,并将碗中的食物盛到金属盘上/0.mp4
    ├── 用右手关上饭盒/0.mp4
    └── ...

将第 2 步中由 cosmos-predict2 生成的视频保存至 ${COSMOS_PREDICT2_OUTPUT_DIR}

python IDM_dump/convert_directory.py \
    --input_dir "${COSMOS_PREDICT2_OUTPUT_DIR}" \
    --output_dir "results/dream_gen_benchmark/cosmos_predict2_14b_gr1_object_step3"

3.2 对生成的视频进行预处理

脚本位于 IDM_dump/scripts/preprocess 文件夹下。请在命令中将 source_dir 替换为你自己的包含生成视频的数据集路径。每个脚本都针对特定的机器人形态设计。目前我们支持以下形态:

  • franka:Franka Emika Panda 机械臂
  • gr1:Fourier GR1 类人机器人
  • so100:SO-100 机械臂
  • robocasa:RoboCasa(仿真)

(可选)3.3 训练自定义 IDM 模型

注意:仅当目标机器人形态不同于我们提供的四种形态(franka、gr1、so100 和 robocasa)时才需要执行此步骤。

DreamGen 环境中训练 IDM 模型

给定特定机器人的少量真实轨迹数据,我们可以训练一个 IDM 模型。以下示例命令将在 robot_sim.PickNPlace 演示数据集上训练 IDM 模型。

PYTHONPATH=. torchrun scripts/idm_training.py --dataset-path demo_data/robot_sim.PickNPlace/ --embodiment_tag gr1

另一个示例命令将在 robocasa_panda_omron 形态(RoboCasa 仿真)上训练 IDM 模型。

PYTHONPATH=. torchrun scripts/idm_training.py --dataset-path <数据集路径> --data-config single_panda_gripper --embodiment_tag "robocasa_panda_omron"

对于其他形态,你需要添加两样东西:1)IDM_dump/global_metadata/{embodiment_name} 下的 modality.jsonstats.json 文件,2)在 gr00t/experiment/data_config_idm.py 中添加针对新形态的数据配置信息。

4. 在 GR00T N1 上进行微调

脚本位于 IDM_dump/scripts/finetune 文件夹下。每个脚本都针对特定的机器人形态设计。目前我们支持以下形态:

  • franka:Franka Emika Panda 机械臂
  • gr1:Fourier GR1 类人机器人
  • so100:SO-100 机械臂
  • robocasa:RoboCasa(仿真)

推荐的微调配置是将批次大小调至最大值,并训练 2 万步。请在 DreamGen 环境中运行该命令。

5. DreamGen 基准测试

我们提供了用于评估《DreamGen》论文中指令遵循(IF)和物理对齐(PA)的代码。

环境

评估前

请确保你的视频目录及文件名结构如下:

/mnt/amlfs-01/home/joelj/human_evals/
└── cosmos_predict2_gr1_env/
    ├── 0_用右手拿起抹刀,并将碗中的食物盛到金属盘上.mp4
    ├── 1_用右手关上饭盒.mp4
    ├── 2_用右手关上黑色抽屉.mp4
    ├── 3_用右手关上汤盆盖.mp4
    .......

评估

# 成功率(由 Qwen2.5-VL 评估)
video_dir={YOUR_VIDEO_DIR} # 结构如上所述
csv_path={SAVE_PATH}
device="cuda:0"
python -m dreamgenbench.eval_sr_qwen_whole \
    --video_dir "$video_dir" \
    --output_csv "$csv_path" \
    --device "$device"

# 如果你是零样本模型,可以指定 zeroshot 标志
python -m dreamgenbench.eval_sr_qwen_whole \
    --video_dir "$video_dir" \
    --output_csv "$csv_path" \
    --device "$device" \
    --zeroshot true

# 成功率(由 GPT-4o 评估)
video_dir={YOUR_VIDEO_DIR} # 结构如上所述
csv_path={SAVE_PATH}
api_key={YOUR_OPENAI_API_KEY}
device="cuda:0"
python -m dreamgenbench.eval_sr_gpt4o_whole \
    --video_dir "$video_dir" \
    --output_csv "$csv_path" \
    --api_key "$api_key"

# 如果您使用的是零样本模型,可以将标志设置为 zeroshot
python -m dreamgenbench.eval_sr_gpt4o_whole \
    --video_dir "$video_dir" \
    --output_csv "$csv_path" \
    --zeroshot true \
    --api_key "$api_key"

# 物理对齐(使用 QWEN-VL,获取 PA 分数 I)
python -m dreamgenbench.eval_qwen_pa
    --video_dir "$video_dir" \
    --output_csv "$csv_path" \
    --device "$device"

请参考 videophy 文件夹中的 README 文件以评估 PA 分数 II,然后对 PA 分数 I 和 II 的得分取平均值。

我们的基准测试旨在尽可能友好地服务于研究社区,因此每个数据集仅选择了约 50 个视频,并使用相对较小的开源 VLM 进行主要评估。因此,我们的评估协议可能并不适用于某些 OOD 场景,例如多视角视频、对物理细节的精确判断等。

@article{jang2025dreamgen,
  title={DreamGen:通过视频世界模型解锁机器人学习中的泛化能力},
  author={Jang, Joel 和 Ye, Seonghyeon 和 Lin, Zongyu 和 Xiang, Jiannan 和 Bjorck, Johan 和 Fang, Yu 和 Hu, Fengyuan 和 Huang, Spencer 和 Kundalia, Kaushil 和 Lin, Yen-Chen 等},
  journal={arXiv 预印本 arXiv:2505.12705v2},
  year={2025}
}

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|1周前
开发框架图像Agent

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.1k|★★☆☆☆|6天前
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|1周前
语言模型数据工具其他

cs-video-courses

cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。

79.8k|★☆☆☆☆|1周前
其他图像数据工具

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|1周前
Agent图像开发框架