GR00T-Dreams
GR00T-Dreams 是英伟达 GEAR 实验室推出的一项创新方案,旨在利用世界模型解决机器人训练中数据匮乏的难题。它基于 NVIDIA Cosmos 视频基础模型,仅需一张初始图片和简单的语言指令,就能生成海量的合成机器人运动轨迹视频。
传统机器人学习往往依赖昂贵且难以获取的真实遥操作数据,导致在新环境或新任务上的泛化能力受限。GR00T-Dreams 通过生成逼真的合成数据,让机器人无需大量真实演示即可学会在陌生环境中执行复杂任务,显著降低了数据采集成本并提升了模型的通用性。
该工具主要面向机器人领域的研究人员与开发者,特别是那些从事具身智能、强化学习或需要构建大规模训练数据集的团队。其技术亮点在于完整的自动化流水线:从微调视频世界模型、生成合成视频,到利用逆动力学模型(IDM)提取动作并转换为标准格式,最终可直接用于微调如 GR00T N1 等机器人策略模型。目前,该项目已开源核心代码与预训练模型,支持多种主流机器人形态,为加速通用机器人技术的研发提供了强有力的基础设施。
使用场景
某机器人初创公司正急于让新购入的 Fourier GR1 人形机器人在未实地部署的陌生厨房环境中,学会“从碗中盛菜到盘子”的复杂操作。
没有 GR00T-Dreams 时
- 数据采集成本极高:工程师需远程操控机器人反复试错,耗时数周才能收集到足够的遥操作演示数据。
- 泛化能力严重不足:一旦厨房布局微调或餐具颜色改变,模型因缺乏多样化样本而直接失效,需重新采集。
- 长尾场景覆盖难:难以模拟打滑、遮挡等罕见意外情况,导致机器人在真实落地时面对突发状况手足无措。
- 硬件依赖性强:在真机到位前,算法团队只能空转等待,无法提前进行有效的策略训练与验证。
使用 GR00T-Dreams 后
- 零样本生成轨迹:仅需输入一张厨房照片和“盛菜”指令,GR00T-Dreams 利用 Cosmos 世界模型瞬间生成海量逼真的合成视频轨迹。
- 环境适应性飞跃:通过调整提示词,轻松生成不同光照、物体位置甚至突发干扰下的训练数据,大幅提升模型泛化性。
- 自动提取动作策略:工具链自动将合成视频转化为标准的 LeRobot 格式动作序列,无需人工标注即可用于微调 GR1 控制器。
- 研发周期大幅缩短:在真机抵达前,团队已利用合成数据完成预训练,将新任务部署时间从数周压缩至数天。
GR00T-Dreams 通过构建虚拟世界模型,彻底打破了机器人学习对昂贵实体数据的依赖,让通用具身智能的快速落地成为可能。
运行环境要求
- Linux
- 必需 NVIDIA GPU
- 需支持 Cosmos-Predict2 (14B 参数视频世界模型) 及 Qwen2.5-VL/GPT-4o 评估
- 虽然未明确具体显存,但运行 14B 模型通常建议 24GB+ (如 A100/H100),且命令中指定了 cuda:0,表明依赖 CUDA 环境
未说明 (建议 64GB+ 以处理视频生成和大模型推理)

快速开始
GR00T 梦想
NVIDIA Isaac GR00T-Dreams 蓝图利用 NVIDIA Cosmos 世界基础模型,通过单张图像和语言指令生成海量的合成轨迹数据。这使得机器人无需特定的遥操作数据,便能在陌生环境中学习新任务。
作为第一步,我们发布了 DreamGen:通过视频世界模型解锁机器人学习中的泛化能力 网站 | 论文
我们提供了 DreamGen 的完整流程,其中 Cosmos-Predict2 作为视频世界模型被纳入该仓库。本仓库分为以下几部分:
请按照 cosmos-predict2-setup 中的说明安装 cosmos-predict2 的运行环境。
高阶工作流请参见 参考架构。
1. 微调视频世界模型
详情请参阅 cosmos-predict2/documentations/training_gr00t.md。
2. 使用微调后的视频世界模型生成合成机器人视频
详情请参阅 cosmos-predict2/documentations/training_gr00t.md#inference-for-dreamgen-benchmark。
3. 使用微调后的 IDM 模型将机器人动作提取为 LeRobot 格式
3.1 转换目录结构
此步骤将第 2 步中的目录结构转换为第 3.2 步所需的格式。
此脚本用于将第 2 步的目录结构转换为第 3 步所需的格式。
在第 2 步中,目录结构如下:
results/dream_gen_benchmark/
└── cosmos_predict2_14b_gr1_object/
├── 0_用右手拿起抹刀,并将碗中的食物盛到金属盘上.mp4
├── 1_用右手关上饭盒.mp4
└── ...
而在第 3 步中,目录结构应为:
results/dream_gen_benchmark/
└── cosmos_predict2_14b_gr1_object_step3/
├── 用右手拿起抹刀,并将碗中的食物盛到金属盘上/0.mp4
├── 用右手关上饭盒/0.mp4
└── ...
将第 2 步中由 cosmos-predict2 生成的视频保存至 ${COSMOS_PREDICT2_OUTPUT_DIR}。
python IDM_dump/convert_directory.py \
--input_dir "${COSMOS_PREDICT2_OUTPUT_DIR}" \
--output_dir "results/dream_gen_benchmark/cosmos_predict2_14b_gr1_object_step3"
3.2 对生成的视频进行预处理
脚本位于 IDM_dump/scripts/preprocess 文件夹下。请在命令中将 source_dir 替换为你自己的包含生成视频的数据集路径。每个脚本都针对特定的机器人形态设计。目前我们支持以下形态:
franka:Franka Emika Panda 机械臂gr1:Fourier GR1 类人机器人so100:SO-100 机械臂robocasa:RoboCasa(仿真)
(可选)3.3 训练自定义 IDM 模型
注意:仅当目标机器人形态不同于我们提供的四种形态(franka、gr1、so100 和 robocasa)时才需要执行此步骤。
在 DreamGen 环境中训练 IDM 模型
给定特定机器人的少量真实轨迹数据,我们可以训练一个 IDM 模型。以下示例命令将在 robot_sim.PickNPlace 演示数据集上训练 IDM 模型。
PYTHONPATH=. torchrun scripts/idm_training.py --dataset-path demo_data/robot_sim.PickNPlace/ --embodiment_tag gr1
另一个示例命令将在 robocasa_panda_omron 形态(RoboCasa 仿真)上训练 IDM 模型。
PYTHONPATH=. torchrun scripts/idm_training.py --dataset-path <数据集路径> --data-config single_panda_gripper --embodiment_tag "robocasa_panda_omron"
对于其他形态,你需要添加两样东西:1)IDM_dump/global_metadata/{embodiment_name} 下的 modality.json 和 stats.json 文件,2)在 gr00t/experiment/data_config_idm.py 中添加针对新形态的数据配置信息。
4. 在 GR00T N1 上进行微调
脚本位于 IDM_dump/scripts/finetune 文件夹下。每个脚本都针对特定的机器人形态设计。目前我们支持以下形态:
franka:Franka Emika Panda 机械臂gr1:Fourier GR1 类人机器人so100:SO-100 机械臂robocasa:RoboCasa(仿真)
推荐的微调配置是将批次大小调至最大值,并训练 2 万步。请在 DreamGen 环境中运行该命令。
5. DreamGen 基准测试
我们提供了用于评估《DreamGen》论文中指令遵循(IF)和物理对齐(PA)的代码。
环境
评估前
请确保你的视频目录及文件名结构如下:
/mnt/amlfs-01/home/joelj/human_evals/
└── cosmos_predict2_gr1_env/
├── 0_用右手拿起抹刀,并将碗中的食物盛到金属盘上.mp4
├── 1_用右手关上饭盒.mp4
├── 2_用右手关上黑色抽屉.mp4
├── 3_用右手关上汤盆盖.mp4
.......
评估
# 成功率(由 Qwen2.5-VL 评估)
video_dir={YOUR_VIDEO_DIR} # 结构如上所述
csv_path={SAVE_PATH}
device="cuda:0"
python -m dreamgenbench.eval_sr_qwen_whole \
--video_dir "$video_dir" \
--output_csv "$csv_path" \
--device "$device"
# 如果你是零样本模型,可以指定 zeroshot 标志
python -m dreamgenbench.eval_sr_qwen_whole \
--video_dir "$video_dir" \
--output_csv "$csv_path" \
--device "$device" \
--zeroshot true
# 成功率(由 GPT-4o 评估)
video_dir={YOUR_VIDEO_DIR} # 结构如上所述
csv_path={SAVE_PATH}
api_key={YOUR_OPENAI_API_KEY}
device="cuda:0"
python -m dreamgenbench.eval_sr_gpt4o_whole \
--video_dir "$video_dir" \
--output_csv "$csv_path" \
--api_key "$api_key"
# 如果您使用的是零样本模型,可以将标志设置为 zeroshot
python -m dreamgenbench.eval_sr_gpt4o_whole \
--video_dir "$video_dir" \
--output_csv "$csv_path" \
--zeroshot true \
--api_key "$api_key"
# 物理对齐(使用 QWEN-VL,获取 PA 分数 I)
python -m dreamgenbench.eval_qwen_pa
--video_dir "$video_dir" \
--output_csv "$csv_path" \
--device "$device"
请参考 videophy 文件夹中的 README 文件以评估 PA 分数 II,然后对 PA 分数 I 和 II 的得分取平均值。
我们的基准测试旨在尽可能友好地服务于研究社区,因此每个数据集仅选择了约 50 个视频,并使用相对较小的开源 VLM 进行主要评估。因此,我们的评估协议可能并不适用于某些 OOD 场景,例如多视角视频、对物理细节的精确判断等。
@article{jang2025dreamgen,
title={DreamGen:通过视频世界模型解锁机器人学习中的泛化能力},
author={Jang, Joel 和 Ye, Seonghyeon 和 Lin, Zongyu 和 Xiang, Jiannan 和 Bjorck, Johan 和 Fang, Yu 和 Hu, Fengyuan 和 Huang, Spencer 和 Kundalia, Kaushil 和 Lin, Yen-Chen 等},
journal={arXiv 预印本 arXiv:2505.12705v2},
year={2025}
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
funNLP
funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。
cs-video-courses
cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
