tdmpc2

GitHub
791 186 中等 1 次阅读 昨天MIT其他
AI 解读 由 AI 自动生成,仅供参考

tdmpc2 是一款专为连续控制任务设计的可扩展、高鲁棒性模型强化学习算法开源实现。它旨在解决传统强化学习方法在面对复杂多变环境时,往往需要针对特定任务反复调整参数且难以泛化的痛点。通过构建高效的“世界模型”,tdmpc2 能够用同一套超参数在跨越多个领域的 104 个任务中取得优异表现,甚至支持训练单个拥有 3.17 亿参数的大规模智能体,同时胜任 80 种不同任务。

该项目特别适合人工智能研究人员、算法工程师及强化学习开发者使用。无论是进行单任务在线训练,还是利用官方提供的 300+ 预训练模型检查点进行多任务离线研究,tdmpc2 都提供了完善的代码支持与数据集资源。其核心技术亮点在于卓越的扩展性与通用性:不仅兼容状态与像素多种观测输入,最新更新的版本还增加了对有终止条件的 episodic 任务的支持。借助 Docker 或 Conda 即可快速部署,是探索下一代基于模型的强化学习研究的有力工具。

使用场景

某机器人研发团队正致力于让一台通用人形机器人在工厂环境中快速学会搬运、装配等 80 种不同的连续控制任务,且需适应从关节角度到摄像头像素等多种输入模式。

没有 tdmpc2 时

  • 调参噩梦:面对不同任务(如机械臂抓取 vs 双足行走),工程师需为每个任务单独调整超参数,耗时数周仍难收敛。
  • 样本效率低下:传统无模型强化学习需要数百万次试错交互,导致真实机器人硬件磨损严重,训练周期长达数月。
  • 泛化能力缺失:针对单一任务训练的模型无法迁移到新场景,每增加一个新动作(如“拧螺丝”)就必须重新从头训练。
  • 多模态支持困难:难以在同一架构下同时处理低维状态数据和高分辨率像素图像,迫使团队维护两套独立的代码库。

使用 tdmpc2 后

  • 统一超参数:tdmpc2 凭借鲁棒的世界模型,仅用一套默认超参数即可在 104 个连续控制任务上直接运行,消除了繁琐的调优过程。
  • 高效学习:基于模型的规划机制大幅提升了样本效率,智能体在极少交互次数下即可掌握复杂技能,显著降低硬件损耗。
  • 大规模多任务复用:团队成功训练出一个 3.17 亿参数的单一智能体,直接覆盖 80 种跨域任务,新任务只需微调或直接推理即可上手。
  • 原生多模态兼容:tdmpc2 天然支持状态和像素观测,团队无需改造架构即可让机器人同时利用关节传感器和视觉摄像头进行决策。

tdmpc2 通过构建可扩展的鲁棒世界模型,将原本碎片化、高成本的机器人训练流程转化为统一、高效且能大规模泛化的标准化解决方案。

运行环境要求

操作系统
  • Linux
GPU
  • 必需
  • 单任务在线 RL 及评估多任务模型需至少 8GB 显存
  • 训练 3.17 亿参数模型需至少 24GB 显存
内存

单任务在线 RL 最低 12GB;多任务离线 RL(80 任务数据集)需 128GB。

依赖
notes推荐使用 Docker 或 conda 安装环境。运行 Meta-World 任务需特定版本的 MuJoCo (2.1.0) 和 gym (0.21.0),并需下载官方 license 文件。运行 ManiSkill2 需额外下载资产文件并配置环境变量。支持状态观测和像素观测(视觉策略)。
python未说明
torch
gym==0.21.0 (Meta-World 任务)
mujoco==2.1.0 (Meta-World 任务)
mani_skill2
dm_control
metaworld
myosuite
tdmpc2 hero image

快速开始

TD-MPC2

官方实现

TD-MPC2:用于连续控制的可扩展、鲁棒世界模型,由

Nicklas HansenHao Su*、Xiaolong Wang*(加州大学圣地亚哥分校)共同开发


[官网] [论文] [模型] [数据集]


公告(2025年4月):支持分幕任务!

我们在最新版本中新增了对分幕强化学习(具有终止状态的任务)的支持。可通过设置 episodic=true 来启用此功能,但默认仍为禁用状态,以确保不同版本之间结果的可复现性。


概述

TD-MPC2 是一种可扩展、鲁棒的基于模型的强化学习算法。它在跨越多个领域的 104 个连续控制任务中,仅使用 一套 超参数,便能与现有的无模型和基于模型的方法相媲美(右图)。此外,我们还展示了 TD-MPC2 的可扩展性:通过训练一个拥有 3.17 亿参数的智能体,在多个领域、不同机器人本体和动作空间上完成 80 个任务(左图)。


本仓库包含用于训练和评估单任务在线强化学习以及多任务离线强化学习 TD-MPC2 智能体的代码。我们还开源了 300+模型检查点(包括 12 个多任务模型),涵盖 4 个任务领域:DMControlMeta-WorldManiSkill2MyoSuite,以及用于训练多任务模型的我们的 30 任务和 80 任务数据集。我们的代码库同时支持状态观测和像素观测。我们希望本仓库能成为未来基于模型强化学习研究的有用社区资源。


快速入门

运行 TD-MPC2 的单任务在线强化学习需要一台配备 GPU 且至少有 12 GB 内存的机器;而使用我们提供的 80 任务数据集进行多任务离线强化学习则需 128 GB 内存。对于单任务在线强化学习以及评估提供的多任务模型(最高 3.17 亿参数),建议使用显存至少为 8 GB 的 GPU。训练 3.17 亿参数的模型则需要显存至少 24 GB 的 GPU。

我们提供了一个 Dockerfile 以便于安装。您可以通过以下命令构建 Docker 镜像:

cd docker && docker build . -t <user>/tdmpc2:1.0.1

该 Docker 镜像包含了运行 DMControl 所需的所有依赖项。我们还在 这里 提供了一个预构建的 Docker 镜像。

如果您更倾向于使用 conda 而不是 Docker,请先运行以下命令:

conda env create -f docker/environment.yaml

docker/environment.yaml 文件会安装训练 DMControl 任务所需的依赖。其他领域的依赖项可按照 docker/environment.yaml 中的说明进行安装。

若要运行 ManiSkill2,您还需要下载并链接必要的资源,方法是运行:

python -m mani_skill2.utils.download_asset all

这会将资源下载到 ./data 目录下。您可以将这些资源移动到任何位置。然后,在您的 ~/.bashrc 文件中添加以下行:

export MS2_ASSET_DIR=<path>/<to>/<data>

并重启终端。请注意,Meta-World 需要 MuJoCo 2.1.0 和 gym==0.21.0,而这些软件包的安装正变得越来越困难。我们在此托管不受限制的 MuJoCo 2.1.0 许可证(由 Google DeepMind 提供),地址为 https://www.tdmpc2.com/files/mjkey.txt。您可以通过运行以下命令下载许可证:

wget https://www.tdmpc2.com/files/mjkey.txt -O ~/.mujoco/mjkey.txt

根据您现有的系统软件包情况,可能还需要安装其他依赖项。请参阅 docker/Dockerfile 以获取推荐的系统软件包列表。


支持的任务

本代码库支持我们论文中使用的来自 DMControlMeta-WorldManiSkill2MyoSuite 的全部 104 个连续控制任务。具体来说,它支持 DMControl 中的 39 个任务(包括 11 个自定义任务)、Meta-World 中的 50 个任务、ManiSkill2 中的 5 个任务以及 MyoSuite 中的 10 个任务,并覆盖了论文中涉及的所有任务。以下是各任务域的预期命名格式:

任务
dmcontrol dog-run
dmcontrol cheetah-run-backwards
metaworld mw-assembly
metaworld mw-pick-place-wall
maniskill pick-cube
maniskill pick-ycb
myosuite myo-key-turn
myosuite myo-key-turn-hard

这些任务可以通过在 evaluation.py 中指定 task 参数来运行。多任务训练和评估则分别通过设置 task=mt80task=mt30 来指定 80 任务和 30 任务的数据集。虽然在训练或评估我们的多任务模型时,通常无需直接访问底层的任务 ID 或嵌入,但我们工作中使用的任务名称到任务嵌入的映射可以在 这里找到。截至 2025 年 4 月,我们的代码库也提供了对其他 MuJoCo/Box2d Gymnasium 任务的基本支持;有关任务列表,请参阅 envs 目录。按照 envs 中的示例,添加对自定义任务的支持应该相对简单。

注意: 我们还支持 DMControl 任务中的图像观测。如果您希望训练视觉策略,可以使用参数 obs=rgb

使用示例

我们将在下面提供如何评估我们提供的 TD-MPC2 检查点,以及如何训练您自己的 TD-MPC2 智能体的示例。

评估

以下是一些关于如何评估已下载的单任务和多任务检查点的示例。

$ python evaluate.py task=mt80 model_size=48 checkpoint=/path/to/mt80-48M.pt
$ python evaluate.py task=mt30 model_size=317 checkpoint=/path/to/mt30-317M.pt
$ python evaluate.py task=dog-run checkpoint=/path/to/dog-1.pt save_video=true

所有单任务检查点都期望 model_size=5。多任务检查点则有多种模型尺寸可供选择。可用的参数为 model_size={1, 5, 19, 48, 317}。请注意,目前尚不支持对多任务检查点进行单任务评估。完整的参数列表请参阅 config.yaml

训练

请参阅下方示例,了解如何在单任务(在线强化学习)和多任务数据集(离线强化学习)上训练 TD-MPC2。我们建议在 config.yaml 中配置 Weights and Biases (wandb) 以跟踪训练进度。

$ python train.py task=mt80 model_size=48 batch_size=1024
$ python train.py task=mt30 model_size=317 batch_size=1024
$ python train.py task=dog-run steps=7000000
$ python train.py task=walker-walk obs=rgb

对于单任务在线强化学习,我们推荐使用默认超参数,包括默认的 500 万参数模型规模(model_size=5)。多任务离线强化学习则受益于更大的模型规模,但更大的模型在训练和评估时的成本也会相应增加。可用的模型规模参数为 model_size={1, 5, 19, 48, 317}。完整参数列表请参阅 config.yaml


引用

如果您认为我们的工作有所帮助,请考虑按以下方式引用我们的论文:

@inproceedings{hansen2024tdmpc2,
  title={TD-MPC2: 可扩展、鲁棒的连续控制世界模型}, 
  author={Nicklas Hansen 和 Hao Su 和 Xiaolong Wang},
  booktitle={国际表征学习大会 (ICLR)},
  year={2024}
}

以及原始的 TD-MPC 论文:

@inproceedings{hansen2022tdmpc,
  title={用于模型预测控制的时间差分学习},
  author={Nicklas Hansen 和 Xiaolong Wang 和 Hao Su},
  booktitle={国际机器学习大会 (ICML)},
  year={2022}
}

贡献

我们非常欢迎您为本项目做出贡献。如果您有任何建议或问题报告,欢迎随时提交议题或拉取请求,但在操作之前请先阅读我们的贡献指南。我们的目标是构建一个能够轻松扩展到新环境和新任务的代码库,也非常期待听到您的使用体验!


许可证

本项目采用 MIT 许可证授权——详情请参阅 LICENSE 文件。请注意,该仓库依赖于第三方代码,这些代码受其各自许可证的约束。

常见问题

相似工具推荐

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85.3k|★★☆☆☆|今天
图像数据工具视频

funNLP

funNLP 是一个专为中文自然语言处理(NLP)打造的超级资源库,被誉为"NLP 民工的乐园”。它并非单一的软件工具,而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。 面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点,funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具,还独特地收录了丰富的垂直领域资源,如法律、医疗、金融行业的专用词库与数据集,甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性,从基础的字典词典到前沿的 BERT、GPT-2 模型代码,再到高质量的标注数据和竞赛方案,应有尽有。 无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师,还是从事人工智能研究的学者,都能在这里找到急需的“武器弹药”。对于开发者而言,它能大幅减少寻找数据和复现模型的时间;对于研究者,它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神,极大地降低了中文自然语言处理的开发与研究成本,是中文 AI 社区不可或缺的宝藏仓库。

79.9k|★☆☆☆☆|1周前
语言模型数据工具其他

cs-video-courses

cs-video-courses 是一个精心整理的计算机科学视频课程清单,旨在为自学者提供系统化的学习路径。它汇集了全球知名高校(如加州大学伯克利分校、新南威尔士大学等)的完整课程录像,涵盖从编程基础、数据结构与算法,到操作系统、分布式系统、数据库等核心领域,并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。 面对网络上零散且质量参差不齐的教学资源,cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容,仅收录真正的大学层级课程,排除了碎片化的简短教程或商业广告,确保用户能接触到严谨的学术内容。 这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员,以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽,不仅包含传统的软件工程与网络安全,还细分了生成式 AI、大语言模型、计算生物学等新兴学科,并直接链接至官方视频播放列表,让用户能一站式获取高质量的教育资源,免费享受世界顶尖大学的课堂体验。

79.8k|★☆☆☆☆|1周前
其他图像数据工具

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2周前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.9k|★★★☆☆|今天
语言模型图像开发框架

awesome-machine-learning

awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。

72.1k|★☆☆☆☆|2周前
开发框架其他