awesome-deep-rl

GitHub
883 83 非常简单 2 次阅读 昨天MIT开发框架Agent其他
AI 解读 由 AI 自动生成,仅供参考

awesome-deep-rl 是一个精心整理的深度强化学习(Deep RL)资源清单,旨在为社区提供一站式的优质内容导航。面对深度强化学习领域资源分散、学习曲线陡峭的现状,awesome-deep-rl 通过系统化的分类整理,帮助用户快速定位所需的代码库、基准测试结果、训练环境及学习材料。

这份清单涵盖了从工业界到学术界的广泛资源,包括 Google DeepMind、OpenAI、Facebook 等机构开源的核心库(如 Ray RLLib、Dopamine、Acme),以及实用的教程、书籍和技术博客。无论是希望复现算法的研究人员,还是寻求高效开发框架的工程师,亦或是想要入门该领域的学生,都能从中获益。

awesome-deep-rl 的独特价值在于其全面性与时效性,不仅罗列了主流算法实现,还提供了竞赛信息和发展时间线,极大地降低了信息检索成本。如果你正在探索深度强化学习的奥秘,awesome-deep-rl 将是值得信赖的起点,帮助你少走弯路,高效开展研究与开发工作。

使用场景

某机器人初创公司的算法团队正在开发四足机器人的步态控制系统,计划采用深度强化学习技术在仿真环境中训练策略网络。

没有 awesome-deep-rl 时

  • 搜索引擎结果杂乱无章,难以区分过时的教程与最新的 SOTA 方案,技术选型耗时极长。
  • 不清楚哪些开源库支持特定的仿真环境,团队反复试错配置,消耗了大量宝贵的算力资源。
  • 缺乏权威的基准测试数据参考,无法快速评估当前算法性能是否达到行业达标线。
  • 新入职成员上手困难,缺少系统化的学习路径和资源指引,培训周期长达一个月。

使用 awesome-deep-rl 后

  • 通过 Libraries 分类快速锁定支持仿真训练的主流框架,如 Ray RLLib 或 K-Sim,选型效率提升 80%。
  • 参考 Benchmark Results 直接对比不同算法在相同环境下的性能,避免盲目选择低效模型。
  • 利用 Tutorials 和 Books 板块构建标准化培训流程,结合优质博客资源,新人一周内即可上手开发。
  • 借助 Environments 列表找到适配的仿真场景接口,大幅减少环境配置与调试时间,专注核心算法优化。

awesome-deep-rl 充当了深度强化学习领域的权威导航图,显著降低了技术选型门槛并加速了研发落地进程。

运行环境要求

操作系统
  • 未说明
GPU

未说明

内存

未说明

依赖
notes该仓库为深度强化学习资源合集列表,并非单一可执行工具。具体运行环境需求取决于用户选择的子项目(如 Stable Baselines, Ray RLLib, PyTorch 等)。大多数列出的库基于 Python 开发,部分深度学习算法推荐配备 NVIDIA GPU。
python未说明
awesome-deep-rl hero image

快速开始

Awesome Deep RL Awesome

一份精选的深度强化学习(Deep Reinforcement Learning)资源列表。

目录

  • AgileRL - 一个深度强化学习库,专注于通过引入 RLOps(强化学习运维)- MLOps(机器学习运维)来改进开发流程。
  • Berkeley Ray RLLib - 一个开源的强化学习库,提供高可扩展性以及用于各种应用的统一 API(应用程序接口)。
  • Berkeley Softlearning - 一个用于在连续域中训练最大熵策略的强化学习框架。
  • Catalyst - 加速的深度学习(DL)与强化学习(RL)。
  • ChainerRL - 一个基于 Chainer 构建的深度强化学习库。
  • DeepMind Acme - 一个强化学习研究框架。
  • DeepMind OpenSpiel - 一个用于通用强化学习研究以及游戏中搜索/规划的环境和算法集合。
  • DeepMind TRFL - TensorFlow 强化学习。
  • DeepRL - PyTorch 中深度强化学习算法的模块化实现。
  • DeepX machina - 一个用于现实世界深度强化学习的库,基于 PyTorch 构建。
  • d3rlpy - 一个离线深度强化学习库。
  • Facebook ELF - 一个包含 AlphaGoZero/AlphaZero 重实现的游戏研究平台。
  • Facebook ReAgent - 一个用于推理系统(强化学习、上下文赌博机等)的平台。
  • garage - 一个用于可复现强化学习研究的工具包。
  • Google Dopamine - 一个用于强化学习算法快速原型设计的研究框架。
  • Google TF-Agents - TF-Agents 是一个 TensorFlow 中的强化学习库。
  • K-Scale Labs - ksim - 一个模块化且易于使用的框架,用于在仿真中训练策略。
  • K-Scale Labs - ksim-gym - K-Sim Gym:利用 RL 让机器人更有用。基于 K-Sim 构建。
  • MAgent - 一个多智能体强化学习平台。
  • Maze - 面向应用的深度强化学习框架,解决现实世界决策问题。
  • MushroomRL - 用于强化学习实验的 Python 库。
  • NervanaSystems coach - Intel AI 实验室出品的强化学习 Coach。
  • OpenAI Baselines - 强化学习算法的高质量实现。
  • OpenRL - 一个开源的通用强化学习研究框架。
  • pytorch-a2c-ppo-acktr-gail - 优势演员 - 评论家 (A2C)、近端策略优化 (PPO)、使用 Kronecker 因子近似的大规模深度强化学习信任域方法 (ACKTR) 以及生成对抗模仿学习 (GAIL) 的 PyTorch 实现。
  • pytorch-rl - 用 PyTorch 实现的无模型深度强化学习算法。
  • reaver - 一个模块化深度强化学习框架,专注于各种基于 StarCraft II 的任务。
  • RLgraph - 用于深度强化学习的模块化计算图。
  • RLkit - 用 PyTorch 实现的强化学习框架和算法。
  • rlpyt - PyTorch 中的强化学习。
  • RLtools - 最快的用于连续控制的深度强化学习库,用纯的、无依赖的 C++ 实现(也提供 Python 绑定)。
  • skrl - 模块化强化学习库(基于 PyTorch 和 JAX),支持 NVIDIA Isaac Gym、Omniverse Isaac Gym 和 Isaac Lab。
  • SLM Lab - PyTorch 中的模块化深度强化学习框架。
  • Stable Baselines - OpenAI Baselines 的一个分支,包含强化学习算法的实现。
  • TensorForce - 一个用于应用强化学习的 TensorFlow 库。
  • Tianshou - Tianshou (天授) 是一个基于纯 PyTorch 的强化学习平台。
  • TorchRL - 一个用于 PyTorch 的开源强化学习 (RL) 库。
  • UMass Amherst Autonomous Learning Library - 一个用于构建深度强化学习智能体的 PyTorch 库。
  • Unity ML-Agents Toolkit - Unity 机器学习智能体工具包。
  • vel - 为深度学习研究带来速度。
  • DI-engine - 一个通用决策智能引擎。支持各种深度强化学习算法。

基准测试结果

环境

  • AI2-THOR - 一个近乎照片级真实感的可交互框架,用于 AI (人工智能) agents (智能体)。
  • Animal-AI Olympics - 一项 AI 竞赛,测试灵感来源于动物认知。
  • Berkeley rl-generalization - 可修改的 OpenAI Gym 环境,用于研究 RL (强化学习) 中的泛化能力。
  • BTGym - 可扩展的事件驱动型、对 RL 友好的回测库。基于 Backtrader 构建,带有 OpenAI Gym 环境 API (应用程序接口)。
  • Carla - 用于自动驾驶研究的开源模拟器。
  • CuLE - Atari 学习环境(ALE)的 CUDA 移植版本。
  • Deepdrive - 用于自动驾驶汽车的端到端模拟。
  • DeepMind AndroidEnv - 一个在 Android 设备上进行 RL 研究的库。
  • DeepMind DM Control - DeepMind 控制套件和包。
  • DeepMind Lab - 一个可定制的 3D 平台,用于基于智能体的 AI 研究。
  • DeepMind pycolab - 一个高度可定制的 gridworld (网格世界) 游戏引擎,包含一些内置功能。
  • DeepMind PySC2 - 星际争霸 II 学习环境。
  • DeepMind RL Unplugged - Offline (离线) 强化学习的基准测试。
  • Facebook EmbodiedQA - 训练 embodied (具身) 智能体,使其能够在环境中回答问题。
  • Facebook Habitat - 一个模块化的高级库,用于在各种任务、环境和模拟器中训练具身 AI 智能体。
  • Facebook House3D - 一个丰富且逼真的 3D 环境。
  • Facebook natural_rl_environment - 自然信号 Atari 环境,在论文《自然环境强化学习基准》中引入。
  • Google Research Football - 一个基于开源游戏 Gameplay Football 的 RL 环境。
  • GVGAI Gym - 一个 OpenAI Gym 环境,适用于用视频游戏描述语言编写的游戏,包括通用视频游戏竞赛框架。
  • gym-doom - 基于 VizDoom 的 Doom 环境。
  • gym-duckietown - 用于 Duckietown 宇宙的自动驾驶汽车模拟器。
  • gym-gazebo2 - 一个使用 ROS 2 和 Gazebo 开发和比较强化学习算法的工具包。
  • gym-ignition - 使用 Ignition Robotics 实现的实验性 OpenAI Gym 环境。
  • gym-idsgame - 一个用于 OpenAI Gym 的抽象网络安全模拟和 Markov Game (马尔科夫博弈)。
  • gym-super-mario - 32 关原版超级马里奥兄弟。
  • Gym4ReaL - 一个基于 Gymnasium 的基准测试套件,用于在现实世界场景中测试强化学习算法,包括水资源管理、微电网能源管理、金融交易等。
  • Holodeck - 用于强化学习和机器人学研究的高保真模拟器。
  • home-platform - 一个人工智能体平台,用于在现实情境中从视觉、音频、语义、物理以及与物体和其他智能体的交互中学习。
  • ma-gym - 基于 OpenAI gym 的 multi agent (多智能体) 环境集合。
  • mazelab - 一个可定制的框架,用于创建迷宫和网格世界环境。
  • Meta-World - 一个用于 Meta- (元) 和多任务强化学习的开源机器人基准测试。
  • Microsoft AirSim - 由微软 AI & 研究部门开发的基于 Unreal Engine / Unity 构建的用于自动驾驶车辆的开源模拟器。
  • Microsoft Jericho - 一个人造交互式小说(Interactive Fiction)游戏的学习环境。
  • Microsoft Malmö - 一个建立在 Minecraft 之上的人工智能实验和研究平台。
  • Microsoft MazeExplorer - 可定制的 3D 环境,用于评估强化学习中的泛化能力。
  • Microsoft TextWorld - 一个基于文本的游戏生成器和可扩展的沙盒学习环境,用于训练和测试强化学习智能体。
  • MineRL - 样本高效强化学习竞赛。
  • MuJoCo - 高级物理模拟。
  • OpenAI Coinrun - 论文《量化强化学习中的泛化》中使用的环境代码。
  • OpenAI Gym Retro - Gym 中的复古游戏。
  • OpenAI Gym Soccer - 一个具有连续状态和动作空间的多智能体领域。
  • OpenAI Gym - 一个用于开发和比较强化学习算法的工具包。
  • OpenAI Multi-Agent Particle Environment - 一个简单的多智能体粒子世界,具有连续观察和离散动作空间,以及一些基本的模拟物理。
  • OpenAI Neural MMO - 一个大规模多智能体游戏环境。
  • OpenAI Procgen Benchmark - 程序生成的类游戏 Gym 环境。
  • OpenAI Roboschool - 用于机器人模拟的开源软件,与 OpenAI Gym 集成。
  • OpenAI RoboSumo - 一组竞争性多智能体环境,用于论文《通过非平稳和竞争环境中的元学习进行持续适应》。
  • OpenAI Safety Gym - 用于加速安全探索研究的工具。
  • Personae - 用于量化交易的 RL & SL (监督学习) 方法及环境。
  • Pommerman - 为 AI 研究构建的炸弹人克隆版。
  • pybullet-gym - OpenAI Gym MuJoCo 环境的开源实现,用于 OpenAI Gym 强化学习研究平台。
  • PyGame Learning Environment - Python 中的强化学习环境。
  • RLBench - 一个大规模基准测试和学习环境。
  • RLGym - 一个 Python API,将火箭联盟游戏视为 OpenAI Gym 环境。
  • RLTrader - 一个使用深度强化学习和 OpenAI gym 的加密货币交易环境。
  • RoboNet - 一个用于大规模多机器人学习的数据集。
  • rocket-lander - SpaceX Falcon 9 Box2D 连续动作模拟,带有传统和 AI 控制器。
  • Stanford Gibson Environments - 具身智能体的现实世界感知。
  • Stanford osim-rl - 带有肌肉骨骼模型的强化学习环境。
  • Unity ML-Agents Toolkit - Unity 机器学习智能体工具包。
  • UnityObstableTower - 一个程序生成的环境,由多个楼层组成,供学习智能体解决。
  • VizDoom - 基于 Doom 的 AI 研究平台,用于从原始视觉信息进行强化学习。
  • RLCard - 一个用于纸牌游戏强化学习的研究平台。
  • DouZero - 一个用于斗地主(中国扑克)强化学习的研究平台。

竞赛

查看 AICrowd 获取主要强化学习竞赛的最新列表

时间线

书籍

教程

博客

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架