awesome-deep-rl
awesome-deep-rl 是一个精心整理的深度强化学习(Deep RL)资源清单,旨在为社区提供一站式的优质内容导航。面对深度强化学习领域资源分散、学习曲线陡峭的现状,awesome-deep-rl 通过系统化的分类整理,帮助用户快速定位所需的代码库、基准测试结果、训练环境及学习材料。
这份清单涵盖了从工业界到学术界的广泛资源,包括 Google DeepMind、OpenAI、Facebook 等机构开源的核心库(如 Ray RLLib、Dopamine、Acme),以及实用的教程、书籍和技术博客。无论是希望复现算法的研究人员,还是寻求高效开发框架的工程师,亦或是想要入门该领域的学生,都能从中获益。
awesome-deep-rl 的独特价值在于其全面性与时效性,不仅罗列了主流算法实现,还提供了竞赛信息和发展时间线,极大地降低了信息检索成本。如果你正在探索深度强化学习的奥秘,awesome-deep-rl 将是值得信赖的起点,帮助你少走弯路,高效开展研究与开发工作。
使用场景
某机器人初创公司的算法团队正在开发四足机器人的步态控制系统,计划采用深度强化学习技术在仿真环境中训练策略网络。
没有 awesome-deep-rl 时
- 搜索引擎结果杂乱无章,难以区分过时的教程与最新的 SOTA 方案,技术选型耗时极长。
- 不清楚哪些开源库支持特定的仿真环境,团队反复试错配置,消耗了大量宝贵的算力资源。
- 缺乏权威的基准测试数据参考,无法快速评估当前算法性能是否达到行业达标线。
- 新入职成员上手困难,缺少系统化的学习路径和资源指引,培训周期长达一个月。
使用 awesome-deep-rl 后
- 通过 Libraries 分类快速锁定支持仿真训练的主流框架,如 Ray RLLib 或 K-Sim,选型效率提升 80%。
- 参考 Benchmark Results 直接对比不同算法在相同环境下的性能,避免盲目选择低效模型。
- 利用 Tutorials 和 Books 板块构建标准化培训流程,结合优质博客资源,新人一周内即可上手开发。
- 借助 Environments 列表找到适配的仿真场景接口,大幅减少环境配置与调试时间,专注核心算法优化。
awesome-deep-rl 充当了深度强化学习领域的权威导航图,显著降低了技术选型门槛并加速了研发落地进程。
运行环境要求
- 未说明
未说明
未说明

快速开始
Awesome Deep RL 
一份精选的深度强化学习(Deep Reinforcement Learning)资源列表。
目录
库
- AgileRL - 一个深度强化学习库,专注于通过引入 RLOps(强化学习运维)- MLOps(机器学习运维)来改进开发流程。
- Berkeley Ray RLLib - 一个开源的强化学习库,提供高可扩展性以及用于各种应用的统一 API(应用程序接口)。
- Berkeley Softlearning - 一个用于在连续域中训练最大熵策略的强化学习框架。
- Catalyst - 加速的深度学习(DL)与强化学习(RL)。
- ChainerRL - 一个基于 Chainer 构建的深度强化学习库。
- DeepMind Acme - 一个强化学习研究框架。
- DeepMind OpenSpiel - 一个用于通用强化学习研究以及游戏中搜索/规划的环境和算法集合。
- DeepMind TRFL - TensorFlow 强化学习。
- DeepRL - PyTorch 中深度强化学习算法的模块化实现。
- DeepX machina - 一个用于现实世界深度强化学习的库,基于 PyTorch 构建。
- d3rlpy - 一个离线深度强化学习库。
- Facebook ELF - 一个包含 AlphaGoZero/AlphaZero 重实现的游戏研究平台。
- Facebook ReAgent - 一个用于推理系统(强化学习、上下文赌博机等)的平台。
- garage - 一个用于可复现强化学习研究的工具包。
- Google Dopamine - 一个用于强化学习算法快速原型设计的研究框架。
- Google TF-Agents - TF-Agents 是一个 TensorFlow 中的强化学习库。
- K-Scale Labs - ksim - 一个模块化且易于使用的框架,用于在仿真中训练策略。
- K-Scale Labs - ksim-gym - K-Sim Gym:利用 RL 让机器人更有用。基于 K-Sim 构建。
- MAgent - 一个多智能体强化学习平台。
- Maze - 面向应用的深度强化学习框架,解决现实世界决策问题。
- MushroomRL - 用于强化学习实验的 Python 库。
- NervanaSystems coach - Intel AI 实验室出品的强化学习 Coach。
- OpenAI Baselines - 强化学习算法的高质量实现。
- OpenRL - 一个开源的通用强化学习研究框架。
- pytorch-a2c-ppo-acktr-gail - 优势演员 - 评论家 (A2C)、近端策略优化 (PPO)、使用 Kronecker 因子近似的大规模深度强化学习信任域方法 (ACKTR) 以及生成对抗模仿学习 (GAIL) 的 PyTorch 实现。
- pytorch-rl - 用 PyTorch 实现的无模型深度强化学习算法。
- reaver - 一个模块化深度强化学习框架,专注于各种基于 StarCraft II 的任务。
- RLgraph - 用于深度强化学习的模块化计算图。
- RLkit - 用 PyTorch 实现的强化学习框架和算法。
- rlpyt - PyTorch 中的强化学习。
- RLtools - 最快的用于连续控制的深度强化学习库,用纯的、无依赖的 C++ 实现(也提供 Python 绑定)。
- skrl - 模块化强化学习库(基于 PyTorch 和 JAX),支持 NVIDIA Isaac Gym、Omniverse Isaac Gym 和 Isaac Lab。
- SLM Lab - PyTorch 中的模块化深度强化学习框架。
- Stable Baselines - OpenAI Baselines 的一个分支,包含强化学习算法的实现。
- TensorForce - 一个用于应用强化学习的 TensorFlow 库。
- Tianshou - Tianshou (天授) 是一个基于纯 PyTorch 的强化学习平台。
- TorchRL - 一个用于 PyTorch 的开源强化学习 (RL) 库。
- UMass Amherst Autonomous Learning Library - 一个用于构建深度强化学习智能体的 PyTorch 库。
- Unity ML-Agents Toolkit - Unity 机器学习智能体工具包。
- vel - 为深度学习研究带来速度。
- DI-engine - 一个通用决策智能引擎。支持各种深度强化学习算法。
基准测试结果
- DeepMind bsuite
- OpenAI baselines-results
- OpenAI Baselines
- OpenAI Spinning Up
- ray rl-experiments
- rl-baselines-zoo
- SLM Lab
- vel
- 同策略强化学习中什么最重要?一项大规模实证研究
- yarlp
环境
- AI2-THOR - 一个近乎照片级真实感的可交互框架,用于 AI (人工智能) agents (智能体)。
- Animal-AI Olympics - 一项 AI 竞赛,测试灵感来源于动物认知。
- Berkeley rl-generalization - 可修改的 OpenAI Gym 环境,用于研究 RL (强化学习) 中的泛化能力。
- BTGym - 可扩展的事件驱动型、对 RL 友好的回测库。基于 Backtrader 构建,带有 OpenAI Gym 环境 API (应用程序接口)。
- Carla - 用于自动驾驶研究的开源模拟器。
- CuLE - Atari 学习环境(ALE)的 CUDA 移植版本。
- Deepdrive - 用于自动驾驶汽车的端到端模拟。
- DeepMind AndroidEnv - 一个在 Android 设备上进行 RL 研究的库。
- DeepMind DM Control - DeepMind 控制套件和包。
- DeepMind Lab - 一个可定制的 3D 平台,用于基于智能体的 AI 研究。
- DeepMind pycolab - 一个高度可定制的 gridworld (网格世界) 游戏引擎,包含一些内置功能。
- DeepMind PySC2 - 星际争霸 II 学习环境。
- DeepMind RL Unplugged - Offline (离线) 强化学习的基准测试。
- Facebook EmbodiedQA - 训练 embodied (具身) 智能体,使其能够在环境中回答问题。
- Facebook Habitat - 一个模块化的高级库,用于在各种任务、环境和模拟器中训练具身 AI 智能体。
- Facebook House3D - 一个丰富且逼真的 3D 环境。
- Facebook natural_rl_environment - 自然信号 Atari 环境,在论文《自然环境强化学习基准》中引入。
- Google Research Football - 一个基于开源游戏 Gameplay Football 的 RL 环境。
- GVGAI Gym - 一个 OpenAI Gym 环境,适用于用视频游戏描述语言编写的游戏,包括通用视频游戏竞赛框架。
- gym-doom - 基于 VizDoom 的 Doom 环境。
- gym-duckietown - 用于 Duckietown 宇宙的自动驾驶汽车模拟器。
- gym-gazebo2 - 一个使用 ROS 2 和 Gazebo 开发和比较强化学习算法的工具包。
- gym-ignition - 使用 Ignition Robotics 实现的实验性 OpenAI Gym 环境。
- gym-idsgame - 一个用于 OpenAI Gym 的抽象网络安全模拟和 Markov Game (马尔科夫博弈)。
- gym-super-mario - 32 关原版超级马里奥兄弟。
- Gym4ReaL - 一个基于 Gymnasium 的基准测试套件,用于在现实世界场景中测试强化学习算法,包括水资源管理、微电网能源管理、金融交易等。
- Holodeck - 用于强化学习和机器人学研究的高保真模拟器。
- home-platform - 一个人工智能体平台,用于在现实情境中从视觉、音频、语义、物理以及与物体和其他智能体的交互中学习。
- ma-gym - 基于 OpenAI gym 的 multi agent (多智能体) 环境集合。
- mazelab - 一个可定制的框架,用于创建迷宫和网格世界环境。
- Meta-World - 一个用于 Meta- (元) 和多任务强化学习的开源机器人基准测试。
- Microsoft AirSim - 由微软 AI & 研究部门开发的基于 Unreal Engine / Unity 构建的用于自动驾驶车辆的开源模拟器。
- Microsoft Jericho - 一个人造交互式小说(Interactive Fiction)游戏的学习环境。
- Microsoft Malmö - 一个建立在 Minecraft 之上的人工智能实验和研究平台。
- Microsoft MazeExplorer - 可定制的 3D 环境,用于评估强化学习中的泛化能力。
- Microsoft TextWorld - 一个基于文本的游戏生成器和可扩展的沙盒学习环境,用于训练和测试强化学习智能体。
- MineRL - 样本高效强化学习竞赛。
- MuJoCo - 高级物理模拟。
- OpenAI Coinrun - 论文《量化强化学习中的泛化》中使用的环境代码。
- OpenAI Gym Retro - Gym 中的复古游戏。
- OpenAI Gym Soccer - 一个具有连续状态和动作空间的多智能体领域。
- OpenAI Gym - 一个用于开发和比较强化学习算法的工具包。
- OpenAI Multi-Agent Particle Environment - 一个简单的多智能体粒子世界,具有连续观察和离散动作空间,以及一些基本的模拟物理。
- OpenAI Neural MMO - 一个大规模多智能体游戏环境。
- OpenAI Procgen Benchmark - 程序生成的类游戏 Gym 环境。
- OpenAI Roboschool - 用于机器人模拟的开源软件,与 OpenAI Gym 集成。
- OpenAI RoboSumo - 一组竞争性多智能体环境,用于论文《通过非平稳和竞争环境中的元学习进行持续适应》。
- OpenAI Safety Gym - 用于加速安全探索研究的工具。
- Personae - 用于量化交易的 RL & SL (监督学习) 方法及环境。
- Pommerman - 为 AI 研究构建的炸弹人克隆版。
- pybullet-gym - OpenAI Gym MuJoCo 环境的开源实现,用于 OpenAI Gym 强化学习研究平台。
- PyGame Learning Environment - Python 中的强化学习环境。
- RLBench - 一个大规模基准测试和学习环境。
- RLGym - 一个 Python API,将火箭联盟游戏视为 OpenAI Gym 环境。
- RLTrader - 一个使用深度强化学习和 OpenAI gym 的加密货币交易环境。
- RoboNet - 一个用于大规模多机器人学习的数据集。
- rocket-lander - SpaceX Falcon 9 Box2D 连续动作模拟,带有传统和 AI 控制器。
- Stanford Gibson Environments - 具身智能体的现实世界感知。
- Stanford osim-rl - 带有肌肉骨骼模型的强化学习环境。
- Unity ML-Agents Toolkit - Unity 机器学习智能体工具包。
- UnityObstableTower - 一个程序生成的环境,由多个楼层组成,供学习智能体解决。
- VizDoom - 基于 Doom 的 AI 研究平台,用于从原始视觉信息进行强化学习。
- RLCard - 一个用于纸牌游戏强化学习的研究平台。
- DouZero - 一个用于斗地主(中国扑克)强化学习的研究平台。
竞赛
- AWS DeepRacer (深度赛车) 联赛 2019
- Flatland 挑战赛 2019
- Kaggle Connect X 竞赛 2020
- NeurIPS 2019: Animal-AI (动物智能) 奥运会
- NeurIPS 2019: 无人机博弈
- NeurIPS 2019: 学习移动 - 行走
- NeurIPS 2019: MineRL 竞赛
- NeurIPS 2019: 侦察盲棋
- NeurIPS 2019: 机器人开放式自主学习
- Unity 障碍塔挑战赛 2019
查看 AICrowd 获取主要强化学习竞赛的最新列表
时间线
- 1947: Monte Carlo Sampling (蒙特卡洛采样)
- 1958: Perceptron (感知机)
- 1959: Temporal Difference Learning (时序差分学习)
- 1983: ASE-ALE — 第一个 Actor-Critic (演员 - 评论家) 算法
- 1986: Backpropagation (反向传播) 算法
- 1989: CNNs (卷积神经网络)
- 1989: Q-Learning (Q 学习)
- 1991: TD-Gammon
- 1992: REINFORCE
- 1992: Experience Replay (经验回放)
- 1994: SARSA
- 1999: Nvidia 发明了 GPU (图形处理器)
- 2007: CUDA (统一计算设备架构) 发布
- 2012: Arcade Learning Environment (ALE) (街机学习环境)
- 2013: DQN (深度 Q 网络)
- 2015 年 2 月:DQN 在 Atari 上达到人类水平控制
- 2015 年 2 月:TRPO (信任区域策略优化)
- 2015 年 6 月:Generalized Advantage Estimation (广义优势估计)
- 2015 年 9 月:Deep Deterministic Policy Gradient (DDPG) (深度确定性策略梯度)
- 2015 年 9 月:DoubleDQN (双重深度 Q 网络)
- 2015 年 11 月:DuelingDQN
- 2015 年 11 月:Prioritized Experience Replay (优先经验回放)
- 2015 年 11 月:TensorFlow
- 2016 年 2 月:A3C (异步优势演员 - 评论家)
- 2016 年 3 月:AlphaGo 以 4-1 击败李世石
- 2016 年 6 月:OpenAI Gym
- 2016 年 6 月:Generative Adversarial Imitation Learning (GAIL) (生成对抗模仿学习)
- 2016 年 10 月:PyTorch
- 2017 年 3 月:Model-Agnostic Meta-Learning (MAML) (模型无关元学习)
- 2017 年 7 月:Distributional RL (分布式强化学习)
- 2017 年 7 月:PPO (近端策略优化)
- 2017 年 8 月:OpenAI DotA 2 1:1
- 2017 年 8 月:Intrinsic Curiosity Module (ICM) (内在好奇心模块)
- 2017 年 10 月:Rainbow
- 2017 年 10 月:AlphaGo Zero 在无人类知识情况下精通围棋
- 2017 年 12 月:AlphaZero 精通围棋、国际象棋和将棋
- 2018 年 1 月:Soft Actor-Critic (软演员 - 评论家)
- 2018 年 2 月:IMPALA
- 2018 年 6 月:Qt-Opt
- 2018 年 11 月:Go-Explore 解决了 Montezuma's Revenge (蒙特祖玛的复仇)
- 2018 年 12 月:AlphaZero 成为国际象棋、围棋和将棋历史上最强的选手
- 2019 年 4 月:OpenAI Five 在 DotA 2 中击败世界冠军
- 2019 年 5 月:FTW Quake III Arena 夺旗模式
- 2019 年 8 月:AlphaStar: 星际争霸 II 大师级别
- 2019 年 9 月:多智能体交互中涌现的工具使用
- 2019 年 10 月:用机械手解决魔方
- 2020 年 3 月:Agent57 在所有 57 款 Atari 游戏中超越标准人类基准
- 2020 年 11 月:AlphaFold 用于蛋白质折叠
- 2020 年 12 月:MuZero 在无规则情况下精通围棋、国际象棋、将棋和 Atari
- 2021 年 8 月:通用能力智能体从开放式游戏中涌现
书籍
- 强化学习算法 (Algorithms for Reinforcement Learning). Szepesvari 等.
- 深度强化学习简介 (An Introduction to Deep Reinforcement Learning). Francois-Lavet 等.
- 深度强化学习实战 (Deep Reinforcement Learning Hands-On). Lapan
- 深度强化学习行动 (Deep Reinforcement Learning in Action). Zai & Brown
- 深度强化学习基础 (Foundations of Deep Reinforcement Learning). Graesser & Keng
- 深入理解深度强化学习 (Grokking Deep Reinforcement Learning). Morales
- 强化学习:简介 (Reinforcement Learning: An Introduction). Sutton & Barto.
教程
- Andrew Karpathy 深度强化学习 (Deep Reinforcement Learning):从像素玩乒乓球游戏 (Pong)
- Arthur Juliani TensorFlow 中的简单强化学习 (Reinforcement Learning) 系列
- 伯克利深度强化学习课程
- David Silver UCL 2015 强化学习 (RL) 课程
- 2017 深度强化学习 (Deep RL) 训练营
- DeepMind UCL 2018 深度强化学习 (Deep RL) 课程
- DeepMind 学习资源
- dennybritz/reinforcement-learning
- higgsfield/RL-Adventure-2
- higgsfield/RL-Adventure
- Hugging Face 深度强化学习课程 🤗
- MorvanZhou/强化学习方法与教程
- OpenAI Spinning Up
- Sergey Levine CS294 2017 秋季深度强化学习课程
- Udacity 深度强化学习纳米学位 (Nanodegree)
- 强化学习基础
- PPOxFamily:深度强化学习 (DRL) 教程课程
博客
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。