RL-Factory

GitHub
1.7k 163 中等 1 次阅读 今天Apache-2.0语言模型开发框架Agent
AI 解读 由 AI 自动生成,仅供参考

RL-Factory 是一个专为智能体(Agent)学习打造的强化学习后训练框架,旨在让用户能轻松、高效地训练自己的 Agent 模型。它核心解决了传统训练中环境与算法耦合紧密、配置复杂且效率低下的痛点。通过独特的“环境解耦”设计,用户只需定义工具配置和奖励函数即可启动训练,无需深入底层架构。

该框架特别适合希望快速验证想法的 AI 研究人员、需要定制垂直领域智能体的开发者,以及想要尝试大模型工具调用能力的技术爱好者。其显著的技术亮点在于支持异步工具调用,使训练速度比现有框架提升约 2 倍;同时原生支持 Qwen3 等先进基座模型及 DeepSearch 等复杂场景,并提供规则奖励与模型评判等多种奖励计算方式。无论是构建多轮对话工具链,还是探索多模态智能体,RL-Factory 都致力于以极简的代码投入,帮助用户专注于核心的奖励逻辑设计与工具搭建,加速智能体应用的迭代与落地。

使用场景

某电商团队希望基于 Qwen3 大模型构建一个能自动查询库存、比对价格并生成采购建议的智能 Agent,以辅助运营人员决策。

没有 RL-Factory 时

  • 环境耦合严重:开发者需手动编写大量代码将库存 API、价格数据库等工具硬编码进训练循环,每次更换数据源都要重构底层逻辑。
  • 训练效率低下:由于缺乏异步工具调用支持,模型在等待 API 返回时处于空闲状态,导致单次迭代耗时极长,难以快速验证想法。
  • 奖励函数难定义:难以灵活结合“规则判断”(如价格低于阈值)与“模型评判”(如建议合理性),导致 Agent 学会投机取巧而非真正优化采购策略。
  • 多轮交互支持弱:原生框架对多轮工具调用的状态管理复杂,Agent 常在中途丢失上下文,无法完成复杂的连环查询任务。

使用 RL-Factory 后

  • 环境解耦配置化:只需通过配置文件定义工具集和奖励逻辑,即可将 Qwen3 与电商后台无缝对接,无需修改核心训练代码。
  • 训练速度翻倍:利用内置的异步工具调用机制,模型在等待接口响应时并行处理其他样本,整体训练效率提升 2 倍,加速模型迭代。
  • 灵活奖励机制:轻松组合规则奖励(价格合规)与模型裁判奖励(建议质量),引导 Agent 输出既符合业务约束又具备商业价值的方案。
  • 原生多轮支持:框架天然支持多轮工具调用状态管理,Agent 能流畅执行“查库存->比价格->算利润->生成报告”的复杂链路。

RL-Factory 通过解耦环境与训练流程,让开发者专注于业务逻辑与奖励设计,以最低成本打造出高效可靠的垂直领域智能体。

运行环境要求

操作系统
  • Linux
GPU

必需 NVIDIA GPU,推荐 A100(测试环境为 8xA100),需支持 CUDA 12.0+(推荐 12.4),需安装 faiss-gpu-cu12 和 nvidia-cublas-cu12

内存

未说明

依赖
notes目前仅测试过通义千问(Qwen)系列模型;训练 DeepSearch 等任务需要配置 MCP 工具和环境;若遇到 ray worker 崩溃问题,需特定版本 nvidia-cublas-cu12;支持异步工具调用以加速训练。
python>=3.10 (推荐 3.10)
torch==2.6.0
vllm>=0.8.3 (推荐 0.8.5)
transformers==4.51.3
deepspeed==0.16.4
ray==2.46.0
flash-attn==2.7.0.post2
accelerate
peft
qwen-agent
mcp==1.9.3
RL-Factory hero image

快速开始

Description

RLFactory 是一个简单高效的用于智能体学习的强化学习后训练框架。

RL-Factory 将环境与强化学习后训练解耦,只需工具配置和奖励函数即可进行训练,同时支持异步工具调用,使强化学习后训练速度提升至2倍

当前版本原生支持一键式DeepSearch训练,并具备多轮工具调用、模型评判奖励以及对包括Qwen3在内的多种模型的训练功能。未来还将陆续加入更多简单高效的智能体学习模块。

现在,每个人都可以轻松快速地使用 Qwen3(作为基础模型)和 MCP 工具来训练智能体!

发布日志

我们将保持快速的发布节奏,以迅速推出并完善即将上线的功能。

  • 版本 0.1
    • 环境解耦:轻松定义你的工具使用环境(工具设置和奖励函数定义)
    • Qwen3 模型支持:使用 Qwen3 快速训练你的智能体(在工具调用方面远优于 Qwen2.5)
    • 高效训练:相比现有框架,训练速度提升至2倍,实现快速的模型迭代(主要通过异步工具调用)
  • 版本 0.2 我们期待更多人共同参与开发与建设,打造一个优秀的智能体训练社区。欢迎随时联系我们。
    • WebUI:构建用于数据处理、工具与环境定义、训练配置及项目管理的 WebUI #2
    • 更高效的训练:支持 AsyncLLMEngine,以实现更高效的 rollout #4
    • 更多模型:测试更多模型(如 Deepseek、Llama 等),并添加相应的支持配置 #5
    • 过程奖励:利用过程奖励更好地引导模型的工具调用行为 #6
    • 更多应用:帮助创建更多演示项目(如 TravelPlanner),以适配更多基准测试
    • 多模态智能体学习:在功能上支持多模态(图像)智能体训练 #66
    • Android 环境:新增 Android OS 环境支持 #38
    • 工具缓存:缓存工具调用结果,以提升后处理效率 #57
    • 便捷评估:新增 main_eval.sh 用于评估工具 #36
    • 升级至 VeRL-0.5:通过最大程度的组件解耦,升级至 VeRL-0.5 update/verl_0_5
    • 将 MS-SWIFT-3.7 加入 RL-Factory:增加了对 MS-SWIFT-3.7 的支持,使个人开发者使用起来更加方便 #95

我们的框架设计

我们的目标是让用户能够专注于奖励逻辑和工具设置,以最少的代码实现快速的智能体学习;而核心开发者则可以专注于提升训练效率和模型性能。

为了实现易用性,我们通过以下几点优势将环境与基于强化学习的后训练解耦:

  • 易于设计的奖励函数:可通过规则模型评判,甚至工具来计算奖励,满足你对奖励函数的所有需求。
  • 无缝工具设置:只需提供你的MCP 工具和自定义工具的配置文件,即可将其集成到强化学习中。
  • 多智能体扩展:将你的智能体转换为 MCP 格式,以便于多智能体交互。未来还将加入 LLM 对话模拟功能,以提升多轮对话能力。

为了实现高效学习,我们在强化学习后训练框架中开发了若干关键模块,使训练速度提升至2倍

  • 高效工具调用:通过批量处理和异步并行工具调用,提升在线强化学习训练效率。
  • 高效奖励计算:以分布式方式部署 LRM(如 QwQ-32B)进行高效的模型评判,并利用异步并行技术加快奖励计算速度。

对于未来的进展,我们将继续优先考虑**“简单”“高效”**:

  • 更简单:使用 WebUI 处理数据、定义工具与环境、调整训练配置并管理项目。(WebUI 正在快速开发中。)
  • 更高效:持续迭代和改进训练框架(如 AsyncLLMEngine)以及强化学习训练算法。
Description

用户使用说明

  • 依赖项(关键)
    Cuda: >=12.0(推荐:12.4)
    Python: >=3.10(推荐:3.10)
    # 用于支持Qwen3模型
    vllm: >=0.8.3(推荐:0.8.5)
    
  • 安装要求
    pip3 install accelerate bitsandbytes datasets deepspeed==0.16.4 einops flash-attn==2.7.0.post2 isort jsonlines loralib optimum packaging peft pynvml>=12.0.0 ray[default]==2.46.0 tensorboard torch==2.6.0 torchmetrics tqdm transformers==4.51.3 transformers_stream_generator wandb wheel
    pip3 install vllm==0.8.5      # 主要用于支持Qwen3模型
    pip3 install "qwen-agent[code_interpreter]"
    pip3 install llama_index bs4 pymilvus infinity_client codetiming tensordict==0.6 omegaconf torchdata==0.10.0 hydra-core easydict dill python-multipart mcp==1.9.3
    pip3 install -e . --no-deps
    pip3 install faiss-gpu-cu12   # 可选,用于rag_server端到端检索模型训练时需要
    pip3 install nvidia-cublas-cu12==12.4.5.8  # 可选,训练过程中遇到ray worker死亡问题时需要
    
    注:目前仅对Qwen系列模型进行了测试。
  • 您需要提供什么?
  • 训练命令
    # 运行前,请根据需要修改MODEL_PATH、REWARD_MODEL_PATH以及若干actor_rollout_ref.env参数
    bash main_grpo.sh
    
  • 评估或推理命令
    # 运行前,请根据需要修改MODEL_PATH、REWARD_MODEL_PATH以及若干数据和trainer参数
    bash main_eval.sh
    

DeepSearch训练中的演示

  • docs/rl_factory/main_tutorial.md中,我们提供了基于Search-R1的RLFactory复现示例。我们使用Qwen3-4BQwen3-8B作为RL训练的基础模型。

  • 简单:从Qwen3和MCP工具开始,快速训练属于您自己的DeepSearch智能体。

    • 您只需提供一种工具配置和一种奖励函数即可开始训练!
    • Qwen3在智能体学习方面表现出显著优势。即使没有经过SFT微调,它也能准确地调用工具,并且还支持MCP协议。
  • 高效:享受异步并行工具调用带来的高效训练体验。

    • 与基于原始verl的Search-R1相比,所需的训练时间缩短了1.5至2倍,如果加入模型评判者,效率提升会更加明显。
    • 经过100步训练(约5小时,8*A100),Qwen3-4B得分达到0.458,Qwen3-8B得分达到0.463。以下表格展示了我们在相同计算资源、软件和verl版本下的训练结果:
    • RLFactory的训练时间约为Search-R1的一半,展现出极高的效率。
    • 以Qwen3为基础模型的表现优于Qwen2.5,能够在无需SFT的情况下通过RL后训练实现领域特定的工具调用。

模型名称 测试分数(NQ) 总训练时间(100步) 每步耗时 训练资源
Search-R1-Qwen2.5-3B-Instruct-GRPO 0.356 7.39 h 266 s A100 × 8
Search-R1-Qwen2.5-7B-Instruct-GRPO 0.451 9.25 h 333 s A100 × 8
Search-R1-Qwen3-4B-GRPO 0.420 7.95 h 286 s A100 × 8
RLFactory-Qwen3-4B-GRPO 0.458 5.30 h 190 s A100 × 8
RLFactory-Qwen3-8B-GRPO 0.463 5.76 h 207 s A100 × 8

如何贡献?

我们欢迎所有用户和开发者为RLFactory贡献代码。如果您有任何疑问、遇到bug,或者希望参与开发合作,请随时联系我们!

  1. 直接在GitHub上提交issue。
  2. 通过电子邮件chaijiajun@meituan.comgjyin@outlook.com与我们联系。
  3. 加入我们的微信群(首选),成为智能体训练领域的先锋!
描述 描述

致谢

本仓库受益于verlSearch-R1Qwen-Agent。感谢他们的杰出工作。未来我们还将引入TRL,以进一步扩展我们框架的应用范围。

📚 引用

我们的技术报告可在这里找到。如果您认为我们的工作有用,请考虑引用:

@misc{chai2025rlfactoryplugandplayreinforcementlearning,
      title={RLFactory: 一种适用于大语言模型多轮工具使用的即插即用强化学习后训练框架}, 
      author={Jiajun Chai、Guojun Yin、Zekun Xu、Chuhuai Yue、Yi Jia、Siyu Xia、Xiaohan Wang、Jiwen Jiang、Xiaoguang Li、Chengqi Dong、Hang He、Wei Lin},
      year={2025},
      eprint={2509.06980},
      archivePrefix={arXiv},
      primaryClass={cs.LG},
      url={https://arxiv.org/abs/2509.06980}, 
}

如果您为本项目做出了贡献,并希望被纳入我们的技术报告,请尽快与我联系(gjyin@outlook.com)。

星级历史

星级历史图表

版本历史

v0.1.02025/05/23

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

159.6k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|昨天
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|1周前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像