PatrickStar

GitHub
778 59 中等 1 次阅读 3周前BSD-3-ClauseAgent开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

PatrickStar 是一款专为自然语言处理(NLP)领域设计的开源训练框架,旨在让更大、更快、更绿色的预训练模型变得触手可及。它核心解决了大模型训练中常见的“显存溢出”难题:传统方法往往需要堆砌大量 GPU 才能运行超大参数模型,而 PatrickStar 通过创新的异构训练技术,能够动态调度 CPU 和 GPU 内存资源。

其独特的技术亮点在于引入了基于"Chunk"的动态内存管理机制。与现有方案静态划分数据不同,PatrickStar 能将非计算部分的模型数据智能卸载至 CPU,仅将当前计算所需部分保留在 GPU 中。这种设计不仅极大提升了显存利用率,还优化了多卡通信效率。实测数据显示,在同等硬件条件下,PatrickStar 能训练的模型规模是主流方案 DeepSpeed 的两倍以上;甚至在仅用 32 张 A100 GPU 的集群上,就能成功训练高达 1750 亿参数的 GPT-3 模型,大幅降低了算力门槛。

这款工具非常适合 AI 研究人员、算法工程师以及希望探索大模型但受限于硬件资源的开发者使用。基于 PyTorch 构建,PatrickStar 易于集成到现有项目中,帮助团队以更低的成本高效完成从微调到预训练的全流程,真正推动大模型技术的普惠化。

使用场景

某中型 AI 实验室的研究团队试图在有限的算力预算下,基于自有行业数据从头预训练一个 180 亿参数的大语言模型。

没有 PatrickStar 时

  • 硬件门槛过高:受限于显存容量,团队必须筹集数十张高端 GPU 才能勉强启动训练,远超实验室预算。
  • 频繁遭遇显存溢出:在尝试静态混合训练方案时,常因激活值波动导致 OOM(显存溢出)错误,训练过程极不稳定。
  • 资源利用率低下:现有的异构训练策略静态划分内存,导致 GPU 在等待数据时空转,而 CPU 内存却大量闲置。
  • 扩展性受限:由于通信效率瓶颈,增加更多节点并未带来线性的速度提升,反而增加了运维复杂度。

使用 PatrickStar 后

  • 大幅降低硬件需求:凭借动态分块内存管理,团队仅用 8 张 V100 显卡配合大容量 CPU 内存,便成功跑通了 18B 模型的训练。
  • 彻底解决 OOM 难题:PatrickStar 能将非计算部分的模型数据动态卸载至 CPU,确保 GPU 只处理当前计算任务,训练全程稳定无崩溃。
  • 最大化异构算力:通过动态调度机制,充分榨干了 CPU 与 GPU 的联合内存潜力,使单节点可支撑的模型规模超越 DeepSpeed 两倍以上。
  • 高效多机扩展:在 32 张 A100 的集群上成功复现了 GPT-3 175B 的训练,证明了其在小规模集群上训练超大规模模型的卓越扩展性。

PatrickStar 通过智能的动态内存调度,打破了显存墙的限制,让中小团队也能以低成本驾驭千亿级大模型的训练。

运行环境要求

操作系统
  • Linux
GPU
  • 必需 NVIDIA GPU
  • 测试环境包括 Tesla V100 (8x, 共 240GB 显存) 和 A100 (8x)
  • 支持异构训练,可利用 CPU 内存扩展显存容量
内存

未说明具体最低值,但大规模训练推荐大内存(测试中使用了 1TB CPU 内存来训练 68B 模型)。

依赖
notes1. 编译需要 GCC 版本 7 或更高。2. 推荐使用官方测试过的 NVIDIA NGC Docker 镜像 (nvcr.io/nvidia/pytorch:21.06-py3)。3. 该工具核心特性是动态内存调度,可将非计算部分的模型数据卸载到 CPU,从而用较少的 GPU 训练更大的模型(如单节点 8xA100 + 1TB 内存可训练 68B 模型)。4. 配置格式兼容 DeepSpeed JSON。
python3.x (基于提供的 Docker 镜像 nvcr.io/nvidia/pytorch:21.06-py3 推断)
PyTorch
GCC >= 7
PatrickStar hero image

快速开始

PatrickStar:基于分块内存管理的大规模语言模型并行训练

logo

最新进展

请参阅 CHANGE_LOG.md

认识 PatrickStar

预训练模型(PTM)正成为自然语言处理研究和工业应用的热点。然而,训练这些模型需要巨大的硬件资源,使得只有少数人工智能领域的从业者能够进行。现在,PatrickStar 将让每个人都能轻松训练 PTM!

显存不足错误(OOM)是每一位训练 PTM 的工程师的噩梦。我们通常不得不增加 GPU 数量来存储模型参数以避免此类错误。PatrickStar 为这一问题提供了一种更好的解决方案。通过 异构训练(DeepSpeed Zero Stage 3 也采用了该技术),PatrickStar 能够充分利用 CPU 和 GPU 的显存,从而用更少的 GPU 来训练更大的模型。

系统设计

Patrick 的核心思想如下:在训练过程中,非模型数据(主要是激活值)是动态变化的,而现有的异构训练方案却将模型数据 静态地 分配到 CPU 和 GPU 上。为了更好地利用 GPU,PatrickStar 提出了一种基于分块内存管理模块的 动态 内存调度机制。PatrickStar 的内存管理可以将除当前计算部分之外的所有内容卸载到 CPU 上,从而节省 GPU 显存。此外,分块内存管理在扩展到多 GPU 时,对于集体通信也非常高效。有关 PatrickStar 的设计理念,请参阅论文和 这篇文档

结果

实验中,PatrickStar v0.4.3 在微信数据中心节点上,使用 8 块 Tesla V100 GPU 和 240GB 显存,成功训练了一个拥有 180 亿(18B)参数的模型,其网络拓扑结构如 此处 所示。PatrickStar 比 DeepSpeed 大了两倍多,且在相同规模的模型上性能也更优。图中的 pstar 表示 PatrickStar v0.4.3 的性能,而 deeps 则表示使用官方示例 DeepSpeed 示例 中默认开启激活优化的 ZeRO3 阶段的 DeepSpeed v0.4.3 的性能。

alt perf

我们还在 A100 SuperPod 的单个节点上评估了 PatrickStar v0.4.3。它可以在 8 块 A100 GPU 和 1TB CPU 内存的配置下训练一个 680 亿参数的模型,这比 DeepSpeed v0.5.7 大了 6 倍以上。除了模型规模之外,PatrickStar 的效率也远超 DeepSpeed。基准测试脚本见 这里

alt perf

我们在微信 AI 数据中心和 NVIDIA SuperPod 上的详细基准测试结果已发布在该 Google 文档 中。

将 PatrickStar 扩展到 SuperPod 的多台机器(节点)上。 我们成功地在 32 块 GPU 上训练了一个 GPT3-175B 模型。据我们所知,这是首次在如此小型的 GPU 集群上运行 GPT3 的工作。 微软曾使用 10,000 块 V100 来训练 GPT3。而现在,你只需 32 块 A100 GPU 就能微调甚至预训练属于自己的 GPT3,真是太棒了!

alt perf

我们还使用 PatrickStar 训练了 CLUE-GPT2 模型,其损失和准确率曲线如下所示:

CLUE-GPT2

安装

pip install .

请注意,PatrickStar 需要 GCC 7 或更高版本。你也可以使用 NVIDIA NGC 镜像,以下镜像是经过测试的:

docker pull nvcr.io/nvidia/pytorch:21.06-py3

使用

PatrickStar 基于 PyTorch,因此很容易将现有的 PyTorch 项目迁移到 PatrickStar 上。以下是一个 PatrickStar 的示例:

from patrickstar.runtime import initialize_engine

config = {
    "optimizer": {
        "type": "Adam",
        "params": {
            "lr": 0.001,
            "betas": (0.9, 0.999),
            "eps": 1e-6,
            "weight_decay": 0,
            "use_hybrid_adam": True,
        },
    },
    "fp16": {  # loss scaler 参数
        "enabled": True,
        "loss_scale": 0,
        "initial_scale_power": 2 ** 3,
        "loss_scale_window": 1000,
        "hysteresis": 2,
        "min_loss_scale": 1,
    },
    "default_chunk_size": 64 * 1024 * 1024,
    "release_after_init": True,
    "use_cpu_embedding": False,
    "client": {
        "mem_tracer": {
            "use_async_mem_monitor": args.with_async_mem_monitor,
        }
    },
}

def model_func():
    # MyModel 是 torch.nn.Module 的子类
    return MyModel(...)

model, optimizer = initialize_engine(model_func=model_func, local_rank=0, config=config)

...

for data in dataloader:
    optimizer.zero_grad()

    loss = model(data)
    model.backward(loss)
    optimizer.step()

我们使用的 config 格式与 DeepSpeed 配置 JSON 相同,主要包括优化器参数、损失缩放器参数以及一些 PatrickStar 特有的配置。

有关上述示例的详细说明,请参阅指南 这里

更多示例请查看 这里

一个快速入门的基准测试脚本见 这里。该脚本使用随机生成的数据运行,因此无需准备真实数据。它还演示了 PatrickStar 的所有优化技术。有关运行基准测试的更多优化技巧,请参阅 优化选项

许可证

BSD 3-Clause 许可证

引用我们

@article{fang2021patrickstar,
  title={PatrickStar: 基于分块内存管理的预训练模型并行训练},
  author={Fang, Jiarui and Yu, Yang and Zhu, Zilin and Li, Shenggui and You, Yang and Zhou, Jie},
  journal={arXiv preprint arXiv:2108.05818},
  year={2021}
}
@article{fang2022parallel,
  title={基于分块动态内存管理的预训练模型并行训练},
  author={Fang, Jiarui and Zhu, Zilin and Li, Shenggui and Su, Hui and Yu, Yang and Zhou, Jie and You, Yang},
  journal={IEEE Transactions on Parallel and Distributed Systems},
  volume={34},
  number={1},
  pages={304--315},
  year={2022},
  publisher={IEEE}
}

联系我们

{jiaruifang, zilinzhu, josephyu}@tencent.com

由微信 AI 团队和腾讯 NLP Oteam 提供支持。

版本历史

v0.4.62021/12/23
v0.4.52021/12/13
v0.4.42021/12/08
v0.4.32021/11/27
v0.4.22021/11/24
v0.3.02021/11/08
v0.1.02021/05/10

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架