mpi-operator

GitHub
524 235 较难 1 次阅读 5天前Apache-2.0开发框架
AI 解读 由 AI 自动生成,仅供参考

mpi-operator 是专为 Kubernetes 环境设计的开源工具,旨在简化基于 MPI(消息传递接口)的分布式应用部署与管理。它主要解决了在容器化集群中运行大规模分布式训练和高性能计算(HPC)任务时,手动配置复杂、资源调度困难以及进程通信管理繁琐等痛点。

通过引入自定义的 MPIJob 资源,mpi-operator 让用户只需定义一份简单的配置文件,即可自动协调多个节点间的启动器(Launcher)与工作器(Worker),轻松实现类似 Allreduce 模式的高效分布式训练。无论是多节点 TensorFlow 训练还是其他 MPI 兼容的科学计算任务,都能在该工具的帮助下快速上线并稳定运行。

这款工具特别适合需要在云原生架构上进行深度学习模型训练的 AI 研究人员、算法工程师以及负责构建 MLOps 平台的开发者。其核心技术亮点在于深度集成 Kubeflow 生态,支持灵活的副本策略与状态监控,能够自动处理底层复杂的 MPI 环境初始化与故障恢复,让团队可以更专注于算法优化而非基础设施运维。

使用场景

某自动驾驶研发团队需要在 Kubernetes 集群上利用多节点 GPU 资源,训练基于 TensorFlow 的大规模感知模型以缩短迭代周期。

没有 mpi-operator 时

  • 手动配置繁琐:工程师需手动编写复杂的 Shell 脚本管理 mpirun 启动参数,并逐个创建 Pod,极易因环境变量(如 LD_LIBRARY_PATH)配置遗漏导致通信失败。
  • 故障恢复困难:一旦某个计算节点在训练中途宕机,整个分布式任务立即中断,缺乏自动重试机制,数小时的训练成果付诸东流。
  • 资源调度低效:无法声明式地定义所需 GPU 数量,难以确保所有工作节点在同一时间就绪,常出现部分节点空闲等待的“木桶效应”。
  • 状态监控黑盒:缺乏统一的状态视图,运维人员需登录各个 Pod 查看日志才能判断任务是运行中、失败还是已完成,排查效率极低。

使用 mpi-operator 后

  • 一键部署任务:只需定义一个 MPIJob YAML 文件,mpi-operator 自动处理 Launcher 和 Worker 的编排及环境变量注入,将部署复杂度从小时级降至分钟级。
  • 弹性容错保障:内置策略可自动检测节点故障并重启失败的任务副本,确保长周期的分布式训练任务稳定运行至完成。
  • 精准资源协同:通过声明式配置指定 GPU 数量,mpi-operator 确保所有计算节点同步启动并建立 MPI 通信环,最大化集群算力利用率。
  • 可视化全链路监控:直接通过 kubectl get mpijobs 即可查看任务整体状态(Running/Completed/Failed),无需深入底层容器即可掌握训练进度。

mpi-operator 将原本脆弱且手工密集型的 MPI 分布式训练流程,转化为云原生环境下稳定、可观测且易于管理的标准化作业。

运行环境要求

操作系统
  • Linux
GPU
  • 运行分布式训练任务时需要 NVIDIA GPU(示例中配置为每节点 2 块),需安装 NVIDIA 设备插件
  • Operator 本身不强制要求具体型号或显存,取决于用户定义的 MPIJob 配置
内存

未说明

依赖
notes该工具是运行在 Kubernetes 集群上的控制器(Operator),而非本地运行的脚本。必须拥有可用的 Kubernetes 集群环境(建议 Kubeflow 0.2.0 以上版本)。实际硬件需求(如 GPU 数量、显存大小)由用户提交的 MPIJob YAML 配置文件决定,而非 Operator 本身固定要求。支持 OpenMPI、Intel MPI 和 MPICH 等多种 MPI 实现。
python未说明
Kubernetes v1.14+
kubectl
kustomize (v1.21+ 内置于 kubectl)
mpi-operator hero image

快速开始

MPI 运算符

构建状态 Docker 拉取次数

MPI 运算符使在 Kubernetes 上运行 allreduce 风格的分布式训练变得容易。请查看 这篇博客文章 ,了解 MPI 运算符及其行业采用情况。

安装

您可以通过运行以下命令以默认设置部署运算符:

  • 最新开发版本
kubectl apply --server-side -f https://raw.githubusercontent.com/kubeflow/mpi-operator/master/deploy/v2beta1/mpi-operator.yaml
  • 发布版本
kubectl apply --server-side -f https://raw.githubusercontent.com/kubeflow/mpi-operator/v0.8.0/deploy/v2beta1/mpi-operator.yaml

或者,您可以按照 入门指南 部署 Kubeflow。

Kubeflow 0.2.0 引入了 MPI 支持的 alpha 版本。您必须使用高于 0.2.0 的 Kubeflow 版本。

您可以通过以下命令检查是否已安装 MPI 作业自定义资源:

kubectl get crd

输出应包含 mpijobs.kubeflow.org,如下所示:

NAME                                       AGE
...
mpijobs.kubeflow.org                       4d
...

如果未包含,您可以使用 kustomize 按照以下步骤添加:

git clone https://github.com/kubeflow/mpi-operator
cd mpi-operator
kustomize build manifests/overlays/kubeflow | kubectl apply -f -

请注意,自 Kubernetes v1.14 起,kustomize 已成为 kubectl 中的一个子命令,因此您也可以运行以下命令:

自 Kubernetes v1.21 起,您可以使用:

kubectl apply -k manifests/overlays/kubeflow
kubectl kustomize base | kubectl apply -f -

创建 MPI 作业

您可以通过定义一个 MPIJob 配置文件来创建 MPI 作业。请参阅 TensorFlow 基准示例 配置文件,用于启动多节点 TensorFlow 基准训练作业。您可以根据自己的需求修改该配置文件。

cat examples/v2beta1/tensorflow-benchmarks/tensorflow-benchmarks.yaml

部署 MPIJob 资源以开始训练:

kubectl apply -f examples/v2beta1/tensorflow-benchmarks/tensorflow-benchmarks.yaml

监控 MPI 作业

一旦创建了 MPIJob 资源,您现在应该能够看到与指定 GPU 数量匹配的 Pod。您还可以从状态部分监控作业状态。以下是作业成功完成时的示例输出。

kubectl get -o yaml mpijobs tensorflow-benchmarks
apiVersion: kubeflow.org/v2beta1
kind: MPIJob
metadata:
  creationTimestamp: "2019-07-09T22:15:51Z"
  generation: 1
  name: tensorflow-benchmarks
  namespace: default
  resourceVersion: "5645868"
  selfLink: /apis/kubeflow.org/v1alpha2/namespaces/default/mpijobs/tensorflow-benchmarks
  uid: 1c5b470f-a297-11e9-964d-88d7f67c6e6d
spec:
  runPolicy:
    cleanPodPolicy: Running
  mpiReplicaSpecs:
    Launcher:
      replicas: 1
      template:
        spec:
          containers:
          - command:
            - mpirun
            - --allow-run-as-root
            - -np
            - "2"
            - -bind-to
            - none
            - -map-by
            - slot
            - -x
            - NCCL_DEBUG=INFO
            - -x
            - LD_LIBRARY_PATH
            - -x
            - PATH
            - -mca
            - pml
            - ob1
            - -mca
            - btl
            - ^openib
            - python
            - scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py
            - --model=resnet101
            - --batch_size=64
            - --variable_update=horovod
            image: mpioperator/tensorflow-benchmarks:latest
            name: tensorflow-benchmarks
    Worker:
      replicas: 1
      template:
        spec:
          containers:
          - image: mpioperator/tensorflow-benchmarks:latest
            name: tensorflow-benchmarks
            resources:
              limits:
                nvidia.com/gpu: 2
  slotsPerWorker: 2
status:
  completionTime: "2019-07-09T22:17:06Z"
  conditions:
  - lastTransitionTime: "2019-07-09T22:15:51Z"
    lastUpdateTime: "2019-07-09T22:15:51Z"
    message: MPIJob default/tensorflow-benchmarks is created.
    reason: MPIJobCreated
    status: "True"
    type: Created
  - lastTransitionTime: "2019-07-09T22:15:54Z"
    lastUpdateTime: "2019-07-09T22:15:54Z"
    message: MPIJob default/tensorflow-benchmarks is running.
    reason: MPIJobRunning
    status: "False"
    type: Running
  - lastTransitionTime: "2019-07-09T22:17:06Z"
    lastUpdateTime: "2019-07-09T22:17:06Z"
    message: MPIJob default/tensorflow-benchmarks successfully completed.
    reason: MPIJobSucceeded
    status: "True"
    type: Succeeded
  replicaStatuses:
    Launcher:
      succeeded: 1
    Worker: {}
  startTime: "2019-07-09T22:15:51Z"

训练应运行 100 步,在 GPU 集群上大约需要几分钟。您可以查看日志以了解训练进度。当作业开始时,从 launcher Pod 访问日志:

PODNAME=$(kubectl get pods -l training.kubeflow.org/job-name=tensorflow-benchmarks,training.kubeflow.org/job-role=launcher -o name)
kubectl logs -f ${PODNAME}
TensorFlow:  1.14
Model:       resnet101
Dataset:     imagenet (synthetic)
Mode:        training
SingleSess:  False
Batch size:  128 global
             64 per device
Num batches: 100
Num epochs:  0.01
Devices:     ['horovod/gpu:0', 'horovod/gpu:1']
NUMA bind:   False
Data format: NCHW
Optimizer:   sgd
Variables:   horovod

...

40	images/sec: 154.4 +/- 0.7 (jitter = 4.0)	8.280
40	images/sec: 154.4 +/- 0.7 (jitter = 4.1)	8.482
50	images/sec: 154.8 +/- 0.6 (jitter = 4.0)	8.397
50	images/sec: 154.8 +/- 0.6 (jitter = 4.2)	8.450
60	images/sec: 154.5 +/- 0.5 (jitter = 4.1)	8.321
60	images/sec: 154.5 +/- 0.5 (jitter = 4.4)	8.349
70	images/sec: 154.5 +/- 0.5 (jitter = 4.0)	8.433
70	images/sec: 154.5 +/- 0.5 (jitter = 4.4)	8.430
80	images/sec: 154.8 +/- 0.4 (jitter = 3.6)	8.199
80	images/sec: 154.8 +/- 0.4 (jitter = 3.8)	8.404
90	images/sec: 154.6 +/- 0.4 (jitter = 3.7)	8.418
90	images/sec: 154.6 +/- 0.4 (jitter = 3.6)	8.459
100	images/sec: 154.2 +/- 0.4 (jitter = 4.0)	8.372
100	images/sec: 154.2 +/- 0.4 (jitter = 4.0)	8.542
----------------------------------------------------------------
total images/sec: 308.27

有关使用 Intel MPI 的示例,请参阅:

cat examples/pi/pi-intel.yaml

有关使用 MPICH 的示例,请参阅:

cat examples/pi/pi-mpich.yaml

暴露的指标

指标名称 指标类型 描述 标签
mpi_operator_jobs_created_total 计数器 统计创建的 MPI 作业数量
mpi_operator_jobs_successful_total 计数器 统计成功的 MPI 作业数量
mpi_operator_jobs_failed_total 计数器 统计失败的 MPI 作业数量
mpi_operator_job_info 状态量 关于 MPIJob 的信息 launcher=<launcher-pod-name>
namespace=<job-namespace>

联接指标

借助 kube-state-metrics,可以通过标签对指标进行联接。 例如 kube_pod_info * on(pod,namespace) group_left label_replace(mpi_operator_job_infos, "pod", "$0", "launcher", ".*")

Docker 镜像

我们为每次发布都会在 Docker Hub 上推送 mpioperator 的 Docker 镜像。 您也可以使用以下 Dockerfile 自行构建镜像:

或者,您也可以使用 make 命令来构建镜像:

make RELEASE_VERSION=dev IMAGE_NAME=registry.example.com/mpi-operator images

这将生成一个标签为 registry.example.com/mpi-operator:dev 的镜像。

贡献

更多信息请参阅 CONTRIBUTING

版本历史

v0.2.32020/05/19
v0.2.22019/09/16
v0.2.12019/07/15
v0.2.02019/07/03
0.1.02019/01/11
v0.8.02026/02/17
v0.7.02025/10/30
v0.6.02024/10/16
v0.5.02024/04/18
v0.4.02023/04/05
v0.3.02021/09/07

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架