mpi-operator
mpi-operator 是专为 Kubernetes 环境设计的开源工具,旨在简化基于 MPI(消息传递接口)的分布式应用部署与管理。它主要解决了在容器化集群中运行大规模分布式训练和高性能计算(HPC)任务时,手动配置复杂、资源调度困难以及进程通信管理繁琐等痛点。
通过引入自定义的 MPIJob 资源,mpi-operator 让用户只需定义一份简单的配置文件,即可自动协调多个节点间的启动器(Launcher)与工作器(Worker),轻松实现类似 Allreduce 模式的高效分布式训练。无论是多节点 TensorFlow 训练还是其他 MPI 兼容的科学计算任务,都能在该工具的帮助下快速上线并稳定运行。
这款工具特别适合需要在云原生架构上进行深度学习模型训练的 AI 研究人员、算法工程师以及负责构建 MLOps 平台的开发者。其核心技术亮点在于深度集成 Kubeflow 生态,支持灵活的副本策略与状态监控,能够自动处理底层复杂的 MPI 环境初始化与故障恢复,让团队可以更专注于算法优化而非基础设施运维。
使用场景
某自动驾驶研发团队需要在 Kubernetes 集群上利用多节点 GPU 资源,训练基于 TensorFlow 的大规模感知模型以缩短迭代周期。
没有 mpi-operator 时
- 手动配置繁琐:工程师需手动编写复杂的 Shell 脚本管理
mpirun启动参数,并逐个创建 Pod,极易因环境变量(如LD_LIBRARY_PATH)配置遗漏导致通信失败。 - 故障恢复困难:一旦某个计算节点在训练中途宕机,整个分布式任务立即中断,缺乏自动重试机制,数小时的训练成果付诸东流。
- 资源调度低效:无法声明式地定义所需 GPU 数量,难以确保所有工作节点在同一时间就绪,常出现部分节点空闲等待的“木桶效应”。
- 状态监控黑盒:缺乏统一的状态视图,运维人员需登录各个 Pod 查看日志才能判断任务是运行中、失败还是已完成,排查效率极低。
使用 mpi-operator 后
- 一键部署任务:只需定义一个
MPIJobYAML 文件,mpi-operator 自动处理 Launcher 和 Worker 的编排及环境变量注入,将部署复杂度从小时级降至分钟级。 - 弹性容错保障:内置策略可自动检测节点故障并重启失败的任务副本,确保长周期的分布式训练任务稳定运行至完成。
- 精准资源协同:通过声明式配置指定 GPU 数量,mpi-operator 确保所有计算节点同步启动并建立 MPI 通信环,最大化集群算力利用率。
- 可视化全链路监控:直接通过
kubectl get mpijobs即可查看任务整体状态(Running/Completed/Failed),无需深入底层容器即可掌握训练进度。
mpi-operator 将原本脆弱且手工密集型的 MPI 分布式训练流程,转化为云原生环境下稳定、可观测且易于管理的标准化作业。
运行环境要求
- Linux
- 运行分布式训练任务时需要 NVIDIA GPU(示例中配置为每节点 2 块),需安装 NVIDIA 设备插件
- Operator 本身不强制要求具体型号或显存,取决于用户定义的 MPIJob 配置
未说明

快速开始
MPI 运算符
MPI 运算符使在 Kubernetes 上运行 allreduce 风格的分布式训练变得容易。请查看 这篇博客文章 ,了解 MPI 运算符及其行业采用情况。
安装
您可以通过运行以下命令以默认设置部署运算符:
- 最新开发版本
kubectl apply --server-side -f https://raw.githubusercontent.com/kubeflow/mpi-operator/master/deploy/v2beta1/mpi-operator.yaml
- 发布版本
kubectl apply --server-side -f https://raw.githubusercontent.com/kubeflow/mpi-operator/v0.8.0/deploy/v2beta1/mpi-operator.yaml
或者,您可以按照 入门指南 部署 Kubeflow。
Kubeflow 0.2.0 引入了 MPI 支持的 alpha 版本。您必须使用高于 0.2.0 的 Kubeflow 版本。
您可以通过以下命令检查是否已安装 MPI 作业自定义资源:
kubectl get crd
输出应包含 mpijobs.kubeflow.org,如下所示:
NAME AGE
...
mpijobs.kubeflow.org 4d
...
如果未包含,您可以使用 kustomize 按照以下步骤添加:
git clone https://github.com/kubeflow/mpi-operator
cd mpi-operator
kustomize build manifests/overlays/kubeflow | kubectl apply -f -
请注意,自 Kubernetes v1.14 起,kustomize 已成为 kubectl 中的一个子命令,因此您也可以运行以下命令:
自 Kubernetes v1.21 起,您可以使用:
kubectl apply -k manifests/overlays/kubeflow
kubectl kustomize base | kubectl apply -f -
创建 MPI 作业
您可以通过定义一个 MPIJob 配置文件来创建 MPI 作业。请参阅 TensorFlow 基准示例 配置文件,用于启动多节点 TensorFlow 基准训练作业。您可以根据自己的需求修改该配置文件。
cat examples/v2beta1/tensorflow-benchmarks/tensorflow-benchmarks.yaml
部署 MPIJob 资源以开始训练:
kubectl apply -f examples/v2beta1/tensorflow-benchmarks/tensorflow-benchmarks.yaml
监控 MPI 作业
一旦创建了 MPIJob 资源,您现在应该能够看到与指定 GPU 数量匹配的 Pod。您还可以从状态部分监控作业状态。以下是作业成功完成时的示例输出。
kubectl get -o yaml mpijobs tensorflow-benchmarks
apiVersion: kubeflow.org/v2beta1
kind: MPIJob
metadata:
creationTimestamp: "2019-07-09T22:15:51Z"
generation: 1
name: tensorflow-benchmarks
namespace: default
resourceVersion: "5645868"
selfLink: /apis/kubeflow.org/v1alpha2/namespaces/default/mpijobs/tensorflow-benchmarks
uid: 1c5b470f-a297-11e9-964d-88d7f67c6e6d
spec:
runPolicy:
cleanPodPolicy: Running
mpiReplicaSpecs:
Launcher:
replicas: 1
template:
spec:
containers:
- command:
- mpirun
- --allow-run-as-root
- -np
- "2"
- -bind-to
- none
- -map-by
- slot
- -x
- NCCL_DEBUG=INFO
- -x
- LD_LIBRARY_PATH
- -x
- PATH
- -mca
- pml
- ob1
- -mca
- btl
- ^openib
- python
- scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py
- --model=resnet101
- --batch_size=64
- --variable_update=horovod
image: mpioperator/tensorflow-benchmarks:latest
name: tensorflow-benchmarks
Worker:
replicas: 1
template:
spec:
containers:
- image: mpioperator/tensorflow-benchmarks:latest
name: tensorflow-benchmarks
resources:
limits:
nvidia.com/gpu: 2
slotsPerWorker: 2
status:
completionTime: "2019-07-09T22:17:06Z"
conditions:
- lastTransitionTime: "2019-07-09T22:15:51Z"
lastUpdateTime: "2019-07-09T22:15:51Z"
message: MPIJob default/tensorflow-benchmarks is created.
reason: MPIJobCreated
status: "True"
type: Created
- lastTransitionTime: "2019-07-09T22:15:54Z"
lastUpdateTime: "2019-07-09T22:15:54Z"
message: MPIJob default/tensorflow-benchmarks is running.
reason: MPIJobRunning
status: "False"
type: Running
- lastTransitionTime: "2019-07-09T22:17:06Z"
lastUpdateTime: "2019-07-09T22:17:06Z"
message: MPIJob default/tensorflow-benchmarks successfully completed.
reason: MPIJobSucceeded
status: "True"
type: Succeeded
replicaStatuses:
Launcher:
succeeded: 1
Worker: {}
startTime: "2019-07-09T22:15:51Z"
训练应运行 100 步,在 GPU 集群上大约需要几分钟。您可以查看日志以了解训练进度。当作业开始时,从 launcher Pod 访问日志:
PODNAME=$(kubectl get pods -l training.kubeflow.org/job-name=tensorflow-benchmarks,training.kubeflow.org/job-role=launcher -o name)
kubectl logs -f ${PODNAME}
TensorFlow: 1.14
Model: resnet101
Dataset: imagenet (synthetic)
Mode: training
SingleSess: False
Batch size: 128 global
64 per device
Num batches: 100
Num epochs: 0.01
Devices: ['horovod/gpu:0', 'horovod/gpu:1']
NUMA bind: False
Data format: NCHW
Optimizer: sgd
Variables: horovod
...
40 images/sec: 154.4 +/- 0.7 (jitter = 4.0) 8.280
40 images/sec: 154.4 +/- 0.7 (jitter = 4.1) 8.482
50 images/sec: 154.8 +/- 0.6 (jitter = 4.0) 8.397
50 images/sec: 154.8 +/- 0.6 (jitter = 4.2) 8.450
60 images/sec: 154.5 +/- 0.5 (jitter = 4.1) 8.321
60 images/sec: 154.5 +/- 0.5 (jitter = 4.4) 8.349
70 images/sec: 154.5 +/- 0.5 (jitter = 4.0) 8.433
70 images/sec: 154.5 +/- 0.5 (jitter = 4.4) 8.430
80 images/sec: 154.8 +/- 0.4 (jitter = 3.6) 8.199
80 images/sec: 154.8 +/- 0.4 (jitter = 3.8) 8.404
90 images/sec: 154.6 +/- 0.4 (jitter = 3.7) 8.418
90 images/sec: 154.6 +/- 0.4 (jitter = 3.6) 8.459
100 images/sec: 154.2 +/- 0.4 (jitter = 4.0) 8.372
100 images/sec: 154.2 +/- 0.4 (jitter = 4.0) 8.542
----------------------------------------------------------------
total images/sec: 308.27
有关使用 Intel MPI 的示例,请参阅:
cat examples/pi/pi-intel.yaml
有关使用 MPICH 的示例,请参阅:
cat examples/pi/pi-mpich.yaml
暴露的指标
| 指标名称 | 指标类型 | 描述 | 标签 |
|---|---|---|---|
| mpi_operator_jobs_created_total | 计数器 | 统计创建的 MPI 作业数量 | |
| mpi_operator_jobs_successful_total | 计数器 | 统计成功的 MPI 作业数量 | |
| mpi_operator_jobs_failed_total | 计数器 | 统计失败的 MPI 作业数量 | |
| mpi_operator_job_info | 状态量 | 关于 MPIJob 的信息 | launcher=<launcher-pod-name> namespace=<job-namespace> |
联接指标
借助 kube-state-metrics,可以通过标签对指标进行联接。
例如 kube_pod_info * on(pod,namespace) group_left label_replace(mpi_operator_job_infos, "pod", "$0", "launcher", ".*")
Docker 镜像
我们为每次发布都会在 Docker Hub 上推送 mpioperator 的 Docker 镜像。 您也可以使用以下 Dockerfile 自行构建镜像:
或者,您也可以使用 make 命令来构建镜像:
make RELEASE_VERSION=dev IMAGE_NAME=registry.example.com/mpi-operator images
这将生成一个标签为 registry.example.com/mpi-operator:dev 的镜像。
贡献
更多信息请参阅 CONTRIBUTING。
版本历史
v0.2.32020/05/19v0.2.22019/09/16v0.2.12019/07/15v0.2.02019/07/030.1.02019/01/11v0.8.02026/02/17v0.7.02025/10/30v0.6.02024/10/16v0.5.02024/04/18v0.4.02023/04/05v0.3.02021/09/07常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器