gpustack

GitHub
4.8k 493 中等 1 次阅读 昨天Apache-2.0开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

GPUStack 是一款开源的 GPU 集群管理工具,旨在帮助用户高效部署和运行高性能 AI 模型。它核心解决了在多环境(如本地服务器、Kubernetes 集群或云端)下,如何统一调度分散的 GPU 资源并自动配置最佳推理引擎的难题,让复杂的集群运维变得简单可控。

无论是需要构建大规模模型服务的开发团队、IT 运维人员,还是希望快速落地 AI 应用的服务提供商,都能通过 GPUStack 轻松实现“模型即服务”。它支持 NVIDIA、AMD、华为昇腾等多种主流加速卡,并能自动编排 vLLM、SGLang、TensorRT-LLM 等高性能推理后端。

其技术亮点在于“开箱即用”的性能优化:内置了针对低延迟或高吞吐量的预调优模式,支持 LMCache 等扩展缓存系统以降低首字延迟,并原生集成 EAGLE3 等投机解码技术。此外,GPUStack 还具备企业级的自动化故障恢复、负载均衡及细粒度的监控计量功能,让用户在享受极致推理速度的同时,也能拥有稳定可靠的生产级运维体验。

使用场景

某中型 AI 初创公司需要在混合云环境(本地服务器 + 公有云 GPU)中快速部署并规模化服务最新的开源大语言模型,以支撑其智能客服产品。

没有 gpustack 时

  • 资源调度混乱:运维团队需手动在本地和云端分别配置 vLLM 或 SGLang,跨环境扩缩容耗时数小时,难以应对突发流量。
  • 性能调优门槛高:缺乏自动化的参数优化,工程师需反复试验 KV Cache 大小和解码策略,导致首字延迟(TTFT)居高不下。
  • 监控与运维割裂:GPU 利用率、Token 消耗等关键指标分散在不同平台,故障恢复依赖人工介入,服务稳定性差。
  • 新模型上线慢:每当有新模型发布,需重新编写适配脚本和配置文件,无法实现“发布即部署”。

使用 gpustack 后

  • 统一集群编排:gpustack 一键纳管本地与云端异构算力,自动将推理任务调度至最优节点,扩容时间从小时级缩短至分钟级。
  • 开箱即用的高性能:内置预调优模式自动启用 LMCache 和 EAGLE3 speculative decoding,在同等硬件下吞吐量显著提升,延迟大幅降低。
  • 全链路可观测性:集成 Prometheus 和 Grafana 提供统一的监控大盘,实时展示 GPU 状态与 API 用量,并支持故障自动迁移与恢复。
  • 敏捷模型迭代:凭借插件式引擎架构,新模型发布当天即可通过简单配置完成部署,无需修改底层代码。

gpustack 通过自动化编排与深度性能优化,让企业能够像使用水电一样便捷地构建高可用、低延迟的模型即服务(MaaS)平台。

运行环境要求

操作系统
  • Linux
GPU
  • 工作节点必需至少一张 GPU
  • 支持 NVIDIA、AMD、Ascend NPU、Hygon DCU、MThreads、Iluvatar、MetaX、Cambricon MLU、T-Head PPU
  • Server 端可运行在无 GPU 的 CPU 机器上
内存

未说明

依赖
notes1. 架构分为 Server 和 Worker:Server 可运行在 Linux/Windows/macOS 的 CPU 机器上(支持 Docker Desktop);Worker 节点仅支持 Linux,不支持 macOS 和原生 Windows(Windows 需使用 WSL2 且避免使用 Docker Desktop)。2. 必须安装 Docker 及对应 GPU 的容器运行时工具(如 NVIDIA Container Toolkit)。3. 构建源码包需要 Python 3.10 至 3.12 版本。
python3.10 - 3.12 (仅构建时需要)
Docker
NVIDIA Container Toolkit (针对 NVIDIA GPU)
gpustack hero image

快速开始


GPUStack


Documentation License WeChat Discord Follow on X(Twitter)


English | 简体中文 | 日本語


概述

GPUStack 是一款开源的 GPU 集群管理器,专为高效部署 AI 模型而设计。它能够配置并编排推理引擎——如 vLLM、SGLang、TensorRT-LLM 或您自定义的引擎——以优化跨 GPU 集群的性能。其核心功能包括:

  • 多集群 GPU 管理。 可管理跨多个环境的 GPU 集群,包括本地服务器、Kubernetes 集群以及云服务提供商。
  • 可插拔的推理引擎。 自动配置高性能推理引擎,如 vLLM、SGLang 和 TensorRT-LLM。您也可以根据需要添加自定义推理引擎。
  • Day 0 模型支持。 GPUStack 的可插拔引擎架构使您能够在模型发布当天就将其部署上线。
  • 性能优化配置。 提供针对低延迟或高吞吐量的预调模式。GPUStack 支持 LMCache 和 HiCache 等扩展 KV 缓存系统,以降低 TTFT;同时内置对 EAGLE3、MTP 和 N-grams 等推测解码方法的支持。
  • 企业级运维功能。 支持自动故障恢复、负载均衡、监控、身份验证和访问控制。

架构

GPUStack 使开发团队、IT 组织和服务提供商能够大规模提供模型即服务(MaaS)。它支持 LLM、语音、图像和视频模型的行业标准 API。该平台内置用户身份验证和访问控制、GPU 性能与利用率的实时监控,以及详细的 Token 使用量和 API 请求速率计量。

下图展示了单个 GPUStack 服务器如何管理跨本地和云端的多个 GPU 集群。GPUStack 调度器会分配 GPU 以最大化资源利用率,并选择合适的推理引擎以实现最佳性能。管理员还可以通过集成的 Grafana 和 Prometheus 仪表板,全面了解系统健康状况和各项指标。

gpustack-v2-architecture

优化的推理性能

GPUStack 的自动化引擎选择和参数优化,开箱即用即可带来出色的推理性能。下图展示了相较于默认 vLLM 配置的吞吐量提升:

a100-throughput-comparison

有关详细的基准测试方法和结果,请访问我们的 推理性能实验室

支持的加速器

GPUStack 支持广泛的 AI 推理加速器:

  • NVIDIA GPU
  • AMD GPU
  • Ascend NPU
  • Hygon DCU
  • MThreads GPU
  • Iluvatar GPU
  • MetaX GPU
  • Cambricon MLU
  • T-Head PPU

有关详细要求和设置说明,请参阅 安装要求 文档。

快速入门

前提条件

  1. 至少配备一块 NVIDIA GPU 的节点。对于其他类型的 GPU,请在添加工作节点时查看 GPUStack UI 中的相关指南,或参考 安装文档 获取更多信息。
  2. 确保工作节点上已安装 NVIDIA 驱动程序、DockerNVIDIA Container Toolkit
  3. (可选)一台用于托管 GPUStack 服务器的 CPU 节点。GPUStack 服务器无需 GPU,可在纯 CPU 机器上运行。必须安装 Docker。也支持 Docker Desktop(适用于 Windows 和 macOS)。若无专用 CPU 节点,也可将 GPUStack 服务器安装在同一台 GPU 工作节点上。
  4. GPUStack 工作节点仅支持 Linux 系统。若您使用 Windows,建议采用 WSL2,避免使用 Docker Desktop。macOS 不支持作为 GPUStack 工作节点。

安装 GPUStack

运行以下命令,使用 Docker 安装并启动 GPUStack 服务器:

sudo docker run -d --name gpustack \
    --restart unless-stopped \
    -p 80:80 \
    --volume gpustack-data:/var/lib/gpustack \
    gpustack/gpustack
替代方案:使用 Quay 容器镜像仓库

如果您无法从 Docker Hub 拉取镜像,或下载速度非常慢,可以使用我们的 Quay.io 镜像,只需将您的容器注册表指向 quay.io 即可:

sudo docker run -d --name gpustack \
    --restart unless-stopped \
    -p 80:80 \
    --volume gpustack-data:/var/lib/gpustack \
    quay.io/gpustack/gpustack \
    --system-default-container-registry quay.io

检查 GPUStack 启动日志:

sudo docker logs -f gpustack

GPUStack 启动后,运行以下命令获取默认管理员密码:

sudo docker exec gpustack cat /var/lib/gpustack/initial_admin_password

打开浏览器,访问 http://your_host_ip 即可进入 GPUStack 管理界面。使用默认用户名 admin 和上述获取的密码登录。

设置 GPU 集群

  1. 在 GPUStack 的 UI 界面中,导航到 Clusters 页面。

  2. 点击 Add Cluster 按钮。

  3. 选择 Docker 作为集群提供商。

  4. 填写新集群的 NameDescription 字段,然后点击 Save 按钮。

  5. 按照 UI 指南配置新的工作节点。您需要在工作节点上运行一个 Docker 命令,将其连接到 GPUStack 服务器。该命令大致如下:

    sudo docker run -d --name gpustack-worker \
          --restart=unless-stopped \
          --privileged \
          --network=host \
          --volume /var/run/docker.sock:/var/run/docker.sock \
          --volume gpustack-data:/var/lib/gpustack \
          --runtime nvidia \
          gpustack/gpustack \
          --server-url http://your_gpustack_server_url \
          --token your_worker_token \
          --advertise-address 192.168.1.2
    
  6. 在工作节点上执行该命令,以将其连接到 GPUStack 服务器。

  7. 工作节点成功连接后,将显示在 GPUStack UI 的 Workers 页面上。

部署模型

  1. 导航到 GPUStack UI 中的 Catalog 页面。

  2. 从可用模型列表中选择 Qwen3 0.6B 模型。

  3. 部署兼容性检查通过后,点击 Save 按钮以部署模型。

从目录部署 Qwen3

  1. GPUStack 将开始下载模型文件并部署模型。当部署状态显示为 Running 时,模型已成功部署。

模型正在运行

  1. 点击导航菜单中的 Playground - Chat,确保在右上角的 Model 下拉菜单中选择了 qwen3-0.6b 模型。现在您可以在 UI Playground 中与该模型进行对话。

快速聊天

通过 API 使用模型

  1. 将鼠标悬停在用户头像上,进入 API Keys 页面,然后点击 New API Key 按钮。

  2. 填写 Name 并点击 Save 按钮。

  3. 复制生成的 API 密钥,并将其保存在安全的地方。请注意,您只能在创建时查看一次。

  4. 现在您可以使用该 API 密钥访问 GPUStack 提供的与 OpenAI 兼容的 API 端点。例如,使用 curl 如下:

# 将 `your_api_key` 和 `your_gpustack_server_url`
# 替换为您的实际 API 密钥和 GPUStack 服务器 URL。
export GPUSTACK_API_KEY=your_api_key
curl http://your_gpustack_server_url/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $GPUSTACK_API_KEY" \
  -d '{
    "model": "qwen3-0.6b",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Tell me a joke."
      }
    ],
    "stream": true
  }'

文档

完整的文档请参阅 官方文档网站

构建

  1. 安装 Python(版本 3.10 至 3.12)。

  2. 运行 make build

构建好的 wheel 包可在 dist 目录中找到。

贡献

如果您有兴趣为 GPUStack 做贡献,请阅读 贡献指南

加入社区

如有任何问题或建议,欢迎加入我们的 社区 获取支持。

许可证

版权所有 © 2024–2025 GPUStack 作者

根据 Apache License, Version 2.0(“许可证”)授权;除非符合许可证规定,否则不得使用本文件。有关详细信息,请参阅 LICENSE 文件。

除非适用法律要求或双方书面同意,否则软件按“原样”分发,不提供任何形式的保证或条件。许可证详细规定了权限和限制。

版本历史

v2.1.12026/03/26
v2.1.1rc12026/03/24
v2.1.02026/03/07
v2.1.0rc22026/03/06
v2.1.0rc12026/02/14
v2.0.32026/01/09
v2.0.3rc12026/01/07
v2.0.22025/12/31
v2.0.2rc22025/12/31
v2.0.2rc12025/12/25
v2.0.12025/12/07
v2.0.1rc22025/12/05
v2.0.1rc12025/12/04
v2.0.02025/11/23
v2.0.0rc22025/11/23
v2.0.0rc12025/11/23
v0.7.12025/08/22
v0.7.1rc22025/08/21
v0.7.1rc12025/08/20
v0.7.02025/07/25

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|3天前
开发框架图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|今天
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|昨天
图像数据工具视频