k8m

GitHub
798 139 较难 2 次阅读 3天前MIT语言模型图像插件开发框架Agent
AI 解读 由 AI 自动生成,仅供参考

k8m 是一款轻量级、跨平台的 Kubernetes AI 控制台,将大模型能力与集群管理深度融合。它通过内置或接入私有大模型(如 Qwen、DeepSeek 或 Ollama),实现智能问答、YAML 自动解释、日志诊断、命令推荐等功能,并集成 k8s-gpt 能力,让 Kubernetes 运维更直观高效。k8m 支持多集群统一管理,自动扫描 kubeconfig 文件,兼容标准 K8s、EKS、K3s 等多种环境,同时创新性地打通 MCP(Model Context Protocol)调用与用户权限体系——大模型执行操作时严格遵循当前用户的集群权限,确保安全可控。所有功能打包为单文件,部署简单,资源占用低。适合 DevOps 工程师、SRE、云原生开发者及 AI 基础设施研究者使用,尤其适用于希望借助 AI 提升集群管理效率、降低运维复杂度的技术团队。

使用场景

某金融科技公司的 DevOps 团队负责管理 5 个 Kubernetes 集群(包括 EKS、K3s 和本地 K8s),日常需频繁排查 Pod 异常、调试 YAML 配置,并响应开发人员的运维请求。

没有 k8m 时

  • 运维人员需在多个终端窗口间切换,手动执行 kubectl describelogs 等命令排查问题,效率低下且易遗漏关键信息。
  • 新入职工程师面对复杂的 YAML 字段和错误日志难以理解,常因误操作导致服务中断。
  • 多集群管理依赖分散的 kubeconfig 文件,缺乏统一视图,集群状态异常难以及时发现。
  • 开发人员请求“重启某个命名空间下的所有 Pod”等操作时,需人工审核权限并手动执行,流程繁琐且存在越权风险。
  • 无法快速获取智能建议,例如自动推荐资源配额调整或故障根因分析。

使用 k8m 后

  • 通过内置 AI 助手直接划词解释日志错误、YAML 字段含义,并自动生成诊断结论与修复建议,排查时间缩短 60% 以上。
  • 新人可通过自然语言提问(如“这个 CrashLoopBackOff 是什么原因?”),k8m 调用私有化大模型结合集群上下文给出中文解答。
  • 所有集群在单界面集中展示,支持心跳检测与异常告警,一目了然掌握全局状态。
  • 开发人员通过 MCP 接口提交操作请求(如“重启 prod 命名空间的 Pod”),k8m 自动按其 RBAC 权限执行,确保操作安全合规。
  • 利用集成的 k8s-GPT 能力,自动分析资源瓶颈并推荐优化策略,如调整 requests/limits 或 HPA 配置。

k8m 将多集群管理、AI 辅助决策与权限安全打通,让 Kubernetes 运维从“命令行苦力”转变为“智能协同”。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes工具为 Go 编写的二进制可执行文件,无需 Python 环境;内置 Qwen2.5-Coder-7B 和 DeepSeek-R1-Distill-Qwen-7B 模型,支持通过 Ollama 或私有大模型接入;运行时需访问 Kubernetes 集群(通过 kubeconfig 或 InCluster 模式);容器化部署推荐使用 Docker 或 Kubernetes;若启用 AI 功能,需确保后端能访问所配置的大模型服务。
python未说明
k8m hero image

快速开始

K8M

weibaohui%2Fk8m | Trendshift

GitHub Repo Stars GitHub Repo Forks

License MIT Go Report Card GitHub Release GitHub Downloads (all assets, all releases) GitHub Repo Issues Trust Score zread Repobeats analytics image

English | 中文

k8m 是一款AI驱动的 Mini Kubernetes AI Dashboard 轻量级控制台工具,专为简化集群管理设计。它基于 AMIS(前端低代码框架)构建,并通过 kom 作为 Kubernetes API 客户端,k8m 内置了 Qwen2.5-Coder-7B,支持 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 模型交互能力,同时支持接入您自己的私有化大模型(包括 ollama)。

演示DEMO

DEMO
DEMO-InCluster模式
用户名密码 demo/demo

文档

主要特点

  • 迷你化设计:所有功能整合在一个单一的可执行文件中,部署便捷,使用简单。
  • 简便易用:友好的用户界面和直观的操作流程,让 Kubernetes 管理更加轻松。支持标准 k8s、AWS EKS、k3s、kind、k0s 等集群类型。
  • 高效性能:后端采用 Golang 构建,前端基于百度 AMIS,保证资源利用率高、响应速度快。
  • AI驱动融合 :基于 ChatGPT 实现划词解释、资源指南、YAML 属性自动翻译、Describe 信息解读、日志 AI 问诊、运行命令推荐,并集成了 k8s-gpt 功能,实现中文展现,为管理 k8s 提供智能化支持。
  • 功能插件化:特性功能插件化,按需开启,不开启不占资源。
  • MCP集成: 可视化管理 MCP(Model Context Protocol),实现大模型调用 Tools,内置 k8s 多集群 MCP 工具 49 种,可组合实现超百种集群操作,可作为 MCP Server 供其他大模型软件使用。轻松实现大模型管理 k8s。可详细记录每一次 MCP 调用。支持 mcp.so 主流服务。
  • MCP权限打通: 多集群管理权限与 MCP 大模型调用权限打通,一句话概述:谁使用大模型,就用谁的权限执行 MCP。安全使用,无后顾之忧,避免操作越权。
  • 多集群管理:自动识别集群内部使用 InCluster 模式,配置 kubeconfig 路径后自动扫描同级目录下的配置文件,同时注册管理多个集群,支持心跳检测与自动重连。
  • 多集群权限管理:支持对用户、用户组进行授权,可按集群授权,包括集群只读、Exec 命令、集群管理员三种权限。对用户组授权后,组内用户均获得相应授权。支持设置命名空间黑白名单。
  • 支持k8s最新特性: 支持 APIGateway、OpenKruise 等功能特性。
  • Pod文件管理:在 Console 界面左侧的文件树,右键菜单,支持 Pod 内文件的浏览、编辑、上传、下载、删除,简化日常操作。
  • Pod运行管理:支持实时查看 Pod 日志,下载日志,并在 Pod 内直接执行 Shell 命令。支持 Ctrl+F 搜索,类似 grep -A -B 高亮搜索。
  • API开放: 支持创建 API KEY,从第三方外部访问,提供 swagger 接口管理页面。
  • 集群巡检支持:支持多集群定时巡检、自定义巡检规则,支持 Lua 脚本规则。支持发送到钉钉群、微信群、飞书群以及自定义 webhook。支持 AI 总结。
  • k8s Event转发:支持多集群 k8s Event 转发到 webhook 中,可按集群、关键字、命名空间、名称等进行过滤,建立多个专门的监控转发通道。支持 AI 总结。
  • CRD管理:可自动发现并管理 CRD(Custom Resource Definition)资源,树状列出所有 CRD,提高工作效率。
  • Helm市场:支持 Helm 自由添加仓库,一键安装、卸载、升级 Helm 应用,支持自动更新。
  • 跨平台支持:兼容 Linux、macOS 和 Windows,并支持 x86、ARM 等多种架构,确保多平台无缝运行。
  • 多数据库支持:支持 SQLite、MySQL、PostgreSQL 等多种数据库。
  • 完全开源:开放所有源码,无任何限制,可自由定制和扩展,可商业使用。

k8m 的设计理念是"AI驱动,轻便高效,化繁为简",它帮助开发者和运维人员快速上手,轻松管理 Kubernetes 集群。

运行

  1. 下载:从 GitHub release 下载最新版本。
  2. 运行:使用 ./k8m 命令启动,访问 http://127.0.0.1:3618
  3. 登录用户名密码
    • 用户名:k8m
    • 密码:k8m
    • 请注意上线后修改用户名密码、启用两步验证。
  4. 参数
Usage of ./k8m:
      --enable-temp-admin                是否启用临时管理员账户配置,默认关闭
      --admin-password string            管理员密码,启用临时管理员账户配置后生效 
      --admin-username string            管理员用户名,启用临时管理员账户配置后生效
      --print-config                     是否打印配置信息 (default false)
      --connect-cluster                  启动集群是是否自动连接现有集群,默认关闭
  -d, --debug                            调试模式
      --in-cluster                       是否自动注册纳管宿主集群,默认启用
      --jwt-token-secret string          登录后生成JWT token 使用的Secret (default "your-secret-key")
  -c, --kubeconfig string                kubeconfig文件路径 (default "/root/.kube/config")
      --kubectl-shell-image string       Kubectl Shell 镜像。默认为 bitnami/kubectl:latest,必须包含kubectl命令 (default "bitnami/kubectl:latest")
      --log-v int                        klog的日志级别klog.V(2) (default 2)
      --login-type string                登录方式,password, oauth, token等,default is password (default "password")
      --image-pull-timeout               Node Shell、Kubectl Shell 镜像拉取超时时间。默认为 30 秒
      --node-shell-image string          NodeShell 镜像。 默认为 alpine:latest,必须包含`nsenter`命令 (default "alpine:latest")
  -p, --port int                         监听端口 (default 3618)
  -v, --v Level                          klog的日志级别 (default 2)

也可以直接通过 docker-compose(推荐)启动:

services:
  k8m:
    container_name: k8m
    image: registry.cn-hangzhou.aliyuncs.com/minik8m/k8m
    restart: always
    ports:
      - "3618:3618"
    environment:
      TZ: Asia/Shanghai
    volumes:
      - ./data:/app/data

启动之后,访问3618端口,默认用户:k8m,默认密码k8m
如果你想通过在线环境快速拉起体验,可以访问:k8m

容器化k8s集群方式运行

使用 KinDMiniKube
安装一个小型 k8s 集群

KinD 方式

  • 安装 KinD(Kubernetes in Docker)工具:
brew install kind
  • 创建新的 Kubernetes 集群:
kind create cluster --name k8sgpt-demo

将 k8m 部署到集群中体验

安装脚本

kubectl apply -f https://raw.githubusercontent.com/weibaohui/k8m/refs/heads/main/deploy/k8m.yaml
  • 访问方式:
    默认使用了 NodePort 暴露服务,请访问 31999 端口。您也可以自行配置 Ingress。
    http://NodePortIP:31999

生产部署启用主备选举插件,注意事项

  • 单实例运行时,Service 的定义不要添加 k8m.io/role: leader 标签,否则将无法正常访问。
  • 多实例运行时,Service 的定义必须添加 k8m.io/role: leader 标签,否则不会触发主备切换。
  • 多实例运行的 YAML 文件如下:
kubectl apply -f https://raw.githubusercontent.com/weibaohui/k8m/refs/heads/main/deploy/k8m-ms.yaml

ChatGPT 配置指南

内置 GPT

从 v0.0.8 版本开始,已内置 GPT,无需额外配置。
如果您希望使用自己的 GPT 模型,请参考以下文档。

ChatGPT 状态调试

如果设置参数后仍无效果,请尝试使用 ./k8m -v 6 获取更详细的调试信息。
日志中会输出相关信息,通过查看日志可确认 ChatGPT 是否已成功启用。

开发调试

如果您想在本地进行开发调试,请先执行一次本地前端构建,以自动生成 dist 目录。因为本项目采用二进制嵌入前端资源的方式,若缺少 dist 目录,程序会报错。

第一步:编译前端

cd ui
pnpm run build

编译并调试后端

# 下载依赖
go mod tidy
# 运行(使用 air 实现热重载)
air
# 或者直接运行
go run *.go 
# 默认监听 localhost:3618 端口

前端热加载

cd ui
pnpm run dev
# Vite 服务将监听在 localhost:3000 端口
# Vite 会将后端请求代理到 3618 端口

访问 http://localhost:3000

HELP & SUPPORT

如果您有任何进一步的问题或需要额外的帮助,请随时与我联系!

特别鸣谢

zhaomingcheng01:提出了诸多非常高质量的建议,为 k8m 的易用性做出了卓越贡献~

La0jin:提供在线资源及维护,极大提升了 k8m 的展示效果

eryajf:为我们提供了非常好用的 GitHub Actions,为 k8m 增加了自动化的发版、构建、发布等功能

联系我

微信(大罗马的太阳) 搜索 ID:daluomadetaiyang,备注 k8m。

Image

微信群

输入图片说明

版本历史

v0.26.172026/03/05
v0.26.162026/03/01
v0.26.152026/02/27
v0.26.142026/02/12
v0.26.132026/01/29
v0.26.122026/01/28
v0.26.112026/01/26
v0.26.102026/01/26
v0.26.92026/01/25
v0.26.82026/01/23
v0.26.72026/01/22
v0.26.62026/01/14
v0.26.52026/01/13
v0.26.42026/01/12
v0.26.32026/01/11
v0.26.22026/01/10
v0.26.12026/01/10
v0.0.1892025/12/14
v0.0.1882025/11/24
v0.0.1872025/11/23

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架