mcp-server-kubernetes

GitHub
1.4k 238 简单 4 次阅读 3天前MITAgent插件
AI 解读 由 AI 自动生成,仅供参考

mcp-server-kubernetes 是一个开源的 MCP(Model Context Protocol)服务器,专为简化 Kubernetes 集群管理而设计。它允许 AI 助手(如 Claude)通过自然语言与你的 Kubernetes 环境交互,执行查看 Pod、部署应用、检查服务状态等操作,无需手动输入复杂命令。

在日常运维或开发中,用户常需频繁使用 kubectl 查询或修改集群状态,但命令繁琐且容易出错。mcp-server-kubernetes 将这些操作封装成 AI 可调用的接口,让开发者能用对话方式高效管理集群,降低操作门槛。

该工具主要面向熟悉 Kubernetes 的开发者、DevOps 工程师或云原生技术使用者,尤其适合已在本地配置好 kubeconfig 并希望提升人机协作效率的人群。它支持从多种来源(如默认配置文件、环境变量或自定义路径)自动加载 kubeconfig,并兼容 Helm 3,便于管理 Chart 应用。基于 Bun 运行,启动轻快,同时提供 VS Code、Claude Desktop 等主流开发环境的一键集成方式,开箱即用。

使用场景

某 DevOps 工程师正在使用 Claude Desktop 编写一个部署脚本,需要频繁查询 Kubernetes 集群状态、调试 Pod 异常并安装 Helm Chart。

没有 mcp-server-kubernetes 时

  • 每次想查看 Pod 状态,都得切换到终端手动执行 kubectl get pods -n myapp,再把结果复制回聊天窗口分析。
  • 调试服务异常时,无法在对话中直接获取日志,必须先记住 Pod 名称,再切到命令行运行 kubectl logs,效率低下。
  • 安装 Helm Chart 需要离开 Claude 手动执行 helm install,容易因参数错误反复尝试,上下文割裂。
  • 多集群环境下,需手动确认当前 kubeconfig 上下文是否正确,容易误操作生产环境。
  • 编写自动化脚本时缺乏实时反馈,无法验证命令是否真能在目标集群上运行。

使用 mcp-server-kubernetes 后

  • 在 Claude 对话中直接输入“列出 myapp 命名空间下的所有 Pod”,AI 自动调用 mcp-server-kubernetes 获取实时数据并结构化呈现。
  • 可通过自然语言指令如“查看最近崩溃的 Pod 日志”,工具自动定位异常容器并返回日志片段,无需手动查名。
  • 通过“用 Helm 在 staging 环境部署 mychart”等指令,AI 调用内置 Helm 支持完成安装,并返回部署状态。
  • 工具自动按优先级加载 kubeconfig,结合上下文隔离机制,避免跨环境误操作。
  • 编写 YAML 或脚本时,可即时验证资源是否存在或配置是否生效,形成闭环开发体验。

mcp-server-kubernetes 将 Kubernetes 操作无缝嵌入 AI 对话流,让集群管理从“切换-执行-粘贴”的繁琐流程变为自然语言驱动的高效交互。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes需要预先安装 kubectl 并配置有效的 kubeconfig 文件以连接 Kubernetes 集群;可选安装 Helm v3 以支持 Helm 相关操作;运行时依赖 Bun(JavaScript 运行时),不依赖 Python;支持通过环境变量启用 OpenTelemetry 可观察性功能。
python未说明
bun
kubectl
Helm v3
mcp-server-kubernetes hero image

快速开始

MCP Server Kubernetes

CI Language Bun Kubernetes Docker Stars Issues PRs Welcome Last Commit Trust Score Ask DeepWiki

一个可连接 Kubernetes 集群并对其进行管理的 MCP Server(Model Context Protocol Server,模型上下文协议服务器)。支持按优先级顺序从多个来源加载 kubeconfig。

https://github.com/user-attachments/assets/f25f8f4e-4d04-479b-9ae0-5dac452dd2ed

安装与使用

先决条件

在将此 MCP server 与任何工具配合使用之前,请确保您已满足以下条件:

  1. 已安装 kubectl 并将其加入 PATH
  2. 拥有一个配置了上下文(contexts)的有效 kubeconfig 文件
  3. 能通过 kubectl 访问 Kubernetes 集群(例如 minikube、Rancher Desktop、GKE 等)
  4. 已安装 Helm v3 并将其加入 PATH(无需 Tiller)。如果您不打算使用 Helm,则此项为可选。

您可以通过在终端中运行 kubectl get pods 来验证连接,确保能够无凭证问题地连接到集群。

默认情况下,该 server 会从 ~/.kube/config 加载 kubeconfig。如需其他认证选项(环境变量、自定义路径等),请参阅 ADVANCED_README.md

Claude Code

使用内置命令将 MCP server 添加到 Claude Code:

claude mcp add kubernetes -- npx mcp-server-kubernetes

这将自动在您的 Claude Code MCP 设置中配置该 server。

Claude Desktop

将以下配置添加到您的 Claude Desktop 配置文件中:

{
  "mcpServers": {
    "kubernetes": {
      "command": "npx",
      "args": ["mcp-server-kubernetes"]
    }
  }
}

通过 mcpb 使用 Claude Desktop Connector

MCP Server Kubernetes 也可作为 mcpb(原名 dxt)扩展使用。在 Claude Desktop 中,进入设置(Mac 上为 Cmd+,)→ Extensions(扩展)→ Browse Extensions(浏览扩展),在弹窗中滚动查找 mcp-server-kubernetes 并安装。安装后,它将通过命令行自动安装并使用 kubectl 及您的 kubeconfig。

您也可以手动安装:前往最新的 Release 页面下载 .mcpb 文件。

VS Code

Install Kubernetes MCP in VS Code

对于 VS Code 集成,您可以将该 MCP server 与支持 Model Context Protocol 的扩展一起使用:

  1. 安装兼容的 MCP 扩展(例如 Claude Dev 或其他 MCP 客户端)
  2. 配置该扩展以使用本 server:
{
  "mcpServers": {
    "kubernetes": {
      "command": "npx",
      "args": ["mcp-server-kubernetes"],
      "description": "Kubernetes 集群管理与操作"
    }
  }
}

Cursor

Cursor 通过其 AI 集成功能支持 MCP servers。将该 server 添加到您的 Cursor MCP 配置中:

{
  "mcpServers": {
    "kubernetes": {
      "command": "npx",
      "args": ["mcp-server-kubernetes"]
    }
  }
}

该 server 将自动连接到您当前的 kubectl 上下文。您可以通过让 AI 助手列出您的 Pods 或创建一个测试 Deployment 来验证连接是否成功。

与 mcp-chat 配合使用

mcp-chat 是一个用于与 MCP servers 交互的 CLI 聊天客户端。您可以使用它来与 Kubernetes server 进行交互。

npx mcp-chat --server "npx mcp-server-kubernetes"

或者,传入您上面创建的 Claude Desktop 配置文件(Linux 用户应传入正确的配置路径):

Mac:

npx mcp-chat --config "~/Library/Application Support/Claude/claude_desktop_config.json"

Windows:

npx mcp-chat --config "%APPDATA%\Claude\claude_desktop_config.json"

Gemini CLI

Gemini CLI 允许您将 MCP servers 作为扩展安装。在终端中,通过指向本仓库来安装扩展:

gemini extensions install https://github.com/Flux159/mcp-server-kubernetes

功能特性

  • 连接到 Kubernetes 集群
  • 统一的 kubectl API 用于管理资源
    • 使用 kubectl_get 获取或列出资源
    • 使用 kubectl_describe 描述资源
    • 使用 kubectl_get 列出资源
    • 使用 kubectl_create 创建资源
    • 使用 kubectl_apply 应用 YAML 清单
    • 使用 kubectl_delete 删除资源
    • 使用 kubectl_logs 获取日志
    • 使用 kubectl_context 管理 kubectl 上下文(context)
    • 使用 explain_resource 解释 Kubernetes 资源
    • 使用 list_api_resources 列出 API 资源
    • 使用 kubectl_scale 扩缩资源
    • 使用 kubectl_patch 更新资源的字段
    • 使用 kubectl_rollout 管理 Deployment 的滚动更新
    • 使用 kubectl_generic 执行任意 kubectl 命令
    • 使用 ping 验证连接
  • 高级操作
    • 使用 kubectl_scale 扩缩 Deployment(替代旧版 scale_deployment
    • 使用 port_forward 对 Pod 和 Service 进行端口转发
    • Helm 操作支持
      • 安装、升级和卸载 Helm Chart
      • 支持自定义 values、仓库和版本
      • 基于模板的安装(helm_template_apply),可绕过认证问题
      • 基于模板的卸载(helm_template_uninstall),可绕过认证问题
    • Pod 清理操作
      • 清理处于以下状态的问题 Pod(cleanup_pods):Evicted(已驱逐)、ContainerStatusUnknown(容器状态未知)、Completed(已完成)、Error(错误)、ImagePullBackOff(镜像拉取失败)、CrashLoopBackOff(崩溃循环)
    • 节点管理操作
      • 对节点进行封锁(cordon)、排空(drain)和解除封锁(uncordon)(node_management),用于维护和扩缩容操作
  • 故障排查提示(k8s-diagnose
    • 根据关键字和可选的命名空间(namespace),引导用户对 Pod 进行系统化的 Kubernetes 故障排查流程。
  • 非破坏性模式(Non-destructive mode),仅允许对集群进行读取和创建/更新操作
  • 敏感信息掩码(Secrets masking)以保障安全(在 kubectl get secrets 命令中屏蔽敏感数据,不影响日志)
  • OpenTelemetry 可观测性(可选启用)
    • 为所有工具调用提供分布式追踪(Distributed tracing)
    • 支持导出到 Jaeger、Tempo、Grafana 或任意 OTLP 后端
    • 可配置的采样策略
    • 丰富的 Span 属性(工具名称、持续时间、K8s 上下文、错误信息等)
    • 详情请参阅 docs/OBSERVABILITY.md

可观测性

MCP Kubernetes 服务器包含可选的 OpenTelemetry 集成,用于全面的可观测性。该功能默认禁用,可通过环境变量或 Helm 配置启用。

快速开始

通过环境变量启用可观测性:

export ENABLE_TELEMETRY=true
export OTEL_EXPORTER_OTLP_ENDPOINT=http://localhost:4317

npx mcp-server-kubernetes

追踪内容

  • 所有工具调用:如 kubectl_getkubectl_applykubectl_logs
  • 执行耗时:每次操作所花费的时间
  • 成功/失败状态:自动错误追踪
  • Kubernetes 上下文:命名空间、上下文、资源类型
  • 丰富元数据:主机、进程和自定义属性

支持的后端

兼容任意 OTLP 后端:

  • Jaeger(开源)
  • Grafana Tempo(开源)
  • Grafana Cloud(商业)
  • DatadogNew RelicHoneycombLightstepAWS X-Ray

配置

详见 docs/OBSERVABILITY.md,包括:

  • 配置选项
  • 部署示例(Kubernetes、Helm、Claude Code)
  • 采样策略
  • 生产环境最佳实践
  • 故障排查指南

Jaeger 示例

# 启动 Jaeger
docker run -d --name jaeger \
  -e COLLECTOR_OTLP_ENABLED=true \
  -p 16686:16686 \
  -p 4317:4317 \
  jaegertracing/all-in-one:latest

# 启用遥测
export ENABLE_TELEMETRY=true
export OTEL_EXPORTER_OTLP_ENDPOINT=http://localhost:4317
export OTEL_TRACES_SAMPLER=always_on

# 启动服务器
npx mcp-server-kubernetes

# 查看追踪:http://localhost:16686

提示(Prompts)

MCP Kubernetes 服务器包含专门的提示,用于协助常见的诊断操作。

/k8s-diagnose 提示

该提示为 Kubernetes Pod 提供系统化的故障排查流程。它接受一个 keyword 用于识别相关 Pod,并可选指定 namespace 以缩小搜索范围。
提示的输出将引导您完成自主故障排查流程,提供识别问题、收集证据和建议修复步骤的指令。

本地开发

请确保已安装 bun。克隆仓库并安装依赖:

git clone https://github.com/Flux159/mcp-server-kubernetes.git
cd mcp-server-kubernetes
bun install

开发工作流

  1. 以开发模式启动服务器(监听文件变更):
bun run dev
  1. 运行单元测试:
bun run test
  1. 构建项目:
bun run build
  1. 使用 Inspector 进行本地测试
npx @modelcontextprotocol/inspector node dist/index.js
# 按照终端中的进一步说明获取 Inspector 链接
  1. 使用 Claude Desktop 进行本地测试
{
  "mcpServers": {
    "mcp-server-kubernetes": {
      "command": "node",
      "args": ["/path/to/your/mcp-server-kubernetes/dist/index.js"]
    }
  }
}
  1. 使用 mcp-chat 进行本地测试
bun run chat

贡献

详情请参阅 CONTRIBUTING.md 文件。

高级功能

非破坏性模式

您可以以非破坏性模式运行服务器,该模式会禁用所有破坏性操作(如删除 Pod、Deployment、命名空间等):

ALLOW_ONLY_NON_DESTRUCTIVE_TOOLS=true npx mcp-server-kubernetes

在 Claude Desktop 中配置非破坏性模式:

{
  "mcpServers": {
    "kubernetes-readonly": {
      "command": "npx",
      "args": ["mcp-server-kubernetes"],
      "env": {
        "ALLOW_ONLY_NON_DESTRUCTIVE_TOOLS": "true"
      }
    }
  }
}

非破坏性模式下可用的命令

所有只读操作和资源创建/更新操作仍然可用:

  • 资源信息:kubectl_getkubectl_describekubectl_logsexplain_resourcelist_api_resources
  • 资源创建/修改:kubectl_applykubectl_createkubectl_scalekubectl_patchkubectl_rollout
  • Helm 操作:install_helm_chartupgrade_helm_charthelm_template_applyhelm_template_uninstall
  • 连通性:port_forwardstop_port_forward
  • 上下文管理:kubectl_context

非破坏性模式下禁用的命令

以下破坏性操作已被禁用:

  • kubectl_delete:删除任意 Kubernetes 资源
  • uninstall_helm_chart:卸载 Helm chart
  • cleanup:清理托管资源
  • cleanup_pods:清理有问题的 Pod
  • node_management:节点管理操作(可能排空节点)
  • kubectl_generic:通用 kubectl 命令访问(可能包含破坏性操作)

如需了解其他高级功能,请参阅 ADVANCED_README.md 以及 docs 目录,其中包含关于 helm_installhelm_template_apply、节点管理与 Pod 清理的具体信息。

架构

有关更深入的架构概览(由 Devin 创建),请参见此 DeepWiki 链接

本节描述了 MCP Kubernetes 服务器的高层架构。

请求流程

下方的序列图展示了请求在系统中的流转过程:

sequenceDiagram
    participant Client
    participant Transport as Transport Layer
    participant Server as MCP Server
    participant Filter as Tool Filter
    participant Handler as Request Handler
    participant K8sManager as KubernetesManager
    participant K8s as Kubernetes API

    Note over Transport: StdioTransport or<br>SSE Transport

    Client->>Transport: Send Request
    Transport->>Server: Forward Request

    alt Tools Request
        Server->>Filter: Filter available tools
        Note over Filter: Remove destructive tools<br>if in non-destructive mode
        Filter->>Handler: Route to tools handler

        alt kubectl operations
            Handler->>K8sManager: Execute kubectl operation
            K8sManager->>K8s: Make API call
        else Helm operations
            Handler->>K8sManager: Execute Helm operation
            K8sManager->>K8s: Make API call
        else Port Forward operations
            Handler->>K8sManager: Set up port forwarding
            K8sManager->>K8s: Make API call
        end

        K8s-->>K8sManager: Return result
        K8sManager-->>Handler: Process response
        Handler-->>Server: Return tool result
    else Resource Request
        Server->>Handler: Route to resource handler
        Handler->>K8sManager: Get resource data
        K8sManager->>K8s: Query API
        K8s-->>K8sManager: Return data
        K8sManager-->>Handler: Format response
        Handler-->>Server: Return resource data
    end

    Server-->>Transport: Send Response
    Transport-->>Client: Return Final Response

有关更深入的架构概览(由 Devin 创建),请参见此 DeepWiki 链接

发布新版本

前往 releases 页面,点击 “Draft New Release”,点击 “Choose a tag” 并输入新版本号(采用 "v{major}.{minor}.{patch}" 的语义化版本格式)以创建新标签。随后,填写发布标题 “Release v{major}.{minor}.{patch}” 以及必要的描述或更新日志,最后点击 “Publish Release”。

这将创建一个新标签,并通过 cd.yml 工作流触发新的发布构建。构建成功后,新版本将自动发布到 npm。注意:无需手动更新 package.json 中的版本号,因为工作流会自动更新 package.json 文件中的版本号并向 main 分支推送一次提交。

不在计划中的功能

向 kubectx 添加集群。

Star 历史

Star History Chart

🖊️ 引用

如果您觉得本仓库有用,请引用:

@software{Patel_MCP_Server_Kubernetes_2024,
author = {Patel, Paras and Sonwalkar, Suyog},
month = jul,
title = {{MCP Server Kubernetes}},
url = {https://github.com/Flux159/mcp-server-kubernetes},
version = {2.5.0},
year = {2024}
}

版本历史

v3.4.02026/03/27
v3.3.02026/03/01
v3.2.22026/03/01
v3.2.12026/02/19
v3.2.02026/01/15
v3.1.12026/01/08
v3.1.02026/01/07
v3.0.52025/12/28
v3.0.42025/12/18
v3.0.32025/12/17
v3.0.22025/12/12
v3.0.12025/12/06
v3.0.02025/12/06
v2.9.92025/12/01
v2.9.82025/12/01
v2.9.72025/10/21
v2.9.62025/09/22
v2.9.52025/09/18
v2.9.42025/09/17
v2.9.32025/09/16

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架