[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GoogleCloudPlatform--kubectl-ai":3,"tool-GoogleCloudPlatform--kubectl-ai":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":32,"env_os":106,"env_gpu":107,"env_ram":107,"env_deps":108,"category_tags":113,"github_topics":114,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":122},8575,"GoogleCloudPlatform\u002Fkubectl-ai","kubectl-ai","AI powered Kubernetes Assistant","kubectl-ai 是一款由 Google Cloud 推出的智能助手，旨在让 Kubernetes 集群管理变得像日常对话一样简单。它充当用户意图与复杂集群操作之间的桥梁，用户只需用自然语言描述需求（例如“检查 hello 命名空间中 nginx 应用的日志”），工具即可自动将其转化为精确的 kubectl 命令并执行，从而大幅降低了学习和使用 Kubernetes 的门槛。\n\n这款工具主要解决了传统命令行操作繁琐、记忆成本高以及排查问题效率低等痛点，让开发者无需深陷复杂的语法细节，就能高效完成应用部署、状态查询和故障诊断等任务。它非常适合各类 Kubernetes 使用者，无论是希望提升运维效率的资深开发者、需要快速验证想法的研究人员，还是正在学习容器技术的初学者，都能从中受益。\n\n在技术亮点方面，kubectl-ai 展现了极佳的灵活性。它不仅默认支持 Google Gemini 模型，还广泛兼容 OpenAI、Azure OpenAI、AWS Bedrock、Grok 等多种主流云端大模型。更值得一提的是，它支持通过 Ollama 或 llama.cpp 接入本地部署的开源模","kubectl-ai 是一款由 Google Cloud 推出的智能助手，旨在让 Kubernetes 集群管理变得像日常对话一样简单。它充当用户意图与复杂集群操作之间的桥梁，用户只需用自然语言描述需求（例如“检查 hello 命名空间中 nginx 应用的日志”），工具即可自动将其转化为精确的 kubectl 命令并执行，从而大幅降低了学习和使用 Kubernetes 的门槛。\n\n这款工具主要解决了传统命令行操作繁琐、记忆成本高以及排查问题效率低等痛点，让开发者无需深陷复杂的语法细节，就能高效完成应用部署、状态查询和故障诊断等任务。它非常适合各类 Kubernetes 使用者，无论是希望提升运维效率的资深开发者、需要快速验证想法的研究人员，还是正在学习容器技术的初学者，都能从中受益。\n\n在技术亮点方面，kubectl-ai 展现了极佳的灵活性。它不仅默认支持 Google Gemini 模型，还广泛兼容 OpenAI、Azure OpenAI、AWS Bedrock、Grok 等多种主流云端大模型。更值得一提的是，它支持通过 Ollama 或 llama.cpp 接入本地部署的开源模型，让用户能够在完全离线或注重数据隐私的环境中安全地使用 AI 能力。此外，它还支持作为 MCP（Model Context Protocol）客户端或服务器运行，便于集成到更广泛的开发工作流中。","# kubectl-ai\n\n[![Go Report Card](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_kubectl-ai_readme_2b4a70945b89.png)](https:\u002F\u002Fgoreportcard.com\u002Freport\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n[![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FGoogleCloudPlatform\u002Fkubectl-ai.svg)](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fstargazers)\n\n`kubectl-ai` acts as an intelligent interface, translating user intent into\nprecise Kubernetes operations, making Kubernetes management more accessible and\nefficient.\n\n![kubectl-ai demo GIF using: kubectl-ai \"how's nginx app doing in my cluster\"](.\u002F.github\u002Fkubectl-ai.gif)\n\n## Table of Contents\n\n- [Quick Start](#quick-start)\n  - [Installation](#installation)\n  - [Usage](#usage)\n- [Configuration](#configuration)\n- [Tools](#tools)\n- [Docker Quick Start](#docker-quick-start)\n- [MCP Client Mode](#mcp-client-mode)\n- [Extras](#extras)\n- [MCP Server Mode](#mcp-server-mode)\n- [Start Contributing](#start-contributing)\n- [Learning Resources](#learning-resources)\n\n## Quick Start\n\nFirst, ensure that kubectl is installed and configured.\n\n### Installation\n\n#### Quick Install (Linux & MacOS only)\n\n```shell\ncurl -sSL https:\u002F\u002Fraw.githubusercontent.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fmain\u002Finstall.sh | bash\n```\n\n\u003Cdetails>\n\u003Csummary>Other Installation Methods\u003C\u002Fsummary>\n\n#### Manual Installation (Linux, MacOS and Windows)\n\n1. Download the latest release from the [releases page](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Freleases\u002Flatest) for your target machine.\n\n2. Untar the release, make the binary executable and move it to a directory in your $PATH (as shown below).\n\n```shell\ntar -zxvf kubectl-ai_Darwin_arm64.tar.gz\nchmod a+x kubectl-ai\nsudo mv kubectl-ai \u002Fusr\u002Flocal\u002Fbin\u002F\n```\n\n#### Install with Krew (Linux\u002FmacOS\u002FWindows)\n\nFirst of all, you need to have krew installed, refer to [krew document](https:\u002F\u002Fkrew.sigs.k8s.io\u002Fdocs\u002Fuser-guide\u002Fsetup\u002Finstall\u002F) for more details\nThen you can install with krew\n\n```shell\nkubectl krew install ai\n```\n\nNow you can invoke `kubectl-ai` as a kubectl plugin like this: `kubectl ai`.\n\n#### Install on NixOS\n\nThere are multiple ways to install `kubectl-ai` on NixOS. For a permanent installation add the following to your NixOS-Configuration:\n\n```nix\n  environment.systemPackages = with pkgs; [\n    kubectl-ai\n  ];\n```\n\nFor a temporary installation, you can use the following command:\n\n```shell\nnix-shell -p kubectl-ai\n```\n\n\u003C\u002Fdetails>\n\n### Usage\n\n`kubectl-ai` supports AI models from `gemini`, `vertexai`, `azopenai`, `openai`, `grok`, `bedrock` and local LLM providers such as `ollama` and `llama.cpp`.\n\n#### Using Gemini (Default)\n\nSet your Gemini API key as an environment variable. If you don't have a key, get one from [Google AI Studio](https:\u002F\u002Faistudio.google.com).\n\n```bash\nexport GEMINI_API_KEY=your_api_key_here\nkubectl-ai\n\n# Use different gemini model\nkubectl-ai --model gemini-2.5-pro-exp-03-25\n\n# Use 2.5 flash (faster) model\nkubectl-ai --quiet --model gemini-2.5-flash-preview-04-17 \"check logs for nginx app in hello namespace\"\n```\n\n\u003Cdetails>\n\u003Csummary>Use other AI models\u003C\u002Fsummary>\n\n#### Using AI models running locally (ollama or llama.cpp)\n\nYou can use `kubectl-ai` with AI models running locally. `kubectl-ai` supports [ollama](https:\u002F\u002Follama.com\u002F) and [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp) to use the AI models running locally.\n\nAdditionally, the [`modelserving`](modelserving) directory provides tools and instructions for deploying your own `llama.cpp`-based LLM serving endpoints locally or on a Kubernetes cluster. This allows you to host models like Gemma directly in your environment.\n\nAn example of using Google's `gemma3` model with `ollama`:\n\n```shell\n# assuming ollama is already running and you have pulled one of the gemma models\n# ollama pull gemma3:12b-it-qat\n\n# if your ollama server is at remote, use OLLAMA_HOST variable to specify the host\n# export OLLAMA_HOST=http:\u002F\u002F192.168.1.3:11434\u002F\n\n# enable-tool-use-shim because models require special prompting to enable tool calling\nkubectl-ai --llm-provider ollama --model gemma3:12b-it-qat --enable-tool-use-shim\n\n# you can use `models` command to discover the locally available models\n>> models\n```\n\n#### Using Grok\n\nYou can use X.AI's Grok model by setting your X.AI API key:\n\n```bash\nexport GROK_API_KEY=your_xai_api_key_here\nkubectl-ai --llm-provider=grok --model=grok-3-beta\n```\n\n#### Using AWS Bedrock\n\nYou can use AWS Bedrock Claude models with your AWS credentials:\n\n```bash\n# Configure AWS credentials using AWS SSO\naws sso login --profile your-profile-name\n# Or use other AWS credential methods (IAM roles, environment variables, etc.)\n\n# Use Claude 4 Sonnet (default)\nkubectl-ai --llm-provider=bedrock --model=us.anthropic.claude-sonnet-4-20250514-v1:0\n\n# Use Claude 3.7 Sonnet\nkubectl-ai --llm-provider=bedrock --model=us.anthropic.claude-3-7-sonnet-20250219-v1:0\n\n# Override model via environment variable\nexport BEDROCK_MODEL=us.anthropic.claude-sonnet-4-20250514-v1:0\nkubectl-ai --llm-provider=bedrock\n```\n\nAWS Bedrock uses the standard AWS SDK credential chain, supporting:\n\n- AWS SSO profiles\n- IAM roles (for EC2\u002FECS\u002FLambda)\n- Environment variables (AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY)\n- AWS CLI configuration files\n\n#### Using Azure OpenAI\n\nYou can also use Azure OpenAI deployment by setting your OpenAI API key and specifying the provider:\n\n```bash\nexport AZURE_OPENAI_API_KEY=your_azure_openai_api_key_here\nexport AZURE_OPENAI_ENDPOINT=https:\u002F\u002Fyour_azure_openai_endpoint_here\nkubectl-ai --llm-provider=azopenai --model=your_azure_openai_deployment_name_here\n# or\naz login\nkubectl-ai --llm-provider=openai:\u002F\u002Fyour_azure_openai_endpoint_here --model=your_azure_openai_deployment_name_here\n```\n\n#### Using OpenAI\n\nYou can also use OpenAI models by setting your OpenAI API key and specifying the provider:\n\n```bash\nexport OPENAI_API_KEY=your_openai_api_key_here\nkubectl-ai --llm-provider=openai --model=gpt-4.1\n```\n\n#### Using OpenAI Compatible API\n\nFor example, you can use aliyun qwen-xxx models as follows.\n\n```bash\nexport OPENAI_API_KEY=your_openai_api_key_here\nexport OPENAI_ENDPOINT=https:\u002F\u002Fdashscope.aliyuncs.com\u002Fcompatible-mode\u002Fv1\nkubectl-ai --llm-provider=openai --model=qwen-plus\n```\n\n\u003C\u002Fdetails>\n\nRun interactively:\n\n```shell\nkubectl-ai\n```\n\nThe interactive mode allows you to have a chat with `kubectl-ai`, asking multiple questions in sequence while maintaining context from previous interactions. Simply type your queries and press Enter to receive responses. To exit the interactive shell, type `exit` or press Ctrl+C.\n\nOr, run with a task as input:\n\n```shell\nkubectl-ai --quiet \"fetch logs for nginx app in hello namespace\"\n```\n\nCombine it with other unix commands:\n\n```shell\nkubectl-ai \u003C query.txt\n# OR\necho \"list pods in the default namespace\" | kubectl-ai\n```\n\nYou can even combine a positional argument with stdin input. The positional argument will be used as a prefix to the stdin content:\n\n```shell\ncat error.log | kubectl-ai \"explain the error\"\n```\n\nWe also support persistence between runs with an opt-in. This lets you save a session to the local filesystem, and resume it to maintain previous context. It even works between different interfaces!\n\n```shell\nkubectl-ai --new-session # start a new session\nkubectl-ai --list-sessions # list all saved sessions\nkubectl-ai --resume-session 20250807-510872 # resume session 20250807-510872\nkubectl-ai --delete-session 20250807-510872 # delete session 20250807-510872\n```\n\n## Configuration\n\nYou can also configure `kubectl-ai` using a YAML configuration file at `~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml`:\n\n```shell\nmkdir -p ~\u002F.config\u002Fkubectl-ai\u002F\ncat \u003C\u003CEOF > ~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml\nmodel: gemini-2.5-flash-preview-04-17\nllmProvider: gemini\ntoolConfigPaths: ~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml\nEOF\n```\n\nVerify your configuration:\n\n```shell\nkubectl-ai --quiet model\n```\n\n\u003Cdetails>\n\u003Csummary>More configuration Options\u003C\u002Fsummary>\n\nHere's a complete configuration file with all available options and their default values:\n\n```yaml\n# LLM provider configuration\nllmProvider: \"gemini\"               # Default LLM provider\nmodel: \"gemini-2.5-pro-preview-06-05\" # Default model\nskipVerifySSL: false              # Skip SSL verification for LLM API calls\n\n# Tool and permission settings\ntoolConfigPaths: [\"~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml\"]  # Custom tools configuration paths\nskipPermissions: false             # Skip confirmation for resource-modifying commands\nenableToolUseShim: false        # Enable tool use shim for certain models\n\n# MCP configuration\nmcpServer: false                  # Run in MCP server mode\nmcpClient: false                  # Enable MCP client mode\nexternalTools: false             # Discover external MCP tools (requires mcp-server)\n\n# Runtime settings\nmaxIterations: 20                 # Maximum iterations for the agent\nquiet: false                       # Run in non-interactive mode\nremoveWorkdir: false             # Remove temporary working directory after execution\n\n# Kubernetes configuration\nkubeconfig: \"~\u002F.kube\u002Fconfig\"      # Path to kubeconfig file\n\n# UI configuration\nuiType: \"terminal\"                # UI mode: \"terminal\" or \"web\"\nuiListenAddress: \"localhost:8888\" # Address for HTML UI server\n\n# Prompt configuration\npromptTemplateFilePath: \"\"      # Custom prompt template file\nextraPromptPaths: []            # Additional prompt template paths\n\n# Debug and trace settings\ntracePath: \"\u002Ftmp\u002Fkubectl-ai-trace.txt\" # Path to trace file\n```\n\n\u003C\u002Fdetails>\n\nAll these settings can be configured through either:\n\n1. Command line flags (e.g., `--model=gemini-2.5-pro`)\n2. Configuration file (`~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml`)\n3. Environment variables (e.g., `GEMINI_API_KEY`)\n\nCommand line flags take precedence over configuration file settings.\n\n## Tools\n\n`kubectl-ai` leverages LLMs to suggest and execute Kubernetes operations using a set of powerful tools. It comes with built-in tools like `kubectl` and `bash`.\n\nYou can also extend its capabilities by defining your own custom tools. By default, `kubectl-ai` looks for your tool configurations in `~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml`.\n\nTo specify tools configuration files or directories containing tools configuration files, use:\n\n```sh\n.\u002Fkubectl-ai --custom-tools-config=\u003Cpath-to-tools-directory> \"your prompt here\"\n```\n\nFor further details on how to configure your own tools, [go here](docs\u002Ftools.md).\n\n## Docker Quick Start\n\nThis project provides a Docker image that gives you a standalone environment for running kubectl-ai, including against a GKE cluster.\n\n### Running the container against GKE\n\n#### Step 1: Build the Image\n\nClone the repository and build the image with the following command\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai.git\ncd kubectl-ai\ndocker build -t kubectl-ai:latest -f images\u002Fkubectl-ai\u002FDockerfile .\n```\n\n#### Step 2: Connect to Your GKE Cluster\n\nSet up application default credentials and connect to your GKE cluster.\n\n```bash\ngcloud auth application-default login # If in a gcloud shell this is not necessary\ngcloud container clusters get-credentials \u003Ccluster-name> --zone \u003Czone>\n```\n\n#### Step 3: Run the kubectl-ai container\n\nBelow is a sample command that can be used to launch the container with a locally hosted web-ui. Be sure to replace the placeholder values with your specific Google Cloud project ID and location. Note you do not need to mount the gcloud config directory if you're on a cloudshell machine.\n\n```bash\ndocker run --rm -it -p 8080:8080 -v ~\u002F.kube:\u002Froot\u002F.kube -v ~\u002F.config\u002Fgcloud:\u002Froot\u002F.config\u002Fgcloud -e GOOGLE_CLOUD_LOCATION=us-central1 -e GOOGLE_CLOUD_PROJECT=my-gcp-project kubectl-ai:latest --llm-provider vertexai --ui-listen-address 0.0.0.0:8080 --ui-type web\n```\n\nFor more info about running from the container image see [CONTAINER.md](CONTAINER.md)\n\n## MCP Client Mode\n\n> **Note:** MCP Client Mode is available in `kubectl-ai` version v0.0.12 and onwards.\n\n`kubectl-ai` can connect to external [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002Fexamples) Servers to access additional tools in addition to built-in tools.\n\n### Quick Start with MCP Client\n\nEnable MCP client mode:\n\n```bash\nkubectl-ai --mcp-client\n```\n\n### MCP Client Configuration\n\nCreate or edit `~\u002F.config\u002Fkubectl-ai\u002Fmcp.yaml` to customize MCP servers:\n\n```yaml\nservers:\n  # Local MCP server (stdio-based)\n  # sequential-thinking: Advanced reasoning and step-by-step analysis\n  - name: sequential-thinking\n    command: npx\n    args:\n      - -y\n      - \"@modelcontextprotocol\u002Fserver-sequential-thinking\"\n  \n  # Remote MCP server (HTTP-based)\n  - name: cloudflare-documentation\n    url: https:\u002F\u002Fdocs.mcp.cloudflare.com\u002Fmcp\n    \n  # Optional: Remote MCP server with authentication\n  - name: custom-api\n    url: https:\u002F\u002Fapi.example.com\u002Fmcp\n    auth:\n      type: \"bearer\"\n      token: \"${MCP_TOKEN}\"\n```\n\nThe system automatically:\n\n- Converts parameter names (snake_case → camelCase)\n- Handles type conversion (strings → numbers\u002Fbooleans when appropriate)\n- Provides fallback behavior for unknown servers\n\nNo additional setup required - just use the `--mcp-client` flag and the AI will have access to all configured MCP tools.\n\n📖 **For detailed configuration options, troubleshooting, and advanced features for MCP Client mode, see the [MCP Client Documentation](docs\u002Fmcp-client.md).**\n\n📖 **For multi-server orchestration and security automation examples, see the [MCP Client Integration Guide](docs\u002Fmcp-client.md).**\n\n## Extras\n\nYou can use the following special keywords for specific actions:\n\n- `model`: Display the currently selected model.\n- `models`: List all available models.\n- `tools`: List all available tools.\n- `version`: Display the `kubectl-ai` version.\n- `reset`: Clear the conversational context.\n- `clear`: Clear the terminal screen.\n- `exit` or `quit`: Terminate the interactive shell (Ctrl+C also works).\n\n### Invoking as kubectl plugin\n\nYou can also run `kubectl ai`. `kubectl` finds any executable file in your `PATH` whose name begins with `kubectl-` as a [plugin](https:\u002F\u002Fkubernetes.io\u002Fdocs\u002Ftasks\u002Fextend-kubectl\u002Fkubectl-plugins\u002F).\n\n## MCP Server Mode\n\n`kubectl-ai` can act as an MCP server that exposes kubectl tools to other MCP clients (like Claude, Cursor, or VS Code). The server can run in two modes:\n\n### Basic MCP Server (Built-in tools only)\n\nExpose only kubectl-ai's native Kubernetes tools:\n\n```bash\nkubectl-ai --mcp-server\n```\n\n### Enhanced MCP Server (With external tool discovery)\n\nAdditionally discover and expose tools from other MCP servers as a unified interface:\n\n```bash\nkubectl-ai --mcp-server --external-tools\n```\n\nThis creates a powerful **tool aggregation hub** where kubectl-ai acts as both:\n\n- **MCP Server**: Exposing kubectl tools to clients\n- **MCP Client**: Consuming tools from other MCP servers\n\nTo serve clients over HTTP using the streamable transport, run:\n\n```bash\nkubectl-ai --mcp-server --mcp-server-mode streamable-http --http-port 9080\n```\n\nThis starts an MCP endpoint at `http:\u002F\u002Flocalhost:9080\u002Fmcp`.\n\nThe enhanced mode provides AI clients with access to both Kubernetes operations and general-purpose tools (filesystem, web search, databases, etc.) through a single MCP endpoint.\n\n📖 **For detailed configuration, examples, and troubleshooting, see the [MCP Server Documentation](docs\u002Fmcp-server.md).**\n\n## Start Contributing\n\nWe welcome contributions to `kubectl-ai` from the community. Take a look at our\n[contribution guide](contributing.md) to get started.\n\n## Learning Resources\n\n### Talks and Presentations\n\n- [From Natural Language to K8s Operations: The MCP Architecture and Practice of kubectl-ai](https:\u002F\u002Fblog.wu-boy.com\u002F2025\u002F10\u002Ffrom-natural-language-to-k8s-operations-the-mcp-architecture-and-practice-of-kubectl-ai-en) - A comprehensive presentation covering the architecture and practical usage of kubectl-ai with MCP (Model Context Protocol).\n\n---\n\n*Note: This is not an officially supported Google product. This project is not\neligible for the [Google Open Source Software Vulnerability Rewards\nProgram](https:\u002F\u002Fbughunters.google.com\u002Fopen-source-security).*\n","# kubectl-ai\n\n[![Go Report Card](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_kubectl-ai_readme_2b4a70945b89.png)](https:\u002F\u002Fgoreportcard.com\u002Freport\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n![GitHub License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n[![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002FGoogleCloudPlatform\u002Fkubectl-ai)\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FGoogleCloudPlatform\u002Fkubectl-ai.svg)](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fstargazers)\n\n`kubectl-ai` 作为一个智能接口，能够将用户的意图转化为精确的 Kubernetes 操作，从而让 Kubernetes 的管理更加便捷高效。\n\n![使用 `kubectl-ai \"我的集群中 nginx 应用运行情况如何？\"` 的演示 GIF](.\u002F.github\u002Fkubectl-ai.gif)\n\n## 目录\n\n- [快速入门](#quick-start)\n  - [安装](#installation)\n  - [使用](#usage)\n- [配置](#configuration)\n- [工具](#tools)\n- [Docker 快速入门](#docker-quick-start)\n- [MCP 客户端模式](#mcp-client-mode)\n- [其他](#extras)\n- [MCP 服务器模式](#mcp-server-mode)\n- [开始贡献](#start-contributing)\n- [学习资源](#learning-resources)\n\n## 快速入门\n\n首先，请确保已安装并正确配置了 `kubectl`。\n\n### 安装\n\n#### 快速安装（仅限 Linux 和 macOS）\n\n```shell\ncurl -sSL https:\u002F\u002Fraw.githubusercontent.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fmain\u002Finstall.sh | bash\n```\n\n\u003Cdetails>\n\u003Csummary>其他安装方法\u003C\u002Fsummary>\n\n#### 手动安装（适用于 Linux、macOS 和 Windows）\n\n1. 从 [发布页面](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Freleases\u002Flatest) 下载适用于您目标机器的最新版本。\n\n2. 解压下载的文件，赋予可执行权限，并将其移动到 `$PATH` 中的某个目录下（如下所示）。\n\n```shell\ntar -zxvf kubectl-ai_Darwin_arm64.tar.gz\nchmod a+x kubectl-ai\nsudo mv kubectl-ai \u002Fusr\u002Flocal\u002Fbin\u002F\n```\n\n#### 使用 Krew 安装（适用于 Linux\u002FmacOS\u002FWindows）\n\n首先，您需要安装 Krew。有关详细信息，请参阅 [Krew 文档](https:\u002F\u002Fkrew.sigs.k8s.io\u002Fdocs\u002Fuser-guide\u002Fsetup\u002Finstall\u002F)。然后您可以使用 Krew 进行安装：\n\n```shell\nkubectl krew install ai\n```\n\n现在您可以像调用 `kubectl` 插件一样调用 `kubectl-ai`：`kubectl ai`。\n\n#### 在 NixOS 上安装\n\n在 NixOS 上有多种方式可以安装 `kubectl-ai`。要进行永久性安装，请将以下内容添加到您的 NixOS 配置中：\n\n```nix\n  environment.systemPackages = with pkgs; [\n    kubectl-ai\n  ];\n```\n\n如果只是临时使用，可以运行以下命令：\n\n```shell\nnix-shell -p kubectl-ai\n```\n\n\u003C\u002Fdetails>\n\n### 使用\n\n`kubectl-ai` 支持来自 `gemini`、`vertexai`、`azopenai`、`openai`、`grok`、`bedrock` 的 AI 模型，以及本地 LLM 提供商如 `ollama` 和 `llama.cpp`。\n\n#### 使用 Gemini（默认）\n\n将您的 Gemini API 密钥设置为环境变量。如果您还没有密钥，请从 [Google AI Studio](https:\u002F\u002Faistudio.google.com) 获取。\n\n```bash\nexport GEMINI_API_KEY=your_api_key_here\nkubectl-ai\n\n# 使用不同的 Gemini 模型\nkubectl-ai --model gemini-2.5-pro-exp-03-25\n\n# 使用 2.5 flash（更快）模型\nkubectl-ai --quiet --model gemini-2.5-flash-preview-04-17 \"查看 hello 命名空间中 nginx 应用的日志\"\n```\n\n\u003Cdetails>\n\u003Csummary>使用其他 AI 模型\u003C\u002Fsummary>\n\n#### 使用本地运行的 AI 模型（ollama 或 llama.cpp）\n\n您可以将 `kubectl-ai` 与本地运行的 AI 模型一起使用。`kubectl-ai` 支持 [ollama](https:\u002F\u002Follama.com\u002F) 和 [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp)，以便在本地使用这些 AI 模型。\n\n此外，[`modelserving`](modelserving) 目录提供了工具和说明，用于在本地或 Kubernetes 集群上部署您自己的基于 `llama.cpp` 的 LLM 服务端点。这使您能够在本地环境中直接托管诸如 Gemma 之类的模型。\n\n以下是一个使用 Google 的 `gemma3` 模型与 `ollama` 结合的例子：\n\n```shell\n# 假设 ollama 已经运行，并且您已经拉取了其中一个 gemma 模型\n# ollama pull gemma3:12b-it-qat\n\n# 如果您的 ollama 服务器位于远程主机上，请使用 OLLAMA_HOST 变量指定主机地址\n# export OLLAMA_HOST=http:\u002F\u002F192.168.1.3:11434\u002F\n\n# 启用 tool-use-shim，因为这些模型需要特殊的提示才能启用工具调用\nkubectl-ai --llm-provider ollama --model gemma3:12b-it-qat --enable-tool-use-shim\n\n# 您可以使用 `models` 命令来发现本地可用的模型\n>> models\n```\n\n#### 使用 Grok\n\n您可以通过设置 X.AI 的 API 密钥来使用 X.AI 的 Grok 模型：\n\n```bash\nexport GROK_API_KEY=your_xai_api_key_here\nkubectl-ai --llm-provider=grok --model=grok-3-beta\n```\n\n#### 使用 AWS Bedrock\n\n您可以通过 AWS 凭证使用 AWS Bedrock Claude 模型：\n\n```bash\n# 使用 AWS SSO 配置 AWS 凭证\naws sso login --profile your-profile-name\n# 或者使用其他 AWS 凭证方法（IAM 角色、环境变量等）\n\n# 使用 Claude 4 Sonnet（默认）\nkubectl-ai --llm-provider=bedrock --model=us.anthropic.claude-sonnet-4-20250514-v1:0\n\n# 使用 Claude 3.7 Sonnet\nkubectl-ai --llm-provider=bedrock --model=us.anthropic.claude-3-7-sonnet-20250219-v1:0\n\n# 通过环境变量覆盖模型\nexport BEDROCK_MODEL=us.anthropic.claude-sonnet-4-20250514-v1:0\nkubectl-ai --llm-provider=bedrock\n```\n\nAWS Bedrock 使用标准的 AWS SDK 凭证链，支持以下方式：\n\n- AWS SSO 配置文件\n- IAM 角色（适用于 EC2\u002FECS\u002FLambda）\n- 环境变量（AWS_ACCESS_KEY_ID、AWS_SECRET_ACCESS_KEY）\n- AWS CLI 配置文件\n\n#### 使用 Azure OpenAI\n\n您也可以通过设置 OpenAI API 密钥并指定提供商来使用 Azure OpenAI 部署：\n\n```bash\nexport AZURE_OPENAI_API_KEY=your_azure_openai_api_key_here\nexport AZURE_OPENAI_ENDPOINT=https:\u002F\u002Fyour_azure_openai_endpoint_here\nkubectl-ai --llm-provider=azopenai --model=your_azure_openai_deployment_name_here\n# 或\naz login\nkubectl-ai --llm-provider=openai:\u002F\u002Fyour_azure_openai_endpoint_here --model=your_azure_openai_deployment_name_here\n```\n\n#### 使用 OpenAI\n\n您还可以通过设置 OpenAI API 密钥并指定提供商来使用 OpenAI 模型：\n\n```bash\nexport OPENAI_API_KEY=your_openai_api_key_here\nkubectl-ai --llm-provider=openai --model=gpt-4.1\n```\n\n#### 使用兼容 OpenAI 的 API\n\n例如，您可以按照如下方式使用阿里云通义千问系列模型：\n\n```bash\nexport OPENAI_API_KEY=your_openai_api_key_here\nexport OPENAI_ENDPOINT=https:\u002F\u002Fdashscope.aliyuncs.com\u002Fcompatible-mode\u002Fv1\nkubectl-ai --llm-provider=openai --model=qwen-plus\n```\n\n\u003C\u002Fdetails>\n\n以交互模式运行：\n\n```bash\nkubectl-ai\n```\n\n交互模式允许您与 `kubectl-ai` 进行对话，依次提出多个问题，同时保持上下文连贯。只需输入您的问题并按 Enter 键即可获得回复。要退出交互式 Shell，输入 `exit` 或按 Ctrl+C。\n\n或者，直接输入任务来运行：\n\n```bash\nkubectl-ai --quiet \"获取 hello 命名空间中 nginx 应用的日志\"\n```\n\n还可以与其他 Unix 命令结合使用：\n\n```bash\nkubectl-ai \u003C query.txt\n\n# 或者\necho \"列出默认命名空间中的 Pod\" | kubectl-ai\n```\n\n你甚至可以将位置参数与标准输入结合使用。位置参数会作为标准输入内容的前缀：\n\n```shell\ncat error.log | kubectl-ai \"解释这个错误\"\n```\n\n我们还支持通过选择加入的方式实现跨运行的持久化。这允许你将会话保存到本地文件系统，并在之后恢复以保持之前的上下文。它甚至可以在不同的界面之间正常工作！\n\n```shell\nkubectl-ai --new-session # 开始一个新的会话\nkubectl-ai --list-sessions # 列出所有已保存的会话\nkubectl-ai --resume-session 20250807-510872 # 恢复会话 20250807-510872\nkubectl-ai --delete-session 20250807-510872 # 删除会话 20250807-510872\n```\n\n## 配置\n\n你还可以使用位于 `~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml` 的 YAML 配置文件来配置 `kubectl-ai`：\n\n```shell\nmkdir -p ~\u002F.config\u002Fkubectl-ai\u002F\ncat \u003C\u003CEOF > ~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml\nmodel: gemini-2.5-flash-preview-04-17\nllmProvider: gemini\ntoolConfigPaths: ~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml\nEOF\n```\n\n验证你的配置：\n\n```shell\nkubectl-ai --quiet model\n```\n\n\u003Cdetails>\n\u003Csummary>更多配置选项\u003C\u002Fsummary>\n\n以下是一个包含所有可用选项及其默认值的完整配置文件：\n\n```yaml\n# LLM 提供商配置\nllmProvider: \"gemini\"               # 默认 LLM 提供商\nmodel: \"gemini-2.5-pro-preview-06-05\" # 默认模型\nskipVerifySSL: false              # 跳过 LLM API 调用的 SSL 验证\n\n# 工具和权限设置\ntoolConfigPaths: [\"~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml\"]  # 自定义工具配置路径\nskipPermissions: false             # 跳过对修改资源命令的确认\nenableToolUseShim: false        # 为某些模型启用工具使用适配层\n\n# MCP 配置\nmcpServer: false                  # 以 MCP 服务器模式运行\nmcpClient: false                  # 启用 MCP 客户端模式\nexternalTools: false             # 发现外部 MCP 工具（需要 mcp-server）\n\n# 运行时设置\nmaxIterations: 20                 # 代理的最大迭代次数\nquiet: false                       # 以非交互模式运行\nremoveWorkdir: false             # 执行后删除临时工作目录\n\n# Kubernetes 配置\nkubeconfig: \"~\u002F.kube\u002Fconfig\"      # kubeconfig 文件路径\n\n# UI 配置\nuiType: \"terminal\"                # UI 模式：\"terminal\" 或 \"web\"\nuiListenAddress: \"localhost:8888\" # HTML UI 服务器地址\n\n# 提示词配置\npromptTemplateFilePath: \"\"      # 自定义提示词模板文件\nextraPromptPaths: []            # 其他提示词模板路径\n\n# 调试和追踪设置\ntracePath: \"\u002Ftmp\u002Fkubectl-ai-trace.txt\" # 追踪文件路径\n```\n\n\u003C\u002Fdetails>\n\n所有这些设置都可以通过以下方式配置：\n\n1. 命令行标志（例如 `--model=gemini-2.5-pro`）\n2. 配置文件（`~\u002F.config\u002Fkubectl-ai\u002Fconfig.yaml`）\n3. 环境变量（例如 `GEMINI_API_KEY`）\n\n命令行标志的优先级高于配置文件设置。\n\n## 工具\n\n`kubectl-ai` 利用大语言模型，借助一组强大的工具来建议并执行 Kubernetes 操作。它自带 `kubectl` 和 `bash` 等内置工具。\n\n你也可以通过定义自己的自定义工具来扩展其功能。默认情况下，`kubectl-ai` 会在 `~\u002F.config\u002Fkubectl-ai\u002Ftools.yaml` 中查找你的工具配置。\n\n要指定工具配置文件或包含工具配置文件的目录，请使用：\n\n```sh\n.\u002Fkubectl-ai --custom-tools-config=\u003C工具目录路径> \"你的提示语在这里\"\n```\n\n有关如何配置自定义工具的更多信息，请参阅 [tools.md](docs\u002Ftools.md)。\n\n## Docker 快速入门\n\n该项目提供了一个 Docker 镜像，为你提供一个独立的环境来运行 kubectl-ai，包括针对 GKE 集群的使用。\n\n### 在 GKE 上运行容器\n\n#### 第一步：构建镜像\n\n克隆仓库并使用以下命令构建镜像：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai.git\ncd kubectl-ai\ndocker build -t kubectl-ai:latest -f images\u002Fkubectl-ai\u002FDockerfile .\n```\n\n#### 第二步：连接到你的 GKE 集群\n\n设置应用默认凭据并连接到你的 GKE 集群。\n\n```bash\ngcloud auth application-default login # 如果在 gcloud shell 中，则无需此步骤\ngcloud container clusters get-credentials \u003C集群名称> --zone \u003C区域>\n```\n\n#### 第三步：运行 kubectl-ai 容器\n\n以下是一个可用于启动带有本地托管 Web UI 的容器的示例命令。请务必将占位符值替换为你具体的 Google Cloud 项目 ID 和位置。请注意，如果你使用的是 cloudshell 机器，则无需挂载 gcloud 配置目录。\n\n```bash\ndocker run --rm -it -p 8080:8080 -v ~\u002F.kube:\u002Froot\u002F.kube -v ~\u002F.config\u002Fgcloud:\u002Froot\u002F.config\u002Fgcloud -e GOOGLE_CLOUD_LOCATION=us-central1 -e GOOGLE_CLOUD_PROJECT=my-gcp-project kubectl-ai:latest --llm-provider vertexai --ui-listen-address 0.0.0.0:8080 --ui-type web\n```\n\n有关从容器镜像运行的更多信息，请参阅 [CONTAINER.md](CONTAINER.md)。\n\n## MCP 客户端模式\n\n> **注意：** MCP 客户端模式在 `kubectl-ai` 版本 v0.0.12 及以上版本中可用。\n\n`kubectl-ai` 可以连接到外部 [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002Fexamples) 服务器，以访问除内置工具之外的其他工具。\n\n### 使用 MCP 客户端的快速入门\n\n启用 MCP 客户端模式：\n\n```bash\nkubectl-ai --mcp-client\n```\n\n### MCP 客户端配置\n\n创建或编辑 `~\u002F.config\u002Fkubectl-ai\u002Fmcp.yaml` 来自定义 MCP 服务器：\n\n```yaml\nservers:\n  # 本地 MCP 服务器（基于标准输入输出）\n  # sequential-thinking：高级推理和逐步分析\n  - name: sequential-thinking\n    command: npx\n    args:\n      - -y\n      - \"@modelcontextprotocol\u002Fserver-sequential-thinking\"\n  \n  # 远程 MCP 服务器（基于 HTTP）\n  - name: cloudflare-documentation\n    url: https:\u002F\u002Fdocs.mcp.cloudflare.com\u002Fmcp\n    \n  # 可选：带身份验证的远程 MCP 服务器\n  - name: custom-api\n    url: https:\u002F\u002Fapi.example.com\u002Fmcp\n    auth:\n      type: \"bearer\"\n      token: \"${MCP_TOKEN}\"\n```\n\n系统会自动：\n\n- 将参数名称转换为驼峰命名法（snake_case → camelCase）\n- 处理类型转换（在适当的情况下将字符串转换为数字或布尔值）\n- 对未知服务器提供回退行为\n\n无需额外设置——只需使用 `--mcp-client` 标志，AI 就可以访问所有已配置的 MCP 工具。\n\n📖 **有关 MCP 客户端模式的详细配置选项、故障排除及高级功能，请参阅 [MCP 客户端文档](docs\u002Fmcp-client.md)。**\n\n📖 **有关多服务器编排和安全自动化示例，请参阅 [MCP 客户端集成指南](docs\u002Fmcp-client.md)。**\n\n## 附加功能\n\n您可以使用以下特殊关键字来执行特定操作：\n\n- `model`：显示当前选定的模型。\n- `models`：列出所有可用模型。\n- `tools`：列出所有可用工具。\n- `version`：显示 `kubectl-ai` 的版本。\n- `reset`：清除对话上下文。\n- `clear`：清空终端屏幕。\n- `exit` 或 `quit`：退出交互式 Shell（也可使用 Ctrl+C）。\n\n### 作为 kubectl 插件调用\n\n您也可以直接运行 `kubectl ai`。`kubectl` 会将 `PATH` 环境变量中以 `kubectl-` 开头的任何可执行文件识别为插件，具体请参阅 [kubectl 插件文档](https:\u002F\u002Fkubernetes.io\u002Fdocs\u002Ftasks\u002Fextend-kubectl\u002Fkubectl-plugins\u002F)。\n\n## MCP 服务器模式\n\n`kubectl-ai` 可以作为 MCP 服务器，向其他 MCP 客户端（如 Claude、Cursor 或 VS Code）暴露 kubectl 工具。该服务器支持两种运行模式：\n\n### 基础 MCP 服务器（仅内置工具）\n\n仅暴露 kubectl-ai 自带的 Kubernetes 工具：\n\n```bash\nkubectl-ai --mcp-server\n```\n\n### 增强型 MCP 服务器（包含外部工具发现）\n\n除了内置工具外，还会发现并暴露来自其他 MCP 服务器的工具，形成统一的接口：\n\n```bash\nkubectl-ai --mcp-server --external-tools\n```\n\n这种方式构建了一个强大的 **工具聚合中心**，其中 kubectl-ai 同时扮演以下角色：\n\n- **MCP 服务器**：向客户端暴露 kubectl 工具\n- **MCP 客户端**：从其他 MCP 服务器获取工具\n\n若需通过 HTTP 流式传输方式为客户端提供服务，可以运行以下命令：\n\n```bash\nkubectl-ai --mcp-server --mcp-server-mode streamable-http --http-port 9080\n```\n\n这将在 `http:\u002F\u002Flocalhost:9080\u002Fmcp` 启动一个 MCP 端点。\n\n增强模式使 AI 客户端能够通过单一 MCP 端点访问 Kubernetes 操作以及通用工具（文件系统、网络搜索、数据库等）。\n\n📖 **有关详细配置、示例和故障排除，请参阅 [MCP 服务器文档](docs\u002Fmcp-server.md)。**\n\n## 开始贡献\n\n我们欢迎社区对 `kubectl-ai` 的贡献。请查看我们的 [贡献指南](contributing.md)，开始参与吧。\n\n## 学习资源\n\n### 技术演讲与演示\n\n- [从自然语言到 K8s 操作：kubectl-ai 的 MCP 架构与实践](https:\u002F\u002Fblog.wu-boy.com\u002F2025\u002F10\u002Ffrom-natural-language-to-k8s-operations-the-mcp-architecture-and-practice-of-kubectl-ai-en) - 一场全面的演示，深入探讨了 kubectl-ai 结合 MCP（Model Context Protocol）的架构设计与实际应用。\n\n---\n\n*注：本项目并非 Google 官方支持的产品。该项目不符合 [Google 开源软件漏洞奖励计划](https:\u002F\u002Fbughunters.google.com\u002Fopen-source-security) 的资格。*","# kubectl-ai 快速上手指南\n\n`kubectl-ai` 是一个智能 Kubernetes 管理工具，能将自然语言指令转化为精确的 `kubectl` 操作，支持 Gemini、OpenAI、Ollama 等多种大模型。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS, Windows\n*   **前置依赖**：\n    *   已安装并配置好 `kubectl` (确保能正常访问集群)。\n    *   (可选) 拥有一个大模型 API Key (如 Google Gemini, OpenAI, Azure OpenAI 等) 或本地运行的大模型服务 (如 Ollama)。\n\n## 安装步骤\n\n### 方法一：一键安装脚本 (推荐 Linux & macOS)\n\n```shell\ncurl -sSL https:\u002F\u002Fraw.githubusercontent.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fmain\u002Finstall.sh | bash\n```\n\n### 方法二：通过 Krew 安装 (跨平台)\n\n如果你已安装 [krew](https:\u002F\u002Fkrew.sigs.k8s.io\u002Fdocs\u002Fuser-guide\u002Fsetup\u002Finstall\u002F)，可执行：\n\n```shell\nkubectl krew install ai\n```\n安装后通过 `kubectl ai` 命令调用。\n\n### 方法三：手动安装\n\n1.  从 [Releases 页面](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Freleases\u002Flatest) 下载对应系统的压缩包。\n2.  解压并赋予执行权限，移动到 `$PATH` 目录：\n\n```shell\ntar -zxvf kubectl-ai_\u003COS>_\u003CARCH>.tar.gz\nchmod a+x kubectl-ai\nsudo mv kubectl-ai \u002Fusr\u002Flocal\u002Fbin\u002F\n```\n\n## 基本使用\n\n### 1. 配置 API Key\n\n以默认的 **Google Gemini** 模型为例，设置环境变量：\n\n```bash\nexport GEMINI_API_KEY=your_api_key_here\n```\n\n> **提示**：若无 Key，可前往 [Google AI Studio](https:\u002F\u002Faistudio.google.com) 获取。若使用其他模型（如 OpenAI、Ollama），请参考下方“切换模型”部分设置对应变量。\n\n### 2. 交互式使用\n\n直接运行命令进入交互模式，可连续提问并保持上下文：\n\n```shell\nkubectl-ai\n```\n\n**示例对话：**\n```text\n>> list pods in the default namespace\n>> show me the logs for the nginx pod\n>> exit\n```\n\n### 3. 单次任务执行\n\n使用 `--quiet` 标志直接执行单个任务并输出结果：\n\n```shell\nkubectl-ai --quiet \"fetch logs for nginx app in hello namespace\"\n```\n\n结合管道使用：\n\n```shell\necho \"list pods in the default namespace\" | kubectl-ai\n# 或\ncat error.log | kubectl-ai \"explain the error\"\n```\n\n### 4. 切换 AI 模型\n\n`kubectl-ai` 支持多种模型提供商，通过 `--llm-provider` 和 `--model` 参数切换：\n\n*   **使用本地 Ollama 模型** (需先启动 ollama 并 pull 模型):\n    ```shell\n    kubectl-ai --llm-provider ollama --model gemma3:12b-it-qat --enable-tool-use-shim\n    ```\n\n*   **使用 OpenAI**:\n    ```bash\n    export OPENAI_API_KEY=your_openai_api_key_here\n    kubectl-ai --llm-provider=openai --model=gpt-4.1\n    ```\n\n*   **使用 AWS Bedrock**:\n    ```bash\n    # 确保 AWS 凭证已配置 (aws sso login 或环境变量)\n    kubectl-ai --llm-provider=bedrock --model=us.anthropic.claude-sonnet-4-20250514-v1:0\n    ```\n\n*   **使用 Azure OpenAI**:\n    ```bash\n    export AZURE_OPENAI_API_KEY=your_key\n    export AZURE_OPENAI_ENDPOINT=https:\u002F\u002Fyour-endpoint\n    kubectl-ai --llm-provider=azopenai --model=your-deployment-name\n    ```\n\n### 5. 会话管理 (持久化上下文)\n\n支持保存和恢复会话上下文，便于后续继续讨论：\n\n```shell\nkubectl-ai --new-session             # 开始新会话\nkubectl-ai --list-sessions           # 列出已保存的会话\nkubectl-ai --resume-session \u003CID>     # 恢复指定会话\n```","某电商平台的后端工程师在促销活动期间，急需排查生产环境中 Nginx 入口控制器突然出现的流量异常和延迟飙升问题。\n\n### 没有 kubectl-ai 时\n- **命令记忆负担重**：工程师必须准确回忆复杂的 `kubectl` 语法，如 `get pods -n \u003Cnamespace> -o wide` 或 `top nodes`，稍有拼写错误需重新输入，浪费宝贵时间。\n- **多步操作繁琐**：定位问题需要手动串联多个步骤：先查 Pod 状态，再描述具体资源获取事件，最后还要单独执行日志查看命令，上下文切换频繁。\n- **日志分析门槛高**：面对海量的 JSON 格式日志或晦涩的错误代码，新手往往不知道如何提取关键信息，只能盲目滚动屏幕或复制内容去搜索引擎查询。\n- **应急响应滞后**：在分秒必争的故障现场，查阅文档和构造正确命令的过程拉长了平均修复时间（MTTR），增加了业务损失风险。\n\n### 使用 kubectl-ai 后\n- **自然语言直达意图**：工程师直接输入 `kubectl-ai \"检查 hello 命名空间中 nginx 应用的延迟原因\"`，工具自动将其转化为精确的 Kubernetes 查询指令并执行。\n- **智能诊断一体化**：kubectl-ai 自动关联 Pod 状态、最近事件及相关日志，将分散的信息整合成一份连贯的诊断报告，无需人工拼凑线索。\n- **关键洞察自动提炼**：工具利用大模型能力直接从原始日志中总结出“后端服务连接超时”等核心结论，并给出可能的原因解释，降低分析难度。\n- **决策效率显著提升**：从发现问题到定位根因的时间从分钟级缩短至秒级，让团队能更快实施扩容或重启等修复措施，迅速恢复业务稳定。\n\nkubectl-ai 通过将自然语言转化为精准的集群操作，把复杂的 Kubernetes 排障过程变成了简单的对话交互，极大提升了运维效率与可访问性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_kubectl-ai_2e6c3110.png","GoogleCloudPlatform","Google Cloud Platform","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGoogleCloudPlatform_85ccccae.png","",null,"https:\u002F\u002Fcloud.google.com","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"Go","#00ADD8",86,{"name":87,"color":88,"percentage":89},"HTML","#e34c26",7.9,{"name":91,"color":92,"percentage":93},"Shell","#89e051",4.9,{"name":95,"color":96,"percentage":97},"Makefile","#427819",0.8,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",0.4,7414,692,"2026-04-17T08:49:28","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":109,"python":107,"dependencies":110},"该工具是基于 Go 语言编写的二进制文件，非 Python 项目，因此无 Python 版本及 GPU\u002F显存特定需求。运行前必须安装并配置好 kubectl。支持多种 LLM 提供商（如 Gemini, OpenAI, AWS Bedrock, Azure OpenAI, Ollama 等），需根据所选模型配置相应的 API Key 或本地服务环境。可通过 Docker 容器运行，或通过 Krew、NixOS 等方式安装。",[111,112],"kubectl","Go (用于编译)",[14,13,45,15],[115,116,117,118],"ai","assistant","cli","kubernetes","2026-03-27T02:49:30.150509","2026-04-18T02:20:33.773664",[],[123,128,133,138,143,148,153,158,163,168,173,178,183,188,193,198,203,208,213,218],{"id":124,"version":125,"summary_zh":126,"released_at":127},306630,"v0.0.31","## 更改日志\n* 08cf256aa2f5749958f76659134625fe70a19a15 修复：在 MCP 服务器模式下注册内置工具（bash、kubectl）(#643)\n\n\n---\n由 [GoReleaser](https:\u002F\u002Fgithub.com\u002Fgoreleaser\u002Fgoreleaser) 发布。\n","2026-03-27T05:22:23",{"id":129,"version":130,"summary_zh":131,"released_at":132},306631,"v0.0.30","## 更改日志\n* 3a326fc0b5c174296e99ab648ba07759e84cb1f0 功能\u002F更新珍珠奶茶 (#632)\n* e7ec59703ca74ede3f799712749ee330c915336a 功能：Anthropic 提供商 (#637)\n* 54037aecc0234e370ccaa4cab2852cf2f7242a29 功能：CI 重试逻辑 (#640)\n\n\n---\n由 [GoReleaser](https:\u002F\u002Fgithub.com\u002Fgoreleaser\u002Fgoreleaser) 发布。\n","2026-03-20T16:04:00",{"id":134,"version":135,"summary_zh":136,"released_at":137},306632,"v0.0.29","## 更改日志\n* 82fe87cf9dfe14a95c72ce52c7ee943123db78a2 添加站点生成器以展示基准测试结果 (#615)\n* d4435aba6851412a7122df5ff6065b00d65094fc 迁移：从 kubectl-ai 仓库中移除 k8s-ai-bench (#625)\n* 63937862ab249d6b4fe974e10e4bf723858a8f92 撤销“基于当前版本构建并运行 (#624)” (#626)\n* 002c25a85fa3f9825a24f03f4e05cda67cdabc11 统一会话后端  (#616)\n* f3eb44abe88dc909301aa2e1c2f8a28fb351f499 添加合理默认值并匹配先前行为 (#621)\n* 23faf4a62baf74a9a6679a5d547538683be563c8 基于当前版本构建并运行 (#624)\n* 50662f794da32e3df1ae6d8e1e99a12f16e56455 功能：执行器不使用上下文 (#622)\n* 1e7b9c14f0529e0a5890ecb435d87256e82d6e6c 功能：多会话用户界面 (#620)\n* 333a38b8a426f802794bd88141c0e75832cab12a 功能：use-sandbox 和 use-image 标志 (#613)\n* 38382d1add89a0c0825bed997d2257733c08b330 修复 gollm.NewClient() 中的死锁 (#634)\n\n\n---\n由 [GoReleaser](https:\u002F\u002Fgithub.com\u002Fgoreleaser\u002Fgoreleaser) 发布。\n","2026-01-21T16:56:50",{"id":139,"version":140,"summary_zh":141,"released_at":142},306633,"v0.0.28","## 变更内容\n* 由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F606 中更新 k8s-bench 的 README 和 run-eval-loop.sh 脚本\n* 由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F607 中添加运行本地模型的指南和脚本\n* 由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F608 中更新 k8s-bench 对 k8s-ai-bench 的引用，为新仓库做准备\n* （仓库拆分）由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F610 中更新 k8s-ai-bench 脚本，改为下载并安装 kubectl-ai，而非自行构建\n* gollm：在 Gemini 响应中容忍空的流式传输部分，由 @justinsb 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F611 中实现\n* 功能：添加对 JSONL 基准输出格式的支持，并简化输出路径，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F614 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.27...v0.0.28","2025-12-02T16:18:45",{"id":144,"version":145,"summary_zh":146,"released_at":147},306634,"v0.0.27","## 变更内容\n* 功能：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F556 中添加了原始 HTTP 跟踪功能\n* 功能：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F563 中添加了评估多轮运行的开发脚本\n* 明确设置默认传输层，以避免在启用日志记录时出现空传输层问题，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F565 中完成\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F566 中为 k8s-bench 添加了每项任务的超时设置\n* 功能：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F562 中实现了 OpenAI 响应 API\n* 增强：由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F570 中增加了金丝雀部署任务\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F571 中为 Kind 集群创建添加了重试机制\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F572 中普遍提高了验证\u002F设置脚本的超时时间\n* k8sbench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F575 中修复了 eval fix-pending-pod 问题\n* k8s-bench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F576 中修复了 eval fix-rbac-wrong-resource 问题\n* k8s-bench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F577 中使 list-images-for-pods 评估的提示更加具体\n* k8sbench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F574 中增加了对集群创建策略的支持\n* 评估：（修复）由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F579 中避免了 fix-image-pull 任务中的竞态条件\n* 评估：（修复）由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F578 中使 debug-app-logs 更加准确和一致\n* 评估：（修复）由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F581 中避免了滚动更新部署验证中的竞态条件\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F582 中将 create-network-policy 的验证方式改为基于规范，而非实际状态\n* 评估：（修复）由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F583 中使 horizontal-pod-autoscaler 检查 HPA 的规范，而非实际状态\n* k8s-bench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F584 中修复了 HPA 评估，使其支持 autoscaling\u002Fv2 API\n* k8s-bench：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F586 中优化了 statefulset-cycle 评估，使其资源消耗更低\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F585 中进行了一些小的修复\n* 评估：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F587 中提供了更贴近实际的开发集群提示，并更新了验证流程\n* 文档（README.md）：由 @appleboy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F588 中提升了文档的清晰度和一致性\n* k8s-bench：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F591 中将每项任务的超时时间从 5 分钟提高到 10 分钟\n* 评估：更新","2025-11-03T21:30:26",{"id":149,"version":150,"summary_zh":151,"released_at":152},306635,"v0.0.26","## 变更内容\n* 修复：@ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F537 中移除了 krew.yaml 文件中的注释。\n* 功能：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F542 中为 `analyze-evals` 添加了 `--show-failures` 标志，并更新了相关脚本。\n* 功能：@ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F545 中增加了可流式传输的 HTTP 服务器支持。\n* 功能：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F547 中为评估运行添加了计时器。\n* 修复：@tdubenirmata 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F546 中修复了 mcp.yaml 配置中 `auth` 指令被忽略的问题。\n* 修复：@droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F551 中处理了 LLM 返回空响应的情况。\n* 功能：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F552 中添加了 LLM 请求\u002F响应跟踪以及 HTTP 客户端超时功能。\n* 功能：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F553 中增加了为 k8s-bench 运行创建新 Kind 集群的功能。\n* @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F555 中使系统提示能够感知人类交互。\n* 修复：@droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F561 中改进了查找 HPA 资源的逻辑。\n* 功能：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F557 中修复了 `list-images-for-pods` 的问题。\n* 文档：@appleboy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F560 中对 Markdown 文档格式进行了标准化和澄清。\n\n## 新贡献者\n* @tdubenirmata 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F546 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.25...v0.0.26","2025-10-07T04:45:47",{"id":154,"version":155,"summary_zh":156,"released_at":157},306636,"v0.0.25","## 变更内容\n* 修复：@ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F529 中修复了 eval 卡死的问题\n* 新增功能：@ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F513 中添加了 clear 的端到端测试\n* 修复\u002FCI 定期构建：@zvdy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F530 中进行了相关修复\n* 更新 k8s-bench 测试结果：@noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F533 中完成了更新\n* 新增功能：@ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F532 中添加了 Krew 发布步骤\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.24...v0.0.25","2025-09-12T17:10:06",{"id":159,"version":160,"summary_zh":161,"released_at":162},306637,"v0.0.24","## 变更内容\n* 功能：由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F506 中添加的元数据查询测试\n* Bedrock 流式传输最小化实现：由 @augustintsang 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F496 中完成\n* 功能：通过 INSTALL_DIR 环境变量使安装目录可配置：由 @appleboy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F502 中实现\n* 功能：添加用于验证 mock 的 CI 任务：由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F514 中完成\n* 功能：修复并重构 `setup-dev-cluster` 验证脚本：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F522 中完成\n* 修复：GetLatestSession() 无法获取最新会话：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F523 中修复\n* 修复：解决 StatefulSet 生命周期和列出 Pod 镜像时的一致性失败问题：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F525 中修复\n* 修复：降低多容器 Pod 通信评估的不稳定性：由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F524 中修复\n* 功能：始终为非只读命令请求批准：由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F510 中实现\n* 修复（mcp）：处理缺少 properties 字段的对象模式：由 @bharats97 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F521 中完成\n* [功能]：支持使用 Ctrl+D 退出交互模式：由 @prasad89 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F526 中实现\n* 修复：在发布前安装 mockgen 工具：由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F527 中修复\n* 修复：Go 发布工具相关问题：由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F528 中修复\n\n## 新贡献者\n* @bharats97 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F521 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.23...v0.0.24","2025-09-10T20:32:55",{"id":164,"version":165,"summary_zh":166,"released_at":167},306638,"v0.0.23","## 变更内容\n* docs: 更新 README，加入最新基准测试结果及新章节，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F489 中完成  \n* fix: 修复初始化失败时不返回错误的问题，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F492 中完成  \n* Fix UI 配置中 `uiType` 的变量引用问题，由 @iomarcovalente 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F493 中完成  \n* ci: 将周期性评估任务改为串行执行，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F499 中完成  \n* feat: 在元查询处理中添加恢复会话功能，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F480 中完成  \n* eval: 添加金丝雀部署评估功能，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F472 中完成  \n* docs: 优化并澄清 MCP 和 Bedrock 相关文档，由 @appleboy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F503 中完成  \n* feat: 添加保存会话的元查询功能，并在退出时提示用户是否保存，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F484 中完成  \n* 不再在退出时提示用户保存会话，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F509 中完成  \n* 在 GitHub 页面中添加 DeepWiki 徽章，由 @nisranjan 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F505 中完成  \n* feat(web): 添加多行输入支持，由 @hglzm 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F491 中完成  \n\n## 新贡献者\n* @iomarcovalente 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F493 中完成了首次贡献  \n* @hglzm 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F491 中完成了首次贡献  \n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.22...v0.0.23","2025-08-25T23:13:40",{"id":169,"version":170,"summary_zh":171,"released_at":172},306639,"v0.0.22","## 变更内容\n* 修复：vertexai 移除 kubectl，由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F450 中完成\n* 添加 AWS Bedrock 提供者，并进行单文件合并，由 @augustintsang 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F435 中完成\n* 评估：添加蓝绿流量切换评估功能，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F455 中完成\n* 功能：在终端 UI 中显示工具调用输出，由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F451 中完成\n* 为 Gemini 添加会话持久化功能，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F443 中完成\n* 修复：在输入 `exit` 或 `quit` 后关闭终端，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F453 中完成\n* 为 Issue 257 编写文档和示例文件，由 @nisranjan 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F457 中完成\n* 功能：添加不安全选项，并增强对 GitHub 下载的健壮性处理，由 @appleboy 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F467 中完成\n* 功能：移除告别消息，使 `sessions` 元查询使用表格格式，由 @noahlwest 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F475 中完成\n* 修复：将终端工具调用输出更新至 250 行，由 @ShubyM 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F477 中完成\n* 功能：新增 `--show-tool-output` 参数，用于显示工具的输出，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F478 中完成\n* 杂项：忽略 `.air.toml` 文件，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F479 中完成\n* 代理：忽略空查询，由 @droot 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F485 中完成\n\n## 新贡献者\n* @augustintsang 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F435 中完成了首次贡献\n* @nisranjan 在 https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F457 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.20...v0.0.22","2025-08-14T18:00:46",{"id":174,"version":175,"summary_zh":176,"released_at":177},306640,"v0.0.21","## What's Changed\r\n* fix: vertexai dropping kubectl by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F450\r\n* Add AWS Bedrock provider with single-file consolidation by @augustintsang in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F435\r\n* eval: Add blue\u002Fgreen traffic switch eval by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F455\r\n* feat: show tool call output in terminal ui by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F451\r\n* Add session persistence for Gemini by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F443\r\n* fix: close terminal after 'exit' or 'quit' by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F453\r\n* Doc and sample files for Issue 257 by @nisranjan in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F457\r\n* feat: add insecure option and robust handling for GitHub downloads by @appleboy in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F467\r\n* feat: Remove goodbye message, make `sessions` metaquery use table format by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F475\r\n* fix: update terminal tool call output to 250 by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F477\r\n* feat: Added --show-tool-output to display tool's output by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F478\r\n\r\n## New Contributors\r\n* @augustintsang made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F435\r\n* @nisranjan made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F457\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.20...v0.0.21","2025-08-13T17:25:35",{"id":179,"version":180,"summary_zh":181,"released_at":182},306641,"v0.0.20","## What's Changed\r\n* fix: surface error from mcp tool calls by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F444\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.19...v0.0.20","2025-07-30T18:18:36",{"id":184,"version":185,"summary_zh":186,"released_at":187},306642,"v0.0.19","## What's Changed\r\n* feat: Update docker image to reduce size (1.7gb -> 685mb) + docs by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F423\r\n* detect kubectl exec to be a write operation by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F424\r\n* fix: pin kubectl version in docker image by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F425\r\n* Feat\u002Fupgrade OpenAI by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F426\r\n* feat: surface error messages from vertex-ai-client by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F430\r\n* Enabled SSE mode support for mcp server by @btwseeu78 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F418\r\n* fix: working documentation for running with docker by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F429\r\n* fix: make llm aware of mcp tools by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F440\r\n* feat: implement exit and quit commands to gracefully terminate the conversation by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F441\r\n\r\n## New Contributors\r\n* @btwseeu78 made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F418\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.18...v0.0.19","2025-07-28T17:17:19",{"id":189,"version":190,"summary_zh":191,"released_at":192},306643,"v0.0.18","## What's Changed\r\n* Feat\u002Fdocker image with gcloud by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F412\r\n* refactor(openai): simplify tool call handling in streaming response by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F415\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.17...v0.0.18","2025-07-18T05:11:03",{"id":194,"version":195,"summary_zh":196,"released_at":197},306644,"v0.0.17","## What's Changed\r\n* Update README.md to fix configuration options by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F408\r\n* Updated the default model for gemini by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F410\r\n* ci: Updated default gemini model in CI jobs by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F411\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.16...v0.0.17","2025-07-16T21:44:38",{"id":199,"version":200,"summary_zh":201,"released_at":202},306645,"v0.0.16","## What's Changed\r\n* gollm: Add README by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F389\r\n* eval for setting up a k8s cluster for developers by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F382\r\n* Allow making width configurable for kubectl-ai's terminal UI by @RaiAnandKr in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F390\r\n* eval: Fixed permissions for scripts in fix-service-with-no-endpoints eval by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F391\r\n* add auto support for adjusting the width for markdown rendering by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F397\r\n* feat: modularize prompt resolution with new `promptFile` by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F395\r\n* Change TaskPattern filter to use regexp by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F398\r\n* feat: Ensure accurate read\u002Fwrite classification for kubectl sub commands like `kubectl rollout history` by @yankay in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F394\r\n* Decouple UI from the main agentic loop by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F384\r\n* Change task expectations to use regexp by @ShubyM in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F402\r\n* feat: UI Darkmode toggle by @zvdy in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F401\r\n* Bugfix\u002F399 first non-flag argument parsing by @zvdy in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F400\r\n\r\n## New Contributors\r\n* @ShubyM made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F397\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.15...v0.0.16","2025-07-16T01:02:25",{"id":204,"version":205,"summary_zh":206,"released_at":207},306646,"v0.0.15","## What's Changed\r\n* feat: Disable `enable-tool-use-shim` in k8s-bench by default. by @yankay in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F352\r\n* Initial packaging in a container image by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F343\r\n* html: render a \"thinking\" state before the first response arrives by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F349\r\n* html: better formatting for input text by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F345\r\n* Add configuration section to README with YAML setup and options by @Mostafa-wael in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F355\r\n* eval: Add k8s-bench evaluation contribution guide by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F356\r\n* feat |  proactive resource creation interaction with llm by @zvdy in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F361\r\n* eval: Added eval for troubleshooting and fixing OOMKilled pod by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F360\r\n* html: improve rendering of function calls by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F350\r\n* Expose the --alsologtostderr flag by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F367\r\n* mcp support: map schemas from MCP to our schema by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F366\r\n* html: dial down logging by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F368\r\n* mcp client: don't mangle arguments by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F369\r\n* UI: render InputOptionBlock more generically by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F370\r\n* Update link to MCP server doc by @mastersingh24 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F379\r\n* Add issue templates for bug reports and feature requests (#269) by @dineshcsdev in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F377\r\n* Enhancements to OpenAI Chat Session Handling, Schema Validation, and Model Selection by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F375\r\n* Enhance MCP Server and Tool Aggregation by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F364\r\n\r\n## New Contributors\r\n* @Mostafa-wael made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F355\r\n* @mastersingh24 made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F379\r\n* @dineshcsdev made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F377\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.14...v0.0.15","2025-07-02T22:57:42",{"id":209,"version":210,"summary_zh":211,"released_at":212},306647,"v0.0.14","## What's Changed\r\n* MCP Client Multi-Tool Orchestration and Security Automation by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F338\r\n* Add eval for service with no endpoints due to deployment having invalid node selector by @RaiAnandKr in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F339\r\n* Handle empty response from Gemini when streaming ends by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F351\r\n\r\n## New Contributors\r\n* @RaiAnandKr made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F339\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.13...v0.0.14","2025-06-17T01:32:49",{"id":214,"version":215,"summary_zh":216,"released_at":217},306648,"v0.0.13","## What's Changed\r\n* Add eval for finding application-level failures by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F295\r\n* feat: Add Makefile for build, test, and run tasks management by @mikebz in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F316\r\n* Change eval's expect block to parse stdout by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F315\r\n* Updated install.sh and README.md to document the installation on NixOS by @pilz0 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F321\r\n* fix\u002Ffeat | Static Kubectl Command Filter Implementation by @zvdy in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F309\r\n* refactor: Remove Trivy tool integration from kubectl-ai by @prasad89 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F325\r\n* Fixed minor bugs in executing custom tools by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F328\r\n* Updated the default model to latest gemini by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F329\r\n* Add `resize pvc` eval by @Kana0042 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F319\r\n* eval: Add fix-rbac-wrong-resource eval by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F337\r\n* eval: add create-simple-rbac eval by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F336\r\n* Add fix pending pod eval by @Kana0042 in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F327\r\n* resolve kubeconfig flag to absolute path by @justinsb in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F341\r\n\r\n## New Contributors\r\n* @Kana0042 made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F319\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.12...v0.0.13","2025-06-16T16:41:54",{"id":219,"version":220,"summary_zh":221,"released_at":222},306649,"v0.0.12","## What's Changed\r\n* Introduce MCP Client with Server Management and Tool Exec by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F270\r\n* Fix error when trying to include multi-line string in conversation output when using --enable-tool-use-shim by @noahlwest in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F297\r\n* Add HTTP and stdio MCP Client Implementations with Unified Interface by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F291\r\n* fix and improve the observation format by @denverdino in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F308\r\n* feat: Update google.golang.org\u002Fgenai to v1.8.0 by @droot in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F301\r\n* Fix NPE in conversation.go by @denverdino in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F312\r\n* docs(README): add note on MCP Client Mode availability in v0.0.12 by @tuannvm in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F313\r\n\r\n## New Contributors\r\n* @noahlwest made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F297\r\n* @denverdino made their first contribution in https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fpull\u002F308\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fkubectl-ai\u002Fcompare\u002Fv0.0.11...v0.0.12","2025-06-04T21:58:19"]