kimi-cli

GitHub
7.7k 828 简单 1 次阅读 今天Apache-2.0Agent插件
AI 解读 由 AI 自动生成,仅供参考

kimi-cli 是一款运行在终端里的 AI 编程助手,能帮你写代码、改文件、执行命令,甚至自动规划任务步骤。它不只是个聊天机器人,更像一个懂技术的“终端搭档”:你可以直接让它跑 shell 命令(按 Ctrl-X 切换模式),也能把它嵌入 VS Code、Zed 或 JetBrains 等编辑器中,让 AI 深度参与你的开发流程。对于习惯命令行的开发者来说,它省去了来回切换工具的麻烦;对需要频繁调试、查文档或自动化操作的人而言,它能主动搜索网页、调用外部工具(支持 MCP 协议),并动态调整执行策略。无论是日常编码、排查错误,还是搭建复杂工作流,kimi-cli 都能提升效率。特别适合有一定命令行基础的软件工程师、技术研究员或 DevOps 人员使用。它的独特之处在于原生支持 Agent Client Protocol(ACP)和 Model Context Protocol(MCP),可灵活对接各类编辑器与外部服务,同时提供 Zsh 插件集成,让传统 Shell 体验瞬间拥有智能代理能力。整体设计轻量、开放,注重与实际开发环境无缝融合。

使用场景

一位后端工程师需要在紧急排查线上服务异常时,快速分析分散在多个日志文件中的错误堆栈,并自动修复配置文件中遗漏的环境变量。

没有 kimi-cli 时

  • 工程师需手动打开多个终端窗口,反复执行 grepcatvim 命令来定位错误线索,操作繁琐且容易出错。
  • 面对复杂的报错信息,必须频繁切换浏览器搜索解决方案,再人工将代码片段复制回终端编辑器,上下文断裂严重。
  • 修改配置文件时,需凭记忆核对所有相关环境变量,极易因遗漏某个隐蔽配置导致修复失败。
  • 整个排查过程耗时较长,期间无法并行处理其他任务,心理压力巨大。

使用 kimi-cli 后

  • 直接在终端输入自然语言指令,kimi-cli 自动遍历日志目录,精准提取关键错误堆栈并生成摘要报告。
  • 遇到未知报错时,kimi-cli 自主联网检索最新技术文档,直接将可执行的修复代码应用到本地文件中。
  • 通过智能分析项目依赖,kimi-cli 自动识别并补全缺失的环境变量,同时验证配置语法确保无误。
  • 工程师只需监控执行进度,利用其内置的 Shell 模式(Ctrl-X)随时干预细节,大幅释放精力用于架构优化。

kimi-cli 将原本碎片化、高认知负荷的运维排查工作,转化为流畅的自动化闭环,让开发者从“操作工”回归“决策者”。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes该工具是命令行 AI 代理,主要作为客户端运行(连接云端模型),因此对本地 GPU 和内存无特殊高要求。开发环境需安装 'uv' 包管理器;若需构建包含 Web UI 的二进制文件,则必须安装 Node.js 和 npm。支持通过 ACP 协议集成到 Zed、JetBrains 等 IDE,或通过插件集成到 Zsh。支持 MCP (Model Context Protocol) 以连接外部工具服务器。
python未说明 (项目使用 uv 和 make 构建,暗示需要 Python 环境,但 README 未指定具体版本)
uv
Node.js/npm (用于构建 Web UI)
kimi-cli hero image

快速开始

Kimi Code CLI

提交活动 检查 版本 下载量 Ask DeepWiki

Kimi Code | 文档 | 文档

Kimi Code CLI 是一个在终端中运行的 AI 代理,可帮助您完成软件开发任务和终端操作。它可以读取和编辑代码、执行 Shell 命令、搜索和获取网页,并在执行过程中自主规划和调整行动。

入门

请参阅 入门指南 了解如何安装和开始使用 Kimi Code CLI。

核心功能

Shell 命令模式

Kimi Code CLI 不仅是一个编码代理,也是一个 Shell。您可以通过按 Ctrl-X 切换到 Shell 命令模式。在此模式下,您可以直接运行 Shell 命令,而无需退出 Kimi Code CLI。

[!注意] 目前尚不支持 cd 等内置 Shell 命令。

VS Code 扩展

Kimi Code CLI 可以通过 Kimi Code VS Code 扩展Visual Studio Code 集成。

VS Code 扩展

通过 ACP 的 IDE 集成

Kimi Code CLI 开箱即用地支持 Agent Client Protocol。您可以将其与任何兼容 ACP 的编辑器或 IDE 搭配使用。

要将 Kimi Code CLI 与 ACP 客户端一起使用,请确保在终端中运行 Kimi Code CLI,并先发送 /login 完成登录。然后,您可以配置您的 ACP 客户端,通过命令 kimi acp 将 Kimi Code CLI 作为 ACP 代理服务器启动。

例如,要将 Kimi Code CLI 与 ZedJetBrains 配合使用,请在您的 ~/.config/zed/settings.json~/.jetbrains/acp.json 文件中添加以下配置:

{
  "agent_servers": {
    "Kimi Code CLI": {
      "type": "custom",
      "command": "kimi",
      "args": ["acp"],
      "env": {}
    }
  }
}

之后,您就可以在 IDE 的代理面板中创建 Kimi Code CLI 线程。

Zsh 集成

您可以将 Kimi Code CLI 与 Zsh 结合使用,借助 AI 代理的能力增强您的 Shell 使用体验。

通过以下方式安装 zsh-kimi-cli 插件:

git clone https://github.com/MoonshotAI/zsh-kimi-cli.git \
  ${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/kimi-cli

[!注意] 如果您使用的是 Oh My Zsh 之外的插件管理器,可能需要参考插件的 README 获取安装说明。

然后,在 ~/.zshrc 中将 kimi-cli 添加到您的 Zsh 插件列表:

plugins=(... kimi-cli)

重启 Zsh 后,您可以通过按 Ctrl-X 切换到代理模式。

MCP 支持

Kimi Code CLI 支持 MCP(Model Context Protocol)工具。

kimi mcp 子命令组

您可以通过 kimi mcp 子命令组管理 MCP 服务器。例如:

# 添加可流式传输的 HTTP 服务器:
kimi mcp add --transport http context7 https://mcp.context7.com/mcp --header "CONTEXT7_API_KEY: ctx7sk-your-key"

# 添加带有 OAuth 授权的可流式传输的 HTTP 服务器:
kimi mcp add --transport http --auth oauth linear https://mcp.linear.app/mcp

# 添加 stdio 服务器:
kimi mcp add --transport stdio chrome-devtools -- npx chrome-devtools-mcp@latest

# 列出已添加的 MCP 服务器:
kimi mcp list

# 移除一个 MCP 服务器:
kimi mcp remove chrome-devtools

# 授权一个 MCP 服务器:
kimi mcp auth linear

临时 MCP 配置

Kimi Code CLI 还支持通过 CLI 选项进行临时的 MCP 服务器配置。

假设您有一个符合常见 MCP 配置格式的 MCP 配置文件,如下所示:

{
  "mcpServers": {
    "context7": {
      "url": "https://mcp.context7.com/mcp",
      "headers": {
        "CONTEXT7_API_KEY": "YOUR_API_KEY"
      }
    },
    "chrome-devtools": {
      "command": "npx",
      "args": ["-y", "chrome-devtools-mcp@latest"]
    }
  }
}

使用 --mcp-config-file 选项运行 kimi 即可连接到指定的 MCP 服务器:

kimi --mcp-config-file /path/to/mcp.json

更多

更多功能请参阅 文档

开发

要开发 Kimi Code CLI,请执行以下操作:

git clone https://github.com/MoonshotAI/kimi-cli.git
cd kimi-cli

make prepare  # 准备开发环境

之后您就可以开始对 Kimi Code CLI 进行开发了。

在做出更改后,请参考以下命令:

uv run kimi  # 运行 Kimi Code CLI

make format  # 格式化代码
make check  # 运行代码风格检查和类型检查
make test  # 运行测试
make test-kimi-cli  # 仅运行 Kimi Code CLI 测试
make test-kosong  # 仅运行 kosong 测试
make test-pykaos  # 仅运行 pykaos 测试
make build-web  # 构建 Web 界面并同步到包中(需要 Node.js/npm)
make build  # 构建 Python 包
make build-bin  # 构建独立二进制文件
make help  # 显示所有 make 目标

注意:make buildmake build-bin 会自动运行 make build-web 以嵌入 Web 界面。

版本历史

1.30.02026/04/02
1.29.02026/04/01
1.28.02026/03/30
1.27.02026/03/27
1.26.02026/03/25
1.25.02026/03/23
1.24.02026/03/18
1.23.02026/03/17
1.22.02026/03/13
1.21.02026/03/12
1.20.02026/03/11
1.19.02026/03/10
1.18.02026/03/09
1.17.02026/03/03
1.16.02026/02/27
1.15.02026/02/26
1.14.02026/02/25
1.13.02026/02/24
1.12.02026/02/11
1.11.02026/02/10

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|3天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|3天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

146.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|今天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|2天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent