KIRA
KIRA 是一款专为终端任务基准测试(Terminal-Bench)设计的智能代理框架,基于 Terminus 2 构建。它旨在解决大模型在执行复杂命令行任务时,因传统文本解析方式导致的输出不稳定、响应延迟高以及多模态支持缺失等痛点。通过引入原生的工具调用机制,KIRA 让模型能直接以结构化方式执行 shell 命令、分析屏幕截图并确认任务完成,无需依赖脆弱的正则表达式或 JSON 解析,从而显著提升了任务执行的准确率与鲁棒性。
该工具特别适合 AI 研究人员、大模型开发者以及需要评估智能体在真实终端环境中表现的技术团队使用。其核心技术亮点包括:利用原生 tools 参数替代上下文学习解析,确保指令执行可靠;内置 image_read 工具支持多模态视觉分析,使代理能“看懂”终端界面;采用基于标记的轮询机制,一旦检测到命令结束标记即刻推进,大幅减少无效等待时间;此外,还引入了涵盖测试工程师、QA 及用户视角的多重智能验证清单,确保任务交付质量。KIRA 以极简的架构改进,实现了前沿模型在终端基准测试中性能的显著提升,是探索自主智能体能力的得力助手。
使用场景
某 DevOps 工程师正利用大模型代理自动执行复杂的服务器故障排查与修复任务,需在终端环境中精准运行命令并验证结果。
没有 KIRA 时
- 指令解析易错:代理依赖传统的 JSON/XML 文本解析来提取命令,常因格式微调导致解析失败或执行错误指令。
- 等待效率低下:执行命令后只能机械地等待预设超时时间,即使任务早已完成也无法提前进入下一步,浪费大量时间。
- 视觉盲区:面对终端中的图形化报错信息或截图,代理无法直接“看懂”,必须依靠人工介入分析图像内容。
- 验收草率:任务结束前缺乏多维度的自我检查,常出现命令跑了但问题未彻底解决的情况,需人工二次复核。
使用 KIRA 后
- 原生工具调用更稳:KIRA 启用 LLM 原生的
tools参数直接结构化输出命令,彻底消除了正则解析的不稳定性,执行准确率显著提升。 - 智能轮询提速:通过回声标记(Echo Markers)实时监测命令结束状态,一旦完成立即触发后续步骤,大幅缩短整体任务耗时。
- 多模态视觉分析:内置
image_read工具让代理能直接读取并分析终端截图中的报错图表,实现了真正的全自动视觉诊断。 - 多重确认机制:引入包含测试、QA 及用户视角的智能验收清单,在标记任务完成前进行双重确认,确保修复方案 robust 且无遗漏。
KIRA 通过原生工具调用与智能验证机制,将终端自动化代理从“勉强能用”升级为“高效可靠”的生产力伙伴。
运行环境要求
- Linux
- macOS
未说明
未说明

快速开始
|
为 Terminal-Bench 打造的更智能代理框架,基于 Terminus 2 构建
简单修复,显著提升。
什么是 Terminus-KIRA?
Terminus-KIRA 是一个用于 Terminal-Bench 的代理框架,构建于 Terminus 2 之上。它通过一系列简洁而高效的框架级改进——原生工具调用、多模态支持、执行优化以及更智能的完成度验证——显著提升了前沿模型在 Terminal-Bench 上的表现。
核心特性
- 原生工具调用 — 用 LLM 的
tools参数替代 ICL 中的 JSON/XML 解析,实现结构化且可靠的输出 - 图像分析(多模态) — 提供
image_read工具,可直接从终端解析 base64 编码的图像 - 基于标记的轮询 — 利用回显标记提前检测命令是否完成,减少不必要的等待时间
- 智能完成度验证 — 双重确认检查清单,涵盖需求、鲁棒性及多视角 QA(测试工程师、质量保证工程师、用户)
- 提示缓存 — 对最近消息使用 Anthropic 的临时缓存机制,以降低延迟并节省成本
架构设计
Terminus-KIRA 在 Terminus 2 的基础上进行了扩展,将其中的 ICL(上下文学习)响应解析替换为原生 LLM 工具调用。
通过 tools 参数传递的工具定义:
| 工具 | 目的 |
|---|---|
execute_commands |
执行 shell 命令,并进行分析与规划 |
task_complete |
发送任务完成信号(触发双重确认) |
image_read |
通过 base64 多模态输入分析图像文件 |
工作流程:
- 直接调用
litellm.acompletion并传入tools=TOOLS,绕过基础的Chat类以访问原生工具调用功能。 - 模型返回结构化的工具调用指令,而非自由文本形式——无需正则表达式或 JSON 解析。
- 当上下文窗口溢出时,自动总结对话历史并重试。
- 基于标记的轮询会在每个命令后追加
echo '__CMDEND__<seq>__';若在指定时间内出现该标记,则立即进入下一步执行。
发展历程
开发过程中的关键里程碑:
| 序号 | 阶段 | 描述 |
|---|---|---|
| 1 | 起源 | 以 Terminus 2 为起点进行复制 |
| 2 | 原生工具使用 | 将 ICL 中的 JSON/XML 解析替换为 LLM 的 tools 参数 |
| 3 | 输出限制 | 将终端输出限制在 30 KB,防止上下文膨胀 |
| 4 | 自主性与约束 | 通过提示工程实现代理自主性和环境约束 |
| 5 | 完成度确认 | 在完成度检查中包含原始指令 |
| 6 | 多模态 | 添加 image_read 工具,用于分析终端截图 |
| 7 | 完成度检查清单 | 引入多视角 QA 检查清单(测试工程师、QA、用户) |
| 8 | 执行优化 | 基于标记的轮询及阻塞超时保护 |
| 9 | 温度修正 | 使用推理模式时将温度设置为 1 |
使用方法
uv run harbor run \
--dataset terminal-bench-sample@2.0 \
--n-tasks 1 \
--agent-import-path "terminus_kira.terminus_kira:TerminusKira" \
--model anthropic/claude-opus-4-6 \
--env docker \
-n 1
更多详情请参阅我们的 博客文章。
项目结构
├── terminus_kira/
│ ├── __init__.py
│ └── terminus_kira.py # 主代理(原生工具调用)
├── prompt-templates/
│ └── terminus-kira.txt # 系统提示词
├── run-scripts/
│ ├── run_docker.sh # 本地 Docker 执行
│ ├── run_daytona.sh # Daytona 云执行
│ └── run_runloop.sh # Runloop 云执行
├── anthropic_caching.py # 提示词缓存工具
└── pyproject.toml
引用我们
如果您觉得 Terminus-KIRA 有用,请按以下格式引用我们:
@misc{terminuskira2026,
title={Terminus-KIRA:以最小化框架改进提升前沿模型在 Terminal-Bench 上的表现},
author={{KRAFTON AI} 和 {Ludo Robotics}},
year={2026},
url={https://github.com/krafton-ai/kira},
}
更改记录
| 版本 | 描述 |
|---|---|
| v1.1 | 从上下文学习(ICL)迁移至通过 LLM 的 tools 参数实现的 原生工具调用。移除了系统提示词中冗长的 JSON/XML 响应格式说明——模型现在直接接收结构化的工具定义,从而大幅缩短提示长度并提高输出可靠性。 |
| v1.0 | 初始发布。基于 Terminus 2 分支,采用 ICL 的 JSON 响应解析,并在系统提示词中详细说明完整响应格式。 |
KRAFTON AI & Ludo Robotics
版本历史
v0.1.482026/01/12v0.1.472025/12/22v0.1.462025/12/19v0.1.422025/12/16v0.1.352025/12/12相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备