[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-krafton-ai--KIRA":3,"tool-krafton-ai--KIRA":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",149489,2,"2026-04-10T11:32:46",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":64,"description_zh":65,"ai_summary_zh":65,"readme_en":66,"readme_zh":67,"quickstart_zh":68,"use_case_zh":69,"hero_image_url":70,"owner_login":71,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":10,"env_os":106,"env_gpu":107,"env_ram":107,"env_deps":108,"category_tags":115,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":120},6239,"krafton-ai\u002FKIRA","KIRA","KIRA 是一款专为终端任务基准测试（Terminal-Bench）设计的智能代理框架，基于 Terminus 2 构建。它旨在解决大模型在执行复杂命令行任务时，因传统文本解析方式导致的输出不稳定、响应延迟高以及多模态支持缺失等痛点。通过引入原生的工具调用机制，KIRA 让模型能直接以结构化方式执行 shell 命令、分析屏幕截图并确认任务完成，无需依赖脆弱的正则表达式或 JSON 解析，从而显著提升了任务执行的准确率与鲁棒性。\n\n该工具特别适合 AI 研究人员、大模型开发者以及需要评估智能体在真实终端环境中表现的技术团队使用。其核心技术亮点包括：利用原生 `tools` 参数替代上下文学习解析，确保指令执行可靠；内置 `image_read` 工具支持多模态视觉分析，使代理能“看懂”终端界面；采用基于标记的轮询机制，一旦检测到命令结束标记即刻推进，大幅减少无效等待时间；此外，还引入了涵盖测试工程师、QA 及用户视角的多重智能验证清单，确保任务交付质量。KIRA 以极简的架构改进，实现了前沿模型在终端基准测试中性能的显著提升，是探索自主智能体能力的得力助手。","\u003Ctable align=\"center\">\u003Ctr>\u003Ctd>\n\n```\n                          ●      ●\n\n                        ▄████◣◢████▄\n                     ◥▄████▀▀  ▀▀████▄◤\n                        ▀▀        ▀▀\n\n _____ ___ ___ __  __ ___ _  _ _   _ ___     _  _____ ___    _\n|_   _| __| _ \\  \\\u002F  |_ _| \\| | | | \u002F __|___| |\u002F \u002F_ _| _ \\  \u002F_\\\n  | | | _||   \u002F |\\\u002F| || || .` | |_| \\__ \\___| ' \u003C | ||   \u002F \u002F _ \\\n  |_| |___|_|_\\_|  |_|___|_|\\_|\\___\u002F|___\u002F   |_|\\_\\___|_|_\\\u002F_\u002F \\_\\\n```\n\n\u003C\u002Ftd>\u003C\u002Ftr>\u003C\u002Ftable>\n\n\u003Cp align=\"center\">\n  A smarter agent harness for \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench\">Terminal-Bench\u003C\u002Fa>, built on \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench\">Terminus 2\u003C\u002Fa>\n  \u003Cbr\u002F>\n  \u003Cem>Simple fixes, significant gains.\u003C\u002Fem>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCodex_5.3-75.5%25-blue?style=for-the-badge\" alt=\"Codex 5.3: 75.5%\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpus_4.6-75.7%25-blueviolet?style=for-the-badge\" alt=\"Opus 4.6: 75.7%\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGemini_3.1_Pro-74.8%25-orange?style=for-the-badge\" alt=\"Gemini 3.1 Pro: 74.8%\">\n\u003C\u002Fp>\n\n## What is Terminus-KIRA?\n\nTerminus-KIRA is an agent harness for [Terminal-Bench](https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench), built on top of [Terminus 2](https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench). It boosts frontier model performance on Terminal-Bench through a set of minimal but effective harness-level improvements — native tool calling, multimodal support, execution optimization, and smarter completion verification.\n\n---\n\n## Key Features\n\n- **Native Tool Calling** — Replaces ICL JSON\u002FXML parsing with the LLM `tools` parameter for structured, reliable outputs\n- **Image Analysis (Multimodal)** — `image_read` tool for base64-encoded image analysis directly from the terminal\n- **Marker-based Polling** — Early command completion detection using echo markers, cutting unnecessary wait time\n- **Smart Completion Verification** — Double-confirmation checklist covering requirements, robustness, and multi-perspective QA (test engineer, QA engineer, user)\n- **Prompt Caching** — Anthropic ephemeral caching on recent messages to reduce latency and cost\n\n---\n\n## Architecture\n\nTerminus-KIRA extends Terminus 2 by replacing its ICL (In-Context Learning) response parsing with native LLM tool calling.\n\n**Tool definitions** passed via the `tools` parameter:\n\n| Tool | Purpose |\n|---|---|\n| `execute_commands` | Run shell commands with analysis and plan |\n| `task_complete` | Signal task completion (triggers double-confirmation) |\n| `image_read` | Analyze image files via base64 multimodal input |\n\n**How it works:**\n\n1. Calls `litellm.acompletion` directly with `tools=TOOLS`, bypassing the base `Chat` class to access native tool calling\n2. The model returns structured tool calls instead of free-form text — no regex\u002FJSON parsing needed\n3. On context window overflow, automatically summarizes conversation history and retries\n4. Marker-based polling appends `echo '__CMDEND__\u003Cseq>__'` after each command; if the marker appears before the requested duration, execution moves on immediately\n\n---\n\n## Evolution\n\nKey milestones from development history:\n\n| # | Milestone | Description |\n|---|---|---|\n| 1 | Genesis | Copy of Terminus 2 as starting point |\n| 2 | Native Tool Use | Replaced ICL JSON\u002FXML parsing with LLM `tools` parameter |\n| 3 | Output Limiting | 30 KB cap on terminal output to prevent context bloat |\n| 4 | Autonomy & Constraints | Prompt engineering for agent autonomy and environment constraints |\n| 5 | Completion Confirmation | Include original instruction in completion check |\n| 6 | Multimodal | `image_read` tool for visual analysis of terminal screenshots |\n| 7 | Completion Checklist | Multi-perspective QA checklist (test engineer, QA, user) |\n| 8 | Execution Optimization | Marker-based polling and block timeout protection |\n| 9 | Temperature Fix | Set temperature to 1 when using reasoning effort |\n\n---\n\n## Usage\n\n```bash\nuv run harbor run \\\n    --dataset terminal-bench-sample@2.0 \\\n    --n-tasks 1 \\\n    --agent-import-path \"terminus_kira.terminus_kira:TerminusKira\" \\\n    --model anthropic\u002Fclaude-opus-4-6 \\\n    --env docker \\\n    -n 1\n```\n\nFor more details, visit our [blog post](https:\u002F\u002Fkrafton-ai.github.io\u002Fblog\u002Fterminus_kira_en\u002F).\n\n---\n\n## Project Structure\n\n```\n├── terminus_kira\u002F\n│   ├── __init__.py\n│   └── terminus_kira.py        # Main agent (native tool calling)\n├── prompt-templates\u002F\n│   └── terminus-kira.txt        # System prompt\n├── run-scripts\u002F\n│   ├── run_docker.sh            # Local Docker execution\n│   ├── run_daytona.sh           # Daytona cloud execution\n│   └── run_runloop.sh           # Runloop cloud execution\n├── anthropic_caching.py         # Prompt caching utility\n└── pyproject.toml\n```\n\n---\n\n## Citing Us\n\nIf you found Terminus-KIRA useful, please cite us as:\n\n```bibtex\n@misc{terminuskira2026,\n      title={Terminus-KIRA: Boosting Frontier Model Performance on Terminal-Bench with Minimal Harness },\n      author={{KRAFTON AI} and {Ludo Robotics}},\n      year={2026},\n      url={https:\u002F\u002Fgithub.com\u002Fkrafton-ai\u002Fkira},\n}\n```\n\n---\n\n## Changelog\n\n| Version | Description |\n|---|---|\n| **v1.1** | Migrated from In-Context Learning (ICL) to **native tool calling** via LLM `tools` parameter. Removed verbose JSON\u002FXML response format instructions from system prompt — the model now receives structured tool definitions directly, resulting in a significantly shorter prompt and more reliable outputs. |\n| **v1.0** | Initial release. Fork of Terminus 2 with ICL-based JSON response parsing and full response format instructions in the system prompt. |\n\n---\nKRAFTON AI & Ludo Robotics\n","\u003Ctable align=\"center\">\u003Ctr>\u003Ctd>\n\n```\n                          ●      ●\n\n                        ▄████◣◢████▄\n                     ◥▄████▀▀  ▀▀████▄◤\n                        ▀▀        ▀▀\n\n _____ ___ ___ __  __ ___ _  _ _   _ ___     _  _____ ___    _\n|_   _| __| _ \\  \\\u002F  |_ _| \\| | | | \u002F __|___| |\u002F \u002F_ _| _ \\  \u002F_\\\n  | | | _||   \u002F |\\\u002F| || || .` | |_| \\__ \\___| ' \u003C | ||   \u002F \u002F _ \\\n  |_| |___|_|_\\_|  |_|___|_|\\_|\\___\u002F|___\u002F   |_|\\_\\___|_|_\\\u002F_\u002F \\_\\\n```\n\n\u003C\u002Ftd>\u003C\u002Ftr>\u003C\u002Ftable>\n\n\u003Cp align=\"center\">\n  为 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench\">Terminal-Bench\u003C\u002Fa> 打造的更智能代理框架，基于 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench\">Terminus 2\u003C\u002Fa> 构建\n  \u003Cbr\u002F>\n  \u003Cem>简单修复，显著提升。\u003C\u002Fem>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCodex_5.3-75.5%25-blue?style=for-the-badge\" alt=\"Codex 5.3：75.5%\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FOpus_4.6-75.7%25-blueviolet?style=for-the-badge\" alt=\"Opus 4.6：75.7%\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGemini_3.1_Pro-74.8%25-orange?style=for-the-badge\" alt=\"Gemini 3.1 Pro：74.8%\">\n\u003C\u002Fp>\n\n## 什么是 Terminus-KIRA？\n\nTerminus-KIRA 是一个用于 [Terminal-Bench](https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench) 的代理框架，构建于 [Terminus 2](https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench) 之上。它通过一系列简洁而高效的框架级改进——原生工具调用、多模态支持、执行优化以及更智能的完成度验证——显著提升了前沿模型在 Terminal-Bench 上的表现。\n\n---\n\n## 核心特性\n\n- **原生工具调用** — 用 LLM 的 `tools` 参数替代 ICL 中的 JSON\u002FXML 解析，实现结构化且可靠的输出\n- **图像分析（多模态）** — 提供 `image_read` 工具，可直接从终端解析 base64 编码的图像\n- **基于标记的轮询** — 利用回显标记提前检测命令是否完成，减少不必要的等待时间\n- **智能完成度验证** — 双重确认检查清单，涵盖需求、鲁棒性及多视角 QA（测试工程师、质量保证工程师、用户）\n- **提示缓存** — 对最近消息使用 Anthropic 的临时缓存机制，以降低延迟并节省成本\n\n---\n\n## 架构设计\n\nTerminus-KIRA 在 Terminus 2 的基础上进行了扩展，将其中的 ICL（上下文学习）响应解析替换为原生 LLM 工具调用。\n\n**通过 `tools` 参数传递的工具定义：**\n\n| 工具         | 目的                           |\n|--------------|--------------------------------|\n| `execute_commands` | 执行 shell 命令，并进行分析与规划 |\n| `task_complete`    | 发送任务完成信号（触发双重确认） |\n| `image_read`       | 通过 base64 多模态输入分析图像文件 |\n\n**工作流程：**\n\n1. 直接调用 `litellm.acompletion` 并传入 `tools=TOOLS`，绕过基础的 `Chat` 类以访问原生工具调用功能。\n2. 模型返回结构化的工具调用指令，而非自由文本形式——无需正则表达式或 JSON 解析。\n3. 当上下文窗口溢出时，自动总结对话历史并重试。\n4. 基于标记的轮询会在每个命令后追加 `echo '__CMDEND__\u003Cseq>__'`；若在指定时间内出现该标记，则立即进入下一步执行。\n\n---\n\n## 发展历程\n\n开发过程中的关键里程碑：\n\n| 序号 | 阶段               | 描述                                       |\n|------|--------------------|--------------------------------------------|\n| 1    | 起源               | 以 Terminus 2 为起点进行复制             |\n| 2    | 原生工具使用       | 将 ICL 中的 JSON\u002FXML 解析替换为 LLM 的 `tools` 参数 |\n| 3    | 输出限制           | 将终端输出限制在 30 KB，防止上下文膨胀   |\n| 4    | 自主性与约束       | 通过提示工程实现代理自主性和环境约束     |\n| 5    | 完成度确认         | 在完成度检查中包含原始指令               |\n| 6    | 多模态             | 添加 `image_read` 工具，用于分析终端截图 |\n| 7    | 完成度检查清单     | 引入多视角 QA 检查清单（测试工程师、QA、用户） |\n| 8    | 执行优化           | 基于标记的轮询及阻塞超时保护             |\n| 9    | 温度修正           | 使用推理模式时将温度设置为 1             |\n\n---\n\n## 使用方法\n\n```bash\nuv run harbor run \\\n    --dataset terminal-bench-sample@2.0 \\\n    --n-tasks 1 \\\n    --agent-import-path \"terminus_kira.terminus_kira:TerminusKira\" \\\n    --model anthropic\u002Fclaude-opus-4-6 \\\n    --env docker \\\n    -n 1\n```\n\n更多详情请参阅我们的 [博客文章](https:\u002F\u002Fkrafton-ai.github.io\u002Fblog\u002Fterminus_kira_en\u002F)。\n\n---\n\n## 项目结构\n\n```\n├── terminus_kira\u002F\n│   ├── __init__.py\n│   └── terminus_kira.py        # 主代理（原生工具调用）\n├── prompt-templates\u002F\n│   └── terminus-kira.txt        # 系统提示词\n├── run-scripts\u002F\n│   ├── run_docker.sh            # 本地 Docker 执行\n│   ├── run_daytona.sh           # Daytona 云执行\n│   └── run_runloop.sh           # Runloop 云执行\n├── anthropic_caching.py         # 提示词缓存工具\n└── pyproject.toml\n```\n\n---\n\n## 引用我们\n\n如果您觉得 Terminus-KIRA 有用，请按以下格式引用我们：\n\n```bibtex\n@misc{terminuskira2026,\n      title={Terminus-KIRA：以最小化框架改进提升前沿模型在 Terminal-Bench 上的表现},\n      author={{KRAFTON AI} 和 {Ludo Robotics}},\n      year={2026},\n      url={https:\u002F\u002Fgithub.com\u002Fkrafton-ai\u002Fkira},\n}\n```\n\n---\n\n## 更改记录\n\n| 版本   | 描述                                         |\n|--------|----------------------------------------------|\n| **v1.1** | 从上下文学习（ICL）迁移至通过 LLM 的 `tools` 参数实现的 **原生工具调用**。移除了系统提示词中冗长的 JSON\u002FXML 响应格式说明——模型现在直接接收结构化的工具定义，从而大幅缩短提示长度并提高输出可靠性。 |\n| **v1.0** | 初始发布。基于 Terminus 2 分支，采用 ICL 的 JSON 响应解析，并在系统提示词中详细说明完整响应格式。 |\n\n---\nKRAFTON AI & Ludo Robotics","# KIRA 快速上手指南\n\nKIRA (Terminus-KIRA) 是一个专为 [Terminal-Bench](https:\u002F\u002Fgithub.com\u002Flaude-institute\u002Fterminal-bench) 设计的智能 Agent 框架，基于 Terminus 2 构建。它通过原生工具调用（Native Tool Calling）、多模态支持和执行优化，显著提升了前沿大模型在终端任务上的表现。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)。\n*   **Python 版本**: Python 3.10 或更高版本。\n*   **包管理器**: 推荐安装 [`uv`](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv)，这是 KIRA 推荐的极速 Python 包管理工具。\n    *   安装 uv (国内用户若遇网络问题，可尝试使用镜像或直接通过 pip 安装):\n        ```bash\n        curl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n        # 或者使用 pip\n        pip install uv\n        ```\n*   **容器环境**: 需要安装 **Docker** 并确保护守护进程正在运行，因为默认执行环境依赖 Docker 容器。\n*   **API Key**: 准备好所需大模型的 API Key (如 Anthropic, OpenAI 等)，并设置为环境变量 (例如 `export ANTHROPIC_API_KEY=\"your-key\"`).\n\n## 安装步骤\n\nKIRA 推荐使用 `uv` 进行依赖管理和运行，无需手动创建虚拟环境。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fkrafton-ai\u002Fkira.git\n    cd kira\n    ```\n\n2.  **验证环境与依赖**\n    项目包含 `pyproject.toml`，`uv` 会自动解析并安装所有必要依赖。您可以直接通过 `uv run` 运行命令，它会在隔离环境中自动处理依赖安装。\n\n    *(可选) 如果您想预先安装依赖到本地虚拟环境：*\n    ```bash\n    uv sync\n    ```\n\n## 基本使用\n\n以下是最简单的运行示例，该命令将使用 Docker 环境，调用 Claude Opus 4.6 模型，在 Terminal-Bench 样本数据集上执行 1 个任务。\n\n```bash\nuv run harbor run \\\n    --dataset terminal-bench-sample@2.0 \\\n    --n-tasks 1 \\\n    --agent-import-path \"terminus_kira.terminus_kira:TerminusKira\" \\\n    --model anthropic\u002Fclaude-opus-4-6 \\\n    --env docker \\\n    -n 1\n```\n\n**参数说明：**\n*   `--dataset`: 指定评测数据集，此处使用样本集 `terminal-bench-sample@2.0`。\n*   `--agent-import-path`: 指定使用 KIRA 的核心 Agent 类。\n*   `--model`: 指定使用的模型标识符 (格式为 `provider\u002Fmodel-name`)。\n*   `--env`: 指定执行环境，`docker` 表示在本地 Docker 容器中运行。\n*   `-n`: 并行运行的任务数量。\n\n运行成功后，您将看到模型在终端环境中自主执行命令、分析输出并最终完成任务的日志。更多高级配置和云端执行方案（如 Daytona, Runloop）请参考项目根目录下的 `run-scripts\u002F` 文件夹。","某 DevOps 工程师正利用大模型代理自动执行复杂的服务器故障排查与修复任务，需在终端环境中精准运行命令并验证结果。\n\n### 没有 KIRA 时\n- **指令解析易错**：代理依赖传统的 JSON\u002FXML 文本解析来提取命令，常因格式微调导致解析失败或执行错误指令。\n- **等待效率低下**：执行命令后只能机械地等待预设超时时间，即使任务早已完成也无法提前进入下一步，浪费大量时间。\n- **视觉盲区**：面对终端中的图形化报错信息或截图，代理无法直接“看懂”，必须依靠人工介入分析图像内容。\n- **验收草率**：任务结束前缺乏多维度的自我检查，常出现命令跑了但问题未彻底解决的情况，需人工二次复核。\n\n### 使用 KIRA 后\n- **原生工具调用更稳**：KIRA 启用 LLM 原生的 `tools` 参数直接结构化输出命令，彻底消除了正则解析的不稳定性，执行准确率显著提升。\n- **智能轮询提速**：通过回声标记（Echo Markers）实时监测命令结束状态，一旦完成立即触发后续步骤，大幅缩短整体任务耗时。\n- **多模态视觉分析**：内置 `image_read` 工具让代理能直接读取并分析终端截图中的报错图表，实现了真正的全自动视觉诊断。\n- **多重确认机制**：引入包含测试、QA 及用户视角的智能验收清单，在标记任务完成前进行双重确认，确保修复方案 robust 且无遗漏。\n\nKIRA 通过原生工具调用与智能验证机制，将终端自动化代理从“勉强能用”升级为“高效可靠”的生产力伙伴。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkrafton-ai_KIRA_c7d93648.png","krafton-ai","KRAFTON AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkrafton-ai_91010545.png","",null,"https:\u002F\u002Fgithub.com\u002Fkrafton-ai",[78,82,86,90,94,98],{"name":79,"color":80,"percentage":81},"Python","#3572A5",77.8,{"name":83,"color":84,"percentage":85},"JavaScript","#f1e05a",14.2,{"name":87,"color":88,"percentage":89},"HTML","#e34c26",4.6,{"name":91,"color":92,"percentage":93},"CSS","#663399",2.9,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0.4,{"name":99,"color":100,"percentage":101},"Vue","#41b883",0.1,814,101,"2026-04-10T07:02:53","Apache-2.0","Linux, macOS","未说明",{"notes":109,"python":110,"dependencies":111},"该工具是一个基于 Terminus 2 的 Agent 框架，主要用于评估大模型在终端任务中的表现。运行依赖 Docker 环境（--env docker）或云执行平台（Daytona\u002FRunloop）。通过 'uv run' 命令启动，核心功能包括原生工具调用、多模态图像分析及提示词缓存。具体 Python 版本和硬件需求取决于所调用的大模型提供商（如 Anthropic, OpenAI 等），本地无需加载大型模型权重，因此无明确 GPU 显存要求。","未说明 (需支持 uv 运行)",[112,113,114],"uv","litellm","harbor",[13,116],"其他","2026-03-27T02:49:30.150509","2026-04-10T20:47:27.908291",[],[121,126,131,136,141],{"id":122,"version":123,"summary_zh":124,"released_at":125},189118,"v0.1.48","## 新功能\n\n### Windows 支持\n- KIRA 现已在 Windows 上可用\n- 安装 `.exe` 文件，即可在 Windows 机器上开始使用您的 AI 工作伙伴\n\n## 变更\n\n### 平台兼容性增强\n- **平台特定工具**：引入了适用于 Windows 和 macOS 的文件路径解析及进程管理工具\n- **可执行文件发现**：添加了用于查找 `uv`、`npm` 和 Claude CLI 可执行文件的平台特定逻辑\n- **PATH 处理**：解决了不同平台在 PATH 变量解析上的差异问题\n\n### 服务器进程清理改进\n- **Windows**：通过跟踪 PID 并终止子进程，可靠地清理孤立的 Python 进程\n- **Unix**：简化了进程组管理，避免误杀与端口 8000 无关的进程\n\n### Windows 下的 UTF-8 编码\n- 设置 `PYTHONIOENCODING=utf-8`，以确保 Python 子进程中韩文字符能够正确显示","2026-01-12T06:06:15",{"id":127,"version":128,"summary_zh":129,"released_at":130},189119,"v0.1.47","## 新功能\n\n### 模型选择设置\n  - 在侧边栏新增了“模型”选项卡，用于配置 AI 模型。\n  - 用户现在可以为三个任务层级选择不同的模型：\n    - 简单任务：机器人通话检测、分类等。\n    - 中等任务：记忆管理、摘要生成等。\n    - 复杂任务：核心任务执行。\n  - 可用模型：Sonnet 和 Opus（Haiku 暂时禁用）。\n\n## 变更\n\n### 默认模型配置\n  - 所有模型设置现均默认使用 Sonnet。\n  - 由于 Claude API 存在问题（https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code\u002Fissues\u002F15015），Haiku 选项已被禁用。\n  - 在模型设置界面中添加了警告提示，说明 Haiku 的限制。\n\n### UI 改进\n  - 模型设置界面新增专用保存按钮和状态显示。\n  - 模型设置支持多语言本地化（英语和韩语）。\n  - 改进了警告提示中的链接样式。\n\n### 技术说明\n\n  - 新增环境变量：MODEL_FOR_SIMPLE、MODEL_FOR_MODERATE、MODEL_FOR_COMPLEX。\n  - 对于尚未设置这些变量的现有用户，系统将自动使用 Sonnet 作为默认模型。\n  - 当存在有效凭证时，Vertex AI 模型名称的转换将自动完成。\n\n\u003Cimg width=\"912\" height=\"632\" alt=\"截图 2025-12-22 上午 10:31:49\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fdddc45f5-26b7-42c7-b4fa-57ced2240114\" \u002F>\n","2025-12-22T01:41:41",{"id":132,"version":133,"summary_zh":134,"released_at":135},189120,"v0.1.46","  ## 1. MCP 缓存扩展至所有 MCP 服务器                                                                                                                                                                                   \r\n                                                                                                                                                                                                                             \r\n  ### 将 mcp-cache 扩展至所有 MCP 服务器，以解决 Claude Code 持续存在的上下文溢出问题。                                                                                                                         \r\n                                                                                                                                                                                                                             \r\n  #### 受影响的 MCP 服务器：                                                                                                                                                                                                      \n  - GitLab                                                                                                                                                                                                                   \n  - MS365（Outlook）                                                                                                                                                                                                          \n  - Atlassian（Confluence\u002FJira）                                                                                                                                                                                              \n  - Tableau                                                                                                                                                                                                                  \n  - 计算机使用（Playwright）                                                                                                                                                                                                \n                                                                                                                                                                                                                             \n  ⚠️ 重大变更：mcp-cache 现已成为必需的依赖项。                                                                                                                                                                \n  npm install -g @hapus\u002Fmcp-cache                                                                                                                                                                                            \n                                                                                         ","2025-12-19T07:41:17",{"id":137,"version":138,"summary_zh":139,"released_at":140},189121,"v0.1.42","  🧹 内存清理\n\n  - 新增内存清理技能：使用“清理内存”等指令，可系统性地整理记忆\n  - 防止重复文件创建：在 users\u002F 和 channels\u002F 文件夹中，针对同一用户或频道，避免生成重复文件\n    - 保存前会先根据 email、user_id 或 channel_id 元数据查找是否存在已有的文件\n  - 自动分类优化：能够区分个人资料文件与任务记录，并将其存储到相应的文件夹中\n\n  ✅ 主动确认功能改进\n\n  - 即时拒绝处理：当某项建议被拒绝时，数据库中的状态会立即更新为“已拒绝”\n  - 防止重复建议：在同一频道或线程中提出新建议时，之前待处理的确认请求将自动取消\n  - 搜索范围优化：将待处理确认的搜索范围由24小时缩短至12小时，以获得更相关的结果","2025-12-16T11:36:32",{"id":142,"version":143,"summary_zh":144,"released_at":145},189122,"v0.1.35","# 🚀 KIRA 终于正式上线啦！\n\n这款一直默默在 **KRAFTON** 内部工作的 AI 助手，现在也能在你的桌面上为你效劳了。\n\n## 🎁 本次发布有哪些亮点\n\n我们让 **“安装应用 = 雇佣 AI 助手”** 成为了现实。\n\n* **服务器？** 不需要\n* **云端部署？** 完全没有\n* **终端命令？** 你完全用不着\n\n只需简单安装，输入你的 Slack Token，就可以开始与它对话啦。\n\n---\n\n## ⚠️ 目前仍处于测试阶段\n\n* 多个 AI 模型协同生成回复，因此有时响应会稍显缓慢（它们正在努力工作……）\n* 专为 **韩语** 优化，不过 **英语** 也同样支持\n* 当前仅支持 **Apple Silicon Mac**（Intel 版本即将推出）\n\n---\n\n## 📋 系统要求\n\n* `macOS 10.15+`、`Node.js 18+`\n* 需开通 [Claude Pro 方案](https:\u002F\u002Fwww.anthropic.com\u002Fpricing) 或更高版本\n\n---\n\n## 📖 快速上手\n\n👉 [**入门指南**](https:\u002F\u002Fkira.krafton-ai.com\u002Fgetting-started.html)\n\n---\n\n## 👥 开发团队\n\n* 李康旭 (kangwooklee@krafton.com)\n* 哈拉 (hara@krafton.com)\n* 承镇 (seungjin@krafton.com)\n* 电池虎 (batteryho@krafton.com)\n* 姬静 (gyjung@krafton.com)\n* 游子怡 (swimjiy@krafton.com)\n* 尹 (yun@krafton.com)\n* 基尚 (gisang.lee@krafton.com)\n* 明锡 (enzo@krafton.com)\n\n---\n*由 KRAFTON AI 用心打造*","2025-12-12T09:14:23"]