[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-signerlabs--Klee":3,"similar-signerlabs--Klee":115},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":20,"owner_twitter":19,"owner_website":21,"owner_url":22,"languages":23,"stars":28,"forks":29,"last_commit_at":30,"license":19,"difficulty_score":31,"env_os":32,"env_gpu":33,"env_ram":34,"env_deps":35,"category_tags":42,"github_topics":46,"view_count":31,"oss_zip_url":19,"oss_zip_packed_at":19,"status":56,"created_at":57,"updated_at":58,"faqs":59,"releases":109},3566,"signerlabs\u002FKlee","Klee","A native macOS AI chat app powered by MLX. 100% local inference on Apple Silicon, no cloud required. Built with ShipSwift.","Klee 是一款专为 macOS 打造的原生 AI 聊天应用，依托 Apple Silicon 芯片与 MLX 框架，实现大模型在设备端的 100% 本地运行。它彻底解决了用户对云端依赖、数据隐私泄露以及订阅付费的顾虑，无需注册账号或配置 API 密钥，下载即可立即使用。\n\n这款工具特别适合注重隐私安全的开发者、研究人员及普通 Mac 用户。无论是需要本地代码辅助的程序员，还是希望在不联网环境下处理敏感文档的专业人士，都能从中受益。Klee 不仅支持流畅的文本对话，还具备强大的原生工具调用能力，可直接读写文件、执行终端命令甚至搜索网络；部分模型更支持视觉识别，允许用户上传图片进行分析。\n\n其技术亮点在于极致的轻量化与原生体验：整个应用仅约 75MB，摒弃了 Electron 和 Docker 等重型架构，采用 Swift 原生开发以确保高性能与低资源占用。配合流式响应与“思维链”可视化功能，用户既能实时看到生成过程，又能洞察模型的推理逻辑。只要你的 Mac 配备 M1 及以上芯片并拥有 16GB 以上内存，Klee 就能让你轻松驾驭从 8B 到 122B 参数量级的各类开源大模型，将强","Klee 是一款专为 macOS 打造的原生 AI 聊天应用，依托 Apple Silicon 芯片与 MLX 框架，实现大模型在设备端的 100% 本地运行。它彻底解决了用户对云端依赖、数据隐私泄露以及订阅付费的顾虑，无需注册账号或配置 API 密钥，下载即可立即使用。\n\n这款工具特别适合注重隐私安全的开发者、研究人员及普通 Mac 用户。无论是需要本地代码辅助的程序员，还是希望在不联网环境下处理敏感文档的专业人士，都能从中受益。Klee 不仅支持流畅的文本对话，还具备强大的原生工具调用能力，可直接读写文件、执行终端命令甚至搜索网络；部分模型更支持视觉识别，允许用户上传图片进行分析。\n\n其技术亮点在于极致的轻量化与原生体验：整个应用仅约 75MB，摒弃了 Electron 和 Docker 等重型架构，采用 Swift 原生开发以确保高性能与低资源占用。配合流式响应与“思维链”可视化功能，用户既能实时看到生成过程，又能洞察模型的推理逻辑。只要你的 Mac 配备 M1 及以上芯片并拥有 16GB 以上内存，Klee 就能让你轻松驾驭从 8B 到 122B 参数量级的各类开源大模型，将强大的 AI 能力完全掌控在自己手中。","# Klee\n\nA native macOS AI agent that runs entirely on your Mac. No cloud, no account, no subscription.\n\nKlee uses [MLX](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-swift) to run large language models directly on Apple Silicon, so your conversations never leave your device.\n\n## Features\n\n- **100% local inference** -- your data stays on your Mac\n- **No account or API key required** -- download and start chatting\n- **One-click model download** -- pick a model, Klee handles the rest\n- **Native tool calling** -- the AI can read\u002Fwrite files, search the web, and run shell commands\n- **Vision support** -- attach images to your messages with supported VLM models\n- **Web search** -- search the web via Jina AI (free API key, configurable in sidebar)\n- **Streaming responses** -- tokens appear as they're generated\n- **Inline thinking** -- see the model's reasoning process in a collapsible card\n- **Platform modules** -- extend the AI with native Swift integrations (coming soon)\n- **Lightweight** -- ~75MB native SwiftUI app, no Electron, no Docker, no background services\n\n## System Requirements\n\n| Requirement | Minimum |\n|---|---|\n| macOS | 15.0 (Sequoia) or later |\n| Chip | Apple Silicon (M1 or later) |\n| RAM | 16 GB (see model table below) |\n\nMore RAM unlocks larger, more capable models:\n\n| RAM | Recommended Models |\n|---|---|\n| 16 GB | Qwen 3.5 9B, Qwen 3 8B, Gemma 3 12B, DeepSeek R1 8B |\n| 32 GB | Qwen 3.5 27B, Qwen 3.5 35B (MoE) |\n| 64 GB | Gemma 3 27B, DeepSeek R1 32B |\n| 96 GB+ | Qwen 3.5 122B (MoE) |\n\n## Install\n\nKlee is distributed directly as a signed macOS app (Developer ID), not through the App Store.\n\n1. Download the latest `.dmg` from [Releases](https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Freleases)\n2. Drag **Klee** into your Applications folder\n3. Open Klee -- if macOS shows a Gatekeeper warning, go to **System Settings > Privacy & Security** and click \"Open Anyway\"\n\n## Usage\n\n1. **Open Klee** -- the app detects your system RAM and shows compatible models\n2. **Download a model** -- tap the download button next to any recommended model. Downloads resume automatically if interrupted\n3. **Start chatting** -- select the downloaded model and type your message\n\nThe AI can help you with file operations, web lookups, and shell commands -- just ask naturally.\n\n### Web Search Setup (Optional)\n\nTo enable web search:\n\n1. Get a free API key at [jina.ai](https:\u002F\u002Fjina.ai\u002F?sui=apikey) (no credit card needed)\n2. Click the sidebar toggle button (top-right)\n3. Enable **Web Search** and paste your API key\n4. Ask Klee to search for anything\n\nModels are cached in `~\u002F.klee\u002Fmodels\u002F` and persist across app restarts.\n\n## Supported Models\n\nAll models are 4-bit quantized variants from the [mlx-community](https:\u002F\u002Fhuggingface.co\u002Fmlx-community) on HuggingFace.\n\n| Model | Size | Min RAM | Vision | HuggingFace ID |\n|---|---|---|---|---|\n| Qwen 3.5 9B | ~6 GB | 16 GB | Yes | `mlx-community\u002FQwen3.5-9B-4bit` |\n| Qwen 3 8B | ~4.3 GB | 16 GB | | `mlx-community\u002FQwen3-8B-4bit` |\n| Gemma 3 12B | ~8 GB | 16 GB | | `mlx-community\u002Fgemma-3-12b-it-qat-4bit` |\n| DeepSeek R1 8B | ~4.6 GB | 16 GB | | `mlx-community\u002FDeepSeek-R1-0528-Qwen3-8B-4bit` |\n| Qwen 3.5 27B | ~16 GB | 32 GB | Yes | `mlx-community\u002FQwen3.5-27B-4bit` |\n| Qwen 3.5 35B (MoE) | ~20 GB | 32 GB | Yes | `mlx-community\u002FQwen3.5-35B-A3B-4bit` |\n| Gemma 3 27B | ~17 GB | 64 GB | | `mlx-community\u002Fgemma-3-27b-it-qat-4bit` |\n| DeepSeek R1 32B | ~18 GB | 64 GB | | `mlx-community\u002FDeepSeek-R1-Distill-Qwen-32B-4bit` |\n| Qwen 3.5 122B (MoE) | ~70 GB | 96 GB | Yes | `mlx-community\u002FQwen3.5-122B-A10B-4bit` |\n\n## Built-in Tools\n\nKlee uses native tool calling (mlx-swift-lm ToolCall API) -- no MCP, no Node.js, no external processes.\n\n| Tool | Description |\n|---|---|\n| `file_write` | Create or overwrite files |\n| `file_read` | Read file contents |\n| `file_list` | List directory contents |\n| `file_delete` | Delete files |\n| `web_search` | Search the web (requires Jina API key) |\n| `web_fetch` | Fetch and extract webpage content |\n| `shell_exec` | Execute shell commands (30s timeout) |\n\n## Build from Source\n\nRequires Xcode 16+ and macOS 15.0+.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee.git\ncd Klee\nopen Klee.xcodeproj\n```\n\nSelect the **Klee** scheme, then build and run (Cmd+R). SPM dependency (mlx-swift-lm) will resolve automatically on first build.\n\n## Acknowledgements\n\nKlee was built with components and architecture from [ShipSwift](https:\u002F\u002Fshipswift.app).\n\n## License\n\nMIT\n","# Klee\n\n一款原生 macOS AI 助手，完全在您的 Mac 上运行。无需云端、无需账号、无需订阅。\n\nKlee 使用 [MLX](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-swift) 在 Apple Silicon 芯片上直接运行大型语言模型，因此您的对话数据始终保留在本地设备上。\n\n## 功能特性\n\n- **100% 本地推理** -- 您的数据始终保存在 Mac 上\n- **无需账号或 API 密钥** -- 下载后即可开始聊天\n- **一键下载模型** -- 选择一个模型，剩下的由 Klee 自动处理\n- **原生工具调用** -- AI 可以读写文件、搜索网页并执行 Shell 命令\n- **视觉支持** -- 使用支持的 VLM 模型，可将图片附加到消息中\n- **网络搜索** -- 通过 Jina AI 进行网络搜索（免费 API 密钥，可在侧边栏中配置）\n- **流式响应** -- 生成的 token 会实时显示\n- **内联思考** -- 在可折叠卡片中查看模型的推理过程\n- **平台模块** -- 通过原生 Swift 集成扩展 AI 功能（即将推出）\n- **轻量级** -- 约 75MB 的原生 SwiftUI 应用，无 Electron、无 Docker、无后台服务\n\n## 系统要求\n\n| 要求         | 最低配置       |\n|--------------|----------------|\n| macOS        | 15.0 (Sequoia) 或更高版本 |\n| 芯片         | Apple Silicon (M1 或更高) |\n| 内存         | 16 GB（参见下方模型表格） |\n\n更多的内存可以解锁更大、功能更强的模型：\n\n| 内存   | 推荐模型                     |\n|--------|------------------------------|\n| 16 GB  | Qwen 3.5 9B、Qwen 3 8B、Gemma 3 12B、DeepSeek R1 8B |\n| 32 GB  | Qwen 3.5 27B、Qwen 3.5 35B (MoE) |\n| 64 GB  | Gemma 3 27B、DeepSeek R1 32B |\n| 96 GB+ | Qwen 3.5 122B (MoE)          |\n\n## 安装\n\nKlee 直接以签名的 macOS 应用程序形式分发（开发者 ID），不通过 App Store。\n\n1. 从 [Releases](https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Freleases) 下载最新的 `.dmg` 文件。\n2. 将 **Klee** 拖拽到您的 Applications 文件夹。\n3. 打开 Klee -- 如果 macOS 显示 Gatekeeper 警告，请前往 **系统设置 > 隐私与安全性**，然后点击“仍要打开”。\n\n## 使用方法\n\n1. **打开 Klee** -- 应用会检测您的系统内存，并显示兼容的模型。\n2. **下载模型** -- 点击任意推荐模型旁边的下载按钮。下载中断后会自动恢复。\n3. **开始聊天** -- 选择已下载的模型，输入您的消息。\n\nAI 可以帮助您进行文件操作、网络查询和执行 Shell 命令——只需自然地提出请求即可。\n\n### 网络搜索设置（可选）\n\n要启用网络搜索：\n\n1. 在 [jina.ai](https:\u002F\u002Fjina.ai\u002F?sui=apikey) 获取一个免费的 API 密钥（无需信用卡）。\n2. 点击右上角的侧边栏切换按钮。\n3. 启用 **网络搜索**，并粘贴您的 API 密钥。\n4. 请求 Klee 帮您搜索任何内容。\n\n模型会被缓存到 `~\u002F.klee\u002Fmodels\u002F` 目录下，并在应用重启后仍然保留。\n\n## 支持的模型\n\n所有模型均为 HuggingFace 上 [mlx-community](https:\u002F\u002Fhuggingface.co\u002Fmlx-community) 提供的 4 位量化变体。\n\n| 模型               | 大小     | 最小内存 | 视觉支持 | HuggingFace ID                          |\n|--------------------|----------|----------|----------|-----------------------------------------|\n| Qwen 3.5 9B        | ~6 GB    | 16 GB    | 是       | `mlx-community\u002FQwen3.5-9B-4bit`        |\n| Qwen 3 8B          | ~4.3 GB  | 16 GB    | 否       | `mlx-community\u002FQwen3-8B-4bit`          |\n| Gemma 3 12B        | ~8 GB    | 16 GB    | 否       | `mlx-community\u002Fgemma-3-12b-it-qat-4bit` |\n| DeepSeek R1 8B     | ~4.6 GB  | 16 GB    | 否       | `mlx-community\u002FDeepSeek-R1-0528-Qwen3-8B-4bit` |\n| Qwen 3.5 27B       | ~16 GB   | 32 GB    | 是       | `mlx-community\u002FQwen3.5-27B-4bit`       |\n| Qwen 3.5 35B (MoE) | ~20 GB   | 32 GB    | 是       | `mlx-community\u002FQwen3.5-35B-A3B-4bit`   |\n| Gemma 3 27B        | ~17 GB   | 64 GB    | 否       | `mlx-community\u002Fgemma-3-27b-it-qat-4bit` |\n| DeepSeek R1 32B    | ~18 GB   | 64 GB    | 否       | `mlx-community\u002FDeepSeek-R1-Distill-Qwen-32B-4bit` |\n| Qwen 3.5 122B (MoE)| ~70 GB   | 96 GB    | 是       | `mlx-community\u002FQwen3.5-122B-A10B-4bit` |\n\n## 内置工具\n\nKlee 使用原生工具调用（mlx-swift-lm ToolCall API）-- 无需 MCP、无需 Node.js、无需外部进程。\n\n| 工具           | 描述                                       |\n|----------------|--------------------------------------------|\n| `file_write`   | 创建或覆盖文件                           |\n| `file_read`    | 读取文件内容                             |\n| `file_list`    | 列出目录内容                             |\n| `file_delete`  | 删除文件                                 |\n| `web_search`   | 搜索网页（需要 Jina API 密钥）            |\n| `web_fetch`    | 获取并提取网页内容                       |\n| `shell_exec`   | 执行 Shell 命令（超时时间为 30 秒）     |\n\n## 从源码构建\n\n需要 Xcode 16+ 和 macOS 15.0+。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee.git\ncd Klee\nopen Klee.xcodeproj\n```\n\n选择 **Klee** 方案，然后构建并运行（Cmd+R）。SPM 依赖项（mlx-swift-lm）将在首次构建时自动解析。\n\n## 致谢\n\nKlee 借鉴了 [ShipSwift](https:\u002F\u002Fshipswift.app) 的组件和架构设计。\n\n## 许可证\n\nMIT","# Klee 快速上手指南\n\nKlee 是一款专为 Apple Silicon Mac 设计的原生 AI 助手。它完全在本地运行，无需云端、无需账号、无需订阅，利用 MLX 框架直接在设备上运行大语言模型，确保数据隐私安全。\n\n## 环境准备\n\n在开始之前，请确保您的设备满足以下硬件和系统要求：\n\n*   **操作系统**：macOS 15.0 (Sequoia) 或更高版本\n*   **芯片架构**：Apple Silicon (M1, M2, M3 系列或更新)\n*   **内存 (RAM)**：最低 16 GB\n    *   **16 GB**：推荐运行 Qwen 3.5 9B, Gemma 3 12B 等中小型模型。\n    *   **32 GB+**：可运行 Qwen 3.5 27B\u002F35B 等更大模型。\n    *   **64 GB+**：支持 DeepSeek R1 32B 等高性能模型。\n    *   **96 GB+**：可挑战 Qwen 3.5 122B (MoE) 超大模型。\n*   **前置依赖**：无（应用为独立原生 SwiftUI 构建，无需 Docker、Node.js 或 Python 环境）。\n\n## 安装步骤\n\nKlee 以签名的 macOS 应用程序形式发布，未上架 App Store。请按以下步骤安装：\n\n1.  **下载安装包**\n    访问 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Freleases) 下载最新的 `.dmg` 文件。\n    *(注：若下载速度慢，可尝试使用国内镜像加速工具或代理)*\n\n2.  **移动应用**\n    打开下载的 `.dmg` 文件，将 **Klee** 图标拖拽至 `Applications` (应用程序) 文件夹。\n\n3.  **首次运行授权**\n    双击打开 Klee。由于是开发者 ID 签名而非 App Store 分发，macOS 可能会弹出\"Gatekeeper\"警告。\n    *   前往 **系统设置 (System Settings)** > **隐私与安全性 (Privacy & Security)**。\n    *   在底部找到关于 Klee 的拦截提示，点击 **\"仍要打开\" (Open Anyway)**。\n    *   在弹出的确认框中再次点击“打开”。\n\n## 基本使用\n\n安装完成后，即可开始本地 AI 对话：\n\n1.  **启动并选择模型**\n    打开 Klee，应用会自动检测您的系统内存，并列出兼容的模型列表。\n    点击推荐模型旁边的 **下载按钮**。模型文件将缓存至 `~\u002F.klee\u002Fmodels\u002F`，支持断点续传。\n\n2.  **开始对话**\n    模型下载完成后，选中该模型，直接在输入框中输入自然语言指令。\n    *   **文件操作**：例如“帮我创建一个名为 test.txt 的文件并写入 Hello World\"。\n    *   **Shell 命令**：例如“列出当前目录下的所有 jpg 图片”。\n    *   **多模态交互**：若使用了支持 Vision 的模型（如 Qwen 3.5），可直接拖入图片进行分析。\n\n3.  **配置联网搜索（可选）**\n    若需让 AI 获取实时信息：\n    *   访问 [jina.ai](https:\u002F\u002Fjina.ai\u002F?sui=apikey) 获取免费 API Key（无需信用卡）。\n    *   在 Klee 右上角点击侧边栏开关。\n    *   启用 **Web Search** 并粘贴 API Key。\n    *   现在可以询问如“查询今天最新的科技新闻”等问题。\n\n> **提示**：所有推理过程均在本地完成，响应以流式输出，您甚至可以在折叠卡片中查看模型的思维链（Thinking Process）。","一位 macOS 开发者需要在本地快速分析项目日志并生成修复脚本，同时严格确保敏感代码数据不上传云端。\n\n### 没有 Klee 时\n- **隐私焦虑**：使用云端 AI 服务必须上传包含内部路径和潜在密钥的日志文件，存在数据泄露风险。\n- **流程繁琐**：需先注册账号、获取 API Key 并配置环境变量，无法立即开始工作。\n- **上下文割裂**：AI 生成的脚本只能停留在对话框中，开发者需手动复制、粘贴到终端并调整权限才能运行。\n- **资源占用高**：若尝试本地部署其他开源模型，往往需要配置复杂的 Docker 容器或 Python 环境，消耗大量系统资源。\n\n### 使用 Klee 后\n- **绝对本地化**：Klee 利用 Apple Silicon 芯片进行 100% 本地推理，所有日志分析与代码生成均在设备内完成，数据从未离开 Mac。\n- **开箱即用**：无需注册任何账号或配置密钥，下载应用并一键加载 Qwen 3.5 模型后，即刻开始对话。\n- **原生工具联动**：直接指令 Klee“读取 error.log 并生成修复脚本”，它可自动调用 `file_read` 读取日志，并通过 `file_write` 将脚本写入本地，甚至直接用 `shell_exec` 测试运行。\n- **轻量高效**：作为仅 75MB 的原生 SwiftUI 应用，Klee 无后台服务负担，在 16GB 内存设备上也能流畅运行大模型，不影响其他开发工具。\n\nKlee 将私有数据的安全性与原生系统的自动化能力完美结合，让本地 AI 代理真正成为开发者的贴身助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsignerlabs_Klee_0899fa61.png","signerlabs","Signer Labs","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsignerlabs_61a62327.png","",null,"wei@signerlabs.com","shipswift.app","https:\u002F\u002Fgithub.com\u002Fsignerlabs",[24],{"name":25,"color":26,"percentage":27},"Swift","#F05138",100,1719,138,"2026-04-04T15:29:44",2,"macOS","无需独立 GPU，必须使用 Apple Silicon 芯片（M1 或更高版本），利用统一内存架构运行","最低 16GB；推荐 32GB-96GB+ 以运行更大参数模型（如 35B 或 122B）",{"notes":36,"python":37,"dependencies":38},"该工具是原生 macOS 应用，不支持 Linux 或 Windows。必须使用 Apple Silicon 芯片（M1\u002FM2\u002FM3 等），不支持 Intel Mac。无需安装 Python 环境或 CUDA，模型通过内置机制直接下载并缓存至 ~\u002F.klee\u002Fmodels\u002F。若需启用联网搜索功能，需自行配置 Jina AI 的免费 API Key。","未说明",[39,40,41],"MLX (mlx-swift)","mlx-swift-lm","Xcode 16+",[43,44,45],"插件","开发框架","语言模型",[47,48,49,50,51,52,53,54,55],"app","klee","self-hosted","apple-silicon","llm","mcp","mlx","swift","swiftui","ready","2026-03-27T02:49:30.150509","2026-04-06T07:05:54.685767",[60,65,70,75,80,85,90,95,100,105],{"id":61,"question_zh":62,"answer_zh":63,"source_url":64},16324,"Klee 可以在离线环境下运行吗？","可以。从版本 1.5.1 开始，Klee 已修复了必须联网才能启动的问题。如果您使用的是本地托管的 LLM 模型，现在可以在没有网络连接的情况下正常使用该应用。如果之前遇到无法离线启动的情况，请升级到最新版本。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F17",{"id":66,"question_zh":67,"answer_zh":68,"source_url":69},16325,"加载大型模型时经常超时怎么办？","这个问题通常是因为模型加载时间较长，而默认超时设置过短导致的。该问题已在 Ollama 的新版本和 Klee 1.5.1 版本中修复。如果您仍遇到此问题，请确保您的 Ollama 和 Klee 都已更新到最新版本。对于特别大的模型（如 QWQ 32B），加载可能需要更长时间，新版软件已优化了等待机制。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F12",{"id":71,"question_zh":72,"answer_zh":73,"source_url":74},16326,"如何让 Klee 使用我本地已安装的 Ollama 而不是内置版本？","从 Klee 1.5.0 版本开始，软件会自动检测本地是否已有运行的 Ollama 服务。启动时，Klee 会检查端口 11434：如果检测到该端口有 Ollama 正在运行，它将直接使用现有的 Ollama 实例；如果没有检测到，它才会启动内置的 Ollama。因此，您只需确保在启动 Klee 之前先启动您自定义配置的 Ollama 即可，无需额外设置。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F9",{"id":76,"question_zh":77,"answer_zh":78,"source_url":79},16327,"直接安装 client.exe 后，还需要单独部署 service 吗？","如果您使用的是预打包的安装版（client.exe），则不需要手动部署 service。程序启动时会自动从 AWS 下载必要的服务端组件并在本地运行 Ollama。只有当您是从源代码克隆项目自行构建运行时，才需要参考 README.md 文档单独配置和运行 client 与 service 库（例如通过 conda 环境安装依赖）。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F1",{"id":81,"question_zh":82,"answer_zh":83,"source_url":84},16328,"聊天时出现 'UnicodeEncodeError' 或 'charmap' 错误如何解决？","这是一个编码格式问题，通常发生在 Windows 系统上，原因是系统默认编码无法处理某些 UTF-8 字符。该问题已在 Klee 1.5.0 版本中修复。如果您使用的是旧版本（如 1.4.x），请务必升级到 1.5.0 或更高版本以解决此报错。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F6",{"id":86,"question_zh":87,"answer_zh":88,"source_url":89},16329,"为什么导入 doc\u002Fdocx 文件失败或提示缺少依赖？","早期版本对 docx 文件导入支持不完善，且在某些直接安装的客户端环境中缺少 `docx2txt` 依赖。该问题已在 1.4.5 及后续版本（包括 1.5.0）中修复。现在您可以直接导入 docx 文件，无需手动执行 `pip install docx2txt`。如果您仍在使用旧版安装包，请更新至最新版本。注意：目前主要支持 docx 格式，旧版 doc 格式建议转换为 docx 后再导入。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F2",{"id":91,"question_zh":92,"answer_zh":93,"source_url":94},16330,"删除对话消息时提示 'InvalidRequestError' 或事务错误怎么办？","这是一个已知的事务管理 Bug，表现为删除消息时弹出错误框且操作失败。该问题已在 Klee 1.5.1 版本中修复。请升级您的软件至 1.5.1 或更高版本即可正常删除消息。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F25",{"id":96,"question_zh":97,"answer_zh":98,"source_url":99},16331,"没有网络时如何跳过启动时的更新检查？","在 1.5.1 版本之前，无网络时更新检查会导致启动阻塞。从 1.5.1 版本开始，如果检测到没有网络连接，系统将自动跳过更新检查步骤，无需用户手动干预。此外，新版本还增加了直接打开模型目录的按钮，方便用户管理本地模型。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F15",{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},16332,"滚动长回复时感觉卡顿是正常的吗？","如果在模型流式输出（streaming returns）过程中感到滚动卡顿，这通常不是前端界面问题，而是因为 GPU 显存已被完全占用，导致模型推理速度变慢。当显卡资源紧张时，生成速度和界面响应都会受到影响。尝试关闭其他占用 GPU 的程序，或使用参数量较小的模型可以改善此情况。","https:\u002F\u002Fgithub.com\u002Fsignerlabs\u002FKlee\u002Fissues\u002F7",{"id":106,"question_zh":107,"answer_zh":108,"source_url":89},16333,"Klee 能自动发现并加载我已有的 Ollama 模型吗？","是的。如果您之前运行过 Ollama，Klee 会自动定位 Ollama 存储模型的文件路径并加载这些模型。目前仅支持那些可以通过 Ollama 运行的模型文件。这意味着您无需重新下载模型，只要本地 Ollama 中有该模型，Klee 即可识别并使用。",[110],{"id":111,"version":112,"summary_zh":113,"released_at":114},98680,"v1.0.0","## Klee v1.0.0 — 首次公开发布\n\n一款基于 MLX Swift 的原生 macOS AI 助手。100% 本地推理，无需依赖云端。\n\n### 功能特性\n- **本地大模型推理** — Qwen 3.5、Qwen 3、Gemma 3、DeepSeek R1（4位量化）\n- **原生工具调用** — 文件读写删除、Shell 执行、网页搜索、网页抓取\n- **视觉支持** — 可附加图片并使用多模态大模型（Qwen 3.5）\n- **网页搜索** — 集成 Jina AI（免费 API 密钥）\n- **内联思考过程** — 在可折叠卡片中查看模型的推理步骤\n- **约 21MB 下载包** — 纯 SwiftUI 实现，无 Electron，无 Node.js\n\n### 系统要求\n- macOS 15.0+（Sequoia）\n- Apple Silicon 芯片（M1 或更高版本）\n- 至少 16 GB 内存\n\n### 安装步骤\n1. 下载 `Klee-v1.0.0.zip`\n2. 解压后将 `Klee.app` 拖至“应用程序”文件夹\n3. 打开 Klee，下载模型，开始对话\n\n已使用开发者 ID 签名，并通过 Apple 公司的公证认证。","2026-03-19T10:30:53",[116,127,135,143,151,163],{"id":117,"name":118,"github_repo":119,"description_zh":120,"stars":121,"difficulty_score":122,"last_commit_at":123,"category_tags":124,"status":56},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[44,125,126],"图像","Agent",{"id":128,"name":129,"github_repo":130,"description_zh":131,"stars":132,"difficulty_score":31,"last_commit_at":133,"category_tags":134,"status":56},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[44,126,45],{"id":136,"name":137,"github_repo":138,"description_zh":139,"stars":140,"difficulty_score":31,"last_commit_at":141,"category_tags":142,"status":56},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[44,125,126],{"id":144,"name":145,"github_repo":146,"description_zh":147,"stars":148,"difficulty_score":31,"last_commit_at":149,"category_tags":150,"status":56},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[44,45],{"id":152,"name":153,"github_repo":154,"description_zh":155,"stars":156,"difficulty_score":31,"last_commit_at":157,"category_tags":158,"status":56},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[125,159,160,43,126,161,45,44,162],"数据工具","视频","其他","音频",{"id":164,"name":165,"github_repo":166,"description_zh":167,"stars":168,"difficulty_score":122,"last_commit_at":169,"category_tags":170,"status":56},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[126,125,44,45,161]]