[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ggml-org--LlamaBarn":3,"tool-ggml-org--LlamaBarn":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":138},6760,"ggml-org\u002FLlamaBarn","LlamaBarn","A cosy home for your LLMs.","LlamaBarn 是一款专为 macOS 设计的菜单栏应用，旨在让用户轻松在本地运行大型语言模型（LLM）。它解决了以往部署本地 AI 模型配置复杂、资源管理困难以及数据隐私担忧等痛点。通过 LlamaBarn，用户无需繁琐设置，即可一键从内置目录安装适合自身硬件的模型，所有计算均在设备本地完成，确保数据绝不外传。\n\n这款工具特别适合希望在本地安全体验 AI 能力的普通用户，以及需要灵活调用本地模型进行开发测试的开发者、研究人员和设计师。无论是配合 VS Code、Zed 等编辑器，还是连接 Chatbox、Open WebUI 等聊天界面，甚至是编写自定义脚本，LlamaBarn 都能提供无缝支持。\n\n其核心技术亮点在于极致的轻量化与智能化：作为一个仅 12MB 的原生应用，它能根据 Mac 配置自动推荐最优模型及量化版本，并实现“按需加载、闲置卸载”的智能内存管理。基于强大的 llama.cpp 构建，LlamaBarn 提供了一个标准的 OpenAI 兼容接口，让本地模型能像云服务一样被各类工具直接调用，真正将强大的 AI 能力装进用户的菜单栏中。","# LlamaBarn\n\nLlamaBarn is a macOS menu bar app for running local LLMs.\n\n[Watch a 2-minute intro](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7AieF7rZUTc) 📽️\n\n\u003Cbr>\n\n![LlamaBarn](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_LlamaBarn_readme_f92a28105895.png)\n\n\u003Cbr>\n\n## Install\n\nInstall with `brew install --cask llamabarn` or download from [Releases](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Freleases).\n\n## How it works\n\nLlamaBarn runs a local server at `http:\u002F\u002Flocalhost:2276\u002Fv1`.\n\n- **Install models** — from the built-in catalog\n- **Connect any app** — chat UIs, editors, CLI tools, scripts\n- **Models load when requested** — and unload when idle\n\n## Features\n\n- **100% local** — Models run on your device; no data leaves your Mac\n- **Small footprint** — `12 MB` native macOS app\n- **Zero configuration** — models are auto-configured with optimal settings for your Mac\n- **Smart model catalog** — shows what fits your Mac, with quantized fallbacks for what doesn't\n- **Self-contained** — all models and config stored in `~\u002F.llamabarn` (configurable)\n- **Built on llama.cpp** — from the GGML org, developed alongside llama.cpp\n\n## Works with\n\nLlamaBarn works with any OpenAI-compatible client.\n\n- **Chat UIs** — Chatbox, Open WebUI, BoltAI ([instructions](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F40))\n- **Editors** — VS Code, Zed, Xcode ([instructions](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F43))\n- **Editor extensions** — Cline, Continue\n- **CLI tools** — OpenCode ([instructions](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F44)), Claude Code ([instructions](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F45))\n- **Custom scripts** — curl, AI SDK, etc.\n\nYou can also use the built-in WebUI at http:\u002F\u002Flocalhost:2276 while LlamaBarn is running.\n\n## API examples\n\n```sh\n# list installed models\ncurl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fmodels\n```\n\n```sh\n# chat with Gemma 3 4B (assuming it's installed)\ncurl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\"model\": \"gemma-3-4b\", \"messages\": [{\"role\": \"user\", \"content\": \"Hello\"}]}'\n```\n\nReplace `gemma-3-4b` with any model ID from `http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fmodels`.\n\nSee complete API reference in `llama-server` [docs](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp\u002Ftree\u002Fmaster\u002Ftools\u002Fserver#api-endpoints).\n\n## Experimental settings\n\n**Expose to network** — By default, the server is only accessible from your Mac (`localhost`). This option allows connections from other devices on your local network. Only enable this if you understand the security risks.\n\n```sh\n# bind to all interfaces (0.0.0.0)\ndefaults write app.llamabarn.LlamaBarn exposeToNetwork -bool YES\n\n# or bind to a specific IP (e.g., for Tailscale)\ndefaults write app.llamabarn.LlamaBarn exposeToNetwork -string \"100.x.x.x\"\n\n# disable (default)\ndefaults delete app.llamabarn.LlamaBarn exposeToNetwork\n```\n\n## Roadmap\n\n- [ ] Support for adding models outside the built-in catalog\n- [ ] Support for loading multiple models at the same time\n- [ ] Support for multiple configurations per model (e.g., multiple context lengths)\n","# LlamaBarn\n\nLlamaBarn 是一款用于运行本地大模型的 macOS 菜单栏应用。\n\n[观看 2 分钟简介](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7AieF7rZUTc) 📽️\n\n\u003Cbr>\n\n![LlamaBarn](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_LlamaBarn_readme_f92a28105895.png)\n\n\u003Cbr>\n\n## 安装\n\n使用 `brew install --cask llamabarn` 进行安装，或从 [Releases](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Freleases) 下载。\n\n## 工作原理\n\nLlamaBarn 在 `http:\u002F\u002Flocalhost:2276\u002Fv1` 上运行一个本地服务器。\n\n- **安装模型** — 从内置目录中选择\n- **连接任何应用** — 聊天界面、编辑器、命令行工具、脚本等\n- **按需加载模型** — 空闲时自动卸载\n\n## 功能特性\n\n- **100% 本地运行** — 模型在您的设备上运行；数据不会离开您的 Mac\n- **占用空间小** — 原生 macOS 应用，仅需 `12 MB`\n- **零配置** — 模型会根据您的 Mac 自动配置为最佳设置\n- **智能模型目录** — 显示适合您设备的模型，并为不兼容的模型提供量化回退选项\n- **自包含** — 所有模型和配置存储在 `~\u002F.llamabarn` 目录中（可配置）\n- **基于 llama.cpp 构建** — 由 GGML 组织开发，与 llama.cpp 同步更新\n\n## 兼容性\n\nLlamaBarn 可与任何兼容 OpenAI 的客户端配合使用。\n\n- **聊天界面** — Chatbox、Open WebUI、BoltAI（[使用说明](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F40)）\n- **编辑器** — VS Code、Zed、Xcode（[使用说明](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F43)）\n- **编辑器扩展** — Cline、Continue\n- **命令行工具** — OpenCode（[使用说明](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F44)）、Claude Code（[使用说明](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fdiscussions\u002F45)）\n- **自定义脚本** — curl、AI SDK 等\n\nLlamaBarn 运行时，您还可以使用内置的 WebUI，地址为 http:\u002F\u002Flocalhost:2276。\n\n## API 示例\n\n```sh\n# 列出已安装的模型\ncurl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fmodels\n```\n\n```sh\n# 使用 Gemma 3 4B 进行对话（假设已安装）\ncurl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\"model\": \"gemma-3-4b\", \"messages\": [{\"role\": \"user\", \"content\": \"你好\"}]}'\n```\n\n将 `gemma-3-4b` 替换为 `http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fmodels` 中的任意模型 ID。\n\n完整的 API 参考请参阅 `llama-server` 的 [文档](https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp\u002Ftree\u002Fmaster\u002Ftools\u002Fserver#api-endpoints)。\n\n## 实验性设置\n\n**对外暴露网络** — 默认情况下，服务器仅可通过 `localhost` 访问。此选项允许来自本地网络其他设备的连接。请仅在了解相关安全风险的情况下启用。\n\n```sh\n# 绑定到所有接口 (0.0.0.0)\ndefaults write app.llamabarn.LlamaBarn exposeToNetwork -bool YES\n\n# 或绑定到特定 IP（例如用于 Tailscale）\ndefaults write app.llamabarn.LlamaBarn exposeToNetwork -string \"100.x.x.x\"\n\n# 禁用（默认）\ndefaults delete app.llamabarn.LlamaBarn exposeToNetwork\n```\n\n## 路线图\n\n- [ ] 支持从内置目录之外添加模型\n- [ ] 支持同时加载多个模型\n- [ ] 支持为每个模型配置多种参数（例如不同的上下文长度）","# LlamaBarn 快速上手指南\n\nLlamaBarn 是一款专为 macOS 设计的菜单栏应用，旨在让用户轻松在本地运行大型语言模型（LLM）。它基于 `llama.cpp` 构建，提供零配置、全自动的本地 AI 服务。\n\n## 环境准备\n\n- **操作系统**：macOS（支持 Apple Silicon 及 Intel 芯片）\n- **前置依赖**：无特殊依赖，应用为原生打包（仅 12 MB），内置所需运行时环境。\n- **网络要求**：首次安装模型时需要网络连接，后续推理完全离线进行。\n\n## 安装步骤\n\n你可以通过 Homebrew 或直接下载安装包进行安装。\n\n### 方式一：使用 Homebrew（推荐）\n\n```bash\nbrew install --cask llamabarn\n```\n\n### 方式二：手动下载\n\n访问 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Freleases) 下载最新版本的 `.dmg` 文件，拖拽至应用程序文件夹即可。\n\n## 基本使用\n\n安装完成后，启动 LlamaBarn，它会自动在后台运行一个本地服务器（默认地址：`http:\u002F\u002Flocalhost:2276\u002Fv1`）。\n\n### 1. 安装模型\n打开 LlamaBarn 菜单栏图标，从内置的智能目录中选择适合你硬件的模型进行下载。应用会自动根据机型推荐最佳量化版本。\n\n### 2. 调用模型\n模型加载完成后，任何兼容 OpenAI API 的工具均可直接连接使用。\n\n**使用 curl 测试对话：**\n\n```bash\ncurl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\"model\": \"gemma-3-4b\", \"messages\": [{\"role\": \"user\", \"content\": \"Hello\"}]}'\n```\n\n> 注意：请将 `gemma-3-4b` 替换为你实际安装的模型 ID。可通过 `curl http:\u002F\u002Flocalhost:2276\u002Fv1\u002Fmodels` 查看已安装的模型列表。\n\n### 3. 集成开发工具\n- **代码编辑器**：在 VS Code、Zed 或 Xcode 的 AI 插件设置中，将 API Base URL 指向 `http:\u002F\u002Flocalhost:2276\u002Fv1`。\n- **聊天客户端**：在 Chatbox、Open WebUI 等工具中选择\"Custom Provider\"并填入上述地址。\n- **内置网页版**：直接在浏览器访问 `http:\u002F\u002Flocalhost:2276` 即可使用内置的简易 Web 界面。\n\n所有数据均在本地处理，无需担心隐私泄露。","一位 macOS 上的独立开发者希望在 VS Code 中利用本地大模型辅助编写代码，同时严格确保公司源码不上传至云端。\n\n### 没有 LlamaBarn 时\n- **配置门槛高**：需要手动编译 `llama.cpp`、管理 Python 虚拟环境并编写复杂的启动脚本，耗时且容易出错。\n- **资源占用僵化**：本地模型服务一旦启动便常驻内存，即使不写代码也持续占用宝贵的 GPU 显存和 RAM，导致系统卡顿。\n- **模型适配困难**：难以判断当前 Mac 硬件能跑多大的模型，经常因显存不足导致崩溃，缺乏智能的量化版本推荐。\n- **隐私担忧**：若使用云端 API 虽方便但存在代码泄露风险，而自建本地服务又缺乏简便的 OpenAI 兼容接口供编辑器插件调用。\n\n### 使用 LlamaBarn 后\n- **零配置启动**：通过 Homebrew 一键安装，LlamaBarn 自动检测硬件并推荐合适的量化模型，内置目录直接下载即用。\n- **智能资源调度**：模型仅在 VS Code 发起请求时加载，空闲时自动卸载释放内存，让日常办公流畅无阻。\n- **无缝编辑器集成**：提供标准的 `localhost:2276` OpenAI 兼容接口，Continue 或 Cline 等插件无需修改代码即可直连本地模型。\n- **数据绝对安全**：所有推理过程完全在本地完成，代码数据从未离开 Mac，完美满足隐私合规要求。\n\nLlamaBarn 将繁琐的本地大模型部署转化为“安装即忘”的后台服务，让开发者在享受私有化 AI 助力的同时，彻底摆脱环境配置与资源管理的负担。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fggml-org_LlamaBarn_f92a2810.png","ggml-org","ggml","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fggml-org_31b76164.jpg","AI inference at the edge",null,"ggml_org","https:\u002F\u002Fggml.ai","https:\u002F\u002Fgithub.com\u002Fggml-org",[81],{"name":82,"color":83,"percentage":84},"Swift","#F05138",100,1137,56,"2026-04-11T19:46:30","MIT",1,"macOS","未说明（基于 llama.cpp，通常利用 macOS 原生 Metal 加速或 CPU 运行，无需特定 NVIDIA GPU 或 CUDA）","未说明（应用会根据 Mac 配置自动选择适合的量化模型）",{"notes":94,"python":95,"dependencies":96},"这是一个原生 macOS 菜单栏应用（仅 12 MB），通过 Homebrew 或直接下载安装。它内置了智能模型目录，会自动检测硬件并推荐合适的量化模型。所有数据和模型均存储在本地 (~\u002F.llamabarn)，默认仅在本地 localhost:2276 运行，可通过命令行配置暴露给局域网。无需手动配置环境或安装 Python 依赖。","不需要",[97],"llama.cpp (内置)",[14,35,15,13],[100,101,102,103,104],"ai","llama-cpp","llms","macos","swift","2026-03-27T02:49:30.150509","2026-04-12T09:07:39.446336",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},30488,"选择并加载模型后，Web Chat UI 无法运行或没有反应怎么办？","从 0.22 版本开始，服务器在后台运行并按需自动加载模型，不再需要手动加载。如果您遇到此问题：\n1. 请确保升级到最新版本（0.23 或更高），该版本已修复相关显示问题。\n2. 如果使用的是视觉模型（如较大的 Gemma 3 模型）且是在旧版本下载的，可能是模型文件损坏或不兼容。解决方法是删除这些无法正常工作的模型，然后重新下载即可。\n3. 注意：在最新界面中，可能需要在 LlamaBarn 和 WebUI 中分别选择一次模型。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F38",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},30489,"如何配置 LlamaBarn 以允许网络访问（绑定到特定 IP 或所有接口）？","默认情况下服务器仅监听 localhost。您可以通过 macOS 的 `defaults` 命令配置 `exposeToNetwork` 参数来开放网络访问（需在 0.23+ 版本）：\n\n1. 绑定到所有接口 (0.0.0.0)：\n`defaults write app.llamabarn.LlamaBarn exposeToNetwork -bool YES`\n\n2. 绑定到特定 IP（例如用于 Tailscale）：\n`defaults write app.llamabarn.LlamaBarn exposeToNetwork -string \"100.x.x.x\"`\n\n3. 禁用网络访问（恢复默认）：\n`defaults delete app.llamabarn.LlamaBarn exposeToNetwork`\n\n配置完成后重启应用生效。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F17",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},30490,"如何在图形界面中删除已下载的模型？","在早期版本中删除按钮不明显或不可用。请在菜单栏界面中查找模型列表，新版本（0.10.0 之后的更新）已经优化了删除按钮的可见性和对比度（特别是在深色模式下）。直接在模型列表中点击对应的“删除”或“移除”选项即可管理磁盘空间，无需通过 Finder 或命令行操作。如果看不到按钮，请确保已升级到最新版本。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F10",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},30491,"如何加载目录中没有列出的自定义模型或非官方模型？","目前项目正在开发支持任意模型下载的功能（参考 Issue #14 和 #36）。\n临时解决方案或未来计划包括：\n1. 等待 0.25.0 及更高版本，该版本引入了相关提交以支持更多模型来源。\n2. 用户曾建议通过添加“默认模型文件夹”功能，或直接指向本地包含 .gguf 文件的文件夹来加载模型。\n3. 部分用户提到可以通过手动编辑配置文件（.ini）添加模型，但这取决于具体版本的支持情况。建议关注官方发布的更新以获取直接粘贴 HuggingFace 链接或选择本地文件夹的功能。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F14",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},30492,"如何使用存储在外部驱动器或其他路径下的现有 .gguf 模型？","虽然直接导入功能仍在讨论中，但可以通过创建符号链接（symlink）来实现：\n1. 将您的 .llamabarn 目录位置设置在外部驱动器上（例如 `\u002Fpath\u002Fto\u002F.llamabarn`）。\n2. 在主目录创建符号链接指向该位置：`ln -s \u002Fpath\u002Fto\u002F.llamabarn ~\u002F.llamabarn`。\n3. 将现有的模型文件放入该目录，或者在该目录内创建指向其他路径（如 `\u002Fpath\u002Fto\u002Fllama.cpp\u002F`）下模型文件的符号链接。\n这样 LlamaBarn 就能识别并加载这些外部模型文件，而无需重新下载。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F12",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},30493,"如何通过 Homebrew 安装 LlamaBarn？","LlamaBarn 现已支持通过 Homebrew 安装。请在终端运行以下命令：\n`brew install --cask llamabarn`\n\n注意：\n1. 安装脚本已包含架构检查，仅支持 Apple Silicon (ARM64) 架构。如果在 Intel x64 架构的 Mac 上运行，安装程序会报错并阻止安装，因为当前二进制文件不支持 Intel 芯片。\n2. 安装说明已在官方文档中更新。","https:\u002F\u002Fgithub.com\u002Fggml-org\u002FLlamaBarn\u002Fissues\u002F1",[139,144,149,154,159,164,169,174,179,184,189,194,199,204,209,214,219,224,229,234],{"id":140,"version":141,"summary_zh":142,"released_at":143},214776,"0.28.0","- 将Gemma 4模型加入目录：31B、26B-A4B、E4B、E2B\n- 将llama.cpp更新至b8648版本","2026-04-03T15:37:22",{"id":145,"version":146,"summary_zh":147,"released_at":148},214777,"0.27.0","新的模型下载现在会按照 Hugging Face 的标准缓存布局，存储在 ~\u002F.cache\u002Fhuggingface\u002Fhub\u002F 目录下。这意味着由 LlamaBarn 下载的模型也可以被 llama.cpp 以及其他支持 Hugging Face 的工具使用。位于 ~\u002F.llamabarn\u002F 中的现有模型仍可正常使用。","2026-04-01T13:39:43",{"id":150,"version":151,"summary_zh":152,"released_at":153},214778,"0.26.0","- 添加通义千问3.5模型，替换通义千问3\n- 在设置中添加Hugging Face令牌选项\n- 将llama.cpp更新至b8496版本","2026-03-24T13:56:44",{"id":155,"version":156,"summary_zh":157,"released_at":158},214779,"0.25.0","- 添加自定义模型文件夹设置\n- 将 llama.cpp 更新至 b8088","2026-02-18T14:23:28",{"id":160,"version":161,"summary_zh":162,"released_at":163},214780,"0.24.0","- 将设置移至独立窗口\n- 为已安装模型添加上下文长度选项\n- 在鼠标悬停时显示删除和复制模型 ID 的按钮\n- 移除点击加载功能，因为自 0.22 版本起模型已按需加载\n- 将 GLM 4.7 Flash 添加到模型目录\n- 将 llama.cpp 更新至 b7843 版本","2026-01-28T15:46:10",{"id":165,"version":166,"summary_zh":167,"released_at":168},214781,"0.23.0","- 允许将服务器绑定到特定IP地址\n- 将默认空闲休眠时间设置为5分钟\n- 将llama.cpp更新至b7772版本","2026-01-19T08:52:50",{"id":170,"version":171,"summary_zh":172,"released_at":173},214782,"0.22.0","LlamaBarn 现在以路由器模式运行 `llama-server`。该服务会在后台持续运行，并在需要时自动加载模型。您无需再手动选择模型即可使用。此版本还新增了一个可选的“空闲时卸载”设置，可在一段时间无操作后自动将模型从内存中移除。\n\n- 迁移到 llama-server 路由器模式\n- 引入“空闲时卸载”设置，用于内存管理\n- 添加带有指数退避机制的自动下载重试逻辑\n- 增加模型下载失败时的错误报告功能","2026-01-15T13:30:57",{"id":175,"version":176,"summary_zh":177,"released_at":178},214783,"0.21.0","- 更新页眉，将基础 URL 作为独立元素显示\n- 在设置中的上下文长度信息中加入内存预算详情\n- 在模型右键菜单中添加 Hugging Face 链接\n- 移除 --no-mmap 选项以启用内存映射\n- 将 llama.cpp 更新至 b7652 版本\n- 修复 Nemotron KV 缓存占用空间的计算错误","2026-01-07T08:01:27",{"id":180,"version":181,"summary_zh":182,"released_at":183},214784,"0.20.0","- 优化目录菜单布局和导航\n- 以小数百分比显示更精细的下载进度\n- 优化设置菜单的切换逻辑，避免完整重建菜单","2026-01-02T13:14:17",{"id":185,"version":186,"summary_zh":187,"released_at":188},214785,"0.19.0","- 家庭族现在会打开详细视图，而不是就地展开\n- 为模型族添加说明\n- 在目录中以清晰的内存要求显示不兼容的模型\n- 将Qwen3、Qwen3 VL和Ministral 3模型与其推理变体归为一组","2025-12-30T14:15:36",{"id":190,"version":191,"summary_zh":192,"released_at":193},214786,"0.18.0","- Add Q4_K_M quantizations for Devstral 2 models\n- Refactor catalog and model structures for better organization\n- Update llama.cpp to b7569","2025-12-29T13:05:39",{"id":195,"version":196,"summary_zh":197,"released_at":198},214787,"0.17.0","- Add Devstral 2 model family\n- Add Nemotron Nano 3 model family\n- Use xcassets for icon to reduce bundle size\n- Update llama.cpp to b7561","2025-12-28T12:27:18",{"id":200,"version":201,"summary_zh":202,"released_at":203},214788,"0.16.0","- Add Show in Finder button to installed model context menu\n- Always show context length and estimated memory usage in model items\n- Remove memory limit option in favor of automatic safety budget\n- Add expandable info descriptions to settings\n- Fix UI flicker when downloading or cancelling models\n- Update llama.cpp to b7475","2025-12-19T07:56:17",{"id":205,"version":206,"summary_zh":207,"released_at":208},214789,"0.15.0","- Added \"Memory cap\" setting to replace hard-coded logic and allow user control\r\n- Removed confusing right-click button for \"run at max ctx\"\r\n- Renamed \"Context length\" option to \"Context length cap\" and updated labels\r\n- Updated context length display in model metadata  \r\n- Made model deletion immediate for better UX  ","2025-12-17T11:42:45",{"id":210,"version":211,"summary_zh":212,"released_at":213},214790,"0.14.0","- Removed `show quantized` toggle — catalog now prefers full-precision models and falls back to quantized only when full-precision won't run on device\r\n- Added setting to set context length\r\n- Added setting to display estimated memory usage\r\n- Redesigned model items and settings\r\n- Updated icon for better integration with macOS Tahoe\r\n- Updated llama.cpp to b7406","2025-12-16T04:07:01",{"id":215,"version":216,"summary_zh":217,"released_at":218},214791,"0.13.0","- Added Ministral 3 model family\r\n- Added vision support indicator to catalog\r\n- Replaced hover-based delete with right-click delete for installed models\r\n- Added toggle button for quantized models in catalog divider\r\n- Changed default context window from max to 4k\r\n- Improved visual hierarchy with refined colors and font sizes throughout\r\n- Updated app icon to better match menu bar icon\r\n- Updated llama.cpp to b7247","2025-12-04T09:17:22",{"id":220,"version":221,"summary_zh":222,"released_at":223},214792,"0.12.0","- Enable resuming model downloads after network interruptions\r\n- Add default sampling parameters based on model author recommendations\r\n- Add experimental option to expose llama-server to network by binding to 0.0.0.0 -- see issue #17","2025-11-25T08:29:03",{"id":225,"version":226,"summary_zh":227,"released_at":228},214793,"0.11.0","- Show welcome popover on first launch to guide new users\n- Fix app hanging issues by moving file I\u002FO to background queues\n- Remove redundant update check at app launch\n- Make version number clickable to check for updates","2025-11-13T09:45:53",{"id":230,"version":231,"summary_zh":232,"released_at":233},214794,"0.10.0","- Add Qwen3-VL and Qwen3-VL Thinking vision-language model families with automatic mmproj detection\n- Standardize model naming in catalog with activated parameter counts for MoE models (e.g., 30B-A3B)\n- Improve code organization and catalog structure\n- Update llama.cpp to b6942","2025-11-05T13:46:04",{"id":235,"version":236,"summary_zh":237,"released_at":238},214795,"0.9.1","- Fix dock icon briefly appearing on app launch\n- Fix server URL not showing when model name is long","2025-10-29T09:34:55"]