[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-felixrieseberg--clippy":3,"tool-felixrieseberg--clippy":62},[4,18,28,36,45,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":51,"last_commit_at":52,"category_tags":53,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":24,"last_commit_at":60,"category_tags":61,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":51,"env_os":105,"env_gpu":106,"env_ram":107,"env_deps":108,"category_tags":115,"github_topics":116,"view_count":24,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":122,"updated_at":123,"faqs":124,"releases":154},9940,"felixrieseberg\u002Fclippy","clippy","📎 Clippy, now with some AI","Clippy 是一款将现代大语言模型（LLM）与 90 年代经典微软 Office 助手“大眼夹”形象相结合的创新应用。它允许用户在本地电脑上运行各类主流 AI 模型，同时享受复古的用户界面体验，既是对计算历史的致敬，也是一件独特的软件艺术作品。\n\nClippy 解决了本地部署 AI 模型通常面临的配置复杂、门槛较高的问题。通过集成 Llama.cpp 和 node-llama-cpp 技术，它能自动识别并利用硬件加速（如 Metal、CUDA 或 Vulkan），实现“开箱即用”。用户无需繁琐设置，即可一键加载 Google Gemma、Meta Llama、Microsoft Phi 等热门模型，在完全离线、免费且隐私安全的环境中进行对话。此外，它还支持加载自定义 GGUF 格式模型及调整参数，为进阶用户提供灵活性。\n\n这款工具特别适合对怀旧文化感兴趣的技术爱好者、希望快速体验本地大模型的普通用户，以及正在探索如何在 Electron 应用中集成本地 AI 能力的开发者。作为 @electron\u002Fllm 的参考实现，Clippy 不仅展示了技术可行性，更巧妙地将 1997 年的经典","Clippy 是一款将现代大语言模型（LLM）与 90 年代经典微软 Office 助手“大眼夹”形象相结合的创新应用。它允许用户在本地电脑上运行各类主流 AI 模型，同时享受复古的用户界面体验，既是对计算历史的致敬，也是一件独特的软件艺术作品。\n\nClippy 解决了本地部署 AI 模型通常面临的配置复杂、门槛较高的问题。通过集成 Llama.cpp 和 node-llama-cpp 技术，它能自动识别并利用硬件加速（如 Metal、CUDA 或 Vulkan），实现“开箱即用”。用户无需繁琐设置，即可一键加载 Google Gemma、Meta Llama、Microsoft Phi 等热门模型，在完全离线、免费且隐私安全的环境中进行对话。此外，它还支持加载自定义 GGUF 格式模型及调整参数，为进阶用户提供灵活性。\n\n这款工具特别适合对怀旧文化感兴趣的技术爱好者、希望快速体验本地大模型的普通用户，以及正在探索如何在 Electron 应用中集成本地 AI 能力的开发者。作为 @electron\u002Fllm 的参考实现，Clippy 不仅展示了技术可行性，更巧妙地将 1997 年的经典设计与 2025 年的前沿人工智能融合，带来一种奇妙而温馨的交互体验。如果你想在重温童年记忆的同时感受 AI 的魅力，Clippy 会是一个有趣的选择。","# Clippy\n\n[Clippy](https:\u002F\u002Ffelixrieseberg.github.io\u002Fclippy\u002F) let's you run a variety of large language models (LLMs) locally on your computer while sticking with a user interface of the 1990s. Through Llama.cpp, it supports models in the popular GGUF format, which is to say most publicly available models. It comes with one-click installation support for Google's Gemma3, Meta's Llama 3.2, Microsoft's Phi-4, and Qwen's Qwen3.\n\nIt's a love letter and homage to the late, great Clippy, the assistant from Microsoft Office 1997. The character was designed by illustrator Kevan Atteberry, who created more than 15 potential characters for Microsoft's Office Assistants. This app is not affiliated, approved, or supported by Microsoft. Consider it software art. If you don't like it, consider it software satire.\n\nIt is also meant to be a reference implementation of [@electron\u002Fllm](https:\u002F\u002Fgithub.com\u002Felectron\u002Fllm), hoping to help other developers of Electron apps make use of local language models.\n\n## Features\n\n- Simple, familiar, and classic chat interface. Send messages to your models, get a response.\n- Batteries included: No complicated setup. Just open the app and chat away. Thanks to llama.cpp and `node-llama-cpp`, the app will automatically discover the most efficient way to run your models (Metal, CUDA, Vulkan, etc).\n- Custom models, prompts, and parameters: Load your own downloaded models and play with the settings.\n- Offline, local, free: Everything runs on your computers. The only network request Clippy makes is to check for updates (which you can disable).\n\n## Non-Features\n\nCountless little chat apps for local LLMs exist out there. Many of them are likely better - and that's okay. This project isn't trying to be your best chat bot. I'd like you to enjoy a weird mix of nostalgia for 1990s technology paired with one the most magical technologies we can run on our computers in 2025.\n\n## Downloading More Models\n\nClippy supports (thanks to Llama.cpp) most GGUF models. You can find GGUF models in plenty of online sources - I tend to go with models quantized by [TheBloke](https:\u002F\u002Fhuggingface.co\u002Fthebloke) or [Unsloth](https:\u002F\u002Fhuggingface.co\u002Funsloth).\n\n## Acknowledgements\n\nThanks to:\n\n- I am so grateful to Microsoft - not only for everything they've done for Electron, but also for giving us one of the most iconic characters and designs of computing history.\n- [Kevan Atteberry](https:\u002F\u002Fwww.kevanatteberry.com\u002F) for Clippy\n- [Jordan Scales (@jdan)](https:\u002F\u002Fgithub.com\u002Fjdan) for the Windows 98 design\n- [Pooya Parsa (@pi0)](https:\u002F\u002Fgithub.com\u002Fpi0) for being the (as far as I know) person to extract the length of each frame from the Clippy spritesheet.\n- [node-llama-cpp](https:\u002F\u002Fgithub.com\u002Fwithcatai\u002Fnode-llama-cpp) for squeezing llama.cpp into Node.js\n","# Clippy\n\n[Clippy](https:\u002F\u002Ffelixrieseberg.github.io\u002Fclippy\u002F) 让你在自己的电脑上本地运行各种大型语言模型（LLMs），同时保留上世纪90年代的经典用户界面。借助 Llama.cpp，它支持流行的 GGUF 格式模型——也就是说，几乎涵盖了市面上大多数公开可用的模型。此外，它还提供一键安装功能，可轻松部署 Google 的 Gemma3、Meta 的 Llama 3.2、Microsoft 的 Phi-4 以及 Qwen 的 Qwen3。\n\n这款应用是对已故传奇人物 Clippy 的致敬与怀念——这位来自 Microsoft Office 1997 的虚拟助手。Clippy 的形象由插画师 Kevan Atteberry 设计，他曾为 Microsoft Office 助手系列创作了超过 15 种备选角色。需要注意的是，本应用与 Microsoft 并无关联，也未获得其批准或支持。你可以把它看作一种软件艺术作品；如果你不喜欢它，那不妨将其视为一种软件讽刺。\n\n同时，Clippy 也被设计为 [@electron\u002Fllm](https:\u002F\u002Fgithub.com\u002Felectron\u002Fllm) 的参考实现，旨在帮助其他 Electron 应用开发者更便捷地在本地集成语言模型。\n\n## 功能特性\n\n- 简洁、熟悉且经典的聊天界面：向你的模型发送消息，即可获得回复。\n- 开箱即用：无需复杂配置。打开应用就能直接开始对话。得益于 llama.cpp 和 `node-llama-cpp`，应用会自动检测并选择最高效的运行方式（如 Metal、CUDA、Vulkan 等）来执行模型。\n- 自定义模型、提示词与参数：加载你下载的自定义模型，并自由调整各项设置。\n- 离线、本地、免费：所有计算都在你的设备上完成。Clippy 唯一的网络请求仅用于检查更新（该功能也可关闭）。\n\n## 非功能特性\n\n目前市面上已经存在无数用于本地 LLM 的聊天应用，其中许多可能比 Clippy 更加优秀——这完全没问题。本项目并不追求成为“最佳聊天机器人”。相反，我希望你能享受一种奇妙的组合：对上世纪90年代技术的怀旧情怀，与我们如今在2025年所能体验到的最前沿科技之间的碰撞。\n\n## 下载更多模型\n\n借助 Llama.cpp，Clippy 支持绝大多数 GGUF 格式的模型。你可以在众多在线资源中找到这些模型——我个人倾向于使用由 [TheBloke](https:\u002F\u002Fhuggingface.co\u002Fthebloke) 或 [Unsloth](https:\u002F\u002Fhuggingface.co\u002Funsloth) 量化过的版本。\n\n## 致谢\n\n特别感谢以下各位：\n\n- 感谢 Microsoft——不仅因为他们在 Electron 生态系统中做出的巨大贡献，更因为他们为我们带来了计算机历史上最具标志性的角色与设计之一。\n- 感谢 [Kevan Atteberry](https:\u002F\u002Fwww.kevanatteberry.com\u002F) 创造的 Clippy 角色。\n- 感谢 [Jordan Scales (@jdan)](https:\u002F\u002Fgithub.com\u002Fjdan) 提供的 Windows 98 风格设计。\n- 感谢 [Pooya Parsa (@pi0)](https:\u002F\u002Fgithub.com\u002Fpi0)，他是目前已知唯一一位从 Clippy 的精灵图集中提取出每一帧长度的人。\n- 感谢 [node-llama-cpp](https:\u002F\u002Fgithub.com\u002Fwithcatai\u002Fnode-llama-cpp)，将 Llama.cpp 无缝集成到 Node.js 中。","# Clippy 快速上手指南\n\nClippy 是一款致敬微软 Office 97 助手的开源工具，允许你在本地运行大型语言模型（LLM），同时享受复古的 90 年代用户界面。它基于 `llama.cpp` 和 `@electron\u002Fllm` 构建，支持 GGUF 格式的模型，完全离线运行。\n\n## 环境准备\n\n- **操作系统**：\n  - Windows 10\u002F11\n  - macOS 10.15+ (支持 Metal 加速)\n  - Linux (支持 CUDA\u002FVulkan)\n- **硬件要求**：\n  - 建议配备独立显卡（NVIDIA GPU 或 Apple Silicon）以获得最佳推理速度。\n  - 足够的内存以加载所选模型（例如，运行 7B 模型建议至少 8GB-16GB RAM）。\n- **前置依赖**：\n  - 无需手动安装 Python、CUDA 或编译工具。应用内置了 `node-llama-cpp`，会自动检测并利用系统最佳的计算后端（Metal, CUDA, Vulkan 等）。\n\n## 安装步骤\n\nClippy 提供一键安装包，无需通过命令行编译。\n\n1. **访问发布页面**：\n   前往 [Clippy GitHub Releases](https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Freleases) 页面。\n\n2. **下载对应版本**：\n   根据你的操作系统下载最新的安装包：\n   - Windows: `clippy-setup-win-x64.exe`\n   - macOS: `clippy-setup-mac.dmg` (Intel\u002FApple Silicon 通用)\n   - Linux: `clippy-setup-linux-x86_64.AppImage` 或 `.deb`\u002F`.rpm` 包\n\n3. **安装运行**：\n   - **Windows**: 双击下载的 `.exe` 文件并按提示完成安装。\n   - **macOS**: 打开 `.dmg` 文件，将 Clippy 拖入应用程序文件夹。\n     > *注意：首次打开时若提示“无法验证开发者”，请在“系统设置”>“隐私与安全性”中点击“仍要打开”。*\n   - **Linux**: 赋予执行权限并运行：\n     ```bash\n     chmod +x clippy-setup-linux-x86_64.AppImage\n     .\u002Fclippy-setup-linux-x86_64.AppImage\n     ```\n\n## 基本使用\n\n1. **启动应用**：\n   打开安装好的 Clippy 应用，你将看到经典的回形针助手界面。\n\n2. **选择模型**：\n   - 应用预置了一键下载功能，支持 **Google Gemma3**, **Meta Llama 3.2**, **Microsoft Phi-4**, 和 **Qwen Qwen3**。\n   - 在设置或模型选择菜单中，点击你喜欢的模型名称，应用将自动下载对应的 GGUF 量化版本。\n   - *国内用户提示*：如果自动下载速度慢，可手动从 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fmodels?search=gguf) 或 [ModelScope (魔搭)](https:\u002F\u002Fmodelscope.cn\u002Fmodels) 搜索带有 `GGUF` 后缀的模型文件（推荐 TheBloke 或 Unsloth 量化版本），下载后在 Clippy 中选择\"Load Custom Model\"加载本地文件。\n\n3. **开始对话**：\n   - 模型加载完成后，直接在对话框输入文字。\n   - Clippy 会以标志性的动画和语气回复你。\n   - 所有推理过程均在本地完成，无需联网（除首次检查更新外，该功能可在设置中关闭）。\n\n4. **高级调整**（可选）：\n   - 你可以在设置中调整温度（Temperature）、上下文长度等参数，或加载自定义的系统提示词（System Prompt）来改变 Clippy 的性格。","一位注重隐私的独立开发者需要在断网环境下，利用本地大模型快速重构一段遗留的 COBOL 代码逻辑，同时希望工作过程轻松有趣。\n\n### 没有 clippy 时\n- **配置门槛高**：手动部署本地 LLM 环境繁琐，需单独安装 Python、配置 llama.cpp 后端并调试 GPU 加速参数，耗时数小时。\n- **隐私风险大**：若使用在线 API 辅助编程，敏感的业务逻辑代码必须上传至云端，存在数据泄露隐患。\n- **交互体验冷冰冰**：传统命令行或极简 GUI 工具缺乏情感反馈，长时间面对枯燥的代码和终端容易引发疲劳。\n- **模型切换困难**：尝试不同参数量或厂商（如 Llama 3.2 与 Phi-4）的模型时，需要反复修改配置文件并重启服务。\n\n### 使用 clippy 后\n- **开箱即用**：clippy 内置自动检测机制，一键启动即可识别 Metal 或 CUDA 加速，无需任何复杂配置直接开始对话。\n- **完全离线运行**：所有推理过程均在本地完成，除检查更新外无网络请求，确保核心代码资产绝对安全。\n- **怀旧互动解压**：经典的回形针角色以 90 年代风格提供实时建议，将枯燥的重构工作变成一场充满趣味的“人机协作”。\n- **灵活模型管理**：支持直接加载 GGUF 格式模型，可在设置中无缝切换 Google Gemma3 或 Qwen3 等不同模型以对比效果。\n\nclippy 通过将尖端的本地 AI 能力封装在复古有趣的交互界面中，让开发者在保障数据隐私的同时，享受零配置、有温度的智能编码体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelixrieseberg_clippy_e4e6acba.png","felixrieseberg","Felix Rieseberg","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffelixrieseberg_ebc22da8.jpg","🙇 ✨🌳 ","Anthropic","San Francisco","felix@felixrieseberg.com",null,"http:\u002F\u002Fwww.felixrieseberg.com","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg",[85,89,93,97],{"name":86,"color":87,"percentage":88},"TypeScript","#3178c6",92,{"name":90,"color":91,"percentage":92},"Shell","#89e051",6.6,{"name":94,"color":95,"percentage":96},"CSS","#663399",1.3,{"name":98,"color":99,"percentage":100},"HTML","#e34c26",0.1,1248,68,"2026-04-19T13:04:13","NOASSERTION","Windows, macOS, Linux","非必需。支持自动检测并利用 Metal (macOS), CUDA (NVIDIA), 或 Vulkan 进行加速，具体取决于硬件环境。未指定具体显卡型号或显存大小要求。","未说明（取决于所加载的 LLM 模型大小）",{"notes":109,"python":110,"dependencies":111},"该工具是一个基于 Electron 的桌面应用，采用一键安装模式，无需复杂的环境配置。它支持 GGUF 格式的模型（如 Gemma3, Llama 3.2, Phi-4, Qwen3 等）。除了检查更新外，所有运行均在本地离线完成。主要作为 @electron\u002Fllm 的参考实现及致敬微软 Office 助手 Clippy 的软件艺术作品。","未说明（基于 Electron 和 node-llama-cpp，无需用户单独配置 Python 环境）",[112,113,114],"Electron","llama.cpp","node-llama-cpp",[44,13,27,15,14],[117,65,118,119,120,121],"ai","electron","llama","llm","retro","2026-03-27T02:49:30.150509","2026-04-20T10:24:22.001689",[125,130,135,140,145,149],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},44637,"为什么 Gemma 3 模型不遵循系统提示词（System Prompt）？","Gemma 3 系列模型目前不支持系统指令（system instructions），因此它们无法遵循系统提示词。这是模型本身的限制，而非软件故障。如果需要使用系统提示词功能，请尝试其他支持该功能的模型。","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Fissues\u002F46",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},44638,"在 macOS (Intel) 或 Windows 上安装后出现 'NoBinaryFoundError' 或 'Failed to load model' 错误怎么办？","这通常是由于构建脚本问题或二进制文件缺失导致的。维护者已在版本 v0.4.3（部分情况为 v0.4.1）中修复了此问题。请前往发布页面下载并安装最新版本：https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Freleases\u002Ftag\u002Fv0.4.3。如果问题依旧，尝试完全卸载后重新安装到默认磁盘（如 C 盘），避免安装在非系统盘。","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Fissues\u002F26",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},44639,"如何移动 Clippy 助手到屏幕的其他位置？","Clippy 助手通常是可以拖动的。如果发现无法移动，可能是因为切换了模型导致状态卡住。解决方法是执行全新安装（Fresh Install）。有用户反馈，将软件安装在 C 盘（系统盘）而不是其他磁盘（如 E 盘）也能解决拖动失效的问题。","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Fissues\u002F56",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},44640,"启动时报错 'ENOENT: no such file or directory ... utils\\gbnfJson...' 如何解决？","这是由于安装包（.zip 文件）中缺少必要的工具库文件（utils 文件夹下的子目录缺失）导致的。这是一个打包错误，维护者已确认并修复。请务必下载最新的发布版本，不要使用旧的压缩包。如果使用的是旧版本，请更新到最新版以包含完整的文件结构。","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Fissues\u002F14",{"id":146,"question_zh":147,"answer_zh":148,"source_url":139},44641,"切换模型后 Clippy 无法正常工作或无法拖动，该如何处理？","在切换模型（例如切换到 Gemma3 27B 模型）后，可能会出现功能异常或界面卡死的情况。即使切回默认模型也可能无效。最有效的解决方案是卸载当前版本并进行全新安装（Fresh Install）。",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},44642,"是否支持连接本地的 Ollama 实例而不是加载内置模型？","这是一个常见的功能请求。目前该功能被视为重复提议（参考 Issue #9），意味着开发团队已经知晓此需求。建议关注项目后续的更新日志，看是否会在未来版本中添加连接本地 Ollama 实例的设置选项。","https:\u002F\u002Fgithub.com\u002Ffelixrieseberg\u002Fclippy\u002Fissues\u002F25",[155,160,165,170,174,178],{"id":156,"version":157,"summary_zh":158,"released_at":159},352057,"v0.4.3","我们此前仍存在问题：错误的原生二进制文件被打包进构建中，导致在搭载 Intel 处理器的 Mac 上 Clippy 无法正常工作。这个问题现在应该已经彻底修复了。","2025-05-08T14:41:27",{"id":161,"version":162,"summary_zh":163,"released_at":164},352058,"v0.4.2","这个小型更新增加了额外的调试功能。如果没有遇到问题的用户，应该不会察觉到任何变化。","2025-05-08T00:37:34",{"id":166,"version":167,"summary_zh":168,"released_at":169},352059,"v0.4.1","一个小的 bug 修复：Intel 架构的 macOS 版本未包含正确的二进制文件，原因是构建机器运行的是 Apple Silicon 芯片。这个问题现已修复。Windows、Linux 和 macOS 版本现在与 `0.4.0` 完全一致。","2025-05-06T22:18:14",{"id":171,"version":172,"summary_zh":81,"released_at":173},352060,"v0.4.0","2025-05-06T01:17:23",{"id":175,"version":176,"summary_zh":81,"released_at":177},352061,"v0.3.0","2025-05-03T20:48:48",{"id":179,"version":180,"summary_zh":81,"released_at":181},352062,"v0.2.0","2025-05-02T23:24:37"]