[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-apeatling--ollama-voice-mac":3,"tool-apeatling--ollama-voice-mac":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":78,"owner_twitter":74,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":10,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":104,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":114,"updated_at":115,"faqs":116,"releases":152},8232,"apeatling\u002Follama-voice-mac","ollama-voice-mac","Mac compatible Ollama Voice","ollama-voice-mac 是一款专为 macOS 打造的完全离线语音助手。它巧妙结合了 Ollama 运行的 Mistral 7b 大语言模型与 OpenAI 的 Whisper 语音识别技术，让用户无需联网即可通过自然对话与本地 AI 进行交互。\n\n这款工具主要解决了用户对数据隐私的担忧以及在无网络环境下使用智能助手的需求。由于所有计算均在本地完成，用户的语音内容和对话记录不会上传至云端，极大地保障了信息安全。同时，它基于 maudoin 的开源项目进行优化，特别增强了对 Mac 系统（包括 Apple Silicon 芯片）的兼容性，并提供了提升系统语音合成质量的具体指南，让交互体验更加流畅自然。\n\nollama-voice-mac 非常适合注重隐私的技术爱好者、开发者以及希望在本地环境中探索大模型应用的研究人员使用。虽然安装过程需要用户具备基础的命令行操作能力（如配置 Python 环境和 Homebrew），但其开源特性也允许设计师或高级用户根据需求定制多语言支持。其核心亮点在于“完全离线”架构与高质量的本地语音交互能力，为在 Mac 上构建私有化智能助理提供了一个轻量","ollama-voice-mac 是一款专为 macOS 打造的完全离线语音助手。它巧妙结合了 Ollama 运行的 Mistral 7b 大语言模型与 OpenAI 的 Whisper 语音识别技术，让用户无需联网即可通过自然对话与本地 AI 进行交互。\n\n这款工具主要解决了用户对数据隐私的担忧以及在无网络环境下使用智能助手的需求。由于所有计算均在本地完成，用户的语音内容和对话记录不会上传至云端，极大地保障了信息安全。同时，它基于 maudoin 的开源项目进行优化，特别增强了对 Mac 系统（包括 Apple Silicon 芯片）的兼容性，并提供了提升系统语音合成质量的具体指南，让交互体验更加流畅自然。\n\nollama-voice-mac 非常适合注重隐私的技术爱好者、开发者以及希望在本地环境中探索大模型应用的研究人员使用。虽然安装过程需要用户具备基础的命令行操作能力（如配置 Python 环境和 Homebrew），但其开源特性也允许设计师或高级用户根据需求定制多语言支持。其核心亮点在于“完全离线”架构与高质量的本地语音交互能力，为在 Mac 上构建私有化智能助理提供了一个轻量且高效的解决方案。","# ollama-voice-mac\nA completely offline voice assistant using Mistral 7b via Ollama and Whisper speech recognition models. This builds on the [excellent work of maudoin](https:\u002F\u002Fgithub.com\u002Fmaudoin\u002Follama-voice) by adding Mac compatibility with various improvements.\n\nhttps:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fassets\u002F1464705\u002F996abeb7-7e99-451b-8d3b-feb3fecbb82e\n\n## Installing and running\n\n1. Install [Ollama](https:\u002F\u002Follama.ai) on your Mac.\n2. Download the Mistral 7b model using the `ollama pull mistral` command.\n3. Download an [OpenAI Whisper Model](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper\u002Fdiscussions\u002F63#discussioncomment-3798552) (base.en works fine).\n4. Clone this repo somewhere.\n5. Place the Whisper model in a \u002Fwhisper directory in the repo root folder.\n6. Make sure you have [Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fmacos\u002F) and [Pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstallation\u002F) installed.\n7. For Apple silicon support of the PyAudio library you'll need to install [Homebrew](https:\u002F\u002Fbrew.sh) and run `brew install portaudio`.\n8. Run `pip install -r requirements.txt` to install.\n9. Run `python assistant.py` to start the assistant.\n\n## Improving the voice\n\nYou can improve the quality of the voice by downloading a higher quality version. These instructions work on MacOS 14 Sonoma:\n\n1. In System Settings select Accessibility > Spoken Content\n2. Select System Voice and Manage Voices...\n3. For English find \"Zoe (Premium)\" and download it.\n4. Select Zoe (Premium) as your System voice.\n\n## Other languages\nYou can set up support for other languages by editing `assistant.yaml`. Be sure to download a different Whisper model in your language and change the default `modelPath`.\n","# ollama-voice-mac\n一个完全离线的语音助手，通过 Ollama 使用 Mistral 7b 模型，并结合 Whisper 语音识别模型实现。该项目基于 [maudoin 的优秀工作](https:\u002F\u002Fgithub.com\u002Fmaudoin\u002Follama-voice)，增加了对 macOS 的兼容性，并进行了一系列改进。\n\nhttps:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fassets\u002F1464705\u002F996abeb7-7e99-451b-8d3b-feb3fecbb82e\n\n## 安装与运行\n\n1. 在您的 Mac 上安装 [Ollama](https:\u002F\u002Follama.ai)。\n2. 使用 `ollama pull mistral` 命令下载 Mistral 7b 模型。\n3. 下载一个 [OpenAI Whisper 模型](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper\u002Fdiscussions\u002F63#discussioncomment-3798552)（base.en 即可）。\n4. 将此仓库克隆到本地的某个位置。\n5. 将 Whisper 模型放置在仓库根目录下的 `\u002Fwhisper` 文件夹中。\n6. 确保已安装 [Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fmacos\u002F) 和 [Pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstallation\u002F)。\n7. 为了支持 Apple Silicon 架构下的 PyAudio 库，您需要先安装 [Homebrew](https:\u002F\u002Fbrew.sh)，然后运行 `brew install portaudio`。\n8. 运行 `pip install -r requirements.txt` 进行依赖安装。\n9. 运行 `python assistant.py` 启动助手。\n\n## 改进语音质量\n\n您可以通过下载更高品质的语音来提升语音效果。以下步骤适用于 macOS 14 Sonoma：\n\n1. 打开“系统设置”，选择“辅助功能” > “朗读内容”。\n2. 选择“系统语音”并点击“管理语音...”。\n3. 在英语语音中找到“Zoe (Premium)”，并将其下载。\n4. 将“Zoe (Premium)”设置为您的系统语音。\n\n## 其他语言支持\n您可以通过编辑 `assistant.yaml` 文件来添加对其他语言的支持。请确保下载对应语言的 Whisper 模型，并修改默认的 `modelPath` 配置。","# ollama-voice-mac 快速上手指南\n\nollama-voice-mac 是一个完全离线的 Mac 语音助手，基于 Ollama 运行的 Mistral 7b 大模型和 OpenAI Whisper 语音识别模型构建。\n\n## 环境准备\n\n*   **操作系统**：macOS（支持 Apple Silicon 及 Intel 芯片）\n*   **核心依赖**：\n    *   [Ollama](https:\u002F\u002Follama.ai)\n    *   Python 3.x 及 Pip\n    *   [Homebrew](https:\u002F\u002Fbrew.sh)（Apple Silicon 用户必需，用于安装音频库）\n*   **模型文件**：\n    *   Mistral 7b 模型\n    *   OpenAI Whisper 模型（推荐 `base.en`）\n\n## 安装步骤\n\n1.  **安装 Ollama 并拉取模型**\n    访问官网安装 Ollama，然后在终端执行：\n    ```bash\n    ollama pull mistral\n    ```\n\n2.  **准备 Whisper 模型**\n    下载 [OpenAI Whisper Model](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper\u002Fdiscussions\u002F63#discussioncomment-3798552)（例如 `base.en`）。\n\n3.  **克隆项目并配置模型**\n    克隆仓库到本地，并将下载的 Whisper 模型文件放入项目根目录下的 `\u002Fwhisper` 文件夹中：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac.git\n    cd ollama-voice-mac\n    mkdir -p whisper\n    # 将下载的模型文件移动至 whisper 目录\n    mv \u003C下载的文件名> whisper\u002F\n    ```\n\n4.  **安装系统级音频依赖（Apple Silicon 用户必做）**\n    如果您使用的是 M1\u002FM2\u002FM3 等 Apple 芯片，需通过 Homebrew 安装 `portaudio` 以支持 PyAudio：\n    ```bash\n    brew install portaudio\n    ```\n    *(Intel 芯片用户若已安装 PyAudio 可跳过此步)*\n\n5.  **安装 Python 依赖**\n    ```bash\n    pip install -r requirements.txt\n    ```\n    > **提示**：国内用户如遇下载缓慢，可指定清华源加速：\n    > `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 基本使用\n\n完成上述配置后，直接在终端运行以下命令启动助手：\n\n```bash\npython assistant.py\n```\n\n启动后即可通过语音与本地运行的 Mistral 模型进行交互。\n\n### （可选）优化语音质量\n在 macOS 14 Sonoma 及以上版本，可通过系统设置提升语音合成效果：\n1.  打开 **系统设置** > **辅助功能** > **朗读内容**。\n2.  点击 **系统语音** > **管理语音**。\n3.  找到并下载 **\"Zoe (Premium)\"**（英文）。\n4.  将其选为默认系统语音。\n\n### （可选）支持其他语言\n编辑项目根目录下的 `assistant.yaml` 文件，修改 `modelPath` 指向对应语言的 Whisper 模型即可支持多语言识别。","资深数据科学家李明在实验室处理敏感医疗数据时，需要频繁记录实验观察并查询本地知识库，但受限于严格的离线安全规定，无法使用任何云端 AI 服务。\n\n### 没有 ollama-voice-mac 时\n- **操作打断心流**：双手忙于操作显微镜或调试代码，必须停下工作手动打字记录灵感或查询文档，严重打断科研思路。\n- **云端隐私风险**：现有的语音助手均需联网，将敏感的未公开医疗数据上传至第三方服务器，违反实验室的数据合规红线。\n- **响应延迟高昂**：依赖网络请求导致语音识别和回答有明显延迟，在快节奏的实验记录中显得笨拙且低效。\n- **环境适配困难**：通用语音工具对专业术语识别率低，且难以在 macOS 上无缝集成本地部署的大模型（如 Mistral 7b）。\n\n### 使用 ollama-voice-mac 后\n- **纯语音流畅交互**：李明只需口述指令，ollama-voice-mac 即可通过 Whisper 精准识别并调用本地 Mistral 7b 模型回答，全程无需动手，保持实验专注度。\n- **数据绝对安全**：所有语音识别与大模型推理均在 Mac 本地离线完成，数据不出设备，完美满足医疗数据的隐私合规要求。\n- **即时零延迟反馈**：得益于本地算力加速，从说话到获得专业解答几乎无感知延迟，实现了真正的“即问即答”。\n- **深度定制优化**：通过配置 `assistant.yaml` 并下载高质量的 \"Zoe (Premium)\" 系统语音，ollama-voice-mac 不仅能听懂医学专有名词，还能用自然流畅的语音播报结果。\n\nollama-voice-mac 让开发者在严格受限的离线环境中，也能拥有既保护隐私又高效智能的本地语音助手体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fapeatling_ollama-voice-mac_82a5184f.png","apeatling","Andy Peatling","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fapeatling_3e3a3723.jpg","Working on bymiles.ai. Ex-product engineering lead at Automattic Inc.",null,"Vancouver, BC","apeatling.com","https:\u002F\u002Fgithub.com\u002Fapeatling",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,517,66,"2026-04-08T16:45:07","AGPL-3.0","macOS","未说明（依赖 Ollama 后端，Apple Silicon 通过 Homebrew 安装 portaudio 支持）","未说明（运行 Mistral 7b 模型通常建议 8GB-16GB+）",{"notes":95,"python":96,"dependencies":97},"仅支持 macOS 系统。需预先安装 Ollama 并拉取 Mistral 7b 模型。对于 Apple Silicon 芯片，必须通过 Homebrew 安装 portaudio 库以支持 PyAudio。语音识别需下载 OpenAI Whisper 模型文件至项目目录。可通过 macOS 系统设置下载'Zoe (Premium)'语音包提升输出音质。支持通过配置文件切换其他语言及对应的 Whisper 模型。","未说明（需安装 Python 和 Pip）",[98,99,100,101],"ollama","openai-whisper","PyAudio","portaudio",[15,35,103,13,14],"音频",[105,106,107,108,109,110,98,111,112,113],"ai","assistant","chatbot","llm","macos","mistral","speech-recognition","voice","whisper","2026-03-27T02:49:30.150509","2026-04-17T09:55:48.767118",[117,122,127,132,137,142,147],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},36847,"在 macOS 上运行时报错 'NameError: name 'objc' is not defined' 或 TTS 语音合成失败怎么办？","这通常是由于 Python 版本（特别是 3.12）与 pyObjC 库的兼容性问题导致的。解决方案有两种：\n1. **推荐方案**：降级 Python 版本至 3.9 或 3.10，并使用以下特定版本的依赖包：\n   torch==2.2.2\n   torchvision==0.17.2\n   torchaudio==2.2.2\n   pyttsx3==2.90\n   blobfile==2.1.1\n   openai==1.7.0\n   Wave==0.0.2\n   PyAudio==0.2.14\n   PyYAML==6.0.1\n   pygame==2.5.2\n   soundfile==0.12.1\n   pyObjC==9.0.1\n   openai-whisper @ git+https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper.git@ba3f3cd54b0e5b8ce1ab3de13e32122d0d5f98ab\n2. **临时方案**：尝试安装 `py3-tts` 替代 `pyttsx3`，命令为 `pip install py3-tts`。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F14",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},36848,"程序启动后显示问候语立即断开连接，或者窗口打开后立刻关闭怎么办？","这通常是因为缺少必要的 TTS 依赖包。请尝试运行以下命令安装缺失的组件：\npip install py3-tts\n安装完成后重新启动助手即可解决大部分立即退出的问题。如果使用的是 Apple M1\u002FM2\u002FM3 芯片，此方法尤为有效。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F8",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},36849,"在 M3 MacBook 上运行时出现 'Segmentation fault' (段错误) 如何解决？","这是一个已知的兼容性 Bug，维护者已经修复。请执行以下步骤：\n1. 拉取项目的最新代码：`git pull`\n2. 重新安装依赖要求：`pip install -r requirements.txt`\n更新后问题应当得到解决。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F5",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},36850,"在 M3 芯片 Mac 上执行 'pip install' 时遇到编译器错误 (如 '-Werror,-Wuninitialized') 怎么办？","这是由于较新版本的 pyObjC 与 M3 芯片及特定编译器设置存在兼容性问题。最有效的解决方法是降低 Python 版本和 pyObjC 版本：\n1. 使用 Python 3.9 创建虚拟环境。\n2. 在 `requirements.txt` 中指定 `pyObjC==9.0.1` (不要使用更新的 10.x 版本)。\n3. 重新安装依赖。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F3",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},36851,"程序启动后无响应，或者按住空格键释放后程序立即关闭怎么办？","这通常也是由于缺少 `py3-tts` 包引起的。请确保已安装该依赖：\npip install py3-tts\n如果问题依旧，请检查是否使用了推荐的 Python 版本 (3.9 或 3.10)，因为 Python 3.12 可能存在兼容性导致的不稳定。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F6",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},36852,"在 Mac M1\u002FM2 上拉取模型时出现 'dial tcp: lookup registry.ollama.ai: no such host' DNS 错误怎么办？","这表明 DNS 解析失败，并非项目本身的 Bug。请尝试以下步骤：\n1. 刷新本地 DNS 缓存和浏览器缓存。\n2. 更改系统的 DNS 服务器设置为公共 DNS，例如 Google (8.8.8.8), Cloudflare (1.1.1.1), 或 Quad9。\n3. 确认网络连接正常后重试 `ollama pull` 命令。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F1",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},36853,"使用 Python 3.9.6 或其他旧版本启动时界面闪退且控制台仅显示警告信息怎么办？","这可能是特定 Python 小版本的环境问题。建议切换到稍新的稳定版本，例如 Python 3.10.14。\n操作步骤：\n1. 安装 Python 3.10.x。\n2. 创建新的虚拟环境并重新安装项目依赖。\n许多用户反馈切换到 Python 3.10 后解决了闪退问题。","https:\u002F\u002Fgithub.com\u002Fapeatling\u002Follama-voice-mac\u002Fissues\u002F11",[]]