[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mezbaul-h--june":3,"tool-mezbaul-h--june":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":75,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":108,"github_topics":110,"view_count":32,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":126,"updated_at":127,"faqs":128,"releases":164},5071,"mezbaul-h\u002Fjune","june","Local voice chatbot for engaging conversations, powered by Ollama, Hugging Face Transformers, and  Coqui TTS Toolkit","june 是一款运行在本地的语音聊天机器人，旨在为用户提供私密、流畅的对话体验。它巧妙整合了 Ollama（负责语言理解与生成）、Hugging Face Transformers（负责语音识别）以及 Coqui TTS Toolkit（负责语音合成）三大开源技术栈。\n\n在隐私日益重要的今天，june 解决了传统云端语音助手需上传数据至外部服务器的安全隐患。所有交互过程均在用户本地设备完成，确保对话内容完全保密。同时，它提供了灵活的交互模式：既支持纯文本问答，也支持“语音输入 + 语音输出”的全双工对话，甚至允许用户自由组合输入输出形式，满足不同场景需求。\n\n这款工具特别适合注重数据隐私的普通用户、希望本地化部署 AI 助手的开发者，以及想要快速搭建自定义语音交互原型的科研人员。无需复杂的配置，只需简单安装即可通过命令行启动，默认搭载 Llama 3.1 模型与 Whisper 语音识别引擎。若你有特定需求，还可通过 JSON 配置文件轻松调整模型参数或禁用某些功能模块。june 让强大的语音交互能力真正回归个人掌控，是探索本地化 AI 应用的理想起点。","# june\n\n## Local Voice Chatbot: Ollama + HF Transformers + Coqui TTS Toolkit\n\n- [OVERVIEW](#overview)\n- [INSTALLATION](#installation)\n- [USAGE](#usage)\n- [CUSTOMIZATION](#customization)\n- [FAQ](#frequently-asked-questions)\n\n\n## OVERVIEW\n\n[**june**](https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune) is a local voice chatbot that combines the power of Ollama (for language model capabilities), Hugging Face Transformers (for speech recognition), and the Coqui TTS Toolkit (for text-to-speech synthesis). It provides a flexible, privacy-focused solution for voice-assisted interactions on your local machine, ensuring that no data is sent to external servers.\n\n![demo-text-only-interaction](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmezbaul-h_june_readme_c6cc4de9ff46.gif)\n\n### Interaction Modes\n\n- **Text Input\u002FOutput:** Provide text inputs to the assistant and receive text responses.\n- **Voice Input\u002FText Output:** Use your microphone to give voice inputs, and receive text responses from the assistant.\n- **Text Input\u002FAudio Output:** Provide text inputs and receive both text and synthesised audio responses from the assistant.\n- **Voice Input\u002FAudio Output (Default):** Use your microphone for voice inputs, and receive responses in both text and synthesised audio form.\n\n\n## INSTALLATION\n\n### Pre-requisites\n- [**Ollama**](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)\n- [**Python**](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) 3.10 or greater (with _pip_)\n- **Python** development package (e.g. `apt install python3-dev` for Debian) — **only for GNU\u002FLinux**\n- **PortAudio** development package (e.g. `apt install portaudio19-dev` for Debian) — **only for GNU\u002FLinux**\n- **PortAudio** (e.g. `brew install portaudio` using Homebrew) — **only for macOS**\n- [**Microsoft Visual C++**](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F) 14.0 or greater — **only for Windows**\n\n### From Source\n\n#### Method 1: Direct Installation\n\nTo install **june** directly from the GitHub repository:\n\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git@master\n```\n\n#### Method 2: Clone and Install\n\nAlternatively, you can clone the repository and install it locally:\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git\ncd june\npip install .\n```\n\n\n## USAGE\n\nPull the language model (default is `llama3.1:8b-instruct-q4_0`) with Ollama first, if you haven't already:\n\n```shell\nollama pull llama3.1:8b-instruct-q4_0\n```\n\nNext, run the program (with default configuration):\n\n```shell\njune-va\n```\n\nThis will use [llama3.1:8b-instruct-q4_0](https:\u002F\u002Follama.com\u002Flibrary\u002Fllama3.1:8b-instruct-q4_0) for LLM capabilities, [openai\u002Fwhisper-small.en](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fwhisper-small.en) for speech recognition, and `tts_models\u002Fen\u002Fljspeech\u002Fglow-tts` for audio synthesis.\n\nYou can also customize behaviour of the program with a json configuration file:\n\n```shell\njune-va --config path\u002Fto\u002Fconfig.json\n```\n\n> [!NOTE]\n> The configuration file is optional. To learn more about the structure of the config file, see the [Customization](#customization) section.\n\n\n## CUSTOMIZATION\n\nThe application can be customised using a configuration file. The config file must be a JSON file. The default configuration is as follows:\n\n```json\n{\n    \"llm\": {\n        \"disable_chat_history\": false,\n        \"model\": \"llama3.1:8b-instruct-q4_0\"\n    },\n    \"stt\": {\n        \"device\": \"torch device identifier (`cuda` if available; otherwise `cpu`\",\n        \"generation_args\": {\n            \"batch_size\": 8\n        },\n        \"model\": \"openai\u002Fwhisper-small.en\"\n    },\n    \"tts\": {\n        \"device\": \"torch device identifier (`cuda` if available; otherwise `cpu`\",\n        \"model\": \"tts_models\u002Fen\u002Fljspeech\u002Fglow-tts\"\n    }\n}\n```\n\nWhen you use a configuration file, it overrides the default configuration but does not overwrite it. So you can partially modify the configuration if you desire. For instance, if you do not wish to use speech recognition and only want to provide prompts through text, you can disable that by using a config file with the following configuration:\n\n```json\n{\n  \"stt\": null\n}\n```\n\nSimilarly, you can disable the audio synthesiser, or both, to only use the virtual assistant in text mode.\n\nIf you only want to modify the device on which you want to load a particular type of model, without changing the other default attributes of the model, you could use:\n\n```json\n{\n  \"tts\": {\n    \"device\": \"cpu\"\n  }\n}\n```\n\n### Configuration Attributes\n\n#### `llm` - Language Model Configuration\n\n- `llm.device`: Torch device identifier (e.g., `cpu`, `cuda`, `mps`) on which the pipeline will be allocated.\n- `llm.disable_chat_history`: Boolean indicating whether to disable or enable chat history. Enabling chat history will make interactions more dynamic, as the model will have access to previous contexts, but it will consume more processing power. Disabling it will result in less interactive conversations but will use fewer processing resources.\n- `llm.model`: Name of the text-generation model tag on Ollama. Ensure this is a valid model tag that exists on your machine.\n- `llm.system_prompt`: Give a system prompt to the model. If the underlying model does not support a system prompt, an error will be raised.\n\n#### `stt` - Speech-to-Text Model Configuration\n\n- `tts.device`: Torch device identifier (e.g., `cpu`, `cuda`, `mps`) on which the pipeline will be allocated.\n- `stt.generation_args`: Object containing generation arguments accepted by Hugging Face's speech recognition pipeline.\n- `stt.model`: Name of the speech recognition model on Hugging Face. Ensure this is a valid model ID that exists on Hugging Face.\n\n#### `tts` - Text-to-Speech Model Configuration\n\n- `tts.device`: Torch device identifier (e.g., `cpu`, `cuda`, `mps`) on which the pipeline will be allocated.\n- `tts.generation_args`: Object containing generation arguments accepted by Coqui's TTS API.\n- `tts.model`: Name of the text-to-speech model supported by the Coqui's TTS Toolkit. Ensure this is a valid model ID.\n\n\n## Frequently Asked Questions\n\n### Q: How does the voice input work?\n\nAfter seeing the `[system]> Listening for sound...` message, you can speak directly into the microphone. Unlike typical voice assistants, there's no wake command required. Simply start speaking, and the tool will automatically detect and process your voice input. Once you finish speaking, maintain silence for 3 seconds to allow the assistant to process your voice input.\n\n### Q: Can I clone a voice?\n\nMany of the models (e.g., `tts_models\u002Fmultilingual\u002Fmulti-dataset\u002Fxtts_v2`) supported by Coqui's TTS Toolkit support voice cloning. You can use your own speaker profile with a small audio clip (approximately 1 minute for most models). Once you have the clip, you can instruct the assistant to use it with a custom configuration like the following:\n\n```json\n{\n  \"tts\": {\n    \"model\": \"tts_models\u002Fmultilingual\u002Fmulti-dataset\u002Fxtts_v2\",\n    \"generation_args\": {\n      \"language\": \"en\",\n      \"speaker_wav\": \"\u002Fpath\u002Fto\u002Fyour\u002Ftarget\u002Fvoice.wav\"\n    }\n  }\n}\n```\n\n### Q: Can I use a remote Ollama instance with june?\n\nYes, you can easily integrate a remotely hosted Ollama instance with june instead of using a local instance. Here's how to do it:\n1. Set the `OLLAMA_HOST` environment variable to the appropriate URL of your remote Ollama instance.\n2. Run the program as usual.\n\n#### Example:\n\nTo use a remote Ollama instance, you would use a command like this:\n\n```shell\nOLLAMA_HOST=http:\u002F\u002Flocalhost:11434 june-va\n```\n","# 六月\n\n## 本地语音聊天机器人：Ollama + HF Transformers + Coqui TTS 工具包\n\n- [概述](#overview)\n- [安装](#installation)\n- [使用](#usage)\n- [定制化](#customization)\n- [常见问题](#frequently-asked-questions)\n\n\n## 概述\n\n[**june**](https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune) 是一款本地语音聊天机器人，它结合了 Ollama（用于语言模型功能）、Hugging Face Transformers（用于语音识别）以及 Coqui TTS 工具包（用于文本转语音合成）的强大能力。该工具提供了一个灵活且注重隐私的解决方案，可在您的本地机器上实现语音辅助交互，确保所有数据都不会被发送到外部服务器。\n\n![demo-text-only-interaction](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmezbaul-h_june_readme_c6cc4de9ff46.gif)\n\n### 交互模式\n\n- **文本输入\u002F输出：** 向助手提供文本输入，并接收文本回复。\n- **语音输入\u002F文本输出：** 使用麦克风进行语音输入，并从助手那里获得文本回复。\n- **文本输入\u002F音频输出：** 提供文本输入，并同时接收文本和合成音频回复。\n- **语音输入\u002F音频输出（默认）：** 使用麦克风进行语音输入，并以文本和合成音频的形式接收回复。\n\n\n## 安装\n\n### 先决条件\n- [**Ollama**](https:\u002F\u002Fgithub.com\u002Follama\u002Follama)\n- [**Python**](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) 3.10 或更高版本（需包含 _pip_)\n- **Python** 开发包（例如 Debian 系统中的 `apt install python3-dev`）——**仅适用于 GNU\u002FLinux**\n- **PortAudio** 开发包（例如 Debian 系统中的 `apt install portaudio19-dev`）——**仅适用于 GNU\u002FLinux**\n- **PortAudio**（例如使用 Homebrew 的 `brew install portaudio`）——**仅适用于 macOS**\n- [**Microsoft Visual C++**](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F) 14.0 或更高版本——**仅适用于 Windows**\n\n### 从源码安装\n\n#### 方法 1：直接安装\n\n要直接从 GitHub 仓库安装 **june**：\n\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git@master\n```\n\n#### 方法 2：克隆并安装\n\n或者，您也可以克隆仓库并在本地安装：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git\ncd june\npip install .\n```\n\n\n## 使用\n\n如果您尚未拉取语言模型（默认为 `llama3.1:8b-instruct-q4_0`），请先使用 Ollama 进行拉取：\n\n```shell\nollama pull llama3.1:8b-instruct-q4_0\n```\n\n接下来，运行程序（使用默认配置）：\n\n```shell\njune-va\n```\n\n这将使用 [llama3.1:8b-instruct-q4_0](https:\u002F\u002Follama.com\u002Flibrary\u002Fllama3.1:8b-instruct-q4_0) 提供 LLM 功能，[openai\u002Fwhisper-small.en](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fwhisper-small.en) 进行语音识别，以及 `tts_models\u002Fen\u002Fljspeech\u002Fglow-tts` 进行音频合成。\n\n您还可以通过 JSON 配置文件自定义程序的行为：\n\n```shell\njune-va --config path\u002Fto\u002Fconfig.json\n```\n\n> [!NOTE]\n> 配置文件是可选的。有关配置文件结构的更多信息，请参阅[定制化](#customization)部分。\n\n\n## 定制化\n\n应用程序可以通过配置文件进行定制。配置文件必须是 JSON 文件。默认配置如下：\n\n```json\n{\n    \"llm\": {\n        \"disable_chat_history\": false,\n        \"model\": \"llama3.1:8b-instruct-q4_0\"\n    },\n    \"stt\": {\n        \"device\": \"torch 设备标识符（如果可用则为 `cuda`；否则为 `cpu`）\",\n        \"generation_args\": {\n            \"batch_size\": 8\n        },\n        \"model\": \"openai\u002Fwhisper-small.en\"\n    },\n    \"tts\": {\n        \"device\": \"torch 设备标识符（如果可用则为 `cuda`；否则为 `cpu`）\",\n        \"model\": \"tts_models\u002Fen\u002Fljspeech\u002Fglow-tts\"\n    }\n}\n```\n\n当您使用配置文件时，它会覆盖默认配置，但不会完全替换。因此，您可以根据需要部分修改配置。例如，如果您不想使用语音识别功能，而只想通过文本方式提供提示，可以通过以下配置文件来禁用该功能：\n\n```json\n{\n  \"stt\": null\n}\n```\n\n同样地，您也可以禁用音频合成器，或同时禁用两者，从而仅以文本模式使用虚拟助手。\n\n如果您只想修改加载特定类型模型的设备，而不改变该模型的其他默认属性，则可以使用：\n\n```json\n{\n  \"tts\": {\n    \"device\": \"cpu\"\n  }\n}\n```\n\n### 配置属性\n\n#### `llm` - 语言模型配置\n\n- `llm.device`: 将管道分配到的 Torch 设备标识符（例如 `cpu`、`cuda`、`mps`）。\n- `llm.disable_chat_history`: 布尔值，指示是否禁用或启用聊天历史记录。启用聊天历史记录会使交互更加动态，因为模型可以访问之前的上下文，但这会消耗更多的计算资源。禁用后，对话互动性会降低，但所需的计算资源也会减少。\n- `llm.model`: Ollama 上文本生成模型的标签名称。请确保这是您机器上存在的有效模型标签。\n- `llm.system_prompt`: 向模型提供系统提示。如果底层模型不支持系统提示，则会引发错误。\n\n#### `stt` - 语音转文本模型配置\n\n- `tts.device`: 将管道分配到的 Torch 设备标识符（例如 `cpu`、`cuda`、`mps`）。\n- `stt.generation_args`: 包含 Hugging Face 语音识别管道所接受的生成参数的对象。\n- `stt.model`: Hugging Face 上语音识别模型的名称。请确保这是 Hugging Face 上存在的有效模型 ID。\n\n#### `tts` - 文本转语音模型配置\n\n- `tts.device`: 将管道分配到的 Torch 设备标识符（例如 `cpu`、`cuda`、`mps`）。\n- `tts.generation_args`: 包含 Coqui TTS API 所接受的生成参数的对象。\n- `tts.model`: Coqui TTS 工具包支持的文本转语音模型名称。请确保这是有效的模型 ID。\n\n\n## 常见问题\n\n### 问：语音输入是如何工作的？\n\n在看到 `[system]> 正在监听声音...` 的消息后，您可以直接对着麦克风说话。与典型的语音助手不同，这里不需要唤醒词。只需开始说话，工具就会自动检测并处理您的语音输入。说完后，请保持 3 秒钟的静默，以便助手完成对您的语音输入的处理。\n\n### 问：我可以克隆声音吗？\n\nCoqui TTS 工具包支持的许多模型（例如 `tts_models\u002Fmultilingual\u002Fmulti-dataset\u002Fxtts_v2`）都支持声音克隆功能。您可以使用自己的语音档案，配合一段较短的音频片段（大多数模型约为 1 分钟）。准备好音频片段后，您可以通过自定义配置让助手使用该声音，例如：\n\n```json\n{\n  \"tts\": {\n    \"model\": \"tts_models\u002Fmultilingual\u002Fmulti-dataset\u002Fxtts_v2\",\n    \"generation_args\": {\n      \"language\": \"en\",\n      \"speaker_wav\": \"\u002Fpath\u002Fto\u002Fyour\u002Ftarget\u002Fvoice.wav\"\n    }\n  }\n}\n```\n\n### 问：我可以在 june 中使用远程的 Ollama 实例吗？\n\n是的，你可以轻松地将远程托管的 Ollama 实例与 june 集成，而不必使用本地实例。操作方法如下：\n\n1. 将 `OLLAMA_HOST` 环境变量设置为你远程 Ollama 实例的相应 URL。\n2. 按照常规方式运行程序。\n\n#### 示例：\n\n要使用远程 Ollama 实例，可以使用类似如下的命令：\n\n```shell\nOLLAMA_HOST=http:\u002F\u002Flocalhost:11434 june-va\n```","# June 快速上手指南\n\nJune 是一个完全本地运行的语音聊天机器人，结合了 Ollama（大语言模型）、Hugging Face Transformers（语音识别）和 Coqui TTS（语音合成）。所有数据均在本地处理，无需上传至外部服务器，确保隐私安全。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求并安装好前置依赖：\n\n### 核心依赖\n- **Ollama**: 用于运行本地大语言模型。\n- **Python**: 版本需为 3.10 或更高（包含 `pip`）。\n\n### 系统特定依赖\n根据您的操作系统，还需安装以下开发包：\n\n*   **GNU\u002FLinux (Debian\u002FUbuntu 等)**:\n    ```bash\n    sudo apt install python3-dev portaudio19-dev\n    ```\n*   **macOS**:\n    ```bash\n    brew install portaudio\n    ```\n*   **Windows**:\n    安装 [Microsoft Visual C++ Build Tools](https:\u002F\u002Fvisualstudio.microsoft.com\u002Fvisual-cpp-build-tools\u002F) (版本 14.0 或更高)。\n\n> **提示**：国内用户若遇到 Python 包下载缓慢，建议在安装时指定国内镜像源（如清华源）：\n> `pip install ... -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n您可以选择以下任意一种方式进行安装：\n\n### 方法一：直接安装（推荐）\n直接从 GitHub 仓库安装最新正式版：\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git@master\n```\n\n### 方法二：克隆源码安装\n如果您需要修改源码或进行开发：\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune.git\ncd june\npip install .\n```\n\n## 基本使用\n\n### 1. 拉取大语言模型\n首次使用前，需要通过 Ollama 下载默认的对话模型（此处以 `llama3.1` 为例）：\n```shell\nollama pull llama3.1:8b-instruct-q4_0\n```\n> **注**：国内用户若拉取缓慢，可配置 `OLLAMA_HOST` 或使用相关加速代理。\n\n### 2. 启动语音助手\n安装完成并下载模型后，直接在终端运行以下命令即可启动默认模式的语音助手（支持语音输入 + 语音\u002F文字输出）：\n```shell\njune-va\n```\n\n**默认配置说明：**\n- **LLM**: `llama3.1:8b-instruct-q4_0`\n- **语音识别 (STT)**: `openai\u002Fwhisper-small.en`\n- **语音合成 (TTS)**: `tts_models\u002Fen\u002Fljspeech\u002Fglow-tts`\n\n### 3. 交互方式\n启动后看到 `[system]> Listening for sound...` 提示即可开始使用：\n- **语音交互**：直接对着麦克风说话，说完后保持安静约 3 秒，系统将自动处理并回复（支持文字和语音播报）。\n- **纯文本模式**：如需禁用语音功能，可创建配置文件将 `stt` 或 `tts` 设为 `null`，并通过 `--config` 参数加载（详见高级定制文档）。","资深数据分析师李明需要在处理敏感金融报表时，频繁查询本地知识库并记录分析思路，但受限于公司严格的数据保密规定，所有操作必须在离线环境下完成。\n\n### 没有 june 时\n- **隐私风险高**：使用在线语音助手会导致敏感财务数据上传至云端，违反公司合规要求。\n- **交互效率低**：双手忙于整理纸质单据和多屏数据，无法腾出手打字查询信息，只能中断工作去键盘输入。\n- **环境割裂感强**：语音识别、大模型回答和语音合成需要分别部署三个独立工具，配置复杂且难以协同。\n- **响应延迟明显**：网络波动导致在线服务响应慢，打断深度思考的心流状态。\n\n### 使用 june 后\n- **数据绝对安全**：june 完全在本地运行，结合 Ollama 和 Whisper，确保所有语音和文本数据不出本机，完美符合合规要求。\n- **解放双手操作**：李明只需口述“上季度营收趋势如何”，june 即可通过麦克风接收指令并语音播报分析结果，实现真正的边整理边问答。\n- **一体化流畅体验**：june 自动整合了语音识别、逻辑推理与语音合成，一条命令即可启动全链路语音对话，无需手动切换软件。\n- **即时本地响应**：依托本地算力，june 在无网环境下也能毫秒级响应，让分析过程如面对面交谈般自然顺畅。\n\njune 将原本割裂的离线 AI 能力整合为私密的本地语音伴侣，让敏感场景下的自然语言交互变得既安全又高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmezbaul-h_june_32e24d97.png","mezbaul-h",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmezbaul-h_d7a7f65a.png","Birmingham","https:\u002F\u002Fgithub.com\u002Fmezbaul-h",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",97.4,{"name":83,"color":84,"percentage":85},"Shell","#89e051",1.9,{"name":87,"color":88,"percentage":89},"Makefile","#427819",0.7,784,53,"2026-03-30T17:00:43","MIT",4,"Linux, macOS, Windows","非必需。支持 CUDA (NVIDIA)、MPS (Apple Silicon) 或 CPU 模式。具体显存需求取决于所选模型（默认 llama3.1:8b 建议 6GB+），README 未指定最低 CUDA 版本。","未说明（取决于运行的 LLM 和 TTS 模型大小，默认 8B 模型建议 8GB-16GB）",{"notes":99,"python":100,"dependencies":101},"1. Linux 需安装 python3-dev 和 portaudio19-dev；macOS 需通过 Homebrew 安装 portaudio；Windows 需安装 Microsoft Visual C++ 14.0+。\n2. 首次运行前需手动使用 Ollama 拉取模型（默认为 llama3.1:8b-instruct-q4_0）。\n3. 语音输入无需唤醒词，说完后需保持静音 3 秒以触发处理。\n4. 可通过配置文件灵活禁用语音识别 (STT) 或语音合成 (TTS) 模块，仅使用文本模式以降低资源消耗。\n5. 支持连接远程 Ollama 实例。","3.10+",[102,103,104,105,106,107],"Ollama","Hugging Face Transformers","Coqui TTS Toolkit","PyTorch","PortAudio","Microsoft Visual C++ Build Tools (Windows)",[109,35,52,14,15,13],"音频",[111,112,113,114,115,116,117,118,119,120,121,122,123,124,125],"cli-app","command-line-tool","large-language-models","llm","python","speech-to-text","text-to-speech","huggingface","coqui-tts","speech-recognition","whisper","ai","assistant-chat-bots","chatbot","chatbots","2026-03-27T02:49:30.150509","2026-04-07T22:59:38.387893",[129,134,139,144,149,154,159],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},23056,"TTS 语音在结束前停止或对话卡住怎么办？","这是一个已知问题，已在提交 b863c9a5e34d8d42931b43a5cdf8cac43b9b0aa9 中修复。如果遇到问题，请确保更新到包含该修复的最新版本。该问题表现为 TTS 无法读完完整文本，且在首次运行后提示词和 TTS 功能可能会卡住。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F11",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},23057,"运行时出现 'FutureWarning: inputs is deprecated' 或 'attention mask is not set' 警告怎么办？","这些是警告而非错误，不会影响程序的主要功能。它们是由集成的 STT 模型所依赖的 `transformers` 库触发的。请参考 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers\u002Fissues\u002F33498 。一旦 `transformers` 发布新版本修复此问题，警告将会消失。目前可以忽略这些警告继续使用。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F15",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},23058,"Mac OS 上程序启动后卡在 'Listening for sound...' 且无法检测声音怎么办？","这通常是因为默认选择了错误的麦克风设备。可以尝试以下两种方法：\n1. 降低音频检测阈值：打开 `june_va\u002Faudio.py` 文件，将第 32 行左右的 `THRESHOLD` 值改为 500 或更低，然后重新安装应用。\n2. 指定输入设备索引：修改代码中的 `self.pa.open` 部分，添加 `input_device_index` 参数。你可以先运行脚本打印可用设备列表（使用 `p.get_device_info_by_host_api_device_index`），找到正确的麦克风 ID 后填入。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F9",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},23059,"更改配置文件中的 LLM 模型（如改为 llama3.2）时报 'Model file not found' 错误怎么办？","这通常是因为配置文件中填写的模型标签与 Ollama 中实际安装的标签不一致。请运行命令 `ollama list` 查看本地已安装模型的准确标签名称，并确保配置文件中的 `model` 字段与该标签完全匹配。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F17",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},23060,"如何修改静音检测的时间限制（Silence limit）？","目前静音限制（默认为 3 秒）是硬编码在程序中的，暂时无法通过配置文件进行修改。如果需要调整，可能需要直接修改源代码并重新编译。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F16",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},23061,"是否支持将后端服务（Ollama, TTS, STT）部署在远程服务器上？","根据现有讨论，该项目主要设计为本地运行。虽然用户提出了将后端部署在远程服务器的需求，但目前官方尚未明确提供直接通过配置文件指向远程服务的功能说明。如果需要此功能，可能需要自行修改源码以支持远程 API 调用。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F10",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},23062,"是否有基于 Web 的界面（如 Gradio）可以使用？","维护者表示对开发 Gradio Web UI 很感兴趣，并认为这是一个很好的提议。目前已有社区成员表示正在着手开发 Gradio demo，但截至该 Issue 关闭时，官方尚未正式发布内置的 Web 界面版本。建议关注项目后续更新或社区贡献的分支。","https:\u002F\u002Fgithub.com\u002Fmezbaul-h\u002Fjune\u002Fissues\u002F6",[165],{"id":166,"version":167,"summary_zh":168,"released_at":169},136781,"v0.0.1","初始发布。","2024-08-08T20:25:27"]