[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-KoljaB--LocalAIVoiceChat":3,"tool-KoljaB--LocalAIVoiceChat":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",157379,2,"2026-04-15T23:32:42",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":113,"github_topics":114,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":136},8064,"KoljaB\u002FLocalAIVoiceChat","LocalAIVoiceChat","Local AI talk with a custom voice based on Zephyr 7B model. Uses RealtimeSTT with faster_whisper for transcription and RealtimeTTS with Coqui XTTS for synthesis.","LocalAIVoiceChat 是一款能在个人电脑上完全离线运行的实时 AI 语音对话工具。它让用户无需联网，即可与拥有自定义性格和声音的 AI 进行流畅的自然语言交流，有效解决了用户对数据隐私保护及离线场景下智能交互的需求。\n\n该项目特别适合注重隐私的技术爱好者、开发者以及希望本地部署 AI 助手的研究人员使用。虽然普通用户也能体验，但鉴于其目前处于实验阶段且对硬件有一定要求（建议配备约 8GB 显存的 GPU），具备一定技术动手能力的用户能获得更佳的使用体验。\n\nLocalAIVoiceChat 的核心亮点在于其高效的全本地化技术栈：它集成了强大的 Zephyr 7B 大语言模型作为“大脑”，配合 RealtimeSTT（基于 faster_whisper）实现高精度的实时语音转文字，并利用 RealtimeTTS（基于 Coqui XTTS）完成逼真的文本转语音合成。这种组合不仅确保了对话的低延迟和流畅度，还允许用户深度定制 AI 的声音特质。尽管其回答质量尚无法媲美顶尖云端模型，但它为构建私有化、实时的语音交互系统提供了一个极具价值的开源范本。","# Local AI Voice Chat \n\nProvides talk in realtime with AI, completely local on your PC, with customizable AI personality and voice.\n\n> **Hint:** *Anybody interested in state-of-the-art voice solutions please also \u003Cstrong>have a look at [Linguflex](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLinguflex)\u003C\u002Fstrong>. It lets you control your environment by speaking and is one of the most capable and sophisticated open-source assistants currently available.*\n\n> **Note:** If you run into 'General synthesis error: isin() received an invalid combination of arguments' error, this is due to new transformers library introducing an incompatibility to Coqui TTS (see [here](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeTTS\u002Fissues\u002F85)). Please downgrade to an older transformers version: `pip install transformers==4.38.2` or upgrade RealtimeTTS to latest version `pip install realtimetts==0.4.1`.\n\n## About the Project\n\nIntegrates the powerful Zephyr 7B language model with real-time speech-to-text and text-to-speech libraries to create a fast and engaging voicebased local chatbot. \n\nhttps:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalAIVoiceChat\u002Fassets\u002F7604638\u002Fcebacdad-8a57-4a03-bfd1-a469730dda51\n\n> **Hint:** If you run into problems installing llama.cpp please also have a look into my [LocalEmotionalAIVoiceChat project](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalEmotionalAIVoiceChat). It includes emotion-aware realtime text-to-speech output and has multiple LLM provider options. You can also use it with different AI models. \n\n## Tech Stack\n\n- **[llama_cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp)** with Zephyr 7B  \n  - library interface for llamabased language models\n- **[RealtimeSTT](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeSTT)** with faster_whisper  \n  - real-time speech-to-text transcription library\n- **[RealtimeTTS](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeTTS)** with Coqui XTTS  \n  - real-time text-to-speech synthesis library\n\n## Notes\n\nThis software is in an experimental alpha state and does not provide production ready stability. The current XTTS model used for synthesis still has glitches and also Zephyr - while really good for a 7B model - of course can not compete with the answer quality of GPT 4, Claude or Perplexity.\n\nPlease take this as a first attempt to provide an early version of a local realtime chatbot.\n\n### Updates\n\n- Update to Coqui XTTS 2.0 model\n- Bugfix to RealtimeTTS (download of Coqui model did not work properly)\n\n### Prerequisites\n\nYou will need a GPU with around 8 GB VRAM to run this in real-time.\n\n#### For nVidia users\n\n- **NVIDIA CUDA Toolkit 11.8**:\n    - Access the [NVIDIA CUDA Toolkit Archive](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-8-0-download-archive).\n    - Choose version 11.x and follow the instructions for downloading and installation.\n\n- **NVIDIA cuDNN 8.7.0 for CUDA 11.x**:\n    - Navigate to [NVIDIA cuDNN Archive](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive).\n    - Locate and download \"cuDNN v8.7.0 (November 28th, 2022), for CUDA 11.x\".\n    - Follow the provided installation guide.\n\n#### For AMD users\n- **Install ROCm v.5.7.1**\n    - Download [ROCm SDK version 5.7.1](https:\u002F\u002Fwww.amd.com\u002Fen\u002Fdeveloper\u002Fresources\u002Frocm-hub\u002Fhip-sdk.html)\n    - Follow the provided installation guide.\n\n\n- **FFmpeg**:\n\n    Install FFmpeg according to your operating system:\n\n    - **Ubuntu\u002FDebian**:\n        ```shell\n        sudo apt update && sudo apt install ffmpeg\n        ```\n\n    - **Arch Linux**:\n        ```shell\n        sudo pacman -S ffmpeg\n        ```\n\n    - **macOS (Homebrew)**:\n        ```shell\n        brew install ffmpeg\n        ```\n\n    - **Windows (Chocolatey)**:\n        ```shell\n        choco install ffmpeg\n        ```\n\n    - **Windows (Scoop)**:\n        ```shell\n        scoop install ffmpeg\n        ```    \n\n\n### Installation Steps \n\n1. Clone the repository or download the source code package.\n\n2. Install llama.cpp\n    - (for AMD users) Before the next step set env variable `LLAMA_HIPBLAS` value to `on`\n\n    - Official way:\n     ```python\n     pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir --verbose\n     ```\n\n    - If the official installation does not work for you, please install [text-generation-webui](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Ftext-generation-webui), which provides some excellent wheels for a lot of platforms and environments\n\n3. Install realtime libraries\n   - Install the main libraries:\n     ```python\n     pip install RealtimeSTT==0.1.7\n     pip install RealtimeTTS==0.2.7\n     ```\n4. Download zephyr-7b-beta.Q5_K_M.gguf from [here](https:\u002F\u002Fhuggingface.co\u002FTheBloke\u002Fzephyr-7B-beta-GGUF\u002Ftree\u002Fmain). \n   - Open creation_params.json and enter the filepath to the downloaded model into `model_path`.\n   - Adjust n_gpu_layers (0-35, raise if you have more VRAM) and n_threads (number of CPU threads, i recommend not using all available cores but leave some for TTS)\n\n5. If dependency conflicts occur, install specific versions of conflicting libraries:\n     ```python\n     pip install networkx==2.8.8\n     pip install typing_extensions==4.8.0\n     pip install fsspec==2023.6.0\n     pip install imageio==2.31.6\n     pip install numpy==1.24.3\n     pip install requests==2.31.0\n     ```   \n\n## Running the Application\n     python ai_voicetalk_local.py\n\n## Customize\n\n### Change AI personality\n\nOpen chat_params.json to change the talk scenario.\n\n### Change AI Voice\n\n- Open ai_voicetalk_local.py. \n- Find this line: coqui_engine = CoquiEngine(cloning_reference_wav=\"female.wav\", language=\"en\")\n- Change \"female.wav\" to the filename of a wave file (44100 or 22050 Hz mono 16-bit) containing the voice to clone\n\n### Speech end detection\n\nIf the first sentence is transcribed before you get to the second one, raise post_speech_silence_duration on AudioToTextRecorder:\n    ```\n    AudioToTextRecorder(model=\"tiny.en\", language=\"en\", spinner=False, post_speech_silence_duration = 1.5) \n    ```\n    \n## Contributing\n\nContributions to enhance or improve the project are warmly welcomed. Feel free to open a pull request with your proposed changes or fixes.\n\n## License\n\nThe project is under [Coqui Public Model License 1.0.0](https:\u002F\u002Fcoqui.ai\u002Fcpml).\n\nThis license allows only non-commercial use of a machine learning model and its outputs.\n\n\n## Contact\n\nKolja Beigel  \n- Email: [kolja.beigel@web.de](mailto:kolja.beigel@web.de)  \n\nFeel free to reach out for any queries or support related to this project.\n","# 本地AI语音聊天\n\n提供与AI的实时对话功能，完全在您的PC上本地运行，支持自定义AI人格和声音。\n\n> **提示:** *任何对最先进语音解决方案感兴趣的人士也请\u003Cstrong>查看[Linguflex](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLinguflex)\u003C\u002Fstrong>。它允许您通过语音控制环境，是目前功能最强大、最成熟的开源助手之一。*\n\n> **注意:** 如果您遇到“通用合成错误：isin() 接收到无效的参数组合”错误，这是由于新的transformers库引入了与Coqui TTS不兼容的问题（详见[此处](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeTTS\u002Fissues\u002F85)）。请降级到旧版本的transformers：`pip install transformers==4.38.2`，或将RealtimeTTS升级到最新版本：`pip install realtimetts==0.4.1`。\n\n## 关于项目\n\n将强大的Zephyr 7B语言模型与实时语音转文本和文本转语音库集成，打造一个快速且富有吸引力的基于语音的本地聊天机器人。\n\nhttps:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalAIVoiceChat\u002Fassets\u002F7604638\u002Fcebacdad-8a57-4a03-bfd1-a469730dda51\n\n> **提示:** 如果您在安装llama.cpp时遇到问题，请同时查看我的[本地情感AI语音聊天项目](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalEmotionalAIVoiceChat)。该项目包含具备情绪感知的实时文本转语音输出，并提供多种LLM提供商选项。您也可以使用不同的AI模型。\n\n## 技术栈\n\n- **[llama_cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp)** 与 Zephyr 7B  \n  - 基于Llama的语言模型库接口\n- **[RealtimeSTT](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeSTT)** 与 faster_whisper  \n  - 实时语音转文本转录库\n- **[RealtimeTTS](https:\u002F\u002Fgithub.com\u002FKoljaB\u002FRealtimeTTS)** 与 Coqui XTTS  \n  - 实时文本转语音合成库\n\n## 注意事项\n\n本软件处于实验性Alpha阶段，尚未达到生产级别的稳定性。当前用于合成的XTTS模型仍存在一些小瑕疵，而Zephyr虽然作为7B规模的模型表现相当出色，但其回答质量当然无法与GPT-4、Claude或Perplexity相媲美。\n\n请将此视为提供本地实时聊天机器人早期版本的一次尝试。\n\n### 更新\n\n- 升级至Coqui XTTS 2.0模型\n- 修复RealtimeTTS中的一个bug（Coqui模型下载未能正常工作）\n\n### 先决条件\n\n您需要一块配备约8GB显存的GPU才能以实时方式运行此程序。\n\n#### 对于NVIDIA用户\n\n- **NVIDIA CUDA Toolkit 11.8**:\n    - 访问[NVIDIA CUDA Toolkit归档页面](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-8-0-download-archive)。\n    - 选择11.x版本，并按照说明进行下载和安装。\n\n- **NVIDIA cuDNN 8.7.0 for CUDA 11.x**:\n    - 导航至[NVIDIA cuDNN归档页面](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive)。\n    - 找到并下载“cuDNN v8.7.0（2022年11月28日），适用于CUDA 11.x”。\n    - 按照提供的安装指南操作。\n\n#### 对于AMD用户\n- **安装ROCm v.5.7.1**\n    - 下载[ROCm SDK版本5.7.1](https:\u002F\u002Fwww.amd.com\u002Fen\u002Fdeveloper\u002Fresources\u002Frocm-hub\u002Fhip-sdk.html)\n    - 按照提供的安装指南进行操作。\n\n\n- **FFmpeg**:\n\n    根据您的操作系统安装FFmpeg：\n\n    - **Ubuntu\u002FDebian**:\n        ```shell\n        sudo apt update && sudo apt install ffmpeg\n        ```\n\n    - **Arch Linux**:\n        ```shell\n        sudo pacman -S ffmpeg\n        ```\n\n    - **macOS (Homebrew)**:\n        ```shell\n        brew install ffmpeg\n        ```\n\n    - **Windows (Chocolatey)**:\n        ```shell\n        choco install ffmpeg\n        ```\n\n    - **Windows (Scoop)**:\n        ```shell\n        scoop install ffmpeg\n        ```    \n\n\n### 安装步骤 \n\n1. 克隆仓库或下载源代码包。\n\n2. 安装llama.cpp\n    - （对于AMD用户）在下一步之前，将环境变量`LLAMA_HIPBLAS`设置为`on`\n\n    - 官方安装方法：\n     ```python\n     pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir --verbose\n     ```\n\n    - 如果官方安装对您不起作用，请安装[text-generation-webui](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Ftext-generation-webui)，它为许多平台和环境提供了优秀的预编译轮子。\n\n3. 安装实时库\n   - 安装主要库：\n     ```python\n     pip install RealtimeSTT==0.1.7\n     pip install RealtimeTTS==0.2.7\n     ```\n4. 从[这里](https:\u002F\u002Fhuggingface.co\u002FTheBloke\u002Fzephyr-7B-beta-GGUF\u002Ftree\u002Fmain)下载zephyr-7b-beta.Q5_K_M.gguf。\n   - 打开creation_params.json文件，在`model_path`中输入已下载模型的路径。\n   - 调整n_gpu_layers（0–35，若显存更多可适当提高）和n_threads（CPU线程数，建议不要用尽所有核心，留一些给TTS）。\n\n5. 若出现依赖冲突，请安装特定版本的冲突库：\n     ```python\n     pip install networkx==2.8.8\n     pip install typing_extensions==4.8.0\n     pip install fsspec==2023.6.0\n     pip install imageio==2.31.6\n     pip install numpy==1.24.3\n     pip install requests==2.31.0\n     ```   \n\n## 运行应用\n     python ai_voicetalk_local.py\n\n## 自定义\n\n### 更改AI人格\n\n打开chat_params.json文件以更改对话场景。\n\n### 更改AI声音\n\n- 打开ai_voicetalk_local.py文件。\n- 找到这一行：coqui_engine = CoquiEngine(cloning_reference_wav=\"female.wav\", language=\"en\")\n- 将“female.wav”替换为您想要克隆的声音所在的WAV文件名（44100或22050 Hz单声道16位）。\n\n### 语音结束检测\n\n如果第一句话在您说完第二句之前就被转录了，请在AudioToTextRecorder中提高post_speech_silence_duration：\n    ```\n    AudioToTextRecorder(model=\"tiny.en\", language=\"en\", spinner=False, post_speech_silence_duration = 1.5) \n    ```\n    \n## 贡献\n\n我们热烈欢迎有助于增强或改进该项目的贡献。欢迎您提出修改或修复建议，并创建拉取请求。\n\n## 许可证\n\n该项目采用[Coqui公共模型许可证1.0.0](https:\u002F\u002Fcoqui.ai\u002Fcpml)。\n\n该许可证仅允许非商业用途机器学习模型及其输出。\n\n\n## 联系方式\n\nKolja Beigel  \n- 邮箱: [kolja.beigel@web.de](mailto:kolja.beigel@web.de)  \n\n如有关于此项目的任何疑问或需要支持，请随时联系我们。","# LocalAIVoiceChat 快速上手指南\n\nLocalAIVoiceChat 是一个完全在本地运行的实时 AI 语音聊天工具。它集成了 Zephyr 7B 语言模型、RealtimeSTT（语音转文字）和 RealtimeTTS（文字转语音），让你能在自己的电脑上与具有自定义人格和声音的 AI 进行流畅对话。\n\n> **注意**：本项目处于实验性 Alpha 阶段，需要显卡支持以实现实时响应。\n\n## 环境准备\n\n### 系统要求\n- **GPU**: 需要约 **8 GB 显存 (VRAM)** 的显卡以支持实时运行。\n- **操作系统**: Windows, Linux (Ubuntu\u002FDebian\u002FArch), 或 macOS。\n\n### 前置依赖安装\n\n#### 1. GPU 驱动与环境\n根据你的显卡品牌安装相应工具：\n\n*   **NVIDIA 用户**:\n    *   安装 **NVIDIA CUDA Toolkit 11.8** ([下载链接](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-8-0-download-archive))。\n    *   安装 **NVIDIA cuDNN 8.7.0** (对应 CUDA 11.x) ([下载链接](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive))。\n\n*   **AMD 用户**:\n    *   安装 **ROCm v5.7.1** ([下载链接](https:\u002F\u002Fwww.amd.com\u002Fen\u002Fdeveloper\u002Fresources\u002Frocm-hub\u002Fhip-sdk.html))。\n    *   *重要*: 在安装 llama.cpp 前，需设置环境变量 `LLAMA_HIPBLAS=on`。\n\n#### 2. 安装 FFmpeg\n该工具依赖 FFmpeg 处理音频，请根据系统选择以下命令安装：\n\n*   **Ubuntu\u002FDebian**:\n    ```shell\n    sudo apt update && sudo apt install ffmpeg\n    ```\n*   **Arch Linux**:\n    ```shell\n    sudo pacman -S ffmpeg\n    ```\n*   **macOS (Homebrew)**:\n    ```shell\n    brew install ffmpeg\n    ```\n*   **Windows (Chocolatey)**:\n    ```shell\n    choco install ffmpeg\n    ```\n*   **Windows (Scoop)**:\n    ```shell\n    scoop install ffmpeg\n    ```\n\n## 安装步骤\n\n### 1. 获取源码\n克隆仓库或下载源代码包到本地。\n\n### 2. 安装 llama.cpp\n这是运行大语言模型的核心库。\n\n*   **通用安装命令** (推荐先尝试此方法):\n    ```python\n    pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir --verbose\n    ```\n    *(注：如果上述命令失败，建议安装 [text-generation-webui](https:\u002F\u002Fgithub.com\u002Foobabooga\u002Ftext-generation-webui)，它提供了针对多种平台预编译好的 wheel 文件)*\n\n*   **AMD 用户特别步骤**:\n    在执行安装前，请先设置环境变量：\n    ```bash\n    export LLAMA_HIPBLAS=on  # Linux\u002FMac\n    set LLAMA_HIPBLAS=on     # Windows CMD\n    $env:LLAMA_HIPBLAS=\"on\"  # Windows PowerShell\n    ```\n\n### 3. 安装实时语音库\n安装语音识别和合成库的指定版本：\n```python\npip install RealtimeSTT==0.1.7\npip install RealtimeTTS==0.2.7\n```\n\n### 4. 解决依赖冲突 (可选)\n如果遇到依赖冲突错误，请强制安装以下特定版本：\n```python\npip install networkx==2.8.8\npip install typing_extensions==4.8.0\npip install fsspec==2023.6.0\npip install imageio==2.31.6\npip install numpy==1.24.3\npip install requests==2.31.0\n```\n\n### 5. 下载模型并配置\n1.  从 HuggingFace 下载模型文件：[zephyr-7b-beta.Q5_K_M.gguf](https:\u002F\u002Fhuggingface.co\u002FTheBloke\u002Fzephyr-7B-beta-GGUF\u002Ftree\u002Fmain)。\n2.  打开项目目录下的 `creation_params.json` 文件。\n3.  修改 `model_path` 为你刚才下载的模型文件的完整路径。\n4.  (可选) 调整参数：\n    *   `n_gpu_layers`: 0-35 之间，显存越大可设越高。\n    *   `n_threads`: CPU 线程数，建议保留部分核心给 TTS 使用，不要占满所有核心。\n\n> **提示**: 若遇到 `General synthesis error: isin() received an invalid combination of arguments` 错误，请降级 transformers 库：\n> `pip install transformers==4.38.2`\n> 或升级 RealtimeTTS:\n> `pip install realtimetts==0.4.1`\n\n## 基本使用\n\n### 启动应用\n在终端中运行以下命令启动聊天机器人：\n```python\npython ai_voicetalk_local.py\n```\n\n### 自定义配置\n\n**1. 修改 AI 人格**\n编辑 `chat_params.json` 文件，更改对话场景和系统提示词（System Prompt）来定义 AI 的性格。\n\n**2. 克隆自定义声音**\n编辑 `ai_voicetalk_local.py` 文件，找到以下代码行：\n```python\ncoqui_engine = CoquiEngine(cloning_reference_wav=\"female.wav\", language=\"en\")\n```\n将 `\"female.wav\"` 替换为你自己的音频文件路径。\n*   **要求**: WAV 格式，单声道，16-bit，采样率 44100 Hz 或 22050 Hz。\n\n**3. 调整语音结束检测**\n如果 AI 在你还没说完时就打断，可以在代码中找到 `AudioToTextRecorder` 初始化部分，增加 `post_speech_silence_duration` 的值（单位为秒）：\n```python\nAudioToTextRecorder(model=\"tiny.en\", language=\"en\", spinner=False, post_speech_silence_duration = 1.5)\n```","资深开发者李明需要在本地调试代码时，频繁查阅文档并记录思路，但双手正忙于键盘操作，无法中断编程流程去打字查询或做笔记。\n\n### 没有 LocalAIVoiceChat 时\n- **打断心流**：每次遇到技术难点，必须停下敲代码的手，切换窗口打开浏览器搜索，再复制粘贴答案，严重破坏编程专注度。\n- **隐私顾虑**：涉及公司内部未公开的项目逻辑或敏感数据时，不敢使用在线 AI 助手，担心代码泄露到云端服务器。\n- **交互延迟**：传统的语音助手反应迟钝，说完话后要等待数秒才能听到回复，对话节奏拖沓，难以进行流畅的思路碰撞。\n- **声音机械**：现有的本地 TTS 方案声音生硬如机器人，长时间聆听容易产生疲劳感，缺乏自然交流的真实感。\n\n### 使用 LocalAIVoiceChat 后\n- **无缝对话**：李明直接口述问题，LocalAIVoiceChat 利用 faster_whisper 实时转录并调用 Zephyr 7B 模型即时回答，全程无需离开 IDE 界面。\n- **数据本地化**：所有语音识别、大模型推理及语音合成均在本地显卡（8GB VRAM）上完成，确保核心代码逻辑完全不出内网，安心无忧。\n- **实时互动**：得益于 RealtimeSTT 与 RealtimeTTS 的低延迟架构，问答几乎零等待，李明可以像与同事讨论一样快速迭代技术方案。\n- **拟人体验**：集成的 Coqui XTTS 2.0 模型提供了高度自然的定制音色，让长时间的结对编程辅助过程更加轻松愉悦。\n\nLocalAIVoiceChat 将私密的本地算力转化为流畅的语音交互能力，为开发者打造了一个既安全又高效的“口头结对编程”伙伴。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FKoljaB_LocalAIVoiceChat_876228c5.png","KoljaB","Kolja Beigel","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FKoljaB_1688cc4c.png","Open-source developer of robust, high-performance, real-time STT\u002FTTS pipelines. ",null,"kolja.beigel@web.de","LonLigrin","https:\u002F\u002Fwww.youtube.com\u002F@Linguflex","https:\u002F\u002Fgithub.com\u002FKoljaB",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99,{"name":91,"color":92,"percentage":54},"Batchfile","#C1F12E",722,77,"2026-04-14T07:56:12","NOASSERTION",4,"Linux, macOS, Windows","必需。推荐 NVIDIA GPU (需 CUDA Toolkit 11.8, cuDNN 8.7.0) 或 AMD GPU (需 ROCm 5.7.1)。显存需求约 8GB VRAM 以实现实时运行。","未说明",{"notes":102,"python":100,"dependencies":103},"1. 软件处于实验性 Alpha 阶段，稳定性尚未达到生产级别。2. 若遇到 'General synthesis error' 错误，请将 transformers 降级至 4.38.2 版本或升级 RealtimeTTS 至 0.4.1。3. AMD 用户安装 llama.cpp 前需设置环境变量 LLAMA_HIPBLAS=on。4. 语音克隆需使用 44100 或 22050 Hz 的单声道 16 位 WAV 文件。5. 许可证仅允许非商业用途。6. 需手动下载 Zephyr 7B GGUF 模型文件并配置路径。",[104,105,106,107,108,109,110,111,112],"llama-cpp-python","RealtimeSTT==0.1.7","RealtimeTTS==0.2.7","transformers==4.38.2 (或升级 RealtimeTTS 至 0.4.1+)","faster_whisper","Coqui XTTS","FFmpeg","networkx==2.8.8","numpy==1.24.3",[15],[115,116,117],"chatbot","python","realtime","2026-03-27T02:49:30.150509","2026-04-16T16:03:28.674195",[121,126,131],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},36110,"如果不使用 Coqui TTS，该项目允许商业用途吗？","维护者无法提供法律建议，但指出项目使用的 OpenAI Whisper（语音转文本）和 Zephyr 7B 模型均基于 MIT 许可证，允许商业用途。如果您替换为其他文本转语音（TTS）引擎，理论上可以进行商业使用。不过，维护者强烈建议购买 Coqui 的新商业许可证（每年 365 美元），认为其物超所值且模型功能强大。","https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalAIVoiceChat\u002Fissues\u002F5",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},36111,"如何下载 zephyr-7b-beta.Q5_K_M.gguf 模型文件？","请访问 Hugging Face 上的模型页面：https:\u002F\u002Fhuggingface.co\u002FTheBloke\u002Fzephyr-7B-beta-GGUF\u002Fblob\u002Fmain\u002Fzephyr-7b-beta.Q5_K_M.gguf，点击该文件名，然后点击页面上的“Download”（下载）按钮即可获取模型文件。","https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalAIVoiceChat\u002Fissues\u002F10",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},36112,"运行脚本时出现'ValueError: Model path does not exist'错误怎么办？","该错误表示未找到模型文件。请执行以下步骤：\n1. 从此处下载模型：https:\u002F\u002Fhuggingface.co\u002FTheBloke\u002Fzephyr-7B-beta-GGUF\u002Fblob\u002Fmain\u002Fzephyr-7b-beta.Q5_K_M.gguf\n2. 打开项目目录下的 `creation_params.json` 文件。\n3. 找到 `model_path` 字段，将其值修改为您刚才下载的模型文件的完整本地路径。\n4. 保存文件后重新运行脚本。","https:\u002F\u002Fgithub.com\u002FKoljaB\u002FLocalAIVoiceChat\u002Fissues\u002F3",[137],{"id":138,"version":139,"summary_zh":80,"released_at":140},288912,"V0.0.1","2023-11-04T19:41:37"]