[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nazdridoy--kokoro-tts":3,"tool-nazdridoy--kokoro-tts":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},5908,"ChatTTS","2noise\u002FChatTTS","ChatTTS 是一款专为日常对话场景打造的生成式语音模型，特别适用于大语言模型助手等交互式应用。它主要解决了传统文本转语音（TTS）技术在对话中缺乏自然感、情感表达单一以及难以处理停顿、笑声等细微语气的问题，让机器生成的语音听起来更像真人在聊天。\n\n这款工具非常适合开发者、研究人员以及希望为应用增添自然语音交互功能的设计师使用。普通用户也可以通过社区开发的衍生产品体验其能力。ChatTTS 的核心亮点在于其对对话任务的深度优化：它不仅支持中英文双语，还能精准控制韵律细节，自动生成自然的 laughter（笑声）、pauses（停顿）和 interjections（插入语），从而实现多说话人的互动对话效果。在韵律表现上，ChatTTS 超越了大多数开源 TTS 模型。目前开源版本基于 4 万小时数据预训练而成，虽主要用于学术研究与教育目的，但已展现出强大的潜力，并支持流式音频生成与零样本推理，为后续的多情绪控制等进阶功能奠定了基础。",39042,"2026-04-09T11:54:03",[19,17,20,21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":78,"owner_website":78,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":22,"created_at":107,"updated_at":108,"faqs":109,"releases":144},8342,"nazdridoy\u002Fkokoro-tts","kokoro-tts","A CLI text-to-speech tool using the Kokoro model, supporting multiple languages, voices (with blending), and various input formats including EPUB books and PDF documents.","kokoro-tts 是一款基于 Kokoro 模型的高品质命令行语音合成工具，旨在让用户轻松将文本转化为自然流畅的语音。它不仅能处理纯文本，还直接支持读取 EPUB 电子书和 PDF 文档，并能按章节自动分割输出，极大地简化了有声书制作或长文档朗读的流程。\n\n这款工具主要解决了传统语音合成软件操作复杂、格式支持单一以及难以自定义声音风格的痛点。通过内置的声音混合功能，用户可以自由调整不同音色的权重，创造出独一无二的语音效果；同时支持多语言（涵盖中、英、日、法、意等）及多种语速调节，满足多样化场景需求。此外，它还具备 GPU 加速能力，显著提升了生成效率。\n\nkokoro-tts 特别适合开发者、技术爱好者以及需要批量处理文本转语音的研究人员使用。虽然它以命令行形式运行，要求用户具备基础的终端操作知识，但其强大的管道（pipe）支持允许与其他程序无缝协作，非常适合集成到自动化工作流中。对于希望在不依赖图形界面的情况下，快速获得高质量 WAV 或 MP3 音频文件的用户来说，这是一个高效且灵活的选择。","# Kokoro TTS\n\nA CLI text-to-speech tool using the Kokoro model, supporting multiple languages, voices (with blending), and various input formats including EPUB books and PDF documents.\n\n![ngpt-s-c](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnazdridoy_kokoro-tts_readme_9f1543835c8b.png)\n\n## Features\n\n- Multiple language and voice support\n- Voice blending with customizable weights\n- EPUB, PDF and TXT file input support\n- Standard input (stdin) and `|` piping from other programs\n- Streaming audio playback\n- Split output into chapters\n- Adjustable speech speed\n- WAV and MP3 output formats\n- Chapter merging capability\n- Detailed debug output option\n- GPU Support\n\n## Demo\n\nKokoro TTS is an open-source CLI tool that delivers high-quality text-to-speech right from your terminal. Think of it as your personal voice studio, capable of transforming any text into natural-sounding speech with minimal effort.\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F8413e640-59e9-490e-861d-49187e967526\n\n[Demo Audio (MP3)](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fraw\u002Fmain\u002Fpreviews\u002Fdemo.mp3) | [Demo Audio (WAV)](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fraw\u002Fmain\u002Fpreviews\u002Fdemo.wav)\n\n## TODO\n\n- [x] Add GPU support\n- [x] Add PDF support\n- [ ] Add GUI\n\n## Prerequisites\n\n- Python 3.11-3.12 (Python 3.13+ is not currently supported)\n\n## Installation\n\n### Method 1: Install from PyPI (Recommended)\n\nThe easiest way to install Kokoro TTS is from PyPI:\n\n```bash\n# Using uv (recommended)\nuv tool install kokoro-tts\n\n# Using pip\npip install kokoro-tts\n```\n\nAfter installation, you can run:\n```bash\nkokoro-tts --help\n```\n\n### Method 2: Install from Git\n\nInstall directly from the repository:\n\n```bash\n# Using uv (recommended)\nuv tool install git+https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\n\n# Using pip\npip install git+https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\n```\n\n### Method 3: Clone and Install Locally\n\n1. Clone the repository:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts.git\ncd kokoro-tts\n```\n\n2. Install the package:\n\n**With `uv` (recommended):**\n```bash\nuv venv\nuv pip install -e .\n```\n\n**With `pip`:**\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # On Windows: .venv\\Scripts\\activate\npip install -e .\n```\n\n3. Run the tool:\n```bash\n# If using uv\nuv run kokoro-tts --help\n\n# If using pip with activated venv\nkokoro-tts --help\n```\n\n### Method 4: Run Without Installation\n\nIf you prefer to run without installing:\n\n1. Clone the repository:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts.git\ncd kokoro-tts\n```\n\n2. Install dependencies only:\n\n**With `uv`:**\n```bash\nuv venv\nuv sync\n```\n\n**With `pip`:**\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # On Windows: .venv\\Scripts\\activate\npip install -r requirements.txt\n```\n\n3. Run directly:\n```bash\n# With uv\nuv run -m kokoro_tts --help\n\n# With pip (venv activated)\npython -m kokoro_tts --help\n```\n\n### Download Model Files\n\nAfter installation, download the required model files to your working directory:\n\n```bash\n# Download voice data (bin format is preferred)\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fvoices-v1.0.bin\n\n# Download the model\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fkokoro-v1.0.onnx\n```\n\n> The script requires `voices-v1.0.bin` and `kokoro-v1.0.onnx` to be present in the same directory where you run the `kokoro-tts` command.\n\n## Supported voices:\n\n| **Category** | **Voices** | **Language Code** |\n| --- | --- | --- |\n| 🇺🇸 👩 | af\\_alloy, af\\_aoede, af\\_bella, af\\_heart, af\\_jessica, af\\_kore, af\\_nicole, af\\_nova, af\\_river, af\\_sarah, af\\_sky | **en-us** |\n| 🇺🇸 👨 | am\\_adam, am\\_echo, am\\_eric, am\\_fenrir, am\\_liam, am\\_michael, am\\_onyx, am\\_puck | **en-us** |\n| 🇬🇧 | bf\\_alice, bf\\_emma, bf\\_isabella, bf\\_lily, bm\\_daniel, bm\\_fable, bm\\_george, bm\\_lewis | **en-gb** |\n| 🇫🇷 | ff\\_siwis | **fr-fr** |\n| 🇮🇹 | if\\_sara, im\\_nicola | **it** |\n| 🇯🇵 | jf\\_alpha, jf\\_gongitsune, jf\\_nezumi, jf\\_tebukuro, jm\\_kumo | **ja** |\n| 🇨🇳 | zf\\_xiaobei, zf\\_xiaoni, zf\\_xiaoxiao, zf\\_xiaoyi, zm\\_yunjian, zm\\_yunxi, zm\\_yunxia, zm\\_yunyang | **cmn** |\n\n## Usage\n\n### Basic Usage\n\n```bash\nkokoro-tts \u003Cinput_text_file> [\u003Coutput_audio_file>] [options]\n```\n\n> [!NOTE]\n> - If you installed via Method 1 (PyPI) or Method 2 (git install), use `kokoro-tts` directly\n> - If you installed via Method 3 (local install), use `uv run kokoro-tts` or activate your virtual environment first\n> - If you're using Method 4 (no install), use `uv run -m kokoro_tts` or `python -m kokoro_tts` with activated venv\n\n### Commands\n\n- `-h, --help`: Show help message\n- `--help-languages`: List supported languages\n- `--help-voices`: List available voices\n- `--merge-chunks`: Merge existing chunks into chapter files\n\n### Options\n\n- `--stream`: Stream audio instead of saving to file\n- `--speed \u003Cfloat>`: Set speech speed (default: 1.0)\n- `--lang \u003Cstr>`: Set language (default: en-us)\n- `--voice \u003Cstr>`: Set voice or blend voices (default: interactive selection)\n  - Single voice: Use voice name (e.g., \"af_sarah\")\n  - Blended voices: Use \"voice1:weight,voice2:weight\" format\n- `--split-output \u003Cdir>`: Save each chunk as separate file in directory\n- `--format \u003Cstr>`: Audio format: wav or mp3 (default: wav)\n- `--debug`: Show detailed debug information during processing\n\n### Input Formats\n\n- `.txt`: Text file input\n- `.epub`: EPUB book input (will process chapters)\n- `.pdf`: PDF document input (extracts chapters from TOC or content)\n- `-` or `\u002Fdev\u002Fstdin` (Linux\u002FmacOS) or `CONIN$` (Windows): Standard input (stdin)\n\n### Examples\n\n```bash\n# Basic usage with output file\nkokoro-tts input.txt output.wav --speed 1.2 --lang en-us --voice af_sarah\n\n# Read from standard input (stdin)\necho \"Hello World\" | kokoro-tts - --stream\ncat input.txt | kokoro-tts - output.wav\n\n# Cross-platform stdin support:\n# Linux\u002FmacOS: echo \"text\" | kokoro-tts - --stream\n# Windows: echo \"text\" | kokoro-tts - --stream\n# All platforms also support: kokoro-tts \u002Fdev\u002Fstdin --stream (Linux\u002FmacOS) or kokoro-tts CONIN$ --stream (Windows)\n\n# Use voice blending (60-40 mix)\nkokoro-tts input.txt output.wav --voice \"af_sarah:60,am_adam:40\"\n\n# Use equal voice blend (50-50)\nkokoro-tts input.txt --stream --voice \"am_adam,af_sarah\"\n\n# Process EPUB and split into chunks\nkokoro-tts input.epub --split-output .\u002Fchunks\u002F --format mp3\n\n# Stream audio directly\nkokoro-tts input.txt --stream --speed 0.8\n\n# Merge existing chunks\nkokoro-tts --merge-chunks --split-output .\u002Fchunks\u002F --format wav\n\n# Process EPUB with detailed debug output\nkokoro-tts input.epub --split-output .\u002Fchunks\u002F --debug\n\n# Process PDF and split into chapters\nkokoro-tts input.pdf --split-output .\u002Fchunks\u002F --format mp3\n\n# List available voices\nkokoro-tts --help-voices\n\n# List supported languages\nkokoro-tts --help-languages\n```\n\n> [!TIP]\n> If you're using Method 3, replace `kokoro-tts` with `uv run kokoro-tts` in the examples above.\n> If you're using Method 4, replace `kokoro-tts` with `uv run -m kokoro_tts` or `python -m kokoro_tts` in the examples above.\n\n## Features in Detail\n\n### EPUB Processing\n- Automatically extracts chapters from EPUB files\n- Preserves chapter titles and structure\n- Creates organized output for each chapter\n- Detailed debug output available for troubleshooting\n\n### Audio Processing\n- Chunks long text into manageable segments\n- Supports streaming for immediate playback\n- Voice blending with customizable mix ratios\n- Progress indicators for long processes\n- Handles interruptions gracefully\n\n### Output Options\n- Single file output\n- Split output with chapter organization\n- Chunk merging capability\n- Multiple audio format support\n\n### Debug Mode\n- Shows detailed information about file processing\n- Displays NCX parsing details for EPUB files\n- Lists all found chapters and their metadata\n- Helps troubleshoot processing issues\n\n### Input Options\n- Text file input (.txt)\n- EPUB book input (.epub)\n- Standard input (stdin)\n- Supports piping from other programs\n\n## Contributing\n\nThis is a personal project. But if you want to contribute, please feel free to submit a Pull Request.\n\n## License\n\nThis project is licensed under the MIT License. See the [LICENSE](LICENSE) file for details.\n\n## Acknowledgments\n\n- [Kokoro-ONNX](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx)\n","# Kokoro TTS\n\n一款基于Kokoro模型的命令行文本转语音工具，支持多种语言、多种音色（可混合）以及多种输入格式，包括EPUB电子书和PDF文档。\n\n![ngpt-s-c](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnazdridoy_kokoro-tts_readme_9f1543835c8b.png)\n\n## 功能特性\n\n- 多语言与多音色支持\n- 支持自定义权重的音色混合\n- 支持EPUB、PDF和TXT文件输入\n- 支持标准输入（stdin）及与其他程序的管道连接（`|`）\n- 流式音频播放\n- 可将输出按章节分割\n- 语速可调\n- 输出格式支持WAV和MP3\n- 具备章节合并功能\n- 提供详细的调试输出选项\n- GPU加速支持\n\n## 演示\n\nKokoro TTS是一款开源的命令行工具，能够直接在终端中实现高质量的文本转语音。它就像你的私人语音工作室，只需简单操作就能将任意文本转换为自然流畅的语音。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F8413e640-59e9-490e-861d-49187e967526\n\n[演示音频（MP3）](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fraw\u002Fmain\u002Fpreviews\u002Fdemo.mp3) | [演示音频（WAV）](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fraw\u002Fmain\u002Fpreviews\u002Fdemo.wav)\n\n## 待办事项\n\n- [x] 添加GPU支持\n- [x] 添加PDF支持\n- [ ] 添加GUI界面\n\n## 系统要求\n\n- Python 3.11–3.12（目前不支持Python 3.13及以上版本）\n\n## 安装方法\n\n### 方法1：从PyPI安装（推荐）\n\n安装Kokoro TTS最简单的方式是从PyPI获取：\n\n```bash\n# 使用uv（推荐）\nuv tool install kokoro-tts\n\n# 使用pip\npip install kokoro-tts\n```\n\n安装完成后，您可以运行：\n```bash\nkokoro-tts --help\n```\n\n### 方法2：从Git仓库安装\n\n直接从代码仓库安装：\n\n```bash\n# 使用uv（推荐）\nuv tool install git+https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\n\n# 使用pip\npip install git+https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\n```\n\n### 方法3：克隆并本地安装\n\n1. 克隆仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts.git\ncd kokoro-tts\n```\n\n2. 安装软件包：\n\n**使用`uv`（推荐）：**\n```bash\nuv venv\nuv pip install -e .\n```\n\n**使用`pip`：**\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows系统下：.venv\\Scripts\\activate\npip install -e .\n```\n\n3. 运行工具：\n```bash\n# 如果使用uv\nuv run kokoro-tts --help\n\n# 如果使用pip并激活了虚拟环境\nkokoro-tts --help\n```\n\n### 方法4：无需安装直接运行\n\n如果您希望不进行安装而直接运行：\n\n1. 克隆仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts.git\ncd kokoro-tts\n```\n\n2. 仅安装依赖项：\n\n**使用`uv`：**\n```bash\nuv venv\nuv sync\n```\n\n**使用`pip`：**\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows系统下：.venv\\Scripts\\activate\npip install -r requirements.txt\n```\n\n3. 直接运行：\n```bash\n# 使用uv\nuv run -m kokoro_tts --help\n\n# 使用pip（已激活虚拟环境）\npython -m kokoro_tts --help\n```\n\n### 下载模型文件\n\n安装完成后，请将所需的模型文件下载到工作目录中：\n\n```bash\n# 下载音色数据（推荐使用bin格式）\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fvoices-v1.0.bin\n\n# 下载模型\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fkokoro-v1.0.onnx\n```\n\n> 脚本需要`voices-v1.0.bin`和`kokoro-v1.0.onnx`文件位于您运行`kokoro-tts`命令的同一目录下。\n\n## 支持的音色：\n\n| **类别** | **音色** | **语言代码** |\n| --- | --- | --- |\n| 🇺🇸 👩 | af\\_alloy, af\\_aoede, af\\_bella, af\\_heart, af\\_jessica, af\\_kore, af\\_nicole, af\\_nova, af\\_river, af\\_sarah, af\\_sky | **en-us** |\n| 🇺🇸 👨 | am\\_adam, am\\_echo, am\\_eric, am\\_fenrir, am\\_liam, am\\_michael, am\\_onyx, am\\_puck | **en-us** |\n| 🇬🇧 | bf\\_alice, bf\\_emma, bf\\_isabella, bf\\_lily, bm\\_daniel, bm\\_fable, bm\\_george, bm\\_lewis | **en-gb** |\n| 🇫🇷 | ff\\_siwis | **fr-fr** |\n| 🇮🇹 | if\\_sara, im\\_nicola | **it** |\n| 🇯🇵 | jf\\_alpha, jf\\_gongitsune, jf\\_nezumi, jf\\_tebukuro, jm\\_kumo | **ja** |\n| 🇨🇳 | zf\\_xiaobei, zf\\_xiaoni, zf\\_xiaoxiao, zf\\_xiaoyi, zm\\_yunjian, zm\\_yunxi, zm\\_yunxia, zm\\_yunyang | **cmn** |\n\n## 使用方法\n\n### 基本用法\n\n```bash\nkokoro-tts \u003C输入文本文件> [\u003C输出音频文件>] [选项]\n```\n\n> [!注意]\n> - 如果您通过方法1（PyPI）或方法2（Git安装）安装，请直接使用`kokoro-tts`\n> - 如果您通过方法3（本地安装）安装，请使用`uv run kokoro-tts`，或者先激活您的虚拟环境\n> - 如果您使用方法4（无需安装），请使用`uv run -m kokoro_tts`或`python -m kokoro_tts`，并确保已激活虚拟环境\n\n### 命令\n\n- `-h, --help`: 显示帮助信息\n- `--help-languages`: 列出支持的语言\n- `--help-voices`: 列出可用的音色\n- `--merge-chunks`: 将现有分段合并为章节文件\n\n### 选项\n\n- `--stream`: 流式播放音频，而非保存为文件\n- `--speed \u003C浮点数>`: 设置语速（默认值：1.0）\n- `--lang \u003C字符串>`: 设置语言（默认值：en-us）\n- `--voice \u003C字符串>`: 设置单一音色或混合音色（默认为交互式选择）\n  - 单一音色：使用音色名称（如“af_sarah”）\n  - 混合音色：使用“音色1:权重,音色2:权重”格式\n- `--split-output \u003C目录>`: 将每个分段分别保存到指定目录\n- `--format \u003C字符串>`: 音频格式：wav或mp3（默认为wav）\n- `--debug`: 在处理过程中显示详细的调试信息\n\n### 输入格式\n\n- `.txt`: 文本文件输入\n- `.epub`: EPUB电子书输入（会按章节处理）\n- `.pdf`: PDF文档输入（从目录或内容中提取章节）\n- `-` 或 `\u002Fdev\u002Fstdin`（Linux\u002FmacOS）或 `CONIN$`（Windows）: 标准输入（stdin）\n\n### 示例\n\n```bash\n# 基本用法，生成输出文件\nkokoro-tts input.txt output.wav --speed 1.2 --lang en-us --voice af_sarah\n\n# 从标准输入读取\necho \"Hello World\" | kokoro-tts - --stream\ncat input.txt | kokoro-tts - output.wav\n\n# 跨平台标准输入支持：\n# Linux\u002FmacOS：echo \"text\" | kokoro-tts - --stream\n# Windows：echo \"text\" | kokoro-tts - --stream\n# 所有平台还支持：kokoro-tts \u002Fdev\u002Fstdin --stream（Linux\u002FmacOS）或 kokoro-tts CONIN$ --stream（Windows）\n\n# 使用音色混合（60-40比例）\nkokoro-tts input.txt output.wav --voice \"af_sarah:60,am_adam:40\"\n\n# 使用等比例音色混合（50-50）\nkokoro-tts input.txt --stream --voice \"am_adam,af_sarah\"\n\n# 处理EPUB并按章节分割\nkokoro-tts input.epub --split-output .\u002Fchunks\u002F --format mp3\n\n# 直接流式播放音频\nkokoro-tts input.txt --stream --speed 0.8\n\n# 合并现有分段\nkokoro-tts --merge-chunks --split-output .\u002Fchunks\u002F --format wav\n\n# 处理EPUB并显示详细调试信息\nkokoro-tts input.epub --split-output .\u002Fchunks\u002F --debug\n\n# 处理PDF并按章节分割\nkokoro-tts input.pdf --split-output .\u002Fchunks\u002F --format mp3\n\n# 列出所有可用音色\nkokoro-tts --help-voices\n\n# 列出支持的语言\nkokoro-tts --help-languages\n```\n\n> [!提示]\n> 如果您使用的是方法 3，请将上述示例中的 `kokoro-tts` 替换为 `uv run kokoro-tts`。\n> 如果您使用的是方法 4，请将上述示例中的 `kokoro-tts` 替换为 `uv run -m kokoro_tts` 或 `python -m kokoro_tts`。\n\n## 功能详解\n\n### EPUB 处理\n- 自动从 EPUB 文件中提取章节\n- 保留章节标题和结构\n- 为每个章节创建有序的输出\n- 提供详细的调试输出以方便故障排除\n\n### 音频处理\n- 将长文本分割成易于管理的片段\n- 支持流式传输以便即时播放\n- 可自定义混合比例的语音融合\n- 长时间处理过程中的进度指示器\n- 能够优雅地处理中断情况\n\n### 输出选项\n- 单文件输出\n- 按章节组织的拆分输出\n- 片段合并功能\n- 支持多种音频格式\n\n### 调试模式\n- 显示文件处理的详细信息\n- 展示 EPUB 文件的 NCX 解析详情\n- 列出所有找到的章节及其元数据\n- 帮助排查处理过程中出现的问题\n\n### 输入选项\n- 文本文件输入 (.txt)\n- EPUB 书籍输入 (.epub)\n- 标准输入 (stdin)\n- 支持从其他程序进行管道输入\n\n## 贡献\n这是一个个人项目。但如果您想贡献代码，欢迎提交 Pull Request。\n\n## 许可证\n本项目采用 MIT 许可证。详情请参阅 [LICENSE](LICENSE) 文件。\n\n## 致谢\n- [Kokoro-ONNX](https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx)","# Kokoro TTS 快速上手指南\n\nKokoro TTS 是一款基于命令行的高品质文本转语音（TTS）工具，支持多语言、多音色混合、EPUB\u002FPDF 文档处理及流式播放。\n\n## 环境准备\n\n- **操作系统**：Windows \u002F macOS \u002F Linux\n- **Python 版本**：3.11 或 3.12（**不支持** Python 3.13+）\n- **依赖管理**：推荐使用 `uv`（速度更快），也可使用 `pip`\n- **模型文件**：运行前需手动下载模型和音色数据（见安装步骤）\n\n## 安装步骤\n\n### 1. 安装工具\n\n推荐使用 `uv` 进行安装（若未安装 uv，可先运行 `curl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh` 或使用 pip）。\n\n**方式 A：从 PyPI 安装（推荐）**\n```bash\n# 使用 uv\nuv tool install kokoro-tts\n\n# 或使用 pip\npip install kokoro-tts\n```\n\n**方式 B：从源码安装**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts.git\ncd kokoro-tts\n\n# 使用 uv (推荐)\nuv venv\nuv pip install -e .\n\n# 或使用 pip\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate  # Windows: .venv\\Scripts\\activate\npip install -e .\n```\n\n### 2. 下载模型文件\n\n工具安装完成后，必须在**当前工作目录**下下载以下两个文件才能运行：\n\n```bash\n# 下载音色数据 (推荐 bin 格式)\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fvoices-v1.0.bin\n\n# 下载模型文件\nwget https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Freleases\u002Fdownload\u002Fv1.0.0\u002Fkokoro-v1.0.onnx\n```\n> **注意**：如果无法访问 GitHub Releases，请确保网络通畅或使用代理加速。这两个文件必须与运行命令的目录一致。\n\n## 基本使用\n\n### 查看帮助与支持列表\n```bash\n# 查看帮助\nkokoro-tts --help\n\n# 列出支持的音色\nkokoro-tts --help-voices\n\n# 列出支持的语言\nkokoro-tts --help-languages\n```\n\n### 最简单的使用示例\n\n将文本文件转换为音频：\n```bash\nkokoro-tts input.txt output.wav\n```\n\n指定音色、语速并直接流式播放（不保存文件）：\n```bash\necho \"你好，世界\" | kokoro-tts - --stream --lang cmn --voice zf_xiaoxiao\n```\n\n处理 EPUB 电子书并分割章节输出：\n```bash\nkokoro-tts book.epub --split-output .\u002Fchapters\u002F --format mp3\n```\n\n### 常用参数说明\n\n- `--voice \u003Cname>`: 指定音色（如 `af_sarah`），支持混合音色（如 `\"af_sarah:60,am_adam:40\"`）。\n- `--lang \u003Ccode>`: 指定语言代码（中文为 `cmn`，默认 `en-us`）。\n- `--speed \u003Cfloat>`: 调整语速（默认 1.0）。\n- `--stream`: 实时流式播放音频。\n- `--split-output \u003Cdir>`: 将长文本按章节分割保存到指定目录。\n- `--format`: 输出格式，支持 `wav` 或 `mp3`。\n\n> **提示**：如果你是通过源码本地安装（方式 B），请在上述命令前加上 `uv run ` 或激活虚拟环境后运行。","一位独立开发者希望将收集到的多语言技术文档（PDF 和 EPUB 格式）转化为有声书，以便在通勤途中通过听读来学习新技术。\n\n### 没有 kokoro-tts 时\n- 处理不同格式的文档极其繁琐，需要先用其他工具将 PDF 或 EPUB 转换为纯文本，再单独寻找 TTS 服务进行合成。\n- 难以获得自然的多语言语音支持，尤其是中日英混合的技术术语，现有免费工具发音生硬且经常出错。\n- 无法灵活调整声音特质，若想模拟特定讲解风格，只能录制真人音频或购买昂贵的定制语音服务。\n- 生成过程缺乏自动化，无法通过命令行管道与其他脚本串联，每次转换都需手动操作图形界面。\n- 输出文件往往是一个巨大的音频块，未按章节切割，导致在播放器中难以定位具体内容进度。\n\n### 使用 kokoro-tts 后\n- 直接通过命令行读取 PDF 和 EPUB 文件，kokoro-tts 自动解析文本并流式输出音频，省去了中间转换步骤。\n- 利用其内置的多语言模型和声音混合功能，轻松实现中英日无缝切换，技术名词发音准确且自然流畅。\n- 通过调整声音权重参数，自由“调配”出沉稳或活泼的讲解音色，无需额外录音即可拥有个性化旁白。\n- 支持标准输入管道，可将 kokoro-tts 嵌入现有的自动化工作流中，一键批量处理整个文件夹的文档。\n- 自动按原书章节分割输出文件，并支持合并操作，生成的音频结构清晰，便于在移动端随时跳转收听。\n\nkokoro-tts 让开发者能在终端内一站式完成从多格式文档到高质量、可定制多语言有声书的转化，极大提升了知识获取的效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnazdridoy_kokoro-tts_7885e490.png","nazdridoy","nazDridoy","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnazdridoy_a0267c7f.png",null,"nazdridoy399@gmail.com","https:\u002F\u002Fgithub.com\u002Fnazdridoy",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1393,145,"2026-04-16T14:16:44","MIT","Linux, macOS, Windows","支持 GPU 加速（非必需），具体显卡型号、显存大小及 CUDA 版本未在文档中说明","未说明",{"notes":94,"python":95,"dependencies":96},"安装后需手动下载两个模型文件（voices-v1.0.bin 和 kokoro-v1.0.onnx）并放置在与运行命令相同的目录下；推荐使用 uv 工具进行环境管理和安装；支持多种输入格式包括 EPUB 和 PDF。","3.11-3.12 (不支持 3.13+)",[97],"未明确列出具体库名，需通过 requirements.txt 或 pyproject.toml 安装",[21],[100,67,101,102,103,104,105,106],"kokoro","python","tts","audiobook","podcast","epub","pdf","2026-03-27T02:49:30.150509","2026-04-17T10:22:32.658629",[110,115,120,125,130,135,139],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},37322,"如何在 Windows 上运行 kokoro-tts？遇到“不是有效的 32 位程序”或无法执行的问题怎么办？","在 Windows 上不要直接使用 `.\u002Fkokoro-tts` 命令。请尝试以下两种方法：\n1. 直接使用 Python 运行：`python .\\kokoro-tts input.txt output.wav`\n2. 如果使用 uv 环境，确保先拉取最新代码 (`git pull`) 并重建环境：\n   ```powershell\n   deactivate\n   Remove-Item -Recurse -Force .venv\n   uv venv .venv\n   .\\.venv\\Scripts\\Activate.ps1\n   uv sync\n   echo \"Hello World\" | uv run .\u002Fkokoro-tts \u002Fdev\u002Fstdin --stream\n   ```\n   如果仍然报错，检查是否缺少 `voices-v1.0.bin` 文件，需手动下载放置到项目根目录。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F38",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},37323,"如何启用 GPU 加速（CUDA）？","默认情况下可能不会自动启用 GPU。你可以通过以下方式强制启用：\n1. 设置环境变量：`export ONNX_PROVIDER=CUDAExecutionProvider` (Linux\u002FMac) 或在 Windows PowerShell 中 `$env:ONNX_PROVIDER='CUDAExecutionProvider'`。\n2. 确保安装了支持 GPU 的依赖包。如果使用 uv，运行：`uv add 'kokoro-onnx[gpu]==0.3.9'`。\n注意：如果提示 'CUDAExecutionProvider' 不在可用提供者列表中，说明当前的 onnxruntime 版本不支持 CUDA，需要重新安装带有 GPU 支持的版本。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F1",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},37324,"运行时遇到 `ModuleNotFoundError: No module named 'frontend'` 错误如何解决？","这是一个依赖冲突问题，通常是因为 `fitz` (PyMuPDF) 依赖了不必要的 `frontend` 包。解决方法如下：\n1. 不要直接使用 `requirements.txt` 安装所有依赖（特别是非 Linux 用户）。\n2. 手动安装必要的包：`pip install 'kokoro-onnx==0.3.9' ebooklib fitz beautifulsoup4 pymupdf4llm sounddevice soundfile`\n3. 如果问题依旧，尝试升级 PyMuPDF：`pip install --upgrade pymupdf`。\n4. 确保创建了一个名为 `.\u002Fstatic` 的目录（如果需要）。\n5. 对于 Windows Python 3.10\u002F3.11 用户，建议删除旧虚拟环境，使用 Python 3.9 到 3.12 之间的版本重新创建环境并安装依赖。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F36",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},37325,"Windows 下运行时报错 `Error loading Kokoro model: Voices file not found at voices-v1.0.bin` 怎么办？","程序找不到语音模型文件。你需要手动下载该文件并放到项目根目录（与脚本同级）。\n下载命令示例（使用 wget 或浏览器下载）：\n`wget https:\u002F\u002Fgithub.com\u002Fthewh1teagle\u002Fkokoro-onnx\u002Freleases\u002Fdownload\u002Fmodel-files-v1.0\u002Fvoices-v1.0.bin`\n或者直接在浏览器访问上述链接下载 `voices-v1.0.bin`，然后将其移动到 `kokoro-tts` 文件夹内。同时确保 `kokoro-v1.0.onnx` 文件也存在。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F58",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},37326,"README 中的图片示例命令 `uv run .\u002Fkokoro_tts` 无效，正确的运行命令是什么？","README 中的截图可能已过时。请优先遵循 README 文本部分的安装和使用说明。\n正确的运行方式通常是：\n1. 使用模块模式：`uv run python -m kokoro_tts --help`\n2. 或者直接调用脚本（取决于系统）：`uv run kokoro-tts --help`\n请以 `readme.md` 文件中的文字指令为准，截图仅供参考。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F60",{"id":136,"question_zh":137,"answer_zh":138,"source_url":119},37327,"如何在 Intel XPU (OpenVINO) 上运行 kokoro-tts？","目前官方主要支持 CPU 和 NVIDIA CUDA。若要在 Intel XPU 上运行，需替换 onnxruntime：\n1. 卸载默认运行时：`uv pip uninstall onnxruntime`\n2. 安装 OpenVINO 版本：`uv pip install onnxruntime-openvino`\n注意：此配置可能会遇到 `AttributeError: module 'onnxruntime' has no attribute 'InferenceSession'` 等兼容性错误，这通常需要等待库的进一步更新或自行调整代码适配 OpenVINO 的 API。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},37328,"Python 版本有什么要求？在 Python 3.10 或 3.11 上运行有问题吗？","建议使用 Python 版本大于 3.9 且小于 3.12（即 3.10 或 3.11 理论上支持，但需正确配置）。\n如果在 Windows 上使用 Python 3.10\u002F3.11 遇到 `ModuleNotFoundError` 或其他依赖错误，请尝试：\n1. 删除旧的虚拟环境。\n2. 创建新的虚拟环境：`python -m venv venv`。\n3. 激活环境后，重新安装依赖：`pip install -r requirements.txt`。\n4. 参考 Issue #41 和 #42 的修复内容，确保依赖包版本兼容。如果问题持续，尝试切换到 Python 3.12 或严格按照维护者提供的非 Linux 安装步骤操作。","https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fissues\u002F39",[145,150,155,160,165,170,175,180,185,190],{"id":146,"version":147,"summary_zh":148,"released_at":149},297886,"v2.3.1","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.3.0...v2.3.1","2026-04-08T14:47:54",{"id":151,"version":152,"summary_zh":153,"released_at":154},297887,"v2.3.0","## v2.3.0 新增功能\n\n此版本在模型和语音的管理方式上提供了更高的灵活性，并通过更严格的模型文件校验提升了稳定性。\n\n### 亮点\n\n*   **自定义模型与语音路径**：现在可以直接从命令行指定 `.onnx` 模型和语音文件的自定义路径。\n*   **启动可靠性提升**：应用程序现在会在启动时预先检查所有必要的模型文件，从而确保更流畅的使用体验。\n\n### 破坏性变更\n\n*   **必需的模型文件**：应用程序现在严格要求启动时必须存在 `.onnx` 和 `.bin` 模型文件。如果这些文件缺失，应用程序将直接报错退出。请确保您的环境已正确配置所有必需的模型资源。\n\n### 变更内容\n\n*   **新增命令行选项**：引入了 `--model` 和 `--voices` 选项，允许您为 ONNX 模型和语音配置文件指定自定义路径。\n*   **增强的模型校验**：实现了强大的检查机制，在应用程序启动前确保所有必需的 `.onnx` 和 `.bin` 模型文件均已就位，从而进一步提升整体稳定性。\n*   **文档更新**：README 文件已更新，以反映对模型文件的新要求。\n\n### 安装\n\n```bash\n# 对于全新安装\npip install kokoro-tts # 或您项目的包名\n\n# 升级时\npip install --upgrade kokoro-tts # 或您项目的包名\n``` \n\n### 完整变更日志\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.2.1...v2.3.0","2025-08-17T21:22:24",{"id":156,"version":157,"summary_zh":158,"released_at":159},297888,"v2.2.1","## v2.2.1 的更新内容\n\n这是一个次要补丁版本，主要关注内部维护，并确保我们的开发和发布流程更加稳定。\n\n### 更新内容\n\n*   **内部改进**：修复了持续集成流水线中的一个问题，以确保未来的发布更加顺畅和可靠。\n\n### 安装方法\n\n```bash\n# 新安装\npip install kokoro-tts\n\n# 升级\npip install --upgrade kokoro-tts\n``` \n\n### 完整变更日志\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.2.0...v2.2.1","2025-08-14T22:12:25",{"id":161,"version":162,"summary_zh":163,"released_at":164},297889,"v2.2.0","## v2.2.0 版本更新内容\n\n我们非常高兴地宣布，我们的项目在提升易用性方面迈出了重要一步！本次发布重点简化了安装流程，使项目能够在 PyPI 上直接获取。\n\n### 亮点\n\n*   **现已上架 PyPI**：只需使用 `pip` 即可轻松安装。\n*   **安装流程更简洁**：我们现在推荐的安装方式是 `pip install`。\n\n### 具体变更\n\n*   **PyPI 上线**：项目已发布至 PyPI，支持通过 `pip` 进行简单安装。此次更新还包括自动化发布工作流的搭建，以及对项目元数据（许可证、作者、URL 等）的全面优化。\n*   **文档更新**：安装说明经过全面修订，将 `pip` 安装作为主要且推荐的方式。\n\n### 安装方法\n\n```bash\n# 新安装\npip install kokoro-tts\n\n# 升级\npip install --upgrade kokoro-tts\n``` \n\n### 完整变更日志\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.1.1...v2.2.0","2025-08-14T22:01:32",{"id":166,"version":167,"summary_zh":168,"released_at":169},297890,"v2.1.1","## v2.1.1 的更新内容\n\n我们很高兴地宣布 `v2.1.1` 的发布！这一版本标志着一个重要里程碑：`kokoro-tts` 现已正式打包并可供分发，通过 `pip` 安装变得更加简单。此外，我们还引入了一个备受期待的功能——直接将文本通过管道传递到应用程序中，从而进一步简化您的工作流程。\n\n### 亮点\n\n*   **新功能**：支持通过 `stdin`（管道）直接输入文本。\n*   **简化安装**：现在可以使用 `pip` 轻松安装 `kokoro-tts`。\n*   **文档改进**：全面更新了安装和使用指南。\n\n### 具体变更\n\n*   **新功能：支持 `stdin` 输入**：您现在可以直接从其他命令或文件中将文本通过管道传递到 `kokoro-tts`，使其更易于集成到脚本和自动化工作流中。\n*   **优化安装流程**：该应用现已正式打包并可供分发，可通过 `pip` 直接安装。同时，我们还更新了文档，增加了使用 `uv` 进行高效依赖管理的建议和指南。\n*   **核心重构**：对内部架构进行了重大调整，以提升代码可维护性、优化应用入口点，并为未来的功能开发做好准备。\n*   **依赖库更新**：关键底层库，包括 `scipy`、`onnxruntime` 和 `scikit-learn`，均已升级至最新稳定版本，从而提升了性能和稳定性。\n*   **文档增强**：对 `README.md` 进行了全面更新，新增了详细的安装说明（包含 `uv` 使用建议）、明确了 Python 版本要求，并提供了 `stdin` 功能的新用法示例。\n\n\n### 完整变更日志\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.0.3...v2.1.1","2025-08-14T21:18:35",{"id":171,"version":172,"summary_zh":173,"released_at":174},297891,"v2.0.3","## 变更内容\n* 文档：添加提交消息规范及贡献指南、PR 和 Issue 模板，由 @nazdridoy 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F44 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.0.2...v2.0.3","2025-05-30T22:21:45",{"id":176,"version":177,"summary_zh":178,"released_at":179},297892,"v2.0.2","## 变更内容\n* 修复：整理 requirements.txt 中的依赖标记，由 @nazdridoy 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F41 中完成\n* 更新：升级版本并清理依赖锁定文件，由 @nazdridoy 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F42 中完成\n\n\n[修复：整理 requirements.txt 中的依赖标记](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcommit\u002Fe07c1138c72ffd9da400cc7f82126c786e599325)\n- [移除] 移除 requirements.txt 中冗余的依赖哈希条目\n- [重构] 简化 requirements.txt 中针对不同 Python 版本的依赖标记\n- [修复] 清理 requirements.txt 中的条件依赖块\n\n[更新：升级版本并清理依赖锁定文件](https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcommit\u002F0f58f39869e8fc4e36ab33f8ab3fc39fe3cc1ae2)\n- [更新] 在 pyproject.toml 中：将版本从 0.1.0 升级至 2.0.2，并更新描述\n- [更新] 在 pyproject.toml 中：将 \"fitz\" 依赖替换为 \"pymupdf\"\n- [更新] 在 uv.lock 中：移除未使用的包条目，并清理元数据\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.0.1...v2.0.2","2025-03-30T17:03:35",{"id":181,"version":182,"summary_zh":183,"released_at":184},297893,"v2.0.1","## 变更内容\n* 杂项：依赖版本升级，由 @nazdridoy 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F40 中完成\n\n杂项：依赖版本升级\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv2.0.0...v2.0.1","2025-03-30T01:37:51",{"id":186,"version":187,"summary_zh":188,"released_at":189},297894,"v2.0.0","## 变更内容\n* 修复：减小分块大小，修复 #13 问题，由 @nazdridoy 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F16 中完成\n* 功能：为合并后的音频文件使用章节标题，由 @arshiaesll 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F15 中完成\n* PDF 支持 v1.0，由 @arshiaesll 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F18 中完成\n\n## 新贡献者\n* @arshiaesll 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F15 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcompare\u002Fv1.0.0...v2.0.0","2025-02-18T22:32:35",{"id":191,"version":192,"summary_zh":193,"released_at":194},297895,"v1.0.0","## 变更内容\nkokoro-tts 现已支持以下内容：\n\n| **类别** | **音色** | **语言代码** |\n| --- | --- | --- |\n| 🇺🇸 👩 | af\\_alloy, af\\_aoede, af\\_bella, af\\_heart, af\\_jessica, af\\_kore, af\\_nicole, af\\_nova, af\\_river, af\\_sarah, af\\_sky | **en-us** |\n| 🇺🇸 👨 | am\\_adam, am\\_echo, am\\_eric, am\\_fenrir, am\\_liam, am\\_michael, am\\_onyx, am\\_puck | **en-us** |\n| 🇬🇧 | bf\\_alice, bf\\_emma, bf\\_isabella, bf\\_lily, bm\\_daniel, bm\\_fable, bm\\_george, bm\\_lewis | **en-gb** |\n| 🇫🇷 | ff\\_siwis | **fr-fr** |\n| 🇮🇹 | if\\_sara, im\\_nicola | **it** |\n| 🇯🇵 | jf\\_alpha, jf\\_gongitsune, jf\\_nezumi, jf\\_tebukuro, jm\\_kumo | **ja** |\n| 🇨🇳 | zf\\_xiaobei, zf\\_xiaoni, zf\\_xiaoxiao, zf\\_xiaoyi, zm\\_yunjian, zm\\_yunxi, zm\\_yunxia, zm\\_yunyang | **cmn** |\n\n* 允许使用 \u002Fdev\u002Fstdin 作为文件输入，由 @Arian-D 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F9 中实现。\n## 新贡献者\n* @Arian-D 在 https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fpull\u002F9 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fnazdridoy\u002Fkokoro-tts\u002Fcommits\u002Fv1.0.0","2025-02-05T14:30:49"]