[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-myshell-ai--MeloTTS":3,"tool-myshell-ai--MeloTTS":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},8436,"Real-Time-Voice-Cloning","CorentinJ\u002FReal-Time-Voice-Cloning","Real-Time-Voice-Cloning 是一款开源的实时语音克隆工具，旨在通过短短 5 秒的音频样本，快速复刻说话人的声音特征，并即时生成任意文本的语音内容。它有效解决了传统语音合成需要大量训练数据且无法实时响应的痛点，让个性化语音生成变得轻量且高效。\n\n该项目的核心技术基于 SV2TTS（从说话人验证到多说话人文本转语音的迁移学习）深度学习框架。其工作流程分为三个阶段：首先从少量音频中提取说话人的数字声纹表示，随后将其作为参考，结合 Tacotron 合成器与 WaveRNN 声码器，高质量地生成目标语音。这种架构不仅实现了端到端的语音合成，还保证了在普通硬件上的实时运行能力。\n\nReal-Time-Voice-Cloning 非常适合开发者、人工智能研究人员以及对语音技术感兴趣的技术爱好者使用。开发者可以将其集成到互动应用中，研究人员可借此探索语音迁移学习的前沿进展，而具备一定动手能力的普通用户也能通过提供的图形界面工具箱，轻松体验“声音复制”的乐趣。尽管目前已有商业服务在音质上表现更佳，但作为一款免费开源项目，它依然是理解和学习实时语音合成技术的绝佳入门资源。",59627,3,"2026-04-16T23:06:58",[21,20],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,"2026-04-05T22:15:46",[21],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":10,"env_os":104,"env_gpu":105,"env_ram":104,"env_deps":106,"category_tags":109,"github_topics":110,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":120,"updated_at":121,"faqs":122,"releases":156},8762,"myshell-ai\u002FMeloTTS","MeloTTS","High-quality multi-lingual text-to-speech library by MyShell.ai. Support English, Spanish, French, Chinese, Japanese and Korean.","MeloTTS 是由 MIT 与 MyShell.ai 联合开源的一款高质量多语言文本转语音（TTS）库。它致力于解决传统语音合成工具在多语种支持、口音多样性及混合语言处理上的不足，能够自然流畅地将文字转换为听觉逼真的语音。\n\n该工具原生支持英语（涵盖美式、英式、印度及澳洲等多种口音）、西班牙语、法语、日语、韩语以及中文。其独特亮点在于中文模型完美支持“中英混合”输入，无需额外处理即可自动识别并切换语言发音；同时，得益于高效的架构优化，MeloTTS 即使在普通 CPU 上也能实现实时推理，大幅降低了部署门槛。\n\nMeloTTS 非常适合各类用户群体：开发者可轻松将其集成到应用或智能硬件中；研究人员能基于其开源代码进行二次开发或自定义数据集训练；内容创作者与普通用户则可通过简易的命令行或 Web 界面快速生成配音素材。项目采用宽松的 MIT 协议，允许免费用于商业及非商业用途，是构建全球化语音交互应用的理想选择。","\u003Cdiv align=\"center\">\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmyshell-ai_MeloTTS_readme_c7ab21995c6c.png\" width=\"300\"\u002F> \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8133\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmyshell-ai_MeloTTS_readme_4a68feb902da.png\" alt=\"myshell-ai%2FMeloTTS | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## Introduction\nMeloTTS is a **high-quality multi-lingual** text-to-speech library by [MIT](https:\u002F\u002Fwww.mit.edu\u002F) and [MyShell.ai](https:\u002F\u002Fmyshell.ai). Supported languages include:\n\n| Language | Example |\n| --- | --- |\n| English (American)    | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-US\u002Fspeed_1.0\u002Fsent_000.wav) |\n| English (British)     | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-BR\u002Fspeed_1.0\u002Fsent_000.wav) |\n| English (Indian)      | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN_INDIA\u002Fspeed_1.0\u002Fsent_000.wav) |\n| English (Australian)  | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-AU\u002Fspeed_1.0\u002Fsent_000.wav) |\n| English (Default)     | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-Default\u002Fspeed_1.0\u002Fsent_000.wav) |\n| Spanish               | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fes\u002FES\u002Fspeed_1.0\u002Fsent_000.wav) |\n| French                | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Ffr\u002FFR\u002Fspeed_1.0\u002Fsent_000.wav) |\n| Chinese (mix EN)      | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fzh\u002FZH\u002Fspeed_1.0\u002Fsent_008.wav) |\n| Japanese              | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fjp\u002FJP\u002Fspeed_1.0\u002Fsent_000.wav) |\n| Korean                | [Link](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fkr\u002FKR\u002Fspeed_1.0\u002Fsent_000.wav) |\n\nSome other features include:\n- The Chinese speaker supports `mixed Chinese and English`.\n- Fast enough for `CPU real-time inference`.\n\n## Usage\n- [Use without Installation](docs\u002Fquick_use.md)\n- [Install and Use Locally](docs\u002Finstall.md)\n- [Training on Custom Dataset](docs\u002Ftraining.md)\n\nThe Python API and model cards can be found in [this repo](https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fblob\u002Fmain\u002Fdocs\u002Finstall.md#python-api) or on [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmyshell-ai).\n\n**Contributing**\n\nIf you find this work useful, please consider contributing to this repo.\n\n- Many thanks to [@fakerybakery](https:\u002F\u002Fgithub.com\u002Ffakerybakery) for adding the Web UI and CLI part.\n\n## Authors\n\n- [Wenliang Zhao](https:\u002F\u002Fwl-zhao.github.io) at Tsinghua University\n- [Xumin Yu](https:\u002F\u002Fyuxumin.github.io) at Tsinghua University\n- [Zengyi Qin](https:\u002F\u002Fwww.qinzy.tech) (project lead) at MIT and MyShell\n\n**Citation**\n```\n@software{zhao2024melo,\n  author={Zhao, Wenliang and Yu, Xumin and Qin, Zengyi},\n  title = {MeloTTS: High-quality Multi-lingual Multi-accent Text-to-Speech},\n  url = {https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS},\n  year = {2023}\n}\n```\n\n## License\n\nThis library is under MIT License, which means it is free for both commercial and non-commercial use.\n\n## Acknowledgements\n\nThis implementation is based on [TTS](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS), [VITS](https:\u002F\u002Fgithub.com\u002Fjaywalnut310\u002Fvits), [VITS2](https:\u002F\u002Fgithub.com\u002Fdaniilrobnikov\u002Fvits2) and [Bert-VITS2](https:\u002F\u002Fgithub.com\u002Ffishaudio\u002FBert-VITS2). We appreciate their awesome work.\n","\u003Cdiv align=\"center\">\n  \u003Cdiv>&nbsp;\u003C\u002Fdiv>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmyshell-ai_MeloTTS_readme_c7ab21995c6c.png\" width=\"300\"\u002F> \u003Cbr>\n  \u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F8133\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmyshell-ai_MeloTTS_readme_4a68feb902da.png\" alt=\"myshell-ai%2FMeloTTS | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n## 简介\nMeloTTS是由[MIT](https:\u002F\u002Fwww.mit.edu\u002F)和[MyShell.ai](https:\u002F\u002Fmyshell.ai)共同开发的**高质量多语言**文本转语音库。支持的语言包括：\n\n| 语言 | 示例 |\n| --- | --- |\n| 英语（美式）    | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-US\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 英语（英式）     | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-BR\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 英语（印式）      | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN_INDIA\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 英语（澳式）  | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-AU\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 英语（默认）     | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fen\u002FEN-Default\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 西班牙语               | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fes\u002FES\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 法语                | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Ffr\u002FFR\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 中文（混英语）      | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fzh\u002FZH\u002Fspeed_1.0\u002Fsent_008.wav) |\n| 日语              | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fjp\u002FJP\u002Fspeed_1.0\u002Fsent_000.wav) |\n| 韩语                | [链接](https:\u002F\u002Fmyshell-public-repo-host.s3.amazonaws.com\u002Fmyshellttsbase\u002Fexamples\u002Fkr\u002FKR\u002Fspeed_1.0\u002Fsent_000.wav) |\n\n其他一些特性包括：\n- 中文语音支持`中英文混合`。\n- 速度足够快，可实现`CPU实时推理`。\n\n## 使用方法\n- [无需安装直接使用](docs\u002Fquick_use.md)\n- [本地安装并使用](docs\u002Finstall.md)\n- [基于自定义数据集训练](docs\u002Ftraining.md)\n\nPython API 和模型卡片可以在[此仓库](https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fblob\u002Fmain\u002Fdocs\u002Finstall.md#python-api)或[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Fmyshell-ai)上找到。\n\n**贡献**\n\n如果您觉得这项工作有用，请考虑为本仓库做出贡献。\n\n- 特别感谢[@fakerybakery](https:\u002F\u002Fgithub.com\u002Ffakerybakery)添加了 Web UI 和 CLI 部分。\n\n## 作者\n\n- 清华大学的[Wenliang Zhao](https:\u002F\u002Fwl-zhao.github.io)\n- 清华大学的[Xumin Yu](https:\u002F\u002Fyuxumin.github.io)\n- MIT 和 MyShell 的[项目负责人 Zengyi Qin](https:\u002F\u002Fwww.qinzy.tech)\n\n**引用**\n```\n@software{zhao2024melo,\n  author={Zhao, Wenliang and Yu, Xumin and Qin, Zengyi},\n  title = {MeloTTS: 高质量多语言多口音文本转语音},\n  url = {https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS},\n  year = {2023}\n}\n```\n\n## 许可证\n\n本库采用 MIT 许可证，这意味着它可用于商业和非商业用途，完全免费。\n\n## 致谢\n\n本实现基于 [TTS](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS)、[VITS](https:\u002F\u002Fgithub.com\u002Fjaywalnut310\u002Fvits)、[VITS2](https:\u002F\u002Fgithub.com\u002Fdaniilrobnikov\u002Fvits2) 和 [Bert-VITS2](https:\u002F\u002Fgithub.com\u002Ffishaudio\u002FBert-VITS2)。我们非常感谢他们的出色工作。","# MeloTTS 快速上手指南\n\nMeloTTS 是由 MIT 和 MyShell.ai 联合开源的高质量多语言文本转语音（TTS）库。支持英语（多种口音）、西班牙语、法语、日语、韩语以及**中英混合**朗读，且推理速度快，支持 CPU 实时运行。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS, 或 Windows\n*   **Python 版本**：3.8 - 3.10\n*   **前置依赖**：\n    *   `git`\n    *   `ffmpeg` (用于音频处理)\n    *   `pip`\n\n> **提示**：国内用户建议配置 pip 国内镜像源（如清华源）以加速依赖下载：\n> ```bash\n> export PIP_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n推荐使用 `pip` 直接安装最新稳定版：\n\n```bash\npip install melo-tts\n```\n\n如果您需要使用最新的开发版本或进行本地部署，可以从源码安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS.git\ncd MeloTTS\npip install -e .\n```\n\n## 基本使用\n\n### 1. Python API 调用\n\n以下是使用 Python 进行文本转语音的最简示例。该示例将演示如何生成一段中英混合的语音。\n\n```python\nfrom melo.api import TTS\n\n# 初始化 TTS 对象，指定语言为中文 (ZH)\n# 支持的语言代码包括: EN_US, EN_BR, ES, FR, ZH, JP, KR 等\nmodel = TTS(language='ZH')\n\n# 待转换的文本（支持中英混合）\ntext = \"你好，欢迎使用 MeloTTS。Hello, this is a mixed language test.\"\n\n# 生成并保存音频文件\n# speaker_id 默认为自动选择，也可手动指定\nmodel.tts_to_file(text, speaker_id='auto', output_path='output.wav')\n\nprint(\"音频已保存为 output.wav\")\n```\n\n### 2. 命令行工具 (CLI)\n\n安装完成后，您也可以直接使用命令行快速生成语音：\n\n```bash\n# 基本用法：指定文本、语言和输出文件\nmelo-tts -t \"你好，世界！Hello World.\" -l ZH -o output.wav\n\n# 查看帮助信息\nmelo-tts --help\n```\n\n### 3. Web UI (可选)\n\n如果您更喜欢图形界面，可以使用内置的 Web UI：\n\n```bash\nmelo-tts-webui\n```\n启动后在浏览器访问显示的本地地址即可进行交互式测试。","一家面向全球市场的在线教育初创公司，急需将原本仅支持英文的课程脚本快速本地化为中、日、韩等多语种有声课程，以拓展亚洲市场。\n\n### 没有 MeloTTS 时\n- **多语言适配成本极高**：团队需分别对接不同语种的独立 TTS 服务，针对中文混读英文专有名词（如\"Python 编程”）时，发音生硬且经常断句错误。\n- **硬件资源负担重**：现有高精度语音方案严重依赖 GPU 推理，导致服务器云端算力成本居高不下，难以在低配设备上实时生成。\n- **口音单一缺乏亲和力**：仅提供标准普通话或美式英语，无法提供英式、印度或澳洲等特定口音，难以满足多样化用户群体的听感需求。\n- **部署流程繁琐**：集成多个第三方 API 需要处理复杂的鉴权、计费及网络延迟问题，严重拖慢了课程上线节奏。\n\n### 使用 MeloTTS 后\n- **原生混合语言支持**：利用其中文扬声器对“中英混合”文本的天然支持，课程中出现的技术术语能自然流畅地切换发音，无需额外标注音标。\n- **CPU 实时推理降本**：凭借高效的架构，MeloTTS 能在普通 CPU 上实现实时语音合成，直接削减了 80% 的云端 GPU 租赁费用。\n- **丰富口音一键切换**：通过简单参数调整即可调用英式、印度式英语或日韩本地化音色，让课程内容听起来更像当地真人讲师录制。\n- **开源本地化部署**：基于 MIT 协议免费商用且支持本地离线运行，团队彻底摆脱了对外部 API 的依赖，数据隐私与响应速度得到双重保障。\n\nMeloTTS 以极低的技术门槛和算力成本，帮助团队实现了高质量、多口音的全球课程音频自动化生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmyshell-ai_MeloTTS_c7ab2199.png","myshell-ai","MyShell","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmyshell-ai_dc0a3ec6.png","We are building an open ecosystem for AI Native Apps.",null,"ethan@myshell.ai","myshell_ai","https:\u002F\u002Fapp.myshell.ai\u002F","https:\u002F\u002Fgithub.com\u002Fmyshell-ai",[85,89,93,97],{"name":86,"color":87,"percentage":88},"Python","#3572A5",98,{"name":90,"color":91,"percentage":92},"Jupyter Notebook","#DA5B0B",1.8,{"name":94,"color":95,"percentage":96},"Shell","#89e051",0.1,{"name":98,"color":99,"percentage":96},"Dockerfile","#384d54",7347,1033,"2026-04-17T15:22:28","MIT","","非必需，支持 CPU 实时推理",{"notes":107,"python":104,"dependencies":108},"该工具支持多语言（包括中英混合），无需安装即可使用（参考快速使用文档），也可本地安装。基于 TTS、VITS 等架构开发，采用 MIT 许可证，允许商业和非商业用途。具体依赖库、Python 版本及操作系统要求在提供的 README 片段中未明确说明，需参考官方安装文档。",[],[21],[111,112,113,114,115,116,117,118,119],"text-to-speech","tts","chinese","english","french","japanese","korean","multilingual","spanish","2026-03-27T02:49:30.150509","2026-04-18T09:20:49.752313",[123,128,133,138,143,147,152],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},39294,"如何在训练中文（ZH）模型时让默认说话人同时具备英语发音能力？","在 metadata.list 文件中，可以通过混合标注语言代码来实现。每一行的格式为：`音频路径 | 说话人 ID| 语言代码 | 文本内容`。若希望同一个说话人（如 ZH-default）既能说中文也能说英文，只需在对应行分别使用'EN'和'ZH'作为语言标签即可。例如：\n```\ndata\u002Fexample\u002Fwavs\u002F018.wav|ZH-default|EN|What do you think are some current fashion trends?\ndata\u002Fexample\u002Fwavs\u002F020.wav|ZH-default|ZH|鄂豫鲁皖苏局地大暴雨。\n```","https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fissues\u002F201",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},39295,"MeloTTS 是否支持导出为 ONNX 格式以加速推理或部署到移动端？","支持。用户可以参考 Issue #164 中的方法将模型导出为 ONNX 格式。导出的 ONNX 模型可以使用 C++ 在 Android、iOS、树莓派等设备上运行。有用户反馈导出后模型体积减少了约 30MB（从 190MB 降至 160MB），但在某些测试中推理速度与 PyTorch 原版相差无几。","https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fissues\u002F98",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},39296,"微调训练时模型出现“胡说八道”或发音不正确的问题，该如何解决？","这通常是由 batchsize（批次大小）设置过大引起的。建议将 batchsize 从较大的值（如 20）调整为默认值 6。有用户经验表明，在使用约 1500 个音频样本（总计约 15000 秒）的数据集时，将 batchsize 改为 6 并训练约 700 个 epoch 后，模型对大多数中文字符的发音变得准确。请确保完全遵循官方文档中的训练步骤。","https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fissues\u002F66",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},39297,"MeloTTS 是否支持训练新的语言？有什么建议吗？","支持训练新语言。官方文档（docs\u002Ftraining.md）提供了基础支持。对于新语言的训练，建议参考社区讨论（如 Issue #120）获取更多线索和经验分享。","https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fissues\u002F68",{"id":144,"question_zh":145,"answer_zh":146,"source_url":127},39298,"使用自定义数据集微调时，对音频采样率有什么要求？","原始预训练权重是基于 44.1kHz 的音频训练的。虽然代码在加载音频时会通过 librosa 自动重采样到目标采样率（例如：`librosa.load(full_path, sr=sr, mono=True)`），但如果您的数据集采样率差异较大（如 24kHz），直接微调可能效果不佳。如果有足够的数据，建议从头开始训练新模型，而不是在预训练权重上进行微调。",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},39299,"在 Google Colab 上微调模型时遇到 CUDA\u002FcuDNN 注册错误或训练无进度，可能的原因是什么？","这类错误通常与环境配置有关。成功训练的用户建议检查以下配置：确保 CUDA 和 PyTorch 版本匹配（例如 CUDA 12.4 搭配对应的 Torch 版本）。日志中出现的 `Unable to register cuDNN factory` 警告有时不影响实际运行，但如果训练迭代数（it\u002Fs）始终为 0，需重点排查深度学习框架与底层驱动的版本兼容性问题。","https:\u002F\u002Fgithub.com\u002Fmyshell-ai\u002FMeloTTS\u002Fissues\u002F116",{"id":153,"question_zh":154,"answer_zh":155,"source_url":127},39300,"训练时说话人数量（n_speakers）参数应该如何设置？","配置中的 `n_speakers` 参数值不应小于数据集中实际包含的说话人数量。只要满足此条件，训练过程通常能成功进行。例如，如果您使用包含 1 个、3 个或 4 个说话人的数据集，请确保配置文件中的 n_speakers 至少等于这些数值。",[157],{"id":158,"version":159,"summary_zh":79,"released_at":160},315246,"v0.1.2","2024-03-01T02:48:13"]