[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thinhlpg--vixtts-demo":3,"tool-thinhlpg--vixtts-demo":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},5908,"ChatTTS","2noise\u002FChatTTS","ChatTTS 是一款专为日常对话场景打造的生成式语音模型，特别适用于大语言模型助手等交互式应用。它主要解决了传统文本转语音（TTS）技术在对话中缺乏自然感、情感表达单一以及难以处理停顿、笑声等细微语气的问题，让机器生成的语音听起来更像真人在聊天。\n\n这款工具非常适合开发者、研究人员以及希望为应用增添自然语音交互功能的设计师使用。普通用户也可以通过社区开发的衍生产品体验其能力。ChatTTS 的核心亮点在于其对对话任务的深度优化：它不仅支持中英文双语，还能精准控制韵律细节，自动生成自然的 laughter（笑声）、pauses（停顿）和 interjections（插入语），从而实现多说话人的互动对话效果。在韵律表现上，ChatTTS 超越了大多数开源 TTS 模型。目前开源版本基于 4 万小时数据预训练而成，虽主要用于学术研究与教育目的，但已展现出强大的潜力，并支持流式音频生成与零样本推理，为后续的多情绪控制等进阶功能奠定了基础。",39042,"2026-04-09T11:54:03",[19,17,20,21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":29,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":114,"github_topics":115,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":118,"updated_at":119,"faqs":120,"releases":151},6998,"thinhlpg\u002Fvixtts-demo","vixtts-demo","A Vietnamese Voice Cloning Text-to-Speech Model ✨","vixtts-demo 是一款专注于越南语的语音克隆文字转语音（TTS）模型。它基于强大的 XTTS-v2 架构，并利用高质量的 viVoice 数据集进行微调，旨在解决越南语合成中自然度不足及特定说话人声音复刻的难题。用户只需提供少量参考音频，即可生成音色逼真、情感丰富的越南语语音，同时也支持其他语言的基础合成。\n\n这款工具特别适合需要快速验证效果的开发者、研究多语言语音合成的学者，以及希望体验前沿 AI 配音技术的普通用户。对于想要本地部署的技术人员，项目提供了详细的 Ubuntu\u002FWSL2 环境配置指南；而普通用户则可直接通过 Hugging Face 空间或 Google Colab 在线试用，无需复杂安装。\n\n其技术亮点在于集成了 Vinorm 等库进行专业的越南语文本规范化处理，有效提升了发音准确性，并引入 DeepFilterNet 进行降噪优化。此外，借助 DeepSpeed 加速推理，即使在消费级显卡上也能获得流畅的体验。需要注意的是，该模型在少于 10 个字的短句处理上仍有提升空间，且主要优化方向为越南语，其他语言效果可能略逊一筹。作为一个以演示为核心的开源项目，v","vixtts-demo 是一款专注于越南语的语音克隆文字转语音（TTS）模型。它基于强大的 XTTS-v2 架构，并利用高质量的 viVoice 数据集进行微调，旨在解决越南语合成中自然度不足及特定说话人声音复刻的难题。用户只需提供少量参考音频，即可生成音色逼真、情感丰富的越南语语音，同时也支持其他语言的基础合成。\n\n这款工具特别适合需要快速验证效果的开发者、研究多语言语音合成的学者，以及希望体验前沿 AI 配音技术的普通用户。对于想要本地部署的技术人员，项目提供了详细的 Ubuntu\u002FWSL2 环境配置指南；而普通用户则可直接通过 Hugging Face 空间或 Google Colab 在线试用，无需复杂安装。\n\n其技术亮点在于集成了 Vinorm 等库进行专业的越南语文本规范化处理，有效提升了发音准确性，并引入 DeepFilterNet 进行降噪优化。此外，借助 DeepSpeed 加速推理，即使在消费级显卡上也能获得流畅的体验。需要注意的是，该模型在少于 10 个字的短句处理上仍有提升空间，且主要优化方向为越南语，其他语言效果可能略逊一筹。作为一个以演示为核心的开源项目，vixtts-demo 为越南语语音技术领域提供了一个易用且高效的参考范例。","# viXTTS Demo 🗣️🔥\n\n## Sử dụng nhanh ✨\n\n👉 Truy cập \u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fthinhlpg\u002Fvixtts-demo> để dùng ngay mà không cần cài đặt.\n\n## Introduction 👋\n\nviXTTS is a text-to-speech voice generation tool that offers voice cloning voices in Vietnamese and other languages. This model is a fine-tuned version based on the [XTTS-v2.0.3](https:\u002F\u002Fhuggingface.co\u002Fcoqui\u002FXTTS-v2) model, utilizing the [viVoice](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fcapleaf\u002FviVoice) dataset. This repository is primarily intended for demostration purposes.\n\nThe model can be accessed at: [viXTTS on Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fcapleaf\u002FviXTTS)\n\n## Online usage (Recommended)\n\n- You can try the model here: \u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fthinhlpg\u002Fvixtts-demo>\n- For a quick demonstration, please refer to [this notebook](.\u002FviXTTS_Demo.ipynb) on Google Colab.\nTutorial (Vietnamese): \u003Chttps:\u002F\u002Fyoutu.be\u002FpbwEbpOy0m8?feature=shared>\n![viXTTS Colab Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthinhlpg_vixtts-demo_readme_37fbbd71eba3.png)\n\n## Local Usage\n\nThis code is specifically designed for running on Ubuntu or WSL2. It is not intended for use on macOS or Windows systems.\n![viXTTS Gradio Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthinhlpg_vixtts-demo_readme_5dc907691887.png)\n\n### Hardware Recommendations\n\n- At least 10GB of free disk space\n- At least 16GB of RAM\n- **Nvidia GPU** with a minimum of 4GB of VRAM\n- By default, the model will utilize the GPU. In the absence of a GPU, it will run on the CPU and run much slower.\n\n### Required Software\n\n- Git\n- Python version >=3.9 and \u003C= 3.11. The default version is set to 3.11, but you can modify the Python version in the `run.sh` file.\n\n### Usage\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\ncd vixtts-demo\n.\u002Frun.sh\n```\n\n1. Run `run.sh` (dependencies will be automatically installed for the first run).\n2. Access the Gradio demo link.\n3. Load the model and wait for it to load.\n4. Inference and Enjoy 🤗\n5. The result will be saved in `output\u002F`\n\n## Limitation\n\n- Subpar performance for input sentences under 10 words in Vietnamese language (yielding inconsistent output and odd trailing sounds).\n- This model is only fine-tuned in Vietnamese. The model's effectiveness with languages other than Vietnamese hasn't been tested, potentially reducing quality.\n\n## Contributions\n\nThis project is not being actively maintained, and I do not plan to release the finetuning code due to sensitive reasons, as it might be used for unethical purposes. If you want to contribute by creating versions for other operating systems, such as Windows or macOS, please fork the repository, create a new branch, test thoroughly on the respective OS, and submit a pull request specifying your contributions.\n\n## Acknowledgements\n\nWe would like to express our gratitude to all libraries, and resources that have played a role in the development of this demo, especially:\n\n- [Coqui TTS](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS) for XTTS foundation model and inference code\n- [Vinorm](https:\u002F\u002Fgithub.com\u002Fv-nhandt21\u002FVinorm) and [Undethesea](https:\u002F\u002Fgithub.com\u002Fundertheseanlp\u002Funderthesea) for Vietnamese text normalization\n- [Deepspeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed) for fast inference\n- [Huggingface Hub](https:\u002F\u002Fhuggingface.co\u002F) for hosting the model\n- [Gradio](https:\u002F\u002Fwww.gradio.app\u002F) for web UI\n- [DeepFilterNet](https:\u002F\u002Fgithub.com\u002FRikorose\u002FDeepFilterNet) for noise removal\n\n## Citation\n\n```bibtex\n@misc{viVoice,\n  author = {Thinh Le Phuoc Gia, Tuan Pham Minh, Hung Nguyen Quoc, Trung Nguyen Quoc, Vinh Truong Hoang},\n  title = {viVoice: Enabling Vietnamese Multi-Speaker Speech Synthesis},\n  url = {https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002FviVoice},\n  year = {2024}\n}\n```\n\nA manuscript and a friendly dev log documenting the process might be made available later (including other works that were experimented with, but details about the filtering process are not specified in this README file).\n\n## Contact 💬\n\n- Facebook: \u003Chttps:\u002F\u002Ffb.com\u002Fthinhlpg\u002F> (preferred; feel free to add friend and message me casually)\n- GitHub: \u003Chttps:\u002F\u002Fgithub.com\u002Fthinhlpg>\n- Email: \u003Cthinhlpg@gmail.com> (please don't; I prefer friendly, casual talk 💀)\n","# viXTTS 演示 🗣️🔥\n\n## 快速使用 ✨\n\n👉 访问 \u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fthinhlpg\u002Fvixtts-demo> 即可立即使用，无需安装。\n\n## 简介 👋\n\nviXTTS 是一款文本转语音的语音生成工具，支持越南语及其他语言的语音克隆。该模型基于 [XTTS-v2.0.3](https:\u002F\u002Fhuggingface.co\u002Fcoqui\u002FXTTS-v2) 进行微调，并使用了 [viVoice](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fcapleaf\u002FviVoice) 数据集。本仓库主要用于演示目的。\n\n模型访问地址：[viXTTS 在 Hugging Face 上](https:\u002F\u002Fhuggingface.co\u002Fcapleaf\u002FviXTTS)\n\n## 在线使用（推荐）\n\n- 您可以在这里试用该模型：\u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fthinhlpg\u002Fvixtts-demo>\n- 如需快速演示，请参阅 Google Colab 上的 [此笔记本](.\u002FviXTTS_Demo.ipynb)。\n教程（越南语）：\u003Chttps:\u002F\u002Fyoutu.be\u002FpbwEbpOy0m8?feature=shared>\n![viXTTS Colab 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthinhlpg_vixtts-demo_readme_37fbbd71eba3.png)\n\n## 本地使用\n\n此代码专为 Ubuntu 或 WSL2 系统设计，不适用于 macOS 或 Windows 系统。\n![viXTTS Gradio 演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthinhlpg_vixtts-demo_readme_5dc907691887.png)\n\n### 硬件建议\n\n- 至少 10GB 可用磁盘空间\n- 至少 16GB 内存\n- **Nvidia GPU**，显存不低于 4GB\n- 默认情况下，模型会利用 GPU 运行。若无 GPU，则将在 CPU 上运行，速度会显著变慢。\n\n### 必要软件\n\n- Git\n- Python 版本 >=3.9 且 \u003C=3.11。默认版本设置为 3.11，但您可以在 `run.sh` 文件中修改 Python 版本。\n\n### 使用方法\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\ncd vixtts-demo\n.\u002Frun.sh\n```\n\n1. 运行 `run.sh`（首次运行时会自动安装依赖项）。\n2. 打开 Gradio 演示链接。\n3. 加载模型并等待加载完成。\n4. 进行推理并享受成果 🤗\n5. 结果将保存在 `output\u002F` 目录下。\n\n## 局限性\n\n- 对于越南语中少于 10 个词的输入句子，性能较差（输出不稳定，末尾常伴有奇怪的声音）。\n- 本模型仅针对越南语进行了微调。对于其他语言，其效果尚未经过测试，可能会降低质量。\n\n## 贡献\n\n该项目目前未处于积极维护状态，出于敏感原因，我暂不打算公开微调代码，以免被用于不道德的目的。如果您希望为其他操作系统（如 Windows 或 macOS）创建版本并作出贡献，请 fork 本仓库，新建分支，在相应操作系统上充分测试后提交包含您贡献内容的 pull request。\n\n## 致谢\n\n我们衷心感谢所有在本演示开发过程中发挥作用的库和资源，尤其是：\n\n- [Coqui TTS](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS)，提供 XTTS 基础模型及推理代码\n- [Vinorm](https:\u002F\u002Fgithub.com\u002Fv-nhandt21\u002FVinorm) 和 [Undethesea](https:\u002F\u002Fgithub.com\u002Fundertheseanlp\u002Funderthesea)，用于越南语文本规范化\n- [Deepspeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed)，实现快速推理\n- [Huggingface Hub](https:\u002F\u002Fhuggingface.co\u002F)，托管该模型\n- [Gradio](https:\u002F\u002Fwww.gradio.app\u002F)，提供 Web UI\n- [DeepFilterNet](https:\u002F\u002Fgithub.com\u002FRikorose\u002FDeepFilterNet)，用于噪声去除\n\n## 引用\n\n```bibtex\n@misc{viVoice,\n  author = {Thinh Le Phuoc Gia, Tuan Pham Minh, Hung Nguyen Quoc, Trung Nguyen Quoc, Vinh Truong Hoang},\n  title = {viVoice: 实现越南语多说话人语音合成},\n  url = {https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002FviVoice},\n  year = {2024}\n}\n```\n\n后续可能会发布一篇论文以及记录开发过程的友好日志（其中还将包含其他实验性工作），但关于滤波处理的详细信息并未在此 README 文件中说明。\n\n## 联系方式 💬\n\n- Facebook：\u003Chttps:\u002F\u002Ffb.com\u002Fthinhlpg\u002F>（首选；欢迎加好友并随意私信）\n- GitHub：\u003Chttps:\u002F\u002Fgithub.com\u002Fthinhlpg>\n- 邮箱：\u003Cthinhlpg@gmail.com>（请勿发送邮件；我更喜欢轻松友好的交流 💀）","# viXTTS 快速上手指南\n\nviXTTS 是一个基于 XTTS-v2 微调的文本转语音（TTS）工具，专注于越南语语音生成与克隆，同时也支持其他语言。本指南将帮助开发者在本地快速部署并运行该演示项目。\n\n## 环境准备\n\n本项目专为 **Ubuntu** 或 **WSL2** (Windows Subsystem for Linux) 环境设计，**不支持** macOS 或原生 Windows 系统。\n\n### 硬件要求\n- **磁盘空间**：至少 10GB 可用空间。\n- **内存 (RAM)**：至少 16GB。\n- **显卡 (GPU)**：推荐配备 **Nvidia GPU**，显存至少 4GB。\n  - *注：若无 GPU，模型将自动切换至 CPU 运行，但速度会显著变慢。*\n\n### 软件依赖\n- **Git**：用于代码克隆。\n- **Python**：版本需在 `3.9` 到 `3.11` 之间（默认配置为 3.11）。\n\n## 安装步骤\n\n请在终端中依次执行以下命令来克隆仓库并启动服务。首次运行时，脚本会自动安装所需依赖。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\ncd vixtts-demo\n.\u002Frun.sh\n```\n\n> **提示**：如果下载依赖速度较慢，可手动修改项目内的 `requirements.txt` 或使用 `pip` 指定国内镜像源（如清华源、阿里源）进行安装，但 `run.sh` 脚本默认使用官方源。\n\n## 基本使用\n\n1. **启动服务**：运行上述 `.\u002Frun.sh` 脚本后，等待依赖安装完毕及模型加载完成。\n2. **访问界面**：终端会输出一个 Gradio 本地访问链接（通常为 `http:\u002F\u002F127.0.0.1:7860`），在浏览器中打开该链接。\n3. **语音生成**：\n   - 在 Web 界面中输入文本。\n   - 上传参考音频（用于语音克隆，可选）。\n   - 点击生成按钮进行推理。\n4. **获取结果**：生成的音频文件将自动保存在项目目录下的 `output\u002F` 文件夹中。\n\n### 在线体验（无需安装）\n如果您暂时无法配置本地环境，可以直接访问 Hugging Face Spaces 进行在线试用：\n- 地址：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fthinhlpg\u002Fvixtts-demo\n- Google Colab 演示：参考项目中的 `viXTTS_Demo.ipynb` 笔记本。\n\n## 注意事项\n- **短句限制**：对于少于 10 个单词的越南语输入，生成效果可能不佳（可能出现声音不一致或尾音异常）。\n- **语言支持**：模型主要针对越南语优化，其他语言的效果未经过充分测试，质量可能有所下降。","越南一家小型有声书制作团队正急需将大量短篇故事快速转化为音频，但苦于缺乏专业的越南语配音员和录音设备。\n\n### 没有 vixtts-demo 时\n- **人力成本高昂**：必须聘请母语为越南语的专业配音演员，按小时计费导致预算严重超支。\n- **制作周期漫长**：从预约录音棚、协调演员档期到后期剪辑降噪，单个故事上线需耗时数天。\n- **声音风格单一**：难以找到能完美契合不同角色性格（如老人、儿童）的特定嗓音，作品缺乏感染力。\n- **修改极其困难**：一旦文本有细微调整，必须重新召集人员进棚重录，流程繁琐且效率低下。\n\n### 使用 vixtts-demo 后\n- **实现零成本克隆**：仅需录入几分钟参考音频，vixtts-demo 即可克隆出逼真的越南语人声，无需支付昂贵配音费。\n- **即时生成音频**：在 Hugging Face 空间或本地部署后，输入文本秒级生成语音，将制作周期从几天缩短至几分钟。\n- **灵活定制音色**：利用其声音克隆特性，轻松为不同角色生成专属音色，大幅提升故事的演绎层次感。\n- **文本驱动迭代**：修改文案后只需重新运行推理，vixtts-demo 立刻输出新音频，彻底告别重复录音的麻烦。\n\nvixtts-demo 通过低门槛的越南语声音克隆技术，让小型团队也能以极低成本实现专业级的有声内容规模化生产。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthinhlpg_vixtts-demo_37fbbd71.png","thinhlpg","Thinh Le","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthinhlpg_6a65bb43.jpg"," Weird knowledge increased",null,"Vietnam","https:\u002F\u002Fgithub.com\u002Fthinhlpg",[84,88,92],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",58.4,{"name":89,"color":90,"percentage":91},"Python","#3572A5",37.3,{"name":93,"color":94,"percentage":95},"Shell","#89e051",4.3,514,206,"2026-04-06T03:34:54","MPL-2.0","Linux, WSL2","必需（Nvidia GPU），最低显存 4GB。若无 GPU 将使用 CPU 运行但速度极慢，未明确指定 CUDA 版本。","最低 16GB",{"notes":104,"python":105,"dependencies":106},"该工具明确不支持在原生 macOS 或 Windows 系统上运行，仅限 Ubuntu 或 WSL2。首次运行会自动安装依赖。模型主要针对越南语优化，少于 10 个词的越南语输入效果可能不佳。其他语言未经测试。项目不再积极维护，且不计划发布微调代码。",">=3.9 且 \u003C=3.11 (默认为 3.11)",[107,108,109,110,111,112,113],"Git","Coqui TTS","Vinorm","Undethesea","Deepspeed","Gradio","DeepFilterNet",[21],[116,117],"text-to-speech","vietnamese","2026-03-27T02:49:30.150509","2026-04-13T13:37:49.910736",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},31521,"如何为越南语训练分词器（Tokenizer）并扩展词汇表？","可以使用以下代码片段训练分词器。训练完成后，通过自定义 Python 脚本将新词汇与现有词汇合并。作者选择了 1000 的词汇大小以捕捉越南语的细微差别，最终增加了 863 个新令牌。\n\n代码示例：\n```python\nfrom tokenizers import trainers\n\ndef get_training_corpus():\n    # 数据集来源：https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fntt123\u002Fviet-tts-dataset\n    dataset = viet_tts_dataset[\"train\"]\n    for start_idx in range(0, len(dataset), 1000):\n        samples = dataset[start_idx : start_idx + 1000]\n        yield samples[\"transcription\"]\n\ntrainer = trainers.BpeTrainer(vocab_size=1000)\ntokenizer.train_from_iterator(get_training_corpus(), trainer=trainer)\ntokenizer.save(\"new-tokenizer-file-path.json\")\n```","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F6",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},31522,"遇到 'NotImplementedError: Language vi is not supported' 错误如何解决？","该错误通常是因为未正确安装支持越南语的 TTS 分支版本。请确保取消注释并运行以下命令来克隆特定分支并安装，安装后务必重启运行时环境：\n```bash\n# !git clone --branch add-vietnamese-xtts -q https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002FTTS.git\n# !pip install --use-deprecated=legacy-resolver -q -e TTS\n# ❗❗❗ 重要：安装 TTS 后请重启运行时\n```","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F26",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},31523,"在 Google Colab 中运行时出现错误怎么办？","如果在 Colab 中遇到运行错误，可以通过指定 transformers 库的版本来解决。尝试运行以下命令：\n```bash\n!pip install transformers==4.43.0\n```","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F20",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},31524,"在哪里可以获取用于训练的越南语数据集？","您可以在此 Hugging Face 仓库中申请访问数据集权限：\nhttps:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fcapleaf\u002FviVoice","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F7",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},31525,"用户是否可以基于此项目继续训练新模型？","根据维护者的回复，目前该项目主要供直接使用，不支持用户直接在此基础上继续进行微调训练（\"chỉ có thể dùng chứ không train tiếp được ạ\"）。","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F3",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},31526,"修改 vocab 文件后加载模型出现 'size mismatch' 维度不匹配错误是什么原因？","当您修改了 tokenizer 和 vocab 文件（例如从 6681 增加到 7544）但未重新训练模型权重时，会出现此错误。错误信息显示预训练检查点（checkpoint）中的嵌入层权重形状（如 [6681, 1024]）与当前模型配置的形状（如 [7544, 1024]）不一致。这通常意味着您需要使用新的词汇表从头开始训练或进行特定的权重初始化适配，而不能直接加载原有的预训练权重。","https:\u002F\u002Fgithub.com\u002Fthinhlpg\u002Fvixtts-demo\u002Fissues\u002F2",[]]