[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-netease-youdao--EmotiVoice":3,"tool-netease-youdao--EmotiVoice":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":76,"owner_location":79,"owner_email":78,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":116,"github_topics":117,"view_count":131,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":132,"updated_at":133,"faqs":134,"releases":175},2759,"netease-youdao\u002FEmotiVoice","EmotiVoice","EmotiVoice 😊: a Multi-Voice and Prompt-Controlled TTS Engine","EmotiVoice 是一款由网易有道开源的现代文本转语音（TTS）引擎，旨在让机器朗读充满真实的情感。它不仅能流畅支持中英文双语，更核心地解决了传统语音合成声音单调、缺乏感染力的痛点。通过独特的情感合成技术，用户可以轻松控制输出语音的情绪状态，如快乐、兴奋、悲伤或愤怒，从而生成极具表现力的音频内容。\n\n该工具内置了超过 2000 种不同的音色库，并支持基于提示词（Prompt）的精细控制，甚至允许用户利用个人数据进行声音克隆，定制专属嗓音。在功能体验上，EmotiVoice 兼顾了不同人群的需求：普通用户可通过直观的网页界面或 Mac 客户端快速上手；开发者与研究人员则能利用其提供的 Docker 镜像、脚本接口及兼容 OpenAI 标准的 API，轻松实现批量生成与系统集成。\n\n无论是需要制作有声读物的内容创作者、追求自然交互体验的产品设计师，还是致力于语音技术研究的专业人员，EmotiVoice 都能提供强大且免费的技术支持。作为一个社区驱动的开源项目，它正不断迭代，致力于让每个人都能低成本地创造出富有情感温度的语音作品。","\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F4833\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnetease-youdao_EmotiVoice_readme_4a68feb902da.png\" alt=\"netease-youdao%2FEmotiVoice | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n\u003Cfont size=4> README: EN | \u003Ca href=\".\u002FREADME.zh.md\">中文\u003C\u002Fa>  \u003C\u002Ffont>\n    \u003Ch1>EmotiVoice 😊: a Multi-Voice and Prompt-Controlled TTS Engine\u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n    \u003Ca href=\".\u002FREADME.zh.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FREADME-中文版本-red\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-yellow\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FYDopensource\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffollow-%40YDOpenSource-1DA1F2?logo=twitter&style={style}\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n\u003C\u002Fdiv>\n\u003Cbr>\n\n**EmotiVoice** is a powerful and modern open-source text-to-speech engine that is available to you at no cost. EmotiVoice speaks both English and Chinese, and with over 2000 different voices (refer to the [List of Voices](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002F😊-voice-wiki-page) for details). The most prominent feature is **emotional synthesis**, allowing you to create speech with a wide range of emotions, including happy, excited, sad, angry and others.\n\nAn easy-to-use web interface is provided. There is also a scripting interface for batch generation of results. \n\nHere are a few samples that EmotiVoice generates:\n\n\n- [Chinese audio sample](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002F6426d7c1-d620-4bfc-ba03-cd7fc046a4fb)\n  \n- [English audio sample](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002F8f272eba-49db-493b-b479-2d9e5a419e26)\n  \n- [Fun Chinese English audio sample](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002Fa0709012-c3ef-4182-bb0e-b7a2ba386f1c)\n\n## Demo\n\nA demo is hosted on Replicate, [EmotiVoice](https:\u002F\u002Freplicate.com\u002Fbramhooimeijer\u002Femotivoice).\n\n## Hot News\n\n- [x] Tuning voice speed is now supported in 'OpenAI-compatible-TTS API', thanks to [@john9405](https:\u002F\u002Fgithub.com\u002Fjohn9405). [#90](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fpull\u002F90) [#67](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F67) [#77](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F77)\n\n- [x] [The EmotiVoice app for Mac](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Freleases\u002Fdownload\u002Fv0.3\u002Femotivoice-1.0.0-arm64.dmg) was released on December 28th, 2023. Just download and taste EmotiVoice's offerings!\n\n- [x] [The EmotiVoice HTTP API](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FHTTP-API) was released on December 6th, 2023. Easier to start, faster to use, and with **over 13,000 free calls**. Additionally, users can explore more captivating voices provided by [Zhiyun](https:\u002F\u002Fai.youdao.com\u002F).\n- [x] [Voice Cloning with your personal data](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FVoice-Cloning-with-your-personal-data) has been released on December 13th, 2023, along with [DataBaker Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FDataBaker) and [LJSpeech Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FLJspeech). \n\n## Features under development\n\n- [ ] Support for more languages, such as Japanese and Korean. [#19](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F19) [#22](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F22)\n\nEmotiVoice prioritizes community input and user requests. We welcome your feedback!\n\n## Quickstart\n\n### EmotiVoice Docker image\n\nThe easiest way to try EmotiVoice is by running the docker image. You need a machine with a NVidia GPU. If you have not done so, set up NVidia container toolkit by following the instructions for [Linux](https:\u002F\u002Fwww.server-world.info\u002Fen\u002Fnote?os=Ubuntu_22.04&p=nvidia&f=2) or [Windows WSL2](https:\u002F\u002Fgithub.com\u002Fnyp-sit\u002Fit3103\u002Fblob\u002Fmain\u002Fnvidia-docker-wsl2.md). Then EmotiVoice can be run with,\n\n```sh\ndocker run -dp 127.0.0.1:8501:8501 syq163\u002Femoti-voice:latest\n```\nThe Docker image was updated on January 4th, 2024. If you have an older version, please update it by running the following commands:\n```sh\ndocker pull syq163\u002Femoti-voice:latest\ndocker run -dp 127.0.0.1:8501:8501 -p 127.0.0.1:8000:8000 syq163\u002Femoti-voice:latest\n```\nNow open your browser and navigate to http:\u002F\u002Flocalhost:8501 to start using EmotiVoice's powerful TTS capabilities.\n\nStarting from this version, the 'OpenAI-compatible-TTS API' is now accessible via http:\u002F\u002Flocalhost:8000\u002F.\n\n### Full installation\n\n```sh\nconda create -n EmotiVoice python=3.8 -y\nconda activate EmotiVoice\npip install torch torchaudio\npip install numpy numba scipy transformers soundfile yacs g2p_en jieba pypinyin pypinyin_dict\npython -m nltk.downloader \"averaged_perceptron_tagger_eng\"\n```\n\n### Prepare model files\n\nWe recommend that users refer to the wiki page [How to download the pretrained model files](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FPretrained-models) if they encounter any issues.\n\n```sh\ngit lfs install\ngit lfs clone https:\u002F\u002Fhuggingface.co\u002FWangZeJun\u002Fsimbert-base-chinese WangZeJun\u002Fsimbert-base-chinese\n```\nor, you can run:\n```sh\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002FWangZeJun.git\n```\n\n### Inference\n\n1. You can download the [pretrained models](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1y6Xwj_GG9ulsAonca_unSGbJ4lxbNymM?usp=sharing) by simply running the following command:\n```sh\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002Foutputs.git\n```\n2. The inference text format is `\u003Cspeaker>|\u003Cstyle_prompt\u002Femotion_prompt\u002Fcontent>|\u003Cphoneme>|\u003Ccontent>`. \n\n  - inference text example: `8051|Happy|\u003Csos\u002Feos> [IH0] [M] [AA1] [T] engsp4 [V] [OY1] [S] engsp4 [AH0] engsp1 [M] [AH1] [L] [T] [IY0] engsp4 [V] [OY1] [S] engsp1 [AE1] [N] [D] engsp1 [P] [R] [AA1] [M] [P] [T] engsp4 [K] [AH0] [N] [T] [R] [OW1] [L] [D] engsp1 [T] [IY1] engsp4 [T] [IY1] engsp4 [EH1] [S] engsp1 [EH1] [N] [JH] [AH0] [N] . \u003Csos\u002Feos>|Emoti-Voice - a Multi-Voice and Prompt-Controlled T-T-S Engine`.\n4. You can get phonemes by `python frontend.py data\u002Fmy_text.txt > data\u002Fmy_text_for_tts.txt`.\n\n5. Then run:\n```sh\nTEXT=data\u002Finference\u002Ftext\npython inference_am_vocoder_joint.py \\\n--logdir prompt_tts_open_source_joint \\\n--config_folder config\u002Fjoint \\\n--checkpoint g_00140000 \\\n--test_file $TEXT\n```\nthe synthesized speech is under `outputs\u002Fprompt_tts_open_source_joint\u002Ftest_audio`.\n\n1. Or if you just want to use the interactive TTS demo page, run:\n```sh\npip install streamlit\nstreamlit run demo_page.py\n```\n\n### OpenAI-compatible-TTS API\n\nThanks to @lewangdev for adding an OpenAI compatible API [#60](..\u002F..\u002Fissues\u002F60). To set it up, use the following command:\n\n```sh\npip install fastapi pydub uvicorn[standard] pyrubberband\nuvicorn openaiapi:app --reload\n```\n\n### Wiki page\n\nYou may find more information from our [wiki](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki) page.\n\n## Training\n\n[Voice Cloning with your personal data](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FVoice-Cloning-with-your-personal-data) has been released on December 13th, 2023.\n\n\n## Roadmap & Future work\n\n- Our future plan can be found in the [ROADMAP](.\u002FROADMAP.md) file.\n- The current implementation focuses on emotion\u002Fstyle control by prompts. It uses only pitch, speed, energy, and emotion as style factors, and does not use gender. But it is not complicated to change it to style\u002Ftimbre control.\n- Suggestions are welcome. You can file issues or [@ydopensource](https:\u002F\u002Ftwitter.com\u002FYDopensource) on twitter.\n\n\n## WeChat group\nWelcome to scan the QR code below and join the WeChat group.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnetease-youdao_EmotiVoice_readme_4c2d67b2d40d.png\" alt=\"qr\" width=\"150\"\u002F>\n\n## Credits\n\n- [PromptTTS](https:\u002F\u002Fspeechresearch.github.io\u002Fprompttts\u002F). The PromptTTS paper is a key basis of this project.\n- [LibriTTS](https:\u002F\u002Fwww.openslr.org\u002F60\u002F). The LibriTTS dataset is used in training of EmotiVoice.\n- [HiFiTTS](https:\u002F\u002Fwww.openslr.org\u002F109\u002F). The HiFi TTS dataset is used in training of EmotiVoice.\n- [ESPnet](https:\u002F\u002Fgithub.com\u002Fespnet\u002Fespnet). \n- [WeTTS](https:\u002F\u002Fgithub.com\u002Fwenet-e2e\u002Fwetts)\n- [HiFi-GAN](https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan)\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [tacotron](https:\u002F\u002Fgithub.com\u002Fkeithito\u002Ftacotron)\n- [KAN-TTS](https:\u002F\u002Fgithub.com\u002Falibaba-damo-academy\u002FKAN-TTS)\n- [StyleTTS](https:\u002F\u002Fgithub.com\u002Fyl4579\u002FStyleTTS)\n- [Simbert](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fsimbert)\n- [cn2an](https:\u002F\u002Fgithub.com\u002FAilln\u002Fcn2an). EmotiVoice incorporates cn2an for number processing.\n\n## License\n\nEmotiVoice is provided under the Apache-2.0 License - see the [LICENSE](.\u002FLICENSE) file for details.\n\nThe interactive page is provided under the [User Agreement](.\u002FEmotiVoice_UserAgreement_易魔声用户协议.pdf) file.\n","\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Ftrendshift.io\u002Frepositories\u002F4833\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnetease-youdao_EmotiVoice_readme_4a68feb902da.png\" alt=\"netease-youdao%2FEmotiVoice | Trendshift\" style=\"width: 250px; height: 55px;\" width=\"250\" height=\"55\"\u002F>\u003C\u002Fa>\n\n\u003Cfont size=4> README：英文 | \u003Ca href=\".\u002FREADME.zh.md\">中文\u003C\u002Fa>  \u003C\u002Ffont>\n    \u003Ch1>EmotiVoice 😊：一款多语音且可由提示词控制的TTS引擎\u003C\u002Fh1>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n    \u003Ca href=\".\u002FREADME.zh.md\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FREADME-中文版本-red\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache--2.0-yellow\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FYDopensource\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ffollow-%40YDOpenSource-1DA1F2?logo=twitter&style={style}\">\u003C\u002Fa>\n    &nbsp;&nbsp;&nbsp;&nbsp;\n\u003C\u002Fdiv>\n\u003Cbr>\n\n**EmotiVoice** 是一款功能强大、现代化的开源文本转语音引擎，完全免费供您使用。EmotiVoice 支持英语和中文两种语言，并提供超过2000种不同的声音（详情请参阅[声音列表](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002F😊-voice-wiki-page)）。其最突出的特点是**情感合成**，允许您生成包含多种情感的语音，包括开心、兴奋、悲伤、愤怒等。\n\n我们提供了易于使用的网页界面，同时也支持脚本接口，方便批量生成结果。\n\n以下是 EmotiVoice 生成的一些示例：\n\n- [中文音频样本](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002F6426d7c1-d620-4bfc-ba03-cd7fc046a4fb)\n  \n- [英文音频样本](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002F8f272eba-49db-493b-b479-2d9e5a419e26)\n  \n- [有趣的中英混合音频样本](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F3909232\u002Fa0709012-c3ef-4182-bb0e-b7a2ba386f1c)\n\n## 演示\n\n一个演示托管在 Replicate 上，地址为：[EmotiVoice](https:\u002F\u002Freplicate.com\u002Fbramhooimeijer\u002Femotivoice)。\n\n## 最新动态\n\n- [x] 现已在“与 OpenAI 兼容的 TTS API”中支持调整语速，感谢 [@john9405](https:\u002F\u002Fgithub.com\u002Fjohn9405) 的贡献。[#90](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fpull\u002F90) [#67](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F67) [#77](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F77)\n\n- [x] [适用于 Mac 的 EmotiVoice 应用程序](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Freleases\u002Fdownload\u002Fv0.3\u002Femotivoice-1.0.0-arm64.dmg) 于 2023 年 12 月 28 日发布。只需下载并体验 EmotiVoice 的强大功能！\n\n- [x] [EmotiVoice HTTP API](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FHTTP-API) 于 2023 年 12 月 6 日发布。上手更简单、使用更快，并且提供**超过 13,000 次免费调用**。此外，用户还可以探索由 [Zhiyun](https:\u002F\u002Fai.youdao.com\u002F) 提供的更多迷人声音。\n\n- [x] [基于个人数据的声音克隆](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FVoice-Cloning-with-your-personal-data) 于 2023 年 12 月 13 日发布，同时推出了 [DataBaker Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FDataBaker) 和 [LJSpeech Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FLJspeech)。\n\n## 正在开发的功能\n\n- [ ] 支持更多语言，例如日语和韩语。[#19](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F19) [#22](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F22)\n\nEmotiVoice 非常重视社区反馈和用户需求，欢迎您的宝贵意见！\n\n## 快速入门\n\n### EmotiVoice Docker 镜像\n\n尝试 EmotiVoice 最简单的方式就是运行 Docker 镜像。您需要一台配备 NVIDIA GPU 的机器。如果您尚未安装，请按照 [Linux](https:\u002F\u002Fwww.server-world.info\u002Fen\u002Fnote?os=Ubuntu_22.04&p=nvidia&f=2) 或 [Windows WSL2](https:\u002F\u002Fgithub.com\u002Fnyp-sit\u002Fit3103\u002Fblob\u002Fmain\u002Fnvidia-docker-wsl2.md) 的说明设置 NVIDIA 容器工具包。然后您可以使用以下命令运行 EmotiVoice：\n\n```sh\ndocker run -dp 127.0.0.1:8501:8501 syq163\u002Femoti-voice:latest\n```\n\nDocker 镜像已于 2024 年 1 月 4 日更新。如果您使用的是旧版本，请通过以下命令进行更新：\n\n```sh\ndocker pull syq163\u002Femoti-voice:latest\ndocker run -dp 127.0.0.1:8501:8501 -p 127.0.0.1:8000:8000 syq163\u002Femoti-voice:latest\n```\n\n现在打开浏览器，访问 http:\u002F\u002Flocalhost:8501 即可开始使用 EmotiVoice 强大的 TTS 功能。\n\n从这个版本开始，“与 OpenAI 兼容的 TTS API”现已可通过 http:\u002F\u002Flocalhost:8000 访问。\n\n### 完整安装\n\n```sh\nconda create -n EmotiVoice python=3.8 -y\nconda activate EmotiVoice\npip install torch torchaudio\npip install numpy numba scipy transformers soundfile yacs g2p_en jieba pypinyin pypinyin_dict\npython -m nltk.downloader \"averaged_perceptron_tagger_eng\"\n```\n\n### 准备模型文件\n\n如果遇到任何问题，我们建议用户参考维基页面[如何下载预训练模型文件](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FPretrained-models)。\n\n```sh\ngit lfs install\ngit lfs clone https:\u002F\u002Fhuggingface.co\u002FWangZeJun\u002Fsimbert-base-chinese WangZeJun\u002Fsimbert-base-chinese\n```\n或者，您也可以运行：\n```sh\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002FWangZeJun.git\n```\n\n### 推理\n\n1. 您可以通过运行以下命令轻松下载[预训练模型](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1y6Xwj_GG9ulsAonca_unSGbJ4lxbNymM?usp=sharing)：\n```sh\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002Foutputs.git\n```\n2. 推理文本格式为 `\u003Cspeaker>|\u003Cstyle_prompt\u002Femotion_prompt\u002Fcontent>|\u003Cphoneme>|\u003Ccontent>`。\n\n  - 推理文本示例：`8051|Happy|\u003Csos\u002Feos> [IH0] [M] [AA1] [T] engsp4 [V] [OY1] [S] engsp4 [AH0] engsp1 [M] [AH1] [L] [T] [IY0] engsp4 [V] [OY1] [S] engsp1 [AE1] [N] [D] engsp1 [P] [R] [AA1] [M] [P] [T] engsp4 [K] [AH0] [N] [T] [R] [OW1] [L] [D] engsp1 [T] [IY1] engsp4 [T] [IY1] engsp4 [EH1] [S] engsp1 [EH1] [N] [JH] [AH0] [N] . \u003Csos\u002Feos>|Emoti-Voice - a Multi-Voice and Prompt-Controlled T-T-S Engine`。\n4. 您可以通过 `python frontend.py data\u002Fmy_text.txt > data\u002Fmy_text_for_tts.txt` 获取音素。\n\n5. 然后运行：\n```sh\nTEXT=data\u002Finference\u002Ftext\npython inference_am_vocoder_joint.py \\\n--logdir prompt_tts_open_source_joint \\\n--config_folder config\u002Fjoint \\\n--checkpoint g_00140000 \\\n--test_file $TEXT\n```\n合成后的语音将位于 `outputs\u002Fprompt_tts_open_source_joint\u002Ftest_audio` 目录下。\n\n1. 或者，如果您只想使用交互式 TTS 演示页面，可以运行：\n```sh\npip install streamlit\nstreamlit run demo_page.py\n```\n\n### 与 OpenAI 兼容的 TTS API\n\n感谢 @lewangdev 添加了与 OpenAI 兼容的 API [#60](..\u002F..\u002Fissues\u002F60)。要设置它，请使用以下命令：\n\n```sh\npip install fastapi pydub uvicorn[standard] pyrubberband\nuvicorn openaiapi:app --reload\n```\n\n### 维基页面\n\n您可以在我们的[维基页面](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki)上找到更多信息。\n\n## 训练\n\n[使用个人数据进行语音克隆](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FVoice-Cloning-with-your-personal-data)已于2023年12月13日发布。\n\n\n## 路线图与未来工作\n\n- 我们的未来计划可以在 [ROADMAP](.\u002FROADMAP.md) 文件中找到。\n- 目前的实现主要通过提示词来控制情感和风格，仅使用音高、语速、能量和情感作为风格因素，未考虑性别因素。不过，将其调整为基于风格或音色的控制并不复杂。\n- 欢迎提出建议。您可以通过提交问题或在 Twitter 上联系 [@ydopensource](https:\u002F\u002Ftwitter.com\u002FYDopensource)。\n\n\n## 微信群\n欢迎扫描下方二维码加入微信群。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnetease-youdao_EmotiVoice_readme_4c2d67b2d40d.png\" alt=\"qr\" width=\"150\"\u002F>\n\n## 致谢\n\n- [PromptTTS](https:\u002F\u002Fspeechresearch.github.io\u002Fprompttts\u002F)。PromptTTS 论文是本项目的重要基础。\n- [LibriTTS](https:\u002F\u002Fwww.openslr.org\u002F60\u002F)。LibriTTS 数据集被用于 EmotiVoice 的训练。\n- [HiFiTTS](https:\u002F\u002Fwww.openslr.org\u002F109\u002F)。HiFi TTS 数据集也被用于 EmotiVoice 的训练。\n- [ESPnet](https:\u002F\u002Fgithub.com\u002Fespnet\u002Fespnet)。\n- [WeTTS](https:\u002F\u002Fgithub.com\u002Fwenet-e2e\u002Fwetts)。\n- [HiFi-GAN](https:\u002F\u002Fgithub.com\u002Fjik876\u002Fhifi-gan)。\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)。\n- [tacotron](https:\u002F\u002Fgithub.com\u002Fkeithito\u002Ftacotron)。\n- [KAN-TTS](https:\u002F\u002Fgithub.com\u002Falibaba-damo-academy\u002FKAN-TTS)。\n- [StyleTTS](https:\u002F\u002Fgithub.com\u002Fyl4579\u002FStyleTTS)。\n- [Simbert](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fsimbert)。\n- [cn2an](https:\u002F\u002Fgithub.com\u002FAilln\u002Fcn2an)。EmotiVoice 集成了 cn2an 以处理数字转换。\n\n## 许可证\n\nEmotiVoice 采用 Apache-2.0 许可证授权——详情请参阅 [LICENSE](.\u002FLICENSE) 文件。\n\n交互式页面则依据 [用户协议](.\u002FEmotiVoice_UserAgreement_易魔声用户协议.pdf) 文件提供。","# EmotiVoice 快速上手指南\n\nEmotiVoice 是一款强大的开源多音色、提示词控制的文本转语音（TTS）引擎，支持中英文及多种情感合成（如开心、悲伤、愤怒等），内置超过 2000 种音色。\n\n## 环境准备\n\n*   **操作系统**: Linux 或 Windows (WSL2)\n*   **硬件要求**: 推荐配备 NVIDIA GPU 的机器\n*   **软件依赖**:\n    *   Docker (推荐使用 Docker 方式运行，最简便)\n    *   或 Conda (Python 3.8+)\n    *   NVIDIA Container Toolkit (若使用 Docker 需预先安装)\n\n## 安装步骤\n\n### 方案一：Docker 运行（推荐）\n\n这是最快速的体验方式。确保已安装并配置好 NVIDIA Container Toolkit。\n\n1.  **拉取并运行镜像**：\n    ```sh\n    docker pull syq163\u002Femoti-voice:latest\n    docker run -dp 127.0.0.1:8501:8501 -p 127.0.0.1:8000:8000 syq163\u002Femoti-voice:latest\n    ```\n\n2.  **访问界面**：\n    打开浏览器访问 `http:\u002F\u002Flocalhost:8501` 即可使用 Web 交互界面。\n    *注：`http:\u002F\u002Flocalhost:8000\u002F` 提供了兼容 OpenAI 格式的 TTS API 接口。*\n\n### 方案二：完整源码安装\n\n若需进行开发或自定义训练，请按以下步骤操作：\n\n1.  **创建虚拟环境并安装基础依赖**：\n    ```sh\n    conda create -n EmotiVoice python=3.8 -y\n    conda activate EmotiVoice\n    pip install torch torchaudio\n    pip install numpy numba scipy transformers soundfile yacs g2p_en jieba pypinyin pypinyin_dict\n    python -m nltk.downloader \"averaged_perceptron_tagger_eng\"\n    ```\n\n2.  **下载预训练模型文件**（推荐使用国内 ModelScope 源加速）：\n    ```sh\n    # 安装 git-lfs\n    git lfs install\n    \n    # 方式 A：从 ModelScope 下载 (推荐国内用户)\n    git clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002FWangZeJun.git\n    \n    # 方式 B：从 HuggingFace 下载\n    # git lfs clone https:\u002F\u002Fhuggingface.co\u002FWangZeJun\u002Fsimbert-base-chinese WangZeJun\u002Fsimbert-base-chinese\n    ```\n\n3.  **下载推理所需输出模型**：\n    ```sh\n    git clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002Foutputs.git\n    ```\n\n4.  **安装 Web 演示依赖**（可选）：\n    ```sh\n    pip install streamlit\n    ```\n\n## 基本使用\n\n### 1. 启动交互式 Web 界面\n在源码目录下运行以下命令，即可启动本地 Demo 页面进行试听：\n```sh\nstreamlit run demo_page.py\n```\n随后在浏览器打开显示的本地地址即可。\n\n### 2. 命令行推理\n若需通过脚本批量生成音频，需先准备文本文件（格式：`\u003Cspeaker>|\u003Cemotion>|\u003Cphoneme>|\u003Ccontent>`）。\n\n**步骤 A：生成音素文件**\n```sh\npython frontend.py data\u002Fmy_text.txt > data\u002Fmy_text_for_tts.txt\n```\n\n**步骤 B：执行推理**\n```sh\nTEXT=data\u002Finference\u002Ftext\npython inference_am_vocoder_joint.py \\\n--logdir prompt_tts_open_source_joint \\\n--config_folder config\u002Fjoint \\\n--checkpoint g_00140000 \\\n--test_file $TEXT\n```\n生成的音频文件将保存在 `outputs\u002Fprompt_tts_open_source_joint\u002Ftest_audio` 目录下。\n\n### 3. 启用 OpenAI 兼容 API\n若需集成到现有工作流，可启动兼容 API 服务：\n```sh\npip install fastapi pydub uvicorn[standard] pyrubberband\nuvicorn openaiapi:app --reload\n```\n服务启动后，可通过 `http:\u002F\u002F127.0.0.1:8000` 调用接口。","某独立游戏开发团队正在为一款叙事驱动的冒险游戏制作多角色对话配音，需要让不同 NPC 在剧情转折时展现出愤怒、悲伤或兴奋等丰富情绪。\n\n### 没有 EmotiVoice 时\n- **情感表达僵硬**：传统 TTS 引擎生成的语音语调平淡，无法区分角色在“战斗胜利”与“亲人离世”时的情绪差异，导致玩家沉浸感大打折扣。\n- **多角色成本高昂**：游戏中有超过 20 个主要 NPC，若聘请真人配音演员录制多种情绪台词，预算严重超支且后期修改台词需重新约档期录音。\n- **多语言适配困难**：游戏计划发行中英文双版本，分别寻找两组配音团队不仅协调成本高，还难以保证两种语言下角色音色和性格的一致性。\n- **迭代效率低下**：策划微调剧本后，等待外部配音反馈的周期长达数天，严重拖慢了整个游戏的开发进度。\n\n### 使用 EmotiVoice 后\n- **精准情绪合成**：利用 EmotiVoice 的情感控制功能，开发者通过简单提示词即可让同一音色瞬间切换“愤怒”、“兴奋”或“悲伤”状态，使 NPC 演绎栩栩如生。\n- **海量音色零成本**：直接调用其内置的 2000+ 种音色库，免费为每个 NPC 分配独特声线，无需支付任何授权费或录音费，大幅降低制作门槛。\n- **中英双语一致体验**：借助其中英文双语支持能力，同一角色在两种语言版本中能保持相同的性格特征和情感张力，确保全球玩家体验统一。\n- **即时批量生成**：通过脚本接口批量处理更新后的剧本，几分钟内即可生成所有新台词音频，实现了“上午改剧本，下午进游戏测试”的高效迭代。\n\nEmotiVoice 将原本昂贵且漫长的配音流程转化为低成本、高灵活性的自动化工作流，让小型团队也能打造出电影级的情感交互体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnetease-youdao_EmotiVoice_e335e3bc.png","netease-youdao","NetEase Youdao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnetease-youdao_86654dba.png",null,"Beijing","http:\u002F\u002Fwww.youdao.com","https:\u002F\u002Fgithub.com\u002Fnetease-youdao",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.7,{"name":88,"color":89,"percentage":90},"Dockerfile","#384d54",0.2,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.1,8461,750,"2026-04-03T09:41:43","Apache-2.0","Linux, Windows (WSL2), macOS","运行 Docker 镜像必需 NVIDIA GPU（需安装 NVIDIA Container Toolkit）；Mac 版本有独立 ARM64 应用。未明确具体显存大小和 CUDA 版本，但通常建议 8GB+ 显存及 CUDA 11.7+ 以运行此类 TTS 模型。","未说明",{"notes":103,"python":104,"dependencies":105},"1. 推荐使用 Docker 部署（需 NVIDIA GPU），或通过 Conda 创建 Python 3.8 环境进行完整安装。2. macOS 用户可下载专用的 ARM64 应用程序，无需配置复杂环境。3. 首次运行前需通过 Git LFS 下载预训练模型文件（SimBERT 及输出模型）。4. 支持中英文双语及多种情感合成，提供 OpenAI 兼容的 API 接口。5. 若使用交互式页面，需额外安装 streamlit。","3.8",[106,107,108,109,110,111,112,113,114,115],"torch","torchaudio","numpy","numba","scipy","transformers","soundfile","yacs","g2p_en","jieba",[55,14,15,52,13],[118,119,120,121,122,123,124,125,126,127,128,129,130],"pytorch","speech","speech-synthesis","tts","multi-speaker","text-to-speech","deep-learning","prompt","emotivoice","ai","python","emotion","style",7,"2026-03-27T02:49:30.150509","2026-04-06T07:13:21.302245",[135,140,145,150,155,160,165,170],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},12759,"在 Windows 上运行时出现 'UnicodeDecodeError: gbk codec can't decode byte' 编码错误怎么办？","这是因为 Windows 默认使用 GBK 编码打开文件，而项目文件通常为 UTF-8。解决方法是在代码中打开文件时显式指定 encoding='utf-8'。\n需要修改的文件包括：\n1. EmotiVoice\u002Fconfig\u002Fjoint\u002Fconfig.py\n2. inference_am_vocoder_joint.py\n修改示例：\nwith open(text_path, \"r\", encoding=\"UTF-8\") as f:\n该问题已在后续版本修复，建议更新代码。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F2",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},12760,"运行程序时报错 'AttributeError: NoneType object has no attribute seek' 如何解决？","该错误通常是因为模型文件未正确下载或文件损坏（例如保留了 .zip 后缀）。\n解决步骤：\n1. 确认已下载所有必需的模型文件。\n2. 检查文件名，如果文件名为 xxx.zip，请尝试删除 '.zip' 后缀，确保文件是直接的模型文件而非压缩包。\n3. 重新加载数据或重启程序。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F27",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},12761,"在哪里可以查看支持的所有音色（Speaker）列表？","可以通过以下链接查看完整的音色列表及详细信息：\n1. GitHub Wiki 页面：https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002F%F0%9F%98%8A-voice-wiki-page\n2. 数据目录：https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002Fyoudao\u002Ftext","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F7",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},12762,"如何使用 Docker 部署并调用 OpenAI 兼容的 TTS API？端口是多少？","目前 Docker 镜像主要用于体验 Demo 页面（默认端口 8501），但也支持 OpenAI 兼容的 TTS API。\n维护者表示可以将 API 功能包含在 Docker 镜像中。如果您使用 Docker 部署，请确保拉取最新镜像以获取 API 支持：\ndocker pull syq163\u002Femoti-voice:latest\n关于具体的 API 端口和配置，需参考更新后的文档或容器日志，通常 API 服务会随主服务一起启动。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F87",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},12763,"生成的音频中句子末尾的音素丢失或不发音怎么办？","这是由于生成的音素序列中缺少起始符和结束符（sos\u002Feos）导致的。\n解决方法：\n1. 更新代码到最新版本，该问题已被修复。\n2. 如果手动生成音素，请确保按照 README.md 指示使用 frontend_en.py 脚本，它会自动处理 sos\u002Feos 标记：\npython frontend_en.py data\u002Fmy_text.txt > data\u002Fmy_text_for_tts.txt","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F71",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},12764,"使用 \u003Cbreak> 标签插入停顿不起作用怎么办？","该问题已在最新的 Docker 镜像中修复。\n如果您使用 Docker 部署，请执行以下命令更新镜像并重启容器：\n1. 拉取最新镜像：docker pull syq163\u002Femoti-voice:latest\n2. 重新运行容器：docker run -dp 127.0.0.1:8501:8501 syq163\u002Femoti-voice:latest\n如果是源码运行，请确保更新了 frontend.py 相关文件。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F59",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},12765,"预训练模型无法下载或链接失效，是否有其他下载地址？","如果原链接失效，可以使用 ModelScope 下载预训练模型。\n执行以下命令：\ngit clone https:\u002F\u002Fwww.modelscope.cn\u002Fsyq163\u002Foutputs.git\n此外，维护者也在计划将模型上传至 Hugging Face 等平台。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F21",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},12766,"如何将自己已有的英文语音数据转换为 EmotiVoice 训练所需的格式？","如果您已有 Prosody 数据（音素序列），不需要手动拼接。\n推荐直接使用 EmotiVoice 自带的 FrontEnd 工具自动生成符合格式的数据。\n如果需要自定义，确保格式为：\"text\": [\"\u003Csos\u002Feos>\"] + phones + [\"\u003Csos\u002Feos>\"]，即在音素列表前后分别添加起始和结束标记。","https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fissues\u002F102",[176,181],{"id":177,"version":178,"summary_zh":179,"released_at":180},71431,"v0.3","我们很高兴地宣布，EmotiVoice 0.3 今日正式发布。\n\n## EmotiVoice 0.3 更新亮点：\n- [x] 发布由 [Zhiyun](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F_Fbj4TI4ifC6N7NFOUrqKQ) 提供的 [EmotiVoice HTTP API](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fwiki\u002FHTTP-API)。\n- [x] 发布支持使用个人数据进行语音克隆的功能，并附带 [DataBaker Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FDataBaker) 和 [LJSpeech Recipe](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002FLJspeech)。#51 #53 #69 \n- [x] 更新文档：新增硬件需求的维基页面。#30 \n- [x] 英语推理速度显著提升。#50 \n- [x] 新增 Replicate 演示及 API。#55 \n- [x] 新增与 OpenAI 兼容的 API。#60 #42 #62 \n- [x] 新增 README_小白安装教程.md 文件。#65 #66 \n- [x] 修复单独使用 frontend_en.py 时的 bug。#71 \n\n## 致谢：\n@bramhooimeijer #55 \n@lewangdev #60 \n@ihmily #65 \n@gokul8747 #83 \n\n## 还有一件事\n我们非常激动地宣布，EmotiVoice Mac 版应用现已发布！现在即可下载，让您尽情体验 EmotiVoice 的所有精彩功能！#56","2023-12-28T10:27:44",{"id":182,"version":183,"summary_zh":184,"released_at":185},71432,"v0.2","在社区的宝贵反馈与协助下，我们非常高兴地宣布，EmotiVoice 0.2 今日正式发布。  \n## EmotiVoice 0.2 更新日志：  \n- [x] 新增对中英混合输入文本及数字的支持。#28 #8 #23  \n- [x] 修复了与部分语气助词相关的 bug，提升了整体稳定性。#18  \n- [x] 文档更新：新增[语音维基页面](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Ftree\u002Fmain\u002Fdata\u002Fyoudao\u002Ftext)。#7  \n- [x] 文档更新：新增全面的[路线图](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fblob\u002Fmain\u002FROADMAP.md)，详细介绍了未来的规划。#14  \n- [x] 更新了演示页面、用户许可协议等各项内容。  \n- [x] 搭建交流群。#1 #40  \n- [x] 提供预训练模型的下载链接。#4 #5 #21  \n\n欢迎各位更新代码并试用，也可以通过以下命令拉取 Docker 镜像：`docker pull syq163\u002Femoti-voice:0.2`  \n\n特别鸣谢：  \n@KimigaiiWuyi #17  \n@arjun-234 #38  \n@shirubei #32  \n以及众多贡献者……  \n\n我们由衷感谢大家的关注与支持！让我们共同庆祝这一里程碑式的成就——项目上线不到一周便突破 4,200 颗星！  \n![star-history-20231117](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FEmotiVoice\u002Fassets\u002F6308304\u002F5512bfdd-cb77-40db-91eb-ef14c27e6289)","2023-11-17T08:35:06"]