[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thorstenMueller--Thorsten-Voice":3,"tool-thorstenMueller--Thorsten-Voice":65},[4,18,32,41,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[15,16,27,28,13,29,30,14,31],"视频","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":38,"last_commit_at":39,"category_tags":40,"status":17},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[30,16,29],{"id":42,"name":43,"github_repo":44,"description_zh":45,"stars":46,"difficulty_score":38,"last_commit_at":47,"category_tags":48,"status":17},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[29,15,16,14],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":24,"last_commit_at":55,"category_tags":56,"status":17},7347,"lobehub","lobehub\u002Flobehub","LobeHub 是一个致力于工作与生活的智能体协作平台，旨在帮助用户发现、构建并与不断成长的 AI 智能体队友协同工作。它解决了当前 AI 应用中单点交互效率低、难以形成规模化协作网络的问题，将“智能体”确立为工作的基本单元，让人类与 AI 能够共同进化。\n\n无论是开发者、研究人员还是普通用户，都能通过 LobeHub 轻松设计多智能体协作流程。平台支持一键安装 MCP 插件、访问丰富的智能体市场，并提供本地与云端数据库管理、多用户协作等高级功能。其独特的技术亮点包括对多种大模型服务商的兼容、本地大模型部署支持、视觉识别、语音对话（TTS\u002FSTT）、文生图以及思维链（Chain of Thought）等能力。此外，LobeHub 还具备分支对话、工件生成、文件上传与知识库集成等实用特性，并适配桌面端、移动端及 PWA 场景，支持自定义主题。\n\n通过开源与自托管选项，LobeHub 为构建人机共演的未来协作网络提供了灵活、可扩展的基础设施。",75141,"2026-04-13T22:06:32",[30,16,13,14,15],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":38,"last_commit_at":63,"category_tags":64,"status":17},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65767,"2026-04-11T11:10:05",[14,29,16],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":81,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":24,"env_os":99,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":104,"github_topics":105,"view_count":24,"oss_zip_url":81,"oss_zip_packed_at":81,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":144},7817,"thorstenMueller\u002FThorsten-Voice","Thorsten-Voice","Thorsten-Voice: A free to use, offline working, high quality german TTS voice should be available for every project without any license struggling.","Thorsten-Voice 是一个专注于德语的高质量开源文本转语音（TTS）项目。它的核心目标是为各类应用提供一个完全免费、支持离线运行且无需担忧复杂授权问题的德语语音解决方案。在该项目出现之前，开发者往往难以找到既免费又具备商业友好许可的高质量德语语音数据，而 Thorsten-Voice 有效填补了这一空白，让德语语音合成技术能够更平等地服务于全球用户。\n\n该项目由志愿者 Thorsten Müller 贡献，他并非专业配音演员，却以开放共享的精神提供了多版本的语音数据集，涵盖中性语调、情感表达以及特定的黑森方言（Hessisch），并持续更新优化音质。这些数据集不仅包含原始音频，还配套了训练好的 TTS 模型，方便直接集成使用。\n\nThorsten-Voice 特别适合软件开发者、人工智能研究人员以及需要德语语音功能的教育或公益项目团队。对于希望构建离线德语语音助手、有声读物系统或无障碍辅助工具的用户来说，这是一个极具价值的资源。其独特的亮点在于坚持“无许可负担”原则，所有数据均通过 Zenodo 公开并提供 DOI 引用标识，鼓励学术与工业界的自由使用和引用。无论是想快速原型","Thorsten-Voice 是一个专注于德语的高质量开源文本转语音（TTS）项目。它的核心目标是为各类应用提供一个完全免费、支持离线运行且无需担忧复杂授权问题的德语语音解决方案。在该项目出现之前，开发者往往难以找到既免费又具备商业友好许可的高质量德语语音数据，而 Thorsten-Voice 有效填补了这一空白，让德语语音合成技术能够更平等地服务于全球用户。\n\n该项目由志愿者 Thorsten Müller 贡献，他并非专业配音演员，却以开放共享的精神提供了多版本的语音数据集，涵盖中性语调、情感表达以及特定的黑森方言（Hessisch），并持续更新优化音质。这些数据集不仅包含原始音频，还配套了训练好的 TTS 模型，方便直接集成使用。\n\nThorsten-Voice 特别适合软件开发者、人工智能研究人员以及需要德语语音功能的教育或公益项目团队。对于希望构建离线德语语音助手、有声读物系统或无障碍辅助工具的用户来说，这是一个极具价值的资源。其独特的亮点在于坚持“无许可负担”原则，所有数据均通过 Zenodo 公开并提供 DOI 引用标识，鼓励学术与工业界的自由使用和引用。无论是想快速原型验证的工程师，还是研究多语言语音合成的学者，都能从中受益，共同推动开放知识的发展。","![Thorsten-Voice logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FthorstenMueller_Thorsten-Voice_readme_4914df5632fb.png)\n\n- [Project motivation](#motivation-for-thorsten-voice-project-speaking_head-speech_balloon)\n  \n- [Personal note](#some-personal-words-before-using-thorsten-voice)\n\n- [**Thorsten** Voice Datasets](#voice-datasets)\n  - [Thorsten-Voice Dataset 2021.02 (Neutral)](#thorsten-voice-dataset-202102-neutral)\n  - [Thorsten-Voice Dataset 2021.06 (Emotional)](#thorsten-voice-dataset-202106-emotional)\n  - [Thorsten-Voice Dataset 2022.10 (Neutral)](#thorsten-voice-dataset-202210-neutral)\n  - [Thorsten-Voice Dataset 2023.09 (Hessisch)](#thorsten-voice-dataset-202309-hessisch)\n  - [Thorsten-Voice Dataset FULL 44kHz](#thorsten-voice-dataset-full-44khz)\n\n- [**Thorsten** TTS-Models](#tts-models)\n\n- [Thorsten-Voice youtube channel](#thorsten-voice-youtube-channel)  \n\n- [Public talks & conference speaker](#conference-speaker)\n\n\n# Motivation for Thorsten-Voice project :speaking_head: :speech_balloon:\nA **free** to use, **offline** working, **high quality** **german** **TTS** voice should be available for every project without any license struggling.\n\n# Personal words by Thorsten Müller\n> I contribute my voice as a person believing in a world where all people are equal. No matter of gender, sexual orientation, religion, skin color and geocoordinates of birth location. A global world where everybody is warmly welcome on any place on this planet and open and free knowledge and education is available to everyone. :earth_africa: (*Thorsten Müller*)\n\nPlease keep in mind, that **i am no professional voice talent**. I'm just a normal guy sharing his voice with the world.\n\n# Social media\n[![YouTube Channel Subscribers](https:\u002F\u002Fimg.shields.io\u002Fyoutube\u002Fchannel\u002Fsubscribers\u002FUCjqqTVVBTsxpm0iOhQ1fp9g?style=social)](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller)\n\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fintent\u002Ffollow?screen_name=ThorstenVoice\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FThorstenVoice?style=social&logo=twitter\" alt=\"follow on Twitter\">\u003C\u002Fa>\n[![Web](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeb-www.Thorsten--Voice.de-92a0c0)](https:\u002F\u002Fwww.Thorsten-Voice.de)\n\nFeel free to contact me on social media 🤗.\n\n| Platform         | Link                                                                                                            |\n| --------------- | ------- |\n| Youtube | [ThorstenVoice on Youtube](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller) |\n| LinkedIn | [Thorsten Müller on LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fthorsten-m%C3%BCller-848a344\u002F) |\n| Twitter | [ThorstenVoice on Twitter](https:\u002F\u002Ftwitter.com\u002FThorstenVoice) |\n| Huggingface | [ThorstenVoice on Huggingface](https:\u002F\u002Fhuggingface.co\u002FThorsten-Voice) |\n| Instagram | [ThorstenVoice on Instagram](https:\u002F\u002Fwww.instagram.com\u002Fthorsten_voice\u002F) |\n\n# Voice-Datasets\nAll my \"Thorsten-Voice\" datasets are listed and downloadable on Zenodo. Qoutation is highly appreciated in case you use them in your projects, products or papers.\n| Dataset         | DOI Link                                                                                                            |\n| --------------- | ------- |\n| Thorsten-Voice Dataset 2021.02 (Neutral) | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525342.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342) |\n| Thorsten-Voice Dataset 2021.06 (Emotional) | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525023.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023) |\n| Thorsten-Voice Dataset 2022.10 (Neutral) | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7265581.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581) |\n| Thorsten-Voice Dataset 2023.09 (Hessisch) | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.10511260.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260) |\n\n## Thorsten-Voice Dataset 2021.02 (Neutral)\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525342.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342)\n\n```\n@dataset{muller_2021_5525342,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice Dataset 2021.02},\n  month        = sep,\n  year         = 2021,\n  note         = {{Please use it to make the world a better place for \n                   whole humankind.}},\n  publisher    = {Zenodo},\n  version      = {3.0},\n  doi          = {10.5281\u002Fzenodo.5525342},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342}\n}\n```\n\n### Dataset summary\n* Recorded by Thorsten Müller\n* Optimized by Dominik Kreutz\n* LJSpeech file and directory structure\n* 22.668 recorded phrases (*wav files*)\n* More than 23 hours of pure audio\n* Samplerate 22.050Hz\n* Mono\n* Normalized to -24dB\n* Phrase length (min\u002Favg\u002Fmax): 2 \u002F 52 \u002F 180 chars\n* No silence at beginning\u002Fending\n* Avg spoken chars per second: 14\n* Sentences with question mark: 2.780\n* Sentences with exclamation mark: 1.840\n\n### Dataset evolution\nAs described in the PDF document ([evolution of thorsten dataset](.\u002FEvolutionOfThorstenDataset.pdf)) this dataset consists of three recording phases.\n\n* **Phase 1**: Recorded with a cheap usb microphone (*low quality*)\n* **Phase 2**: Recorded with a good microphone (*good quality*)\n* **Phase 3**: Recorded with same good microphone but longer phrases (> 100 chars) (*good quality*)\n\nIf you want to use a dataset subset you can see which files belong to which recording phase in [recording quality](.\u002FRecordingQuality.csv) csv file.\n\n\n## Thorsten-Voice Dataset 2021.06 (Emotional)\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525023.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023)\n\n```\n@dataset{muller_2021_5525023,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice Dataset 2021.06 emotional},\n  month        = sep,\n  year         = 2021,\n  note         = {{Please use it to make the world a better place for \n                   whole humankind.}},\n  publisher    = {Zenodo},\n  version      = {2.0},\n  doi          = {10.5281\u002Fzenodo.5525023},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023}\n}\n```\n\nAll emotional recordings where recorded by myself and i tried to feel and pronounce that emotion even if the phrase context does not match that emotion. Example: I pronounced the sleepy recordings in the tone i have shortly before falling asleep.\n\n### Dataset summary\n* Recorded by Thorsten Müller\n* Optimized by Dominik Kreutz\n* 300 sentences * 8 emotions = 2.400 recordings\n* Mono\n* Samplerate 22.050Hz\n* Normalized to -24dB\n* No silence at beginning\u002Fending\n* Sentence length: 59 - 148 chars\n\n\n## Thorsten-Voice Dataset 2022.10 (Neutral)\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7265581.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581)\n> :speaking_head: **Listen to some audio recordings from this dataset [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1dxoSo8Ktmh-5E0rSVqkq_Jm1r4sFnwJM?usp=sharing).**\n\n```\n@dataset{muller_2022_7265581,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice Dataset 2022.10},\n  month        = nov,\n  year         = 2022,\n  publisher    = {Zenodo},\n  version      = {1.0},\n  doi          = {10.5281\u002Fzenodo.7265581},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581}\n}\n```\n\n## Thorsten-Voice Dataset 2023.09 (Hessisch)\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.10511260.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260)\n\n```\n@dataset{muller_2024_10511260,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice Dataset 2023.09 Hessisch},\n  month        = jan,\n  year         = 2024,\n  publisher    = {Zenodo},\n  doi          = {10.5281\u002Fzenodo.10511260},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260}\n}\n```\n\n## Thorsten-Voice Dataset FULL 44kHz\nCelebrating 🎉 **5 years of Thorsten-Voice** project (est. october 2019) i released **ALL recordings in FULL samplerate (44kHz)** in an ALL-IN-ONE dataset on 🤗HuggingFace! Obviously again in CC0 license!\n\n* https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FThorsten-Voice\u002FTV-44kHz-Full\n\n```\n@misc {thorsten_müller_2024,\n    author       = { {Thorsten Müller} },\n    title        = { TV-44kHz-Full (Revision ff427ec) },\n    year         = 2024,\n    url          = { https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FThorsten-Voice\u002FTV-44kHz-Full },\n    doi          = { 10.57967\u002Fhf\u002F3290 },\n    publisher    = { Hugging Face }\n}\n```\n\n# TTS Models\nBased on these opensource voice datasets several TTS (text to speech) models have been trained using AI \u002F machine learning technology.\n\nThere are multiple german models available trained and used by by the projects [**Coqui AI**](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS\u002F), [**Piper TTS**](https:\u002F\u002Fgithub.com\u002Frhasspy\u002Fpiper) and [**Home Assistant**](https:\u002F\u002Fwww.home-assistant.io\u002F). You can find more information on how to use them, audio samples and video tutorials on the [Thorsten-Voice project website](https:\u002F\u002Fwww.Thorsten-Voice.de).\n\nListen to audio samples and installation \u002F usage instructions here (🇩🇪):\n* [Neutral TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Fkostenloses-deutsches-text-to-speech-tts\u002F)\n* [Emotional TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Femotionales-tts\u002F)\n* [Hessisches TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Fguude\u002F)\n* [Smarthome \u002F Home Assistant](https:\u002F\u002Fwww.thorsten-voice.de\u002Fhome-assistant-thorsten-voice\u002F)\n\nIn addition Silero, Monatis and ZDisket used my voice datasets for model training too. More samples and details can be found on [Silero Thorsten-Voice audio samples](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tR6w4kgRS2JJ1TWZhwoFuU04Xkgo6YAs?usp=sharing). See this [colab notebook](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsnakers4\u002Fsilero-models\u002Fblob\u002Fmaster\u002Fexamples_tts.ipynb) for more details.\n\n[ZDisket](https:\u002F\u002Fgithub.com\u002FZDisket\u002FTensorVox) made a tool called TensorVox for setting up an TTS environment on Windows and included a german TTS model trained by [monatis](https:\u002F\u002Fgithub.com\u002Fmonatis\u002Fgerman-tts). Thanks for sharing that. See it in action on [Youtube](https:\u002F\u002Fyoutu.be\u002FtY6_xZnkv-A).\n\n# Support & Thanks\nIf you like my voice contribution and would like to support my effort for an opensource voice technology future, you can support me, if you like:\n\n* Subscribe and share my [Thorsten-Voice](https:\u002F\u002Fyoutube.com\u002F@ThorstenMueller\u002F) youtube channel and follow me on my social media profiles\n* Buy me a tea using [Ko-Fi](https:\u002F\u002Fko-fi.com\u002Fthorstenvoice) or [Github sponsor](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FthorstenMueller)\n\nI want to say thank you to great people who supported me on this journey with nice words, support and compute power:\nThanks [El-Tocino](https:\u002F\u002Fgithub.com\u002Fel-tocino\u002F), [Eren Gölge](https:\u002F\u002Fgithub.com\u002Ferogol\u002F), [Gras64](https:\u002F\u002Fgithub.com\u002Fgras64\u002F), [Kris Gesling](https:\u002F\u002Fgithub.com\u002Fkrisgesling\u002F), [Nmstoker](https:\u002F\u002Fgithub.com\u002Fnmstoker), [Othiele](https:\u002F\u002Fdiscourse.mozilla.org\u002Fu\u002Fothiele\u002Fsummary), [Repodiac](https:\u002F\u002Fgithub.com\u002Frepodiac), [SanjaESC](https:\u002F\u002Fgithub.com\u002FSanjaESC), [Synesthesiam](https:\u002F\u002Fgithub.com\u002Fsynesthesiam\u002F).\n\nSpecial thanks to my dear colleague, Sebastian Kraus, for supporting me with audio recording equipment and for being the creative mastermind behind the logo design and of course to the dear **Dominik** ([@domcross](https:\u002F\u002Fgithub.com\u002Fdomcross\u002F)) for him being so close by my side on this amazing journey.\n\n# \"Thorsten-Voice\" youtube channel\nOn my [Thorsten-Voice youtube channel](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller) you can find step by step (cooking recipes) tutorial on opensource voice technology. If you're interested i'd be happy to welcome you as new subscriber on my wonderful youtube community.TS** on my little .\n\n# Conference speaker\nI really like to talk about the importance of an opensource voice technology future. If you would like me to be a speaker on a conference or event i'd happy to be contacted using the Thorsten-Voice [website contact form](https:\u002F\u002Fwww.thorsten-voice.de\u002Fen\u002Fcontact\u002F). See some of my speaker references on [Thorsten-Voice website](https:\u002F\u002Fwww.thorsten-voice.de\u002Fen\u002Fspeaker-public-talks\u002F).\n","![托斯滕-语音标志](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FthorstenMueller_Thorsten-Voice_readme_4914df5632fb.png)\n\n- [项目动机](#motivation-for-thorsten-voice-project-speaking_head-speech_balloon)\n  \n- [个人说明](#some-personal-words-before-using-thorsten-voice)\n\n- [**托斯滕** 语音数据集](#voice-datasets)\n  - [托斯滕-语音数据集 2021.02（中性）](#thorsten-voice-dataset-202102-neutral)\n  - [托斯滕-语音数据集 2021.06（情感）](#thorsten-voice-dataset-202106-emotional)\n  - [托斯滕-语音数据集 2022.10（中性）](#thorsten-voice-dataset-202210-neutral)\n  - [托斯滕-语音数据集 2023.09（黑森方言）](#thorsten-voice-dataset-202309-hessisch)\n  - [托斯滕-语音数据集 全集 44kHz](#thorsten-voice-dataset-full-44khz)\n\n- [**托斯滕** TTS 模型](#tts-models)\n\n- [托斯滕-语音 YouTube 频道](#thorsten-voice-youtube-channel)  \n\n- [公开演讲与会议发言人](#conference-speaker)\n\n\n# 托斯滕-语音项目动机 :speaking_head: :speech_balloon:\n应该为每个项目提供一种**免费**使用、**离线**运行、**高质量**的**德语** **TTS** 语音，而无需担心许可证问题。\n\n# 托斯滕·穆勒的个人寄语\n> 我以一个相信人人平等的世界的人的身份贡献自己的声音。无论性别、性取向、宗教、肤色，还是出生地的地理位置如何。在这个全球化的世界里，每个人都受到热烈欢迎，无论身处地球上的哪个角落，开放且自由的知识和教育都应惠及每一个人。:earth_africa: (*托斯滕·穆勒*)\n\n请记住，**我并不是专业的配音演员**。我只是一个普通人，将自己的声音分享给全世界。\n\n# 社交媒体\n[![YouTube 频道订阅者](https:\u002F\u002Fimg.shields.io\u002Fyoutube\u002Fchannel\u002Fsubscribers\u002FUCjqqTVVBTsxpm0iOhQ1fp9g?style=social)](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller)\n\u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Fintent\u002Ffollow?screen_name=ThorstenVoice\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FThorstenVoice?style=social&logo=twitter\" alt=\"关注 Twitter\">\u003C\u002Fa>\n[![网站](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeb-www.Thorsten--Voice.de-92a0c0)](https:\u002F\u002Fwww.Thorsten-Voice.de)\n\n欢迎在社交媒体上联系我 🤗。\n\n| 平台         | 链接                                                                                                            |\n| --------------- | ------- |\n| YouTube | [托斯滕语音的 YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller) |\n| LinkedIn | [托斯滕·穆勒的 LinkedIn 个人主页](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fthorsten-m%C3%BCller-848a344\u002F) |\n| Twitter | [托斯滕语音的 Twitter 账号](https:\u002F\u002Ftwitter.com\u002FThorstenVoice) |\n| Huggingface | [托斯滕语音的 Huggingface 页面](https:\u002F\u002Fhuggingface.co\u002FThorsten-Voice) |\n| Instagram | [托斯滕语音的 Instagram 账号](https:\u002F\u002Fwww.instagram.com\u002Fthorsten_voice\u002F) |\n\n# 语音数据集\n我的所有“托斯滕-语音”数据集都已在 Zenodo 上列出并可供下载。如果您在项目、产品或论文中使用这些数据集，请务必注明出处，我们将不胜感激。\n| 数据集         | DOI 链接                                                                                                            |\n| --------------- | ------- |\n| 托斯滕-语音数据集 2021.02（中性） | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525342.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342) |\n| 托斯滕-语音数据集 2021.06（情感） | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525023.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023) |\n| 托斯滕-语音数据集 2022.10（中性） | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7265581.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581) |\n| 托斯滕-语音数据集 2023.09（黑森方言） | [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.10511260.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260) |\n\n## 托斯滕-语音数据集 2021.02（中性）\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525342.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342)\n\n```\n@dataset{muller_2021_5525342,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {托斯滕-语音数据集 2021.02},\n  month        = sep,\n  year         = 2021,\n  note         = {{请将其用于让世界成为全人类更美好的地方。}},\n  publisher    = {Zenodo},\n  version      = {3.0},\n  doi          = {10.5281\u002Fzenodo.5525342},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525342}\n}\n```\n\n### 数据集概要\n* 由托斯滕·穆勒录制\n* 由多米尼克·克罗伊茨优化\n* LJSpeech 文件及目录结构\n* 22,668 条录制短语（wav 文件）\n* 超过 23 小时的纯音频\n* 采样率 22,050Hz\n* 单声道\n* 归一化至 -24dB\n* 开头和结尾无静音\n* 短语长度（最小\u002F平均\u002F最大）：2 \u002F 52 \u002F 180 字符\n* 无静音段落\n* 平均每秒发音字符数：14\n* 带问号的句子：2,780 句\n* 带感叹号的句子：1,840 句\n\n### 数据集演进\n如 PDF 文档所述（[托斯滕数据集演进](.\u002FEvolutionOfThorstenDataset.pdf)），该数据集由三个录音阶段组成。\n\n* **阶段 1**：使用廉价 USB 麦克风录制（低质量）\n* **阶段 2**：使用优质麦克风录制（高质量）\n* **阶段 3**：使用同一优质麦克风，但录制更长的短语（超过 100 字）（高质量）\n\n如果您想使用数据集的子集，可以在 [录音质量](.\u002FRecordingQuality.csv) CSV 文件中查看哪些文件属于哪个录音阶段。\n\n\n## 托斯滕-语音数据集 2021.06（情感）\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.5525023.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023)\n\n```\n@dataset{muller_2021_5525023,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {托斯滕-语音数据集 2021.06 情感版},\n  month        = sep,\n  year         = 2021,\n  note         = {{请将其用于让世界成为全人类更美好的地方。}},\n  publisher    = {Zenodo},\n  version      = {2.0},\n  doi          = {10.5281\u002Fzenodo.5525023},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.5525023}\n}\n```\n\n所有情感录音均由我自己录制，我尽力去感受并表达那种情感，即使句子的内容并不完全符合该情感。例如，在录制困倦状态的片段时，我尽量用自己即将入睡时的语气来朗读。\n\n### 数据集概要\n* 由托斯滕·穆勒录制\n* 由多米尼克·克罗伊茨优化\n* 300 句话 × 8 种情感 = 2,400 条录音\n* 单声道\n* 采样率 22,050Hz\n* 归一化至 -24dB\n* 开头和结尾无静音\n* 句子长度：59–148 字符\n\n## Thorsten-Voice 数据集 2022.10（中性）\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.7265581.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581)\n> :speaking_head: **在此处收听该数据集的部分音频录音 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1dxoSo8Ktmh-5E0rSVqkq_Jm1r4sFnwJM?usp=sharing)。**\n\n```\n@dataset{muller_2022_7265581,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice 数据集 2022.10},\n  month        = nov,\n  year         = 2022,\n  publisher    = {Zenodo},\n  version      = {1.0},\n  doi          = {10.5281\u002Fzenodo.7265581},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.7265581}\n}\n```\n\n## Thorsten-Voice 数据集 2023.09（黑森方言）\n[![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.10511260.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260)\n\n```\n@dataset{muller_2024_10511260,\n  author       = {Müller, Thorsten and\n                  Kreutz, Dominik},\n  title        = {Thorsten-Voice 数据集 2023.09 黑森方言},\n  month        = jan,\n  year         = 2024,\n  publisher    = {Zenodo},\n  doi          = {10.5281\u002Fzenodo.10511260},\n  url          = {https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.10511260}\n}\n```\n\n## Thorsten-Voice 数据集 全部 44kHz\n为庆祝 🎉 **Thorsten-Voice 项目五周年**（成立于 2019 年 10 月），我在 🤗HuggingFace 上发布了一个包含 **所有录音的全采样率（44kHz）** 的一体化数据集！当然，依然采用 CC0 许可！\n\n* https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FThorsten-Voice\u002FTV-44kHz-Full\n\n```\n@misc {thorsten_müller_2024,\n    author       = { {Thorsten Müller} },\n    title        = { TV-44kHz-Full（修订版 ff427ec） },\n    year         = 2024,\n    url          = { https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FThorsten-Voice\u002FTV-44kHz-Full },\n    doi          = { 10.57967\u002Fhf\u002F3290 },\n    publisher    = { Hugging Face }\n}\n```\n\n# TTS 模型\n基于这些开源语音数据集，利用人工智能和机器学习技术训练出了多款 TTS（文本转语音）模型。\n\n目前有多个德语模型可供使用，分别由 [**Coqui AI**](https:\u002F\u002Fgithub.com\u002Fcoqui-ai\u002FTTS\u002F)、[**Piper TTS**](https:\u002F\u002Fgithub.com\u002Frhasspy\u002Fpiper) 和 [**Home Assistant**](https:\u002F\u002Fwww.home-assistant.io\u002F) 等项目训练并应用。您可以在 [Thorsten-Voice 项目官网](https:\u002F\u002Fwww.Thorsten-Voice.de) 上找到更多关于如何使用这些模型的信息、音频样本以及视频教程。\n\n在这里可以收听音频样本并查看安装与使用说明（德语）：\n* [中性 TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Fkostenloses-deutsches-text-to-speech-tts\u002F)\n* [情感 TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Femotionales-tts\u002F)\n* [黑森方言 TTS](https:\u002F\u002Fwww.thorsten-voice.de\u002Fguude\u002F)\n* [智能家居 \u002F Home Assistant](https:\u002F\u002Fwww.thorsten-voice.de\u002Fhome-assistant-thorsten-voice\u002F)\n\n此外，Silero、Monatis 和 ZDisket 也使用了我的语音数据集进行模型训练。更多样本和详细信息请参阅 [Silero Thorsten-Voice 音频样本](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tR6w4kgRS2JJ1TWZhwoFuU04Xkgo6YAs?usp=sharing)。有关更多信息，请参阅此 [Colab 笔记本](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsnakers4\u002Fsilero-models\u002Fblob\u002Fmaster\u002Fexamples_tts.ipynb)。\n\n[ZDisket](https:\u002F\u002Fgithub.com\u002FZDisket\u002FTensorVox) 开发了一款名为 TensorVox 的工具，用于在 Windows 系统上搭建 TTS 环境，并内置了由 [monatis](https:\u002F\u002Fgithub.com\u002Fmonatis\u002Fgerman-tts) 训练的德语 TTS 模型。感谢他们的分享。您可以在 [YouTube](https:\u002F\u002Fyoutu.be\u002FtY6_xZnkv-A) 上观看其实际演示。\n\n# 支持与致谢\n如果您喜欢我的语音贡献，并希望支持我推动开源语音技术的发展，欢迎您通过以下方式给予支持：\n\n* 订阅并分享我的 [Thorsten-Voice](https:\u002F\u002Fyoutube.com\u002F@ThorstenMueller\u002F) YouTube 频道，同时关注我的社交媒体账号。\n* 通过 [Ko-Fi](https:\u002F\u002Fko-fi.com\u002Fthorstenvoice) 或 [GitHub 赞助](https:\u002F\u002Fgithub.com\u002Fsponsors\u002FthorstenMueller) 为我购买一杯茶。\n\n我要感谢那些在这段旅程中以鼓励的话语、支持和计算资源帮助过我的优秀伙伴们：\n感谢 [El-Tocino](https:\u002F\u002Fgithub.com\u002Fel-tocino\u002F)、[Eren Gölge](https:\u002F\u002Fgithub.com\u002Ferogol\u002F)、[Gras64](https:\u002F\u002Fgithub.com\u002Fgras64\u002F)、[Kris Gesling](https:\u002F\u002Fgithub.com\u002Fkrisgesling\u002F)、[Nmstoker](https:\u002F\u002Fgithub.com\u002Fnmstoker)、[Othiele](https:\u002F\u002Fdiscourse.mozilla.org\u002Fu\u002Fothiele\u002Fsummary)、[Repodiac](https:\u002F\u002Fgithub.com\u002Frepodiac)、[SanjaESC](https:\u002F\u002Fgithub.com\u002FSanjaESC)、[Synesthesiam](https:\u002F\u002Fgithub.com\u002Fsynesthesiam\u002F)。\n\n特别感谢我亲爱的同事 Sebastian Kraus，他不仅为我提供了录音设备，还负责了标志设计的创意构思；当然也要感谢亲爱的 **Dominik** ([@domcross](https:\u002F\u002Fgithub.com\u002Fdomcross\u002F))，他在这一非凡的旅程中始终陪伴在我身边。\n\n# “Thorsten-Voice” YouTube 频道\n在我的 [Thorsten-Voice YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FThorstenMueller) 上，您可以找到关于开源语音技术的逐步教程（类似烹饪食谱）。如果您感兴趣，我将非常高兴欢迎您加入我这个充满活力的 YouTube 社区。TS** 在我的小 .\n\n# 会议演讲者\n我非常喜欢谈论开源语音技术未来发展的重要性。如果您希望我作为演讲嘉宾出席某次会议或活动，欢迎通过 Thorsten-Voice [网站联系表单](https:\u002F\u002Fwww.thorsten-voice.de\u002Fen\u002Fcontact\u002F) 与我联系。您可以在 [Thorsten-Voice 官网](https:\u002F\u002Fwww.thorsten-voice.de\u002Fen\u002Fspeaker-public-talks\u002F) 上查看我的部分演讲记录。","# Thorsten-Voice 快速上手指南\n\nThorsten-Voice 是一个高质量的**德语**开源语音数据集及 TTS（文本转语音）模型项目。本项目旨在提供免费、可离线使用且无许可证限制的德语语音资源，适用于 Coqui AI、Piper TTS、Home Assistant 等平台。\n\n> **注意**：本项目的核心资源为**德语**语音数据与模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐), macOS, 或 Windows。\n*   **Python 版本**：建议 Python 3.8 或更高版本。\n*   **前置依赖**：\n    *   `git`：用于克隆代码库。\n    *   `pip` 或 `conda`：用于管理 Python 包。\n    *   **深度学习框架**：根据您选择的推理引擎安装相应依赖（如 `torch`, `tensorflow` 等）。\n*   **硬件建议**：若需从头训练模型，建议使用具备 CUDA 支持的 NVIDIA GPU；若仅使用预训练模型进行推理，CPU 亦可运行（推荐使用 Piper TTS 以获得更快的 CPU 推理速度）。\n\n## 2. 安装步骤\n\nThorsten-Voice 主要提供数据集和预训练模型，通常结合第三方 TTS 引擎使用。以下是两种最常用的集成方式。\n\n### 方式一：使用 Coqui TTS (适合开发与训练)\n\n1.  安装 Coqui TTS 库：\n    ```bash\n    pip install TTS\n    ```\n\n2.  验证安装并查看可用的 Thorsten 模型：\n    ```bash\n    tts --list_models | grep thorsten\n    ```\n\n### 方式二：使用 Piper TTS (适合离线部署与高性能推理)\n\nPiper 是对资源消耗更友好的选择，特别适合嵌入式设备或 Home Assistant。\n\n1.  下载 Piper 二进制文件（以 Linux x64 为例）：\n    ```bash\n    wget https:\u002F\u002Fgithub.com\u002Frhasspy\u002Fpiper\u002Freleases\u002Fdownload\u002Fv1.2.0\u002Fpiper_linux_x86_64.tar.gz\n    tar -xzf piper_linux_x86_64.tar.gz\n    ```\n\n2.  下载 Thorsten 的德语预训练模型文件 (`.onnx` 和 `.json`)：\n    您可以从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002Frhasspy\u002Fpiper-voices) 或 Thorsten-Voice 官网获取。例如下载中性声音模型：\n    ```bash\n    # 示例：下载模型文件到当前目录\n    wget https:\u002F\u002Fhuggingface.co\u002Frhasspy\u002Fpiper-voices\u002Fresolve\u002Fmain\u002Fde\u002Fde_DE\u002Fthorsten\u002Fmedium\u002Fde_DE-thorsten-medium.onnx\n    wget https:\u002F\u002Fhuggingface.co\u002Frhasspy\u002Fpiper-voices\u002Fresolve\u002Fmain\u002Fde\u002Fde_DE\u002Fthorsten\u002Fmedium\u002Fde_DE-thorsten-medium.onnx.json\n    ```\n\n### 获取原始数据集 (可选)\n\n如果您需要原始音频数据用于自定义训练，可通过以下方式下载：\n\n*   **HuggingFace (推荐，包含全量 44kHz 数据)**:\n    ```bash\n    git lfs install\n    git clone https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FThorsten-Voice\u002FTV-44kHz-Full\n    ```\n*   **Zenodo**: 访问 README 中提供的 DOI 链接下载特定版本（如 2021.02 中性版或 2021.06 情感版）。\n\n## 3. 基本使用\n\n### 场景 A：使用 Coqui TTS 进行快速合成\n\n安装完成后，直接使用命令行即可调用预训练的 Thorsten 模型生成德语语音。\n\n**命令示例：**\n```bash\ntts --text \"Hallo Welt, dies ist ein Test mit der Thorsten Stimme.\" --model_name \"tts_models\u002Fde\u002Fthorsten\u002Ftacotron2-DDC\" --out_path output.wav\n```\n\n*   `--text`: 输入的德语文本。\n*   `--model_name`: 指定 Thorsten 的 Tacotron2 模型。\n*   `--out_path`: 输出音频文件路径。\n\n**Python 代码示例：**\n```python\nfrom TTS.api import TTS\n\n# 加载模型\ntts = TTS(model_name=\"tts_models\u002Fde\u002Fthorsten\u002Ftacotron2-DDC\", progress_bar=False).to(\"cuda\")\n\n# 生成语音\ntts.tts_to_file(text=\"Hallo, wie geht es dir heute?\", file_path=\"output_coqui.wav\")\n```\n\n### 场景 B：使用 Piper TTS 进行离线推理\n\nPiper 使用 ONNX 模型，推理速度极快。\n\n**命令示例：**\n```bash\n.\u002Fpiper --model de_DE-thorsten-medium.onnx --output_file output_piper.wav \u003C\u003C\u003C \"Hallo Welt, dies ist ein Test mit der Thorsten Stimme.\"\n```\n\n*   `--model`: 指向下载的 `.onnx` 模型文件。\n*   `--output_file`: 输出文件名。\n*   `\u003C\u003C\u003C`: Linux Shell 语法，将字符串作为标准输入传递给程序。\n\n### 场景 C：在 Home Assistant 中使用\n\n如果您使用 Home Assistant，可以通过添加 \"Piper\" 集成或直接配置 `command_line` 说话者来使用 Thorsten 声音。\n\n1.  确保 Piper 已安装且模型文件就位。\n2.  在 `configuration.yaml` 中添加：\n    ```yaml\n    tts:\n      - platform: piper\n        voice: de_DE-thorsten-medium\n    ```\n    *(具体配置请参考 Home Assistant 官方文档中关于 Piper 的部分)*\n\n---\n**引用说明**：若在科研论文或商业产品中使用本数据集，请务必按照 README 中的 BibTeX 格式引用相应的 DOI。","一家位于柏林的初创团队正在开发一款面向老年用户的离线德语健康提醒助手，需要自然且免费的语音合成方案。\n\n### 没有 Thorsten-Voice 时\n- **授权风险高**：团队不得不使用昂贵的商业德语 TTS API，或冒险使用授权条款模糊的开源模型，面临潜在的法律纠纷。\n- **离线部署难**：现有高质量方案严重依赖云端连接，导致用户在网络信号差的卧室或地下室无法接收用药提醒。\n- **情感表达缺失**：通用的机器发音生硬冰冷，缺乏亲和力，难以让老年用户产生信任感，甚至造成听辨困难。\n- **方言支持空白**：无法覆盖黑森州（Hessisch）等特定地区的方言需求，导致部分本地老年用户理解障碍。\n\n### 使用 Thorsten-Voice 后\n- **零成本合规**：直接集成 Thorsten-Voice 的免费数据集与模型，彻底消除版权顾虑，无需支付任何授权费用。\n- **纯离线运行**：利用其轻量级模型在本地设备完成推理，确保在无网环境下也能稳定播报健康指令。\n- **拟人化交互**：调用 2021.06 情感数据集，让语音助手用温暖、自然的语调关怀用户，显著提升接受度。\n- **地域化适配**：灵活切换至 2023.09 黑森方言版本，为特定地区用户提供母语般的亲切聆听体验。\n\nThorsten-Voice 通过提供高质量、免授权且支持多情感的离线德语语音，让开发者能轻松构建真正普惠且合法的本地化智能应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FthorstenMueller_Thorsten-Voice_4914df56.png","thorstenMueller","Thorsten Müller","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FthorstenMueller_252794ec.png","Sporty IT guy | Open source voice enthusiast | Youtuber | Smarthome | World peace",null,"Germany","ThorstenVoice","https:\u002F\u002Fwww.Thorsten-Voice.de","https:\u002F\u002Fgithub.com\u002FthorstenMueller",[87,91],{"name":88,"color":89,"percentage":90},"Python","#3572A5",75.7,{"name":92,"color":93,"percentage":94},"Jupyter Notebook","#DA5B0B",24.3,709,58,"2026-04-09T07:51:51","CC0-1.0","","未说明",{"notes":102,"python":100,"dependencies":103},"README 主要介绍德语语音数据集（中性、情感、黑森方言等）及其在 Coqui AI、Piper TTS、Home Assistant、Silero 等第三方项目中的应用。文中未直接提供该仓库本身的安装脚本、运行环境配置或具体的 Python\u002F硬件依赖要求。用户需参考文中链接前往具体的下游项目（如 Coqui TTS 或 Piper）获取详细的运行环境指南。数据集可在 Zenodo 和 Hugging Face 下载，授权为 CC0。",[],[31,16],[106,107,108,109,110,111,112],"dataset","tts","speech-synthesis","thorsten-voice","deutsch","german","sprachsynthese","2026-03-27T02:49:30.150509","2026-04-16T01:44:50.292553",[116,121,126,131,136,140],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},35009,"如何提高德语语音模型（Thorsten Voice）的音频生成速度以实现实时应用？","为了获得更快的生成速度（约 8-10 倍提升），建议使用 Mimic 3，其实时因子（RTF）通常可达 0.03。安装和使用方法可参考官方文档或相关视频教程。\n如果希望使用 Coqui TTS（速度稍慢但质量更好），可以通过以下命令启动服务器：\n1. 安装特定版本：`pip install tts==0.7.1`\n2. 运行服务：`tts-server --model_name tts_models\u002Fde\u002Fthorsten\u002Fvits`\n此外，也可以尝试使用 Piper TTS，它支持流式音频功能，适合长文本处理。","https:\u002F\u002Fgithub.com\u002FthorstenMueller\u002FThorsten-Voice\u002Fissues\u002F30",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},35010,"使用 Coqui TTS v0.1.3 和 Thorsten-DCA 模型时，长句子被截断并提示\"max_decoder_steps\"错误，如何解决？","这是一个已知问题，可以通过手动修改配置文件来解决。请根据操作系统找到配置文件夹：\n- Linux: `~\u002F.local\u002Fshare\u002Ftts\u002F`\n- Mac: `~\u002FLibrary\u002FApplication Support\u002Ftts\u002F`\n- Windows: 需通过注册表查找路径\n\n进入子文件夹 `tts_models--de--thorsten--tacotron2-DCA`，打开 `config.json` 文件。找到 `\"mixed_precision\": false,` 这一行，在其下方添加一行：`\"max_decoder_steps\": 2000,`。保存后即可避免长句子被截断。","https:\u002F\u002Fgithub.com\u002FthorstenMueller\u002FThorsten-Voice\u002Fissues\u002F22",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},35011,"是否有基于 Thorsten 数据集训练的 FastPitch 或 Forward Tacotron 模型可用？如何利用它们优化数据集？","社区用户已训练了 FastPitch 模型并使用预训练的 HiFi-GAN 进行声码。维护者建议可以利用 Forward Tacotron 仓库中的工具来分析数据集质量。具体方法是加载注意力分数字典（attention score dictionary），该字典衡量了 Tacotron 注意力的锐度，低分表示文本与音频不匹配。\n在 ForwardTacotron 主目录下执行以下 Python 代码即可查看排序后的分数：\n```python\nfrom utils.files import unpickle_binary\n\nif __name__ == '__main__':\n    att_dict = unpickle_binary('data\u002Fatt_score_dict.pkl')\n    id_score = [(k, v[1]) for k, v in att_dict.items()]\n    id_score.sort(key=lambda x: -x[1])\n    for id, score in id_score:\n        print(id, score)\n```","https:\u002F\u002Fgithub.com\u002FthorstenMueller\u002FThorsten-Voice\u002Fissues\u002F28",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},35012,"Thorsten 情感数据集包含哪些情感类别？是否有更新版本？","Thorsten 情感数据集已发布多个版本。版本 2 在版本 1 的基础上进行了扩展。\n基础情感包括：中性 (Neutral)、厌恶 (Disgusted)、愤怒 (Angry)、逗乐 (Amused)、惊讶 (Surprised) 和困倦 (Sleepy)。\n版本 2 新增的情感类别包括：醉酒 (Drunk) 和耳语 (Whispering)。\n所有数据均可在项目的 GitHub 页面下载，部分样本（如“醉酒”状态）也可在项目维护者的社交媒体上试听。","https:\u002F\u002Fgithub.com\u002FthorstenMueller\u002FThorsten-Voice\u002Fissues\u002F13",{"id":137,"question_zh":138,"answer_zh":139,"source_url":125},35013,"如何在教育项目或 Linux 发行版（如 Lernstick）中集成 Thorsten 语音？","Thorsten 语音已成功集成到多个教育项目和 Linux 发行版中。例如，在 Lernstick 项目中，通过 Apache Tika 检测剪贴板语言，若检测到德语则自动调用 Thorsten 语音。\n对于需要处理长文本或追求更快速度的场景，推荐使用 Piper TTS 版本的 Thorsten 模型（提供低\u002F中\u002F高质量选项），它支持流式音频输出。用户可以创建 Debian 包将其包含在自定义发行版中，或通过 ISO 镜像进行测试。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":120},35014,"在哪里可以下载最新版的 Coqui TTS 模型以使用 Thorsten 的新模型（如 VITS）？","您可以在 Coqui AI 的 GitHub 发布页面（Releases）下载预发布版本（如 0.7.0）来获取最新的模型文件和配置文件。\n一旦正式版发布，也可以通过 `pip` 轻松安装。目前可以通过指定模型名称 `tts_models\u002Fde\u002Fthorsten\u002Fvits` 来使用 VITS 模型。此外，Mimic 3 的测试版也已支持该德语语音，可提供更高的推理速度。",[]]