[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-High-Logic--Genie-TTS":3,"tool-High-Logic--Genie-TTS":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70626,"2026-04-05T22:51:36",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":99,"github_topics":100,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":110},4320,"High-Logic\u002FGenie-TTS","Genie-TTS","GPT-SoVITS ONNX Inference Engine & Model Converter","Genie-TTS 是一款专为 GPT-SoVITS 打造的轻量级推理引擎与模型转换工具，旨在让高质量的语音合成在普通 CPU 上也能实现“秒级”响应。它有效解决了原版模型依赖庞大显卡资源、启动慢及内存占用高的问题，将运行时体积压缩至约 200MB，并将首句合成延迟显著降低至 1.13 秒，同时支持中、日、英、韩四国语言。\n\n通过集成 ONNX 加速技术，Genie-TTS 在保持音质的前提下极大提升了推理效率，无需昂贵的 GPU 即可流畅运行。工具内置了包括《蔚蓝档案》美甘、《重返未来：1999》37 等在内的多个预设角色音色，用户无需自行训练模型即可立即体验。此外，它还提供了便捷的 API 服务接口和针对中文韵律优化的可选组件。\n\n这款工具非常适合希望将 TTS 功能集成到本地应用中的开发者、受限于硬件条件的研究人员，以及想要快速搭建个人语音助手的普通用户。无论是进行技术原型验证，还是为游戏、视频创作添加配音，Genie-TTS 都能以极低的资源门槛提供专业级的语音合成体验。只需简单的 Python 代码调用，即可轻松开启高效的语音生成之旅。","\u003Cdiv align=\"center\">\n\u003Cpre>\n██████╗  ███████╗███╗   ██╗██╗███████╗\n██╔════╝ ██╔════╝████╗  ██║██║██╔════╝\n██║  ███╗█████╗  ██╔██╗ ██║██║█████╗  \n██║   ██║██╔══╝  ██║╚██╗██║██║██╔══╝  \n╚██████╔╝███████╗██║ ╚████║██║███████╗\n ╚═════╝ ╚══════╝╚═╝  ╚═══╝╚═╝╚══════╝\n\u003C\u002Fpre>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n# 🔮 GENIE: [GPT-SoVITS](https:\u002F\u002Fgithub.com\u002FRVC-Boss\u002FGPT-SoVITS) Lightweight Inference Engine\n\n**Experience near-instantaneous speech synthesis on your CPU**\n\n[简体中文](.\u002FREADME_zh.md) | [English](.\u002FREADME.md)\n\n\u003C\u002Fdiv>\n\n---\n\n**GENIE** is a lightweight inference engine built on the open-source TTS\nproject [GPT-SoVITS](https:\u002F\u002Fgithub.com\u002FRVC-Boss\u002FGPT-SoVITS). It integrates TTS inference, ONNX model conversion, API\nserver, and other core features, aiming to provide ultimate performance and convenience.\n\n* **✅ Supported Model Version:** GPT-SoVITS V2, V2ProPlus\n* **✅ Supported Language:** Japanese, English, Chinese, Korean\n* **✅ Supported Python Version:** >= 3.9\n\n---\n\n## 🎬 Demo Video\n\n- **[➡️ Watch the demo video (Chinese)](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1d2hHzJEz9)**\n\n---\n\n## 🚀 Performance Advantages\n\nGENIE optimizes the original model for outstanding CPU performance.\n\n| Feature                     |  🔮 GENIE   | Official PyTorch Model | Official ONNX Model |\n|:----------------------------|:-----------:|:----------------------:|:-------------------:|\n| **First Inference Latency** |  **1.13s**  |         1.35s          |        3.57s        |\n| **Runtime Size**            | **\\~200MB** |      \\~several GB      |  Similar to GENIE   |\n| **Model Size**              | **\\~230MB** |    Similar to GENIE    |       \\~750MB       |\n\n> 📝 **Latency Test Info:** All latency data is based on a test set of 100 Japanese sentences (\\~20 characters each),\n> averaged. Tested on CPU i7-13620H.\n\n---\n\n## 🏁 QuickStart\n\n> **⚠️ Important:** It is recommended to run GENIE in **Administrator mode** to avoid potential performance degradation.\n\n### 📦 Installation\n\nInstall via pip:\n\n```bash\npip install genie-tts\n```\n\n## 📥 Pretrained Models\n\nWhen running GENIE for the first time, it requires downloading resource files (**~391MB**). You can follow the library's\nprompts to download them automatically.\n\n> Alternatively, you can manually download the files\n> from [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FGenieData)\n> and place them in a local folder. Then set the `GENIE_DATA_DIR` environment variable **before** importing the library:\n\n```python\nimport os\n\n# Set the path to your manually downloaded resource files\n# Note: Do this BEFORE importing genie_tts\nos.environ[\"GENIE_DATA_DIR\"] = r\"C:\\path\\to\\your\\GenieData\"\n\nimport genie_tts as genie\n\n# The library will now load resources from the specified directory\n```\n\nIf you want the optional Chinese RoBERTa text features used only for **Chinese inference**\nto improve Chinese prosody, you can also download them with:\n\n```python\nimport genie_tts as genie\n\n# Download only the optional Chinese RoBERTa assets\ngenie.download_roberta_data()\n\n# Or use the built-in full resource download flow,\n# which now also downloads the optional Chinese RoBERTa assets\ngenie.download_genie_data()\n```\n\nThese RoBERTa features are intended only for the **Chinese** path to improve Chinese prosody.\nThey **should not be used** for non-Chinese inference (Japanese \u002F English \u002F Korean).\n\n### ⚡️ Quick Tryout\n\nNo GPT-SoVITS model yet? No problem!\nGENIE includes several predefined speaker characters you can use immediately —\nfor example:\n\n* **Mika (聖園ミカ)** — *Blue Archive* (Japanese)\n* **ThirtySeven (37)** — *Reverse: 1999* (English)\n* **Feibi (菲比)** — *Wuthering Waves* (Chinese)\n\nYou can browse all available characters here:\n**[https:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FCharacterModels](\nhttps:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FCharacterModels)**\n\nTry it out with the example below:\n\n```python\nimport genie_tts as genie\nimport time\n\n# Automatically downloads required files on first run\ngenie.load_predefined_character('mika')\n\ngenie.tts(\n    character_name='mika',\n    text='どうしようかな……やっぱりやりたいかも……！',\n    play=True,  # Play the generated audio directly\n)\n\ngenie.wait_for_playback_done()  # Ensure audio playback completes\n```\n\n### 🎤 TTS Best Practices\n\nA simple TTS inference example:\n\n```python\nimport genie_tts as genie\n\n# Step 1: Load character voice model\ngenie.load_character(\n    character_name='\u003CCHARACTER_NAME>',  # Replace with your character name\n    onnx_model_dir=r\"\u003CPATH_TO_CHARACTER_ONNX_MODEL_DIR>\",  # Folder containing ONNX model\n    language='\u003CLANGUAGE_CODE>',  # Replace with language code, e.g., 'en', 'zh', 'jp'\n)\n\n# Step 2: Set reference audio (for emotion and intonation cloning)\ngenie.set_reference_audio(\n    character_name='\u003CCHARACTER_NAME>',  # Must match loaded character name\n    audio_path=r\"\u003CPATH_TO_REFERENCE_AUDIO>\",  # Path to reference audio\n    audio_text=\"\u003CREFERENCE_AUDIO_TEXT>\",  # Corresponding text\n)\n\n# Step 3: Run TTS inference and generate audio\ngenie.tts(\n    character_name='\u003CCHARACTER_NAME>',  # Must match loaded character\n    text=\"\u003CTEXT_TO_SYNTHESIZE>\",  # Text to synthesize\n    play=True,  # Play audio directly\n    save_path=\"\u003COUTPUT_AUDIO_PATH>\",  # Output audio file path\n)\n\ngenie.wait_for_playback_done()  # Ensure audio playback completes\n\nprint(\"🎉 Audio generation complete!\")\n```\n\n---\n\n## 🔧 Model Conversion\n\nTo convert original GPT-SoVITS models for GENIE, ensure `torch` is installed:\n\n```bash\npip install torch\n```\n\nUse the built-in conversion tool:\n\n> **Tip:** `convert_to_onnx` currently supports V2 and V2ProPlus models.\n\n```python\nimport genie_tts as genie\n\ngenie.convert_to_onnx(\n    torch_pth_path=r\"\u003CYOUR .PTH MODEL FILE>\",  # Replace with your .pth file\n    torch_ckpt_path=r\"\u003CYOUR .CKPT CHECKPOINT FILE>\",  # Replace with your .ckpt file\n    output_dir=r\"\u003CONNX MODEL OUTPUT DIRECTORY>\"  # Directory to save ONNX model\n)\n```\n\n---\n\n## 🌐 Launch FastAPI Server\n\nGENIE includes a lightweight FastAPI server:\n\n```python\nimport genie_tts as genie\n\n# Start server\ngenie.start_server(\n    host=\"0.0.0.0\",  # Host address\n    port=8000,  # Port\n    workers=1  # Number of workers\n)\n```\n\n> For request formats and API details, see our [API Server Tutorial](.\u002FTutorial\u002FEnglish\u002FAPI%20Server%20Tutorial.py).\n\n\n---\n\n## 📝 Roadmap\n\n* [x] **🌐 Language Expansion**\n\n    * [x] Add support for **Chinese** and **English**.\n\n* [x] **🚀 Model Compatibility**\n\n    * [x] Support for `V2Proplus`.\n    * [ ] Support for `V3`, `V4`, and more.\n\n* [x] **📦 Easy Deployment**\n\n    * [ ] Release **Official Docker images**.\n    * [x] Provide out-of-the-box **Windows bundles**.\n\n---\n","\u003Cdiv align=\"center\">\n\u003Cpre>\n██████╗  ███████╗███╗   ██╗██╗███████╗\n██╔════╝ ██╔════╝████╗  ██║██║██╔════╝\n██║  ███╗█████╗  ██╔██╗ ██║██║█████╗  \n██║   ██║██╔══╝  ██║╚██╗██║██║██╔══╝  \n╚██████╔╝███████╗██║ ╚████║██║███████╗\n ╚═════╝ ╚══════╝╚═╝  ╚═══╝╚═╝╚══════╝\n\u003C\u002Fpre>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n# 🔮 GENIE: [GPT-SoVITS](https:\u002F\u002Fgithub.com\u002FRVC-Boss\u002FGPT-SoVITS) 轻量级推理引擎\n\n**在您的 CPU 上体验近乎即时的语音合成**\n\n[简体中文](.\u002FREADME_zh.md) | [English](.\u002FREADME.md)\n\n\u003C\u002Fdiv>\n\n---\n\n**GENIE** 是基于开源 TTS 项目 [GPT-SoVITS](https:\u002F\u002Fgithub.com\u002FRVC-Boss\u002FGPT-SoVITS) 构建的轻量级推理引擎。它集成了 TTS 推理、ONNX 模型转换、API 服务器等核心功能，旨在提供极致的性能与便利性。\n\n* **✅ 支持的模型版本:** GPT-SoVITS V2、V2ProPlus\n* **✅ 支持的语言:** 日语、英语、中文、韩语\n* **✅ 支持的 Python 版本:** >= 3.9\n\n---\n\n## 🎬 演示视频\n\n- **[➡️ 观看演示视频（中文）](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1d2hHzJEz9)**\n\n---\n\n## 🚀 性能优势\n\nGENIE 对原始模型进行了优化，使其在 CPU 上表现出色。\n\n| 功能                     |  🔮 GENIE   | 官方 PyTorch 模型 | 官方 ONNX 模型 |\n|:----------------------------|:-----------:|:----------------------:|:-------------------:|\n| **首次推理延迟**           |  **1.13s**  |         1.35s          |        3.57s        |\n| **运行时大小**            | **\\~200MB** |      \\~几 GB      |  类似于 GENIE   |\n| **模型大小**              | **\\~230MB** |    类似于 GENIE    |       \\~750MB       |\n\n> 📝 **延迟测试信息:** 所有延迟数据均基于包含 100 句日语句子（每句约 20 字）的测试集取平均值。测试平台为 CPU i7-13620H。\n\n---\n\n## 🏁 快速入门\n\n> **⚠️ 重要提示:** 建议以 **管理员模式** 运行 GENIE，以避免潜在的性能下降。\n\n### 📦 安装\n\n通过 pip 安装：\n\n```bash\npip install genie-tts\n```\n\n## 📥 预训练模型\n\n首次运行 GENIE 时，需要下载资源文件（约 391MB）。您可以按照库的提示自动下载这些文件。\n\n> 或者，您也可以手动从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FGenieData) 下载文件，并将其放置在本地文件夹中。然后在导入库之前设置 `GENIE_DATA_DIR` 环境变量：\n\n```python\nimport os\n\n# 设置您手动下载的资源文件路径\n# 注意：请在导入 genie_tts 之前执行此操作\nos.environ[\"GENIE_DATA_DIR\"] = r\"C:\\path\\to\\your\\GenieData\"\n\nimport genie_tts as genie\n\n# 此时，库将从指定目录加载资源\n```\n\n如果您希望使用仅用于 **中文推理** 的可选 Chinese RoBERTa 文本特征来改善中文韵律，还可以通过以下方式下载：\n\n```python\nimport genie_tts as genie\n\n# 仅下载可选的 Chinese RoBERTa 资源\ngenie.download_roberta_data()\n\n# 或者使用内置的完整资源下载流程，\n# 其中也会下载可选的 Chinese RoBERTa 资源\ngenie.download_genie_data()\n```\n\n这些 RoBERTa 特征仅适用于 **中文** 路径，用于改善中文韵律。它们 **不应** 用于非中文推理（日语 \u002F 英语 \u002F 韩语）。\n\n### ⚡️ 快速试用\n\n还没有 GPT-SoVITS 模型？没关系！GENIE 包含多个预定义的说话人角色，您可以立即使用——例如：\n\n* **Mika (聖園ミカ)** — *Blue Archive*（日语）\n* **ThirtySeven (37)** — *Reverse: 1999*（英语）\n* **Feibi (菲比)** — *Wuthering Waves*（中文）\n\n您可以在这里浏览所有可用的角色：\n**[https:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FCharacterModels](\nhttps:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FCharacterModels)**\n\n使用下面的示例进行尝试：\n\n```python\nimport genie_tts as genie\nimport time\n\n# 第一次运行时会自动下载所需文件\ngenie.load_predefined_character('mika')\n\ngenie.tts(\n    character_name='mika',\n    text='どうしようかな……やっぱりやりたいかも……！',\n    play=True,  # 直接播放生成的音频\n)\n\ngenie.wait_for_playback_done()  # 确保音频播放完成\n```\n\n### 🎤 TTS 最佳实践\n\n一个简单的 TTS 推理示例：\n\n```python\nimport genie_tts as genie\n\n# 第一步：加载说话人声音模型\ngenie.load_character(\n    character_name='\u003CCHARACTER_NAME>',  # 替换为您选择的角色名称\n    onnx_model_dir=r\"\u003CPATH_TO_CHARACTER_ONNX_MODEL_DIR>\",  # 包含 ONNX 模型的文件夹\n    language='\u003CLANGUAGE_CODE>',  # 替换为语言代码，如 'en'、'zh'、'jp'\n)\n\n# 第二步：设置参考音频（用于情感和语调的克隆）\ngenie.set_reference_audio(\n    character_name='\u003CCHARACTER_NAME>',  # 必须与已加载的角色名称一致\n    audio_path=r\"\u003CPATH_TO_REFERENCE_AUDIO>\",  # 参考音频的路径\n    audio_text=\"\u003CREFERENCE_AUDIO_TEXT>\",  # 对应的文本\n)\n\n# 第三步：运行 TTS 推理并生成音频\ngenie.tts(\n    character_name='\u003CCHARACTER_NAME>',  # 必须与已加载的角色一致\n    text=\"\u003CTEXT_TO_SYNTHESIZE>\",  # 要合成的文本\n    play=True,  # 直接播放音频\n    save_path=\"\u003COUTPUT_AUDIO_PATH>\",  # 输出音频文件的路径\n)\n\ngenie.wait_for_playback_done()  # 确保音频播放完成\n\nprint(\"🎉 音频生成完成！\")\n```\n\n---\n\n## 🔧 模型转换\n\n要将原始 GPT-SoVITS 模型转换为 GENIE 格式，请确保已安装 `torch`：\n\n```bash\npip install torch\n```\n\n然后使用内置的转换工具：\n\n> **提示:** `convert_to_onnx` 目前支持 V2 和 V2ProPlus 模型。\n\n```python\nimport genie_tts as genie\n\ngenie.convert_to_onnx(\n    torch_pth_path=r\"\u003CYOUR .PTH MODEL FILE>\",  # 替换为您的 .pth 文件\n    torch_ckpt_path=r\"\u003CYOUR .CKPT CHECKPOINT FILE>\",  # 替换为您的 .ckpt 文件\n    output_dir=r\"\u003CONNX MODEL OUTPUT DIRECTORY>\"  # 保存 ONNX 模型的目录\n)\n```\n\n---\n\n## 🌐 启动 FastAPI 服务器\n\nGENIE 内置了一个轻量级的 FastAPI 服务器：\n\n```python\nimport genie_tts as genie\n\n# 启动服务器\ngenie.start_server(\n    host=\"0.0.0.0\",  # 主机地址\n    port=8000,  # 端口\n    workers=1  # 工作进程数\n)\n```\n\n> 关于请求格式和 API 详情，请参阅我们的 [API 服务器教程](.\u002FTutorial\u002FEnglish\u002FAPI%20Server%20Tutorial.py)。\n\n---\n\n## 📝 路线图\n\n* [x] **🌐 语言扩展**\n\n    * [x] 增加对 **中文** 和 **英语** 的支持。\n\n* [x] **🚀 模型兼容性**\n\n    * [x] 支持 `V2Proplus`。\n    * [ ] 计划支持 `V3`、`V4` 等更多版本。\n\n* [x] **📦 易部署**\n\n    * [ ] 发布 **官方 Docker 镜像**。\n    * [x] 提供开箱即用的 **Windows 安装包**。\n\n---","# Genie-TTS 快速上手指南\n\nGenie 是一个基于 GPT-SoVITS 构建的轻量级推理引擎，专为 CPU 优化，旨在提供近乎实时的语音合成体验。支持日语、英语、中文和韩语。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Windows（提供开箱即用的支持），Linux\u002FmacOS 亦可运行。\n*   **Python 版本**：>= 3.9\n*   **运行权限**：**强烈建议以管理员身份运行**终端或 IDE，以避免潜在的性能下降问题。\n*   **前置依赖**：\n    *   基础运行仅需安装 `genie-tts`。\n    *   若需进行模型转换（将 PyTorch 模型转为 ONNX），需额外安装 `torch`。\n\n## 2. 安装步骤\n\n### 方式一：通过 Pip 安装（推荐）\n\n直接使用 pip 安装核心库：\n\n```bash\npip install genie-tts\n```\n\n> **提示**：国内用户若下载缓慢，可指定国内镜像源加速：\n> ```bash\n> pip install genie-tts -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 方式二：资源文件配置\n\n首次运行时，库会自动下载约 391MB 的资源文件。您也可以手动下载并配置，以加快加载速度或使用离线环境。\n\n1.  从 [HuggingFace](https:\u002F\u002Fhuggingface.co\u002FHigh-Logic\u002FGenie\u002Ftree\u002Fmain\u002FGenieData) 下载资源文件到本地文件夹。\n2.  在代码导入 `genie_tts` **之前**设置环境变量：\n\n```python\nimport os\n\n# 设置自定义资源目录路径 (请在导入 genie_tts 前执行)\nos.environ[\"GENIE_DATA_DIR\"] = r\"C:\\path\\to\\your\\GenieData\"\n\nimport genie_tts as genie\n```\n\n*可选：若需提升中文合成的韵律表现，可单独下载 Chinese RoBERTa 特征：*\n```python\nimport genie_tts as genie\ngenie.download_roberta_data()\n```\n\n## 3. 基本使用\n\nGenie 内置了多个预定义角色（如《蔚蓝档案》的 Mika、《重返未来：1999》的 37 等），无需训练即可直接试用。\n\n### 最简单的使用示例\n\n以下代码将加载预设角色 \"mika\" 并合成一句日语台词，同时直接播放音频：\n\n```python\nimport genie_tts as genie\nimport time\n\n# 1. 加载预定义角色 (首次运行会自动下载该角色模型)\ngenie.load_predefined_character('mika')\n\n# 2. 执行 TTS 推理\ngenie.tts(\n    character_name='mika',\n    text='どうしようかな……やっぱりやりたいかも……！',\n    play=True,  # 生成后直接播放音频\n)\n\n# 3. 等待播放结束\ngenie.wait_for_playback_done()\n```\n\n### 自定义角色与参考音频\n\n如果您已有自己的 GPT-SoVITS 模型（ONNX 格式）或希望克隆特定声音的情感，可按以下步骤操作：\n\n```python\nimport genie_tts as genie\n\n# 步骤 1: 加载自定义角色模型\ngenie.load_character(\n    character_name='my_character',       # 自定义角色名称\n    onnx_model_dir=r\".\u002Fmodels\u002Fmy_char\",  # 包含 ONNX 模型的文件夹路径\n    language='zh',                       # 语言代码：'zh', 'en', 'jp', 'ko'\n)\n\n# 步骤 2: 设置参考音频 (用于情感与语调克隆)\ngenie.set_reference_audio(\n    character_name='my_character',\n    audio_path=r\".\u002Fref_audio.wav\",       # 参考音频路径\n    audio_text=\"这是参考音频对应的文本\",   # 参考音频的文本内容\n)\n\n# 步骤 3: 合成语音并保存\ngenie.tts(\n    character_name='my_character',\n    text=\"这是我要合成的新文本\",\n    play=True,\n    save_path=\".\u002Foutput.wav\"             # 输出文件路径\n)\n\ngenie.wait_for_playback_done()\nprint(\"🎉 音频生成完成！\")\n```","独立游戏开发者小林正在为一款多语言视觉小说项目制作角色配音，需要在资源有限的笔记本上快速生成中、日、英三语语音素材。\n\n### 没有 Genie-TTS 时\n- **硬件门槛高**：原始 GPT-SoVITS 依赖庞大的 PyTorch 环境，显存占用高达数 GB，小林的集显笔记本根本无法运行，必须租用昂贵的云端 GPU。\n- **启动等待漫长**：每次测试新台词都需要加载沉重的模型文件，首句推理延迟超过 3.5 秒，严重打断创作心流和调试效率。\n- **部署包体积臃肿**：若要将 TTS 功能集成到游戏本地运行，官方 ONNX 模型加上依赖库体积接近 750MB，导致游戏安装包过大，影响玩家下载意愿。\n- **多语言切换繁琐**：针对不同语种需要手动配置复杂的文本特征提取器，尤其是中文语调调整困难，容易产出机械感重的声音。\n\n### 使用 Genie-TTS 后\n- **纯 CPU 流畅运行**：Genie-TTS 将运行时体积压缩至约 200MB，小林直接在 i7 处理器的笔记本上即可流畅推理，彻底摆脱了对 GPU 的依赖。\n- **近乎实时的反馈**：得益于优化的推理引擎，首句延迟降低至 1.13 秒，输入台词后几乎瞬间听到效果，极大提升了剧本迭代速度。\n- **轻量级集成体验**：模型文件仅约 230MB，且支持一键调用预训练角色（如“菲比”或\"Mika\"），轻松嵌入游戏工程而不显著增加包体大小。\n- **智能多语言适配**：内置针对中文优化的 RoBERTa 特征模块，自动提升中文语调自然度，同时无缝支持日、英、韩语，无需额外配置即可输出高质量多语配音。\n\nGenie-TTS 通过极致的轻量化与 CPU 加速，让个人开发者在普通电脑上也能低成本实现专业级的多语言语音合成工作流。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHigh-Logic_Genie-TTS_34803107.png","High-Logic","High_Logic","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHigh-Logic_837d4a59.jpg","PKU undergrad | ML & Graphics | Currently playing Xenoblade series",null,"https:\u002F\u002Fgithub.com\u002FHigh-Logic",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1473,101,"2026-04-06T02:53:04","MIT","Windows","非必需，专为 CPU 优化运行","未说明",{"notes":94,"python":95,"dependencies":96},"建议在 Windows 上以管理员模式运行以避免性能下降。首次运行需下载约 391MB 资源文件（可手动下载并配置 GENIE_DATA_DIR 环境变量）。支持日语、英语、中文和韩语。若需提升中文韵律，可额外下载可选的 Chinese RoBERTa 特征文件。提供预定义角色模型及 FastAPI 服务器功能。",">=3.9",[97,98],"torch (模型转换时需要)","fastapi",[38,15],[101,102,103,104,105,106],"gpt-sovits","tts","text-to-speech","vits","voice-clone","voice-cloning","2026-03-27T02:49:30.150509","2026-04-06T18:53:50.725165",[],[111,116],{"id":112,"version":113,"summary_zh":114,"released_at":115},117698,"v2.0.2","Mega网盘：https:\u002F\u002Fmega.nz\u002Ffile\u002F2vQRQQKR#HxB_8tqgE5GixrZwz__KBKhEJhq50CPb4Yl3KB7Bn2g\n\n小白友好的图形界面程序，解压即用，无需GPU，无需安装任何环境。  \n建议在 Windows 10\u002F11 上运行。\n\n支持三种语言：中文、英文、日文。  \n支持 GPT SoVITS V2 及 V2 ProPlus 模型转换，  \n支持批量合成语音。\n\n预装了以下角色模型（963MB）：  \n（中文）鸣潮-菲比  \n（日文）碧蓝档案-圣园未花  \n（英文）重返未来-37  \n\n\u003Cimg width=\"1344\" height=\"955\" alt=\"屏幕截图 2025-12-12 170744\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4bb8f7d6-0f06-41dc-bca4-fca97c7c95eb\" \u002F>","2025-12-12T08:17:20",{"id":117,"version":118,"summary_zh":119,"released_at":120},117699,"v1.0.2","发布 Windows 整合包，包含：\r\n- Genie-TTS 命令行客户端\r\n- API 服务器\r\n- GPT-SoVITS 模型转换界面\r\n- Misono Mika 语音合成器（用于快速体验）","2025-09-09T05:34:36"]