[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-flybirdxx--ComfyUI-Qwen-TTS":3,"tool-flybirdxx--ComfyUI-Qwen-TTS":64},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":29,"last_commit_at":62,"category_tags":63,"status":22},5908,"ChatTTS","2noise\u002FChatTTS","ChatTTS 是一款专为日常对话场景打造的生成式语音模型，特别适用于大语言模型助手等交互式应用。它主要解决了传统文本转语音（TTS）技术在对话中缺乏自然感、情感表达单一以及难以处理停顿、笑声等细微语气的问题，让机器生成的语音听起来更像真人在聊天。\n\n这款工具非常适合开发者、研究人员以及希望为应用增添自然语音交互功能的设计师使用。普通用户也可以通过社区开发的衍生产品体验其能力。ChatTTS 的核心亮点在于其对对话任务的深度优化：它不仅支持中英文双语，还能精准控制韵律细节，自动生成自然的 laughter（笑声）、pauses（停顿）和 interjections（插入语），从而实现多说话人的互动对话效果。在韵律表现上，ChatTTS 超越了大多数开源 TTS 模型。目前开源版本基于 4 万小时数据预训练而成，虽主要用于学术研究与教育目的，但已展现出强大的潜力，并支持流式音频生成与零样本推理，为后续的多情绪控制等进阶功能奠定了基础。",39042,"2026-04-09T11:54:03",[19,17,20,21],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":76,"difficulty_score":29,"env_os":87,"env_gpu":88,"env_ram":89,"env_deps":90,"category_tags":100,"github_topics":76,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":22,"created_at":101,"updated_at":102,"faqs":103,"releases":132},6587,"flybirdxx\u002FComfyUI-Qwen-TTS","ComfyUI-Qwen-TTS","A Simple Implementation of Qwen3-TTS's ComfyUI","ComfyUI-Qwen-TTS 是一款基于阿里通义千问团队开源 Qwen3-TTS 模型的 ComfyUI 自定义节点插件，旨在为用户提供高效、灵活的语音合成解决方案。它主要解决了在可视化工作流中难以实现高质量文本转语音、零样本声音克隆及个性化声音设计的痛点，让用户无需编写代码即可通过节点连接完成复杂的音频生成任务。\n\n这款工具非常适合 AI 创作者、视频制作人、游戏开发者以及希望探索语音技术的研究人员使用。无论是需要为虚拟角色定制独特声线，还是希望快速克隆参考音频中的声音，亦或是进行多语言（支持中、英、日、韩等 10 种语言）的批量配音，都能轻松应对。\n\n其技术亮点在于集成了多种先进功能：支持“零样本”声音克隆，仅需短短几秒的参考音频即可复刻音色；提供基于自然语言描述的“声音设计”功能，可创造现实中不存在的虚拟嗓音；具备超低延迟流式推理能力，并允许用户根据显存情况灵活选择注意力机制或自动卸载模型以优化资源占用。此外，它还内置了智能模型缓存机制，无需繁琐的手动加载步骤，让创作流程更加流畅自然。","# ComfyUI-Qwen-TTS\r\n\r\nEnglish | [中文版](README_CN.md)\r\n\r\n![Nodes Screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fflybirdxx_ComfyUI-Qwen-TTS_readme_1123dfb966f9.png)\r\n\r\nComfyUI custom nodes for speech synthesis, voice cloning, and voice design, based on the open-source **Qwen3-TTS** project by the Alibaba Qwen team.\r\n\r\n## 📋 Changelog\r\n\r\n- **2026-02-04**: Feature Update: Added Global Pause Control (`QwenTTSConfigNode`) and `extra_model_paths.yaml` support ([update.md](doc\u002Fupdate.md))\r\n- **2026-01-29**: Feature Update: Support for loading custom fine-tuned models & speakers ([update.md](doc\u002Fupdate.md))\r\n  - *Note: Fine-tuning is currently experimental; zero-shot cloning is recommended for best results.*\r\n- **2026-01-27**: UI Optimization: Sleek LoadSpeaker UI; fixed PyTorch 2.6+ compatibility ([update.md](doc\u002Fupdate.md))\r\n- **2026-01-26**: Functional Update: New voice persistence system (SaveVoice \u002F LoadSpeaker) ([update.md](doc\u002Fupdate.md))\r\n- **2026-01-24**: Added attention mechanism selection & model memory management features ([update.md](doc\u002Fupdate.md))\r\n- **2026-01-24**: Added generation parameters (top_p, top_k, temperature, repetition_penalty) to all TTS nodes ([update.md](doc\u002Fupdate.md))\r\n- **2026-01-23**: Dependency compatibility & Mac (MPS) support, New nodes: VoiceClonePromptNode, DialogueInferenceNode ([update.md](doc\u002Fupdate.md))\r\n\r\n## Online Workflows\r\n\r\n- **Qwen3-TTS Multi-Role Multi-Round Dialogue Generation Workflow**:\r\n  - [workflow](https:\u002F\u002Fwww.runninghub.ai\u002Fpost\u002F2014703508829769729\u002F?inviteCode=rh-v1041)\r\n- **Qwen3-TTS 3-in-1 (Clone, Design, Custom) Workflow**:\r\n  - [workflow](https:\u002F\u002Fwww.runninghub.ai\u002Fpost\u002F2014962110224142337\u002F?inviteCode=rh-v1041)\r\n\r\n## Key Features\r\n\r\n- 🎵 **Speech Synthesis**: High-quality text-to-speech conversion.\r\n- 🎭 **Voice Cloning**: Zero-shot voice cloning from short reference audio.\r\n- 🎨 **Voice Design**: Create custom voice characteristics based on natural language descriptions.\r\n- 🚀 **Efficient Inference**: Supports both 12Hz and 25Hz speech tokenizer architectures.\r\n- 🎯 **Multilingual**: Native support for 10 languages (Chinese, English, Japanese, Korean, German, French, Russian, Portuguese, Spanish, and Italian).\r\n- ⚡ **Integrated Loading**: No separate loader nodes required; model loading is managed on-demand with global caching.\r\n- ⏱️ **Ultra-Low Latency**: Supports high-fidelity speech reconstruction with low-latency streaming.\r\n- 🧠 **Attention Mechanism Selection**: Choose from multiple attention implementations (sage_attn, flash_attn, sdpa, eager) with auto-detection and graceful fallback.\r\n- 💾 **Memory Management**: Optional model unloading after generation to free GPU memory for users with limited VRAM.\r\n\r\n## Nodes List\r\n\r\n### 1. Qwen3-TTS Voice Design (`VoiceDesignNode`)\r\nGenerate unique voices based on text descriptions.\r\n- **Inputs**:\r\n  - `text`: Target text to synthesize.\r\n  - `instruct`: Description of the voice (e.g., \"A gentle female voice with a high pitch\").\r\n  - `model_choice`: Currently locked to **1.7B** for VoiceDesign features.\r\n  - `attention`: Attention mechanism (auto, sage_attn, flash_attn, sdpa, eager).\r\n  - `unload_model_after_generate`: Unload model from memory after generation to free GPU memory.\r\n- **Capabilities**: Best for creating \"imaginary\" voices or specific character archetypes.\r\n\r\n### 2. Qwen3-TTS Voice Clone (`VoiceCloneNode`)\r\nClone a voice from a reference audio clip.\r\n- **Inputs**:\r\n  - `ref_audio`: A short (5-15s) audio clip to clone.\r\n  - `ref_text`: Text spoken in the `ref_audio` (helps improve quality).\r\n  - `target_text`: The new text you want the cloned voice to say.\r\n  - `model_choice`: Choose between **0.6B** (fast) or **1.7B** (high quality).\r\n  - `attention`: Attention mechanism (auto, sage_attn, flash_attn, sdpa, eager).\r\n  - `unload_model_after_generate`: Unload model from memory after generation to free GPU memory.\r\n\r\n### 3. Qwen3-TTS Custom Voice (`CustomVoiceNode`)\r\nStandard TTS using preset speakers.\r\n- **Inputs**:\r\n  - `text`: Target text.\r\n  - `speaker`: Selection from preset voices (Aiden, Eric, Serena, etc.).\r\n  - `instruct`: Optional style instructions.\r\n  - `attention`: Attention mechanism (auto, sage_attn, flash_attn, sdpa, eager).\r\n  - `unload_model_after_generate`: Unload model from memory after generation to free GPU memory.\r\n\r\n### 4. Qwen3-TTS Role Bank (`RoleBankNode`) [New]\r\nCollect and manage multiple voice prompts for dialogue generation.\r\n- **Inputs**:\r\n  - Up to 8 roles, each with:\r\n    - `role_name_N`: Name of the role (e.g., \"Alice\", \"Bob\", \"Narrator\")\r\n    - `prompt_N`: Voice clone prompt from `VoiceClonePromptNode`\r\n- **Capabilities**: Create named voice registry for use in `DialogueInferenceNode`. Supports up to 8 different voices per bank.\r\n\r\n### 5. Qwen3-TTS Voice Clone Prompt (`VoiceClonePromptNode`) [New]\r\nExtract and reuse voice features from reference audio.\r\n- **Inputs**:\r\n  - `ref_audio`: A short (5-15s) audio clip to extract features from.\r\n  - `ref_text`: Text spoken in the `ref_audio` (highly recommended for better quality).\r\n  - `model_choice`: Choose between **0.6B** (fast) or **1.7B** (high quality).\r\n  - `attention`: Attention mechanism (auto, sage_attn, flash_attn, sdpa, eager).\r\n  - `unload_model_after_generate`: Unload model from memory after generation to free GPU memory.\r\n- **Capabilities**: Extract a \"prompt item\" once and use it multiple times across different `VoiceCloneNode` instances for faster and more consistent generation.\r\n\r\n### 6. Qwen3-TTS Multi-role Dialogue (`DialogueInferenceNode`) [New]\r\nSynthesize complex dialogues with multiple speakers.\r\n- **Inputs**:\r\n  - `script`: Dialogue script in format \"RoleName: Text\".\r\n  - `role_bank`: Role bank from `RoleBankNode` containing voice prompts.\r\n  - `model_choice`: Choose between **0.6B** (fast) or **1.7B** (high quality).\r\n  - `attention`: Attention mechanism (auto, sage_attn, flash_attn, sdpa, eager).\r\n  - `unload_model_after_generate`: Unload model from memory after generation to free GPU memory.\r\n  - `pause_seconds`: Silence duration between sentences.\r\n  - `merge_outputs`: Merge all dialogue segments into a single long audio.\r\n  - `batch_size`: Number of lines to process in parallel (larger = faster but more VRAM).\r\n- **Capabilities**: Handles multi-role speech synthesis in a single node, ideal for audiobook narration or roleplay scenarios.\r\n\r\n### 7. Qwen3-TTS Load Speaker (`LoadSpeakerNode`) [New]\r\nLoad saved voice features and metadata with zero configuration.\r\n- **Capabilities**: Enables a \"Select & Play\" experience by auto-loading pre-computed features and metadata.\r\n\r\n### 8. Qwen3-TTS Save Voice (`SaveVoiceNode`) [New]\r\nPersist extracted voice features and metadata to disk for future use.\r\n- **Capabilities**: Build a permanent voice library for reuse via `LoadSpeakerNode`.\r\n\r\n### 9. Qwen3-TTS Config (`QwenTTSConfigNode`) [New]\r\nDefine global pause durations for punctuation to control speech rhythm.\r\n- **Inputs**:\r\n  - `pause_linebreak`: Silence after linebreaks.\r\n  - `period_pause`: Silence after periods (.).\r\n  - `comma_pause`: Silence after commas (,).\r\n  - `question_pause`: Silence after question marks (?).\r\n  - `hyphen_pause`: Silence after hyphens (-).\r\n- **Usage**: Connect output to the `config` input of other TTS nodes.\r\n\r\n## Attention Mechanisms\r\n\r\nAll nodes support multiple attention implementations with automatic detection and graceful fallback:\r\n\r\n| Mechanism | Description | Speed | Installation |\r\n|-----------|-------------|-------|--------------|\r\n| **sage_attn** | SAGE attention implementation | ⚡⚡⚡ Fastest | `pip install sage_attn` |\r\n| **flash_attn** | Flash Attention 2 | ⚡⚡ Fast | `pip install flash_attn` |\r\n| **sdpa** | Scaled Dot Product Attention (PyTorch built-in) | ⚡ Medium | Built-in (no installation) |\r\n| **eager** | Standard attention (fallback) | 🐢 Slowest | Built-in (no installation) |\r\n| **auto** | Automatically selects best available option | Varies | N\u002FA |\r\n\r\n### Auto-Detection Priority\r\n\r\nWhen `attention: \"auto\"` is selected, the system checks in this order:\r\n1. **sage_attn** → If installed, use SAGE attention (fastest)\r\n2. **flash_attn** → If installed, use Flash Attention 2\r\n3. **sdpa** → Always available (PyTorch built-in)\r\n4. **eager** → Always available (fallback, slowest)\r\n\r\nThe selected mechanism is logged to the console for transparency.\r\n\r\n### Graceful Fallback\r\n\r\nIf you select an attention mechanism that's not available:\r\n- Falls back to `sdpa` (if available)\r\n- Falls back to `eager` (as last resort)\r\n- Logs the fallback decision with a warning message\r\n\r\n### Model Caching\r\n\r\n- Models are cached with attention-specific keys\r\n- Changing attention mechanism automatically clears cache and reloads model\r\n- Same model with different attention mechanisms coexists in cache\r\n\r\n## Memory Management\r\n\r\n### Model Unloading After Generation\r\n\r\nThe `unload_model_after_generate` toggle is available on all nodes:\r\n- **Enabled**: Clears model cache, GPU memory, and runs garbage collection after generation\r\n- **Disabled**: Model remains in cache for faster subsequent generations (default)\r\n\r\n**When to use:**\r\n- ✅ Enable if you have limited VRAM (\u003C 8GB)\r\n- ✅ Enable if you need to run multiple different models sequentially\r\n- ✅ Enable if you're done with generation and want to free memory\r\n- ❌ Disable if you're generating multiple clips with the same model (faster)\r\n\r\n**Console Output:**\r\n```\r\n🗑️ [Qwen3-TTS] Unloading 1 cached model(s)...\r\n✅ [Qwen3-TTS] Model cache and GPU memory cleared\r\n```\r\n\r\n\r\n\r\n## Installation\r\n\r\nEnsure you have the required dependencies:\r\n\r\n```bash\r\npip install torch torchaudio transformers librosa accelerate\r\n```\r\n\r\n### Model Directory Structure\r\n\r\nComfyUI-Qwen-TTS automatically searches for models in the following priority:\r\n\r\n```text\r\nComfyUI\u002F\r\n├── models\u002F\r\n│   └── qwen-tts\u002F\r\n│       ├── Qwen\u002FQwen3-TTS-12Hz-1.7B-Base\u002F\r\n│       ├── Qwen\u002FQwen3-TTS-12Hz-0.6B-Base\u002F\r\n│       ├── Qwen\u002FQwen3-TTS-12Hz-1.7B-VoiceDesign\u002F\r\n│       ├── Qwen\u002FQwen3-TTS-Tokenizer-12Hz\u002F\r\n│       └── voices\u002F (Saved presets .wav\u002F.qvp)\r\n```\r\n\r\n**Note**: You can also use `extra_model_paths.yaml` to define a custom model path:\r\n```yaml\r\nqwen-tts: D:\\MyModels\\Qwen\r\n```\r\n\r\n## Tips for Best Results\r\n\r\n### Audio Quality\r\n- **Cloning**: Use clean, noise-free reference audio (5-15 seconds).\r\n- **Reference Text**: Providing text spoken in reference audio significantly improves quality.\r\n- **Language**: Select the correct language for best pronunciation and prosody.\r\n\r\n### Performance & Memory\r\n- **VRAM**: Use `bf16` precision to save significant memory with minimal quality loss.\r\n- **Attention**: Use `attention: \"auto\"` for automatic selection of fastest available mechanism.\r\n- **Model Unloading**: Enable `unload_model_after_generate` if you have limited VRAM (\u003C 8GB) or need to run multiple different models.\r\n- **Local Models**: Pre-download weights to `models\u002Fqwen-tts\u002F` to prioritize local loading and avoid HuggingFace timeouts.\r\n\r\n### Attention Mechanisms\r\n- **Best Performance**: Install `sage_attn` or `flash_attn` for 2-3x speedup over sdpa.\r\n- **Compatibility**: Use `sdpa` (default) for maximum compatibility - no installation required.\r\n- **Low VRAM**: Use `eager` with smaller models (0.6B) if other mechanisms cause OOM errors.\r\n\r\n### Dialogue Generation\r\n- **Batch Size**: Increase `batch_size` for faster generation (more VRAM usage).\r\n- **Pauses**: Adjust `pause_seconds` to control timing between dialogue segments.\r\n- **Merge**: Enable `merge_outputs` for continuous dialogue; disable for separate clips.\r\n\r\n## Acknowledgments\r\n\r\n- [Qwen3-TTS](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-TTS): Official open-source repository by Alibaba Qwen team.\r\n\r\n## License\r\n\r\n- This project is licensed under the **Apache License 2.0**.\r\n- Model weights are subject to the [Qwen3-TTS License Agreement](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-TTS#License).\r\n\r\n## Author\r\n\r\n- **Bilibili**: [Space](https:\u002F\u002Fspace.bilibili.com\u002F5594117?spm_id_from=333.1007.0.0)\r\n- **YouTube**: [Channel](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCx5L-wKf93YNbcP_55vDCeg)\r\n","# ComfyUI-Qwen-TTS\n\n英语 | [中文版](README_CN.md)\n\n![节点截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fflybirdxx_ComfyUI-Qwen-TTS_readme_1123dfb966f9.png)\n\n基于阿里巴巴通义实验室团队开源的 **Qwen3-TTS** 项目，为 ComfyUI 提供的语音合成、语音克隆和语音设计自定义节点。\n\n## 📋 更改日志\n\n- **2026-02-04**: 功能更新：新增全局暂停控制（`QwenTTSConfigNode`）及对 `extra_model_paths.yaml` 的支持（[update.md](doc\u002Fupdate.md)）\n- **2026-01-29**: 功能更新：支持加载自定义微调模型与说话人（[update.md](doc\u002Fupdate.md)）\n  - *注：目前微调功能仍处于实验阶段；为获得最佳效果，建议使用零样本克隆。*\n- **2026-01-27**: UI 优化：简洁的 LoadSpeaker 界面；修复了与 PyTorch 2.6+ 的兼容性问题（[update.md](doc\u002Fupdate.md)）\n- **2026-01-26**: 功能更新：新增语音持久化系统（SaveVoice \u002F LoadSpeaker）（[update.md](doc\u002Fupdate.md)）\n- **2026-01-24**: 增加注意力机制选择及模型内存管理功能（[update.md](doc\u002Fupdate.md)）\n- **2026-01-24**: 在所有 TTS 节点中添加生成参数（top_p、top_k、温度、重复惩罚）（[update.md](doc\u002Fupdate.md)）\n- **2026-01-23**: 依赖兼容性与 Mac (MPS) 支持，新增节点：VoiceClonePromptNode、DialogueInferenceNode（[update.md](doc\u002Fupdate.md)）\n\n## 在线工作流\n\n- **Qwen3-TTS 多角色多轮对话生成工作流**：\n  - [工作流](https:\u002F\u002Fwww.runninghub.ai\u002Fpost\u002F2014703508829769729\u002F?inviteCode=rh-v1041)\n- **Qwen3-TTS 三合一（克隆、设计、自定义）工作流**：\n  - [工作流](https:\u002F\u002Fwww.runninghub.ai\u002Fpost\u002F2014962110224142337\u002F?inviteCode=rh-v1041)\n\n## 核心特性\n\n- 🎵 **语音合成**：高质量文本转语音转换。\n- 🎭 **语音克隆**：从短参考音频实现零样本语音克隆。\n- 🎨 **语音设计**：根据自然语言描述创建自定义语音特征。\n- 🚀 **高效推理**：同时支持 12Hz 和 25Hz 语音分词器架构。\n- 🎯 **多语言支持**：原生支持 10 种语言（中文、英文、日语、韩语、德语、法语、俄语、葡萄牙语、西班牙语和意大利语）。\n- ⚡ **集成加载**：无需单独的加载节点；模型加载采用按需管理并结合全局缓存。\n- ⏱️ **超低延迟**：支持高保真语音重建与低延迟流式传输。\n- 🧠 **注意力机制选择**：可从多种注意力实现（sage_attn、flash_attn、sdpa、eager）中选择，并具备自动检测与优雅回退功能。\n- 💾 **内存管理**：生成完成后可选择卸载模型，以释放显存，适用于显存有限的用户。\n\n## 节点列表\n\n### 1. Qwen3-TTS 语音设计（`VoiceDesignNode`）\n根据文本描述生成独特语音。\n- **输入**：\n  - `text`：待合成的目标文本。\n  - `instruct`：语音描述（例如：“温柔的女声，音调较高”）。\n  - `model_choice`：目前语音设计功能仅支持 **1.7B** 模型。\n  - `attention`：注意力机制（auto、sage_attn、flash_attn、sdpa、eager）。\n  - `unload_model_after_generate`：生成完成后将模型从内存中卸载，以释放显存。\n- **适用场景**：最适合用于创建“想象中的”语音或特定角色原型。\n\n### 2. Qwen3-TTS 语音克隆（`VoiceCloneNode`）\n从参考音频片段克隆语音。\n- **输入**：\n  - `ref_audio`：用于克隆的短音频片段（5–15秒）。\n  - `ref_text`：参考音频中所包含的文本（有助于提升质量）。\n  - `target_text`：希望克隆后的语音说出的新文本。\n  - `model_choice`：可选择 **0.6B**（速度快）或 **1.7B**（质量高）。\n  - `attention`：注意力机制（auto、sage_attn、flash_attn、sdpa、eager）。\n  - `unload_model_after_generate`：生成完成后将模型从内存中卸载，以释放显存。\n- **适用场景**：从参考音频中提取语音特征并进行克隆。\n\n### 3. Qwen3-TTS 自定义语音（`CustomVoiceNode`）\n使用预设说话人进行标准 TTS 合成。\n- **输入**：\n  - `text`：目标文本。\n  - `speaker`：从预设语音中选择（Aiden、Eric、Serena 等）。\n  - `instruct`：可选的风格指令。\n  - `attention`：注意力机制（auto、sage_attn、flash_attn、sdpa、eager）。\n  - `unload_model_after_generate`：生成完成后将模型从内存中卸载，以释放显存。\n- **适用场景**：使用预设语音进行常规语音合成。\n\n### 4. Qwen3-TTS 角色库（`RoleBankNode`）[新]\n收集并管理多个语音提示，用于对话生成。\n- **输入**：\n  - 最多 8 个角色，每个角色包含：\n    - `role_name_N`：角色名称（如“Alice”、“Bob”、“旁白”）。\n    - `prompt_N`：来自 `VoiceClonePromptNode` 的语音克隆提示。\n- **适用场景**：为 `DialogueInferenceNode` 创建命名语音注册表。每个角色库最多支持 8 种不同语音。\n\n### 5. Qwen3-TTS 语音克隆提示（`VoiceClonePromptNode`）[新]\n从参考音频中提取并复用语音特征。\n- **输入**：\n  - `ref_audio`：用于提取特征的短音频片段（5–15秒）。\n  - `ref_text`：参考音频中所包含的文本（强烈推荐以提高质量）。\n  - `model_choice`：可选择 **0.6B**（速度快）或 **1.7B**（质量高）。\n  - `attention`：注意力机制（auto、sage_attn、flash_attn、sdpa、eager）。\n  - `unload_model_after_generate`：生成完成后将模型从内存中卸载，以释放显存。\n- **适用场景**：一次性提取“提示项”，并在不同的 `VoiceCloneNode` 实例中多次使用，从而实现更快、更一致的生成效果。\n\n### 6. Qwen3-TTS 多角色对话（`DialogueInferenceNode`）[新]\n合成包含多名说话人的复杂对话。\n- **输入**：\n  - `script`：对话脚本，格式为“角色名：文本”。\n  - `role_bank`：来自 `RoleBankNode` 的包含语音提示的角色库。\n  - `model_choice`：可选择 **0.6B**（速度快）或 **1.7B**（质量高）。\n  - `attention`：注意力机制（auto、sage_attn、flash_attn、sdpa、eager）。\n  - `unload_model_after_generate`：生成完成后将模型从内存中卸载，以释放显存。\n  - `pause_seconds`：句子之间的静默时长。\n  - `merge_outputs`：将所有对话片段合并为一段长音频。\n  - `batch_size`：可并行处理的行数（数值越大速度越快，但显存消耗也越多）。\n- **适用场景**：在一个节点中完成多角色语音合成，非常适合有声书配音或角色扮演场景。\n\n### 7. Qwen3-TTS 加载说话人（`LoadSpeakerNode`）[新]\n无需任何配置即可加载已保存的语音特征和元数据。\n- **适用场景**：通过自动加载预先计算好的特征和元数据，实现“选择即播放”的体验。\n\n### 8. Qwen3-TTS 保存语音（`SaveVoiceNode`）[新]\n将提取的语音特征和元数据持久化到磁盘，以供未来使用。\n- **适用场景**：构建永久性的语音库，以便后续通过 `LoadSpeakerNode` 重复使用。\n\n### 9. Qwen3-TTS 配置（`QwenTTSConfigNode`）[新功能]\n定义标点符号的全局停顿时长，以控制语音节奏。\n- **输入**：\n  - `pause_linebreak`：换行符后的静音时长。\n  - `period_pause`：句号（.）后的静音时长。\n  - `comma_pause`：逗号（,）后的静音时长。\n  - `question_pause`：问号（?）后的静音时长。\n  - `hyphen_pause`：连字符（-）后的静音时长。\n- **用法**：将输出连接到其他 TTS 节点的 `config` 输入端。\n\n## 注意力机制\n\n所有节点都支持多种注意力实现方式，并具备自动检测和优雅降级功能：\n\n| 机制 | 描述 | 速度 | 安装方法 |\n|------|------|------|----------|\n| **sage_attn** | SAGE 注意力实现 | ⚡⚡⚡ 最快 | `pip install sage_attn` |\n| **flash_attn** | Flash Attention 2 | ⚡⚡ 快速 | `pip install flash_attn` |\n| **sdpa** | 缩放点积注意力（PyTorch 内置） | ⚡ 中速 | 内置（无需安装） |\n| **eager** | 标准注意力（回退选项） | 🐢 最慢 | 内置（无需安装） |\n| **auto** | 自动选择最佳可用选项 | 变化 | 不适用 |\n\n### 自动检测优先级\n\n当选择 `attention: \"auto\"` 时，系统会按以下顺序检查：\n1. **sage_attn** → 如果已安装，则使用 SAGE 注意力（最快）\n2. **flash_attn** → 如果已安装，则使用 Flash Attention 2\n3. **sdpa** → 始终可用（PyTorch 内置）\n4. **eager** → 始终可用（回退选项，最慢）\n\n所选机制会记录在控制台中，以确保透明性。\n\n### 优雅降级\n\n如果您选择的注意力机制不可用：\n- 系统会回退到 `sdpa`（如果可用）\n- 如果仍不可用，则回退到 `eager`（最后手段）\n- 并会记录降级决策及警告信息。\n\n### 模型缓存\n\n- 模型会按注意力机制特定的键进行缓存。\n- 更改注意力机制时，会自动清除缓存并重新加载模型。\n- 使用不同注意力机制的同一模型可在缓存中共存。\n\n## 内存管理\n\n### 生成后卸载模型\n\n所有节点均提供 `unload_model_after_generate` 切换开关：\n- **启用**：生成完成后清除模型缓存、GPU 内存并执行垃圾回收。\n- **禁用**：模型保留在缓存中，以便后续更快地生成（默认设置）。\n\n**适用场景**：\n- ✅ 如果显存有限（\u003C 8GB），建议启用。\n- ✅ 如果需要依次运行多个不同的模型，建议启用。\n- ✅ 如果已完成生成并希望释放内存，建议启用。\n- ❌ 如果使用同一模型生成多个片段，则建议禁用（速度更快）。\n\n**控制台输出**：\n```\n🗑️ [Qwen3-TTS] 正在卸载 1 个缓存模型...\n✅ [Qwen3-TTS] 模型缓存和 GPU 内存已清空\n```\n\n\n\n## 安装\n\n请确保已安装所需依赖项：\n\n```bash\npip install torch torchaudio transformers librosa accelerate\n```\n\n### 模型目录结构\n\nComfyUI-Qwen-TTS 会按照以下优先级自动搜索模型：\n\n```text\nComfyUI\u002F\n├── models\u002F\n│   └── qwen-tts\u002F\n│       ├── Qwen\u002FQwen3-TTS-12Hz-1.7B-Base\u002F\n│       ├── Qwen\u002FQwen3-TTS-12Hz-0.6B-Base\u002F\n│       ├── Qwen\u002FQwen3-TTS-12Hz-1.7B-VoiceDesign\u002F\n│       ├── Qwen\u002FQwen3-TTS-Tokenizer-12Hz\u002F\n│       └── voices\u002F（保存的预设 .wav\u002F.qvp 文件）\n``` \n\n**注意**：您也可以使用 `extra_model_paths.yaml` 来定义自定义模型路径：\n```yaml\nqwen-tts: D:\\MyModels\\Qwen\n```\n\n## 最佳实践提示\n\n### 音质\n- **克隆**：使用干净、无噪声的参考音频（5–15 秒）。\n- **参考文本**：提供参考音频中所说的文本可显著提升质量。\n- **语言**：选择正确的语言以获得最佳发音和韵律。\n\n### 性能与内存\n- **显存**：使用 `bf16` 精度可在几乎不损失质量的情况下大幅节省显存。\n- **注意力机制**：使用 `attention: \"auto\"` 可自动选择最快的可用机制。\n- **卸载模型**：如果显存有限（\u003C 8GB）或需要运行多个不同模型，建议启用 `unload_model_after_generate`。\n- **本地模型**：将权重预先下载到 `models\u002Fqwen-tts\u002F` 目录下，以优先从本地加载，避免 HuggingFace 超时。\n\n### 注意力机制\n- **最佳性能**：安装 `sage_attn` 或 `flash_attn` 可使速度比 `sdpa` 提升 2–3 倍。\n- **兼容性**：使用 `sdpa`（默认）可获得最大兼容性，且无需安装。\n- **低显存**：对于其他机制可能导致 OOM 错误的小模型（0.6B），可使用 `eager`。\n\n### 对话生成\n- **批量大小**：增加 `batch_size` 可加快生成速度（但会占用更多显存）。\n- **停顿**：调整 `pause_seconds` 可控制对话片段之间的时长。\n- **合并**：启用 `merge_outputs` 可生成连续对话；禁用则生成独立片段。\n\n## 致谢\n\n- [Qwen3-TTS](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-TTS)：阿里巴巴 Qwen 团队的官方开源仓库。\n\n## 许可证\n\n- 本项目采用 **Apache License 2.0** 许可证。\n- 模型权重受 [Qwen3-TTS 许可协议](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-TTS#License)约束。\n\n## 作者\n\n- **哔哩哔哩**：[空间](https:\u002F\u002Fspace.bilibili.com\u002F5594117?spm_id_from=333.1007.0.0)\n- **YouTube**：[频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCx5L-wKf93YNbcP_55vDCeg)","# ComfyUI-Qwen-TTS 快速上手指南\n\nComfyUI-Qwen-TTS 是基于阿里通义千问团队开源的 **Qwen3-TTS** 项目开发的自定义节点，支持高质量语音合成、零样本声音克隆及基于自然语言描述的音色设计。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Windows, Linux, macOS (支持 MPS)\n- **Python**: 建议 3.10+\n- **显存 (VRAM)**:\n  - 基础使用：≥ 6GB\n  - 推荐配置：≥ 8GB (若显存小于 8GB，建议在节点中开启 `unload_model_after_generate`)\n- **模型**: 需下载 Qwen3-TTS 系列模型权重。\n\n### 前置依赖\n确保已安装基础 PyTorch 环境。在 ComfyUI 的虚拟环境中执行以下命令安装核心依赖：\n\n```bash\npip install torch torchaudio transformers librosa accelerate\n```\n\n> **💡 国内加速建议**：\n> 如遇下载缓慢，推荐使用清华或阿里镜像源安装：\n> ```bash\n> pip install torch torchaudio transformers librosa accelerate -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 可选依赖（性能加速）\n为了获得更快的推理速度，建议安装以下注意力机制库（二选一即可，非必须）：\n- **SAGE Attention (最快)**: `pip install sage_attn`\n- **Flash Attention 2**: `pip install flash_attn`\n> 若未安装，系统将自动回退至 PyTorch 内置的 `sdpa` 模式，兼容性最好但速度稍慢。\n\n---\n\n## 2. 安装步骤\n\n### 步骤一：安装自定义节点\n在 ComfyUI 的 `custom_nodes` 目录下克隆本仓库：\n\n```bash\ncd ComfyUI\u002Fcustom_nodes\ngit clone https:\u002F\u002Fgithub.com\u002F你的仓库地址\u002FComfyUI-Qwen-TTS.git\n```\n*(注：请替换为实际的 GitHub 仓库地址，或通过 ComfyUI Manager 搜索 \"ComfyUI-Qwen-TTS\" 直接安装)*\n\n### 步骤二：部署模型权重\n节点会自动在以下目录查找模型，请确保结构一致：\n\n```text\nComfyUI\u002Fmodels\u002Fqwen-tts\u002F\n├── Qwen\u002FQwen3-TTS-12Hz-1.7B-Base\u002F       # 基础模型 (高质量)\n├── Qwen\u002FQwen3-TTS-12Hz-0.6B-Base\u002F       # 基础模型 (快速)\n├── Qwen\u002FQwen3-TTS-12Hz-1.7B-VoiceDesign\u002F# 音色设计专用模型\n└── Qwen\u002FQwen3-TTS-Tokenizer-12Hz\u002F       # 分词器\n```\n\n> **💡 模型下载提示**：\n> 模型文件较大，建议通过 HuggingFace 镜像站或国内模型社区（如 ModelScope\u002F魔搭）下载后放入上述目录，避免超时。\n> 也可在 `extra_model_paths.yaml` 中配置自定义路径：\n> ```yaml\n> qwen-tts: D:\\MyModels\\Qwen\n> ```\n\n### 步骤三：重启 ComfyUI\n安装完成后，重启 ComfyUI 以加载新节点。\n\n---\n\n## 3. 基本使用\n\n以下是最简单的**声音克隆**工作流示例，只需 5-15 秒参考音频即可复刻音色。\n\n### 工作流构建\n1. 添加节点：**`Qwen3-TTS Voice Clone`** (`VoiceCloneNode`)\n2. 连接输入：\n   - `ref_audio`: 上传一段清晰的参考人声录音（wav\u002Fmp3，5-15 秒）。\n   - `ref_text`: 输入参考音频中说的文字（强烈建议填写，可显著提升克隆质量）。\n   - `target_text`: 输入你想要生成的新文本内容。\n3. 参数设置：\n   - `model_choice`: 选择 `0.6B` (速度快) 或 `1.7B` (音质好)。\n   - `attention`: 保持 `auto` (自动选择最快可用方案)。\n   - `unload_model_after_generate`: 显存紧张时勾选此项。\n4. 连接输出：将节点的音频输出连接到 **`Save Audio`** 或直接预览。\n\n### 进阶功能速览\n- **音色设计**: 使用 `VoiceDesignNode`，输入描述（如“温柔的女声，音调较高”）即可创造虚拟角色声音。\n- **多角色对话**: 组合使用 `RoleBankNode` + `DialogueInferenceNode`，可一次性生成长篇多人对话广播剧。\n- **音色保存**: 使用 `SaveVoiceNode` 提取特征并保存，后续通过 `LoadSpeakerNode` 一键加载，无需重复处理参考音频。\n\n### 运行示例\n点击 \"Queue Prompt\" 开始生成。首次运行时会下载\u002F加载模型，后续生成将利用缓存大幅提速。","一位独立游戏开发者正在为一款多语言叙事冒险游戏制作角色配音，需要快速生成具有不同性格特征且支持中、英、日等多语种的角色台词。\n\n### 没有 ComfyUI-Qwen-TTS 时\n- **多角色配音成本高昂**：聘请多位配音演员录制不同语言和性格的台词预算超标，且修改台词需重新预约录音棚，周期长达数周。\n- **声音风格难以统一**：使用传统 TTS 工具生成的声音机械感强，缺乏情感起伏，难以匹配游戏中“温柔女法师”或“粗犷老兵”等特定人设。\n- **多语言工作流割裂**：针对不同语言需切换不同的合成引擎，导致音频格式、音量电平不一致，后期混音整理极其繁琐。\n- **显存管理困难**：在本地部署高质量模型时，常因显存不足导致生成中断，无法在同一会话中连续处理大量对话数据。\n\n### 使用 ComfyUI-Qwen-TTS 后\n- **零样本克隆降低门槛**：利用 `VoiceCloneNode`，仅需一段 5-15 秒的参考音频即可完美复刻角色音色，开发者可自己录制样音或通过 AI 生成基底，瞬间获得数百句高质量台词。\n- **自然语言定制人设**：通过 `VoiceDesignNode` 直接输入“带有沙哑质感的中年男性嗓音”等描述，即可生成符合剧情的独特声线，无需微调训练。\n- **原生多语言无缝切换**：依托 Qwen3-TTS 的原生能力，同一节点即可流畅输出中、英、日等 10 种语言，确保所有角色语音风格统一且情感自然。\n- **高效显存调度**：内置的自动模型卸载机制（`unload_model_after_generate`）让有限显存的显卡也能连续批量生成大量音频，无需手动干预内存清理。\n\nComfyUI-Qwen-TTS 将原本耗时数周、成本高昂的多角色多语言配音流程，转化为可在本地单机高效完成的自动化工作流，极大提升了独立游戏的音频制作效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fflybirdxx_ComfyUI-Qwen-TTS_4797d872.png","flybirdxx",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fflybirdxx_43a9650a.jpg","https:\u002F\u002Fgithub.com\u002Fflybirdxx",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1370,134,"2026-04-11T02:54:03","Linux, macOS, Windows","NVIDIA GPU 推荐（支持 CUDA），显存建议 8GB+（低于 8GB 需开启模型卸载功能）；macOS 支持 MPS (Metal Performance Shaders)。支持多种注意力机制加速（sage_attn, flash_attn），低显存用户可使用 eager 模式配合 0.6B 模型。","未说明",{"notes":91,"python":89,"dependencies":92},"1. 支持 Mac (MPS) 运行，但主要优化针对 NVIDIA GPU。2. 显存有限 (\u003C8GB) 时，务必在节点中启用 'unload_model_after_generate' 选项以释放内存。3. 需手动下载模型文件至 'ComfyUI\u002Fmodels\u002Fqwen-tts\u002F' 目录或通过 'extra_model_paths.yaml' 配置路径，避免运行时超时。4. 安装 'sage_attn' 或 'flash_attn' 可获得 2-3 倍推理速度提升，否则默认使用 PyTorch 内置的 'sdpa'。5. 语音克隆建议使用 5-15 秒的干净参考音频并提供对应文本以获得最佳效果。",[93,94,95,96,97,98,99],"torch","torchaudio","transformers","librosa","accelerate","sage_attn (可选)","flash_attn (可选)",[21],"2026-03-27T02:49:30.150509","2026-04-11T17:41:40.362221",[104,109,114,119,124,128],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},29739,"遇到 'qwen_tts' 包导入失败或模型类无法加载的错误怎么办？","这通常是因为依赖包版本不匹配或缺失。请尝试在 ComfyUI 的嵌入式 Python 环境中手动安装或更新以下依赖：\n1. 打开命令行，进入 ComfyUI portable 的 python_embeded 目录。\n2. 运行命令安装基础依赖：`python.exe -m pip install -U soundfile librosa sox onnxruntime`\n3. 强制安装特定版本的 transformers（根据报错提示，通常是 4.57.3）：`python.exe -m pip install -U transformers==4.57.3`\n4. 确保安装了 qwen-tts 包：`python.exe -m pip install qwen-tts`\n如果使用的是便携版，请务必使用 `python_embeded\\python.exe` 而不是系统默认的 python。","https:\u002F\u002Fgithub.com\u002Fflybirdxx\u002FComfyUI-Qwen-TTS\u002Fissues\u002F9",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},29740,"报错 'Qwen3TTSTalkerConfig' object has no attribute 'pad_token_id' 如何解决？","该错误通常由 `transformers` 库版本过高引起。解决方法是降级 `transformers` 并升级 `tokenizers`。\n请在命令行中执行以下命令（注意替换为你的实际 Python 路径）：\n`python.exe -m pip install --upgrade \"transformers==4.47.3\" \"tokenizers>0.20\" --no-cache-dir`\n如果 4.47.3 不行，也可以尝试社区验证过的 `4.57.3` 版本。","https:\u002F\u002Fgithub.com\u002Fflybirdxx\u002FComfyUI-Qwen-TTS\u002Fissues\u002F21",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},29741,"使用自定义声音、克隆或设计功能时报错 'unexpected keyword argument inputs_embeds' 怎么办？","这是一个已知插件代码问题，维护者已修复。原因是旧版本代码中包含了一个不再兼容的 `@check_model_inputs` 装饰器。\n解决方案：请将 ComfyUI-Qwen-TTS 插件更新到最新版本。更新后该装饰器已被移除，问题即可解决。","https:\u002F\u002Fgithub.com\u002Fflybirdxx\u002FComfyUI-Qwen-TTS\u002Fissues\u002F14",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},29742,"进行模型微调（Fine-Tuning）时提示 'Training dependencies missing' 即使已安装依赖怎么办？","即使手动安装了 torch、transformers 等包，仍可能因环境隔离或版本检测逻辑导致此错误。\n建议检查点：\n1. 确认是在 ComfyUI 使用的同一个 Python 环境中执行的安装命令（特别是便携版用户需使用 `python_embeded\\python.exe`）。\n2. 确保 `transformers` 版本严格符合要求（如 4.57.3），可通过 `print(transformers.__version__)` 验证。\n3. 尝试删除 `models\u002Fqwen-tts` 目录并重新触发下载，或直接拷贝模型文件到正确目录。\n4. 如果是从 Git 克隆的代码，确保执行了 `pip install -r requirements.txt` 且无报错。","https:\u002F\u002Fgithub.com\u002Fflybirdxx\u002FComfyUI-Qwen-TTS\u002Fissues\u002F66",{"id":125,"question_zh":126,"answer_zh":127,"source_url":108},29743,"Windows 便携版（Portable）用户如何正确安装和修复依赖问题？","Windows 便携版用户不能使用系统自带的 pip，必须指向嵌入式的 Python 解释器。\n通用修复步骤如下：\n1. 打开 cmd，进入 ComfyUI 安装目录下的 `python_embeded` 文件夹。\n2. 使用相对路径执行安装命令，例如：`.\\python_embeded\\python.exe -m pip install -r ..\u002Fcustom_nodes\u002FComfyUI-Qwen-TTS\u002Frequirements.txt`\n3. 如果遇到特定包错误，单独安装：`.\\python_embeded\\python.exe -m pip install qwen-tts transformers==4.57.3`\n4. 安装完成后重启 ComfyUI。",{"id":129,"question_zh":130,"answer_zh":131,"source_url":113},29744,"安装后仍然报错，是否有关于 transformers 版本的具体要求？","是的，版本冲突是主要问题来源。根据多个用户的反馈和测试：\n- 推荐将 `transformers` 锁定在 `4.57.3` 版本，因为 `qwen-tts 0.1.1` 明确依赖此版本。\n- 部分用户反馈 `4.47.3` 也能解决 `pad_token_id` 缺失的问题。\n- 避免使用过新（如 4.58+）或过旧的版本。\n执行命令：`pip install transformers==4.57.3` 并确保重启生效。",[]]