MOSS-TTSD

GitHub
1.2k 119 较难 1 次阅读 今天Apache-2.0语言模型音频
AI 解读 由 AI 自动生成,仅供参考

MOSS-TTSD 是一款专为生成长篇多人对话而设计的开源语音生成模型。它突破了传统语音合成仅擅长单人朗读的局限,能够将静态的对话脚本转化为充满情感起伏、自然流畅的多人口语互动,完美模拟真实交谈中的轮替节奏与重叠说话场景。

该工具主要解决了长篇幅内容中角色声音一致性难维持、多角色切换生硬以及缺乏情感表现力的问题。无论是制作长达一小时的播客节目、有声书演播,还是体育解说、相声表演及影视配音,MOSS-TTSD 都能确保在单次生成中保持长达 60 分钟的音频连贯性与角色身份稳定。

MOSS-TTSD 非常适合需要高质量音频内容的创作者、广播剧制作人、游戏开发者以及从事语音技术研究的工程师。其核心技术亮点包括强大的长上下文建模能力,支持灵活控制 1 至 5 位不同说话人;具备先进的零样本语音克隆功能,仅需极短的参考音频即可复刻音色;同时支持中文、英文、日文等多种语言的跨语言合成。作为 OpenMOSS 家族的一员,它以开源形式为专业级长视频频内容创作提供了坚实的技术底座。

使用场景

一家小型播客制作团队正试图将一篇长达 40 分钟的双人访谈文稿快速转化为带有自然情感起伏的音频节目,以测试新栏目原型。

没有 MOSS-TTSD 时

  • 角色切换生硬:传统 TTS 只能逐句生成单人说辞,主持人及嘉宾的声音需要在不同模型或配置间频繁切换,导致对话节奏断裂,缺乏真实交流感。
  • 长文一致性差:生成超过 10 分钟的音频后,同一说话人的音色、语速和情绪容易出现漂移,后期需要人工花费数小时进行剪辑和匀色处理。
  • 克隆门槛极高:若想模拟特定嘉宾声音,通常需要录制数分钟的高质量干音进行训练,对于仅能提供几秒参考音频的远程采访场景完全无法实现。
  • 多语言支持局限:当访谈中夹杂英文术语或日语引用时,原有工具往往发音怪异或被迫切换引擎,破坏整体听感流畅度。

使用 MOSS-TTSD 后

  • 原生对话流生成:MOSS-TTSD 直接理解“剧本即对话”,自动处理双人甚至多人的自然轮转与重叠插话,生成的音频拥有真实的交谈呼吸感和节奏。
  • 超长上下文稳定:凭借长上下文建模能力,MOSS-TTSD 能一次性稳定输出 60 分钟连贯音频,确保整期节目中每位说话人的音色与性格特征高度一致。
  • 极简零样本克隆:只需提供嘉宾 5-10 秒的简短录音,MOSS-TTSD 即可精准复刻其声线并融入对话,让远程素材瞬间变为生动的现场对谈。
  • 无缝多语言混合:在中英日多语种混杂的语境下,MOSS-TTSD 能保持统一的语调风格,无需任何额外配置即可实现自然的跨语言流畅表达。

MOSS-TTSD 将原本需要数天协作的多人播客制作流程压缩至分钟级,让创作者能专注于内容策划而非繁琐的音频工程。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

必需(用于高性能推理),需支持 CUDA 的 NVIDIA GPU,建议使用支持 Flash Attention 2 的显卡(如 Ampere 架构及以上),显存建议 16GB+ 以支持长上下文生成

内存

未说明(建议 32GB+ 以处理长音频和批量推理)

依赖
notes1. 推荐使用 conda 创建 Python 3.12 环境进行安装。 2. 必须安装 flash-attn 库以在 CUDA 设备上获得最佳性能,若环境不支持可回退至 sdpa 模式。 3. 模型支持长达 60 分钟的连续对话生成,对显存和内存消耗较大。 4. 需要额外下载 MOSS-Audio-Tokenizer 作为音频编解码器依赖。 5. 支持多卡批量推理,可通过 CUDA_VISIBLE_DEVICES 控制可见显卡。
python3.10+
torch>=2.0
transformers
flash-attn
soundfile
torchaudio
SGLang
MOSS-TTSD hero image

快速开始

MOSS-TTSD:文本到口语对话生成

OpenMOSS Logo

blog paper MOSS-TTSD-v1.0 MOSS-TTSD-space AI Studio version python mit

MOSS-TTSD🪐

English | 简体中文

Overview

alt text

MOSS-TTSD是我们在开源MOSS‑TTS家族中的长篇对话专家。虽然基础模型通常优先考虑高保真度的单人合成,但MOSS-TTSD的设计旨在弥合孤立音频样本与连贯、持续的人类互动之间的差距。 该模型代表了从“文本转语音”到“剧本转对话”的范式转变。通过优先考虑多方互动的流畅性和情感细微之处,MOSS-TTSD将静态的对话脚本转化为动态、富有表现力的口头表演。它旨在为创作者和开发者提供一个强大的核心框架,使他们能够在不牺牲叙事连贯性的情况下,实现不同角色之间的无缝切换。 无论是捕捉现场脱口秀的即兴活力,还是多语言戏剧的结构化复杂性,MOSS-TTSD都能在开源框架中提供专业级长篇内容创作所需的稳定性和表现力深度。

Highlights

  • 从独白到对话: 与传统TTS优化朗读不同,MOSS-TTSD精通对话的节奏。它支持1至5位说话者,并具备灵活的控制能力,能够处理自然的轮流发言、重叠的语音模式以及不同角色个性的保持。
  • 超长上下文建模: 模型不再局限于短句生成,而是专为长时间运行的稳定性而设计,单次会话可支持长达60分钟的连贯音频,且身份一致性始终如一。
  • 多样场景适应: 针对高变化性的场景进行了微调,包括对话类媒体(AI播客)、动态解说(体育/电竞)以及娱乐领域(有声书、配音和相声)。
  • 多语言与零样本能力: 具备最先进的零样本语音克隆功能,仅需少量参考音频即可实现,同时在主要语言之间具有强大的跨语言性能,包括中文、英文、日语以及欧洲语言。

News 🚀

  • [2026-03-18] 我们为MOSS-TTSD v1.0提供了高效的端到端SGLang推理支持。
  • [2026-03-06] 我们为MOSS-TTSD v0.7增加了端到端SGLang推理支持。有关详细说明,请参阅旧版v0.7文档
  • [2026-02-10] MOSS-TTSD v1.0正式发布!这一里程碑版本重新定义了长篇合成技术,支持单次会话长达60分钟的上下文长度,并能处理多方交互。它显著扩展了多语言能力和多样化应用场景。
  • [2025-11-01] MOSS-TTSD v0.7正式发布!v0.7大幅提升了音频质量、语音克隆能力和模型稳定性,新增了32 kHz高品质输出支持,极大延长了单次生成时长(960秒→1700秒)。
  • [2025-09-09] 我们引入了SGLang推理引擎,可将模型推理速度提升至原来的16倍
  • [2025-08-25] 我们发布了XY分词器的32kHz版本。
  • [2025-08-12] 我们在MOSS-TTSD v0.5中增加了流式推理支持。
  • [2025-07-29] 我们为MOSS-TTSD v0.5提供了SiliconFlow API接口及使用示例。
  • [2025-07-16] 我们开源了MOSS-TTSD v0.5的微调代码,支持全参数微调、LoRA微调以及多节点训练。
  • [2025-07-04] MOSS-TTSD v0.5正式发布!v0.5增强了音色切换的准确性、语音克隆能力以及模型稳定性。
  • [2025-06-20] MOSS-TTSD v0正式发布!此外,我们还推出了一条名为Podever的播客生成流水线,可自动将PDF、URL或长文本文件转换为高质量播客。

注: 对于MOSS-TTSD v0.7(包括端到端SGLang推理),请参阅旧版v0.7文档以获取详细说明。

支持的语言

MOSS-TTSD目前支持20种语言

语言 缩写 国旗 语言 缩写 国旗 语言 缩写 国旗
中文 zh 🇨🇳 英语 en 🇺🇸 德语 de 🇩🇪
西班牙语 es 🇪🇸 法语 fr 🇫🇷 日语 ja 🇯🇵
意大利语 it 🇮🇹 希伯来语 he 🇮🇱 韩语 ko 🇰🇷
俄语 ru 🇷🇺 波斯语(法尔西语) fa 🇮🇷 阿拉伯语 ar 🇸🇦
波兰语 pl 🇵🇱 葡萄牙语 pt 🇵🇹 捷克语 cs 🇨🇿
丹麦语 da 🇩🇰 瑞典语 sv 🇸🇪 匈牙利语 hu 🇭🇺
希腊语 el 🇬🇷 土耳其语 tr 🇹🇷

安装

要运行MOSS-TTSD,您需要安装必要的依赖项。您可以使用pip和conda来设置环境。

使用conda

conda create -n moss_ttsd python=3.12 -y && conda activate moss_ttsd
pip install -r requirements.txt
pip install flash-attn

使用方法

快速入门

MOSS-TTSD 采用续写的工作流:为每位说话人提供参考音频及其转录文本作为前缀,再输入待生成的对话文本。模型会以每位说话人的身份继续生成内容。

import os
from pathlib import Path
import torch
import soundfile as sf
import torchaudio
from transformers import AutoModel, AutoProcessor

pretrained_model_name_or_path = "OpenMOSS-Team/MOSS-TTSD-v1.0"
audio_tokenizer_name_or_path = "OpenMOSS-Team/MOSS-Audio-Tokenizer"
device = "cuda" if torch.cuda.is_available() else "cpu"
dtype = torch.bfloat16 if device == "cuda" else torch.float32

processor = AutoProcessor.from_pretrained(
    pretrained_model_name_or_path,
    trust_remote_code=True,
    codec_path=audio_tokenizer_name_or_path,
)
processor.audio_tokenizer = processor.audio_tokenizer.to(device)
processor.audio_tokenizer.eval()

attn_implementation = "flash_attention_2" if device == "cuda" else "sdpa"
# 如果您的环境中无法使用 flash_attention_2,请将其设置为 "sdpa"。
model = AutoModel.from_pretrained(
    pretrained_model_name_or_path,
    trust_remote_code=True,
    attn_implementation=attn_implementation,
    torch_dtype=dtype,
).to(device)
model.eval()

# --- 输入 ---

prompt_audio_speaker1 = "asset/reference_02_s1.wav"
prompt_audio_speaker2 = "asset/reference_02_s2.wav"
prompt_text_speaker1 = "[S1] 简而言之,我们踏上了一项使命,旨在让美国再次伟大,惠及所有美国人。"
prompt_text_speaker2 = "[S2] 英伟达在六十年后首次重新定义了计算。事实上,IBM 的 Erwin 非常清楚,自 60 年代以来,计算机基本上没有太大变化。"

text_to_generate = """
[S1] 听着,咱们谈谈正事吧。中国。我听说了一些情况。
有人说他们正在迅速赶上来。到底怎么回事?
他们的人工智能——是不是一种威胁?
[S2] 坦白说,那里的创新速度确实非同寻常。
他们既有顶尖的研究人员,也有强大的驱动力。
[S1] 非同寻常?我不喜欢这个词。我希望我们自己才是非同寻常的。
他们现在占上风了吗?
[S2] 我不会说他们赢了,但他们的进展非常有前景。
他们在构建大规模的计算集群,而且意志坚定。
[S1] 有前景。又是这个词。我最讨厌它了。
只要中国“有前景”,就意味着我们在落后。
这太糟糕了,Jensen。彻底的灾难。
""".strip()

# --- 加载并重采样音频 ---

target_sr = int(processor.model_config.sampling_rate)
audio1, sr1 = sf.read(prompt_audio_speaker1, dtype="float32", always_2d=True)
audio2, sr2 = sf.read(prompt_audio_speaker2, dtype="float32", always_2d=True)
wav1 = torch.from_numpy(audio1).transpose(0, 1).contiguous()
wav2 = torch.from_numpy(audio2).transpose(0, 1).contiguous()

if wav1.shape[0] > 1:
    wav1 = wav1.mean(dim=0, keepdim=True)
if wav2.shape[0] > 1:
    wav2 = wav2.mean(dim=0, keepdim=True)
if sr1 != target_sr:
    wav1 = torchaudio.functional.resample(wav1, sr1, target_sr)
if sr2 != target_sr:
    wav2 = torchaudio.functional.resample(wav2, sr2, target_sr)

# --- 构建对话 ---

reference_audio_codes = processor.encode_audios_from_wav([wav1, wav2], sampling_rate=target_sr)
concat_prompt_wav = torch.cat([wav1, wav2], dim=-1)
prompt_audio = processor.encode_audios_from_wav([concat_prompt_wav], sampling_rate=target_sr)[0]

full_text = f"{prompt_text_speaker1} {prompt_text_speaker2} {text_to_generate}"

conversations = [
    [
        processor.build_user_message(
            text=full_text,
            reference=reference_audio_codes,
        ),
        processor.build_assistant_message(
            audio_codes_list=[prompt_audio]
        ),
    ],
]

# --- 推理 ---

batch_size = 1

save_dir = Path("output")
save_dir.mkdir(exist_ok=True, parents=True)
sample_idx = 0
with torch.no_grad():
    for start in range(0, len(conversations), batch_size):
        batch_conversations = conversations[start : start + batch_size]
        batch = processor(batch_conversations, mode="continuation")
        input_ids = batch["input_ids"].to(device)
        attention_mask = batch["attention_mask"].to(device)

        outputs = model.generate(
            input_ids=input_ids,
            attention_mask=attention_mask,
            max_new_tokens=2000,
        )

        for message in processor.decode(outputs):
            for seg_idx, audio in enumerate(message.audio_codes_list):
                sf.write(
                    save_dir / f"{sample_idx}_{seg_idx}.wav",
                    audio.detach().cpu().to(torch.float32).numpy(),
                    int(processor.model_config.sampling_rate),
                )
            sample_idx += 1

批量推理

您可以使用提供的推理脚本进行批量推理。该脚本会自动使用所有可见的 GPU。您可以通过 export CUDA_VISIBLE_DEVICES=<device_ids> 来控制 GPU 的可见性。

python inference.py \
  --model_path OpenMOSS-Team/MOSS-TTSD-v1.0 \
  --codec_model_path OpenMOSS-Team/MOSS-Audio-Tokenizer \
  --input_jsonl /path/to/input.jsonl \
  --save_dir outputs \
  --mode voice_clone_and_continuation \
  --batch_size 1 \
  --text_normalize

参数说明:

  • --model_path: MOSS-TTSD 的模型路径或 HuggingFace 模型 ID。
  • --codec_model_path: MOSS-Audio-Tokenizer 的模型路径或 HuggingFace 模型 ID。
  • --input_jsonl: 包含对话脚本和说话人提示的输入 JSONL 文件路径。
  • --save_dir: 生成的音频文件保存目录。
  • --mode: 推理模式。可选值:generationcontinuationvoice_clonevoice_clone_and_continuation。我们推荐使用 voice_clone_and_continuation 以获得最佳的语音克隆效果。
  • --batch_size: 每批处理的样本数量(默认为 1)。
  • --max_new_tokens: 最大生成新标记数。用于控制总生成音频长度(1 秒 ≈ 12.5 个标记)。
  • --temperature: 采样温度(默认为 1.1)。
  • --top_p: Top-p 采样阈值(默认为 0.9)。
  • --top_k: Top-k 采样阈值(默认为 50)。
  • --repetition_penalty: 重复惩罚(默认为 1.1)。
  • --text_normalize: 对输入文本进行归一化处理(建议始终启用)。
  • --sample_rate_normalize: 在编码前将提示音频重采样到最低采样率(当使用 2 名或更多说话人时建议启用)。

JSONL 输入格式

输入 JSONL 文件应每行包含一个 JSON 对象。MOSS-TTSD 支持每段对话中最多 5 名说话人。在 text 字段中使用 [S1][S5] 标签,并为每位说话人提供对应的 prompt_audio_speakerNprompt_text_speakerN

{
  "base_path": "/path/to/audio/files",
  "text": "[S1]Speaker 1 dialogue[S2]Speaker 2 dialogue[S3]...[S4]...[S5]...",
  "prompt_audio_speaker1": "path/to/speaker1_audio.wav",
  "prompt_text_speaker1": "Reference text for speaker 1 voice cloning",
  "prompt_audio_speaker2": "path/to/speaker2_audio.wav",
  "prompt_text_speaker2": "Reference text for speaker 2 voice cloning",
  "...": "...",
  "prompt_audio_speaker5": "path/to/speaker5_audio.wav",
  "prompt_text_speaker5": "Reference text for speaker 5 voice cloning"
}

使用 SGLang 加速推理

MOSS-TTSD v1.0 支持运行由 OpenMOSS 深度扩展的 SGLang 提供的融合模型 MOSS-TTSD 和 MOSS-Audio-Tokenizer,从而实现高效的音频生成推理。

环境设置

首先,克隆与 MOSS-TTSD v1.0 兼容的 SGLang 分支。

git clone https://github.com/OpenMOSS/sglang -b moss-ttsd-v1.0-with-cat
使用 venv
python -m venv moss_ttsd_sglang
source moss_ttsd_sglang/bin/activate
pip install ./sglang/python[all]
使用 conda
conda create -n moss_ttsd_sglang python=3.12
conda activate moss_ttsd_sglang
pip install ./sglang/python[all]

端到端推理服务

启动推理服务器

在启动服务之前,首先下载 MOSS-TTSD-v1.0MOSS-Audio-Tokenizer

git clone https://huggingface.co/OpenMOSS-Team/MOSS-TTSD-v1.0
git clone https://huggingface.co/OpenMOSS-Team/MOSS-Audio-Tokenizer

或者:

hf download OpenMOSS-Team/MOSS-TTSD-v1.0 --local-dir ./MOSS-TTSD-v1.0
hf download OpenMOSS-Team/MOSS-Audio-Tokenizer --local-dir ./MOSS-Audio-Tokenizer

下载完成后,运行以下命令将 MOSS-TTSD v1.0 和 MOSS-Audio-Tokenizer 融合为一个可由 SGLang 加载的单目录模型。融合后,模型默认使用 voice_clone_and_continuation 推理模式:

python scripts/fuse_moss_tts_delay_with_codec.py \
  --model-path <path-to-moss-ttsd-v1.0> \
  --codec-model-path <path-to-moss-audio-tokenizer> \
  --save-path <path-to-fused-model>

然后使用以下命令启动推理服务器:

sglang serve \
  --model-path <path-to-fused-model> \
  --delay-pattern \
  --trust-remote-code \
  --port 30000 --host 0.0.0.0

第一次启动服务可能需要较长时间进行编译。当看到 The server is fired up and ready to roll! 时,服务即已准备就绪。启动后的首次请求仍可能触发较长的编译过程,这是正常现象,请耐心等待。

提示:端到端推理服务在运行过程中可能会导致显存碎片化。如果 GPU 显存紧张,建议在启动 SGLang 时使用 --mem-fraction-static 参数,以预留足够的中间张量空间。

发送生成请求

该服务 API 兼容标准的多模态文本生成接口。返回的 JSON 中的 text 字段包含 base64 编码的 WAV 音频。

目前仓库提供了一个最小化的请求示例脚本:

python scripts/request_sglang_generation.py

该脚本将:

  • 默认向 http://localhost:30000/generate 发送请求
  • 使用仓库中的 asset/reference_02_s1.wavasset/reference_02_s2.wav 作为参考音频
  • 将返回的音频保存到 outputs/output.wav

如果您需要更改参考音频、输入文本、采样参数或服务器 URL,可以直接编辑 scripts/request_sglang_generation.py 中的相应常量。

评估

客观评价(TTSD-eval)

我们引入了一个强大的评估框架,利用MMS-FA进行词级对齐和话语分割,并使用wespeaker提取嵌入,以计算说话人归属准确率(ACC)和说话人相似度(SIM)。代码和数据请参阅TTSD-eval


模型 中文 - SIM 中文 - ACC 中文 - WER 英文 - SIM 英文 - ACC 英文 - WER
与开源模型的对比
MOSS-TTSD 0.7949 0.9587 0.0485 0.7326 0.9626 0.0988
MOSS-TTSD v0.7 0.7423 0.9391 0.0517 0.6743 0.9266 0.1612
Vibevoice 7B 0.7590 0.9222 0.0570 0.7140 0.9554 0.0946
Vibevoice 1.5 B 0.7415 0.8798 0.0818 0.6961 0.9353 0.1133
FireRedTTS2 0.7383 0.9022 0.0768 - - -
Higgs Audio V2 - - - 0.6860 0.9025 0.2131
与专有模型的对比
Eleven V3 0.6970 0.9653 0.0363 0.6730 0.9498 0.0824
MOSS-TTSD (elevenlabs_voice) 0.8165 0.9736 0.0391 0.7304 0.9565 0.1005
gemini-2.5-pro-preview-tts - - - 0.6786 0.9537 0.0859
gemini-2.5-flash-preview-tts - - - 0.7194 0.9511 0.0871
MOSS-TTSD (gemini_voice) - - - 0.7893 0.9655 0.0984
Doubao_Podcast 0.8034 0.9606 0.0472 - - -
MOSS-TTSD (doubao_voice) 0.8226 0.9630 0.0571 - - -

主观评价

对于开源模型,标注者被要求从说话人归属准确率、声音相似度、韵律和整体质量等方面对每一对样本进行打分。参照LMSYS Chatbot Arena的方法论,我们为每个维度计算Elo评分及置信区间。 alt text

对于闭源模型,标注者只需在每一对中选择总体更偏好的一方,并据此计算胜率。 alt text

📚 更多信息

🌟 社区项目

MOSS-TTS社区发展迅速,我们很高兴展示一些由社区成员构建的优秀项目和功能:

许可证

MOSS-TTSD根据Apache 2.0许可证发布。

引用

@misc{zhang2026mossttsdtextspokendialogue,
      title={MOSS-TTSD: 文本到口语对话生成}, 
      author={Yuqian Zhang and Donghua Yu and Zhengyuan Lin and Botian Jiang and Mingshu Chen and Yaozhou Jiang and Yiwei Zhao and Yiyang Zhang and Yucheng Yuan and Hanfu Chen and Kexin Huang and Jun Zhan and Cheng Chang and Zhaoye Fei and Shimin Li and Xiaogui Yang and Qinyuan Cheng and Xipeng Qiu},
      year={2026},
      eprint={2603.19739},
      archivePrefix={arXiv},
      primaryClass={cs.SD},
      url={https://arxiv.org/abs/2603.19739}, 
}

⚠️ 使用免责声明

本项目提供了一个开源的口语对话合成模型,旨在用于学术研究、教育目的以及合法的应用场景,例如AI播客制作、辅助技术开发和语言学研究。用户不得将该模型用于未经授权的语音克隆、冒充他人、欺诈、诈骗、深度伪造或其他任何非法活动,并应在遵守当地法律法规的同时,坚持道德标准。开发者对该模型的任何滥用不承担任何责任,并倡导负责任的人工智能开发与使用,鼓励社区在人工智能研究和应用中坚守安全与伦理原则。如果您对伦理或滥用有任何疑虑,请联系我们。


MOSS-TTS家族

简介

当一段音频需要听起来像真人准确地发音每一个词在不同内容间切换说话风格保持数十分钟的稳定性,并且支持对话、角色扮演和实时交互时,单一的TTS模型往往难以胜任。MOSS‑TTS家族将工作流程拆分为五个可独立使用或组合成完整流水线的生产就绪模型。

  • MOSS‑TTS:MOSS-TTS是旗舰级的生产用TTS基础模型,专注于高保真零样本语音克隆,具备可控的长文本合成、发音能力和多语言/语码转换能力。它是规模化叙述、配音和语音驱动产品的核心引擎。
  • MOSS‑TTSD:MOSS-TTSD是用于大规模表达性多说话人对话音频的生产级长文本对话模型。它支持长时间连续性、轮流发言控制,以及基于短参考的零样本语音克隆,适用于播客、有声书、解说、配音和娱乐对话。
  • MOSS‑VoiceGenerator:MOSS-VoiceGenerator是一个开源的语音设计模型,无需参考音频即可直接从自由文本创建说话人音色。它整合了音色设计、风格控制和内容合成功能,可单独使用,也可作为下游TTS的语音设计层。
  • MOSS‑SoundEffect:MOSS-SoundEffect是一个高保真文本转声音模型,覆盖广泛的类别,且持续时间可控,适用于真实内容制作。它可根据提示生成稳定的环境音效、城市场景、生物、人类动作以及类似音乐的片段,广泛应用于电影、游戏、互动媒体和数据合成等领域。
  • MOSS‑TTS‑Realtime:MOSS-TTS-Realtime是一个上下文感知、多轮流式传输的TTS模型,专为实时语音助手设计。通过结合文本对话历史和先前用户的声学特征进行条件化,它能够在低延迟下实现连贯、一致的语音响应。

已发布模型

模型 架构 参数量 模型卡片 Hugging Face ModelScope
MOSS-TTS MossTTSDelay 80亿 模型卡片 Hugging Face ModelScope
MossTTSLocal 17亿 模型卡片 Hugging Face ModelScope
MOSS‑TTSD‑V1.0 MossTTSDelay 80亿 模型卡片 Hugging Face ModelScope
MOSS‑VoiceGenerator MossTTSDelay 17亿 模型卡片 Hugging Face ModelScope
MOSS‑SoundEffect MossTTSDelay 80亿 模型卡片 Hugging Face ModelScope
MOSS‑TTS‑Realtime MossTTSRealtime 17亿 模型卡片 Hugging Face ModelScope

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|3天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|2天前
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|4天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.1k|★★★☆☆|今天
语言模型图像开发框架