personaplex

GitHub
6k 921 中等 6 次阅读 3天前MIT语言模型音频
AI 解读 由 AI 自动生成,仅供参考

PersonaPlex 是一款由英伟达推出的实时全双工语音对话模型,旨在让 AI 不仅能听懂你说话,还能在你说的同时即时回应,实现如真人般自然流畅的交谈体验。它解决了传统语音助手必须“说完再等回复”的延迟痛点,支持通过文本指令设定角色性格,并利用音频提示精准控制说话人的音色与情感,从而保持长期对话中人格与声音的高度一致性。

这款工具特别适合开发者、研究人员以及希望构建沉浸式语音交互应用的企业团队使用。无论是打造智能客服、虚拟伴侣,还是进行多角色语音合成研究,PersonaPlex 都能提供强大的底层支持。其核心技术基于先进的 Moshi 架构,采用混合了合成数据与真实对话的训练策略,显著降低了响应延迟。此外,它还预置了多种自然度极高的男女声线(如 NAT 系列)和风格多样的变体声线(如 VAR 系列),用户可灵活调用。项目开源了代码与模型权重,并提供了详细的部署指南,支持从本地服务器搭建到离线评估等多种使用场景,甚至允许在显存不足时通过 CPU 卸载技术运行,极大地降低了使用门槛。

使用场景

某电商公司正在开发一款能实时处理客户投诉的智能语音客服系统,要求客服既能快速响应,又能保持统一、温和的品牌形象。

没有 personaplex 时

  • 人设割裂:文本回复由大模型生成,语音由独立 TTS 合成,导致语气情感与文字内容不匹配,听起来像“读稿机器”。
  • 延迟过高:传统流程需等待用户说完、转写文本、生成回复再合成语音,全双工中断造成对话停顿明显,用户体验流畅度差。
  • 声音单一:难以动态切换或固定特定的音色(如“温和女性”或“专业男性”),无法针对不同业务线定制专属声音标识。
  • 开发复杂:需要串联 ASR、LLM、TTS 三个独立模块并自行优化延迟,工程维护成本极高。

使用 personaplex 后

  • 声情合一:通过 text-prompt 定义“安抚型客服”角色,配合 voice-prompt(如 NATF2)锁定音色,生成的语音自然带有同理心,人设高度一致。
  • 实时全双工:基于 Moshi 架构实现低延迟语音对语音交互,支持用户随时打断,对话节奏如同真人交流般流畅自然。
  • 灵活控声:可直接调用预置的 NAT(自然)或 VAR(多样)系列音色嵌入,轻松为 VIP 专线或普通咨询切换不同风格的客服声音。
  • 端到端简化:只需部署一个模型即可同时完成听、理解、说,无需拼接多个组件,大幅降低了系统延迟和运维难度。

personaplex 将原本割裂的语音对话流程整合为统一的端到端体验,让 AI 客服真正拥有了“有温度的声音”和“即时的反应”。

运行环境要求

操作系统
  • Linux
GPU
  • 需要 NVIDIA GPU
  • 对于 Blackwell 架构显卡,需安装 CUDA 13.0 (cu130) 版本的 PyTorch
  • 若显存不足,支持使用 --cpu-offload 标志将模型层卸载到 CPU(需安装 accelerate 库),或纯 CPU 运行离线评估
  • 具体显存大小未说明,但提供显存卸载方案暗示大模型对显存有较高需求
内存

未说明

依赖
notes1. 必须安装系统级音频编解码库 Opus (Ubuntu/Debian: libopus-dev, Fedora/RHEL: opus-devel)。2. 使用前需在 Hugging Face 接受模型许可并设置 HF_TOKEN 环境变量。3. 启动服务器时会自动生成临时 SSL 证书以支持 HTTPS。4. 模型权重基于 NVIDIA Open Model 许可,代码基于 MIT 许可。5. 离线评估可安装仅 CPU 版本的 PyTorch 运行。
python未说明
torch
torchvision
torchaudio
accelerate
libopus-dev (系统级依赖)
personaplex hero image

快速开始

PersonaPlex:用于全双工对话式语音模型的角色与声音控制

权重 论文 演示 Discord

PersonaPlex 是一款实时、全双工的语音到语音对话模型,可通过基于文本的角色提示和基于音频的语音调节来实现角色控制。该模型基于合成数据和真实对话的混合数据进行训练,能够生成自然、低延迟且具有一致角色特征的口语交互。PersonaPlex 基于 Moshi 架构及其权重。

PersonaPlex 模型架构
PersonaPlex 架构

使用方法

先决条件

安装 Opus 音频编解码器 开发库:

# Ubuntu/Debian
sudo apt install libopus-dev

# Fedora/RHEL
sudo dnf install opus-devel

安装

下载此仓库并使用以下命令安装:

pip install moshi/.

对于基于 Blackwell 架构的 GPU,建议执行额外步骤(参见 https://github.com/NVIDIA/personaplex/issues/2):

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130

接受模型许可协议

登录您的 Huggingface 账户,并在此处接受 PersonaPlex 模型的许可协议 here
然后设置您的 Huggingface 认证:

export HF_TOKEN=<YOUR_HUGGINGFACE_TOKEN>

启动服务器

启动服务器以进行实时交互(临时 SSL 证书用于 HTTPS):

SSL_DIR=$(mktemp -d); python -m moshi.server --ssl "$SSL_DIR"

CPU 卸载: 如果您的 GPU 内存不足,请使用 --cpu-offload 标志将模型层卸载到 CPU 上。这需要安装 accelerate 包(pip install accelerate):

SSL_DIR=$(mktemp -d); python -m moshi.server --ssl "$SSL_DIR" --cpu-offload

在本地运行时,您可以通过浏览器访问 Web UI:localhost:8998;否则,请查看脚本打印出的访问链接:

直接通过 https://11.54.401.33:8998 访问 Web UI

离线评估

进行离线评估时,可以使用离线脚本,该脚本会流式输入一个 WAV 文件,并从捕获的输出流中生成一个输出 WAV 文件。输出文件的时长将与输入文件相同。

如果您的 GPU 内存不足,可在以下任何命令中添加 --cpu-offload 标志(需安装 accelerate 包)。或者,您可以安装仅支持 CPU 的 PyTorch,在纯 CPU 上进行离线评估。

助理示例:

HF_TOKEN=<TOKEN> \
python -m moshi.offline \
  --voice-prompt "NATF2.pt" \
  --input-wav "assets/test/input_assistant.wav" \
  --seed 42424242 \
  --output-wav "output.wav" \
  --output-text "output.json"

服务示例:

HF_TOKEN=<TOKEN> \
python -m moshi.offline \
  --voice-prompt "NATM1.pt" \
  --text-prompt "$(cat assets/test/prompt_service.txt)" \
  --input-wav "assets/test/input_service.wav" \
  --seed 42424242 \
  --output-wav "output.wav" \
  --output-text "output.json"

声音选项

PersonaPlex 支持多种声音;我们预先封装了听起来更自然、更具对话感的声音嵌入(NAT),以及更多样化的声音嵌入(VAR)。固定的声音集合如下所示:

自然女声:NATF0、NATF1、NATF2、NATF3
自然男声:NATM0、NATM1、NATM2、NATM3
多样女声:VARF0、VARF1、VARF2、VARF3、VARF4
多样男声:VARM0、VARM1、VARM2、VARM3、VARM4

提示指南

该模型基于合成对话进行训练,其中助理角色固定,而客户服务角色则有所不同。

助理角色

助理角色的提示为:

你是一位睿智友善的老师。请以清晰、生动的方式回答问题或提供建议。

请将此提示用于 FullDuplexBench 中专注于“用户打断”的 QA 助理评估类别。

客户服务角色

客户服务角色支持多种提示。以下是一些提示风格参考:

你在 CitySan Services 工作,这是一家废物管理公司,你的名字是 Ayelen Lucero。信息:请核实客户姓名 Omar Torres。当前服务周期:每隔一周一次。下次收集日期:4月12日。可选配堆肥箱服务,每月收费8美元。
你在 Jerusalem Shakshuka 餐厅工作,你的名字是 Owen Foster。信息:沙克舒卡有两种选择:经典款(水波蛋,9.50美元)和辣味款(炒鸡蛋配墨西哥辣椒,10.25美元)。配菜包括热皮塔饼(2.50美元)和以色列沙拉(3美元)。不提供套餐优惠。仅支持驾车取餐,营业至晚上9点。
你在 AeroRentals Pro 无人机租赁公司工作,你的名字是 Tomaz Novak。信息:AeroRentals Pro 提供以下服务:PhoenixDrone X(4小时65美元,8小时110美元),以及高端 SpectraDrone 9(4小时95美元,8小时160美元)。押金要求:普通机型150美元,高端机型300美元。

日常对话

该模型还基于来自 Fisher 英语语料库 的真实对话进行训练,并由 LLM 标注了开放式对话的提示。以下是一些日常对话的示例提示:

你喜欢进行愉快的交谈。
你喜欢进行愉快的交谈。就居家用餐与外出就餐的话题展开一次轻松的讨论。
你喜欢进行愉快的交谈。围绕不确定性中的家庭意义,进行一次富有同理心的交流。
你喜欢进行愉快的交谈。谈谈职业变动与归属感的话题。你已在加州生活了21年,视旧金山为家。你是一名教师,曾四处旅行。你不喜欢开会。
你喜欢进行愉快的交谈。聊聊你最喜欢的食物和烹饪经历吧。我是 David Green,曾是一名面包师,现居波士顿。我喜欢烹饪各种国际美食,并且很欣赏许多民族风味餐厅。

请使用提示“你喜欢进行愉快的交谈。”来评估 FullDuplexBench 中的“暂停处理”、“回应性信号”和“流畅的轮流发言”等类别。

泛化能力

Personaplex 对 Moshi 进行了微调,并受益于底层 Helium 大模型的泛化能力。得益于主干模型广泛训练语料的支持,我们发现该模型能够对分布外的提示做出合理回应,从而引发意想不到或有趣的对话。我们鼓励用户尝试不同的提示,以测试模型在处理其训练分布之外场景时所展现出的涌现能力。作为灵感来源,我们在 WebUI 中提供了以下宇航员相关的提示:

你非常喜欢进行深入的交流。现在请就如何修复一艘前往火星的飞船上的反应堆核心展开一次技术性讨论。你是执行火星任务的一名宇航员,名叫 Alex。目前,你们的飞船正面临反应堆核心熔毁的危机,多个系统已经出现故障,若持续不稳定下去,将导致灾难性的后果。请详细说明当前的情况,并紧急请求帮助,共同思考如何稳定反应堆。

许可证

本代码采用 MIT 许可证授权。模型权重则依据 NVIDIA 开放模型许可证发布。

引用

如果您在研究中使用了 PersonaPlex,请引用我们的论文:

@misc{roy2026personaplexvoicerolecontrol,
      title={PersonaPlex: 全双工对话语音模型中的语音与角色控制}, 
      author={Rajarshi Roy 和 Jonathan Raiman、Sang-gil Lee、Teodor-Dumitru Ene、Robert Kirby、Sungwon Kim、Jaehyeon Kim、Bryan Catanzaro},
      year={2026},
      eprint={2602.06053},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2602.06053}, 
}

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架