[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-NVIDIA--personaplex":3,"similar-NVIDIA--personaplex":100},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":45,"forks":46,"last_commit_at":47,"license":48,"difficulty_score":49,"env_os":50,"env_gpu":51,"env_ram":52,"env_deps":53,"category_tags":61,"github_topics":18,"view_count":64,"oss_zip_url":18,"oss_zip_packed_at":18,"status":65,"created_at":66,"updated_at":67,"faqs":68,"releases":99},2581,"NVIDIA\u002Fpersonaplex","personaplex","PersonaPlex code.","PersonaPlex 是一款由英伟达推出的实时全双工语音对话模型，旨在让 AI 不仅能听懂你说话，还能在你说的同时即时回应，实现如真人般自然流畅的交谈体验。它解决了传统语音助手必须“说完再等回复”的延迟痛点，支持通过文本指令设定角色性格，并利用音频提示精准控制说话人的音色与情感，从而保持长期对话中人格与声音的高度一致性。\n\n这款工具特别适合开发者、研究人员以及希望构建沉浸式语音交互应用的企业团队使用。无论是打造智能客服、虚拟伴侣，还是进行多角色语音合成研究，PersonaPlex 都能提供强大的底层支持。其核心技术基于先进的 Moshi 架构，采用混合了合成数据与真实对话的训练策略，显著降低了响应延迟。此外，它还预置了多种自然度极高的男女声线（如 NAT 系列）和风格多样的变体声线（如 VAR 系列），用户可灵活调用。项目开源了代码与模型权重，并提供了详细的部署指南，支持从本地服务器搭建到离线评估等多种使用场景，甚至允许在显存不足时通过 CPU 卸载技术运行，极大地降低了使用门槛。","# PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models\n\n[![Weights](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-Weights-yellow)](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002Fpersonaplex-7b-v1)\n[![Paper](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📄-Paper-blue)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06053)\n[![Demo](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🎮-Demo-green)](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fadlr\u002Fpersonaplex\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Join-purple?logo=discord)](https:\u002F\u002Fdiscord.gg\u002F5jAXrrbwRb)\n\nPersonaPlex is a real-time, full-duplex speech-to-speech conversational model that enables persona control through text-based role prompts and audio-based voice conditioning. Trained on a combination of synthetic and real conversations, it produces natural, low-latency spoken interactions with a consistent persona. PersonaPlex is based on the [Moshi](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.00037) architecture and weights.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_personaplex_readme_afff9ae53359.png\" alt=\"PersonaPlex Model Architecture\">\n  \u003Cbr>\n  \u003Cem>PersonaPlex Architecture\u003C\u002Fem>\n\u003C\u002Fp>\n\n## Usage\n\n### Prerequisites\n\nInstall the [Opus audio codec](https:\u002F\u002Fgithub.com\u002Fxiph\u002Fopus) development library:\n```bash\n# Ubuntu\u002FDebian\nsudo apt install libopus-dev\n\n# Fedora\u002FRHEL\nsudo dnf install opus-devel\n```\n\n### Installation\n\nDownload this repository and install with:\n```bash\npip install moshi\u002F.\n```\n\nExtra step for Blackwell based GPUs as suggested in (See https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F2):\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu130\n```\n\n\n### Accept Model License\nLog in to your Huggingface account and accept the PersonaPlex model license [here](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002Fpersonaplex-7b-v1). \u003Cbr>\nThen set up your Huggingface authentication:\n```bash\nexport HF_TOKEN=\u003CYOUR_HUGGINGFACE_TOKEN>\n```\n\n### Launch Server\n\nLaunch server for live interaction (temporary SSL certs for https):\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\"\n```\n\n**CPU Offload:** If your GPU has insufficient memory, use the `--cpu-offload` flag to offload model layers to CPU. This requires the `accelerate` package (`pip install accelerate`):\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\" --cpu-offload\n```\n\nAccess the Web UI from a browser at `localhost:8998` if running locally, otherwise look for the access link printed by the script:\n```\nAccess the Web UI directly at https:\u002F\u002F11.54.401.33:8998\n```\n\n### Offline Evaluation\n\nFor offline evaluation use the offline script that streams in an input wav file and produces an output wav file from the captured output stream. The output file will be the same duration as the input file.\n\nAdd `--cpu-offload` to any command below if your GPU has insufficient memory (requires `accelerate` package). Or install cpu-only PyTorch for offline evaluation on pure CPU.\n\n**Assistant example:**\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATF2.pt\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_assistant.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n**Service example:**\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATM1.pt\" \\\n  --text-prompt \"$(cat assets\u002Ftest\u002Fprompt_service.txt)\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_service.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n## Voices\n\nPersonaPlex supports a wide range of voices; we pre-package embeddings for voices that sound more natural and conversational (NAT) and others that are more varied (VAR). The fixed set of voices are labeled:\n```\nNatural(female): NATF0, NATF1, NATF2, NATF3\nNatural(male):   NATM0, NATM1, NATM2, NATM3\nVariety(female): VARF0, VARF1, VARF2, VARF3, VARF4\nVariety(male):   VARM0, VARM1, VARM2, VARM3, VARM4\n```\n\n## Prompting Guide\n\nThe model is trained on synthetic conversations for a fixed assistant role and varying customer service roles.\n\n### Assistant Role\n\nThe assistant role has the prompt:\n```\nYou are a wise and friendly teacher. Answer questions or provide advice in a clear and engaging way.\n```\n\nUse this prompt for the QA assistant focused \"User Interruption\" evaluation category in [FullDuplexBench](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.04721).\n\n### Customer Service Roles\n\nThe customer service roles support a variety of prompts. Here are some examples for prompting style reference:\n```\nYou work for CitySan Services which is a waste management and your name is Ayelen Lucero. Information: Verify customer name Omar Torres. Current schedule: every other week. Upcoming pickup: April 12th. Compost bin service available for $8\u002Fmonth add-on.\n```\n```\nYou work for Jerusalem Shakshuka which is a restaurant and your name is Owen Foster. Information: There are two shakshuka options: Classic (poached eggs, $9.50) and Spicy (scrambled eggs with jalapenos, $10.25). Sides include warm pita ($2.50) and Israeli salad ($3). No combo offers. Available for drive-through until 9 PM.\n```\n```\nYou work for AeroRentals Pro which is a drone rental company and your name is Tomaz Novak. Information: AeroRentals Pro has the following availability: PhoenixDrone X ($65\u002F4 hours, $110\u002F8 hours), and the premium SpectraDrone 9 ($95\u002F4 hours, $160\u002F8 hours). Deposit required: $150 for standard models, $300 for premium.\n```\n\n### Casual Conversations\n\nThe model is also trained on real conversations from the [Fisher English Corpus](https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2004T19) with LLM-labeled prompts for open-ended conversations. Here are some example prompts for casual conversations:\n```\nYou enjoy having a good conversation.\n```\n```\nYou enjoy having a good conversation. Have a casual discussion about eating at home versus dining out.\n```\n```\nYou enjoy having a good conversation. Have an empathetic discussion about the meaning of family amid uncertainty.\n```\n```\nYou enjoy having a good conversation. Have a reflective conversation about career changes and feeling of home. You have lived in California for 21 years and consider San Francisco your home. You work as a teacher and have traveled a lot. You dislike meetings.\n```\n```\nYou enjoy having a good conversation. Have a casual conversation about favorite foods and cooking experiences. You are David Green, a former baker now living in Boston. You enjoy cooking diverse international dishes and appreciate many ethnic restaurants.\n```\n\nUse the prompt `You enjoy having a good conversation.` for the \"Pause Handling\", \"Backchannel\" and \"Smooth Turn Taking\" evaluation categories of FullDuplexBench.\n\n## Generalization\n\nPersonaplex finetunes Moshi and benefits from the generalization capabilities of the underlying [Helium](https:\u002F\u002Fkyutai.org\u002Fblog\u002F2025-04-30-helium) LLM. Thanks to the broad training corpus of the backbone, we find that the model will respond plausibly to out-of-distribution prompts and lead to unexpected or fun conversations. We encourage experimentation with different prompts to test the model's emergent ability to handle scenarios outside its training distribution. As an inspiration we feature the following astronaut prompt in the WebUI:\n```\nYou enjoy having a good conversation. Have a technical discussion about fixing a reactor core on a spaceship to Mars. You are an astronaut on a Mars mission. Your name is Alex. You are already dealing with a reactor core meltdown on a Mars mission. Several ship systems are failing, and continued instability will lead to catastrophic failure. You explain what is happening and you urgently ask for help thinking through how to stabilize the reactor.\n```\n\n## License\n\nThe present code is provided under the MIT license. The weights for the models are released under the NVIDIA Open Model license.\n\n## Citation\n\nIf you use PersonaPlex in your research, please cite our paper:\n```bibtex\n@misc{roy2026personaplexvoicerolecontrol,\n      title={PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models}, \n      author={Rajarshi Roy and Jonathan Raiman and Sang-gil Lee and Teodor-Dumitru Ene and Robert Kirby and Sungwon Kim and Jaehyeon Kim and Bryan Catanzaro},\n      year={2026},\n      eprint={2602.06053},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06053}, \n}\n```\n","# PersonaPlex：用于全双工对话式语音模型的角色与声音控制\n\n[![权重](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-Weights-yellow)](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002Fpersonaplex-7b-v1)\n[![论文](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F📄-Paper-blue)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06053)\n[![演示](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🎮-Demo-green)](https:\u002F\u002Fresearch.nvidia.com\u002Flabs\u002Fadlr\u002Fpersonaplex\u002F)\n[![Discord](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDiscord-Join-purple?logo=discord)](https:\u002F\u002Fdiscord.gg\u002F5jAXrrbwRb)\n\nPersonaPlex 是一款实时、全双工的语音到语音对话模型，可通过基于文本的角色提示和基于音频的语音调节来实现角色控制。该模型基于合成数据和真实对话的混合数据进行训练，能够生成自然、低延迟且具有一致角色特征的口语交互。PersonaPlex 基于 [Moshi](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.00037) 架构及其权重。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_personaplex_readme_afff9ae53359.png\" alt=\"PersonaPlex 模型架构\">\n  \u003Cbr>\n  \u003Cem>PersonaPlex 架构\u003C\u002Fem>\n\u003C\u002Fp>\n\n## 使用方法\n\n### 先决条件\n\n安装 [Opus 音频编解码器](https:\u002F\u002Fgithub.com\u002Fxiph\u002Fopus) 开发库：\n```bash\n# Ubuntu\u002FDebian\nsudo apt install libopus-dev\n\n# Fedora\u002FRHEL\nsudo dnf install opus-devel\n```\n\n### 安装\n\n下载此仓库并使用以下命令安装：\n```bash\npip install moshi\u002F.\n```\n\n对于基于 Blackwell 架构的 GPU，建议执行额外步骤（参见 https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F2）：\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu130\n```\n\n\n### 接受模型许可协议\n登录您的 Huggingface 账户，并在此处接受 PersonaPlex 模型的许可协议 [here](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002Fpersonaplex-7b-v1)。\u003Cbr>\n然后设置您的 Huggingface 认证：\n```bash\nexport HF_TOKEN=\u003CYOUR_HUGGINGFACE_TOKEN>\n```\n\n### 启动服务器\n\n启动服务器以进行实时交互（临时 SSL 证书用于 HTTPS）：\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\"\n```\n\n**CPU 卸载：** 如果您的 GPU 内存不足，请使用 `--cpu-offload` 标志将模型层卸载到 CPU 上。这需要安装 `accelerate` 包（`pip install accelerate`）：\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\" --cpu-offload\n```\n\n在本地运行时，您可以通过浏览器访问 Web UI：`localhost:8998`；否则，请查看脚本打印出的访问链接：\n```\n直接通过 https:\u002F\u002F11.54.401.33:8998 访问 Web UI\n```\n\n### 离线评估\n\n进行离线评估时，可以使用离线脚本，该脚本会流式输入一个 WAV 文件，并从捕获的输出流中生成一个输出 WAV 文件。输出文件的时长将与输入文件相同。\n\n如果您的 GPU 内存不足，可在以下任何命令中添加 `--cpu-offload` 标志（需安装 `accelerate` 包）。或者，您可以安装仅支持 CPU 的 PyTorch，在纯 CPU 上进行离线评估。\n\n**助理示例：**\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATF2.pt\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_assistant.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n**服务示例：**\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATM1.pt\" \\\n  --text-prompt \"$(cat assets\u002Ftest\u002Fprompt_service.txt)\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_service.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n## 声音选项\n\nPersonaPlex 支持多种声音；我们预先封装了听起来更自然、更具对话感的声音嵌入（NAT），以及更多样化的声音嵌入（VAR）。固定的声音集合如下所示：\n```\n自然女声：NATF0、NATF1、NATF2、NATF3\n自然男声：NATM0、NATM1、NATM2、NATM3\n多样女声：VARF0、VARF1、VARF2、VARF3、VARF4\n多样男声：VARM0、VARM1、VARM2、VARM3、VARM4\n```\n\n## 提示指南\n\n该模型基于合成对话进行训练，其中助理角色固定，而客户服务角色则有所不同。\n\n### 助理角色\n\n助理角色的提示为：\n```\n你是一位睿智友善的老师。请以清晰、生动的方式回答问题或提供建议。\n```\n\n请将此提示用于 [FullDuplexBench](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.04721) 中专注于“用户打断”的 QA 助理评估类别。\n\n### 客户服务角色\n\n客户服务角色支持多种提示。以下是一些提示风格参考：\n```\n你在 CitySan Services 工作，这是一家废物管理公司，你的名字是 Ayelen Lucero。信息：请核实客户姓名 Omar Torres。当前服务周期：每隔一周一次。下次收集日期：4月12日。可选配堆肥箱服务，每月收费8美元。\n```\n```\n你在 Jerusalem Shakshuka 餐厅工作，你的名字是 Owen Foster。信息：沙克舒卡有两种选择：经典款（水波蛋，9.50美元）和辣味款（炒鸡蛋配墨西哥辣椒，10.25美元）。配菜包括热皮塔饼（2.50美元）和以色列沙拉（3美元）。不提供套餐优惠。仅支持驾车取餐，营业至晚上9点。\n```\n```\n你在 AeroRentals Pro 无人机租赁公司工作，你的名字是 Tomaz Novak。信息：AeroRentals Pro 提供以下服务：PhoenixDrone X（4小时65美元，8小时110美元），以及高端 SpectraDrone 9（4小时95美元，8小时160美元）。押金要求：普通机型150美元，高端机型300美元。\n```\n\n### 日常对话\n\n该模型还基于来自 [Fisher 英语语料库](https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC2004T19) 的真实对话进行训练，并由 LLM 标注了开放式对话的提示。以下是一些日常对话的示例提示：\n```\n你喜欢进行愉快的交谈。\n```\n```\n你喜欢进行愉快的交谈。就居家用餐与外出就餐的话题展开一次轻松的讨论。\n```\n```\n你喜欢进行愉快的交谈。围绕不确定性中的家庭意义，进行一次富有同理心的交流。\n```\n```\n你喜欢进行愉快的交谈。谈谈职业变动与归属感的话题。你已在加州生活了21年，视旧金山为家。你是一名教师，曾四处旅行。你不喜欢开会。\n```\n```\n你喜欢进行愉快的交谈。聊聊你最喜欢的食物和烹饪经历吧。我是 David Green，曾是一名面包师，现居波士顿。我喜欢烹饪各种国际美食，并且很欣赏许多民族风味餐厅。\n```\n\n请使用提示“你喜欢进行愉快的交谈。”来评估 FullDuplexBench 中的“暂停处理”、“回应性信号”和“流畅的轮流发言”等类别。\n\n## 泛化能力\n\nPersonaplex 对 Moshi 进行了微调，并受益于底层 [Helium](https:\u002F\u002Fkyutai.org\u002Fblog\u002F2025-04-30-helium) 大模型的泛化能力。得益于主干模型广泛训练语料的支持，我们发现该模型能够对分布外的提示做出合理回应，从而引发意想不到或有趣的对话。我们鼓励用户尝试不同的提示，以测试模型在处理其训练分布之外场景时所展现出的涌现能力。作为灵感来源，我们在 WebUI 中提供了以下宇航员相关的提示：\n```\n你非常喜欢进行深入的交流。现在请就如何修复一艘前往火星的飞船上的反应堆核心展开一次技术性讨论。你是执行火星任务的一名宇航员，名叫 Alex。目前，你们的飞船正面临反应堆核心熔毁的危机，多个系统已经出现故障，若持续不稳定下去，将导致灾难性的后果。请详细说明当前的情况，并紧急请求帮助，共同思考如何稳定反应堆。\n```\n\n## 许可证\n\n本代码采用 MIT 许可证授权。模型权重则依据 NVIDIA 开放模型许可证发布。\n\n## 引用\n\n如果您在研究中使用了 PersonaPlex，请引用我们的论文：\n```bibtex\n@misc{roy2026personaplexvoicerolecontrol,\n      title={PersonaPlex: 全双工对话语音模型中的语音与角色控制}, \n      author={Rajarshi Roy 和 Jonathan Raiman、Sang-gil Lee、Teodor-Dumitru Ene、Robert Kirby、Sungwon Kim、Jaehyeon Kim、Bryan Catanzaro},\n      year={2026},\n      eprint={2602.06053},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.06053}, \n}\n```","# PersonaPlex 快速上手指南\n\nPersonaPlex 是一个实时、全双工的语音对话模型，支持通过文本提示控制角色（Persona）和通过音频条件控制音色。它基于 Moshi 架构，能够生成低延迟、自然且角色一致的语音交互。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu\u002FDebian 或 Fedora\u002FRHEL)\n- **GPU**: NVIDIA GPU (支持 CUDA)。若显存不足，可开启 CPU 卸载模式。\n- **Python**: 建议 Python 3.8+\n\n### 前置依赖\n安装 Opus 音频编解码器开发库：\n\n```bash\n# Ubuntu\u002FDebian\nsudo apt install libopus-dev\n\n# Fedora\u002FRHEL\nsudo dnf install opus-devel\n```\n\n## 安装步骤\n\n### 1. 安装核心库\n克隆仓库后，安装 `moshi` 包：\n\n```bash\npip install moshi\u002F.\n```\n\n### 2. Blackwell 架构 GPU 用户额外步骤\n如果您使用的是基于 Blackwell 架构的 GPU（如 H200\u002FB200 等），请执行以下命令安装兼容的 PyTorch 版本：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu130\n```\n\n### 3. 配置 Hugging Face 权限\n登录 Hugging Face 账号，在 [模型页面](https:\u002F\u002Fhuggingface.co\u002Fnvidia\u002Fpersonaplex-7b-v1) 接受 License 协议。然后设置环境变量：\n\n```bash\nexport HF_TOKEN=\u003CYOUR_HUGGINGFACE_TOKEN>\n```\n\n*(可选) 若需使用 CPU 卸载功能以节省显存，请安装 accelerate：*\n```bash\npip install accelerate\n```\n\n## 基本使用\n\n### 方式一：启动实时交互服务 (Web UI)\n这是最简单的体验方式，启动后可在浏览器中进行实时语音对话。\n\n**标准启动（需要充足显存）：**\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\"\n```\n\n**显存不足时启动（开启 CPU 卸载）：**\n```bash\nSSL_DIR=$(mktemp -d); python -m moshi.server --ssl \"$SSL_DIR\" --cpu-offload\n```\n\n启动成功后，终端会输出访问地址（例如 `https:\u002F\u002F11.54.401.33:8998`）。在浏览器中打开该链接即可开始对话。默认角色为“智慧友好的老师”。\n\n### 方式二：离线评估 (命令行)\n如果您已有输入音频文件，可以使用离线脚本生成回复音频。\n\n**示例：助手角色对话**\n使用预设的自然女声 (NATF2) 处理输入音频：\n\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATF2.pt\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_assistant.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n**示例：客服角色对话**\n指定特定的文本角色提示和男声 (NATM1)：\n\n```bash\nHF_TOKEN=\u003CTOKEN> \\\npython -m moshi.offline \\\n  --voice-prompt \"NATM1.pt\" \\\n  --text-prompt \"$(cat assets\u002Ftest\u002Fprompt_service.txt)\" \\\n  --input-wav \"assets\u002Ftest\u002Finput_service.wav\" \\\n  --seed 42424242 \\\n  --output-wav \"output.wav\" \\\n  --output-text \"output.json\"\n```\n\n> **提示**：若离线运行时显存不足，可在上述命令中加入 `--cpu-offload` 参数。\n\n### 常用音色与提示词参考\n- **可用音色**:\n  - 自然女声: `NATF0` 至 `NATF3`\n  - 自然男声: `NATM0` 至 `NATM3`\n  - 多样化女声: `VARF0` 至 `VARF4`\n  - 多样化男声: `VARM0` 至 `VARM4`\n\n- **角色提示词 (Text Prompt)**:\n  - **通用闲聊**: `You enjoy having a good conversation.`\n  - **特定场景**: 可以自定义详细背景，例如：\"You work for CitySan Services... Verify customer name Omar Torres...\"","某电商公司正在开发一款能实时处理客户投诉的智能语音客服系统，要求客服既能快速响应，又能保持统一、温和的品牌形象。\n\n### 没有 personaplex 时\n- **人设割裂**：文本回复由大模型生成，语音由独立 TTS 合成，导致语气情感与文字内容不匹配，听起来像“读稿机器”。\n- **延迟过高**：传统流程需等待用户说完、转写文本、生成回复再合成语音，全双工中断造成对话停顿明显，用户体验流畅度差。\n- **声音单一**：难以动态切换或固定特定的音色（如“温和女性”或“专业男性”），无法针对不同业务线定制专属声音标识。\n- **开发复杂**：需要串联 ASR、LLM、TTS 三个独立模块并自行优化延迟，工程维护成本极高。\n\n### 使用 personaplex 后\n- **声情合一**：通过 `text-prompt` 定义“安抚型客服”角色，配合 `voice-prompt`（如 NATF2）锁定音色，生成的语音自然带有同理心，人设高度一致。\n- **实时全双工**：基于 Moshi 架构实现低延迟语音对语音交互，支持用户随时打断，对话节奏如同真人交流般流畅自然。\n- **灵活控声**：可直接调用预置的 NAT（自然）或 VAR（多样）系列音色嵌入，轻松为 VIP 专线或普通咨询切换不同风格的客服声音。\n- **端到端简化**：只需部署一个模型即可同时完成听、理解、说，无需拼接多个组件，大幅降低了系统延迟和运维难度。\n\npersonaplex 将原本割裂的语音对话流程整合为统一的端到端体验，让 AI 客服真正拥有了“有温度的声音”和“即时的反应”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNVIDIA_personaplex_57f25a73.png","NVIDIA","NVIDIA Corporation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNVIDIA_7dcf6000.png","",null,"https:\u002F\u002Fnvidia.com","https:\u002F\u002Fgithub.com\u002FNVIDIA",[22,26,30,34,38,42],{"name":23,"color":24,"percentage":25},"Python","#3572A5",74.8,{"name":27,"color":28,"percentage":29},"TypeScript","#3178c6",24.2,{"name":31,"color":32,"percentage":33},"CSS","#663399",0.5,{"name":35,"color":36,"percentage":37},"Dockerfile","#384d54",0.3,{"name":39,"color":40,"percentage":41},"HTML","#e34c26",0.1,{"name":43,"color":44,"percentage":41},"JavaScript","#f1e05a",5955,921,"2026-04-03T02:34:49","MIT",3,"Linux","需要 NVIDIA GPU。对于 Blackwell 架构显卡，需安装 CUDA 13.0 (cu130) 版本的 PyTorch。若显存不足，支持使用 --cpu-offload 标志将模型层卸载到 CPU（需安装 accelerate 库），或纯 CPU 运行离线评估。具体显存大小未说明，但提供显存卸载方案暗示大模型对显存有较高需求。","未说明",{"notes":54,"python":52,"dependencies":55},"1. 必须安装系统级音频编解码库 Opus (Ubuntu\u002FDebian: libopus-dev, Fedora\u002FRHEL: opus-devel)。2. 使用前需在 Hugging Face 接受模型许可并设置 HF_TOKEN 环境变量。3. 启动服务器时会自动生成临时 SSL 证书以支持 HTTPS。4. 模型权重基于 NVIDIA Open Model 许可，代码基于 MIT 许可。5. 离线评估可安装仅 CPU 版本的 PyTorch 运行。",[56,57,58,59,60],"torch","torchvision","torchaudio","accelerate","libopus-dev (系统级依赖)",[62,63],"语言模型","音频",7,"ready","2026-03-27T02:49:30.150509","2026-04-06T05:18:36.084429",[69,74,79,84,89,94],{"id":70,"question_zh":71,"answer_zh":72,"source_url":73},11945,"项目有在线演示（Demo）吗？","README 文件中提到的演示链接目前可能无法直接访问或尚未公开部署。建议查看项目的最新文档或直接运行本地代码进行测试。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F4",{"id":75,"question_zh":76,"answer_zh":77,"source_url":78},11946,"Discord 邀请链接失效了怎么办？","维护者已更新 README 文件中的 Discord 邀请链接。如果之前遇到无效页面，请刷新 README 并点击最新的邀请链接加入社区。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F8",{"id":80,"question_zh":81,"answer_zh":82,"source_url":83},11947,"在 CPU 环境下运行时提示缺少 'accelerate' 库怎么办？","在 CPU 上进行内存优化或使用 CPU offload 功能时，必须安装 `accelerate` 库。请执行以下命令安装：\npip install accelerate\n此外，如果使用 Docker，需确保 Dockerfile 或启动命令中包含 `--device cpu --cpu-offload` 参数。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F31",{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},11948,"如何在 NVIDIA Blackwell 架构（如 RTX 5090）上解决 CUDA 内核不兼容错误？","默认的 PyTorch 版本可能不支持 Blackwell 架构（sm_120），会导致 \"no kernel image is available\" 错误。解决方法是安装支持 CUDA 12.8 的 PyTorch 版本，请运行以下命令：\npip3 install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu128\n安装后重启服务即可正常调用 GPU。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F23",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},11949,"该模型支持哪些语言？","目前该代理（Agent）仅支持英语（English），暂不支持其他语言的多语言微调或推理。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F33",{"id":95,"question_zh":96,"answer_zh":97,"source_url":98},11950,"是否支持实时视频输入？","目前主要专注于低延迟的全双工音频交互。虽然实时视频输入（Video in + out）是一个被认可的未来扩展方向，但当前版本尚未正式支持该功能。","https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fpersonaplex\u002Fissues\u002F28",[],[101,112,120,133,141,149],{"id":102,"name":103,"github_repo":104,"description_zh":105,"stars":106,"difficulty_score":107,"last_commit_at":108,"category_tags":109,"status":65},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[110,111,62],"开发框架","Agent",{"id":113,"name":114,"github_repo":115,"description_zh":116,"stars":117,"difficulty_score":107,"last_commit_at":118,"category_tags":119,"status":65},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[110,62],{"id":121,"name":122,"github_repo":123,"description_zh":124,"stars":125,"difficulty_score":107,"last_commit_at":126,"category_tags":127,"status":65},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[128,129,130,131,111,132,62,110,63],"图像","数据工具","视频","插件","其他",{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":49,"last_commit_at":139,"category_tags":140,"status":65},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[111,128,110,62,132],{"id":142,"name":143,"github_repo":144,"description_zh":145,"stars":146,"difficulty_score":49,"last_commit_at":147,"category_tags":148,"status":65},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[62,128,110,132],{"id":150,"name":151,"github_repo":152,"description_zh":153,"stars":154,"difficulty_score":49,"last_commit_at":155,"category_tags":156,"status":65},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[62,111,110,131]]