[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-facebookresearch--spiritlm":3,"tool-facebookresearch--spiritlm":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[46,26,43,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":23,"env_os":92,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":106,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":138},6950,"facebookresearch\u002Fspiritlm","spiritlm","Inference code for the paper \"Spirit-LM Interleaved Spoken and Written Language Model\".","SpiritLM 是 Meta 开源的一款创新语言模型，旨在打破传统文本与语音处理的界限。它不仅能理解文字，还能直接处理语音信号，实现了口语与书面语的无缝交织建模。过去，AI 系统通常需要将语音先转写为文字再进行处理，这一过程往往丢失了语调、情感等关键信息；SpiritLM 则通过统一的架构直接对语音和文本进行联合建模，有效解决了多模态交互中信息割裂的难题，尤其在保留说话人情感色彩方面表现卓越。\n\n这款工具特别适合人工智能研究人员、开发者以及对多模态大模型感兴趣的技术团队使用。通过提供的推理代码、预训练权重及评估脚本，用户可以快速复现论文成果，开展语音生成、情感保持基准测试等前沿探索。其核心技术亮点在于采用了独特的语音分词器（Speech Tokenizer），将连续的语音信号转化为离散的令牌序列，使其能像处理文本一样高效地处理语音，从而在单一模型内实现高质量的语音 - 文本混合生成。无论是希望构建更自然的人机对话系统，还是深入研究语音与语言内在联系的专业人士，SpiritLM 都提供了一个强大且灵活的实验平台。","# Meta Spirit LM: Interleaved Spoken and Written Language Model\n\nThis repository contains the model weights, inference code and evaluation scripts for the Spirit LM [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.05755.pdf). You can find more generation samples on our [demo page](https:\u002F\u002Fspeechbot.github.io\u002Fspiritlm\u002F).\n\n## Spirit LM Model Overview\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_spiritlm_readme_0920772e1f83.png\">\n\n## Installation Setup\n### Conda\n```\nconda env create -f env.yml\npip install -e '.[eval]'\n\n```\n### Pip\n```\npip install -e '.[eval]'\n```\n\n### Dev\n(Optionally, use only if you want to run the tests.)\n```\npip install -e '.[dev]'\n```\n\n## Checkpoints Setup\nSee [checkpoints\u002FREADME.md](checkpoints\u002FREADME.md)\n\n## Quick Start\n### Speech Tokenization\nSee [spiritlm\u002Fspeech_tokenizer\u002FREADME.md](spiritlm\u002Fspeech_tokenizer\u002FREADME.md)\n### Spirit LM Generation\nSee [spiritlm\u002Fmodel\u002FREADME.md](spiritlm\u002Fmodel\u002FREADME.md)\n### Speech-Text Sentiment Preservation benchmark (STSP)\nSee [spiritlm\u002Feval\u002FREADME.md](spiritlm\u002Feval\u002FREADME.md)\n\n## Model Card\nMore details of the model can be found in [MODEL_CARD.md](MODEL_CARD.md).\n\n## License\nThe present code is provided under the **FAIR Noncommercial Research License** found in [LICENSE](LICENSE).\n\n## Citation\n```\n@misc{nguyen2024spiritlminterleavedspokenwritten,\n      title={SpiRit-LM: Interleaved Spoken and Written Language Model},\n      author={Tu Anh Nguyen and Benjamin Muller and Bokai Yu and Marta R. Costa-jussa and Maha Elbayad and Sravya Popuri and Paul-Ambroise Duquenne and Robin Algayres and Ruslan Mavlyutov and Itai Gat and Gabriel Synnaeve and Juan Pino and Benoit Sagot and Emmanuel Dupoux},\n      year={2024},\n      eprint={2402.05755},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05755},\n}\n```\n\n","# Meta Spirit LM：交错式语音与文本语言模型\n\n本仓库包含 Spirit LM 模型的权重、推理代码以及评估脚本 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.05755.pdf)。您可以在我们的 [演示页面](https:\u002F\u002Fspeechbot.github.io\u002Fspiritlm\u002F) 上找到更多生成示例。\n\n## Spirit LM 模型概述\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_spiritlm_readme_0920772e1f83.png\">\n\n## 安装与设置\n### Conda\n```\nconda env create -f env.yml\npip install -e '.[eval]'\n```\n\n### Pip\n```\npip install -e '.[eval]'\n```\n\n### 开发环境\n（仅在需要运行测试时使用。）\n```\npip install -e '.[dev]'\n```\n\n## 检查点设置\n请参阅 [checkpoints\u002FREADME.md](checkpoints\u002FREADME.md)。\n\n## 快速入门\n### 语音分词\n请参阅 [spiritlm\u002Fspeech_tokenizer\u002FREADME.md](spiritlm\u002Fspeech_tokenizer\u002FREADME.md)。\n### Spirit LM 生成\n请参阅 [spiritlm\u002Fmodel\u002FREADME.md](spiritlm\u002Fmodel\u002FREADME.md)。\n### 语音-文本情感保持基准测试 (STSP)\n请参阅 [spiritlm\u002Feval\u002FREADME.md](spiritlm\u002Feval\u002FREADME.md)。\n\n## 模型卡片\n有关模型的更多详细信息，请参阅 [MODEL_CARD.md](MODEL_CARD.md)。\n\n## 许可证\n本代码依据 [LICENSE](LICENSE) 中的 **FAIR 非商业研究许可证** 提供。\n\n## 引用\n```\n@misc{nguyen2024spiritlminterleavedspokenwritten,\n      title={SpiRit-LM: 交错式语音与文本语言模型},\n      author={阮安英、本杰明·穆勒、于博凯、玛尔塔·R·科斯塔-胡萨、马哈·埃尔巴亚德、斯拉维娅·波普里、保罗-安布罗兹·杜肯、罗宾·阿尔盖尔斯、鲁斯兰·马夫柳托夫、伊泰·加特、加布里埃尔·西纳耶夫、胡安·皮诺、贝努瓦·萨戈、埃曼纽埃尔·迪普克斯},\n      year={2024},\n      eprint={2402.05755},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05755},\n}\n```","# Spirit LM 快速上手指南\n\nSpirit LM 是由 Meta 推出的交错式口语与书面语语言模型，能够同时理解和生成语音与文本序列。本指南帮助开发者快速完成环境配置并运行基础功能。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Linux (Ubuntu 18.04+) 或 macOS。\n*   **Python 版本**：建议 Python 3.9 或更高版本。\n*   **包管理工具**：已安装 `conda` (推荐) 或 `pip`。\n*   **硬件要求**：运行推理建议使用支持 CUDA 的 NVIDIA GPU（显存建议 16GB 以上以获得更佳体验），CPU 亦可运行但速度较慢。\n\n## 安装步骤\n\n您可以选择使用 Conda 创建隔离环境（推荐），或直接使用 Pip 安装。\n\n### 方式一：使用 Conda（推荐）\n\n```bash\nconda env create -f env.yml\nconda activate spiritlm\npip install -e '.[eval]'\n```\n\n### 方式二：使用 Pip\n\n如果您已有合适的 Python 环境，可直接安装：\n\n```bash\npip install -e '.[eval]'\n```\n\n> **提示**：若需进行开发测试，可额外运行 `pip install -e '.[dev]'`。\n\n### 获取模型权重\n\n安装完成后，需下载预训练模型权重。请参考官方指引：\n[checkpoints\u002FREADME.md](checkpoints\u002FREADME.md)\n\n## 基本使用\n\nSpirit LM 的核心流程包含**语音分词**与**模型生成**两个主要步骤。\n\n### 1. 语音分词 (Speech Tokenization)\n\n在处理语音输入前，需先将音频转换为离散令牌。具体使用方法请参阅：\n[spiritlm\u002Fspeech_tokenizer\u002FREADME.md](spiritlm\u002Fspeech_tokenizer\u002FREADME.md)\n\n### 2. 模型生成 (Spirit LM Generation)\n\n完成分词后，即可调用模型进行交错式的语音\u002F文本生成。最简单的调用逻辑参考：\n[spiritlm\u002Fmodel\u002FREADME.md](spiritlm\u002Fmodel\u002FREADME.md)\n\n### 3. 效果评估 (可选)\n\n如需运行“语音 - 文本情感保持基准测试 (STSP)\"，请参考：\n[spiritlm\u002Feval\u002FREADME.md](spiritlm\u002Feval\u002FREADME.md)\n\n---\n*更多模型细节请查阅 [MODEL_CARD.md](MODEL_CARD.md)，代码遵循 FAIR Noncommercial Research License 协议。*","某在线教育平台的技术团队正致力于升级其口语陪练系统，希望实现更自然的语音与文本混合交互体验。\n\n### 没有 spiritlm 时\n- **模态割裂严重**：系统需分别调用独立的语音识别（ASR）和大型语言模型（LLM），导致语音中的语气、停顿等情感信息在转文字过程中丢失。\n- **响应延迟高**：音频必须先完整转录为文本才能送入模型处理，多阶段串行流程使得用户对话等待时间过长，破坏沉浸感。\n- **上下文理解偏差**：模型仅基于纯文本进行推理，无法感知说话人的犹豫或强调，常给出机械且缺乏同理心的回复。\n- **开发维护复杂**：工程师需要维护两套独立的接口和数据管道，对齐语音时间戳与文本逻辑不仅代码量大且极易出错。\n\n### 使用 spiritlm 后\n- **音文深度融合**：spiritlm 直接接受交错的语音令牌与文本输入，能精准捕捉并保留原声中的情感色彩与韵律特征。\n- **端到端低延迟**：得益于统一的生成架构，spiritlm 支持流式处理，边听边想边回答，显著缩短了首字生成的等待时间。\n- **拟人化交互增强**：模型能根据语音语调调整回复策略，如在检测到用户犹豫时主动引导，使对话更像真人教练而非机器。\n- **架构极简统一**：开发者只需部署一个 spiritlm 模型即可同时处理听、说、读、写任务，大幅降低了系统复杂度与维护成本。\n\nspiritlm 通过打破语音与文本的模态壁垒，让 AI 真正具备了“听懂弦外之音”的能力，重塑了人机语音交互的自然度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_spiritlm_837ee8f4.png","facebookresearch","Meta Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffacebookresearch_449342bd.png","",null,"https:\u002F\u002Fopensource.fb.com","https:\u002F\u002Fgithub.com\u002Ffacebookresearch",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,930,64,"2026-04-07T05:15:06","NOASSERTION","未说明",{"notes":94,"python":92,"dependencies":95},"README 中未直接列出具体的硬件配置和依赖版本，仅提供了通过 env.yml 文件创建 Conda 环境或通过 pip 安装开发\u002F评估依赖的指令。由于该模型涉及语音令牌化（Speech Tokenization）和交错式语音文本生成，通常隐含需要 NVIDIA GPU 支持及较大的显存。具体依赖版本需查看项目根目录下的 env.yml 文件或 setup.py 文件。模型权重和检查点需单独下载（参考 checkpoints\u002FREADME.md）。代码仅在 FAIR 非商业研究许可证下提供。",[96,97,98,99,100,101,102,103,104,105],"torch","transformers","accelerate","fairseq","librosa","soundfile","numpy","scipy","pandas","tqdm",[15,47,46],"2026-03-27T02:49:30.150509","2026-04-13T04:25:53.871357",[110,115,119,124,129,134],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},31319,"在计算 sWUGGY、sBLIMP 等指标的语音样本对数似然时，是否只考虑语音 token 的 logits？","是的，在计算这些指标时，通常只考虑语音 token 的 logits。有用户发现将文本 token 的 logits 设置为负无穷（-inf）可以略微提升性能。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fspiritlm\u002Fissues\u002F14",{"id":116,"question_zh":117,"answer_zh":118,"source_url":114},31320,"SpiritLM 训练数据集的具体构成和语言比例是怎样的？","虽然无法分享数据集组件的完整细节，但大部分数据是开源的。语言构成上，最初使用了多语言数据集集合，其中英语约占 50%。经过小规模消融实验发现，仅使用英语数据训练的结果与包含非英语数据的结果相似，因此最终决定保留非英语部分。开发者认为使用开源数据集（甚至结合 Llama3 或 Mistral 等新模型）也能达到可比甚至更好的效果。",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},31321,"在使用 expressive 版本对特定音频文件进行分词时遇到 pitch 提取错误，该如何解决？","该错误通常与默认的 `fcpe` pitch 提取器有关。可以尝试使用 `pyyaapt` 作为 pitch 提取的后端。虽然 `pyyaapt` 提取速度较慢且生成的 pitch token 略有不同（通常更准确），但整体重合成质量基本一致，且能避免某些文件导致的报错。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fspiritlm\u002Fissues\u002F17",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},31322,"在 Google Colab 中运行示例时出现模型路径找不到（path not found）的错误，如何解决？","这是因为模型未自动下载到 Colab 环境。解决方法如下：\n1. 使用提供的链接下载单个模型的 zip 文件；\n2. 将 zip 文件上传到 Google Drive；\n3. 在 Colab 中运行解压命令，例如将文件解压至 `\u002Fcontent\u002Fdrive\u002FMyDrive\u002Fdata\u002Fcheckpoints\u002Fspiritlm_model\u002Fspirit-lm-base-7b`；\n4. 实例化模型时使用上述解压后的绝对路径，例如：`spirit_lm = Spiritlm({path_to_model})`。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fspiritlm\u002Fissues\u002F11",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},31323,"语音输入是否仅支持 FLAC 格式，WAV 格式可以使用吗？","是的，WAV 格式也可以使用，不仅限于 FLAC 文件。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fspiritlm\u002Fissues\u002F21",{"id":135,"question_zh":136,"answer_zh":137,"source_url":133},31324,"如何优化自动语音识别（ASR）的提示词（Prompt）以提高转录效果？","可以参考论文附录 B 中的 ASR prompt 设计。关键改进点是在每个转录文本前后添加指定的标记，例如 `\u003CSTART Transcript>` 和 `\u003CEND>`。这种格式化的 prompt 相比普通 prompt 能显著提升结果质量。",[]]