[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-alphacep--vosk-android-demo":3,"tool-alphacep--vosk-android-demo":65},[4,23,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},4128,"GPT-SoVITS","RVC-Boss\u002FGPT-SoVITS","GPT-SoVITS 是一款强大的开源语音合成与声音克隆工具，旨在让用户仅需极少量的音频数据即可训练出高质量的个性化语音模型。它核心解决了传统语音合成技术依赖海量录音数据、门槛高且成本大的痛点，实现了“零样本”和“少样本”的快速建模：用户只需提供 5 秒参考音频即可即时生成语音，或使用 1 分钟数据进行微调，从而获得高度逼真且相似度极佳的声音效果。\n\n该工具特别适合内容创作者、独立开发者、研究人员以及希望为角色配音的普通用户使用。其内置的友好 WebUI 界面集成了人声伴奏分离、自动数据集切片、中文语音识别及文本标注等辅助功能，极大地降低了数据准备和模型训练的技术门槛，让非专业人士也能轻松上手。\n\n在技术亮点方面，GPT-SoVITS 不仅支持中、英、日、韩、粤语等多语言跨语种合成，还具备卓越的推理速度，在主流显卡上可实现实时甚至超实时的生成效率。无论是需要快速制作视频配音，还是进行多语言语音交互研究，GPT-SoVITS 都能以极低的数据成本提供专业级的语音合成体验。",56375,3,"2026-04-05T22:15:46",[21],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},2863,"TTS","coqui-ai\u002FTTS","🐸TTS 是一款功能强大的深度学习文本转语音（Text-to-Speech）开源库，旨在将文字自然流畅地转化为逼真的人声。它解决了传统语音合成技术中声音机械生硬、多语言支持不足以及定制门槛高等痛点，让高质量的语音生成变得触手可及。\n\n无论是希望快速集成语音功能的开发者，还是致力于探索前沿算法的研究人员，亦或是需要定制专属声音的数据科学家，🐸TTS 都能提供得力支持。它不仅预置了覆盖全球 1100 多种语言的训练模型，让用户能够即刻上手，还提供了完善的工具链，支持用户利用自有数据训练新模型或对现有模型进行微调，轻松实现特定风格的声音克隆。\n\n在技术亮点方面，🐸TTS 表现卓越。其最新的 ⓍTTSv2 模型支持 16 种语言，并在整体性能上大幅提升，实现了低于 200 毫秒的超低延迟流式输出，极大提升了实时交互体验。此外，它还无缝集成了 🐶Bark、🐢Tortoise 等社区热门模型，并支持调用上千个 Fairseq 模型，展现了极强的兼容性与扩展性。配合丰富的数据集分析与整理工具，🐸TTS 已成为科研与生产环境中备受信赖的语音合成解决方案。",44971,"2026-04-03T14:47:02",[21,20,13],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":29,"last_commit_at":46,"category_tags":47,"status":22},2375,"LocalAI","mudler\u002FLocalAI","LocalAI 是一款开源的本地人工智能引擎，旨在让用户在任意硬件上轻松运行各类 AI 模型，包括大语言模型、图像生成、语音识别及视频处理等。它的核心优势在于彻底打破了高性能计算的门槛，无需昂贵的专用 GPU，仅凭普通 CPU 或常见的消费级显卡（如 NVIDIA、AMD、Intel 及 Apple Silicon）即可部署和运行复杂的 AI 任务。\n\n对于担心数据隐私的用户而言，LocalAI 提供了“隐私优先”的解决方案，确保所有数据处理均在本地基础设施内完成，无需上传至云端。同时，它完美兼容 OpenAI、Anthropic 等主流 API 接口，这意味着开发者可以无缝迁移现有应用，直接利用本地资源替代云服务，既降低了成本又提升了可控性。\n\nLocalAI 内置了超过 35 种后端支持（如 llama.cpp、vLLM、Whisper 等），并集成了自主 AI 代理、工具调用及检索增强生成（RAG）等高级功能，且具备多用户管理与权限控制能力。无论是希望保护敏感数据的企业开发者、进行算法实验的研究人员，还是想要在个人电脑上体验最新 AI 技术的极客玩家，都能通过 LocalAI 获",44782,"2026-04-02T22:14:26",[13,21,19,17,20,14,16],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":29,"last_commit_at":54,"category_tags":55,"status":22},3108,"bark","suno-ai\u002Fbark","Bark 是由 Suno 推出的开源生成式音频模型，能够根据文本提示创造出高度逼真的多语言语音、音乐、背景噪音及简单音效。与传统仅能朗读文字的语音合成工具不同，Bark 基于 Transformer 架构，不仅能模拟说话，还能生成笑声、叹息、哭泣等非语言声音，甚至能处理带有情感色彩和语气停顿的复杂文本，极大地丰富了音频表达的可能性。\n\n它主要解决了传统语音合成声音机械、缺乏情感以及无法生成非语音类音效的痛点，让创作者能通过简单的文字描述获得生动自然的音频素材。无论是需要为视频配音的内容创作者、探索多模态生成的研究人员，还是希望快速原型设计的开发者，都能从中受益。普通用户也可通过集成的演示页面轻松体验其神奇效果。\n\n技术亮点方面，Bark 支持商业使用（MIT 许可），并在近期更新中实现了显著的推理速度提升，同时提供了适配低显存 GPU 的版本，降低了使用门槛。此外，社区还建立了丰富的提示词库，帮助用户更好地驾驭模型生成特定风格的声音。只需几行 Python 代码，即可将创意文本转化为高质量音频，是连接文字与声音世界的强大桥梁。",39067,"2026-04-04T03:33:35",[21],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":22},3788,"airi","moeru-ai\u002Fairi","airi 是一款开源的本地化 AI 伴侣项目，旨在将虚拟角色（如“二次元老婆”或赛博生命）带入用户的现实世界。它的核心目标是复刻并超越知名 AI 主播 Neuro-sama 的能力，让用户能够拥有完全自主掌控、可私有化部署的智能伙伴。\n\nairi 主要解决了用户对高度定制化、具备情感交互能力且数据隐私安全的 AI 角色的需求。不同于依赖云端服务的通用助手，airi 允许用户在本地运行，不仅保护了对话隐私，还赋予了用户定义角色性格与灵魂的自由。它支持实时语音聊天，甚至能直接参与《我的世界》（Minecraft）和《异星工厂》（Factorio）等游戏，实现了从单纯对话到共同娱乐的跨越。\n\n这款工具非常适合喜爱虚拟角色的普通用户、希望搭建个性化 AI 陪伴的技术爱好者，以及研究多模态交互的开发者。其独特的技术亮点在于跨平台支持（涵盖 Web、macOS 和 Windows）以及强大的游戏交互能力，让 AI 不仅能“说”，还能“玩”。通过容器化的灵魂设计，airi 为每个人创造专属数字生命提供了可能，让虚拟陪伴变得更加真实且触手可及。",37086,1,"2026-04-05T10:54:25",[19,21,17],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":82,"owner_twitter":77,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":22,"created_at":110,"updated_at":111,"faqs":112,"releases":143},3905,"alphacep\u002Fvosk-android-demo","vosk-android-demo","Offline speech recognition for Android with Vosk library.","vosk-android-demo 是一个专为 Android 平台打造的离线语音识别与说话人身份验证演示项目。它基于强大的 Kaldi 和 Vosk 语音引擎，让移动应用无需连接互联网即可精准地将语音转换为文字，并能识别特定说话人的身份。\n\n在隐私保护日益重要和网络环境不稳定的场景下，传统云端语音方案往往面临数据泄露风险或响应延迟问题。vosk-android-demo 通过将完整的识别模型部署在手机本地，彻底解决了这些痛点：所有音频数据均在设备端处理，既保障了用户隐私安全，又实现了零延迟的实时响应，即使在无网环境下也能稳定运行。\n\n这款工具主要面向 Android 应用开发者及语音技术研究人员。对于希望为应用添加语音控制、实时字幕或声纹解锁功能的开发者来说，它提供了开箱即用的代码范例和预编译二进制文件，极大地降低了集成门槛。研究人员也可以借此深入探索移动端轻量级语音模型的优化策略。\n\n其核心技术亮点在于成功将原本庞大的学术级语音识别系统（Kaldi）进行深度压缩与优化，使其能够流畅运行在资源有限的移动设备上，同时保持了极高的识别准确率。无论是构建智能助手还是开发无障碍辅助工具，vo","vosk-android-demo 是一个专为 Android 平台打造的离线语音识别与说话人身份验证演示项目。它基于强大的 Kaldi 和 Vosk 语音引擎，让移动应用无需连接互联网即可精准地将语音转换为文字，并能识别特定说话人的身份。\n\n在隐私保护日益重要和网络环境不稳定的场景下，传统云端语音方案往往面临数据泄露风险或响应延迟问题。vosk-android-demo 通过将完整的识别模型部署在手机本地，彻底解决了这些痛点：所有音频数据均在设备端处理，既保障了用户隐私安全，又实现了零延迟的实时响应，即使在无网环境下也能稳定运行。\n\n这款工具主要面向 Android 应用开发者及语音技术研究人员。对于希望为应用添加语音控制、实时字幕或声纹解锁功能的开发者来说，它提供了开箱即用的代码范例和预编译二进制文件，极大地降低了集成门槛。研究人员也可以借此深入探索移动端轻量级语音模型的优化策略。\n\n其核心技术亮点在于成功将原本庞大的学术级语音识别系统（Kaldi）进行深度压缩与优化，使其能够流畅运行在资源有限的移动设备上，同时保持了极高的识别准确率。无论是构建智能助手还是开发无障碍辅助工具，vosk-android-demo 都是一个值得信赖的起点。","## About\n\nThis demo implements offline speech recognition and speaker identification for mobile applications using Kaldi and Vosk libraries.\n\nCheck the [releases](https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Freleases) for pre-built binaries.\n\n## Documentation\n\nFor documentation and instructions please visit the [Vosk Website](https:\u002F\u002Falphacephei.com\u002Fvosk\u002Fandroid).\n","## 关于\n\n本示例使用 Kaldi 和 Vosk 库，实现了面向移动应用的离线语音识别与说话人辨识功能。\n\n请查看 [发布页面](https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Freleases)，获取预编译的二进制文件。\n\n## 文档\n\n有关文档和使用说明，请访问 [Vosk 官网](https:\u002F\u002Falphacephei.com\u002Fvosk\u002Fandroid)。","# Vosk Android Demo 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows、macOS 或 Linux。\n*   **开发工具**：Android Studio (推荐最新稳定版)。\n*   **JDK 版本**：Java Development Kit 11 或更高版本。\n*   **Android SDK**：已安装并配置好环境变量，建议 API Level 21 及以上。\n*   **硬件设备**：一台用于测试的 Android 真机或模拟器（需具备麦克风权限）。\n*   **前置依赖**：无需手动安装 Kaldi 或 Vosk 核心库，项目已通过 Gradle 自动管理依赖。\n\n> **提示**：国内开发者若遇到 Gradle 下载缓慢问题，建议在项目根目录的 `build.gradle` 文件中将仓库地址替换为阿里云镜像：\n> ```groovy\n> maven { url 'https:\u002F\u002Fmaven.aliyun.com\u002Frepository\u002Fgoogle' }\n> maven { url 'https:\u002F\u002Fmaven.aliyun.com\u002Frepository\u002Fpublic' }\n```\n\n## 安装步骤\n\n您可以通过克隆源码或直接使用预编译包两种方式获取项目。\n\n### 方式一：从源码构建（推荐）\n\n1.  **克隆仓库**\n    打开终端，执行以下命令拉取代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo.git\n    cd vosk-android-demo\n    ```\n\n2.  **导入项目**\n    启动 Android Studio，选择 **Open an existing project**，选中刚才克隆的 `vosk-android-demo` 文件夹。\n\n3.  **同步依赖**\n    等待 Android Studio 自动完成 Gradle 同步。如有网络问题，请确认已配置上述国内镜像源。\n\n4.  **构建应用**\n    连接 Android 设备或启动模拟器，点击工具栏的 **Run** 按钮（或使用快捷键 `Shift + F10`）进行编译和安装。\n\n### 方式二：使用预编译包\n\n如果您不想编译源码，可以直接访问 [Releases 页面](https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Freleases) 下载最新的 `.apk` 文件，直接安装到手机即可体验。\n\n## 基本使用\n\n本 Demo 默认集成了离线语音识别和说话人识别功能，无需额外配置服务器。\n\n1.  **启动应用**\n    在设备上打开安装好的 **Vosk Demo** 应用。\n\n2.  **授权麦克风**\n    首次运行时，系统会弹出权限请求，请点击“允许”以授予麦克风访问权限。\n\n3.  **开始识别**\n    *   界面显示 **\"Ready\"** 后，直接对着麦克风说话。\n    *   屏幕下方将实时显示识别出的中文或英文文本（取决于内置模型）。\n    *   演示默认包含一个小规模的通用模型，支持即时离线转换。\n\n4.  **切换模型（可选）**\n    如需测试不同语言或更大精度的模型，可将下载的模型文件夹放入手机存储的指定目录（通常在 `Android\u002Fdata\u002Forg.vosk.demo\u002Ffiles`），并在应用设置中选择加载。具体模型资源请访问 [Vosk 模型列表](https:\u002F\u002Falphacephei.com\u002Fvosk\u002Fmodels) 获取。\n\n> **注意**：所有识别过程均在本地完成，无需联网，适合隐私敏感场景。详细 API 集成文档请参阅 [Vosk 官方网站](https:\u002F\u002Falphacephei.com\u002Fvosk\u002Fandroid)。","某户外探险应用开发团队希望为登山者打造一款无需联网即可通过语音记录轨迹和备注的工具，以应对山区信号缺失的痛点。\n\n### 没有 vosk-android-demo 时\n- 用户进入无网络山区后，语音输入功能完全失效，只能手动打字，操作极其不便且存在安全隐患。\n- 若强行集成云端识别服务，高昂的流量费用和 API 调用成本让初创团队难以承受。\n- 语音数据必须上传至服务器处理，涉及用户隐私泄露风险，不符合野外作业的数据安全规范。\n- 网络延迟导致语音转文字响应慢，无法实现实时的指令反馈或即时记录。\n\n### 使用 vosk-android-demo 后\n- 依托 Kaldi 和 Vosk 库实现的离线识别能力，用户在无网环境下依然能流畅通过语音记录路线和突发状况。\n- 所有计算均在手机本地完成，彻底消除了云端 API 费用和网络流量成本，大幅降低运营支出。\n- 语音数据不出设备，从源头保障了探险者的位置信息和录音内容的隐私安全。\n- 本地处理实现了毫秒级响应，用户说完即见文字，体验如同在线服务般顺滑。\n\nvosk-android-demo 通过将高精度的语音识别能力下沉至移动端本地，成功解决了弱网环境下的交互难题，让智能语音功能真正服务于全场景。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falphacep_vosk-android-demo_4a546d31.png","alphacep","Alpha Cephei","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Falphacep_97a654ef.jpg","",null,"contact@alphacephei.com","http:\u002F\u002Falphacephei.com","https:\u002F\u002Fgithub.com\u002Falphacep",[86],{"name":87,"color":88,"percentage":89},"Java","#b07219",100,1030,268,"2026-04-04T13:54:29","Apache-2.0",4,"Android","未说明",{"notes":98,"python":96,"dependencies":99},"该工具是面向 Android 移动应用的离线语音识别和说话人识别演示，不支持桌面操作系统（Linux\u002FmacOS\u002FWindows）。主要依赖 Kaldi 和 Vosk 库，可通过 releases 页面获取预编译二进制文件，详细文档请参阅 Vosk 官网。",[100,101],"Kaldi","Vosk",[21],[104,105,106,107,108,109],"android","kaldi","offline","speech-recognition","asr","vosk","2026-03-27T02:49:30.150509","2026-04-06T07:05:50.222703",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},17836,"如何微调（Tuning）现有的 Kaldi 模型以适配特定口音或数据？","微调现有模型时，请遵循以下关键步骤：\n1. 确保您的训练数据格式与 mini_librispeech 示例中的数据一致。\n2. **必须**将 `ivector_dim` 设置为 30。请在您的食谱（recipe）文件以及 `wsj\u002Fs5\u002Fsteps\u002Fonline\u002Fnnet2\u002Ftrain_ivector_extractor.sh` 中搜索 `ivector_dim=100` 或 `ivector dim=100` 并将其全部替换为 30。\n3. 如果在不使用 GPU 的情况下训练，可以修改 `mini_librispeech\u002Fs5\u002Flocal\u002Fchain\u002Ftuning\u002Frun_tdnn_1j.sh` 中的迭代次数（epochs），例如改为 5，以加快训练速度（从 1 天缩短至约 4 小时）。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F110",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},17837,"如何在 Android 端实现热词检测并减少误报（False Positives）？","提高热词检测准确率并减少误报的方法如下：\n1. 在初始化 `KaldiRecognizer` 时，将语法限制为特定短语和未知词，例如：`new KaldiRecognizer(model, 16000.f, \"[\\\"hot word\\\", \\\"[unk]\\\"]\")`。\n2. 在 `onResult` 回调中解析 JSON，不仅检查文本是否匹配，还要检查每个单词的置信度（confidence score）。只有当所有单词的置信度都高于阈值（如 0.9）时才触发动作。\n3. 代码逻辑示例：遍历结果中的每个部分，如果 `result.conf \u003C 0.9` 则直接返回，不执行后续操作。\n4. 注意处理 Vosk 长时间无响应或启动报错的情况，可添加重启机制（如超过 5 秒无结果则重启，启动失败等待 1 秒后重试）。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F127",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},17838,"如何在 Android Demo 中使用德语（tuda-de）或其他非英语预训练模型？","直接在 Android Demo 中替换模型文件可能无法工作，因为不同语言的模型结构可能不同（例如德语模型包含 `G.carpa`, `G.fst`, `frame_subsampling_factor`, `tree` 等新文件，而旧模型可能只有 `final.mdl`）。\n建议方案：\n1. 不要手动修改外部模型的文件结构来适配旧版 Demo。\n2. 使用官方发布的更新后的德语模型，这些模型比外部模型更准确且已适配最新架构。\n3. 确保下载的模型版本与 vosk-api 及 Android Demo 的版本兼容，必要时升级 Demo 项目以支持新的模型文件格式。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F40",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},17839,"遇到 'Assertion failed: indexes->row_offsets.size() == time_offsets_.size()' 错误怎么办？","该断言错误通常与模型版本或 API 调用方式有关。维护者指出说话人 ID（speaker id）功能已正式合并到 vosk-api 中。\n解决方案：\n1. 检查您使用的模型是否支持当前的 vosk-api 版本。\n2. 参考官方示例代码正确初始化识别器，特别是涉及说话人识别的功能：\n   - Python 示例：`vosk-api\u002Fpython\u002Fexample\u002Ftest_local_speaker.py`\n   - Java 示例：`vosk-api\u002Fjava\u002Ftest\u002FDecoderTest.java`\n3. 确保不要混用旧版模型和新版 API，或者反之。如果需要导出预训练模型到 Android，请确认模型文件结构完整且未被损坏。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F20",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},17840,"是否可以使用自己训练的 Kaldi 模型替换 Android Demo 中的默认模型？","可以替换，但需要注意模型文件的结构和兼容性。\n1. 如果您使用 Kaldi 自行训练了模型，需要确保生成的文件结构符合 Vosk Android Demo 的要求（通常位于 `models\u002Fsrc\u002Fmain\u002Fassets\u002Fsync\u002Fmodel-android\u002F`）。\n2. 仅仅复制文件可能不够，可能需要调整目录结构或重新生成某些索引文件。\n3. 如果遇到运行问题（如 Logcat 报错），可能是模型文件缺失或不兼容。建议先使用官方提供的预训练模型验证环境是否正常，再逐步替换为自己的模型文件。\n4. 对于特定问题（如 Issue #10 中提到的），维护者曾在特定版本提交（83b23cfc...）中修复了相关加载问题，请确保代码是最新的。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F10",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},17841,"Android 模型支持的采样率是多少？能否训练 22050Hz 的模型？","Vosk Android Demo 主要针对 16000Hz (16kHz) 的采样率进行了优化和测试。\n虽然理论上 Kaldi 支持其他采样率（如 22050Hz），但在 Android 端直接使用非标准采样率的模型可能会遇到兼容性问题或需要修改底层代码。\n建议：\n1. 尽量将音频数据重采样（resample）到 16000Hz 后再输入给识别器，这是最稳定且推荐的做法。\n2. 目前官方提供的英语模型大多基于 16kHz，暂无专门针对 22050Hz 优化的现成 Android 模型教程。强行使用高采样率可能导致识别失败或性能下降。","https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-android-demo\u002Fissues\u002F35",[144,149,154,159,164],{"id":145,"version":146,"summary_zh":147,"released_at":148},108135,"2021-04","适用于新的 Android API 和 Vosk 0.3.23\n\n","2021-04-15T12:23:51",{"id":150,"version":151,"summary_zh":152,"released_at":153},108136,"2020-05","与 vosk-api-0.3.7 同步","2020-05-07T20:27:40",{"id":155,"version":156,"summary_zh":157,"released_at":158},108137,"2020-01","更新了带有适当前瞻的图表\n\n模型、代码和文档请参见：https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-api。\n\n最新模型列表请访问：https:\u002F\u002Fgithub.com\u002Falphacep\u002Fvosk-api\u002Fblob\u002Fmaster\u002Fdoc\u002Fmodels.md。","2020-01-06T18:08:15",{"id":160,"version":161,"summary_zh":162,"released_at":163},108138,"2019-11","根据最新的Kaldi构建配方更新模型","2019-11-25T23:19:08",{"id":165,"version":166,"summary_zh":167,"released_at":168},108139,"2019-09","可运行的演示 APK 文件","2019-10-27T22:30:30"]