[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-k2-fsa--sherpa":3,"tool-k2-fsa--sherpa":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":10,"env_os":74,"env_gpu":113,"env_ram":113,"env_deps":114,"category_tags":118,"github_topics":120,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":130,"updated_at":131,"faqs":132,"releases":167},8636,"k2-fsa\u002Fsherpa","sherpa","Speech-to-text server framework with next-gen Kaldi","sherpa 是一个基于 PyTorch 构建的开源语音转文字推理框架，专注于利用下一代 Kaldi 技术部署端到端（E2E）语音识别模型。它主要解决了将训练好的高精度语音模型高效转化为实际服务的需求，让开发者能够轻松集成 Transducer 和 CTC 架构的预训练模型，快速实现语音转录功能，而无需关心复杂的模型训练过程。\n\n这款工具特别适合后端开发工程师、AI 应用构建者以及需要搭建高性能语音服务的团队使用。如果你希望在服务器端部署稳定的语音识别能力，sherpa 提供了灵活的 C++ 和 Python 双接口，能够很好地满足不同开发场景的需求。值得注意的是，sherpa 定位明确，专攻“推理”环节；若你有训练或微调模型的需求，其姊妹项目 icefall 则是更好的选择。此外，该生态还衍生出不依赖 PyTorch 的 sherpa-onnx 和 sherpa-ncnn，进一步将语音识别能力扩展至 iOS、Android 及嵌入式设备。你甚至无需安装任何环境，直接通过浏览器即可体验其强大的识别效果。对于追求高效部署和现代化架构的开发者而言，sherpa 是一个值得关注的专业选择。","# sherpa\n\n\n`sherpa` is an open-source speech-text-text inference framework using\nPyTorch, focusing **exclusively** on end-to-end (E2E) models,\nnamely transducer- and CTC-based models. It provides both C++ and Python APIs.\n\nThis project focuses on deployment, i.e., using pre-trained models to\ntranscribe speech. If you are interested in how to train or fine-tune your own\nmodels, please refer to [icefall][icefall].\n\nWe also have other **similar** projects that don't depend on PyTorch:\n\n  - [sherpa-onnx][sherpa-onnx]\n  - [sherpa-ncnn][sherpa-ncnn]\n\n> `sherpa-onnx` and `sherpa-ncnn` also support iOS, Android and embedded systems.\n\n## Installation and Usage\n\nPlease refer to the **documentation** at \u003Chttps:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002F>\n\n## Try it in your browser\n\nTry `sherpa` from within your browser without installing anything:\n\u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fk2-fsa\u002Fautomatic-speech-recognition>\n\n[icefall]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Ficefall\n[sherpa-onnx]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-onnx\n[sherpa-ncnn]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-ncnn\n","# 夏尔巴人\n\n\n`sherpa` 是一个基于 PyTorch 的开源语音-文本-文本推理框架，**专门** 用于端到端（E2E）模型，即基于转换器和 CTC 的模型。它同时提供了 C++ 和 Python API。\n\n本项目专注于部署，即使用预训练模型进行语音转写。如果您对如何训练或微调自己的模型感兴趣，请参阅 [icefall][icefall]。\n\n我们还有其他**类似**的项目，但不依赖于 PyTorch：\n\n  - [sherpa-onnx][sherpa-onnx]\n  - [sherpa-ncnn][sherpa-ncnn]\n\n> `sherpa-onnx` 和 `sherpa-ncnn` 还支持 iOS、Android 以及嵌入式系统。\n\n## 安装与使用\n\n请参阅 \u003Chttps:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002F> 上的 **文档**。\n\n## 在浏览器中试用\n\n无需安装任何东西，即可在浏览器中试用 `sherpa`： \u003Chttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fk2-fsa\u002Fautomatic-speech-recognition>\n\n[icefall]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Ficefall\n[sherpa-onnx]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-onnx\n[sherpa-ncnn]: https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-ncnn","# Sherpa 快速上手指南\n\nSherpa 是一个基于 PyTorch 的开源端到端（E2E）语音识别推理框架，专注于 Transducer 和 CTC 模型。它提供 C++ 和 Python API，旨在高效部署预训练模型进行语音转文字任务。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 18.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**：Python 3.8 - 3.11。\n*   **核心依赖**：\n    *   PyTorch (需匹配您的 CUDA 版本或 CPU 版本)\n    *   `k2` (FSA 库，Sherpa 的核心依赖)\n    *   `torchaudio`\n\n> **提示**：如果您需要在移动端（iOS\u002FAndroid）或嵌入式设备上运行，且不依赖 PyTorch，请参考该项目旗下的 [sherpa-onnx](https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-onnx) 或 [sherpa-ncnn](https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa-ncnn)。\n\n## 安装步骤\n\n推荐使用 `pip` 进行安装。为了获得更快的下载速度，国内开发者可以使用清华或阿里镜像源。\n\n### 1. 安装 PyTorch\n首先安装与您硬件匹配的 PyTorch 版本。以下是 CPU 版本的示例（生产环境通常建议安装 CUDA 版本）：\n\n```bash\npip install torch torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu\n```\n\n*如需 CUDA 版本，请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 获取对应命令。*\n\n### 2. 安装 Sherpa\n使用国内镜像源安装 `sherpa` 及其依赖：\n\n```bash\npip install sherpa -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是一个最简单的 Python 示例，展示如何加载预训练模型并转录音频文件。\n\n### 代码示例\n\n```python\nimport sherpa\n\n# 1. 创建识别器 (使用一个免费的预训练模型)\n# 这里以康奈尔大学的英文流式模型为例\nrecognizer = sherpa.OnlineRecognizer(\n    transducer_model_files=[\n        \"https:\u002F\u002Fhuggingface.co\u002Fcsukuangfj\u002Fsherpa-english-streaming-transducer-large\u002Fresolve\u002Fmain\u002Fencoder.onnx\",\n        \"https:\u002F\u002Fhuggingface.co\u002Fcsukuangfj\u002Fsherpa-english-streaming-transducer-large\u002Fresolve\u002Fmain\u002Fdecoder.onnx\",\n        \"https:\u002F\u002Fhuggingface.co\u002Fcsukuangfj\u002Fsherpa-english-streaming-transducer-large\u002Fresolve\u002Fmain\u002Fjoiner.onnx\",\n    ],\n    tokens=\"https:\u002F\u002Fhuggingface.co\u002Fcsukuangfj\u002Fsherpa-english-streaming-transducer-large\u002Fresolve\u002Fmain\u002Ftokens.txt\",\n    num_threads=2,\n    decoding_method=\"greedy_search\",\n    sample_rate=16000,\n    feature_dim=80,\n    enable_tracing=False,\n)\n\n# 2. 创建流式处理对象\nstream = recognizer.create_stream()\n\n# 3. 读取音频文件 (假设文件为 16kHz 单声道 WAV)\n# 实际使用中请使用 soundfile 或 torchaudio 读取波形数据\nimport soundfile as sf\nwaveform, sample_rate = sf.read(\"test.wav\", dtype=\"float32\")\n\n# 确保采样率为 16k\nif sample_rate != 16000:\n    raise ValueError(\"Sample rate must be 16000Hz\")\n\n# 4. 输入音频数据并进行识别\nstream.accept_waveform(sample_rate, waveform)\nwhile recognizer.is_ready(stream):\n    recognizer.decode_stream(stream)\n\n# 5. 输出最终结果\nresult = recognizer.get_result(stream)\nprint(f\"识别结果：{result.text}\")\n```\n\n### 在线体验\n如果您不想在本地安装任何依赖，可以直接在浏览器中尝试 Sherpa 的功能：\n[https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fk2-fsa\u002Fautomatic-speech-recognition](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fk2-fsa\u002Fautomatic-speech-recognition)\n\n> **注意**：本指南仅涵盖推理（Deployment）部分。如果您需要训练或微调自己的模型，请参阅 [icefall](https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Ficefall) 项目。详细文档请访问：[https:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002F](https:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002F)","一家初创教育科技公司正在开发一款实时在线课堂系统，需要将师生的语音互动即时转化为文字记录以便后续复习和检索。\n\n### 没有 sherpa 时\n- 部署传统 Kaldi 流程极其繁琐，需要手动配置复杂的有限状态转换器（FST）图，团队花费数周仍在调试环境依赖。\n- 现有方案难以高效运行最新的端到端（E2E）模型，导致转录延迟高达 3 秒以上，严重破坏课堂互动的流畅感。\n- 缺乏统一的推理框架，C++ 后端与 Python 算法原型之间存在巨大的工程鸿沟，模型从训练到上线的迭代周期长达数天。\n- 面对高并发请求时，旧架构资源占用过高且扩展性差，服务器成本急剧上升，难以支撑大规模用户接入。\n\n### 使用 sherpa 后\n- 直接利用 sherpa 内置的下一代 Kaldi 支持，通过简洁的 Python 或 C++ API 即可加载预训练的 Transducer 模型，环境搭建缩短至几小时。\n- 得益于专为推理优化的端到端架构，语音转文字的延迟降低至毫秒级，实现了真正的“边说边显”，师生体验显著提升。\n- 统一的框架消除了语言隔阂，算法工程师训练的模型可无缝部署到生产环境，模型更新迭代从“天”级变为“分钟”级。\n- 高效的推理引擎大幅降低了单路语音处理的 CPU 占用，在同等硬件条件下支持的并发路数翻倍，有效控制了运营成本。\n\nsherpa 通过简化端到端模型的部署流程并极致优化推理性能，让实时语音转写技术真正具备了低成本、低延迟的商业落地能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fk2-fsa_sherpa_b9701f9e.png","k2-fsa","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fk2-fsa_fda504ee.png","",null,"https:\u002F\u002Fgithub.com\u002Fk2-fsa",[78,82,86,90,94,97,101,105],{"name":79,"color":80,"percentage":81},"C++","#f34b7d",51.5,{"name":83,"color":84,"percentage":85},"Python","#3572A5",36.6,{"name":87,"color":88,"percentage":89},"Shell","#89e051",4.8,{"name":91,"color":92,"percentage":93},"CMake","#DA3434",4,{"name":95,"color":96,"percentage":32},"JavaScript","#f1e05a",{"name":98,"color":99,"percentage":100},"HTML","#e34c26",0.8,{"name":102,"color":103,"percentage":104},"C","#555555",0.2,{"name":106,"color":107,"percentage":108},"Dockerfile","#384d54",0.1,912,149,"2026-04-15T16:50:24","Apache-2.0","未说明",{"notes":115,"python":113,"dependencies":116},"该项目专注于使用预训练模型进行语音转文字的推理部署（支持 C++ 和 Python API），主要面向端到端（E2E）模型。如需训练或微调模型，请参考 icefall 项目。另有不依赖 PyTorch 的变体 sherpa-onnx 和 sherpa-ncnn，支持 iOS、Android 及嵌入式系统。具体安装和使用细节需查阅官方文档。",[117],"PyTorch",[14,119],"音频",[121,122,123,124,125,126,127,128,129],"asr","cpp","python","ctc","pytorch","transducer","websocket","end-to-end-asr","speech-recognition","2026-03-27T02:49:30.150509","2026-04-18T03:34:26.879134",[133,138,143,148,152,157,162],{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},38679,"如何在 Windows 上安装 kaldifeat 或解决安装错误？","Windows 用户无需从源码编译，可以直接下载预编译的 wheel 包进行安装。访问 https:\u002F\u002Fcsukuangfj.github.io\u002Fkaldifeat\u002Finstallation\u002Ffrom_wheels.html#windows-cpu 获取对应版本。\n此外，如果您使用的是 sherpa-onnx，则根本不需要安装 kaldifeat，因为 sherpa-onnx 不依赖 PyTorch 或 kaldifeat。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F440",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},38680,"流式模型（如 pruned transducer stateless5）的预期延迟是多少？为什么初始延迟很高？","初始延迟问题通常可以通过更新到最新的 master 分支代码来解决（参考 PR #100）。\n关于硬件影响：不同 GPU 对首次调用的延迟影响较大，但对后续调用影响较小。测试数据显示：\n- K80 显卡：首次调用延迟约 10 秒，后续调用约 0.6 秒。\n- T4 显卡：首次调用延迟约 4 秒，后续调用约 0.5 秒。\n如果更新后仍有 1-2 秒的持续延迟，请检查是否为环境配置问题，因为在修复后的代码中不应出现此情况。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F90",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},38681,"如何加载 NeMo 工具包训练的 CTC 预训练模型？","Sherpa 现已支持加载来自 NeMo 的预训练 CTC 模型。您可以参考 PR #332 (https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fpull\u002F332) 获取具体的使用方法和支持细节。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F238",{"id":149,"question_zh":150,"answer_zh":151,"source_url":147},38682,"如何准备用于 Sherpa 的训练数据格式？","建议使用 Lhotse 工具包来准备数据。请参考 https:\u002F\u002Fgithub.com\u002Flhotse-speech\u002Flhotse 了解如何将您的数据转换为 Sherpa 所需的格式。",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},38683,"SenseVoice 模型在 ARM64 (QNN) 上的加载时间过长怎么办？","如果遇到 libmodel.so 加载时间过长（如 50 秒），而 model.bin 加载很快（如 450ms），建议直接使用 model.bin 文件。\n关键点在于选择正确的 .so 文件并确保其与您当前的硬件 SoC 型号匹配。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F787",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},38684,"是否支持 Zipformer 模型？导出时遇到 CUDA 错误如何解决？","Sherpa 框架已支持 Zipformer 模型（通过 PR #365）。\n如果在导出模型时遇到 CUDA 相关的 RuntimeError（例如在 TorchScript 解释器中失败），请检查导出脚本中的设备设置。确保初始化张量和状态时指定了 CUDA 设备，例如将代码：\n`x = torch.zeros(1, T, 80, dtype=torch.float32)`\n修改为在 CUDA 设备上创建：\n`x = torch.zeros(1, T, 80, dtype=torch.float32, device='cuda')`\n同时确保 `encoder_model.get_init_state` 的设备参数也设置为 CUDA。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F350",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},38685,"从源码安装 Sherpa 时遇到 k2_torch_api 或 kaldifeat 相关错误，安装后的版本可用吗？","如果在安装过程中遇到某些测试失败或依赖项（如 kaldifeat）的警告，只要最终安装步骤完成，通常不影响正常使用。维护者确认即使部分测试报错，安装后的 Sherpa 仍然是可工作的。建议优先尝试使用 conda 安装依赖项以绕过编译问题。","https:\u002F\u002Fgithub.com\u002Fk2-fsa\u002Fsherpa\u002Fissues\u002F290",[168,172,176,180,185,189,194,198,203,208,213,218,223,228,233,238],{"id":169,"version":170,"summary_zh":75,"released_at":171},314605,"speaker-recognition-models","2025-01-10T02:57:12",{"id":173,"version":174,"summary_zh":75,"released_at":175},314606,"vad-models","2025-01-09T05:19:27",{"id":177,"version":178,"summary_zh":75,"released_at":179},314607,"speaker-segmentation-models","2025-01-08T09:01:16",{"id":181,"version":182,"summary_zh":183,"released_at":184},314608,"asr-models","对于中国用户，您也可以访问：\r\nhttps:\u002F\u002Fhf-mirror.com\u002Fk2-fsa\u002Fsherpa-models\u002Ftree\u002Fmain\u002Fnon-streaming-asr","2025-01-06T14:22:18",{"id":186,"version":187,"summary_zh":75,"released_at":188},314609,"doc","2024-04-11T08:57:41",{"id":190,"version":191,"summary_zh":192,"released_at":193},314610,"v1.2","- 支持NeMo中的预训练CTC模型","2023-03-10T13:54:26",{"id":195,"version":196,"summary_zh":75,"released_at":197},314611,"v1.0","2022-11-04T08:27:16",{"id":199,"version":200,"summary_zh":201,"released_at":202},314612,"v0.9.1","支持 LSTM 转导器。","2022-09-19T22:48:33",{"id":204,"version":205,"summary_zh":206,"released_at":207},314613,"v0.8","支持端点化。","2022-09-15T16:26:55",{"id":209,"version":210,"summary_zh":211,"released_at":212},314614,"v0.7","为非流式自动语音识别添加 C++ 前端。\n\n安装说明请参见：https:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002Fcpp\u002Finstallation\u002Findex.html。\n\n使用方法请参见：https:\u002F\u002Fk2-fsa.github.io\u002Fsherpa\u002Fcpp\u002Foffline_asr\u002Findex.html。\n\n注意：支持在 Linux、macOS 和 Windows 上使用 `conda install` 进行安装。","2022-08-21T04:07:07",{"id":214,"version":215,"summary_zh":216,"released_at":217},314615,"v0.6","错误修复。","2022-07-03T01:32:08",{"id":219,"version":220,"summary_zh":221,"released_at":222},314616,"v0.5","- 除了主线程外，还在其他线程中添加 `@torch.no_grad()`，以减少内存消耗，因为 `torch.no_grad()` 是线程局部的。","2022-06-11T01:41:07",{"id":224,"version":225,"summary_zh":226,"released_at":227},314617,"v0.4","- 支持 Torch >= 1.6.0- 支持指定服务器可同时处理的最大客户端数量","2022-06-07T05:05:09",{"id":229,"version":230,"summary_zh":231,"released_at":232},314618,"v0.3","1. 支持使用剪枝的无状态 Emformer RNN-T 进行流式自动语音识别\n2. 在导入时添加对 PyTorch 版本的检查\n3. 支持 Windows 操作系统","2022-06-04T11:02:15",{"id":234,"version":235,"summary_zh":236,"released_at":237},314619,"v0.2","修复 `pip install`。","2022-05-26T01:58:17",{"id":239,"version":240,"summary_zh":241,"released_at":242},314620,"v0.1","First non-streaming version.","2022-05-24T15:05:10"]