[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-yeyupiaoling--PaddlePaddle-DeepSpeech":3,"similar-yeyupiaoling--PaddlePaddle-DeepSpeech":116},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":18,"owner_url":19,"languages":20,"stars":37,"forks":38,"last_commit_at":39,"license":40,"difficulty_score":41,"env_os":42,"env_gpu":43,"env_ram":44,"env_deps":45,"category_tags":51,"github_topics":54,"view_count":65,"oss_zip_url":18,"oss_zip_packed_at":18,"status":66,"created_at":67,"updated_at":68,"faqs":69,"releases":110},2822,"yeyupiaoling\u002FPaddlePaddle-DeepSpeech","PaddlePaddle-DeepSpeech","基于PaddlePaddle实现的语音识别，中文语音识别。项目完善，识别效果好。支持Windows，Linux下训练和预测，支持Nvidia Jetson开发板预测。","PaddlePaddle-DeepSpeech 是一款基于百度飞桨（PaddlePaddle）框架打造的端到端自动语音识别引擎，专注于提供高精度的中文及英文语音转文字服务。它源自经典的 DeepSpeech2 算法，旨在解决传统语音识别系统在训练部署复杂、场景适应性弱以及长语音处理困难等问题。\n\n该项目不仅支持在 Windows 和 Linux 环境下进行模型训练与预测，还特别优化了对 Nvidia Jetson 等边缘计算开发板的支持，使得语音识别技术能够轻松落地于嵌入式设备。对于开发者而言，它提供了从数据增强、模型训练到集束搜索解码的全流程工具链，并兼容多种主流模型架构；对于研究人员，项目开源了基于 AIShell、Librispeech 及 WenetSpeech 等大规模数据集的预训练模型，便于快速复现与研究。此外，通过内置的 Web 服务和 GUI 界面部署方案，普通用户也能零代码体验实时录音识别或长音频转录功能。近期项目已完成重构，全面采用 PaddlePaddle 2.0+ 新 API，进一步提升了运行效率与易用性，是构建智能语音应用的理想选择。","# DeepSpeech2 语音识别\n\n![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-red.svg)\n![python version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7+-orange.svg)\n![support os](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux-yellow.svg)\n![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech?style=social)\n\nDeepSpeech2是基于PaddlePaddle实现的端到端自动语音识别（ASR）引擎，其论文为[《Baidu's Deep Speech 2 paper》](http:\u002F\u002Fproceedings.mlr.press\u002Fv48\u002Famodei16.pdf) ，本项目同时还支持各种数据增强方法，以适应不同的使用场景。支持在Windows，Linux下训练和预测，支持Nvidia Jetson等开发板推理预测，该分支为新版本，如果要使用旧版本，请查看[release\u002F1.1分支](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Ftree\u002Frelease\u002F1.1)。\n\n**动态图版本使用更简单，支持Deepspeech2、Conformer、Squeezeformer模型：[PPASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPPASR)**\n\n本项目使用的环境：\n - Python 3.11\n - PaddlePaddle 2.6.1\n - Windows or Ubuntu\n\n## 更新记录\n\n - 2021.11.26: 修改集束解码bug。\n - 2021.11.09: 提供WenetSpeech数据集制作脚本。\n - 2021.09.05: 提供GUI界面识别部署。\n - 2021.09.04: 提供三个公开数据的预训练模型。\n - 2021.08.30: 支持中文数字转阿拉伯数字，具体请看[预测文档](.\u002Fdocs\u002Finfer.md)。\n - 2021.08.29: 完成训练代码和预测代码，同时完善相关文档。\n - 2021.08.07: 支持导出预测模型，使用预测模型进行推理。使用webrtcvad工具，实现长语音识别。\n - 2021.08.06: 将项目大部分的代码修改为PaddlePaddle2.0之后的新API。\n - 2024.12.21: 重构项目，抛弃就得fluid接口。\n\n## 模型下载\n|                                   数据集                                    | 循环神经网络的数量 | 循环神经网络的大小 | 错误率(贪心解码器) | 错误率(集束搜索解码器) | 下载地址 |\n|:------------------------------------------------------------------------:|:---------:|:---------:|:----------:|:------------:|:----:|\n|  [AIShell](https:\u002F\u002Fopenslr.magicdatatech.com\u002Fresources\u002F33) (179小时，普通话)   |     3     |   1024    |  0.08349   |   0.05942    |      |\n| [Librispeech](https:\u002F\u002Fopenslr.magicdatatech.com\u002Fresources\u002F12) (960小时，英语) |     3     |   1024    |  0.12490   |      \u002F       |      |\n|            [WenetSpeech](.\u002Fdocs\u002Fwenetspeech.md) (10000小时，普通话)            |     3     |   1024    |            |              |      |\n\n1. 中文的错误率为字错率（cer），英语的错误率为词错率（wer）。\n\n\n## 文档教程\n\n- [快速安装](.\u002Fdocs\u002Finstall.md)\n- [数据准备](.\u002Fdocs\u002Fdataset.md)\n- [WenetSpeech数据集](.\u002Fdocs\u002Fwenetspeech.md)\n- [合成语音数据](.\u002Fdocs\u002Fgenerate_audio.md)\n- [数据增强](.\u002Fdocs\u002Faugment.md)\n- [训练模型](.\u002Fdocs\u002Ftrain.md)\n- [集束搜索解码](.\u002Fdocs\u002Fbeam_search.md)\n- [执行评估](.\u002Fdocs\u002Feval.md)\n- [导出模型](.\u002Fdocs\u002Fexport_model.md)\n- 预测\n   - [本地模型](.\u002Fdocs\u002Finfer.md)\n   - [长语音模型](.\u002Fdocs\u002Finfer.md)\n   - [Web部署模型](.\u002Fdocs\u002Finfer.md)\n   - [Nvidia Jetson部署](.\u002Fdocs\u002Fnvidia-jetson.md)\n\n\n## 快速预测\n\n - 下载作者提供的模型或者训练模型，然后执行[导出模型](.\u002Fdocs\u002Fexport_model.md)，使用`infer_path.py`预测音频，通过参数`--wav_path`指定需要预测的音频路径，完成语音识别，详情请查看[模型部署](.\u002Fdocs\u002Finfer.md)。\n```shell script\npython infer_path.py --wav_path=.\u002Fdataset\u002Ftest.wav\n```\n\n输出结果：\n```\n-----------  Configuration Arguments -----------\nalpha: 1.2\nbeam_size: 10\nbeta: 0.35\ncutoff_prob: 1.0\ncutoff_top_n: 40\ndecoding_method: ctc_greedy\nenable_mkldnn: False\nis_long_audio: False\nlang_model_path: .\u002Flm\u002Fzh_giga.no_cna_cmn.prune01244.klm\nmean_std_path: .\u002Fdataset\u002Fmean_std.npz\nmodel_dir: .\u002Fmodels\u002Finfer\u002F\nto_an: True\nuse_gpu: True\nuse_tensorrt: False\nvocab_path: .\u002Fdataset\u002Fzh_vocab.txt\nwav_path: .\u002Fdataset\u002Ftest.wav\n------------------------------------------------\n消耗时间：132, 识别结果: 近几年不但我用书给女儿儿压岁也劝说亲朋不要给女儿压岁钱而改送压岁书\n```\n\n\n - Web部署\n\n![录音测试页面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_31fcc9b1b92c.jpg)\n\n\n - GUI界面部署\n\n![GUI界面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_f74ba4a71cee.jpg)\n\n## 打赏作者\n\n\u003Cbr\u002F>\n\u003Cdiv align=\"center\">\n\u003Cp>打赏一块钱支持一下作者\u003C\u002Fp>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_8fee2eae2436.jpg\" alt=\"打赏作者\" width=\"400\">\n\u003C\u002Fdiv>\n\n## 相关项目\n - 基于PaddlePaddle实现的声纹识别：[VoiceprintRecognition-PaddlePaddle](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FVoiceprintRecognition-PaddlePaddle)\n - 基于PaddlePaddle动态图实现的语音识别：[PPASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPPASR)\n - 基于Pytorch实现的语音识别：[MASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FMASR)\n","# DeepSpeech2 语音识别\n\n![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-red.svg)\n![python version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.7+-orange.svg)\n![support os](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux-yellow.svg)\n![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech?style=social)\n\nDeepSpeech2是基于PaddlePaddle实现的端到端自动语音识别（ASR）引擎，其论文为[《Baidu's Deep Speech 2 paper》](http:\u002F\u002Fproceedings.mlr.press\u002Fv48\u002Famodei16.pdf) ，本项目同时还支持各种数据增强方法，以适应不同的使用场景。支持在Windows，Linux下训练和预测，支持Nvidia Jetson等开发板推理预测，该分支为新版本，如果要使用旧版本，请查看[release\u002F1.1分支](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Ftree\u002Frelease\u002F1.1)。\n\n**动态图版本使用更简单，支持Deepspeech2、Conformer、Squeezeformer模型：[PPASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPPASR)**\n\n本项目使用的环境：\n - Python 3.11\n - PaddlePaddle 2.6.1\n - Windows or Ubuntu\n\n## 更新记录\n\n - 2021.11.26: 修改集束解码bug。\n - 2021.11.09: 提供WenetSpeech数据集制作脚本。\n - 2021.09.05: 提供GUI界面识别部署。\n - 2021.09.04: 提供三个公开数据的预训练模型。\n - 2021.08.30: 支持中文数字转阿拉伯数字，具体请看[预测文档](.\u002Fdocs\u002Finfer.md)。\n - 2021.08.29: 完成训练代码和预测代码，同时完善相关文档。\n - 2021.08.07: 支持导出预测模型，使用预测模型进行推理。使用webrtcvad工具，实现长语音识别。\n - 2021.08.06: 将项目大部分的代码修改为PaddlePaddle2.0之后的新API。\n - 2024.12.21: 重构项目，抛弃就得fluid接口。\n\n## 模型下载\n|                                   数据集                                    | 循环神经网络的数量 | 循环神经网络的大小 | 错误率(贪心解码器) | 错误率(集束搜索解码器) | 下载地址 |\n|:------------------------------------------------------------------------:|:---------:|:---------:|:----------:|:------------:|:----:|\n|  [AIShell](https:\u002F\u002Fopenslr.magicdatatech.com\u002Fresources\u002F33) (179小时，普通话)   |     3     |   1024    |  0.08349   |   0.05942    |      |\n| [Librispeech](https:\u002F\u002Fopenslr.magicdatatech.com\u002Fresources\u002F12) (960小时，英语) |     3     |   1024    |  0.12490   |      \u002F       |      |\n|            [WenetSpeech](.\u002Fdocs\u002Fwenetspeech.md) (10000小时，普通话)            |     3     |   1024    |            |              |      |\n\n1. 中文的错误率为字错率（cer），英语的错误率为词错率（wer）。\n\n\n## 文档教程\n\n- [快速安装](.\u002Fdocs\u002Finstall.md)\n- [数据准备](.\u002Fdocs\u002Fdataset.md)\n- [WenetSpeech数据集](.\u002Fdocs\u002Fwenetspeech.md)\n- [合成语音数据](.\u002Fdocs\u002Fgenerate_audio.md)\n- [数据增强](.\u002Fdocs\u002Faugment.md)\n- [训练模型](.\u002Fdocs\u002Ftrain.md)\n- [集束搜索解码](.\u002Fdocs\u002Fbeam_search.md)\n- [执行评估](.\u002Fdocs\u002Feval.md)\n- [导出模型](.\u002Fdocs\u002Fexport_model.md)\n- 预测\n   - [本地模型](.\u002Fdocs\u002Finfer.md)\n   - [长语音模型](.\u002Fdocs\u002Finfer.md)\n   - [Web部署模型](.\u002Fdocs\u002Finfer.md)\n   - [Nvidia Jetson部署](.\u002Fdocs\u002Fnvidia-jetson.md)\n\n\n## 快速预测\n\n - 下载作者提供的模型或者训练模型，然后执行[导出模型](.\u002Fdocs\u002Fexport_model.md)，使用`infer_path.py`预测音频，通过参数`--wav_path`指定需要预测的音频路径，完成语音识别，详情请查看[模型部署](.\u002Fdocs\u002Finfer.md)。\n```shell script\npython infer_path.py --wav_path=.\u002Fdataset\u002Ftest.wav\n```\n\n输出结果：\n```\n-----------  Configuration Arguments -----------\nalpha: 1.2\nbeam_size: 10\nbeta: 0.35\ncutoff_prob: 1.0\ncutoff_top_n: 40\ndecoding_method: ctc_greedy\nenable_mkldnn: False\nis_long_audio: False\nlang_model_path: .\u002Flm\u002Fzh_giga.no_cna_cmn.prune01244.klm\nmean_std_path: .\u002Fdataset\u002Fmean_std.npz\nmodel_dir: .\u002Fmodels\u002Finfer\u002F\nto_an: True\nuse_gpu: True\nuse_tensorrt: False\nvocab_path: .\u002Fdataset\u002Fzh_vocab.txt\nwav_path: .\u002Fdataset\u002Ftest.wav\n------------------------------------------------\n消耗时间：132, 识别结果: 近几年不但我用书给女儿儿压岁也劝说亲朋不要给女儿压岁钱而改送压岁书\n```\n\n\n - Web部署\n\n![录音测试页面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_31fcc9b1b92c.jpg)\n\n\n - GUI界面部署\n\n![GUI界面](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_f74ba4a71cee.jpg)\n\n## 打赏作者\n\n\u003Cbr\u002F>\n\u003Cdiv align=\"center\">\n\u003Cp>打赏一块钱支持一下作者\u003C\u002Fp>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_readme_8fee2eae2436.jpg\" alt=\"打赏作者\" width=\"400\">\n\u003C\u002Fdiv>\n\n## 相关项目\n - 基于PaddlePaddle实现的声纹识别：[VoiceprintRecognition-PaddlePaddle](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FVoiceprintRecognition-PaddlePaddle)\n - 基于PaddlePaddle动态图实现的语音识别：[PPASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPPASR)\n - 基于Pytorch实现的语音识别：[MASR](https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FMASR)","# PaddlePaddle-DeepSpeech 快速上手指南\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (Ubuntu) 或 Windows\n*   **Python 版本**：3.7+ (推荐 3.11)\n*   **深度学习框架**：PaddlePaddle 2.6.1+\n*   **硬件支持**：支持 CPU 推理，推荐使用 NVIDIA GPU 加速训练与预测；支持 Nvidia Jetson 等开发板部署。\n\n> **注意**：本项目已重构，抛弃了旧的 Fluid 接口，全面适配 PaddlePaddle 2.0+ 动态图模式。\n\n## 2. 安装步骤\n\n### 2.1 安装 PaddlePaddle\n建议优先使用国内镜像源加速安装。根据您的 CUDA 版本选择对应的命令（若无 GPU 请使用 CPU 版本）：\n\n```bash\n# 示例：安装 PaddlePaddle GPU 版本 (CUDA 11.8)\npython -m pip install paddlepaddle-gpu==2.6.1 -f https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fwhl\u002Flinux\u002Fmkl\u002Favx\u002Fstable.html\n\n# 若仅需 CPU 版本\npython -m pip install paddlepaddle==2.6.1 -f https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Fwhl\u002Flinux\u002Fmkl\u002Favx\u002Fstable.html\n```\n\n### 2.2 克隆项目代码\n从 GitHub 获取最新源码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech.git\ncd PaddlePaddle-DeepSpeech\n```\n\n### 2.3 安装依赖库\n安装项目运行所需的其他 Python 依赖：\n\n```bash\npip install -r requirements.txt\n```\n\n## 3. 基本使用\n\n本部分演示如何使用预训练模型进行最简单的语音识别预测。\n\n### 3.1 准备模型与数据\n1.  **下载模型**：从 README 提供的表格中下载预训练模型（如 AIShell 中文模型），解压后放入 `.\u002Fmodels\u002Finfer\u002F` 目录。\n2.  **准备测试音频**：确保您有一个 `.wav` 格式的测试音频文件，例如 `.\u002Fdataset\u002Ftest.wav`。\n3.  **配置文件**：确保词汇表 (`zh_vocab.txt`)、均值方差文件 (`mean_std.npz`) 和语言模型 (`lm\u002F...klm`) 已按文档要求放置在对应目录。\n\n### 3.2 执行预测\n使用 `infer_path.py` 脚本对指定音频进行识别。以下命令展示了最基础的调用方式：\n\n```bash\npython infer_path.py --wav_path=.\u002Fdataset\u002Ftest.wav\n```\n\n**参数说明：**\n*   `--wav_path`: 指定待识别的音频文件路径。\n*   其他参数（如 `use_gpu`, `decoding_method` 等）可在命令行中追加，或在代码默认配置中修改。\n\n### 3.3 查看结果\n运行成功后，终端将输出识别配置及结果，示例如下：\n\n```text\n-----------  Configuration Arguments -----------\nalpha: 1.2\nbeam_size: 10\nbeta: 0.35\ncutoff_prob: 1.0\ncutoff_top_n: 40\ndecoding_method: ctc_greedy\nenable_mkldnn: False\nis_long_audio: False\nlang_model_path: .\u002Flm\u002Fzh_giga.no_cna_cmn.prune01244.klm\nmean_std_path: .\u002Fdataset\u002Fmean_std.npz\nmodel_dir: .\u002Fmodels\u002Finfer\u002F\nto_an: True\nuse_gpu: True\nuse_tensorrt: False\nvocab_path: .\u002Fdataset\u002Fzh_vocab.txt\nwav_path: .\u002Fdataset\u002Ftest.wav\n------------------------------------------------\n消耗时间：132, 识别结果：近几年不但我用书给女儿儿压岁也劝说亲朋不要给女儿压岁钱而改送压岁书\n```\n\n> **提示**：如需进行长语音识别、Web 服务部署或 GUI 界面部署，请参考项目 `docs` 目录下的详细文档。","某省级档案馆正致力于将数十年积累的会议录音和口述历史音频转化为可检索的文本档案，以构建数字化知识库。\n\n### 没有 PaddlePaddle-DeepSpeech 时\n- **识别准确率低**：通用语音引擎难以适应方言口音和专业术语，导致中文语音转文字的字错率极高，后期人工校对成本巨大。\n- **长音频处理困难**：缺乏有效的长语音切割与拼接机制，处理长达数小时的会议录音时经常中断或丢失上下文信息。\n- **部署环境受限**：现有方案多依赖云端 API 或高性能服务器，无法在档案馆本地的老旧 Linux 服务器或边缘设备上离线运行，存在数据隐私泄露风险。\n- **定制训练复杂**：若想针对特定历史时期的语音特征优化模型，缺乏完善的数据增强工具和端到端训练流程，技术门槛过高。\n\n### 使用 PaddlePaddle-DeepSpeech 后\n- **高精度中文识别**：利用基于 WenetSpeech 等大规模数据集预训练的模型，配合集束搜索解码器，显著降低了字错率，能精准还原包含数字和专业词汇的口述内容。\n- **无缝长语音支持**：内置 webrtcvad 工具实现智能长语音切割，自动完成分段识别与结果合并，轻松处理数小时连续录音而不丢失细节。\n- **灵活本地化部署**：支持在 Windows、Linux 及 Nvidia Jetson 开发板上直接推理，无需联网即可在馆内服务器完成敏感数据的私有化处理。\n- **便捷模型微调**：提供完整的数据增强脚本和动态图训练接口，技术人员可快速利用馆藏特有音频微调模型，进一步提升特定场景下的识别效果。\n\nPaddlePaddle-DeepSpeech 通过高精度的离线中文识别能力与灵活的边缘部署特性，让海量历史语音档案的自动化数字化变得高效且安全。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyeyupiaoling_PaddlePaddle-DeepSpeech_0a78de9b.png","yeyupiaoling","夜雨飘零","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyeyupiaoling_4a486346.png","博客：https:\u002F\u002Fyeyupiaoling.cn",null,"https:\u002F\u002Fgithub.com\u002Fyeyupiaoling",[21,25,29,33],{"name":22,"color":23,"percentage":24},"Python","#3572A5",93,{"name":26,"color":27,"percentage":28},"JavaScript","#f1e05a",4,{"name":30,"color":31,"percentage":32},"HTML","#e34c26",2.1,{"name":34,"color":35,"percentage":36},"CSS","#663399",0.8,759,148,"2026-03-20T09:03:00","Apache-2.0",3,"Linux, Windows","可选（支持 use_gpu=True），需 NVIDIA GPU，具体型号和显存未说明；支持 TensorRT 加速；支持 Nvidia Jetson 开发板推理","未说明",{"notes":46,"python":47,"dependencies":48},"项目已重构，抛弃旧的 Fluid 接口，仅支持 PaddlePaddle 2.0+ 新 API。支持 DeepSpeech2、Conformer、Squeezeformer 模型（动态图版本建议参考 PPASR 项目）。提供中文数字转阿拉伯数字功能。支持长语音识别（结合 webrtcvad）。预训练模型涵盖 AIShell、Librispeech、WenetSpeech 数据集。","3.11",[49,50],"PaddlePaddle==2.6.1","webrtcvad",[52,53],"音频","开发框架",[55,56,57,58,59,60,61,62,63,64],"paddlepaddle","deepspeech","chinese","asr","deepspeech2","docker","nvidia-docker","speech-recognition","speech-to-text","deep-learning",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T05:44:27.099252",[70,75,80,85,90,95,100,105],{"id":71,"question_zh":72,"answer_zh":73,"source_url":74},13053,"训练时遇到 'Out of memory' (显存不足) 错误如何解决？","当报错提示 'ResourceExhaustedError: Out of memory' 时，请执行以下操作：\n1. 检查是否有其他进程占用了 GPU，如有请停止它们。\n2. 减小模型配置的 batch_size 参数。\n3. 如果不想自己训练，可以直接下载作者提供的预训练模型使用，避免训练过程中的显存压力。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F60",{"id":76,"question_zh":77,"answer_zh":78,"source_url":79},13048,"项目是否提供已经训练好的模型？","作者提供了预训练模型下载，无需从头训练。如果本项目模型不满足需求，也可以尝试作者的另一项目 PPASR（https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPPASR）。数据及模型通常基于 thchs30 数据集。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F126",{"id":81,"question_zh":82,"answer_zh":83,"source_url":84},13049,"如何在预训练模型基础上使用自己的数据进行增强训练（Fine-tuning）？","在 train.py 中配置以下两个参数即可：\n1. pretrained_model：设置为预训练模型的路径（例如 '.\u002Fmodels\u002Fstep_final'），用于加载预训练权重。\n2. resume_model：如果需要恢复训练状态，可设置为具体的参数文件路径（例如 '.\u002Fmodels\u002Fstep_final\u002F50.pdparams'），否则设为 None。\n注意：语音识别训练非常消耗资源和数据集，需要耐心等待。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F99",{"id":86,"question_zh":87,"answer_zh":88,"source_url":89},13050,"运行时报错卡住或提示显卡驱动问题，如何解决？","这通常是本地显卡驱动版本与 PaddlePaddle 不兼容导致的。解决方案是尝试不使用 GPU 运行，将代码中的 use_gpu 参数设置为 False。如果 CPU 运行正常，则确认为显卡环境配置问题，需检查或更新显卡驱动。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F47",{"id":91,"question_zh":92,"answer_zh":93,"source_url":94},13051,"导出模型（export_model.py）时报错怎么办？","该错误通常是因为数据集目录下的生成文件冲突或损坏。解决方法是：\n1. 删除 dataset 目录下所有已生成的文件。\n2. 重新解压原始数据文件。\n3. 复制全部文件夹替换项目中的对应文件。\n4. 重新运行导出命令。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F65",{"id":96,"question_zh":97,"answer_zh":98,"source_url":99},13052,"音频长度超过 15 秒导致显存溢出或 Loss 变为 NaN 如何处理？","长音频容易导致显存不足或梯度爆炸。建议采取以下措施：\n1. 减小 batch_size（例如从 16 减至 8）。\n2. 降低学习率进行测试：如果当前学习率（如 5e-5）出现 NaN，停止训练并尝试更小的学习率（如 1e-6）。\n3. 检查音频数据本身，确认是否存在异常长的单句语音。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F12",{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},13054,"在 NVIDIA Jetson 设备上开启 GPU 推理报错，但 CPU 正常，怎么解决？","Jetson 设备对 PaddlePaddle 版本有特殊要求。官方可能未提供特定版本（如 1.8.5）的预编译包，而高版本（如 2.0.2+）可能存在兼容性差异。\n建议方案：\n1. 参考项目文档中关于 'NVIDIA Jetson 预测环境搭建' 的专门章节。\n2. 尝试编译适配 Jetson 的 PaddlePaddle 版本，或者暂时使用 CPU 模式（use_gpu=False）进行推理，虽然速度较慢但能保证运行。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F49",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},13055,"运行 setup.sh 安装依赖时出现 'llvm-config failed executing' 错误？","该错误通常是因为缺少 LLVM 相关依赖或环境变量未配置。解决方法：\n1. 确保系统已安装 LLVM 工具链。\n2. 检查依赖环境是否完整安装。\n3. 注意：如果是编译 swig_decoders 时长时间无反应，可能是在正常编译中，需要耐心等待，不要强制中断。","https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FPaddlePaddle-DeepSpeech\u002Fissues\u002F22",[111],{"id":112,"version":113,"summary_zh":114,"released_at":115},71731,"1.0","DeepSpeech2语音识别模型1.0版本所使用的飞桨（PaddlePaddle）版本为2.1.1。","2021-08-05T15:08:22",[117,127,136,144,152,164],{"id":118,"name":119,"github_repo":120,"description_zh":121,"stars":122,"difficulty_score":41,"last_commit_at":123,"category_tags":124,"status":66},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[53,125,126],"图像","Agent",{"id":128,"name":129,"github_repo":130,"description_zh":131,"stars":132,"difficulty_score":65,"last_commit_at":133,"category_tags":134,"status":66},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[53,126,135],"语言模型",{"id":137,"name":138,"github_repo":139,"description_zh":140,"stars":141,"difficulty_score":65,"last_commit_at":142,"category_tags":143,"status":66},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[53,125,126],{"id":145,"name":146,"github_repo":147,"description_zh":148,"stars":149,"difficulty_score":65,"last_commit_at":150,"category_tags":151,"status":66},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[53,135],{"id":153,"name":154,"github_repo":155,"description_zh":156,"stars":157,"difficulty_score":65,"last_commit_at":158,"category_tags":159,"status":66},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[125,160,161,162,126,163,135,53,52],"数据工具","视频","插件","其他",{"id":165,"name":166,"github_repo":167,"description_zh":168,"stars":169,"difficulty_score":41,"last_commit_at":170,"category_tags":171,"status":66},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[126,125,53,135,163]]