[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ARM-software--ML-KWS-for-MCU":3,"tool-ARM-software--ML-KWS-for-MCU":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":111,"github_topics":112,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":119,"updated_at":120,"faqs":121,"releases":156},8214,"ARM-software\u002FML-KWS-for-MCU","ML-KWS-for-MCU","Keyword spotting on Arm Cortex-M Microcontrollers","ML-KWS-for-MCU 是一个专为 Arm Cortex-M 系列微控制器设计的关键词检测（KWS）开源项目。它旨在解决在内存和算力极其有限的嵌入式设备上，如何高效运行深度学习语音识别模型的难题，让小型硬件也能听懂如“打开灯”、“你好”等特定指令。\n\n这套工具非常适合嵌入式开发工程师、物联网研究者以及希望在端侧部署 AI 功能的开发者使用。其核心亮点在于提供了从模型训练、测试到量化的完整流程。用户不仅可以利用提供的脚本复现论文中提到的 DNN、CNN、LSTM 等多种神经网络架构，还能直接获取经过预训练的模型文件。更贴心的是，项目包含了详细的量化指南和部署示例代码，帮助开发者将庞大的 TensorFlow 模型压缩并转化为适合微控制器运行的格式，大幅降低了在资源受限设备上实现“始终在线”语音交互的门槛。无论是进行学术验证还是开发实际的智能硬件产品，ML-KWS-for-MCU 都是一个实用且高效的起点。","# Keyword spotting for Microcontrollers \n\nThis repository consists of the tensorflow models and training scripts used \nin the paper: \n[Hello Edge: Keyword spotting on Microcontrollers](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07128.pdf). \nThe scripts are adapted from [Tensorflow examples](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Fexamples\u002Fspeech_commands) \nand some are repeated here for the sake of making these scripts self-contained.\n\nTo train a DNN with 3 fully-connected layers with 128 neurons in each layer, run:\n\n```\npython train.py --model_architecture dnn --model_size_info 128 128 128 \n```\nThe command line argument *--model_size_info* is used to pass the neural network layer\ndimensions such as number of layers, convolution filter size\u002Fstride as a list to models.py, \nwhich builds the tensorflow graph based on the provided model architecture \nand layer dimensions. \nFor more info on *model_size_info* for each network architecture see \n[models.py](models.py).\nThe training commands with all the hyperparameters to reproduce the models shown in the \n[paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07128.pdf) are given [here](train_commands.txt).\n\nTo run inference on the trained model from a checkpoint on train\u002Fval\u002Ftest set, run:\n```\npython test.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \n\u003Ccheckpoint path>\n```\n\nTo freeze the trained model checkpoint into a .pb file, run:\n```\npython freeze.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \n\u003Ccheckpoint path> --output_file dnn.pb\n```\n\n## Pretrained models\n\nTrained models (.pb files) for different neural network architectures such as DNN,\nCNN, Basic LSTM, LSTM, GRU, CRNN and DS-CNN shown in \nthis [arXiv paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07128.pdf) are added in \n[Pretrained_models](Pretrained_models). Accuracy of the models on validation set, \ntheir memory requirements and operations per inference are also summarized in the \nfollowing table.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FARM-software_ML-KWS-for-MCU_readme_0d5b0020460f.png\">\n\nTo run an audio file through the trained model (e.g. a DNN) and get top prediction, \nrun:\n```\npython label_wav.py --wav \u003Caudio file> --graph Pretrained_models\u002FDNN\u002FDNN_S.pb \n--labels Pretrained_models\u002Flabels.txt --how_many_labels 1\n```\n\n## Quantization Guide and Deployment on Microcontrollers\n\nA quick guide on quantizing the KWS neural network models is [here](Deployment\u002FQuant_guide.md). \nThe example code for running a DNN model on a Cortex-M development board is also provided [here](Deployment). \n","# 微控制器上的关键词检测\n\n本仓库包含论文《Hello Edge：微控制器上的关键词检测》中使用的 TensorFlow 模型和训练脚本：\n[Hello Edge: Keyword spotting on Microcontrollers](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07128.pdf)。这些脚本改编自 [TensorFlow 示例](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Ftree\u002Fmaster\u002Ftensorflow\u002Fexamples\u002Fspeech_commands)，其中部分代码在此重复，以确保脚本的自洽性。\n\n要训练一个包含 3 层全连接层、每层 128 个神经元的 DNN，请运行以下命令：\n\n```\npython train.py --model_architecture dnn --model_size_info 128 128 128\n```\n\n命令行参数 `--model_size_info` 用于将神经网络的层维度（如层数、卷积核大小\u002F步幅等）以列表形式传递给 `models.py`，后者会根据提供的模型架构和层维度构建 TensorFlow 计算图。有关各网络架构下 `model_size_info` 的更多信息，请参阅 [models.py](models.py)。\n\n用于复现论文中所展示模型的所有超参数的训练命令已列于 [train_commands.txt](train_commands.txt) 中。\n\n要在训练\u002F验证\u002F测试集上对检查点中的已训练模型进行推理，请运行：\n\n```\npython test.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \u003Ccheckpoint path>\n```\n\n要将已训练的模型检查点冻结为 `.pb` 文件，请运行：\n\n```\npython freeze.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \u003Ccheckpoint path> --output_file dnn.pb\n```\n\n## 预训练模型\n\n本文 [arXiv 论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1711.07128.pdf) 中展示的不同神经网络架构（如 DNN、CNN、Basic LSTM、LSTM、GRU、CRNN 和 DS-CNN）的预训练模型（`.pb` 文件）已添加至 [Pretrained_models](Pretrained_models) 目录。下表还汇总了这些模型在验证集上的准确率、内存需求以及每次推理所需的运算次数。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FARM-software_ML-KWS-for-MCU_readme_0d5b0020460f.png\">\n\n要将音频文件输入到已训练的模型（例如 DNN）并获取最高概率的预测结果，请运行：\n\n```\npython label_wav.py --wav \u003C音频文件> --graph Pretrained_models\u002FDNN\u002FDNN_S.pb --labels Pretrained_models\u002Flabels.txt --how_many_labels 1\n```\n\n## 量化指南与微控制器部署\n\n关于 KWS 神经网络模型量化的简要指南请参见 [Deployment\u002FQuant_guide.md](Deployment\u002FQuant_guide.md)。此外，还提供了在 Cortex-M 开发板上运行 DNN 模型的示例代码，详情请参阅 [Deployment](Deployment) 目录。","# ML-KWS-for-MCU 快速上手指南\n\n本指南帮助开发者快速在微控制器（MCU）上部署关键词检测（KWS）模型。该项目基于 TensorFlow，复现了论文《Hello Edge: Keyword spotting on Microcontrollers》中的模型与训练流程。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 16.04+) 或 macOS。Windows 用户建议使用 WSL 或 Docker。\n*   **Python 版本**：Python 3.6 - 3.8 (需兼容对应的 TensorFlow 版本)。\n*   **核心依赖**：\n    *   TensorFlow (建议版本 1.x 或兼容的早期 2.x 版本，具体视原仓库 `requirements.txt` 而定)\n    *   NumPy\n    *   SciPy\n*   **硬件加速**（可选）：如需加快训练速度，建议配备 NVIDIA GPU 并安装 CUDA\u002FcuDNN。\n\n**安装依赖命令：**\n```bash\npip install tensorflow numpy scipy sox\n# 如果下载速度慢，推荐使用国内镜像源\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow numpy scipy sox\n```\n\n## 安装步骤\n\n本项目主要为脚本集合，无需复杂的编译安装过程。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU.git\n    cd ML-KWS-for-MCU\n    ```\n\n2.  **验证环境**\n    确保 `python` 命令可用，并能导入 tensorflow 模块：\n    ```bash\n    python -c \"import tensorflow as tf; print(tf.__version__)\"\n    ```\n\n## 基本使用\n\n以下是从训练模型到推理预测的最简流程。\n\n### 1. 训练模型\n训练一个包含 3 个全连接层（每层 128 个神经元）的 DNN 模型：\n\n```bash\npython train.py --model_architecture dnn --model_size_info 128 128 128\n```\n*注：训练完成后，模型检查点将保存在默认输出目录中。如需复现论文中的所有超参数配置，可参考项目内的 `train_commands.txt` 文件。*\n\n### 2. 模型测试\n使用训练好的检查点对验证集或测试集进行推理评估：\n\n```bash\npython test.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \u003Ccheckpoint path>\n```\n请将 `\u003Ccheckpoint path>` 替换为实际生成的检查点文件路径。\n\n### 3. 冻结模型\n将训练好的检查点转换为单一的 `.pb` 文件，以便部署：\n\n```bash\npython freeze.py --model_architecture dnn --model_size_info 128 128 128 --checkpoint \u003Ccheckpoint path> --output_file dnn.pb\n```\n\n### 4. 音频推理\n使用冻结后的模型对单个音频文件进行关键词检测：\n\n```bash\npython label_wav.py --wav \u003Caudio file> --graph Pretrained_models\u002FDNN\u002FDNN_S.pb --labels Pretrained_models\u002Flabels.txt --how_many_labels 1\n```\n*   `\u003Caudio file>`：替换为您要测试的 `.wav` 音频文件路径。\n*   若直接使用预训练模型，`--graph` 和 `--labels` 路径可指向 `Pretrained_models` 目录下对应的文件。\n\n### 5. 部署至微控制器\n完成模型量化与 MCU 部署的详细步骤，请参考项目内的以下文档：\n*   **量化指南**：`Deployment\u002FQuant_guide.md`\n*   **Cortex-M 示例代码**：`Deployment` 目录","某嵌入式开发团队正在为一款低功耗智能温控器开发语音控制功能，希望用户能通过说出“打开空调”或“调高温度”等指令进行操作，且设备需完全离线运行以保护隐私。\n\n### 没有 ML-KWS-for-MCU 时\n- **硬件成本高昂**：由于传统语音识别模型体积庞大，必须选用高性能、高功耗的 Application Processor 芯片，导致单件硬件成本大幅增加。\n- **开发门槛极高**：团队缺乏将大型 TensorFlow 模型裁剪并移植到资源受限的 Cortex-M 微控制器的经验，算法落地周期长达数月。\n- **功耗无法满足要求**：现有方案在待机监听状态下电流过大，严重缩短电池供电设备的续航时间，无法实现“始终在线”。\n- **依赖云端服务**：若采用云端识别方案，不仅增加了网络延迟，还引发了用户对家庭语音数据隐私泄露的担忧。\n\n### 使用 ML-KWS-for-MCU 后\n- **低成本芯片即可胜任**：利用该工具提供的量化指南和预训练模型（如 DNN 或 DS-CNN），成功将模型压缩至几十 KB，直接在廉价的 Cortex-M 芯片上流畅运行。\n- **快速复现与部署**：通过内置的训练脚本和冻结模型工具，团队仅用一周就完成了从模型训练、量化到嵌入式代码部署的全流程。\n- **极致低功耗监听**：优化后的模型每次推理仅需极少的运算量，使设备在麦克风常开监听模式下的功耗降低至微安级，完美适配电池场景。\n- **纯本地离线运行**：所有关键词检测均在本地微控制器完成，无需联网，既实现了零延迟响应，又彻底消除了隐私安全隐患。\n\nML-KWS-for-MCU 让资源极度受限的微控制器具备了高效的本地语音唤醒能力，真正推动了 AI 在边缘端的低成本规模化落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FARM-software_ML-KWS-for-MCU_5e160ed0.png","ARM-software","Arm Software","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FARM-software_8286f64a.png","",null,"www.arm.com","https:\u002F\u002Fgithub.com\u002FARM-software",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"C","#555555",74,{"name":86,"color":87,"percentage":88},"C++","#f34b7d",12.7,{"name":90,"color":91,"percentage":92},"Objective-C","#438eff",9.4,{"name":94,"color":95,"percentage":96},"Python","#3572A5",3.2,{"name":98,"color":99,"percentage":100},"Makefile","#427819",0.8,1232,425,"2026-04-15T12:51:59","Apache-2.0",4,"未说明",{"notes":108,"python":106,"dependencies":109},"该项目基于 TensorFlow，主要用于在微控制器（如 Cortex-M）上部署关键词识别模型。训练脚本改编自 TensorFlow 官方示例。虽然训练过程通常在通用计算环境运行，但其核心目标是生成可在资源受限的 MCU 上运行的量化模型（.pb 文件）。README 中未明确指定具体的操作系统、Python 版本或硬件配置要求，通常意味着它依赖于标准 TensorFlow 环境的默认支持配置。",[110],"tensorflow",[13,14],[113,114,115,116,117,118],"arm","machine-learning","python","cmsis-nn","deep-neural-networks","microcontrollers","2026-03-27T02:49:30.150509","2026-04-17T09:52:34.191893",[122,127,132,137,142,147,152],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},36757,"为什么在开发板上部署 DS-CNN 模型时，只要有声音就会随机识别为某个关键词（如 \"left\" 或 \"down\"），或者出现随机检测？","这通常是由代码版本过旧或权重文件错误导致的。首先，请确保更新到最新版本的代码库，提交哈希 b6e13d6976c098cb6a564384b4c80a2c387d27b5 修复了相关的实时测试问题。其次，检查您使用的权重文件（weights.h），许多用户反馈自行训练的权重格式不正确会导致此现象，建议先使用项目提供的默认权重文件进行测试以排除模型本身的问题。如果使用的是自定义权重，请确保计算出的位移值（shift values）已正确应用到 MCU 代码中（例如 Deployment\u002FSource\u002FNN\u002FDS_CNN\u002Fds_cnn.h）。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F47",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},36758,"修改想要识别的关键词（wanted_words）后，训练出的模型准确率极低（例如只有 24%），如何解决？","准确率极低通常是因为训练数据不足或参数配置不当。当增加关键词数量时，必须相应增加训练步数（how_many_training_steps）和数据量。例如，有用户在使用 10 个以上关键词时，将训练步数设置为 \"3000,3000,3000\" 并配合充足的数据集获得了 99% 的训练准确率。此外，请确保测试集和训练集的关键词列表完全一致，并检查混淆矩阵以确认是否发生了特定的类别混淆。如果仅在特定数据集上表现不佳，可能需要重新采集更多样化的语音数据。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F84",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},36759,"在 bias_shift 计算中出现负值（需要右移）时，应该如何处理？","如果在最终全连接层计算出 bias_shift 为负值（例如 -2），意味着需要进行右移操作。虽然某些工具界面可能没有直接的右移选项，但这通常表明权重或偏置的量化参数计算有误。多位用户反馈，遇到此类移位问题时，根本原因往往是生成的权重文件（weights）不正确。请重新检查权重量化过程，确保权重数据的格式与项目要求的完全一致，修正权重后通常能解决移位异常的问题。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F96",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},36760,"如何获取 CRNN 模型（包含 GRU 或 LSTM）的代码以实现部署？","CRNN 模型（包括 GRU 和 LSTM 层）的代码已经包含在项目的教程中。您可以直接查看项目根目录或相关文件夹下的 models.py 文件，其中定义了这些循环神经网络层的实现。不需要等待额外的库发布，直接使用该项目提供的 Python 脚本即可构建和导出相应的模型结构。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F83",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},36761,"使用较短的 WAV 文件（如 1500ms）或少量训练样本（如 200 个）在 MCU 上效果很差，只调整帧长参数有用吗？","仅调整 FRAME_LEN_MS、FRAME_SHIFT_MS 和 NUM_FRAMES 等参数通常不足以解决因数据量过少导致的效果差问题。核心问题在于训练样本不足（200 个样本对于深度学习任务太少）以及音频长度与模型预期不匹配。建议首先增加训练数据量，并确保生成的权重文件（weights.h）格式正确。有用户反馈，即使简单测试通过，如果自定义训练的权重在 MCU 上结果全错，往往是因为权重生成过程未遵循项目提供的具体格式要求，应优先对比项目提供的标准权重文件进行排查。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F95",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},36762,"在 Windows 上使用 mbed new 命令创建项目时，下载库文件卡在 \"might take a minute\" 超过一小时怎么办？","这是 Windows 环境下常见的网络或环境问题。解决方案是在 Linux 环境中运行编译命令。用户可以安装 VirtualBox 或 VMware 虚拟机，在 Ubuntu 系统中克隆项目并执行 mbed 相关命令。有用户证实，在虚拟机的 Ubuntu 系统中可以成功编译 FRDM-K64F 和 NUCLEO_F411RE 等开发板的项目，从而绕过 Windows 下的下载卡顿问题。","https:\u002F\u002Fgithub.com\u002FARM-software\u002FML-KWS-for-MCU\u002Fissues\u002F32",{"id":153,"question_zh":154,"answer_zh":155,"source_url":131},36763,"如何在 STM32F746NG 等开发板上正确编译和部署实时测试程序？","请使用 mbed compile 命令并指定正确的源路径和配置文件。参考命令如下：\nmbed compile -m DISCO_F746NG -t GCC_ARM --source . --source ..\u002FSource --source ..\u002FExamples\u002Frealtime_test --source ..\u002FCMSIS_5\u002FCMSIS\u002FNN\u002FInclude --source ..\u002FCMSIS_5\u002FCMSIS\u002FNN\u002FSource --source ..\u002FCMSIS_5\u002FCMSIS\u002FDSP\u002FInclude --source ..\u002FCMSIS_5\u002FCMSIS\u002FDSP\u002FSource --source ..\u002FCMSIS_5\u002FCMSIS\u002FCore\u002FInclude --profile ..\u002Frelease_O3.json -j 8\n注意确保 MBED_ARM_PATH 环境变量设置正确（如果设置了但不存在会报错），并且所有相对路径（如 ..\u002FSource）相对于您的工作目录是正确的。如果遇到问题，请检查是否遵循了 GitHub 上的部署指南。",[]]