[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-STMicroelectronics--stm32ai-modelzoo":3,"tool-STMicroelectronics--stm32ai-modelzoo":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":78,"stars":81,"forks":82,"last_commit_at":83,"license":84,"difficulty_score":10,"env_os":85,"env_gpu":86,"env_ram":87,"env_deps":88,"category_tags":99,"github_topics":100,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":146},3312,"STMicroelectronics\u002Fstm32ai-modelzoo","stm32ai-modelzoo","AI Model Zoo for STM32 devices","stm32ai-modelzoo 是意法半导体专为 STM32 微控制器打造的开源 AI 模型库，旨在帮助开发者轻松将人工智能能力部署到资源受限的嵌入式设备中。它解决了在低功耗 MCU 上运行复杂 AI 模型时面临的优化难、适配慢等痛点，提供了一系列经过预训练且针对 STM32 硬件深度优化的参考模型，涵盖图像分类、目标检测、人脸识别、语音增强等多种应用场景。\n\n无论是嵌入式软件工程师、AI 算法研究人员，还是希望快速验证原型的硬件开发者，都能从中获益。用户不仅可以直接使用现成模型进行快速部署，还能利用提供的脚本基于自定义数据集进行迁移学习或从头训练，并支持模型的量化、评估与性能基准测试。\n\n其核心亮点在于全面支持 PyTorch、TensorFlow 和 ONNX 三大主流框架，实现了统一的端到端工作流。最新版本更引入了混合精度模型（如 4bit 权重\u002F8bit 激活值）以进一步压缩模型体积，并提供基于 Docker 的一键式开发环境，大幅降低了嵌入式 AI 的开发门槛，让智能应用能在 STM32 设备上高效运行。","# STMicroelectronics – STM32 model zoo\n\nWelcome to STM32 model zoo!\n\n\n**🎉 We are excited to announce that the STM32 AI model zoo now includes comprehensive PyTorch support, joining TensorFlow and ONNX.\nIt now features a vast library of PyTorch models, all seamlessly integrated with our end-to-end workflows. Whether you want to train, evaluate, quantize, benchmark, or deploy, you’ll find everything you need – plus the flexibility to choose between PyTorch, TensorFlow, and ONNX. Dive into the expanded \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002F\">STM32 model zoo\u003C\u002Fa> and take your AI projects further than ever on STM32 devices.**\n\n---\n\nThe STM32 AI model zoo is a collection of reference machine learning models that are optimized to run on STM32\nmicrocontrollers.\nAvailable on GitHub, this is a valuable resource for anyone looking to add AI capabilities to their STM32-based\nprojects.\n\n- A large collection of application-oriented models ready for re-training\n- Pre-trained models on reference datasets, available across several frameworks.\n\n**Scripts to easily retrain, quantize, evaluate or benchmark any model from user datasets as well as application code examples automatically generated from user AI model can be found in the  [stm32ai-modelzoo-services GitHub](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services)**\n\n\nThese models can be useful for quick deployment if you are interested in the categories that they were trained. We also provide training scripts to do transfer learning or to train your own model from scratch on your custom dataset.\n\nPerformance metrics on reference STM32 MCU, NPU, and MPU are provided for both float and quantized models.\n\n\n\n## What's new in releases :\n\n\u003Cdetails open>\u003Csummary>\u003Cb>4.0:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* Major PyTorch support for Image Classification (IC) and Object Detection (OD)\n* Support of **STEdgeAI Core v3.0.0**\n* New training and evaluation scripts for PyTorch models\n* Expanded model selection and improved documentation\n* Unified workflow for TensorFlow and PyTorch\n* Performance and usability improvements\n* New use cases: **Face Detection (FD)**, **Arc Fault Detection (AFD)**, **Re-Identification (ReID)**\n* New mixed precision models (Weights 4-bits, Activations 8-bits) for IC and OD use cases\n* Support for Keras 3.8.0, TensorFlow 2.18.0, PyTorch 2.7.1, and ONNX 1.16.1\n* Python software architecture rework\n* Docker-based setup available, with a ready-to-use image including the full software stack.\n\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.2:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* Support for **STEdgeAI Core v2.2.0** (STM32Cube.AI v10.2.0).\n* Support of **X-Linux-AI v6.1.0** support for MPU.\n* New use cases added: **StyleTransfer** and **FastDepth**.\n* New models added: **Face Detection**, available in the Object Detection use case, and **Face Landmarks**, available in the Pose Estimation use case.\n* Architecture and codebase clean-up.\n\u003C\u002Fdetails>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.1:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* Included additional models support (yolov11n, st_yoloxn variants)\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.0:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* Included additional models compatible with the [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fevaluation-tools\u002Fstm32n6570-dk) board.\n* Expanded models in all use cases.\n* Expanded use case support to include **Instance Segmentation** and **Speech Enhancement**.\n* Added `Pytorch` support through the speech enhancement Use Case.\n* Model Zoo hosted on \u003Ca href=\"#Hugging Face\">Hugging Face\u003C\u002Fa>\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>2.1:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* Included additional models compatible with the [STM32MP257F-EV1](https:\u002F\u002Fwww.st.com\u002Fen\u002Fevaluation-tools\u002Fstm32mp257f-ev1) board.\n* Expanded use case support to include **Pose Estimation** and **Semantic Segmentation**.\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>2.0:\u003C\u002Fb>\u003C\u002Fsummary>\n\n* An aligned and **uniform architecture** for all the use case\n\u003C\u002Fdetails>\n\n\n## Find below a summary of available use cases\n| Use Case             | Quick definition  | Suitable Targets for deployment |  Smart example  |\n|--------------------|------------------|-----------------|------------ |\n| [Image Classification](.\u002Fimage_classification\u002FREADME.md)   | Classifies the content of an image within a predefined set of classes.     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32H7\u002FREADME.md) \u003Cbr> [NUCLEO-H743ZI2](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32H7\u002FREADME.md) \u003Cbr>  [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_055da863f4e7.jpg) |\n| [Object Detection](.\u002Fobject_detection\u002FREADME.md)   | Detects, locates and estimates the occurences probability of predefined objects from input images.     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fobject_detection\u002FSTM32H7\u002FREADME.md) \u003Cbr>  [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fobject_detection\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_5f1ecd974300.jpg) |\n| [Face Detection](.\u002Fface_detection\u002FREADME.md)   | Detects, locates and estimates the occurences probability of predefined faces and keypoints from input images.     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fface_detection\u002FSTM32H7\u002FREADME.md) \u003Cbr>   [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_ad3858aec8cc.png) |\n| [Pose Estimation](.\u002Fpose_estimation\u002FREADME.md)   | Detects key points on some specific objects (people, hand, face, ...).     | [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fpose_estimation\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_f93008f11f39.jpg) |\n| [Semantic Segmentation](.\u002Fsemantic_segmentation\u002FREADME.md)   | Associates a label to every pixel in an image to recognize a collection of pixels that form distinct categories.     | [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_21c027ebbccb.jpg) |\n| [Instance Segmentation](.\u002Finstance_segmentation\u002FREADME.md)   | Associates a label to every pixel in an image to recognize a collection of pixels that form distinct categories or instances of each category.     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_9b116ba2093a.jpg) |\n| [Depth Estimation](.\u002Fdepth_estimation\u002FREADME.md)   | Predict the distance to objects from an image as a pixel-wise depth map.     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr>  | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_7377a0912354.jpg) |\n| [Neural Style Transfer](.\u002Fneural_style_transfer\u002FREADME.md)   | applies the artistic style of one image to the content of another image.     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr>  | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_7dd5469625f2.jpg) |\n| [Audio Event Detection](.\u002Faudio_event_detection\u002FREADME.md)   | Detection of a specific audio events.     | [B-U585I-IOT02A ](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_da9f047daded.jpg) |\n| [Speech Enhancement](.\u002Fspeech_enhancement\u002FREADME.md)   | Enhancement of the audio perception in a noisy environment.     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_b08d12c9c94e.jpg) |\n| [Human Activity Recognition](.\u002Fhuman_activity_recognition\u002FREADME.md)   | Recognizes various activities like walking, running, ...     |  [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_b8d295138703.jpg) |\n| [Hand Posture Recognition](.\u002Fhand_posture\u002FREADME.md)   | Recognizes a set of hand postures using Time of Flight (ToF) sensor     |  [NUCLEO-F401RE](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fhand_posture\u002FSTM32F4\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_16a1fefac2e7.jpg) |\n| [Arc Fault Detection](.\u002Farc_fault_detection\u002FREADME.md)   | Detects electrical arc faults from current signals.     |  [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_56db72bec8ef.jpg) |\n| [Re-Identification](.\u002Fre_identification\u002FREADME.md)   | Reidentifies a person or object across different images or video frames.     | [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_ae9f33ded65e.jpg)\n\u003C\u002Fdiv>\n\n\n## \u003Ca id=\"Hugging Face\">Hugging Face host\u003C\u002Fa>\nThe Model Zoo Dashboard is hosted in a Docker environment under the [STMicroelectronics Organization](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics). This dashboard is developed using Dash Plotly and Flask, and it operates within a Docker container.\nIt can also run locally if Docker is installed on your system. The dashboard provides the following features:\n\n•\tTraining: Train machine learning models.\n•\tEvaluation: Evaluate the performance of models.\n•\tBenchmarking: Benchmark your model using ST Edge AI Developer Cloud\n•\tVisualization: Visualize model performance and metrics.\n•\tUser Configuration Update: Update and modify user configurations directly from the dashboard.\n•\tOutput Download: Download model results and outputs.\n\nYou can also find our models on Hugging Face under the [STMicroelectronics Organization](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics). Each model from the STM32AI Model Zoo is represented by a model card on Hugging Face, providing all the necessary information about the model and linking to dedicated scripts.\n\n\n## Before you start\nThe model zoo repo is using the `git lfs`, so the users need to install and set up the `git lfs` before cloning the repo. This can be done by following the instructions below.\n\n\n- **On Ubuntu:**\n    ```sh\n    sudo apt-get install git-lfs\n    ```\n\n- **On Windows:**\n    Download the Git LFS extension [here](https:\u002F\u002Fgit-lfs.github.com\u002F).\n\nOnce downloaded and installed, set up Git LFS for your user account by running the following command:\n\n```sh\ngit lfs install\n```\nYou should see the message `Git LFS initialized.` if the command runs successfully.\n\n**NOTE:** If you do not see the message `Git LFS initialized.`, visit the [GitHub documentation page](https:\u002F\u002Fdocs.github.com\u002Fen\u002Frepositories\u002Fworking-with-files\u002Fmanaging-large-files\u002Finstalling-git-large-file-storage) for more details and support.\n\n### Clone the Repository\nIn order to use the config files examples from the modelzoo-services, without the need to change the model_path, it is needed to clone the modelzoo below in the same folder as the modelzoo services.\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo.git\n```\n\n\n","# 意法半导体 – STM32 模型库\n\n欢迎来到 STM32 模型库！\n\n\n**🎉 我们很高兴地宣布，STM32 AI 模型库现已新增对 PyTorch 的全面支持，与 TensorFlow 和 ONNX 并列。现在，它包含一个庞大的 PyTorch 模型库，所有模型都与我们的端到端工作流无缝集成。无论您是想训练、评估、量化、基准测试还是部署模型，都能在这里找到所需的一切——同时还能灵活选择 PyTorch、TensorFlow 或 ONNX。立即探索扩展后的 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002F\">STM32 模型库\u003C\u002Fa>,在 STM32 设备上将您的 AI 项目推向新的高度。**\n\n---\n\nSTM32 AI 模型库是一系列经过优化、可在 STM32 微控制器上运行的参考机器学习模型集合。\n该资源已在 GitHub 上发布，对于希望为其基于 STM32 的项目添加 AI 功能的开发者来说，是一项宝贵的工具。\n\n- 大量面向应用的模型，可直接用于重新训练。\n- 预训练模型基于参考数据集，支持多种框架。\n\n**用户数据集上的任意模型的轻松重训、量化、评估或基准测试脚本，以及根据用户 AI 模型自动生成的应用代码示例，均可在 [stm32ai-modelzoo-services GitHub](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services) 中找到。**\n\n\n如果您对这些模型所针对的类别感兴趣，它们可以直接用于快速部署。我们还提供训练脚本，可用于迁移学习，或基于您的自定义数据集从头开始训练自己的模型。\n\n针对参考 STM32 MCU、NPU 和 MPU，提供了浮点和量化模型的性能指标。\n\n\n\n## 版本更新亮点：\n\n\u003Cdetails open>\u003Csummary>\u003Cb>4.0：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 大幅增强对图像分类（IC）和目标检测（OD）的 PyTorch 支持。\n* 支持 **STEdgeAI Core v3.0.0**。\n* 新增 PyTorch 模型的训练与评估脚本。\n* 扩展了模型选择范围并改进了文档。\n* 统一了 TensorFlow 和 PyTorch 的工作流程。\n* 性能与易用性全面提升。\n* 新增用例：**人脸检测（FD）**、**电弧故障检测（AFD）**、**行人再识别（ReID）**。\n* 针对 IC 和 OD 场景，推出混合精度模型（权重 4 位、激活 8 位）。\n* 支持 Keras 3.8.0、TensorFlow 2.18.0、PyTorch 2.7.1 和 ONNX 1.16.1。\n* 重构了 Python 软件架构。\n* 提供基于 Docker 的部署方案，并附带包含完整软件栈的即用镜像。\n\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.2：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 支持 **STEdgeAI Core v2.2.0**（STM32Cube.AI v10.2.0）。\n* 支持 **X-Linux-AI v6.1.0**，适用于 MPU。\n* 新增用例：**风格迁移** 和 **FastDepth**。\n* 新增模型：**人脸检测**，纳入目标检测用例；**人脸关键点**，纳入姿态估计用例。\n* 进行了架构与代码库的清理优化。\n\n\u003C\u002Fdetails>\n\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.1：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 增加了更多模型支持（yolov11n、st_yoloxn 等变体）。\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>3.0：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 增加了与 [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fevaluation-tools\u002Fstm32n6570-dk) 开发板兼容的更多模型。\n* 扩展了各应用场景中的模型种类。\n* 将应用场景扩展至 **实例分割** 和 **语音增强**。\n* 通过语音增强用例新增了 `Pytorch` 支持。\n* 模型库现托管于 \u003Ca href=\"#Hugging Face\">Hugging Face\u003C\u002Fa> 平台。\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>2.1：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 增加了与 [STM32MP257F-EV1](https:\u002F\u002Fwww.st.com\u002Fen\u002Fevaluation-tools\u002Fstm32mp257f-ev1) 开发板兼容的更多模型。\n* 将应用场景扩展至 **姿态估计** 和 **语义分割**。\n\u003C\u002Fdetails>\n\u003Cdetails>\u003Csummary>\u003Cb>2.0：\u003C\u002Fb>\u003C\u002Fsummary>\n\n* 为所有应用场景建立了统一且一致的架构。\n\u003C\u002Fdetails>\n\n## 以下是可用用例的摘要\n| 用例             | 简要定义  | 适合部署的目标 | 智能示例  |\n|--------------------|------------------|-----------------|------------ |\n| [图像分类](.\u002Fimage_classification\u002FREADME.md)   | 将图像内容分类到预定义的类别中。     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32H7\u002FREADME.md) \u003Cbr> [NUCLEO-H743ZI2](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32H7\u002FREADME.md) \u003Cbr>  [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fimage_classification\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_055da863f4e7.jpg) |\n| [目标检测](.\u002Fobject_detection\u002FREADME.md)   | 从输入图像中检测、定位并估计预定义目标的出现概率。     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fobject_detection\u002FSTM32H7\u002FREADME.md) \u003Cbr>  [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fobject_detection\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_5f1ecd974300.jpg) |\n| [人脸检测](.\u002Fface_detection\u002FREADME.md)   | 从输入图像中检测、定位并估计预定义人脸及关键点的出现概率。     | [STM32H747I-DISCO](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fface_detection\u002FSTM32H7\u002FREADME.md) \u003Cbr>   [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_ad3858aec8cc.png) |\n| [姿态估计](.\u002Fpose_estimation\u002FREADME.md)   | 检测特定对象（人、手、脸等）上的关键点。     | [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fpose_estimation\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_f93008f11f39.jpg) |\n| [语义分割](.\u002Fsemantic_segmentation\u002FREADME.md)   | 为图像中的每个像素分配标签，以识别构成不同类别的像素集合。     | [STM32MP257F-EV1](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002FSTM32MP-LINUX\u002FSTM32MP2\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_21c027ebbccb.jpg) |\n| [实例分割](.\u002Finstance_segmentation\u002FREADME.md)   | 为图像中的每个像素分配标签，以识别构成不同类别或每个类别实例的像素集合。     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_9b116ba2093a.jpg) |\n| [深度估计](.\u002Fdepth_estimation\u002FREADME.md)   | 根据图像预测物体的距离，生成逐像素的深度图。     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr>  | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_7377a0912354.jpg) |\n| [神经风格迁移](.\u002Fneural_style_transfer\u002FREADME.md)   | 将一张图像的艺术风格应用到另一张图像的内容上。     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr>  | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_7dd5469625f2.jpg) |\n| [音频事件检测](.\u002Faudio_event_detection\u002FREADME.md)   | 检测特定的音频事件。     | [B-U585I-IOT02A ](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_da9f047daded.jpg) |\n| [语音增强](.\u002Fspeech_enhancement\u002FREADME.md)   | 在嘈杂环境中提升音频感知质量。     |  [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_b08d12c9c94e.jpg) |\n| [人类活动识别](.\u002Fhuman_activity_recognition\u002FREADME.md)   | 识别各种活动，如步行、跑步等。     |  [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_b8d295138703.jpg) |\n| [手势姿态识别](.\u002Fhand_posture\u002FREADME.md)   | 使用飞行时间（ToF）传感器识别一组手势姿态。     |  [NUCLEO-F401RE](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fhand_posture\u002FSTM32F4\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_16a1fefac2e7.jpg) |\n| [电弧故障检测](.\u002Farc_fault_detection\u002FREADME.md)   | 从电流信号中检测电气弧故障。     |  [B-U585I-IOT02A](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services\u002Fblob\u002Fmain\u002Fapplication_code\u002Fsensing\u002FSTM32U5\u002FREADME.md) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_56db72bec8ef.jpg) |\n| [重识别](.\u002Fre_identification\u002FREADME.md)   | 在不同图像或视频帧中重新识别人员或物体。     | [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fdevelopment-tools\u002Fstm32n6-ai.html) \u003Cbr> | \u003Cdiv align=\"center\" style=\"width:480px; margin: left;\">![plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_readme_ae9f33ded65e.jpg)\n\u003C\u002Fdiv>\n\n## \u003Ca id=\"Hugging Face\">Hugging Face 托管\u003C\u002Fa>\nModel Zoo 仪表板托管在 [STMicroelectronics 组织](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics)下的 Docker 环境中。该仪表板使用 Dash Plotly 和 Flask 开发，并在 Docker 容器内运行。\n如果您的系统已安装 Docker，也可以在本地运行。该仪表板提供以下功能：\n\n•\t训练：训练机器学习模型。\n•\t评估：评估模型性能。\n•\t基准测试：使用 ST Edge AI 开发者云对您的模型进行基准测试。\n•\t可视化：可视化模型性能和指标。\n•\t用户配置更新：直接从仪表板更新和修改用户配置。\n•\t输出下载：下载模型结果和输出。\n\n您还可以在 Hugging Face 的 [STMicroelectronics 组织](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics)下找到我们的模型。STM32AI Model Zoo 中的每个模型在 Hugging Face 上都有一张模型卡片，提供关于该模型的所有必要信息，并链接到专用脚本。\n\n\n## 开始之前\nModel Zoo 仓库使用 `git lfs`，因此用户在克隆仓库之前需要先安装并设置 `git lfs`。具体步骤如下。\n\n\n- **在 Ubuntu 上：**\n    ```sh\n    sudo apt-get install git-lfs\n    ```\n\n- **在 Windows 上：**\n    请从[这里](https:\u002F\u002Fgit-lfs.github.com\u002F)下载 Git LFS 扩展程序。\n\n下载并安装完成后，通过运行以下命令为您的用户账户设置 Git LFS：\n\n```sh\ngit lfs install\n```\n如果命令成功执行，您将看到消息 `Git LFS initialized.`。\n\n**注意：** 如果未看到 `Git LFS initialized.` 消息，请访问 [GitHub 文档页面](https:\u002F\u002Fdocs.github.com\u002Fen\u002Frepositories\u002Fworking-with-files\u002Fmanaging-large-files\u002Finstalling-git-large-file-storage)，以获取更多详细信息和支持。\n\n### 克隆仓库\n为了使用 modelzoo-services 中的配置文件示例，而无需更改 model_path，需要将 modelzoo 仓库克隆到与 modelzoo services 相同的文件夹中。\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo.git\n```","# STM32 AI Model Zoo 快速上手指南\n\nSTM32 AI Model Zoo 是意法半导体（STMicroelectronics）提供的参考机器学习模型集合，专为在 STM32 微控制器（MCU）、微处理器（MPU）及 NPU 上运行而优化。它支持 **PyTorch**、**TensorFlow** 和 **ONNX** 框架，涵盖图像分类、目标检测、语音增强等多种应用场景，并提供从训练、量化到部署的全流程工具链。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Ubuntu Linux (推荐) 或 Windows (需配合 WSL 或 Docker)\n- **Python 版本**：建议 Python 3.8 - 3.10\n- **Docker**（可选但推荐）：用于一键部署包含完整软件栈的开发环境\n\n### 前置依赖\n在开始之前，必须安装并配置 `git-lfs`，因为模型权重文件通过 Git LFS 存储。\n\n**Ubuntu 用户：**\n```bash\nsudo apt-get update\nsudo apt-get install git-lfs\n```\n\n**Windows 用户：**\n1. 访问 [Git LFS 官网](https:\u002F\u002Fgit-lfs.github.com\u002F) 下载并安装扩展。\n2. 打开终端（Git Bash 或 PowerShell），运行初始化命令：\n   ```bash\n   git lfs install\n   ```\n\n### 推荐框架版本 (基于 v4.0)\n- PyTorch: 2.7.1\n- TensorFlow: 2.18.0 (Keras 3.8.0)\n- ONNX: 1.16.1\n- STEdgeAI Core: v3.0.0\n\n> **提示**：为避免环境冲突，强烈建议使用官方提供的 **Docker 镜像**，其中已预装所有依赖和特定版本的框架。\n\n## 安装步骤\n\n### 方法一：使用 Docker（推荐）\n这是最简便的方式，可直接获得包含完整工具链（训练、评估、量化脚本）的环境。\n\n```bash\n# 拉取官方镜像\ndocker pull stmicroelectronics\u002Fstm32ai-modelzoo\n\n# 运行容器并挂载当前目录\ndocker run -it --rm -v $(pwd):\u002Fworkspace stmicroelectronics\u002Fstm32ai-modelzoo\n```\n\n### 方法二：本地源码安装\n如果你希望在本地环境中开发，请按以下步骤操作：\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo.git\n   cd stm32ai-modelzoo\n   ```\n   *注意：确保在执行 clone 前已完成 `git lfs install`，否则模型文件将无法下载。*\n\n2. **安装 Python 依赖**\n   进入项目根目录，安装所需库：\n   ```bash\n   pip install -r requirements.txt\n   ```\n   *(注：具体 requirements 文件可能位于子目录或需参考文档，若使用 Docker 则跳过此步)*\n\n3. **获取服务脚本（可选）**\n   如需重训练、量化或生成应用代码，请克隆配套的服务仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services.git\n   ```\n\n## 基本使用\n\n本指南以**图像分类 (Image Classification)** 为例，展示如何使用预训练模型。\n\n### 1. 浏览可用模型\n项目按应用场景组织模型。你可以查看 `image_classification` 目录了解支持的模型列表（如 MobileNetV2, ResNet 等）及其对应的目标硬件（如 STM32H7, STM32N6）。\n\n```bash\nls image_classification\u002Fmodels\n```\n\n### 2. 使用 Hugging Face Dashboard (可视化界面)\nST 提供了基于 Docker 的 Dashboard，用于训练、评估和基准测试。\n\n```bash\n# 启动 Dashboard (需已拉取对应镜像)\ndocker run -p 8050:8050 stmicroelectronics\u002Fstm32ai-dashboard\n```\n启动后，在浏览器访问 `http:\u002F\u002Flocalhost:8050`，即可：\n- 选择预训练模型进行微调 (Transfer Learning)\n- 上传自定义数据集进行评估\n- 查看模型在特定 STM32 芯片上的性能指标 (RAM\u002FFlash 占用，推理时间)\n\n### 3. 命令行快速评估 (示例)\n假设你已配置好 Python 环境并下载了模型，可以使用提供的脚本对模型进行简单推理测试。\n\n*(以下命令为示意性伪代码，具体脚本路径请参考 `stm32ai-modelzoo-services` 仓库)*\n\n```bash\n# 进入服务脚本目录\ncd ..\u002Fstm32ai-modelzoo-services\n\n# 运行评估脚本 (以 PyTorch 图像分类模型为例)\npython scripts\u002Fevaluate.py \\\n    --model-path ..\u002Fstm32ai-modelzoo\u002Fimage_classification\u002Fmodels\u002Fmobilenet_v2.pt \\\n    --dataset .\u002Fdata\u002Fimagenet_val \\\n    --framework pytorch\n```\n\n### 4. 部署到硬件\n完成模型量化和验证后，使用 **STM32Cube.AI** 工具将模型转换为 C 代码并集成到 STM32 工程中。\n- 打开 STM32CubeMX 或 STM32CubeIDE。\n- 导入生成的 `.c` 和 `.h` 文件。\n- 调用生成的 API 进行推理。\n\n---\n**更多资源**：\n- 详细用例文档请参阅各子目录下的 `README.md`（如 `.\u002Fobject_detection\u002FREADME.md`）。\n- 所有模型卡片及详细信息可在 [Hugging Face STMicroelectronics 主页](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics) 查询。","某工业安全团队正致力于在低功耗的 STM32 微控制器上部署“电弧故障检测（AFD）”系统，以实时监测电路异常并预防火灾。\n\n### 没有 stm32ai-modelzoo 时\n- **模型适配极难**：开发人员需手动将通用的 PyTorch 或 TensorFlow 模型裁剪、量化，极易因不兼容 STM32 架构导致内存溢出或推理失败。\n- **缺乏参考基准**：没有针对特定硬件（如 STM32N6 系列）优化的预训练模型，团队必须从零收集数据并训练，耗时数月且精度难以保证。\n- **部署流程割裂**：从模型训练到生成 C 代码缺乏统一工作流，需要反复调试中间格式转换，严重拖慢原型验证进度。\n- **性能评估盲目**：无法预先获知模型在目标 MCU 上的延迟和功耗表现，往往在硬件联调阶段才发现性能不达标。\n\n### 使用 stm32ai-modelzoo 后\n- **开箱即用模型**：直接调用库中专为电弧故障检测优化的预训练模型，支持 PyTorch\u002FTF\u002FONNX 多种框架，大幅降低移植门槛。\n- **高效迁移学习**：利用提供的标准化脚本，基于自定义数据集快速进行微调（Transfer Learning），几天内即可完成模型定制。\n- **端到端自动化**：通过统一工作流自动完成量化（如 4-bit 权重\u002F8-bit 激活）并生成嵌入式应用代码，实现从算法到固件的无缝衔接。\n- **精准性能预判**：直接查阅官方提供的在参考开发板上的浮点与量化性能指标，提前锁定最优模型配置，避免硬件试错成本。\n\nstm32ai-modelzoo 将原本数月的嵌入式 AI 落地周期缩短至数周，让开发者能专注于业务逻辑而非底层模型适配。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSTMicroelectronics_stm32ai-modelzoo_055da863.jpg","STMicroelectronics","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSTMicroelectronics_d5e881eb.jpg","STMicroelectronics is a world leader in providing the semiconductor solutions that make a positive contribution to people’s lives, today and into the future.",null,"https:\u002F\u002Fwww.st.com","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics",655,122,"2026-04-01T09:49:49","NOASSERTION","Linux, Windows","未说明 (工具主要面向微控制器部署，训练\u002F量化过程可通过 Docker 或本地脚本运行，具体 GPU 需求取决于所选模型和框架)","未说明",{"notes":89,"python":90,"dependencies":91},"1. 必须安装并配置 Git LFS 才能克隆仓库获取模型文件。\n2. 提供基于 Docker 的现成镜像，包含完整的软件栈，推荐用于简化环境配置。\n3. 支持多种应用场景（图像分类、目标检测、语音增强等），针对不同 STM32 系列（H7, U5, N6, MP2）有特定的部署示例。\n4. 模型可在 Hugging Face 上找到，并提供 Dashboard 进行训练、评估和基准测试。","未说明 (依赖库版本暗示需较新版本，如 PyTorch 2.7.1 通常需 Python 3.8+)",[92,93,94,95,96,97,98],"PyTorch 2.7.1","TensorFlow 2.18.0","Keras 3.8.0","ONNX 1.16.1","STEdgeAI Core v3.0.0","Git LFS","Docker (可选，用于一键部署环境)",[55,14,15,53,26,13],[101,102,103,104,105,106,107,108,109,110,111,112],"ai","modelzoo","st","stm32","stm32f4","stm32f7","stm32h7","stm32l4","stm32mp1","stm32u5","stmicro","stmicroelectronics","2026-03-27T02:49:30.150509","2026-04-06T06:45:26.855057",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},15213,"STM32H745 开发板支持哪些模型？是否支持图像分类或目标检测？","虽然官方示例主要基于 STM32H747，但 STM32H745 也可以部署模型。如果编译失败，通常是因为模型输出缓冲区过大。解决方法是修改链接脚本文件（.ld），在 sdram_section 输出段中显式添加 AppConfig_SDRAM 输入段，以动态分配足够的 SDRAM 空间给输出缓冲区。具体操作是在 `STM32H747XIHx_CM7.ld` 文件中调整 `.sdram_section` 的定义。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F25",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},15214,"运行 Evaluate.py 脚本报错，如何排查环境依赖问题？","如果遇到未知错误，首先应检查 Python 环境和已安装的包版本。请运行 `pip list` 和 `python --version` 命令，并将输出结果提供给维护者以便对比。同时说明您使用的操作系统（Windows\u002FLinux\u002FMac）。很多时候是由于依赖包版本不匹配导致的，确保安装了 README 中指定版本的库（如 tensorflow, numpy 等）通常能解决问题。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F12",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},15215,"烧录程序时提示 'File does not exist: ... .elf' 错误怎么办？","该错误通常表示构建过程失败，导致没有生成 .elf 文件。请确认您是否严格按照 Wiki 指南安装了所有必要的工具链和软件包（特别是 STM32 Model Zoo 的安装步骤）。检查是否使用了正确的 IDE 版本（如 STM32CubeIDE），并确认在构建前已正确配置了项目路径和编译器设置。如果是 Linux 用户，还需注意权限问题和路径大小写敏感性。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F34",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},15216,"使用 B-CAMS_OMV 摄像头模块进行图像分类时出现错误或黑屏，如何解决？","硬件连接不稳定是常见原因。请尝试使用尽可能短的排线连接摄像头和开发板，以减少电磁干扰（EMI）。此外，建议直接使用官方提供的 Jupyter Notebook (`image_classification.ipynb`) 进行部署测试，它能自动处理大部分配置。如果问题依旧，可以参考维护者提供的已在 NUCLEO-H743ZI2 上验证通过的项目源码进行对比检查。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F37",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},15217,"如何在本地离线安装 ST Edge AI 工具而不使用云端登录？","可以使用在线安装包的无头模式（headless mode）进行本地安装，从而绕过云端登录。首先下载 Linux 在线安装器和对应的 `.zip` 功能包。然后在终端执行命令：`sudo .\u002Fstedgeai-linux-onlineinstaller install \u003Cpackage_name> stneuralartpkg=\u002Fpath\u002Fto\u002Fpackage.zip`。例如：`sudo .\u002Fstedgeai-linux-onlineinstaller install stedgeai0200.stneuralart stneuralartpkg=\u002FPath-to\u002Fen.stedgeai-stneuralart-10.0.0.zip`。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F53",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},15218,"如何在目标检测应用中实现自定义的后处理函数？","可以在中间件目录中添加自定义代码。具体步骤是将自定义的头文件放入 `Middlewares\u002FST\u002FSTM32_Objdetect_Postprocess\u002FInc` 目录，将源文件（.c\u002F.cpp）放入 `Middlewares\u002FST\u002FSTM32_Objdetect_Postprocess` 目录。然后需要在 IDE 的项目配置文件（如 `.project` 或 Makefile）中显式添加这些新源文件的路径以便编译。如果手动修改脚本运行，需确保编译链能正确找到并链接这些新增文件。","https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo\u002Fissues\u002F33",[147,152,157,162,167,172,177],{"id":148,"version":149,"summary_zh":150,"released_at":151},89891,"v4.0.0","AI-ModelZoo-4.0.0 版本的主要特性：\n\n- 重点支持 PyTorch 的图像分类（IC）和目标检测（OD）\n- 支持 STEdgeAI Core v3.0.0\n- 针对 PyTorch 模型新增训练与评估脚本\n- 扩展了模型选择范围，并优化了文档\n- 统一了 TensorFlow 和 PyTorch 的工作流\n- 性能与易用性提升\n- 新增应用场景：人脸检测（FD）、电弧故障检测（AFD）、行人重识别（ReID）\n- 针对 IC 和 OD 场景推出新的混合精度模型（权重 4 位、激活 8 位）\n- 支持 Keras 3.8.0、TensorFlow 2.18.0、PyTorch 2.7.1 以及 ONNX 1.16.1\n- 重构了 Python 软件架构\n- 提供基于 Docker 的部署方案，包含完整软件栈的即用镜像。","2026-01-22T16:36:38",{"id":153,"version":154,"summary_zh":155,"released_at":156},89892,"v3.2.0","AI-ModelZoo 3.2.0 版本的主要特性：\n\n- 支持 STEdgeAI Core v2.2.0（STM32Cube.AI v10.2.0）。\n- 支持适用于 MPU 的 X-Linux-AI v6.1.0。\n- 新增用例：神经风格迁移和深度估计。\n- 新增模型：人脸检测（适用于目标检测用例）和人脸关键点（适用于姿态估计用例）。\n- 架构与代码库优化清理。","2025-08-05T13:09:50",{"id":158,"version":159,"summary_zh":160,"released_at":161},89893,"v3.1.0","AI-ModelZoo-3.1.0 版本的主要特性：\n\n- 支持 STEdgeAI Core v2.1.0（STM32Cube.AI v10.1.0）。\n- STM32N6 开发板的应用代码现已直接集成在 STM32 Model Zoo 仓库中，无需单独下载。\n- 在评估和预测服务中集成了对 STM32N6570-DK 开发板的设备端评估和设备端预测的支持。\n- 新增更多模型支持：Yolov11、语音增强中的 LSTM 模型，以及 ST Yolo X 系列变体。\n- 增加 ClearML 支持。\n- 修复了一些 bug，并进行了多项改进，例如正确的导入处理、设备端指标对齐等。","2025-05-20T10:25:08",{"id":163,"version":164,"summary_zh":165,"released_at":166},89894,"v3.0.0","AI-ModelZoo 3.0.0 版本的主要特性：\n\n- **模型库服务**：用于从用户数据集轻松微调、量化、评估或基准测试任何模型的脚本，以及根据用户 AI 模型自动生成的应用程序代码示例，现已迁移到 [stm32ai-modelzoo-services GitHub 仓库](https:\u002F\u002Fgithub.com\u002FSTMicroelectronics\u002Fstm32ai-modelzoo-services)。\n- **新增模型兼容性**：增加了与 [STM32N6570-DK](https:\u002F\u002Fwww.st.com\u002Fen\u002Fevaluation-tools\u002Fstm32n6570-dk) 开发板兼容的更多模型。\n- **丰富模型资源**：在所有用例中扩展了可用模型的种类。\n- **新增用例支持**：将用例支持范围扩展至实例分割和语音增强。\n- **PyTorch 支持**：通过语音增强用例新增了 PyTorch 支持。\n- **模型库托管**：模型库现托管于 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002FSTMicroelectronics)。","2024-12-10T08:41:01",{"id":168,"version":169,"summary_zh":170,"released_at":171},89895,"v2.1.0","AI-ModelZoo 2.1.0 版本的主要特性：\n\n- 新增了与 STM32MP257F-DK2 开发板兼容的模型。\n- 增加了张量级量化支持。\n- 集成了 ONNX 模型的量化与评估功能。\n- 支持 STEdgeAI（STM32Cube.AI v9.1.0 及更高版本）。\n- 扩展了用例支持，新增姿态估计和语义分割功能。\n- 统一日志信息格式，提供统一的使用体验。","2024-07-01T19:16:16",{"id":173,"version":174,"summary_zh":175,"released_at":176},89896,"v2.0.0","AI-ModelZoo 2.0.0 版本的主要特性：\n\n- 所有用例目录采用对齐且统一的架构。\n- 模块化设计，支持独立运行不同的操作模式（训练、基准测试、评估、部署、量化），也可在一次启动中按需串联多个模式。\n- 代码采用单一入口，并通过一个配置文件即可完成所有模式的配置。\n- 新增“自带模型”（BYOM）功能。\n- 提供更丰富的训练能力（迁移学习、微调、从零开始训练）。\n- 增加目标检测模型。","2024-02-22T17:01:37",{"id":178,"version":179,"summary_zh":180,"released_at":181},89897,"v1.0.0","STM32 模型库的首个版本包含 4 种不同的用例、一组预训练模型以及用于部署的入门套件。\n\n支持 ST 开发者云服务。","2023-01-27T14:31:54"]