[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-tensorflow--tflite-micro":3,"similar-tensorflow--tflite-micro":83},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":18,"owner_twitter":17,"owner_website":19,"owner_url":20,"languages":21,"stars":61,"forks":62,"last_commit_at":63,"license":64,"difficulty_score":65,"env_os":66,"env_gpu":67,"env_ram":68,"env_deps":69,"category_tags":75,"github_topics":17,"view_count":77,"oss_zip_url":17,"oss_zip_packed_at":17,"status":78,"created_at":79,"updated_at":80,"faqs":81,"releases":82},9692,"tensorflow\u002Ftflite-micro","tflite-micro","Infrastructure to enable deployment of ML models to low-power resource-constrained embedded targets (including microcontrollers and digital signal processors).","tflite-micro 是 TensorFlow Lite 的轻量级版本，专为在资源极度受限的嵌入式设备上运行机器学习模型而设计。它成功解决了传统 AI 框架因体积庞大、依赖复杂而无法在微控制器（MCU）和数字信号处理器（DSP）等低功耗硬件上部署的难题，让智能算法得以在仅有几十 KB 内存的设备中流畅运行。\n\n这款工具非常适合嵌入式系统开发者、物联网工程师以及希望将 AI 能力延伸至终端设备的研究人员使用。无论是制作智能传感器、可穿戴设备，还是开发工业预测性维护系统，tflite-micro 都能提供坚实的技术支撑。其核心亮点在于极高的可移植性，不仅支持 Arduino、ESP32 等主流开发板，还广泛兼容 Cortex-M、RISC-V、Hexagon 等多种芯片架构。此外，项目拥有活跃的社区支持和丰富的示例代码，帮助用户快速上手并验证新平台。通过 tflite-micro，开发者无需云端连接即可在本地实现高效的推理计算，真正推动了人工智能向边缘侧的普及与落地。","\u003C!--ts-->\n- [TensorFlow Lite for Microcontrollers](#tensorflow-lite-for-microcontrollers)\n- [Build Status](#build-status)\n  - [CI Status](#ci-status)\n  - [Community Supported TFLM Examples](#community-supported-tflm-examples)\n- [Contributing](#contributing)\n- [Getting Help](#getting-help)\n- [Additional Documentation](#additional-documentation)\n- [RFCs](#rfcs)\n\n\u003C!-- Added by: advaitjain, at: Mon 04 Oct 2021 11:23:57 AM PDT -->\n\n\u003C!--te-->\n\n# TensorFlow Lite for Microcontrollers\n\nTensorFlow Lite for Microcontrollers is a port of TensorFlow Lite designed to\nrun machine learning models on DSPs, microcontrollers and other devices with\nlimited memory.\n\nAdditional Links:\n * [Tensorflow github repository](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002F)\n * [TFLM at tensorflow.org](https:\u002F\u002Fwww.tensorflow.org\u002Flite\u002Fmicrocontrollers)\n\n# Build Status\n\n## CI Status\n| Group | Status |\n| :--- | :--- |\n| Core | [![CI](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_core.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_core.yml) [![CI](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_windows.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_windows.yml)  [![Sync](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fsync.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fsync.yml) |\n| Targets | [![Cortex-M](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_cortex_m.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_cortex_m.yml) [![RISC-V](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_riscv.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_riscv.yml) [![Hexagon](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_hexagon.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_hexagon.yml) [![Xtensa](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_xtensa.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_xtensa.yml) |\n| Misc | [![Generate Integration Test](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fgenerate_integration_tests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fgenerate_integration_tests.yml) |\n\n\n## Community Supported TFLM Examples\nThis table captures platforms that TFLM has been ported to. Please see\n[New Platform Support](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fnew_platform_support.md) for\nadditional documentation.\n\nPlatform      |    Status     |\n-----------     | --------------|\nArduino         | [![Arduino](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro-arduino-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro-arduino-examples\u002Factions\u002Fworkflows\u002Fci.yml) [![Antmicro](https:\u002F\u002Fgithub.com\u002Fantmicro\u002Ftensorflow-arduino-examples\u002Factions\u002Fworkflows\u002Ftest_examples.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fantmicro\u002Ftensorflow-arduino-examples\u002Factions\u002Fworkflows\u002Ftest_examples.yml) |\n[Coral Dev Board Micro](https:\u002F\u002Fcoral.ai\u002Fproducts\u002Fdev-board-micro) | [TFLM + EdgeTPU Examples for Coral Dev Board Micro](https:\u002F\u002Fgithub.com\u002Fgoogle-coral\u002Fcoralmicro) |\nEspressif Systems Dev Boards  | [![ESP Dev Boards](https:\u002F\u002Fgithub.com\u002Fespressif\u002Ftflite-micro-esp-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fespressif\u002Ftflite-micro-esp-examples\u002Factions\u002Fworkflows\u002Fci.yml) |\nIngenic MIPS Boards | [![Ingenic MIPS Boards](https:\u002F\u002Fgithub.com\u002Fyinzara\u002Fingenic-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fyinzara\u002Fingenic-tflite-micro\u002Ftree\u002Fmain\u002Fexamples\u002Fhello_world) |\nRenesas Boards | [TFLM Examples for Renesas Boards](https:\u002F\u002Fgithub.com\u002Frenesas\u002Ftflite-micro-renesas) |\nSilicon Labs Dev Kits        | [TFLM Examples for Silicon Labs Dev Kits](https:\u002F\u002Fgithub.com\u002FSiliconLabs\u002Ftflite-micro-efr32-examples)\nSparkfun Edge   | [![Sparkfun Edge](https:\u002F\u002Fgithub.com\u002Fadvaitjain\u002Ftflite-micro-sparkfun-edge-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg?event=schedule)](https:\u002F\u002Fgithub.com\u002Fadvaitjain\u002Ftflite-micro-sparkfun-edge-examples\u002Factions\u002Fworkflows\u002Fci.yml)\nTexas Instruments Dev Boards | [![Texas Instruments Dev Boards](https:\u002F\u002Fgithub.com\u002FTexasInstruments\u002Ftensorflow-lite-micro-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg?event=status)](https:\u002F\u002Fgithub.com\u002FTexasInstruments\u002Ftensorflow-lite-micro-examples\u002Factions\u002Fworkflows\u002Fci.yml)\n\n\n# Contributing\nSee our [contribution documentation](CONTRIBUTING.md).\n\n# Getting Help\n\nA [Github issue](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Fissues\u002Fnew\u002Fchoose)\nshould be the primary method of getting in touch with the TensorFlow Lite Micro\n(TFLM) team.\n\nThe following resources may also be useful:\n\n1.  SIG Micro [email group](https:\u002F\u002Fgroups.google.com\u002Fa\u002Ftensorflow.org\u002Fg\u002Fmicro)\n    and\n    [monthly meetings](http:\u002F\u002Fdoc\u002F1YHq9rmhrOUdcZnrEnVCWvd87s2wQbq4z17HbeRl-DBc).\n\n1.  SIG Micro [gitter chat room](https:\u002F\u002Fgitter.im\u002Ftensorflow\u002Fsig-micro).\n\n1. For questions that are not specific to TFLM, please consult the broader TensorFlow project, e.g.:\n   * Create a topic on the [TensorFlow Discourse forum](https:\u002F\u002Fdiscuss.tensorflow.org)\n   * Send an email to the [TensorFlow Lite mailing list](https:\u002F\u002Fgroups.google.com\u002Fa\u002Ftensorflow.org\u002Fg\u002Ftflite)\n   * Create a [TensorFlow issue](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fissues\u002Fnew\u002Fchoose)\n   * Create a [Model Optimization Toolkit](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodel-optimization) issue\n\n# Additional Documentation\n\n * [Continuous Integration](docs\u002Fcontinuous_integration.md)\n * [Benchmarks](tensorflow\u002Flite\u002Fmicro\u002Fbenchmarks\u002FREADME.md)\n * [Profiling](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fprofiling.md)\n * [Memory Management](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fmemory_management.md)\n * [Logging](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Flogging.md)\n * [Porting Reference Kernels from TfLite to TFLM](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fporting_reference_ops.md)\n * [Optimized Kernel Implementations](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Foptimized_kernel_implementations.md)\n * [New Platform Support](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fnew_platform_support.md)\n * Platform\u002FIP support\n   * [Arm IP support](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Farm.md)\n * [Software Emulation with Renode](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frenode.md)\n * [Software Emulation with QEMU](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fqemu.md)\n * [Compression](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fcompression.md)\n   * [MNIST Compression Tutorial](tensorflow\u002Flite\u002Fmicro\u002Fcompression\u002Fmnist_compression_tutorial.ipynb)\n * [Python Dev Guide](docs\u002Fpython.md)\n * [Automatically Generated Files](docs\u002Fautomatically_generated_files.md)\n * [Python Interpreter Guide](python\u002Ftflite_micro\u002FREADME.md)\n\n# RFCs\n\n1. [Pre-allocated tensors](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frfc\u002F001_preallocated_tensors.md)\n1. [TensorFlow Lite for Microcontrollers Port of 16x8 Quantized Operators](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frfc\u002F002_16x8_quantization_port.md)\n","\u003C!--ts-->\n- [适用于微控制器的 TensorFlow Lite](#tensorflow-lite-for-microcontrollers)\n- [构建状态](#build-status)\n  - [CI 状态](#ci-status)\n  - [社区支持的 TFLM 示例](#community-supported-tflm-examples)\n- [贡献](#contributing)\n- [获取帮助](#getting-help)\n- [附加文档](#additional-documentation)\n- [RFC](#rfcs)\n\n\u003C!-- 添加者: advaitjain，时间：2021年10月4日 星期一 上午11:23:57 太平洋夏令时 -->\n\n\u003C!--te-->\n\n# 适用于微控制器的 TensorFlow Lite\n\n适用于微控制器的 TensorFlow Lite 是 TensorFlow Lite 的一个移植版本，旨在让机器学习模型在 DSP、微控制器及其他内存受限的设备上运行。\n\n附加链接：\n * [TensorFlow GitHub 仓库](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002F)\n * [TensorFlow 官网上的 TFLM 页面](https:\u002F\u002Fwww.tensorflow.org\u002Flite\u002Fmicrocontrollers)\n\n# 构建状态\n\n## CI 状态\n| 组别 | 状态 |\n| :--- | :--- |\n| 核心 | [![CI](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_core.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_core.yml) [![CI](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_windows.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_windows.yml)  [![同步](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fsync.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fsync.yml) |\n| 目标平台 | [![Cortex-M](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_cortex_m.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_cortex_m.yml) [![RISC-V](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_riscv.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_riscv.yml) [![Hexagon](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_hexagon.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_hexagon.yml) [![Xtensa](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_xtensa.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Frun_xtensa.yml) |\n| 其他 | [![生成集成测试](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fgenerate_integration_tests.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Factions\u002Fworkflows\u002Fgenerate_integration_tests.yml) |\n\n\n## 社区支持的 TFLM 示例\n此表格列出了 TFLM 已被移植到的平台。更多文档请参阅 [新平台支持](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fnew_platform_support.md)。\n\n平台      |    状态     |\n-----------     | --------------|\nArduino         | [![Arduino](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro-arduino-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro-arduino-examples\u002Factions\u002Fworkflows\u002Fci.yml) [![Antmicro](https:\u002F\u002Fgithub.com\u002Fantmicro\u002Ftensorflow-arduino-examples\u002Factions\u002Fworkflows\u002Ftest_examples.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fantmicro\u002Ftensorflow-arduino-examples\u002Factions\u002Fworkflows\u002Ftest_examples.yml) |\n[Coral Dev Board Micro](https:\u002F\u002Fcoral.ai\u002Fproducts\u002Fdev-board-micro) | [适用于 Coral Dev Board Micro 的 TFLM + EdgeTPU 示例](https:\u002F\u002Fgithub.com\u002Fgoogle-coral\u002Fcoralmicro) |\nEspressif Systems 开发板  | [![ESP 开发板](https:\u002F\u002Fgithub.com\u002Fespressif\u002Ftflite-micro-esp-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fespressif\u002Ftflite-micro-esp-examples\u002Factions\u002Fworkflows\u002Fci.yml) |\nIngenic MIPS 板 | [![Ingenic MIPS 板](https:\u002F\u002Fgithub.com\u002Fyinzara\u002Fingenic-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fyinzara\u002Fingenic-tflite-micro\u002Ftree\u002Fmain\u002Fexamples\u002Fhello_world) |\n瑞萨开发板 | [适用于瑞萨开发板的 TFLM 示例](https:\u002F\u002Fgithub.com\u002Frenesas\u002Ftflite-micro-renesas) |\nSilicon Labs 开发套件        | [适用于 Silicon Labs 开发套件的 TFLM 示例](https:\u002F\u002Fgithub.com\u002FSiliconLabs\u002Ftflite-micro-efr32-examples)\nSparkfun Edge   | [![Sparkfun Edge](https:\u002F\u002Fgithub.com\u002Fadvaitjain\u002Ftflite-micro-sparkfun-edge-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg?event=schedule)](https:\u002F\u002Fgithub.com\u002Fadvaitjain\u002Ftflite-micro-sparkfun-edge-examples\u002Factions\u002Fworkflows\u002Fci.yml)\n德州仪器开发板 | [![德州仪器开发板](https:\u002F\u002Fgithub.com\u002FTexasInstruments\u002Ftensorflow-lite-micro-examples\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg?event=status)](https:\u002F\u002Fgithub.com\u002FTexasInstruments\u002Ftensorflow-lite-micro-examples\u002Factions\u002Fworkflows\u002Fci.yml)\n\n\n# 贡献\n请参阅我们的 [贡献文档](CONTRIBUTING.md)。\n\n# 获取帮助\n\n与 TensorFlow Lite Micro (TFLM) 团队联系的主要方式应为提交 [GitHub 问题](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro\u002Fissues\u002Fnew\u002Fchoose)。\n\n以下资源也可能有所帮助：\n\n1. SIG Micro [邮件组](https:\u002F\u002Fgroups.google.com\u002Fa\u002Ftensorflow.org\u002Fg\u002Fmicro) 和\n    [每月会议](http:\u002F\u002Fdoc\u002F1YHq9rmhrOUdcZnrEnVCWvd87s2wQbq4z17HbeRl-DBc)。\n\n1. SIG Micro [Gitter 聊天室](https:\u002F\u002Fgitter.im\u002Ftensorflow\u002Fsig-micro)。\n\n1. 对于非 TFLM 特定的问题，请咨询更广泛的 TensorFlow 项目，例如：\n   * 在 [TensorFlow Discourse 论坛](https:\u002F\u002Fdiscuss.tensorflow.org) 创建主题\n   * 向 [TensorFlow Lite 邮件列表](https:\u002F\u002Fgroups.google.com\u002Fa\u002Ftensorflow.org\u002Fg\u002Ftflite) 发送邮件\n   * 创建 [TensorFlow 问题](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fissues\u002Fnew\u002Fchoose)\n   * 创建 [模型优化工具包](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodel-optimization) 问题\n\n# 附加文档\n\n * [持续集成](docs\u002Fcontinuous_integration.md)\n * [基准测试](tensorflow\u002Flite\u002Fmicro\u002Fbenchmarks\u002FREADME.md)\n * [性能分析](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fprofiling.md)\n * [内存管理](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fmemory_management.md)\n * [日志记录](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Flogging.md)\n * [将 TfLite 中的参考内核移植到 TFLM](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fporting_reference_ops.md)\n * [优化的内核实现](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Foptimized_kernel_implementations.md)\n * [新平台支持](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fnew_platform_support.md)\n * 平台\u002FIP 支持\n   * [Arm IP 支持](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Farm.md)\n * [使用 Renode 进行软件仿真](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frenode.md)\n * [使用 QEMU 进行软件仿真](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fqemu.md)\n * [压缩](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Fcompression.md)\n   * [MNIST 压缩教程](tensorflow\u002Flite\u002Fmicro\u002Fcompression\u002Fmnist_compression_tutorial.ipynb)\n * [Python 开发指南](docs\u002Fpython.md)\n * [自动生成的文件](docs\u002Fautomatically_generated_files.md)\n * [Python 解释器指南](python\u002Ftflite_micro\u002FREADME.md)\n\n# RFC\n\n1. [预分配张量](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frfc\u002F001_preallocated_tensors.md)\n1. [适用于微控制器的 TensorFlow Lite 16x8 量化算子移植](tensorflow\u002Flite\u002Fmicro\u002Fdocs\u002Frfc\u002F002_16x8_quantization_port.md)","# TensorFlow Lite for Microcontrollers (TFLM) 快速上手指南\n\nTensorFlow Lite for Microcontrollers 是 TensorFlow Lite 的移植版本，专为在 DSP、微控制器及其他内存受限的设备上运行机器学习模型而设计。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux (推荐 Ubuntu 18.04+)、macOS 或 Windows (需配合 WSL 或特定构建工具)。\n- **硬件架构支持**：Cortex-M, RISC-V, Hexagon, Xtensa, ESP32, Arduino 等。\n- **内存限制**：目标设备通常仅需几十 KB 的 RAM 和 Flash。\n\n### 前置依赖\n在开始之前，请确保主机已安装以下工具：\n- **Python 3**: 版本 3.7 或更高。\n- **Git**: 用于克隆代码库。\n- **构建工具**:\n  - Linux: `gcc`, `g++`, `make`, `curl`\n  - macOS: Xcode Command Line Tools\n  - Windows: 建议使用 WSL2 安装上述 Linux 工具链。\n- **可选依赖** (针对特定开发板):\n  - Arduino IDE (用于 Arduino 示例)\n  - Espressif IDF (用于 ESP32)\n  - Renode 或 QEMU (用于软件仿真测试)\n\n> **提示**：国内开发者若遇到 `pip` 或 `git` 下载缓慢，可配置国内镜像源（如清华源、阿里源）加速依赖安装。\n\n## 安装步骤\n\nTFLM 主要作为一个源码库使用，通常通过克隆仓库并构建示例项目来集成。\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro.git\ncd tflite-micro\n```\n\n### 2. 设置 Python 虚拟环境 (推荐)\n```bash\npython3 -m venv env\nsource env\u002Fbin\u002Factivate  # Windows 用户请使用: env\\Scripts\\activate\npip install --upgrade pip\n```\n\n### 3. 安装构建依赖\n根据官方文档，核心构建脚本会自动处理大部分依赖，但建议先安装基础 Python 包：\n```bash\npip install -r tensorflow\u002Flite\u002Fmicro\u002Ftools\u002Fpip_package\u002Frequirements.txt\n```\n\n### 4. 验证构建 (以 Hello World 示例为例)\nTFLM 使用 `make` 系统进行跨平台构建。以下命令将在主机上编译并运行一个简单的 \"Hello World\" 测试：\n\n```bash\nmake -f tensorflow\u002Flite\u002Fmicro\u002Ftools\u002Fmake\u002FMakefile test_hello_world_test\n```\n\n如果看到 `hello_world_test` 输出成功信息，则说明环境配置正确。\n\n## 基本使用\n\n以下是在 C++ 项目中集成 TFLM 运行推理的最简流程。假设你已經拥有一个量化后的 `.tflite` 模型文件。\n\n### 1. 包含头文件\n在你的 C++ 源代码中引入必要的 TFLM 头文件：\n\n```cpp\n#include \"tensorflow\u002Flite\u002Fmicro\u002Fmicro_interpreter.h\"\n#include \"tensorflow\u002Flite\u002Fmicro\u002Fmicro_mutable_op_resolver.h\"\n#include \"tensorflow\u002Flite\u002Fschema\u002Fschema_generated.h\"\n```\n\n### 2. 初始化模型与解释器\n你需要将模型数据加载到内存中，并设置算子解析器和内存分配器。\n\n```cpp\n\u002F\u002F 假设 model_data 是指向 .tflite 模型二进制数据的指针\nconst tflite::Model* model = tflite::GetModel(model_data);\n\n\u002F\u002F 创建算子解析器 (仅注册模型中需要的算子以节省空间)\ntflite::MicroMutableOpResolver\u003C2> resolver;\nresolver.AddAdd();\nresolver.AddMul();\n\n\u002F\u002F 定义张量 arena 大小 (根据模型需求调整，单位：字节)\nconstexpr int kTensorArenaSize = 2 * 1024;\nuint8_t tensor_arena[kTensorArenaSize];\n\n\u002F\u002F 初始化解释器\ntflite::MicroInterpreter interpreter(model, resolver, tensor_arena, kTensorArenaSize);\ninterpreter.AllocateTensors();\n```\n\n### 3. 执行推理\n填充输入张量数据，调用 `Invoke()`，然后读取输出。\n\n```cpp\n\u002F\u002F 获取输入和输出张量\nTfLiteTensor* input = interpreter.input(0);\nTfLiteTensor* output = interpreter.output(0);\n\n\u002F\u002F 填充输入数据 (示例：浮点型)\ninput->data.f[0] = 1.0;\ninput->data.f[1] = 2.0;\n\n\u002F\u002F 执行推理\nTfLiteStatus invoke_status = interpreter.Invoke();\nif (invoke_status != kTfLiteOk) {\n  \u002F\u002F 处理错误\n  return -1;\n}\n\n\u002F\u002F 读取结果\nfloat result = output->data.f[0];\n```\n\n### 4. 部署到目标硬件\n对于具体的开发板（如 Arduino, ESP32, Cortex-M），请参考 `tensorflow\u002Flite\u002Fmicro\u002Fexamples` 目录下对应的子文件夹，其中包含了针对特定平台的 `Makefile` 或 IDE 工程配置。\n\n例如，针对 **Arduino** 用户，可直接在 Arduino Library Manager 中搜索 \"TensorFlowLite\" 安装库，或使用社区维护的示例仓库：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro-arduino-examples.git\n```","一家智能农业初创公司正试图在电池供电的土壤监测节点上部署病虫害图像识别模型，以实现无需联网的实时预警。\n\n### 没有 tflite-micro 时\n- **硬件成本高昂**：由于微控制器内存极小（仅几百 KB），无法运行标准 TensorFlow Lite，团队被迫选用带 Linux 系统的高功耗应用处理器，导致单点硬件成本激增且电池续航不足一周。\n- **云端依赖严重**：若坚持使用低功耗芯片，只能将图片上传至云端处理，这在信号覆盖差的农田中导致数据丢失或响应延迟高达数秒，错失最佳防治时机。\n- **开发适配困难**：手动裁剪模型算子并编写底层 DSP 指令极其耗时，每次更换芯片架构（如从 ARM Cortex-M 切换到 RISC-V）都需重构大部分推理代码。\n- **维护复杂度大**：缺乏统一的测试框架，针对不同嵌入式目标的模型精度验证全靠人工比对，极易引入难以排查的数值误差。\n\n### 使用 tflite-micro 后\n- **边缘算力激活**：tflite-micro 成功将量化后的模型压缩至 200KB 以内，直接运行在廉价的 Cortex-M4 微控制器上，设备待机时间延长至半年以上。\n- **毫秒级实时响应**：图像采集与推理均在本地完成，无需网络交互，从发现病斑到触发警报仅需 300 毫秒，真正实现了离线实时防护。\n- **跨平台无缝迁移**：借助 tflite-micro 对 Arduino、ESP32 及多种 DSP 的原生支持，团队只需微调构建脚本即可将同一模型部署到不同厂商的硬件上。\n- **自动化质量保障**：利用其集成的 CI 测试流程，自动在多种目标架构上验证模型输出一致性，显著降低了嵌入式 AI 的落地门槛和出错率。\n\ntflite-micro 让资源受限的微控制器具备了“大脑”，以极低的成本和功耗实现了真正的端侧智能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftensorflow_tflite-micro_0ef5347a.png","tensorflow","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftensorflow_07ed5093.png","",null,"github-admin@tensorflow.org","http:\u002F\u002Fwww.tensorflow.org","https:\u002F\u002Fgithub.com\u002Ftensorflow",[22,26,30,34,38,42,46,50,54,57],{"name":23,"color":24,"percentage":25},"C++","#f34b7d",75,{"name":27,"color":28,"percentage":29},"Python","#3572A5",13,{"name":31,"color":32,"percentage":33},"Starlark","#76d275",3.9,{"name":35,"color":36,"percentage":37},"C","#555555",2.4,{"name":39,"color":40,"percentage":41},"Shell","#89e051",1.9,{"name":43,"color":44,"percentage":45},"Makefile","#427819",1.1,{"name":47,"color":48,"percentage":49},"BitBake","#00bce4",1,{"name":51,"color":52,"percentage":53},"Jupyter Notebook","#DA5B0B",0.8,{"name":55,"color":17,"percentage":56},"Linker Script",0.5,{"name":58,"color":59,"percentage":60},"Assembly","#6E4C13",0.2,2858,1019,"2026-04-19T08:48:32","Apache-2.0",5,"Linux, macOS, Windows","不需要 GPU，专为微控制器和 DSP 设计","极低内存需求（针对 KB 级内存的微控制器优化），主机编译环境未说明具体数值",{"notes":70,"python":71,"dependencies":72},"该工具专为资源受限设备（如微控制器、DSP）设计，无需传统操作系统或大型运行时环境。支持多种硬件架构包括 Cortex-M, RISC-V, Hexagon, Xtensa 等。开发通常在主机（Linux\u002FmacOS\u002FWindows）上进行交叉编译，然后部署到目标硬件。社区提供了 Arduino, ESP32, Renesas, Silicon Labs 等多种开发板的示例和支持。","未说明（提供 Python 开发指南和解释器，但主要面向 C\u002FC++ 嵌入式开发）",[73,74],"TensorFlow (上游仓库)","C\u002FC++ 编译器 (针对目标架构，如 ARM GCC, RISC-V GCC 等)",[76],"开发框架",2,"ready","2026-03-27T02:49:30.150509","2026-04-20T04:05:10.498763",[],[],[84,96,104,113,121,130],{"id":85,"name":86,"github_repo":87,"description_zh":88,"stars":89,"difficulty_score":90,"last_commit_at":91,"category_tags":92,"status":78},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[93,76,94,95],"Agent","图像","数据工具",{"id":97,"name":98,"github_repo":99,"description_zh":100,"stars":101,"difficulty_score":90,"last_commit_at":102,"category_tags":103,"status":78},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[76,94,93],{"id":105,"name":106,"github_repo":107,"description_zh":108,"stars":109,"difficulty_score":77,"last_commit_at":110,"category_tags":111,"status":78},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,"2026-04-19T11:32:54",[76,93,112],"语言模型",{"id":114,"name":115,"github_repo":116,"description_zh":117,"stars":118,"difficulty_score":77,"last_commit_at":119,"category_tags":120,"status":78},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[76,94,93],{"id":122,"name":123,"github_repo":124,"description_zh":125,"stars":126,"difficulty_score":77,"last_commit_at":127,"category_tags":128,"status":78},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[129,93,94,76],"插件",{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":77,"last_commit_at":136,"category_tags":137,"status":78},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[129,76]]