[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-espressif--esp-tflite-micro":3,"tool-espressif--esp-tflite-micro":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":103,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":114,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":146},3676,"espressif\u002Fesp-tflite-micro","esp-tflite-micro","TensorFlow Lite Micro for Espressif Chipsets","esp-tflite-micro 是乐鑫（Espressif）官方推出的组件，旨在让开发者能够在 ESP32 系列芯片（如 ESP32-P4、ESP32-S3 等）上轻松运行 TensorFlow Lite Micro 机器学习模型。它解决了在资源受限的嵌入式设备上部署 AI 算法的难题，让用户无需从零适配底层代码，即可利用成熟的 ESP-IDF 开发环境快速构建智能应用。\n\n这款工具非常适合嵌入式软件工程师、物联网开发者以及希望将轻量级 AI 功能引入硬件产品的研究人员。无论是实现语音识别、人员检测还是简单的命令词唤醒，esp-tflite-micro 都提供了现成的示例和完整的构建流程，大大降低了入门门槛。\n\n其核心技术亮点在于深度集成了乐鑫自研的 ESP-NN 加速库。该库针对乐鑫芯片架构优化了神经网络算子，显著提升了推理速度。性能数据显示，在人员检测任务中，开启 ESP-NN 后，ESP32-S3 的运行时间从 2.3 秒骤降至 54 毫秒，效率提升数十倍。这意味着即使是算力有限的微控制器，也能流畅执行实时性要求较高的 AI 任务，为端侧智能开发提供了强有力的支持。","# TensorFlow Lite Micro for Espressif Chipsets\n\n[![Component Registry](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-tflite-micro\u002Fbadge.svg)](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-tflite-micro)\n\n- As per TFLite Micro guidelines for vendor support, this repository has the `esp-tflite-micro` component and the examples needed to use Tensorflow Lite Micro on Espressif Chipsets (e.g., ESP32-P4) using ESP-IDF platform.\n- The base repo on which this is based can be found [here.](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro)\n\n## Build Status\n\n|   Build Type  |  Status    |\n| -----------   |  --------- |\n| Examples Build | [![CI](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml)\n\n## How to Install\n\n### ESP-IDF Support Policy\nWe keep track with the ESP-IDF's support period policy mentioned [here](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf?tab=readme-ov-file#esp-idf-release-support-schedule).\n\nCurrently ESP-IDF versions `release\u002Fv4.4` and above are supported by this project.\n\n### Install the ESP IDF\n\nFollow the instructions of the\n[ESP-IDF get started guide](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-idf\u002Fen\u002Flatest\u002Fget-started\u002Findex.html)\nto setup the toolchain and the ESP-IDF itself.\n\nThe next steps assume that this installation is successful and the\n[IDF environment variables are set](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-idf\u002Fen\u002Flatest\u002Fget-started\u002Findex.html#step-4-set-up-the-environment-variables). Specifically,\n* the `IDF_PATH` environment variable is set\n* the `idf.py` and Xtensa-esp32 tools (e.g., `xtensa-esp32-elf-gcc`) are in `$PATH`\n\n## Using the component\n\nRun the following command in your ESP-IDF project to install this component:\n\n```bash\nidf.py add-dependency \"esp-tflite-micro\"\n```\n\n## Building the example\n\nTo get the example, run the following command:\n\n```bash\nidf.py create-project-from-example \"esp-tflite-micro:\u003Cexample_name>\"\n```\n\nNote:\n  - If you have cloned the repo, the examples come as the part of the clone. Simply go to the example directory (`examples\u002F\u003Cexample_name>`) and build the example.\n\nAvailable examples are:\n - hello_world\n - micro_speech\n - person_detection\n\nSet the IDF_TARGET\n\n```bash\nidf.py set-target esp32p4\n```\n\nTo build the example, run:\n\n```bash\nidf.py build\n```\n\n### Load and run the example\n\nTo flash (replace `\u002Fdev\u002FttyUSB0` with the device serial port):\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 flash\n```\n\nMonitor the serial output:\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 monitor\n```\n\nUse `Ctrl+]` to exit.\n\nThe previous two commands can be combined:\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 flash monitor\n```\n\n  - Please follow example READMEs for more details.\n\n## ESP-NN Integration\n[ESP-NN](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn) contains optimized kernel implementations for kernels used in TFLite Micro. The library is integrated with this repo and gets compiled as a part of every example. Additional information along with performance numbers can be found [here](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn#performance).\n\n### Performance Comparison\n\nA quick summary of ESP-NN optimisations, measured on various chipsets:\n\n|   Target  |   TFLite Micro Example  | without ESP-NN  | with ESP-NN | CPU Freq  |\n| --------- | ----------------------- | --------------- | ----------- |-----------|\n| ESP32-P4  |   Person Detection      |     1395ms      |     73ms    |  360MHz   |\n| ESP32-S3  |   Person Detection      |     2300ms      |     54ms    |  240MHz   |\n| ESP32     |   Person Detection      |     4084ms      |    380ms    |  240MHz   |\n| ESP32-C3  |   Person Detection      |     3355ms      |    426ms    |  160MHz   |\n\nNote:\n  - The above is time taken for execution of the `invoke()` call\n  - Internal memory used\n  - ESP32-P4 optimisation is work in progress\n  - `Without ESP-NN` case is when `esp-nn` is completely disabled by removing below flag from [CMakeLists.txt](CMakeLists.txt):\n    ```cmake\n      # enable ESP-NN optimizations by Espressif\n      target_compile_options(${COMPONENT_LIB} PRIVATE -DESP_NN)\n    ```\n\nDetailed kernelwise performance can be found [here](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn).\n\n## Sync to latest TFLite Micro upstream\n\nAs per the upstream repository policy, the tflite-lib is copied into the components directory in this repository. We keep updating this to the latest upstream version from time to time. Should you, in any case, wish to update it locally, you may run the `scripts\u002Fsync_from_tflite_micro.sh` script.\n\n## Contributing\n- If you find an issue in these examples, or wish to submit an enhancement request, please use the Issues section on Github.\n- For ESP-IDF related issues please use [esp-idf](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf) repo.\n- For TensorFlow related information use [tflite-micro](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro) repo.\n\n## License\n\nThis component and the examples are provided under Apache 2.0 license, see [LICENSE](LICENSE.md) file for details.\n\nTensorFlow library code and third_party code contains their own license specified under respective [repos](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro).\n","# 适用于乐鑫芯片组的 TensorFlow Lite Micro\n\n[![组件注册表](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-tflite-micro\u002Fbadge.svg)](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-tflite-micro)\n\n- 根据 TFLite Micro 对厂商支持的相关指南，本仓库包含 `esp-tflite-micro` 组件以及在乐鑫芯片组（例如 ESP32-P4）上使用 ESP-IDF 平台运行 TensorFlow Lite Micro 所需的示例。\n- 本项目所基于的基础仓库可在此处找到：[TensorFlow Lite Micro 仓库](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro)。\n\n## 构建状态\n\n|   构建类型  |  状态    |\n| -----------   |  --------- |\n| 示例构建 | [![CI](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Factions\u002Fworkflows\u002Fci.yml)\n\n## 安装方法\n\n### ESP-IDF 支持政策\n我们遵循 ESP-IDF 的支持周期政策，详情请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf?tab=readme-ov-file#esp-idf-release-support-schedule)。\n\n目前，本项目支持 ESP-IDF 版本 `release\u002Fv4.4` 及以上版本。\n\n### 安装 ESP-IDF\n\n请按照 [ESP-IDF 入门指南](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-idf\u002Fen\u002Flatest\u002Fget-started\u002Findex.html) 中的说明，设置工具链和 ESP-IDF 环境。\n\n以下步骤假定您已成功完成安装，并且已正确设置 [IDF 环境变量](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-idf\u002Fen\u002Flatest\u002Fget-started\u002Findex.html#step-4-set-up-the-environment-variables)。具体来说：\n* 已设置 `IDF_PATH` 环境变量\n* `idf.py` 和 Xtensa-esp32 工具（例如 `xtensa-esp32-elf-gcc`）已在 `$PATH` 中\n\n## 使用该组件\n\n在您的 ESP-IDF 项目中运行以下命令以安装此组件：\n\n```bash\nidf.py add-dependency \"esp-tflite-micro\"\n```\n\n## 构建示例\n\n要获取示例，请运行以下命令：\n\n```bash\nidf.py create-project-from-example \"esp-tflite-micro:\u003Cexample_name>\"\n```\n\n注意：\n  - 如果您已克隆了本仓库，示例将作为克隆的一部分提供。只需进入相应的示例目录 (`examples\u002F\u003Cexample_name>`) 并构建即可。\n\n可用示例包括：\n - hello_world\n - micro_speech\n - person_detection\n\n设置 IDF_TARGET：\n\n```bash\nidf.py set-target esp32p4\n```\n\n构建示例：\n\n```bash\nidf.py build\n```\n\n### 加载并运行示例\n\n烧录固件（请将 `\u002Fdev\u002FttyUSB0` 替换为设备的串口）：\n\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 flash\n```\n\n监控串口输出：\n\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 monitor\n```\n\n使用 `Ctrl+]` 退出。\n\n上述两条命令可以合并执行：\n\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 flash monitor\n```\n\n  - 更多详细信息请参考各示例的 README 文件。\n\n## ESP-NN 集成\n[ESP-NN](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn) 包含针对 TFLite Micro 中使用的内核的优化实现。该库已集成到本仓库中，并作为每个示例的一部分进行编译。更多相关信息及性能数据请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn#performance)。\n\n### 性能对比\n\n以下是 ESP-NN 在不同芯片组上的优化效果简要总结：\n\n|   目标平台  |   TFLite Micro 示例  | 无 ESP-NN  | 有 ESP-NN | CPU 频率  |\n| --------- | ----------------------- | --------------- | ----------- |-----------|\n| ESP32-P4  |   人体检测      |     1395ms      |     73ms    |  360MHz   |\n| ESP32-S3  |   人体检测      |     2300ms      |     54ms    |  240MHz   |\n| ESP32     |   人体检测      |     4084ms      |    380ms    |  240MHz   |\n| ESP32-C3  |   人体检测      |     3355ms      |    426ms    |  160MHz   |\n\n注意：\n  - 上述时间为 `invoke()` 调用的执行时间\n  - 涉及内部内存使用情况\n  - ESP32-P4 的优化仍在进行中\n  - “无 ESP-NN” 的情况是指通过移除 [CMakeLists.txt](CMakeLists.txt) 中的以下标志来完全禁用 `esp-nn`：\n    ```cmake\n      # 启用乐鑫的 ESP-NN 优化\n      target_compile_options(${COMPONENT_LIB} PRIVATE -DESP_NN)\n    ```\n\n详细的内核级性能数据请参阅 [这里](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-nn)。\n\n## 同步至最新的 TFLite Micro 上游版本\n\n根据上游仓库的政策，tflite-lib 会被复制到本仓库的 components 目录中。我们会不时更新至最新的上游版本。如果您希望在本地更新，可以运行 `scripts\u002Fsync_from_tflite_micro.sh` 脚本。\n\n## 贡献\n- 如果您在这些示例中发现任何问题，或希望提交功能改进请求，请使用 GitHub 上的 Issues 部分。\n- 对于与 ESP-IDF 相关的问题，请使用 [esp-idf](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf) 仓库。\n- 关于 TensorFlow 的相关信息，请使用 [tflite-micro](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro) 仓库。\n\n## 许可证\n\n本组件及示例均采用 Apache 2.0 许可证提供，详细信息请参阅 [LICENSE](LICENSE.md) 文件。\n\nTensorFlow 库代码和第三方代码各自拥有其独立的许可证，具体请参阅相应的 [仓库](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftflite-micro)。","# esp-tflite-micro 快速上手指南\n\n本指南帮助中国开发者在乐鑫（Espressif）芯片（如 ESP32-P4、ESP32-S3 等）上快速部署 TensorFlow Lite Micro。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux, macOS 或 Windows (WSL)\n- **ESP-IDF 版本**：`release\u002Fv4.4` 及以上版本（推荐最新稳定版）\n\n### 前置依赖\n1. **安装 ESP-IDF**\n   请参照官方文档完成工具链和环境变量的配置：\n   [ESP-IDF 入门指南](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-idf\u002Fzh_CN\u002Flatest\u002Fesp32\u002Fget-started\u002Findex.html)\n   \n   > **国内加速建议**：国内用户建议使用乐鑫提供的国内镜像站下载工具链和组件，或在 `idf.py` 配置中设置代理，以避免下载超时。\n\n2. **验证环境**\n   确保以下环境变量已生效：\n   - `IDF_PATH` 已设置\n   - `idf.py` 和交叉编译工具（如 `xtensa-esp32-elf-gcc`）已加入 `$PATH`\n\n## 安装步骤\n\n### 方法一：作为组件安装（推荐）\n在现有的 ESP-IDF 项目根目录下运行以下命令，自动添加依赖：\n\n```bash\nidf.py add-dependency \"esp-tflite-micro\"\n```\n\n### 方法二：克隆示例项目\n如果你想直接运行官方示例，可以使用以下命令创建新项目：\n\n```bash\nidf.py create-project-from-example \"esp-tflite-micro:\u003Cexample_name>\"\n```\n*将 `\u003Cexample_name>` 替换为以下任一示例：`hello_world`, `micro_speech`, `person_detection`。*\n\n如果你已经克隆了该仓库，可直接进入 `examples\u002F\u003Cexample_name>` 目录进行操作。\n\n## 基本使用\n\n以下以运行 **Person Detection**（人员检测）示例在 **ESP32-P4** 上为例：\n\n### 1. 设置目标芯片\n根据你使用的开发板设置目标架构（例如 ESP32-P4）：\n\n```bash\nidf.py set-target esp32p4\n```\n*注：其他常见型号如 `esp32s3`, `esp32c3`, `esp32` 等请相应替换。*\n\n### 2. 编译项目\n执行编译命令，系统将自动集成 ESP-NN 优化库以提升推理速度：\n\n```bash\nidf.py build\n```\n\n### 3. 烧录与监控\n连接开发板后，将 `\u002Fdev\u002FttyUSB0` 替换为你的实际串口设备名（Windows 下通常为 `COMx`），执行烧录并打开串口监视器：\n\n```bash\nidf.py --port \u002Fdev\u002FttyUSB0 flash monitor\n```\n\n*提示：按 `Ctrl+]` 可退出监视器。*\n\n### 性能说明\n本项目默认集成了 **ESP-NN** 加速库。相比未优化版本，在 ESP32-S3 和 ESP32-P4 等芯片上，推理速度可提升数十倍（例如人员检测从秒级降低至毫秒级）。无需额外配置即可享受加速效果。","某智能家居初创团队正在为一款低功耗电池供电的摄像头开发“本地人体检测”功能，旨在无需云端连接即可触发警报以保护用户隐私。\n\n### 没有 esp-tflite-micro 时\n- **推理速度极慢**：在 ESP32-S3 芯片上运行通用 TensorFlow Lite Micro 内核，单次人体检测耗时高达 2300ms，导致画面严重卡顿，无法实现实时监测。\n- **功耗过高**：漫长的计算过程迫使 CPU 长时间处于高频工作状态，迅速耗尽电池电量，设备续航从预期的数月缩短至几天。\n- **开发适配困难**：工程师需手动移植和优化底层算子以适配 Espressif 架构，不仅周期长，还极易因内存管理不当导致系统崩溃。\n- **依赖云端延迟**：由于本地算力不足，团队被迫将视频流上传云端处理，增加了网络延迟并引发了用户对隐私泄露的担忧。\n\n### 使用 esp-tflite-micro 后\n- **实时响应流畅**：得益于集成的 ESP-NN 优化内核，ESP32-S3 上的检测耗时骤降至 54ms，帧率大幅提升，实现了流畅的实时视频分析。\n- **显著延长续航**：快速完成计算让 CPU 能迅速回归深度睡眠模式，整机功耗降低数十倍，完美满足电池供电设备的长期运行需求。\n- **开箱即用高效**：通过 `idf.py add-dependency` 一键集成组件，直接调用官方提供的 `person_detection` 示例，大幅缩短了从原型到量产的开发周期。\n- **纯本地隐私保护**：强大的边缘算力支持完全在设备端完成推理，无需上传任何视频数据，彻底解决了隐私合规痛点。\n\nesp-tflite-micro 通过将高度优化的神经网络内核与乐鑫芯片深度结合，让资源受限的物联网设备也能拥有实时、低功耗且安全的 AI 推理能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fespressif_esp-tflite-micro_d4261940.png","espressif","Espressif Systems","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fespressif_5ee59ad3.png","",null,"http:\u002F\u002Fespressif.com","https:\u002F\u002Fgithub.com\u002Fespressif",[83,87,91,95],{"name":84,"color":85,"percentage":86},"C++","#f34b7d",98,{"name":88,"color":89,"percentage":90},"C","#555555",1.8,{"name":92,"color":93,"percentage":94},"CMake","#DA3434",0.2,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0.1,621,134,"2026-04-02T22:31:04","Apache-2.0",4,"Linux, macOS, Windows","不需要 GPU，该工具专为嵌入式微控制器（如 ESP32 系列）设计，在 MCU 上运行","取决于具体芯片型号（通常为几 MB 级别），开发主机建议 8GB+",{"notes":108,"python":109,"dependencies":110},"1. 必须安装 ESP-IDF 开发框架（版本 v4.4 及以上）并配置好环境变量（IDF_PATH）。\n2. 需要安装对应芯片架构的交叉编译工具链（如 Xtensa 或 RISC-V GCC）。\n3. 目标硬件为乐鑫芯片（如 ESP32, ESP32-S3, ESP32-C3, ESP32-P4）。\n4. 已集成 ESP-NN 库以提供针对乐鑫芯片的内核优化，显著提升推理速度。","未说明（构建基于 ESP-IDF 和 CMake，主要使用 C\u002FC++）",[111,112,113],"ESP-IDF (release\u002Fv4.4+)","xtensa-esp32-elf-gcc (或对应架构工具链)","esp-nn (集成优化库)",[13],"2026-03-27T02:49:30.150509","2026-04-06T07:12:58.573699",[118,123,128,133,138,142],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},16836,"构建 person_detection 模型时出现 'Failed to resolve component tflite-lib' 错误怎么办？","这通常是因为文档中的配置步骤有误。如果您想使用摄像头功能，需要注释掉（comment out）代码第 16 行的 `#define CLI_ONLY_INFERENCE 1` 定义。原文档曾错误地建议取消注释该行以使用摄像头，实际上应当注释掉它才能启用摄像头推理。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Fissues\u002F27",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},16837,"ESP32-S3 运行 Int8 量化模型时输出始终为 0 如何解决？","这是一个已知问题，已在 esp-nn 组件的 v1.1.1 版本中修复。请执行以下步骤：\n1. 确保您的项目使用最新版本的 esp-nn (v1.1.1 或更高)。\n2. 执行清理构建（clean build）以应用补丁。\n更新后，量化模型的输出将恢复正常，不再恒定为 0 或固定值。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Fissues\u002F108",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},16838,"ESP32-S3-EYE 开发板构建 person_detection 示例失败或运行时崩溃怎么办？","这通常是由于 PSRAM 配置错误导致的。量产版的 ESP32-S3-EYE 开发板搭载的是 Octal PSRAM（八线制），但默认配置可能设置为 Quad PSRAM（四线制）。\n解决方法：\n1. 运行 `idf.py menuconfig`。\n2. 找到 PSRAM 配置选项。\n3. 将 PSRAM 模式从 'Quad' 更改为 'Octal'。\n4. 保存配置并重新编译烧录。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Fissues\u002F72",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},16839,"运行 micro_speech 示例时出现 'StoreProhibited'  panic 错误或内存分配失败怎么办？","这是因为设置的音频缓冲区大小（如 kAudioCaptureBufferSize）过大，超出了 SRAM 的可分配空间。\n解决方法：\n1. 不要随意增大缓冲区变量，请将其还原为示例代码中的默认值。\n2. 如果修改过代码，请执行 `idf.py fullclean` 进行清理构建，确保没有残留的旧配置。\n3. 确保使用的是最新的代码库（执行 `git pull --rebase`）。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-tflite-micro\u002Fissues\u002F69",{"id":139,"question_zh":140,"answer_zh":141,"source_url":137},16840,"micro_speech 示例报错 'Output type UINT32 not supported' 或节点调用失败是什么原因？","这通常是因为音频输入格式与模型预期不匹配，或者缓冲区配置错误导致的连锁反应。\n1. 确认音频采样率为 8000 Hz，位深为 16-bit。\n2. 检查是否因之前尝试调整缓冲区大小导致了内存状态异常，请先将缓冲区大小恢复默认值。\n3. 执行完全清理构建 (`idf.py fullclean`) 后重新编译，以排除构建环境干扰。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":127},16841,"如何禁用 esp-nn 优化或使用 ANSI C 版本？","可以通过以下方式控制优化级别：\n1. 在 `menuconfig` 中禁用相关选项可以关闭部分优化，但 ANSI C 版本仍可能通过 esp-nn 插件引入。\n2. 若要完全移除优化并使用纯 ANSI C 实现，需要在项目的 `CMakeLists.txt` 文件中注释掉引入 esp-nn 的相关行。\n注意：禁用优化可能会显著降低推理速度。",[]]