[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-espressif--esp-dl":3,"tool-espressif--esp-dl":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":111,"env_os":112,"env_gpu":113,"env_ram":114,"env_deps":115,"category_tags":124,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":125,"updated_at":126,"faqs":127,"releases":157},9784,"espressif\u002Fesp-dl","esp-dl","Espressif deep-learning library for AIoT applications","esp-dl 是乐鑫专为 ESP 系列芯片打造的轻量级深度学习推理框架，旨在让开发者在资源受限的 AIoT 设备上轻松运行人工智能应用。它解决了传统深度学习模型难以在低功耗微控制器上高效部署的难题，通过提供简洁的 API，让用户能快速加载、调试并运行 AI 模型，同时无缝集成到乐鑫现有的开发生态中。\n\n这款工具特别适合嵌入式软件工程师、IoT 开发者以及希望在端侧设备实现智能功能的研究人员。无论是进行物体检测还是语音识别，esp-dl 都能提供强有力的支持。其技术亮点显著：采用基于 FlatBuffers 的`.espdl`标准模型格式，实现零拷贝反序列化以节省内存；内置静态内存规划器，自动优化层间内存分配；支持双核自动调度，充分释放多核算力；并通过 8 位查找表（LUT）技术加速各类激活函数运算。此外，配套的 esp-ppq 量化工具支持将 PyTorch、TensorFlow 等主流框架模型转换为 esp-dl 格式。从最新的 YOLO26 模型支持到辅助代码生成的 AI Agent 技能，esp-dl 正不断降低边缘 AI 的开发门槛，让智能触手可及。","# ESP-DL [[中文]](.\u002FREADME_cn.md)\n\n[![Documentation Status](.\u002Fdocs\u002F_static\u002Fdoc_latest.svg)](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Findex.html)  [![Component Registry](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-dl\u002Fbadge.svg)](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-dl)\n\nESP-DL is a lightweight and efficient neural network inference framework designed specifically for ESP series chips. With ESP-DL, you can easily and quickly develop AI applications using Espressif's System on Chips (SoCs).\n\n## Overview\n\nESP-DL offers APIs to load, debug, and run AI models. The framework is easy to use and can be seamlessly integrated with other Espressif SDKs. ESP-PPQ serves as the quantization tool for ESP-DL, capable of quantizing models from ONNX, Pytorch, and TensorFlow, and exporting them into the ESP-DL standard model format.\n\n- **ESP-DL Standard Model Format**: This format is similar to ONNX but uses FlatBuffers instead of Protobuf, making it more lightweight and supporting zero-copy deserialization, with a file extension of `.espdl`.\n- **Efficient Operator Implementation**: ESP-DL efficiently implements common AI operators such as Conv, Gemm, Add, and Mul. [**The list of supported operators**](.\u002Foperator_support_state.md).\n- **Static Memory Planner**: The memory planner automatically allocates different layers to the optimal memory location based on the user-specified internal RAM size, ensuring efficient overall running speed while minimizing memory usage.\n- **Dual Core Scheduling**: Automatic dual-core scheduling allows computationally intensive operators to fully utilize the dual-core computing power. Currently, Conv2D and DepthwiseConv2D support dual-core scheduling.\n- **8bit LUT Activation**: All activation functions except for ReLU and PReLU are implemented using an 8-bit LUT (Look Up Table) method in ESP-DL to accelerate inference. You can use any activation function, and their computational complexity remains the same.\n\n## News\n- [2026\u002F3\u002F12] [YOLO26](.\u002Fmodels\u002Fyolo26\u002F) model has been added, thanks to [BoumedineBillal](https:\u002F\u002Fgithub.com\u002FBoumedineBillal) for the contribution. [Start training and deploying your own YOLO26 model](.\u002Fexamples\u002Ftutorial\u002Fhow_to_quantize_model\u002Fquantize_yolo26).\n- [2026\u002F3\u002F11] The ESP-DL Agent Tool has been evolved into **espdl-operator skill**, making it easier for AI Agents to automatically implement operators. See [how_to_implement_operators_with_ai_agent.rst](.\u002Fdocs\u002Fen\u002Ftutorials\u002Fhow_to_implement_operators_with_ai_agent.rst).\n- [2026\u002F2\u002F27] Support quantizing models with TrainedQuantizedThresholdPass. See [quantize_model_with_TQT.rst](.\u002Fdocs\u002Fen\u002Ftutorials\u002Fquantize_model_with_TQT.rst).\n- [2026\u002F1\u002F14] Support visualizing `.espdl` models in [netron](https:\u002F\u002Fnetron.app\u002F) to facilitate model debugging.\n- [2025\u002F11\u002F4] Release [ESP-DL Agent Tool v1.0](.\u002Ftools\u002Fagents\u002Fskills\u002Fespdl-operator\u002F). This tool is designed for code agent system to assist with implementing and optimizing operators for the ESP-DL framework. \n- [2025\u002F10\u002F20] We released ESP-DL v3.2.0 with improved model quantization and deployment capabilities.\n- [2025\u002F07\u002F22] Rename the ESP-PPQ package from ppq to esp-ppq to avoid conflicts with ppq, and upgrade all ESP-PPQ dependencies to the latest versions. **Note: In the quantization script, pay attention to modifying the package name.**\n- [2025\u002F04\u002F30] We released a new [esp-detection](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-detection) project and the `ESPDet-Pico` model, which can easily train and deploy object detection models. [espdet_pico_224_224_cat espdl model](.\u002Fmodels\u002Fcat_detect\u002F) and [example](.\u002Fexamples\u002Fcat_detect\u002F) is a cat detection model trained by esp-detection. Feel free to try it and share your feedback!\n- [2025\u002F02\u002F18] We supported yolo11n [espdl model](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Ftree\u002Fmaster\u002Fmodels\u002Fcoco_detect) and [example](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Ftree\u002Fmaster\u002Fexamples\u002Fyolo11_detect).\n- [2025\u002F01\u002F09] We updated the schema of espdl model and released ESP-DL v3.1.0. Note: previous models can be load by new schema, but new model is not compatible with previous version. \n- [2024\u002F12\u002F20] We released ESP-DL v3.0.0.\n\n## Getting Started\n\n### Software Requirements\n\n- **ESP-IDF**  \n\nESP-DL runs based on ESP-IDF. For detailed instructions on how to get ESP-IDF, please see [ESP-IDF Programming Guide](https:\u002F\u002Fidf.espressif.com).\n\n> Please use [ESP-IDF](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf) `release\u002Fv5.3` or above.\n\n\n- **ESP-PPQ**\n\nESP-PPQ is a quantization tool based on ppq. If you want to quantize your own model, you can install esp-ppq using the following method. For more installation methods, please refer to the [Getting Started](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Fgetting_started\u002Freadme.html#).\n\n```\n   pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu\n   pip install esp-ppq\n```\n\n> [!NOTE]\n> - The example code installs the Linux PyTorch CPU version. Please install the appropriate PyTorch version based on your actual needs.\n\n### Model Quantization\n\nFirst, please refer to the [ESP-DL Operator Support State](.\u002Foperator_support_state.md) to ensure that the operators in your model are already supported.  \n\nESP-PPQ can directly read ONNX models for quantization. Pytorch and TensorFlow need to be converted to ONNX models first, so make sure your model can be converted to ONNX models. For more details about quantization, please refer to\n\n[how to quantize model](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_quantize_model.html)  \n[how to quantize MobileNetV2](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_mobilenetv2.html#model-quantization)  \n[how to quantize YOLO11n](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_yolo11n.html#model-quantization)  \n\n\n### Model Deployment\nESP-DL provides a series of API to quickly load and run models.  A typical example is as follows:\n\n[how to load test profile model](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_load_test_profile_model.html)  \n[how to run model](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_run_model.html)  \n\n\n## ESP-DL Model Zoo\n\nThe directory [models](.\u002Fmodels\u002F) contains a collection of pre-trained and quantized models optimized for ESP32 series chips. Each model is provided as an ESP-IDF component for easy integration. For more details, please refer to [ESP-DL Model Zoo](.\u002Fmodels\u002FREADME.md).\n\n\n## Support Operators\n\nIf you encounter unsupported operators, please point them out in the [issues](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues), and we will support them as soon as possible. Contributions to this ESP-DL are also welcomed, please refer to [Creating a New Module (Operator)](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_add_a_new_module%28operator%29.html) for more details.\n\n[ESP-DL Operator Support State](.\u002Foperator_support_state.md)\n","# ESP-DL [[中文]](.\u002FREADME_cn.md)\n\n[![Documentation Status](.\u002Fdocs\u002F_static\u002Fdoc_latest.svg)](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Findex.html)  [![Component Registry](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-dl\u002Fbadge.svg)](https:\u002F\u002Fcomponents.espressif.com\u002Fcomponents\u002Fespressif\u002Fesp-dl)\n\nESP-DL 是一款专为 ESP 系列芯片设计的轻量级、高效的神经网络推理框架。借助 ESP-DL，您可以轻松快速地使用乐鑫的系统级芯片（SoC）开发 AI 应用程序。\n\n## 概述\n\nESP-DL 提供了加载、调试和运行 AI 模型的 API。该框架易于使用，可与乐鑫的其他 SDK 无缝集成。ESP-PPQ 是 ESP-DL 的量化工具，能够对 ONNX、Pytorch 和 TensorFlow 格式的模型进行量化，并导出为 ESP-DL 标准模型格式。\n\n- **ESP-DL 标准模型格式**：该格式类似于 ONNX，但使用 FlatBuffers 而不是 Protobuf，因此更加轻量，并支持零拷贝反序列化，文件扩展名为 `.espdl`。\n- **高效算子实现**：ESP-DL 高效实现了常见的 AI 算子，如 Conv、Gemm、Add 和 Mul。[**支持的算子列表**](.\u002Foperator_support_state.md)。\n- **静态内存规划器**：内存规划器会根据用户指定的内部 RAM 大小，自动将不同层分配到最优的内存位置，从而在最小化内存占用的同时，确保整体运行效率。\n- **双核调度**：自动的双核调度功能使计算密集型算子能够充分利用双核计算能力。目前，Conv2D 和 DepthwiseConv2D 支持双核调度。\n- **8位查找表激活**：除 ReLU 和 PReLU 外，ESP-DL 中的所有激活函数都采用 8 位查找表（LUT）方法实现，以加速推理。您可以使用任何激活函数，其计算复杂度保持不变。\n\n## 新闻\n- [2026\u002F3\u002F12] 添加了 YOLO26 模型，感谢 [BoumedineBillal](https:\u002F\u002Fgithub.com\u002FBoumedineBillal) 的贡献。[开始训练并部署您自己的 YOLO26 模型](.\u002Fexamples\u002Ftutorial\u002Fhow_to_quantize_model\u002Fquantize_yolo26)。\n- [2026\u002F3\u002F11] ESP-DL Agent 工具已演变为 **espdl-operator 技能**，使 AI 代理能够更轻松地自动实现算子。请参阅 [how_to_implement_operators_with_ai_agent.rst](.\u002Fdocs\u002Fen\u002Ftutorials\u002Fhow_to_implement_operators_with_ai_agent.rst)。\n- [2026\u002F2\u002F27] 支持使用 TrainedQuantizedThresholdPass 对模型进行量化。详情请见 [quantize_model_with_TQT.rst](.\u002Fdocs\u002Fen\u002Ftutorials\u002Fquantize_model_with_TQT.rst)。\n- [2026\u002F1\u002F14] 支持在 [netron](https:\u002F\u002Fnetron.app\u002F) 中可视化 `.espdl` 模型，便于模型调试。\n- [2025\u002F11\u002F4] 发布了 [ESP-DL Agent 工具 v1.0](.\u002Ftools\u002Fagents\u002Fskills\u002Fespdl-operator\u002F)。该工具专为代码代理系统设计，用于协助实现和优化 ESP-DL 框架中的算子。\n- [2025\u002F10\u002F20] 我们发布了 ESP-DL v3.2.0，进一步提升了模型量化和部署能力。\n- [2025\u002F07\u002F22] 将 ESP-PPQ 包从 ppq 重命名为 esp-ppq，以避免与 ppq 冲突，并将所有 ESP-PPQ 的依赖项升级到最新版本。**注意：在量化脚本中，请务必修改包名。**\n- [2025\u002F04\u002F30] 我们发布了一个新的 [esp-detection](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-detection) 项目以及 `ESPDet-Pico` 模型，可以轻松训练和部署目标检测模型。[espdet_pico_224_224_cat espdl 模型](.\u002Fmodels\u002Fcat_detect\u002F) 和 [示例](.\u002Fexamples\u002Fcat_detect\u002F) 是由 esp-detection 训练的猫检测模型。欢迎试用并分享您的反馈！\n- [2025\u002F02\u002F18] 我们支持 yolo11n [espdl 模型](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Ftree\u002Fmaster\u002Fmodels\u002Fcoco_detect) 和 [示例](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Ftree\u002Fmaster\u002Fexamples\u002Fyolo11_detect)。\n- [2025\u002F01\u002F09] 我们更新了 espdl 模型的架构，并发布了 ESP-DL v3.1.0。请注意：旧版模型仍可被新架构加载，但新模型与旧版本不兼容。\n- [2024\u002F12\u002F20] 我们发布了 ESP-DL v3.0.0。\n\n## 入门指南\n\n### 软件要求\n\n- **ESP-IDF**\n\nESP-DL 基于 ESP-IDF 运行。有关如何获取 ESP-IDF 的详细说明，请参阅 [ESP-IDF 编程指南](https:\u002F\u002Fidf.espressif.com)。\n\n> 请使用 [ESP-IDF](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-idf) `release\u002Fv5.3` 或更高版本。\n\n\n- **ESP-PPQ**\n\nESP-PPQ 是基于 ppq 的量化工具。如果您想量化自己的模型，可以通过以下方式安装 esp-ppq。更多安装方法请参考 [入门指南](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Fgetting_started\u002Freadme.html#)。\n\n```\n   pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu\n   pip install esp-ppq\n```\n\n> [!NOTE]\n> - 示例代码安装的是 Linux 版 PyTorch CPU 版本。请根据您的实际需求安装合适的 PyTorch 版本。\n\n### 模型量化\n\n首先，请参考 [ESP-DL 算子支持状态](.\u002Foperator_support_state.md)，确保您的模型中的算子已被支持。  \n\nESP-PPQ 可直接读取 ONNX 模型进行量化。Pytorch 和 TensorFlow 需要先转换为 ONNX 模型，因此请确保您的模型可以转换为 ONNX 模型。有关量化更详细的说明，请参阅：\n\n[如何量化模型](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_quantize_model.html)  \n[如何量化 MobileNetV2](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_mobilenetv2.html#model-quantization)  \n[如何量化 YOLO11n](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_yolo11n.html#model-quantization)  \n\n\n### 模型部署\nESP-DL 提供了一系列 API，可快速加载和运行模型。典型示例如下：\n\n[如何加载测试模型](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_load_test_profile_model.html)  \n[如何运行模型](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_run_model.html)  \n\n\n## ESP-DL 模型库\n\n目录 [models](.\u002Fmodels\u002F) 包含一系列针对 ESP32 系列芯片优化的预训练和量化模型。每个模型都以 ESP-IDF 组件的形式提供，便于集成。更多详情请参阅 [ESP-DL 模型库](.\u002Fmodels\u002FREADME.md)。\n\n## 支持的算子\n\n如果您遇到不支持的算子，请在 [issues](https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues) 中指出，我们将尽快予以支持。我们也欢迎对 ESP-DL 的贡献，更多详情请参阅 [创建新模块（算子）](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_add_a_new_module%28operator%29.html)。\n\n[ESP-DL 算子支持状态](.\u002Foperator_support_state.md)","# ESP-DL 快速上手指南\n\nESP-DL 是乐鑫专为 ESP 系列芯片打造的轻量级、高效神经网络推理框架。本指南将帮助您快速完成环境搭建、模型量化及部署运行。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL 推荐)\n*   **ESP-IDF**：必须安装 **release\u002Fv5.3** 或更高版本。\n    *   获取方式：参考 [ESP-IDF 编程指南](https:\u002F\u002Fidf.espressif.com)。\n*   **Python 环境**：用于安装量化工具依赖。\n*   **硬件**：ESP32 系列开发板（支持双核调度的型号效果更佳）。\n\n## 2. 安装步骤\n\n### 2.1 配置 ESP-IDF\n按照官方文档完成 ESP-IDF 的安装与环境变量导出。确保 `idf.py --version` 能正常输出版本信息且版本 >= 5.3。\n\n### 2.2 安装量化工具 (ESP-PPQ)\nESP-PPQ 是将 ONNX\u002FPyTorch\u002FTensorFlow 模型转换为 ESP-DL 专用格式 (`.espdl`) 的关键工具。\n\n在终端中执行以下命令安装依赖（以 Linux CPU 版本为例，其他平台请根据需求调整 PyTorch 源）：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu\npip install esp-ppq\n```\n\n> **注意**：如果您之前使用过旧版 `ppq` 包，请注意乐鑫已将其重命名为 `esp-ppq` 以避免冲突，请在脚本中更新导入名称。\n\n## 3. 基本使用流程\n\nESP-DL 的核心工作流分为两步：**模型量化**（在 PC 端进行）和 **模型部署**（在 ESP 芯片上运行）。\n\n### 3.1 模型量化\n在量化前，请查阅 [算子支持列表](.\u002Foperator_support_state.md) 确认您的模型算子已被支持。ESP-PPQ 直接支持读取 ONNX 模型。\n\n**简要步骤：**\n1.  将您的 PyTorch 或 TensorFlow 模型导出为 **ONNX** 格式。\n2.  使用 ESP-PPQ 脚本进行量化并生成 `.espdl` 文件。\n\n参考官方教程进行具体操作：\n*   [如何量化模型](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_quantize_model.html)\n*   [MobileNetV2 量化示例](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_mobilenetv2.html#model-quantization)\n*   [YOLO11n 量化示例](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_deploy_yolo11n.html#model-quantization)\n\n生成的 `.espdl` 模型文件可直接放入 ESP-IDF 项目的 `main` 目录或作为组件引用。您可以使用 [Netron](https:\u002F\u002Fnetron.app\u002F) 可视化查看 `.espdl` 模型结构以辅助调试。\n\n### 3.2 模型部署与运行\n在 ESP-IDF 项目中，ESP-DL 提供了简洁的 API 来加载和运行模型。\n\n**典型代码逻辑：**\n\n1.  **加载模型**：使用 API 读取存储在 Flash 中的 `.espdl` 文件。\n2.  **准备输入**：将图像或传感器数据预处理为模型所需的张量格式。\n3.  **执行推理**：调用运行接口，框架会自动利用静态内存规划器和双核调度优化性能。\n4.  **处理结果**：解析输出张量获取推理结果。\n\n详细代码示例请参考：\n*   [加载测试配置文件模型](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_load_test_profile_model.html)\n*   [运行模型示例](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_run_model.html)\n\n## 4. 进阶资源\n\n*   **模型库 (Model Zoo)**：访问 [models](.\u002Fmodels\u002F) 目录，获取预训练并量化好的模型（如 YOLO 系列、猫检测模型等），它们已封装为 ESP-IDF 组件，可直接集成使用。\n*   **算子扩展**：若遇到不支持的算子，可通过 [AI Agent 技能](.\u002Fdocs\u002Fen\u002Ftutorials\u002Fhow_to_implement_operators_with_ai_agent.rst) 辅助生成代码，或参考 [新增算子教程](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Ftutorials\u002Fhow_to_add_a_new_module%28operator%29.html) 手动实现并提交贡献。","一家智能硬件初创团队正试图在成本极低的 ESP32-S3 开发板上部署实时猫脸识别功能，用于自动宠物喂食器。\n\n### 没有 esp-dl 时\n- **内存严重溢出**：直接运行标准 TensorFlow Lite 模型时，因缺乏针对 ESP 芯片的静态内存规划，频繁触发 OOM（内存不足）错误导致设备重启。\n- **推理速度迟缓**：单核处理卷积运算效率低下，视频帧率仅为 2-3 FPS，无法捕捉宠物快速移动的瞬间。\n- **量化流程繁琐**：将 PyTorch 模型转换为嵌入式格式需手动编写大量底层代码，且难以平衡精度与模型大小，开发周期长达数周。\n- **激活函数开销大**：复杂的非线性激活函数占用过多 CPU 周期，进一步拖慢了整体响应速度。\n\n### 使用 esp-dl 后\n- **内存极致优化**：esp-dl 的静态内存规划器自动将网络层分配至最优内部 RAM 位置，在极低内存占用下稳定运行，彻底消除溢出风险。\n- **双核加速流畅**：利用自动双核调度技术，Conv2D 等算子充分压榨双核算力，识别帧率提升至 15+ FPS，实现流畅实时检测。\n- **一键量化部署**：通过 esp-ppq 工具链，可轻松将 ONNX\u002FPyTorch 模型量化为轻量的 `.espdl` 格式，支持零拷贝反序列化，部署时间缩短至几天。\n- **查表法加速计算**：采用 8-bit LUT（查找表）技术实现复杂激活函数，在不增加计算复杂度的前提下显著降低延迟。\n\nesp-dl 让资源受限的 IoT 芯片也能跑通高精度深度学习模型，真正实现了 AI 在边缘端的低成本落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fespressif_esp-dl_2860c729.png","espressif","Espressif Systems","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fespressif_5ee59ad3.png","",null,"http:\u002F\u002Fespressif.com","https:\u002F\u002Fgithub.com\u002Fespressif",[80,84,88,92,96,100,104],{"name":81,"color":82,"percentage":83},"Assembly","#6E4C13",39.4,{"name":85,"color":86,"percentage":87},"C++","#f34b7d",33.1,{"name":89,"color":90,"percentage":91},"C","#555555",24.7,{"name":93,"color":94,"percentage":95},"Python","#3572A5",2.1,{"name":97,"color":98,"percentage":99},"CMake","#DA3434",0.6,{"name":101,"color":102,"percentage":103},"Shell","#89e051",0,{"name":105,"color":106,"percentage":103},"Dockerfile","#384d54",980,200,"2026-04-19T09:03:05","MIT",4,"Linux, macOS, Windows","非必需。量化训练阶段支持 CPU 或 GPU（取决于 PyTorch 安装版本），推理运行在 ESP32 系列芯片上，无需主机 GPU。","未说明（取决于具体模型大小及 ESP32 芯片内部 RAM 配置，框架具备静态内存规划功能）",{"notes":116,"python":117,"dependencies":118},"该工具主要用于乐鑫 ESP32 系列芯片的 AI 推理。主机端仅用于模型量化和编译（需安装 ESP-IDF 和 esp-ppq），实际运行环境为嵌入式设备。量化脚本默认示例安装的是 Linux PyTorch CPU 版本，用户需根据实际硬件（是否有 NVIDIA GPU）自行调整 PyTorch 安装命令。模型需先转换为 ONNX 格式再进行量化。","3.8+",[119,120,121,122,123],"ESP-IDF (release\u002Fv5.3+)","torch","torchvision","torchaudio","esp-ppq",[15,14],"2026-03-27T02:49:30.150509","2026-04-20T07:17:57.019366",[128,133,138,143,147,152],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},43940,"模型量化后输出结果异常（例如所有输入都输出同一类别），可能是什么原因？","这种情况通常发生在将 Torch 模型转换为 ONNX 模型并直接进行量化时。请检查输入数据预处理步骤，例如有无意外将图像转换为灰度图，或者确认量化校准数据集（calib_dataset）的形状和分布是否与模型输入要求一致。如果问题依旧，建议重新生成量化表或检查模型转换脚本。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues\u002F241",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},43941,"使用新的动态库（.so）进行量化时，生成的滤波器参数与之前不一致导致结果错误，该如何解决？","如果替换了维护者提供的 `calibrator.so` 动态库后，发现生成的 16 位量化卷积层滤波器元素（filter element）数值发生变化且结果不正确，这通常意味着需要重新转换模型以适配新的库。请确保使用与维护者沟通时指定的特定版本动态库，并在更换库后重新执行模型转换和量化流程，不要混用不同版本生成的中间文件。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues\u002F66",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},43942,"运行量化工具时报错 'IndexError: list index (1) out of range' 是怎么回事？","该错误通常发生在 `calibrator.export_coefficient_to_cpp` 阶段。主要原因包括：1. 校准数据集（calib_dataset）的形状与 ONNX 模型的输入尺寸不匹配（例如模型输入为 bx240x320x3，但数据集维度定义有误）；2. 模型中存在某些层无法正确解析。请打印并核对 `calib_dataset` 的 shape 是否严格符合模型输入要求（注意 batch 维度和通道顺序），并确保使用的是最新版本的量化工具脚本。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues\u002F59",{"id":144,"question_zh":145,"answer_zh":146,"source_url":142},43943,"在 ESP32 上模型推理速度慢，前几层耗时正常但后续层（如 conv2d_7）耗时过长，如何优化？","如果模型前几层运行较快（300-400ms），但从某一层（如 conv2d_7）开始耗时剧增（超过 2000ms），通常是因为该层的 MAC（乘累加运算）次数过大。优化建议：1. 尝试将该层的大卷积核替换为 1x1 卷积或其他轻量级操作；2. 检查该层的输入输出通道数是否过大，适当剪枝；3. 确认是否使用了针对 ESP32-S3 优化的算子实现。通常需要同时优化模型结构和代码实现来提升速度。",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},43944,"实例化 dl::Model 时，max_internal_size 参数设置为 0 会导致内存占用异常高或推理结果错误吗？","在 esp-dl v3.2.0 及更早版本中，将 `max_internal_size` 设置为 0 可能导致内存未正确分配至 PSRAM 而占用过多的内部 RAM，甚至引发推理结果异常。该问题已在 esp-dl v3.2.3 版本中修复。建议升级到 master 分支最新代码或 v3.2.3 以上版本。在新版本中，框架会更合理地处理内存分配，即使设置为 0 也能正常工作，或者根据模型需求自动调整。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues\u002F277",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},43945,"如何将 esp-dl 库移植到已有的工程中，特别是如何处理模型权重文件？","移植时需要自行将模型各层（特别是卷积层）的参数提取并保存为对应的 `.npy` 文件。例如，将第一层卷积的权重 `StatefulPartitionedCall\u002Ffunctional_1\u002Fconv1d\u002Fconv1d\u002FExpandDims_1:0` 保存为 `layer1_filter.npy`。具体的配置文件格式和命名规则请参考官方文档：https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fblob\u002Fmaster\u002Ftools\u002Fconvert_tool\u002Fspecification_of_config_json_cn.md。注意 TFLM 后端目前可能不再由该团队主要维护，建议优先使用 esp-dl 原生格式。","https:\u002F\u002Fgithub.com\u002Fespressif\u002Fesp-dl\u002Fissues\u002F73",[158,163,168],{"id":159,"version":160,"summary_zh":161,"released_at":162},351403,"v3.2.0","ESP-DL v3.2.0 继续提供一个专为 ESP 系列芯片优化的轻量级、高效的神经网络推理框架，现已支持更广泛的模型和算子，并增强了性能分析工具，以帮助开发者更好地优化应用。\n\n### 新的关键特性\n引入了全面的性能分析 API，以帮助开发者优化其应用程序：\n- 模型内存分析功能，用于分析内存使用情况；\n- 性能剖析工具，提供详细的执行分析；\n- 运行时模型测试与剖析的 API；\n- 优化的内存分配与使用统计信息；\n- 模型懒加载机制，以提升内存效率。\n\n### 更多模型支持\nESP-DL v3.2.0 增加了对更多 AI 模型的支持，包括：\n- YOLO11n 和 YOLO11n-pose，用于高级目标检测与姿态估计；\n- ESPDet-Pico 猫咪检测模型，适用于轻量级目标检测；\n- LSTM 和 GRU 模型，用于序列处理；\n- 优化的人脸检测与识别模型。\n\n### 扩展的算子支持\nESP-DL 的算子接口已与 ONNX 对齐。建议使用 opset 18 导出 ONNX 模型。目前，已实现并测试了以下 56 个算子。\n\n| 算子                                                                                                                                                     | int8     | int16    | float32   | 限制                                                           |\n|--------------------------------------------------------------------------------------------------------------------------------------------------------------|----------|----------|-----------|------------------------------------------------------------------------|\n| Add[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_add.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__Add.html)                                             | &#10004; | &#10004; | &#10004;  | 最多支持 4D                                                       |\n| AveragePool[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_average_pool.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__AveragePool.html)                    | &#10004; | &#10004; | &#10006;  | 支持 1D\u002F2D，不支持膨胀卷积                                  |\n| Clip[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_clip.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__Clip.html)                                          | &#10004; | &#10004; | &#10004;  |                                                                        |\n| Concat[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_concat.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__Concat.html)                                    | &#10004; | &#10004; | &#10004;  |                                                                        |\n| Conv[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_conv.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__Conv.html)                      ","2025-10-23T06:23:34",{"id":164,"version":165,"summary_zh":166,"released_at":167},351404,"v3.0.0","我们很高兴地推出 **ESP-DL v3.0.0**，这是一个专为 ESP 系列芯片打造的轻量级、高效的神经网络推理框架。本次发布带来了显著的增强和新特性，使在乐鑫系统级芯片（SoC）上开发 AI 应用程序比以往更加便捷。然而，请注意，v3.0.0 与 v2.0 不兼容。以下是本次发布的关键更新和改进：\n\n---\n\n### **核心功能与改进**\n\n#### **ESP-DL 标准模型格式**\n引入了一种类似于 ONNX 的新型模型格式，但针对 ESP-DL 进行了优化，使用 FlatBuffers 替代 Protobuf。该格式支持零拷贝反序列化，文件扩展名为 `.espdl`。\n\n#### **高效算子实现**\n借助 ESP32-S3 和 ESP32-P4 的 [PIE（处理器指令扩展）](https:\u002F\u002Fdeveloper.espressif.com\u002Fblog\u002F2024\u002F12\u002Fpie-introduction)，增强了对常见 AI 算子的支持，如 Conv、Gemm、Add 和 Mul。\n\n#### **静态内存规划器**\n新增的内存规划器可根据用户指定的片内 RAM 大小，自动将各层分配到最优的内存位置，从而确保内存使用的高效性以及整体性能的提升。\n\n#### **双核调度**\n引入了自动双核调度功能，以充分利用 ESP 芯片的双核计算能力。目前，Conv2D 和 DepthwiseConv2D 算子已支持双核调度。\n\n#### **8 位 LUT 激活函数**\n除 ReLU 和 PReLU 外，所有激活函数均采用 8 位查找表（LUT）方法实现，以加速推理过程。这一设计既保证了灵活的激活函数选择，又维持了稳定的计算复杂度。\n\n---\n\n### **支持的模型**\n- [行人检测](.\u002Fmodels\u002Fpedestrian_detect\u002F)\n- [人脸检测](.\u002Fmodels\u002Fhuman_face_detect\u002F)\n- [人脸识别](.\u002Fmodels\u002Fhuman_face_recognition\u002F)\n- [ImageNet 分类](.\u002Fmodels\u002Fimagenet_cls\u002F)\n\n---\n\n### **支持的算子**\n\n\nESP-DL 的算子接口与 ONNX 保持一致。建议使用 opset 13 导出 ONNX 模型。目前，已有 31 个算子完成实现并经过测试。部分算子尚未完全实现所有功能和属性，请参考各算子的说明或 [测试用例](.\u002Ftools\u002Fops_test\u002Fconfig\u002Fop_cfg.toml) 获取详细信息。\n\n| 算子                                                                                                                                                     | int8     | int16    | 描述                                 |\n|--------------------------------------------------------------------------------------------------------------------------------------------------------------|----------|----------|---------------------------------------------|\n| Add[(ESP-DL)](esp-dl\u002Fdl\u002Fmodule\u002Finclude\u002Fdl_module_add.hpp)[(ONNX)](https:\u002F\u002Fonnx.ai\u002Fonnx\u002Foperators\u002Fonnx__Add.html)                                             | &#10004; | &#10004; | 支持至多 4 维张量  ","2024-12-20T11:12:38",{"id":169,"version":170,"summary_zh":171,"released_at":172},351405,"v2.0","## ESP-DL 2.0 版本发布\n\n我们很高兴地宣布 ESP-DL 2.0 版本正式发布！这是一个重要的更新，相比上一版本新增了多项功能并进行了优化改进。\n\n### 新特性\n\n**引入 TVM**：在本次新版本中，我们新增了对 [TVM](https:\u002F\u002Fgithub.com\u002Fapache\u002Ftvm) 的支持。TVM 是一个开源的机器学习编译器栈，旨在实现机器学习模型在多种硬件平台上的高效部署。此次集成显著简化了模型部署流程，提供了从训练到部署的无缝工作流。现在，您可以轻松地使用 TVM 部署通过 TensorFlow、PyTorch 等主流框架训练的模型，从而提升效率与灵活性。\n\n**全新文档系统 ESP-Docs**：我们非常高兴地宣布，已采用 ESP-Docs 文档系统来构建我们的文档体系。这一新系统不仅提升了用户体验，还使我们能够维护更加及时、全面的文档内容。我们相信，这一变化将让用户更便捷地找到所需信息。您现在可以通过以下链接在网页上查看我们的文档：[ESP-DL 用户指南](https:\u002F\u002Fdocs.espressif.com\u002Fprojects\u002Fesp-dl\u002Fen\u002Flatest\u002Fesp32\u002Findex.html)。\n\n### 反馈\n\n我们希望新的 TVM 集成和更新后的文档系统能够帮助您优化模型部署流程。如果您有任何疑问或遇到任何问题，请随时提交 Issue。\n\n感谢您对 ESP-DL 的支持！","2023-07-31T07:37:03"]