[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-asus4--tf-lite-unity-sample":3,"tool-asus4--tf-lite-unity-sample":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":73,"owner_website":80,"owner_url":81,"languages":82,"stars":107,"forks":108,"last_commit_at":109,"license":79,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":123,"github_topics":124,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":162},5368,"asus4\u002Ftf-lite-unity-sample","tf-lite-unity-sample","TensorFlow Lite Samples on Unity","tf-lite-unity-sample 是一个专为 Unity 引擎打造的开源示例集合，旨在帮助开发者轻松将 TensorFlow Lite 和 MediaPipe 的机器学习能力集成到游戏中。它解决了在 Unity 复杂环境下配置、编译及调用 AI 模型的高门槛问题，让开发者无需从零搭建底层环境，即可快速实现图像识别、物体检测、人体姿态估计、语义分割、风格迁移及自然语言处理等多种前沿功能。\n\n该项目不仅提供了 MNIST、EfficientDet、MoveNet、BERT 等丰富的官方示例代码，还预编译了适用于 iOS、Android、Windows、macOS 及 Linux 等多平台的核心库，并原生支持 Metal、GPU Delegate 和 NNAPI 等硬件加速技术，显著提升了模型在移动设备和桌面端的运行效率。通过简单的 UPM 包管理安装或源码构建指引，用户能迅速上手体验从手部追踪到实时问答的各种应用场景。\n\ntf-lite-unity-sample 特别适合 Unity 游戏开发者、XR 应用创作者以及希望在游戏中嵌入 AI 功能的研究人员使用。无论你是想为角色添加智","tf-lite-unity-sample 是一个专为 Unity 引擎打造的开源示例集合，旨在帮助开发者轻松将 TensorFlow Lite 和 MediaPipe 的机器学习能力集成到游戏中。它解决了在 Unity 复杂环境下配置、编译及调用 AI 模型的高门槛问题，让开发者无需从零搭建底层环境，即可快速实现图像识别、物体检测、人体姿态估计、语义分割、风格迁移及自然语言处理等多种前沿功能。\n\n该项目不仅提供了 MNIST、EfficientDet、MoveNet、BERT 等丰富的官方示例代码，还预编译了适用于 iOS、Android、Windows、macOS 及 Linux 等多平台的核心库，并原生支持 Metal、GPU Delegate 和 NNAPI 等硬件加速技术，显著提升了模型在移动设备和桌面端的运行效率。通过简单的 UPM 包管理安装或源码构建指引，用户能迅速上手体验从手部追踪到实时问答的各种应用场景。\n\ntf-lite-unity-sample 特别适合 Unity 游戏开发者、XR 应用创作者以及希望在游戏中嵌入 AI 功能的研究人员使用。无论你是想为角色添加智能交互，还是构建基于视觉的体感控制，这套工具都能提供坚实的基础设施与直观的代码参考，助你高效跨越从算法模型到落地应用的最后一公里。","# TensorFlow Lite for Unity Samples\n\n[![npm](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002Fcom.github.asus4.tflite?label=npm)](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fcom.github.asus4.tflite) [![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fasus4\u002Ftf-lite-unity-sample)\n\nPorting of [\"TensorFlow Lite Examples\"](https:\u002F\u002Fwww.tensorflow.org\u002Flite\u002Fexamples) and some utilities for Unity.\n\nTested on  \n\n- iOS \u002F Android \u002F macOS \u002F Windows \u002F Linux\n- Unity 6000.3.2f1\n- TensorFlow 2.19.0\n\nIncluded examples:\n\n- TensorFlow\n  - MNIST\n  - EfficientDet Object Detection\n  - DeepLab\n  - MoveNet\n  - Style Transfer\n  - Text Classification\n  - Bert Question and Answer\n  - Super Resolution\n  - Audio Classification\n- MediaPipe\n  - Hand Tracking\n  - Blaze Face\n  - Face Mesh\n  - Blaze Pose (Full body)\n  - Selfie Segmentation\n\nIncluded prebuilt libraries:\n\n|                | iOS | Android | macOS | Ubuntu            | Windows |\n|----------------|:---:|:-------:|:-----:|:-----------------:|:-------:|\n| Core CPU       | ✅  | ✅      | ✅    | ✅                | ✅      |\n| Metal Delegate | ✅  | -       | ✅    | -                 | -       |\n| GPU Delegate   | -   | ✅      | -     | ✅ Experimental   | -       |\n| NNAPI Delegate | -   | ✅      | -     | -                 | -       |\n\n- You need to install OpenGL ES and OpenCL to run GPU Delegate on Linux. See [MediaPipe](https:\u002F\u002Fgoogle.github.io\u002Fmediapipe\u002Fgetting_started\u002Fgpu_support.html#opengl-es-setup-on-linux-desktop) for details.\n\n## Install TensorFlow Lite for Unity\n\n> [!IMPORTANT]  \n> You need to install [Git-LFS](https:\u002F\u002Fgit-lfs.github.com\u002F).\n\n- To try all examples, clone this repository with [Git-LFS](https:\u002F\u002Fgit-lfs.github.com\u002F).\n- If you need TensorFlow Lite libraries via UPM, open the file `Packages\u002Fmanifest.json` and add the following lines into the `scopedRegistries` and `dependencies` sections.\n\n```json\n{\n  \"scopedRegistries\": [\n    {\n      \"name\": \"package.openupm.com\",\n      \"url\": \"https:\u002F\u002Fpackage.openupm.com\",\n      \"scopes\": [\n        \"com.cysharp.unitask\"\n      ]\n    },\n    {\n      \"name\": \"npm\",\n      \"url\": \"https:\u002F\u002Fregistry.npmjs.com\",\n      \"scopes\": [\n        \"com.github.asus4\"\n      ]\n    }\n  ],\n  \"dependencies\": {\n    \u002F\u002F Core TensorFlow Lite libraries\n    \"com.github.asus4.tflite\": \"2.19.0-p3\",\n    \u002F\u002F Optional: Utilities for TFLite\n    \"com.github.asus4.tflite.common\": \"2.19.0-p3\",\n    \u002F\u002F Optional: Utilities for MediaPipe\n    \"com.github.asus4.mediapipe\": \"2.19.0-p3\",\n    \u002F\u002F Optional: Async methods are available only when UniTask is installed\n    \"com.cysharp.unitask\": \"2.5.10\",\n    ...\u002F\u002F other dependencies\n  }\n}\n```\n\n## Build TensorFlow Lite libraries yourself\n\nPre-built libraries are included in the UPM package. Also, you can find TFLite libraries at [tflite-runtime-builder](https:\u002F\u002Fgithub.com\u002FDeNA\u002Ftflite-runtime-builder\u002Freleases) from TFLite v2.14.0 or later.\n\nIf you want to build the latest TFLite yourself, Follow the below instructions:\n\n1. Clone [TensorFlow library](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002F)\n2. Run `.\u002Fconfigure` in the TensorFlow library\n3. Run `.\u002Fbuild_tflite.py` (Python3) to build for each platform\n\n  ```sh\n  # Update iOS, Android and macOS\n  .\u002Fbuild_tflite.py --tfpath ..\u002Ftensorflow -ios -android -macos\n\n  # Build with XNNPACK\n  .\u002Fbuild_tflite.py --tfpath ..\u002Ftensorflow -macos -xnnpack\n  ```\n\n## Show Cases\n\n__MNIST__  \n![Mnist](https:\u002F\u002Fimgur.com\u002Fyi2MtCF.gif)\n\n__SSD Object Detection__  \n![SSD](https:\u002F\u002Fimgur.com\u002FOmeatqc.gif)\n\n__DeepLab Semantic Segmentation__  \n![DeepLab](https:\u002F\u002Fimgur.com\u002FtH1Z8NG.gif)\n\n__Style Transfer__  \n![styletransfter](https:\u002F\u002Fi.imgur.com\u002FSOLMjZi.gif)\n\n__Hand Tracking__  \n![handtracking](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fasus4_tf-lite-unity-sample_readme_9abc2eb84531.gif)\n\n__BERT__  \n![BERT](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fasus4_tf-lite-unity-sample_readme_34298b5a8a0f.png)\n\n## License\n\nSamples folder `Assets\u002FSamples\u002F*` is licensed under MIT\n\n```markdown\nMIT License\n\nCopyright (c) 2024 Koki Ibukuro\n\nPermission is hereby granted, free of charge, to any person obtaining a copy\nof this software and associated documentation files (the \"Software\"), to deal\nin the Software without restriction, including without limitation the rights\nto use, copy, modify, merge, publish, distribute, sublicense, and\u002For sell\ncopies of the Software, and to permit persons to whom the Software is\nfurnished to do so, subject to the following conditions:\n\nThe above copyright notice and this permission notice shall be included in all\ncopies or substantial portions of the Software.\n\nTHE SOFTWARE IS PROVIDED \"AS IS\", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR\nIMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,\nFITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE\nAUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER\nLIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,\nOUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE\nSOFTWARE.\n```\n\nOther Licenses\n\n- [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fblob\u002Fmaster\u002FLICENSE): Apache License 2.0\n- [MediaPipe](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fmediapipe\u002Fblob\u002Fmaster\u002FLICENSE): Apache License 2.0\n  - Some MediaPipe C# codes are based on [terryky\u002Ftflite_gles_app](https:\u002F\u002Fgithub.com\u002Fterryky\u002Ftflite_gles_app)\n\nModel Licenses\n\n📌 : Each TensorFlow Lite model might have a different license. Please check the license of the model you use.\n\n- [Official TFlite Models](https:\u002F\u002Fwww.tensorflow.org\u002Flite\u002Fexamples)\n  - Bert\n  - EfficientDet\n  - DeepLab Lab\n  - MNIST\n  - Style Transfer\n  - MoveNet\n  - Text classification\n  - Smart Reply\n- [MediaPipe Models](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fmediapipe)\n  - Blaze Pose\n  - Face Mesh\n  - Hand Tracking\n  - Selfie Segmentation\n    - Using the modified model from [PINTO_model_zoo](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo) to remove the custom post-process.\n","# TensorFlow Lite for Unity 示例\n\n[![npm](https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002Fcom.github.asus4.tflite?label=npm)](https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002Fcom.github.asus4.tflite) [![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Fasus4\u002Ftf-lite-unity-sample)\n\n将“TensorFlow Lite 示例”移植到 Unity 并提供一些实用工具。\n\n已在以下平台上测试：\n\n- iOS \u002F Android \u002F macOS \u002F Windows \u002F Linux\n- Unity 6000.3.2f1\n- TensorFlow 2.19.0\n\n包含的示例：\n\n- TensorFlow\n  - MNIST\n  - EfficientDet 目标检测\n  - DeepLab\n  - MoveNet\n  - 风格迁移\n  - 文本分类\n  - Bert 问答\n  - 超分辨率\n  - 音频分类\n- MediaPipe\n  - 手部追踪\n  - Blaze Face\n  - 人脸网格\n  - 全身姿态估计\n  - 自拍分割\n\n包含的预编译库：\n\n|                | iOS | Android | macOS | Ubuntu            | Windows |\n|----------------|:---:|:-------:|:-----:|:-----------------:|:-------:|\n| 核心 CPU       | ✅  | ✅      | ✅    | ✅                | ✅      |\n| Metal 委托     | ✅  | -       | ✅    | -                 | -       |\n| GPU 委托       | -   | ✅      | -     | 实验性支持        | -       |\n| NNAPI 委托     | -   | ✅      | -     | -                 | -       |\n\n- 在 Linux 上运行 GPU 委托需要安装 OpenGL ES 和 OpenCL。详情请参阅 [MediaPipe](https:\u002F\u002Fgoogle.github.io\u002Fmediapipe\u002Fgetting_started\u002Fgpu_support.html#opengl-es-setup-on-linux-desktop)。\n\n## 安装 TensorFlow Lite for Unity\n\n> [!重要]  \n> 您需要安装 [Git-LFS](https:\u002F\u002Fgit-lfs.github.com\u002F)。\n\n- 若要尝试所有示例，请使用 [Git-LFS](https:\u002F\u002Fgit-lfs.github.com\u002F) 克隆此仓库。\n- 如果您希望通过 UPM 获取 TensorFlow Lite 库，请打开 `Packages\u002Fmanifest.json` 文件，并在 `scopedRegistries` 和 `dependencies` 部分添加以下内容。\n\n```json\n{\n  \"scopedRegistries\": [\n    {\n      \"name\": \"package.openupm.com\",\n      \"url\": \"https:\u002F\u002Fpackage.openupm.com\",\n      \"scopes\": [\n        \"com.cysharp.unitask\"\n      ]\n    },\n    {\n      \"name\": \"npm\",\n      \"url\": \"https:\u002F\u002Fregistry.npmjs.com\",\n      \"scopes\": [\n        \"com.github.asus4\"\n      ]\n    }\n  ],\n  \"dependencies\": {\n    \u002F\u002F 核心 TensorFlow Lite 库\n    \"com.github.asus4.tflite\": \"2.19.0-p3\",\n    \u002F\u002F 可选：TFLite 工具库\n    \"com.github.asus4.tflite.common\": \"2.19.0-p3\",\n    \u002F\u002F 可选：MediaPipe 工具库\n    \"com.github.asus4.mediapipe\": \"2.19.0-p3\",\n    \u002F\u002F 可选：仅在安装 UniTask 后才可使用异步方法\n    \"com.cysharp.unitask\": \"2.5.10\",\n    ...\u002F\u002F 其他依赖项\n  }\n}\n```\n\n## 自行构建 TensorFlow Lite 库\n\nUPM 包中已包含预编译库。此外，您还可以从 TFLite v2.14.0 或更高版本开始，在 [tflite-runtime-builder](https:\u002F\u002Fgithub.com\u002FDeNA\u002Ftflite-runtime-builder\u002Freleases) 中找到 TFLite 库。\n\n如果您想自行构建最新版本的 TFLite，请按照以下步骤操作：\n\n1. 克隆 [TensorFlow 库](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002F)\n2. 在 TensorFlow 库中运行 `.\u002Fconfigure`\n3. 运行 `.\u002Fbuild_tflite.py`（Python3）以针对各个平台进行构建。\n\n  ```sh\n  # 更新 iOS、Android 和 macOS\n  .\u002Fbuild_tflite.py --tfpath ..\u002Ftensorflow -ios -android -macos\n\n  # 使用 XNNPACK 构建\n  .\u002Fbuild_tflite.py --tfpath ..\u002Ftensorflow -macos -xnnpack\n  ```\n\n## 展示案例\n\n__MNIST__  \n![Mnist](https:\u002F\u002Fimgur.com\u002Fyi2MtCF.gif)\n\n__SSD 目标检测__  \n![SSD](https:\u002F\u002Fimgur.com\u002FOmeatqc.gif)\n\n__DeepLab 语义分割__  \n![DeepLab](https:\u002F\u002Fimgur.com\u002FtH1Z8NG.gif)\n\n__风格迁移__  \n![styletransfter](https:\u002F\u002Fi.imgur.com\u002FSOLMjZi.gif)\n\n__手部追踪__  \n![handtracking](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fasus4_tf-lite-unity-sample_readme_9abc2eb84531.gif)\n\n__BERT__  \n![BERT](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fasus4_tf-lite-unity-sample_readme_34298b5a8a0f.png)\n\n## 许可证\n\n示例文件夹 `Assets\u002FSamples\u002F*` 采用 MIT 许可证。\n\n```markdown\nMIT 许可证\n\n版权所有 © 2024 Koki Ibukuro\n\n特此授予任何人免费获取本软件及其相关文档文件（以下简称“软件”）副本的权利，允许其不受限制地处理该软件，包括但不限于使用、复制、修改、合并、发布、分发、再许可和\u002F或销售该软件副本的权利；并允许向任何获得该软件的人提供服务，但须遵守以下条件：\n\n上述版权声明及本许可声明应包含在该软件的所有副本或实质性部分中。\n\n本软件按“原样”提供，不提供任何形式的保证，无论是明示还是暗示，包括但不限于适销性、特定用途适用性和非侵权性的保证。在任何情况下，作者或版权所有者均不对任何索赔、损害或其他责任负责，无论这些责任是基于合同、侵权行为或其他原因产生的，亦或是与本软件或其使用有关的任何其他事项。\n```\n\n其他许可证\n\n- [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fblob\u002Fmaster\u002FLICENSE): Apache 许可证 2.0\n- [MediaPipe](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fmediapipe\u002Fblob\u002Fmaster\u002FLICENSE): Apache 许可证 2.0\n  - 部分 MediaPipe C# 代码基于 [terryky\u002Ftflite_gles_app](https:\u002F\u002Fgithub.com\u002Fterryky\u002Ftflite_gles_app)\n\n模型许可证\n\n📌：每个 TensorFlow Lite 模型可能有不同的许可证。请务必查看您所使用的模型的许可证。\n\n- [官方 TFlite 模型](https:\u002F\u002Fwww.tensorflow.org\u002Flite\u002Fexamples)\n  - Bert\n  - EfficientDet\n  - DeepLab Lab\n  - MNIST\n  - 风格迁移\n  - MoveNet\n  - 文本分类\n  - Smart Reply\n- [MediaPipe 模型](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fmediapipe)\n  - Blaze Pose\n  - 人脸网格\n  - 手部追踪\n  - 自拍分割\n    - 使用了来自 [PINTO_model_zoo](https:\u002F\u002Fgithub.com\u002FPINTO0309\u002FPINTO_model_zoo) 的修改后模型，以移除自定义后处理步骤。","# tf-lite-unity-sample 快速上手指南\n\n本指南帮助中国开发者在 Unity 中快速集成 TensorFlow Lite 和 MediaPipe，运行各类 AI 模型示例（如物体检测、姿态估计、图像分割等）。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：iOS, Android, macOS, Windows, Linux\n- **Unity 版本**：推荐 Unity 6000.3.2f1 或更高版本\n- **TensorFlow 版本**：兼容 TensorFlow 2.19.0\n\n### 前置依赖\n1. **Git-LFS**（必须）：用于拉取包含大模型文件的仓库。\n   - 下载地址：[Git-LFS 官网](https:\u002F\u002Fgit-lfs.github.com\u002F)\n   - 安装后运行 `git lfs install` 初始化。\n2. **GPU 加速支持（Linux 可选）**：\n   - 若在 Linux 上使用 GPU Delegate，需安装 OpenGL ES 和 OpenCL。\n\n## 安装步骤\n\n你可以通过两种方式安装：**克隆完整示例项目** 或 **仅通过 UPM 安装库**。\n\n### 方式一：克隆完整示例项目（推荐新手）\n此方式包含所有演示场景和资源文件。\n\n```bash\n# 确保已安装 Git-LFS\ngit clone https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample.git\ncd tf-lite-unity-sample\n```\n克隆完成后，使用 Unity Hub 打开项目根目录即可。\n\n### 方式二：通过 UPM 安装库（适用于现有项目）\n若需在现有项目中集成，请修改 `Packages\u002Fmanifest.json` 文件。\n\n> **注意**：国内网络访问 npm 源可能较慢，建议配置 `.npmrc` 使用淘宝镜像或公司私有源加速。\n\n在 `manifest.json` 中添加以下内容：\n\n```json\n{\n  \"scopedRegistries\": [\n    {\n      \"name\": \"package.openupm.com\",\n      \"url\": \"https:\u002F\u002Fpackage.openupm.com\",\n      \"scopes\": [\n        \"com.cysharp.unitask\"\n      ]\n    },\n    {\n      \"name\": \"npm\",\n      \"url\": \"https:\u002F\u002Fregistry.npmjs.com\",\n      \"scopes\": [\n        \"com.github.asus4\"\n      ]\n    }\n  ],\n  \"dependencies\": {\n    \"com.github.asus4.tflite\": \"2.19.0-p3\",\n    \"com.github.asus4.tflite.common\": \"2.19.0-p3\",\n    \"com.github.asus4.mediapipe\": \"2.19.0-p3\",\n    \"com.cysharp.unitask\": \"2.5.10\"\n  }\n}\n```\n保存后，Unity 将自动下载并安装相关包。\n\n## 基本使用\n\n以下以 **MNIST 手写数字识别** 为例，展示最基础的调用流程。\n\n### 1. 准备模型文件\n将 `.tflite` 模型文件（例如 `mnist.tflite`）放入 Unity 项目的 `Assets\u002FResources` 或任意文件夹中，并确保其 Import Settings 中未被排除。\n\n### 2. 编写推理脚本\n创建一个 C# 脚本，引入命名空间并加载模型：\n\n```csharp\nusing UnityEngine;\nusing TensorFlowLite;\nusing TensorFlowLite.Common;\n\npublic class MnistInference : MonoBehaviour\n{\n    private Interpreter interpreter;\n    private float[] inputBuffer = new float[784]; \u002F\u002F 28x28\n    private float[] outputBuffer = new float[10]; \u002F\u002F 10 classes\n\n    void Start()\n    {\n        \u002F\u002F 加载模型 (假设模型放在 Resources 文件夹下)\n        var modelAsset = Resources.Load\u003CTextAsset>(\"mnist\");\n        var model = Model.FromBuffer(modelAsset.bytes);\n        \n        \u002F\u002F 创建解释器\n        interpreter = new Interpreter(model);\n        interpreter.AllocateTensors();\n    }\n\n    void Update()\n    {\n        \u002F\u002F 1. 填充输入数据 (此处仅为示例，实际需从纹理或输入设备获取)\n        for (int i = 0; i \u003C inputBuffer.Length; i++)\n        {\n            inputBuffer[i] = 0.5f; \n        }\n\n        \u002F\u002F 2. 设置输入张量\n        interpreter.SetInputTensorData(0, inputBuffer);\n\n        \u002F\u002F 3. 执行推理\n        interpreter.Invoke();\n\n        \u002F\u002F 4. 获取输出结果\n        interpreter.GetOutputTensorData(0, outputBuffer);\n\n        \u002F\u002F 5. 处理结果 (找出最大概率的类别)\n        int predictedClass = 0;\n        float maxProb = outputBuffer[0];\n        for (int i = 1; i \u003C outputBuffer.Length; i++)\n        {\n            if (outputBuffer[i] > maxProb)\n            {\n                maxProb = outputBuffer[i];\n                predictedClass = i;\n            }\n        }\n\n        Debug.Log($\"预测结果：数字 {predictedClass}, 置信度：{maxProb}\");\n    }\n\n    void OnDestroy()\n    {\n        interpreter?.Dispose();\n    }\n}\n```\n\n### 3. 运行与测试\n1. 将脚本挂载到场景中的 GameObject 上。\n2. 点击 Play，查看 Console 输出的推理结果。\n3. 参考 `Assets\u002FSamples` 目录下的官方示例场景（如 `Mnist`, `ObjectDetection`, `HandTracking`），直接运行即可体验完整功能。\n\n> **提示**：不同平台（iOS\u002FAndroid）可能需要额外配置权限或 Player Settings，具体请参考各示例场景的预设配置。","一家独立游戏工作室正在开发一款面向儿童的 AR 教育应用，需要在移动端实时识别手势并叠加 3D 动画反馈。\n\n### 没有 tf-lite-unity-sample 时\n- **集成门槛极高**：开发者需手动编译 TensorFlow Lite 的 C++ 源码，并编写复杂的 C# 桥接代码才能在 Unity 中调用，耗时数周且极易出错。\n- **多平台适配困难**：iOS 的 CoreML、Android 的 NNAPI 以及桌面端的 GPU 加速需要分别配置不同的后端委托，维护成本巨大。\n- **缺乏现成案例**：团队必须从零实现图像预处理、模型推理和后处理逻辑，无法快速验证“手部追踪”或“物体检测”等核心功能。\n- **性能优化受阻**：由于缺乏针对移动设备优化的预构建库，应用在低端手机上帧率低下，导致 AR 体验卡顿严重。\n\n### 使用 tf-lite-unity-sample 后\n- **一键集成模型**：通过 UPM 包管理器直接安装预构建库，内置的 Hand Tracking 和 Object Detection 示例让团队在半天内就跑通了核心原型。\n- **跨平台自动适配**：工具自动处理 iOS Metal、Android GPU Delegate 等不同后端的调用，同一套代码即可完美运行在手机和平板上。\n- **开箱即用的算法**：直接复用项目中包含的 MediaPipe 手部追踪和 DeepLab 分割案例，开发者只需关注游戏逻辑，无需重复造轮子。\n- **高性能推理保障**：利用内置优化的二进制文件，应用在低端安卓设备上也能保持 60FPS 流畅运行，确保了 AR 互动的实时性。\n\ntf-lite-unity-sample 将原本需要数月的底层算法移植工作缩短至几天，让开发者能专注于创造沉浸式的交互体验。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fasus4_tf-lite-unity-sample_9abc2eb8.gif","asus4","Koki Ibukuro","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fasus4_d28fc7eb.png","Freelance Creative Technologist","Freelance","Berlin",null,"https:\u002F\u002Fwww.koki-ibukuro.com\u002F","https:\u002F\u002Fgithub.com\u002Fasus4",[83,87,91,95,99,103],{"name":84,"color":85,"percentage":86},"C#","#178600",66.4,{"name":88,"color":89,"percentage":90},"C","#555555",20.2,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",10.5,{"name":96,"color":97,"percentage":98},"Python","#3572A5",1.5,{"name":100,"color":101,"percentage":102},"ShaderLab","#222c37",0.8,{"name":104,"color":105,"percentage":106},"Objective-C","#438eff",0.6,963,267,"2026-04-06T15:07:02",4,"Linux, macOS, Windows","非必需。若在 Linux 上使用 GPU Delegate，需安装 OpenGL ES 和 OpenCL；iOS\u002FmacOS 支持 Metal Delegate；Android 支持 GPU Delegate 和 NNAPI Delegate。未指定具体显卡型号或显存大小。","未说明",{"notes":115,"python":116,"dependencies":117},"1. 必须安装 Git-LFS 才能克隆仓库并获取完整示例资源。2. 在 Linux 上运行 GPU 加速功能前，需手动配置 OpenGL ES 和 OpenCL 环境。3. 该工具主要作为 Unity 插件使用，核心逻辑在 C# 中，仅编译库时需要 Python。4. 预编译库已包含在 UPM 包中，也可自行从源码构建。","Python 3 (用于构建脚本 .\u002Fbuild_tflite.py)",[118,119,120,121,122],"Unity 6000.3.2f1","TensorFlow 2.19.0","Git-LFS","com.github.asus4.tflite (2.19.0-p3)","com.cysharp.unitask (2.5.10, 可选)",[52,14],[125,126,127,128],"unity","tensorflow-lite","machine-learning","mediapipe","2026-03-27T02:49:30.150509","2026-04-08T13:00:25.500197",[132,137,142,147,152,157],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},24350,"在 Android API Level 31 上运行 GPUDelegate 后台线程失败怎么办？","这是 Android API 31 的特定问题。解决方法是在项目的自定义 AndroidManifest.xml 文件中添加以下原生库声明标签：\n\u003Cuses-native-library android:name=\"libOpenCL.so\" android:required=\"false\"\u002F>\n\u003Cuses-native-library android:name=\"libOpenCL-car.so\" android:required=\"false\"\u002F>\n\u003Cuses-native-library android:name=\"libOpenCL-pixel.so\" android:required=\"false\"\u002F>\n添加后重新构建即可解决。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F263",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},24351,"在 Windows 或 Mac 上运行时出现 'libtensorflowlite_c.dll' 依赖加载失败的错误如何解决？","该错误通常是因为没有拉取 Git LFS (Large File Storage) 文件导致的。项目中的所有二进制库文件都存储在 Git LFS 中。请确保已安装 Git LFS 并执行了 `git lfs pull` 命令来下载完整的库文件。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F39",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},24352,"如何在 Unity 中支持使用 SELECT_TF_OPS (FlexDelegate) 的 TFLite 模型？","目前 C API 文档较少，但可以参考 Android TFLite 的实现方式。在 Java 中是通过 `Interpreter.Options` 添加 `FlexDelegate` 来实现的。在 Unity\u002FC# 中实现类似功能需要自行探索 C API 或等待官方更新。基本思路是初始化 Interpreter 时配置 Options 并添加 Flex Delegate，以便支持非内置算子。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F256",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},24353,"如何替换 SSD 示例中的模型并调整输入输出维度以适配自己的模型？","1. 将自己的模型放入项目并运行，检查控制台日志。如果模型加载成功，`BaseImagePredictor` 类中的 `interpreter.LogIOInfo()` 会打印输入输出的数组大小。\n2. 参考 `SsdSample.cs` 中的 `Invoke` 函数逻辑：使用 `ToTensor` 转换输入图像，调用 `interpreter.SetInputTensorData` 设置输入，执行 `interpreter.Invoke()`，最后通过 `interpreter.GetOutputTensorData` 获取不同索引的输出张量（如边界框、类别等）。\n3. 根据日志打印的维度修改代码中的张量尺寸定义。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F113",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},24354,"如何实现 Unity GPU 缓冲区直接传递给 TFLite GPU Delegate 以避免 CPU 拷贝？","TFLite 支持将 GPU 缓冲区绑定到 GPU Delegate。维护者已在特定的 TensorFlow 分支（如 `2.5.0-with-bindbuffer` 或 `bindbuffer-gpudelegate`）中实现了此功能。使用该分支编译 TensorFlow 库后，可以在 Unity 中配置相应的 GPU 绑定设置（需注意 Unity 中的具体配置截图），从而实现 Unity GPU → TFL GPU 的直接通路，显著提升性能。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F23",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},24355,"为什么第二次及以后的推理结果全为 0，是否需要每次推理都重新实例化 Interpreter？","通常情况下不需要每次推理都重新加载模型或重新分配张量。如果遇到首次推理正常但后续结果全为 0 的情况，可能是张量数据未正确更新或生命周期管理问题。对于 LSTM 等包含状态记忆的模型，需特别注意是否在多次推理间正确重置了内部状态或输入张量数据，而不是重新实例化整个 Interpreter。建议检查 `SetInputTensorData` 是否在每次 Update 中正确执行。","https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fissues\u002F260",[163,168,173,178,183,188,193,198,203,208,212,217,222,227,232,237,242,247,252,257],{"id":164,"version":165,"summary_zh":166,"released_at":167},153881,"v2.14.0","## What's Changed\r\n* Support built-in render pipeline in the `CameraTextureBackgorund` component by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F317\r\n* Update libraries to v2.14.0 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F322\r\n* From this version, we use pre-built libraries from [tflite-runtime-builder](https:\u002F\u002Fgithub.com\u002FDeNA\u002Ftflite-runtime-builder\u002Freleases) made by @stakemura \r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.13.0...v2.14.0","2023-11-24T23:47:50",{"id":169,"version":170,"summary_zh":171,"released_at":172},153882,"v2.13.0","## What's Changed\r\n* Remove metafiles in the framework by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F307\r\n* Upgrade Unity version to 2022LTS by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F314\r\n* Upgrade TensorFlow Lite libraries to v2.13.0 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F315\r\n* Support using OpenCL with Android API Level 32 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F316\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.12.0...v2.13.0\r\n","2023-09-06T11:55:09",{"id":174,"version":175,"summary_zh":176,"released_at":177},153883,"v2.12.0","## What's Changed\r\n* Upgrade TensorFlow Lite library to v2.12.0 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F303\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.11.1...v2.12.0","2023-05-14T21:49:13",{"id":179,"version":180,"summary_zh":181,"released_at":182},153884,"v2.11.1","## What's Changed\r\n* Add support for building the native plugins by CircleCI by @stakemura in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F265\r\n* Add NNApi Delegate by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F270\r\n* Fix linker error on iOS && Unity LTS2021 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F271\r\n* Bump library version to `2.10.0-p1` by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F274\r\n* Upgrade Unity version to 2021 LTS by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F297\r\n* Add new constructor that passes model data as byte[] by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F299\r\n* Upgrade TensorFlow Lite to v2.11.1 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F302\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.10.0...v2.11.1","2023-05-14T16:43:04",{"id":184,"version":185,"summary_zh":186,"released_at":187},153885,"v2.10.0-p1","## What's Changed\r\n* Add support for building the native plugins by CircleCI by @stakemura in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F265\r\n* Add NNAPI Delegate by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F270\r\n* Fix XNNPack linker error on iOS && Unity LTS2021 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F271\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.10.0...v2.10.0-p1","2023-01-07T15:35:54",{"id":189,"version":190,"summary_zh":191,"released_at":192},153886,"v2.10.0","## What's Changed\r\n* Signatures API + MoViNets by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F233\r\n* Fix iOS Metal Delegate by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F235\r\n* Fix\u002Fset interpreter options pointer to null in dispose() by @stakemura in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F240\r\n* Update TFLite libraries to v2.10.0 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F248\r\n* Back Button in examples by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F249\r\n\r\n## New Contributors\r\n* @stakemura made their first contribution in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F240\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.9.1...v2.10.0","2022-10-11T11:15:20",{"id":194,"version":195,"summary_zh":196,"released_at":197},153887,"v2.9.1-p1","## What's Changed\r\n* Signatures API + MoViNets Example by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F233\r\n* Fix iOS Metal Delegate by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F235\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.9.1...v2.9.1-p1","2022-07-18T09:13:03",{"id":199,"version":200,"summary_zh":201,"released_at":202},153888,"v2.9.1","## What's Changed\r\n* Post process in selfie segmentation sample by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F201\r\n* Universal Render Pipeline by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F202\r\n* Fullscreen preview in MoveNet and Selfie segmentation by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F203\r\n* Fullscreen preview in BlazePose example by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F204\r\n* Support segmentation mask in BlazePose sample by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F205\r\n* Support CameraTextureBackground customizing by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F208\r\n* Add example MoveNet multi-pose by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F210\r\n* Add XNNPack Delegate by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F214\r\n* Update build command by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F216\r\n* Use `Accelerator.GPU` instead of `gpu = true` in BaseImagePredictor by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F217\r\n* Dispatch NPM in GitHub Actions by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F219\r\n* Return generated mesh to remove link.xml by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F220\r\n* Cleanup dependencies by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F221\r\n* Update TensorFlow Lite libs to v2.9.1 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F228\r\n* Fixes for v2.9.1 by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F229\r\n* Fix BlazePose error when running segmentation in background thread by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F230\r\n* MoveNet in background thread by @asus4 in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F231\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.8.0...v2.9.1","2022-06-21T14:24:35",{"id":204,"version":205,"summary_zh":206,"released_at":207},153889,"v2.8.0","## What's Changed\r\n* Update TensorFlow Lite Libraries v2.8.0  in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F196\r\n* Support Apple Silicon on macOS in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F196\r\n\r\n## New Contributors\r\n* @bawahakim made their first contribution in https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F192\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcommits\u002Fv2.8.0\r\n","2022-03-04T04:31:35",{"id":209,"version":210,"summary_zh":79,"released_at":211},153890,"v2.4.0","2021-02-16T14:37:34",{"id":213,"version":214,"summary_zh":215,"released_at":216},153871,"v2.19.0-p3","## 变更内容\n* 如果 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F402 中修改了 I\u002FO 数组引用，则更新该引用。\n* @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F403 和 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F404 中使用 OIDC 发布来提升安全性。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.19.0-p2...v2.19.0-p3","2025-09-08T11:15:36",{"id":218,"version":219,"summary_zh":220,"released_at":221},153872,"v2.19.0-p2","## 变更内容\n* 由 @asus4 在 #390 和 #398 中实现，支持 Burst 库中的 16KB 对齐\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F392 中修复使用异步时输入为 UInt8 或 Int32 导致的崩溃问题\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F394 中移除已过时的示例\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F396 中更新自拍分割模型\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F398 中更新使用 SSBO 绑定的 GPUDelegate 库及示例\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.19.0...v2.19.0-p2","2025-07-28T10:01:30",{"id":223,"version":224,"summary_zh":225,"released_at":226},153873,"v2.19.0-p1","## 变更内容\n* 将 Unity 升级至 LTS 2022.3.62f1，以支持 Burst 库中的 16KB 对齐，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F390 中完成。\n* 修复在使用异步方式且模型输入为 UInt8 或 Int32 时出现的崩溃问题，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F392 中完成。\n* 修复 GpuBindSample 中的图形栅栏错误，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F393 中完成。\n* 移除已废弃的示例，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F394 中完成。\n* 从网络获取 Mobile Bert 模型，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F395 中完成。\n* 将自拍分割模型更新至最新版本，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F396 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.19.0...v2.19.0-p1","2025-06-25T13:04:09",{"id":228,"version":229,"summary_zh":230,"released_at":231},153874,"v2.19.0","## 变更内容\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F377 中移除旧的 SSD 和 PoseNet 示例，并从索引中删除它们。\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F378 中将测试与编辑器程序集分离。\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F379 中修复当 StreamingAssets 目录不存在时 FilePopup 属性报错的问题。\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F385 中移除非必要的包依赖。\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F388 中更新 UPM 依赖项。\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F389 中将库更新至 v2.19.0 版本。\n  * ⚠️ **重大变更**：已移除对 \"Packages\u002Fcom.github.asus4.tflite\u002FPlugins\u002FAndroid\u002Farm64-v8a\u002Flibtensorflowlite_gpu_gl.so\" 的支持，因为该文件不支持 16KB 页面大小。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.17.0...v2.19.0","2025-06-13T18:25:15",{"id":233,"version":234,"summary_zh":235,"released_at":236},153875,"v2.17.0","## 变更内容\n\n### [com.github.asus4.tflite](https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Ftree\u002Fmaster\u002FPackages\u002Fcom.github.asus4.tflite)\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F374 中将 TensorFlow 库升级至 v2.17.0\n\n### [com.github.asus4.tflite.common](https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Ftree\u002Fmaster\u002FPackages\u002Fcom.github.asus4.tflite.common)\n* 由 @keizo-yamashita 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F357 中调整了 SSD 边界框大小的计算方式，以考虑纹理的宽高比\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F359 中从 WebGL 构建中移除了麦克风缓冲区类\n* 新增 ObjectDetection 示例：Efficient Det，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F362 中实现\n* 将默认的对象检测示例由 SSD 替换为 Efficient Det，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F368 中完成\n* 由 @Saqoosha 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F369 中修复了在运行 'RunAsync' 时释放资源时发生的崩溃问题\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F370 中为 RunAsync 方法添加了 waitForMainThread 选项\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F373 中修复了使用后台运行选项时可能出现的死锁问题\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F376 中修复了签名运行器崩溃的问题\n\n## 新贡献者\n* @keizo-yamashita 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F357 中完成了首次贡献\n* @Saqoosha 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F369 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.16.1...v2.17.0","2024-10-17T08:25:44",{"id":238,"version":239,"summary_zh":240,"released_at":241},153876,"v2.16.1-p3","## 变更内容\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F373 中修复了使用“后台运行”选项时可能出现的死锁问题。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.16.1-p2...v2.16.1-p3","2024-09-06T11:42:38",{"id":243,"version":244,"summary_zh":245,"released_at":246},153877,"v2.16.1-p2","## 变更内容\n\n* 将默认的目标检测示例由 SSD 替换为 EfficientDet，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F368 中完成。\n* 🐛 修复在运行 'RunAsync' 时调用 dispose 导致的崩溃问题，由 @Saqoosha 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F369 中完成。\n* 在 RunAsync 方法中添加 waitForMainThread 选项，由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F370 中完成。\n\n## 新贡献者\n* @Saqoosha 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F369 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.16.1-p1...v2.16.1-p2","2024-08-09T07:01:54",{"id":248,"version":249,"summary_zh":250,"released_at":251},153878,"v2.16.1-p1","## 变更内容\n* @kaku-panda 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F357 中调整了 SSD 边界框大小的计算方式，以考虑纹理的宽高比。\n* @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F359 中从 WebGL 构建中移除了麦克风缓冲区类。\n\n## 新贡献者\n* @kaku-panda 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F357 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.16.1...v2.16.1-p1","2024-05-10T09:11:50",{"id":253,"version":254,"summary_zh":255,"released_at":256},153879,"v2.16.1","## 变更内容\n\n### `com.github.asus4.tflite`\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F352 中将 TensorFlow Lite 版本升级至 v2.16.1\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F353 中新增用于获取扩展和 Schema 版本的 API\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F349 中新增使用 Span\u003CT>\u002FReadOnlySpan\u003CT> 的 API\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F341 中为 UPM 添加额外元数据\n\n### `com.github.asus4.tflite.common`\n* 由 @paulorenanmelo 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F334 中开发 WebCamInput 功能\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F342 中将 BaseImagePredictor.Accelerator 重命名为 TfLiteDelegateType\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F344 中新增用于图像处理的抽象类：BaseVisionTask\n  * `BaseImagePredictor` 被标记为已弃用\n* 新增 `TextureToNativeTensorData` 类\n  * `TextureToTensor` 被标记为已弃用\n\n### 示例项目\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F339 中将所有示例项目迁移至 VirtualTextureSource\n* 🆕 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F348 中新增音频分类示例\n* 🆕 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F351 中新增 MediaPipe 的 Magic Touch 示例\n\n### 其他\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F338 中将 Unity 版本从 `2022.3.22f1` 升级至最新版本\n\n## 新贡献者\n* @paulorenanmelo 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F334 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.15.0...v2.16.1","2024-03-26T21:45:50",{"id":258,"version":259,"summary_zh":260,"released_at":261},153880,"v2.15.0","## 变更内容\n* 由 @asus4 在 https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fpull\u002F326 中将 TFLite 库升级至 v2.15.0\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fasus4\u002Ftf-lite-unity-sample\u002Fcompare\u002Fv2.14.0...v2.15.0","2023-11-25T00:39:35"]