[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-XiaoMi--mace":3,"tool-XiaoMi--mace":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":123,"env_os":124,"env_gpu":125,"env_ram":126,"env_deps":127,"category_tags":135,"github_topics":136,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":143,"updated_at":144,"faqs":145,"releases":175},4972,"XiaoMi\u002Fmace","mace","MACE is a deep learning inference framework optimized for mobile heterogeneous computing platforms.","MACE（Mobile AI Compute Engine）是一款专为移动端异构计算平台打造的高性能深度学习推理框架，由小米开源。它致力于解决在 Android、iOS、Linux 及 Windows 等移动设备上运行 AI 模型时面临的性能瓶颈、功耗过高及内存占用大等核心难题。\n\n无论是移动端应用开发者还是算法研究人员，若需在资源受限的手机或嵌入式设备上高效部署模型，MACE 都是理想选择。其独特技术亮点在于深度优化了底层算力：利用 NEON、OpenCL 和 Hexagon 加速运行时，并引入 Winograd 算法显著提升卷积运算速度。同时，MACE 特别关注用户体验，通过自动拆分计算任务确保界面渲染的流畅响应，并提供芯片级的功耗调控选项。\n\n在安全性方面，MACE 支持将模型转换为 C++ 代码并进行混淆，有效保护知识产权。它兼容 TensorFlow、Caffe 和 ONNX 等多种主流模型格式，且广泛适配高通、联发科等 ARM 架构芯片。凭借轻量级的依赖设计和图级内存优化，MACE 能帮助开发者轻松实现低延迟、低功耗的移动端 AI 落地。","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_5049591f1d81.png\" width=\"400\" alt=\"MACE\" \u002F>\n\u003C\u002Fdiv>\n\n\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](LICENSE)\n[![Build Status](https:\u002F\u002Ftravis-ci.org\u002FXiaoMi\u002Fmace.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002FXiaoMi\u002Fmace)\n[![pipeline status](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace\u002Fbadges\u002Fmaster\u002Fpipeline.svg)](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace\u002Fpipelines)\n[![doc build status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_13d664e1afd7.png)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_13d664e1afd7.png)\n\n[Documentation](https:\u002F\u002Fmace.readthedocs.io) |\n[FAQ](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Ffaq.html) |\n[Release Notes](RELEASE.md) |\n[Roadmap](ROADMAP.md) |\n[MACE Model Zoo](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace-models) |\n[Demo](examples\u002Fandroid) |\n[Join Us](JOBS.md) |\n[中文](README_zh.md)\n\n**Mobile AI Compute Engine** (or **MACE** for short) is a deep learning inference framework optimized for\nmobile heterogeneous computing on Android, iOS, Linux and Windows devices. The design focuses on the following\ntargets:\n* Performance\n  * Runtime is optimized with NEON, OpenCL and Hexagon, and\n    [Winograd algorithm](https:\u002F\u002Farxiv.org\u002Fabs\u002F1509.09308) is introduced to\n    speed up convolution operations. The initialization is also optimized to be faster.\n* Power consumption\n  * Chip dependent power options like big.LITTLE scheduling, Adreno GPU hints are\n    included as advanced APIs.\n* Responsiveness\n  * UI responsiveness guarantee is sometimes obligatory when running a model.\n    Mechanism like automatically breaking OpenCL kernel into small units is\n    introduced to allow better preemption for the UI rendering task.\n* Memory usage and library footprint\n  * Graph level memory allocation optimization and buffer reuse are supported.\n    The core library tries to keep minimum external dependencies to keep the\n    library footprint small.\n* Model protection\n  * Model protection has been the highest priority since the beginning of \n    the design. Various techniques are introduced like converting models to C++\n    code and literal obfuscations.\n* Platform coverage\n  * Good coverage of recent Qualcomm, MediaTek, Pinecone and other ARM based\n    chips. CPU runtime supports Android, iOS and Linux.\n* Rich model formats support\n  * [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow),\n    [Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe) and\n    [ONNX](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx) model formats are supported.\n\n## Getting Started\n* [Introduction](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fintroduction.html)\n* [Installation](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Finstallation\u002Fenv_requirement.html)\n* [Basic Usage](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guide\u002Fbasic_usage.html)\n* [Advanced Usage](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guide\u002Fadvanced_usage.html)\n\n## Performance\n[MACE Model Zoo](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace-models) contains\nseveral common neural networks and models which will be built daily against a list of mobile\nphones. The benchmark results can be found in [the CI result page](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace-models\u002Fpipelines)\n(choose the latest passed pipeline, click *release* step and you will see the benchmark results).\nTo get the comparison results with other frameworks, you can take a look at\n[MobileAIBench](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmobile-ai-bench) project.\n\n## Communication\n* GitHub issues: bug reports, usage issues, feature requests\n* Slack: [mace-users.slack.com](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fmace-users\u002Fshared_invite\u002FenQtMzkzNjM3MzMxODYwLTAyZTAzMzQyNjc0ZGI5YjU3MjI1N2Q2OWI1ODgwZjAwOWVlNzFlMjFmMTgwYzhjNzU4MDMwZWQ1MjhiM2Y4OTE)\n* QQ群: 756046893\n\n## Contributing\nAny kind of contribution is welcome. For bug reports, feature requests,\nplease just open an issue without any hesitation. For code contributions, it's\nstrongly suggested to open an issue for discussion first. For more details,\nplease refer to [the contribution guide](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fdevelopment\u002Fcontributing.html).\n\n## License\n[Apache License 2.0](LICENSE).\n\n## Acknowledgement\nMACE depends on several open source projects located in the\n[third_party](third_party) directory. Particularly, we learned a lot from\nthe following projects during the development:\n* [Qualcomm Hexagon NN Offload Framework](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fhexagon-dsp-sdk): the Hexagon DSP runtime\n  depends on this library.\n* [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow),\n  [Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe),\n  [SNPE](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fsnapdragon-neural-processing-engine-ai),\n  [ARM ComputeLibrary](https:\u002F\u002Fgithub.com\u002FARM-software\u002FComputeLibrary),\n  [ncnn](https:\u002F\u002Fgithub.com\u002FTencent\u002Fncnn),\n  [ONNX](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx) and many others: we learned many best\n  practices from these projects.\n\nFinally, we also thank the Qualcomm, Pinecone and MediaTek engineering teams for\ntheir help.\n","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_5049591f1d81.png\" width=\"400\" alt=\"MACE\" \u002F>\n\u003C\u002Fdiv>\n\n\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F许可证-Apache%202.0-blue.svg)](LICENSE)\n[![构建状态](https:\u002F\u002Ftravis-ci.org\u002FXiaoMi\u002Fmace.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002FXiaoMi\u002Fmace)\n[![流水线状态](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace\u002Fbadges\u002Fmaster\u002Fpipeline.svg)](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace\u002Fpipelines)\n[![文档构建状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_13d664e1afd7.png)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_readme_13d664e1afd7.png)\n\n[文档](https:\u002F\u002Fmace.readthedocs.io) |\n[常见问题](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Ffaq.html) |\n[发布说明](RELEASE.md) |\n[路线图](ROADMAP.md) |\n[MACE 模型库](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace-models) |\n[示例](examples\u002Fandroid) |\n[加入我们](JOBS.md) |\n[中文](README_zh.md)\n\n**移动人工智能计算引擎**（简称 **MACE**）是一个针对 Android、iOS、Linux 和 Windows 设备上的移动异构计算优化的深度学习推理框架。其设计主要聚焦于以下目标：\n* 性能\n  * 运行时通过 NEON、OpenCL 和 Hexagon 等技术进行优化，并引入了 [Winograd 算法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1509.09308) 来加速卷积运算。同时，初始化过程也进行了优化，以提升速度。\n* 能耗\n  * 提供了与芯片相关的电源管理选项，例如 big.LITTLE 调度和 Adreno GPU 提示等高级 API。\n* 响应性\n  * 在运行模型时，确保 UI 的响应性有时是至关重要的。为此，引入了将 OpenCL 内核自动拆分为小单元的机制，以便更好地让出资源给 UI 渲染任务。\n* 内存使用与库体积\n  * 支持图级别的内存分配优化和缓冲区复用。核心库尽量减少对外部依赖，以保持较小的库体积。\n* 模型保护\n  * 模型保护自设计之初就一直是最高优先级。为此引入了多种技术，如将模型转换为 C++ 代码以及字面混淆等。\n* 平台覆盖\n  * 对高通、联发科、平头哥等基于 ARM 架构的最新芯片有良好的支持。CPU 运行时支持 Android、iOS 和 Linux。\n* 丰富的模型格式支持\n  * 支持 [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow)、[Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe) 和 [ONNX](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx) 等多种模型格式。\n\n## 快速入门\n* [简介](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fintroduction.html)\n* [安装](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Finstallation\u002Fenv_requirement.html)\n* [基础使用](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guide\u002Fbasic_usage.html)\n* [高级使用](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guide\u002Fadvanced_usage.html)\n\n## 性能\n[MACE 模型库](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace-models) 包含了几种常见的神经网络和模型，这些模型会每天针对一系列手机设备进行构建。基准测试结果可以在 [CI 结果页面](https:\u002F\u002Fgitlab.com\u002Fllhe\u002Fmace-models\u002Fpipelines) 上找到（选择最新的成功流水线，点击 *release* 步骤即可查看基准测试结果）。若想与其他框架进行对比，可以参考 [MobileAIBench](https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmobile-ai-bench) 项目。\n\n## 沟通交流\n* GitHub Issues：用于提交 bug 报告、使用问题及功能请求。\n* Slack：[mace-users.slack.com](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fmace-users\u002Fshared_invite\u002FenQtMzkzNjM3MzMxODYwLTAyZTAzMzQyNjc0ZGI5YjU3MjI1N2Q2OWI1ODgwZjAwOWVlNzFlMjFmMTgwYzhjNzU4MDMwZWQ1MjhiM2Y4OTE)\n* QQ 群：756046893\n\n## 贡献\n我们欢迎任何形式的贡献。对于 bug 报告和功能请求，请随时创建 issue；而对于代码贡献，强烈建议先创建 issue 进行讨论。更多详情请参阅 [贡献指南](https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fdevelopment\u002Fcontributing.html)。\n\n## 许可证\n[Apache License 2.0](LICENSE)。\n\n## 致谢\nMACE 依赖于位于 [third_party](third_party) 目录下的多个开源项目。在开发过程中，我们尤其从以下项目中受益匪浅：\n* [Qualcomm Hexagon NN Offload Framework](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fhexagon-dsp-sdk)：Hexagon DSP 运行时依赖于此库。\n* [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow)、[Caffe](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe)、[SNPE](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fsnapdragon-neural-processing-engine-ai)、[ARM ComputeLibrary](https:\u002F\u002Fgithub.com\u002FARM-software\u002FComputeLibrary)、[ncnn](https:\u002F\u002Fgithub.com\u002FTencent\u002Fncnn)、[ONNX](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx) 等众多项目：我们从这些项目中学习到了许多最佳实践。\n\n最后，我们还要感谢 Qualcomm、平头哥和联发科的工程师团队提供的帮助。","# MACE 快速上手指南\n\nMACE (Mobile AI Compute Engine) 是小米开源的移动端深度学习推理框架，专为 Android、iOS、Linux 和 Windows 设备的异构计算优化。支持 TensorFlow、Caffe 和 ONNX 模型格式。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 16.04\u002F18.04), macOS, 或 Windows (需 WSL)\n- **Python**: 3.5+\n- **Bazel**: 0.19.2 - 1.2.1 (版本兼容性较强，建议使用 0.26.1)\n- **Android NDK**: r18b 或更高版本 (如需部署到 Android)\n- **CMake**: 3.10+\n\n### 前置依赖\n确保安装以下基础工具：\n```bash\nsudo apt-get update\nsudo apt-get install -y python3-pip python3-dev git wget curl autoconf libtool pkg-config zip unzip opencl-headers ocl-icd-libopencl1\npip3 install -U pip setuptools wheel\npip3 install numpy six\n```\n\n> **提示**：国内开发者可使用清华源加速 Python 包安装：\n> ```bash\n> pip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy six\n> ```\n\n## 安装步骤\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace.git\ncd mace\ngit submodule update --init --recursive\n```\n\n> **加速建议**：如果 GitHub 连接缓慢，可使用 Gitee 镜像（如有）或配置 Git 代理。\n\n### 2. 配置环境变量\n编辑 `~\u002F.bashrc` 或 `~\u002F.zshrc`，添加以下内容（路径请根据实际情况调整）：\n```bash\nexport ANDROID_NDK_HOME=\u002Fpath\u002Fto\u002Fandroid-ndk-r18b\nexport PATH=$PATH:\u002Fpath\u002Fto\u002Fbazel\u002Fbin\n```\n使配置生效：\n```bash\nsource ~\u002F.bashrc\n```\n\n### 3. 构建 MACE 核心库\n在项目根目录下运行构建脚本（以 Android ARM64 为例）：\n```bash\nbazel build \u002F\u002Fmace\u002Flib:mace --config=android_arm64\n```\n\n若需构建用于本地测试的 Linux 版本：\n```bash\nbazel build \u002F\u002Fmace\u002Flib:mace --config=linux\n```\n\n## 基本使用\n\n### 1. 转换模型\n将 TensorFlow 冻结模型 (.pb) 转换为 MACE 格式：\n```bash\npython3 -m mace.bin.mace_run --model_name=mobilenet_v2 \\\n  --platform=tensorflow \\\n  --model_path=models\u002Fmobilenet_v2.pb \\\n  --input_node=\"input\" \\\n  --output_node=\"MobilenetV2\u002FPredictions\u002FReshape_1\" \\\n  --input_shape=\"1,224,224,3\" \\\n  --output_dir=models\u002Fmace_mobilenet_v2\n```\n\n### 2. 在 C++ 中调用\n创建一个简单的推理程序 `test_mace.cc`：\n\n```cpp\n#include \"mace\u002Fcore\u002Fruntime.h\"\n#include \"mace\u002Fpublic\u002Fmodel.h\"\n\nint main() {\n  \u002F\u002F 初始化 MACE 运行时\n  mace::MaceStatus status = mace::MaceEngine::Init();\n  \n  \u002F\u002F 加载模型 (路径需替换为实际生成的 .data 和 .cc 文件路径)\n  std::unique_ptr\u003Cmace::MaceEngine> engine;\n  status = mace::CreateMaceEngine(\"mobilenet_v2\", \n                                  \"models\u002Fmace_mobilenet_v2\", \n                                  {\"input\"}, \n                                  {\"output\"}, \n                                  &engine);\n  \n  if (status != mace::MaceStatus::MACE_SUCCESS) {\n    return -1;\n  }\n\n  \u002F\u002F 准备输入数据\n  std::map\u003Cstd::string, mace::MaceTensor> inputs;\n  std::map\u003Cstd::string, mace::MaceTensor> outputs;\n  std::vector\u003Cfloat> input_data(1 * 224 * 224 * 3);\n  \u002F\u002F ... 填充 input_data ...\n  \n  inputs[\"input\"] = mace::MaceTensor({1, 224, 224, 3}, input_data.data());\n  outputs[\"output\"] = mace::MaceTensor({1, 1001}, nullptr);\n\n  \u002F\u002F 执行推理\n  status = engine->Run(inputs, &outputs);\n  \n  return 0;\n}\n```\n\n### 3. 编译并运行\n```bash\ng++ -std=c++11 test_mace.cc -I.\u002Finclude -L.\u002Flib -lmace -o test_mace\nLD_LIBRARY_PATH=.\u002Flib .\u002Ftest_mace\n```\n\n---\n*更多高级用法（如 OpenCL\u002FGPU 加速、模型加密、多线程优化）请参考官方文档。*","某初创团队正在开发一款面向安卓用户的实时 AR 试妆应用，需要在低端机型上流畅运行高精度人脸关键点检测模型。\n\n### 没有 mace 时\n- **推理延迟高**：直接使用通用框架在 CPU 上运行卷积网络，帧率不足 15fps，用户移动面部时妆容跟随严重滞后。\n- **发热耗电快**：缺乏针对异构计算的优化，GPU 调度不当导致手机迅速发烫，电池电量在半小时内下降 30%。\n- **界面卡顿**：繁重的计算任务独占主线程资源，无法被系统抢占，导致 UI 渲染掉帧，滑动菜单时出现明显冻结。\n- **模型易泄露**：标准的模型文件格式容易被反编译提取，核心算法面临被竞争对手直接复制的风险。\n- **包体积过大**：引入完整的深度学习运行时库导致安装包激增，严重影响用户在弱网环境下的下载转化率。\n\n### 使用 mace 后\n- **推理速度倍增**：利用 MACE 内置的 Winograd 算法和 NEON\u002FOpenCL 加速，卷积运算效率大幅提升，帧率稳定在 30fps 以上。\n- **功耗显著降低**：通过 big.LITTLE 大小核调度及 Adreno GPU 提示接口，精准控制算力分配，设备温升减少 40%。\n- **交互丝滑流畅**：MACE 自动将 OpenCL 内核拆分为微小单元执行，允许 UI 渲染任务随时抢占资源，彻底消除界面卡顿。\n- **资产安全加固**：借助模型转 C++ 代码及字面量混淆技术，将二进制模型隐藏于原生代码中，有效防止算法被盗用。\n- **轻量级部署**：得益于图级内存优化和极小的外部依赖，库文件 footprint 大幅缩减，应用安装包体积减少约 2MB。\n\nmace 通过深度适配移动端异构硬件，成功解决了高性能 AI 模型在资源受限设备上“跑不动、耗不起、保不住”的核心难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXiaoMi_mace_5049591f.png","XiaoMi","Xiaomi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FXiaoMi_8fb93275.png","",null,"http:\u002F\u002Fmi.com\u002F","https:\u002F\u002Fgithub.com\u002FXiaoMi",[80,84,88,92,96,100,104,108,112,115],{"name":81,"color":82,"percentage":83},"C++","#f34b7d",85.5,{"name":85,"color":86,"percentage":87},"Python","#3572A5",9.5,{"name":89,"color":90,"percentage":91},"C","#555555",2.7,{"name":93,"color":94,"percentage":95},"CMake","#DA3434",0.8,{"name":97,"color":98,"percentage":99},"Starlark","#76d275",0.6,{"name":101,"color":102,"percentage":103},"Jinja","#a52a22",0.5,{"name":105,"color":106,"percentage":107},"Shell","#89e051",0.3,{"name":109,"color":110,"percentage":111},"Dockerfile","#384d54",0.1,{"name":113,"color":114,"percentage":111},"HTML","#e34c26",{"name":116,"color":117,"percentage":118},"Smarty","#f0c040",0,5038,824,"2026-04-04T17:19:57","Apache-2.0",4,"Android, iOS, Linux, Windows","非必需。支持通过 OpenCL 调用移动设备 GPU（如 Adreno），或 Hexagon DSP；未提及桌面级 NVIDIA GPU 或 CUDA 需求。","未说明",{"notes":128,"python":126,"dependencies":129},"MACE 是专为移动端异构计算设计的推理框架，主要优化了 ARM 架构芯片（如高通、联发科、松果）。支持将模型转换为 C++ 代码以进行保护。具体编译环境依赖（如 Bazel、NDK 等）需参考官方安装文档，README 中未详细列出版本号。",[130,131,132,133,134],"TensorFlow","Caffe","ONNX","Qualcomm Hexagon NN Offload Framework","ARM ComputeLibrary (参考)",[14],[137,138,139,140,141,142],"deep-learning","neural-network","opencl","neon","hvx","machine-learning","2026-03-27T02:49:30.150509","2026-04-07T18:40:09.107302",[146,151,156,161,166,171],{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},22579,"在 ARM Linux 设备（如 RK3399）上使用 GPU 加速时，性能是否一定优于 CPU？","不一定。目前只有基于 Buffer 的 OpenCL 实现能在某些场景下超越 CPU，但支持的算子（Ops）数量有限。如果模型中包含大量不支持 Buffer-based OpenCL 的算子，GPU 性能可能不如 CPU。建议参考官方文档中关于在嵌入式设备运行的指南，并根据实际芯片类型和 OpenCL 版本进行测试。","https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace\u002Fissues\u002F36",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},22580,"转换 TensorFlow 模型时遇到 'Beta input to batch norm has bad shape' 错误如何解决？","该错误通常是由于使用了 TensorFlow 的训练图（training graph）导致的，特别是包含 Batch Normalization 层时。建议在转换前使用 TensorFlow 的 transform_graph 工具对模型进行优化，去除训练专用节点。推荐使用的转换步骤包括：strip_unused_nodes, remove_nodes(op=Identity, op=CheckNumerics), fold_constants, fold_batch_norms, fold_old_batch_norms, remove_control_dependencies 等。","https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace\u002Fissues\u002F425",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},22581,"如何在 Android 项目中同时编译和加载多个模型？","支持在同一个配置文件中定义多个模型。编译后，在 Android 代码中可以通过 MaceEngineFactory 或相关 API 分别加载不同的模型标签（model tag）。如果使用的是 file 格式（model_graph_format: file），需确保正确引用生成的库文件和处理资源加载逻辑。具体代码实现可参考官方示例：mace\u002Fexamples\u002Fcli\u002Fexample.cc 中的多模型加载部分。","https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace\u002Fissues\u002F163",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},22582,"在 RK3399 上运行模型时显示 'Fall back to CPU' 且 GPU 性能极差（如 200ms+）怎么办？","首先确认 runtime 配置为 'gpu' 或 'cpu+gpu'。如果日志显示回退到 CPU 或 GPU 耗时异常高，可能是当前算子不支持 GPU 加速或 OpenCL 内核未优化。建议使用 MACE 提供的性能调试工具（debug performance）查看每个算子的耗时和设备分配情况。注意：初始化阶段出现的额外节点是用于硬件能力测试（GetCapability），仅运行一次，不影响正式推理性能。","https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace\u002Fissues\u002F529",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},22583,"Winograd 加速策略如何配置？适用于哪些场景？","Winograd 主要用于加速卷积运算，可在配置文件的模型选项中通过 'winograd' 参数设置（例如 winograd: 4 表示启用特定块大小的 Winograd 算法）。它通常在卷积核大小为 3x3 且输入通道较多时效果显著。但需注意，并非所有模型结构都适合开启 Winograd，需结合实际模型结构和目标硬件进行测试验证。详细用法请查阅官方文档中的高级用法章节。","https:\u002F\u002Fgithub.com\u002FXiaoMi\u002Fmace\u002Fissues\u002F638",{"id":172,"question_zh":173,"answer_zh":174,"source_url":150},22584,"交叉编译 MACE 到 ARM Linux 平台需要提供哪些信息？","为了获得更好的支持和排查问题，建议提供以下信息：1. 芯片类型和具体参数；2. Linux 操作系统版本；3. 使用的交叉编译器版本；4. 如果涉及 GPU 加速，需提供 OpenCL 版本号以及动态库的路径（区分 32 位或 64 位）。这些信息有助于维护者判断兼容性和提供针对性的编译指导。",[176,181,186,191,196,201,206,211,216,221,226,231],{"id":177,"version":178,"summary_zh":179,"released_at":180},136299,"v1.1.1","## 功能：\n1. 支持 APU v4 上的 ION 缓冲区，并支持浮点输入\n2. 自动对 libhexagon_nn_skel.so 进行签名\n3. 在不使用 CPU 或 GPU 时移除运算模块\n4. 为 APU 提供 Boost 和偏好提示支持\n5. 支持在未连接设备的情况下构建 APU 的 mace_run\n6. 添加 DSP SoC ID 450\n7. 支持 OpenCL 的假预热，以加快 GPU 预热速度\n8. 添加 Qnn 后端并更新 Qnn 库\n9. 将特殊模型添加到 CI 中，并新增 Micro runtime_load_model 示例\n10. 支持 OpenCL 3.0\n11. 支持 MTK ION 模式\n12. 支持 dma_buf_heap\n13. 移除由 Reshape 引起的回退机制\n14. 为 MACE-Micro 添加运行验证\n15. 为 MACE-Micro 新增运行时加载模型接口\n16. 更新 MTK APU 库\n\n## 算子：\n1. 支持 Sigmoid 的 uint8 模式\n2. 支持 DepthToSpace、SpaceToDepth、ReduceSum 和 DetectionOutput 算子\n3. 支持深度可分离卷积的主机配置\n4. 增加 Keras 转换器支持的算子\n5. 支持 InstanceNorm 算子，并可从 TensorFlow 中折叠 InstanceNorm\n6. 支持 depth_to_space 的 CRD 模式\n7. 支持 DSP 算子：Leaky ReLU、Reshape\n8. 支持 HTP 算子：深度可分离卷积、Leaky ReLU\n9. 支持 Keras 算子：Subtract、Multiply\n10. 支持 HardSigmoid 算子\n\n## 性能：\n1. 优化 CPU 算子中的池化和 Softmax 性能\n2. 优化 GPU 上的 Softmax，并支持在通道维度上进行 GPU Reduce\n\n## 其他：\n1. 修复一些兼容性和稳定性问题\n2. 修正部分文档错误\n3. 添加一些转换相关的 Bug 记录","2022-01-13T09:55:14",{"id":182,"version":183,"summary_zh":184,"released_at":185},136300,"v1.0.4","1. 修复MTK GPU上的计算错误。\r\n1. 优化MTK GPU的预热性能。","2021-03-18T10:07:32",{"id":187,"version":188,"summary_zh":189,"released_at":190},136301,"v1.0.3","1. 支持 fp16、bf16 等 I\u002FO 数据类型。  \n2. 修复 APU 运行时的构建错误。  \n3. 支持 Hexagon 内存使用统计。  \n4. 修复静态库的 CMake 构建错误。","2021-03-03T01:09:26",{"id":192,"version":193,"summary_zh":194,"released_at":195},136302,"v1.0.2","1. 支持APU运行时的多个操作系统版本。","2021-01-12T02:48:05",{"id":197,"version":198,"summary_zh":199,"released_at":200},136303,"v1.0.1","1. 修复 ION 缓冲区中的构建错误。\n2. 修复 OpenCL 缓冲区转换器中的 bug。\n\n\n## 附件\nlibmace-v1.0.1.tar.gz：使用 NDK-19c 构建的预编译 MACE 库，包含 armeabi-v7a、arm64-v8a、arm_linux 和 linux-x86-64 四种架构的库文件。","2020-12-23T12:23:52",{"id":202,"version":203,"summary_zh":204,"released_at":205},136304,"v1.0.0","# 发布说明\n本次发布的主要亮点如下：\n## 支持 MACE Micro 量化\n今年年初，我们发布了 MACE Micro，以全面支持手机和 IoT 设备的超低功耗推理场景。在本版本中，我们为 MACE Micro 添加了量化支持，并集成了 CMSIS5，从而更好地支持 Cortex-M 系列芯片。\n\n## 支持更多模型格式\n越来越多的研发工程师开始使用 PyTorch 框架训练模型。在之前的版本中，MACE 会通过 ONNX 格式作为桥梁来转换 PyTorch 模型。为了更好地服务 PyTorch 开发者，我们在本版本中直接支持 PyTorch 模型的转换，从而提升了模型推理性能。\n同时，我们与 [旷视科技](https:\u002F\u002Fwww.megvii.com\u002F) 合作，新增对其 [MegEngine](https:\u002F\u002Fgithub.com\u002FMegEngine\u002FMegEngine) 模型格式的支持。如果您使用 [MegEngine](https:\u002F\u002Fgithub.com\u002FMegEngine\u002FMegEngine) 框架训练了模型，现在可以直接利用 MACE 将其部署到手机或 IoT 设备上。\n\n## 支持更多数据精度\nArm v8.2 架构提供了对半精度浮点数据处理指令的支持。在本版本中，我们通过 Arm v8.2 的 fp16 指令实现了 fp16 精度计算，这使得像 MobileNet-v1 这样的模型推理速度提升了约 40%。\n此外，bfloat16（Brain Floating Point）是一种占用 16 位内存的浮点数格式。本版本也新增了对 bfloat16 精度的支持，在部分低端芯片上，对于 MobileNet-v1\u002F2 等模型，推理速度同样可提升约 40%。\n\n## 其他改进\n在本版本中，我们还新增了以下功能：\n1. 增加对更多算子的支持，例如 `GroupNorm`、`ExtractImagePatches`、`Elu` 等。\n2. 优化框架及算子性能，如 `Reduce` 算子。\n3. 支持 conv2d\u002Fdeconv2d 的动态滤波器。\n4. 集成联发科 APU 支持，适配 mt6873、mt6885 和 mt6853 芯片。\n\n## 致谢\n感谢以下各位贡献代码，使 MACE 不断完善：\n\n@ZhangZhijing1，贡献了 bfloat16 相关代码，后由他人提交；\n@yungchienhsu、@Yi-Kai-Chen、@Eric-YK-Chen、@yzchen、@gasgallo、@lq、@huahang、@elswork、@LovelyBuggies、@freewym。\n\n## 附件\nlibmace-v1.0.0.tar.gz：基于 NDK-19c 预编译的 MACE 库，包含 armeabi-v7a、arm64-v8a、arm_linux 和 linux-x86-64 四种架构的库文件。","2020-11-04T12:43:00",{"id":207,"version":208,"summary_zh":209,"released_at":210},136305,"v0.13.0","# 发布说明\n本次发布的主要亮点如下：\n## 支持 MACE Micro\n与手机等移动设备相比，微控制器是一种体积小、功耗低的计算设备，通常嵌入到仅需基本计算能力的硬件中，例如家用电器和物联网设备。每年有数十亿颗微控制器被生产出来。MACE 新增对微控制器的支持，以全面覆盖手机和物联网设备的超低功耗推理场景。MACE 的微控制器引擎不依赖任何操作系统、堆内存分配、C++ 标准库或其他第三方库，仅使用数学库。\n\n## 量化支持进一步增强\nMACE 支持两种量化机制：量化感知训练和后训练量化。在本版本中，我们新增了这两种机制的混合使用方式。此外，我们还为 CPU 量化引入了 Armv8.2 点积指令支持。\n\n## 性能优化\nMACE 持续进行性能优化。此次我们为 Qualcomm SoC 添加了 ION 缓冲区支持，显著提升了需要在 GPU 和 CPU 之间切换的模型的推理性能。同时，我们也优化了 `ResizeNearestNeighbor`、`Deconv` 等算子的性能。\n\n## 其他改进\n在本版本中，我们新增了多个算子支持：针对 TensorFlow 的 `BatchMatMulV2` 和 `Select` 算子，以及针对 Hexagon DSP 的 `Deconv2d`、`Strided-Slice` 和 `Sigmoid` 算子；并修复了验证和调优过程中的一些问题。\n\n## 致谢\n感谢以下贡献代码、使 MACE 不断完善的开发者：\ngasgallo\n\n## 附件\nlibmace-v0.13.0.tar.gz：基于 NDK-19c 预编译的 MACE 库，包含 armeabi-v7a、arm64-v8a、arm_linux 和 linux-x86-64 四种架构的库文件。","2020-04-03T12:29:18",{"id":212,"version":213,"summary_zh":214,"released_at":215},136306,"v0.12.0","# 发布说明\n本次发布的主要亮点如下：\n## 性能优化\n我们发现，由于设备端（如 GPU、Hexagon DSP 等）缺少算子实现，会导致模型执行效率低下，原因是设备与 CPU 之间的内存同步耗时较长。为此，我们在 GPU 上新增并优化了部分算子（如 reshape、lpnorm、mvnorm 等），并在 Hexagon DSP 上新增和优化了部分算子（如 s2d、d2s、sub 等），以提升模型执行效率。\n\n## 更进一步的语音识别支持\n在上一版本中，我们已支持 Kaldi 框架。在小米内部，我们为语音识别模型的支持做了大量工作，包括对 ONNX 中 flatten、unsample 等算子的支持，以及一些 bug 修复。\n\n## CMake 支持\nMACE 不断优化我们的编译工具链。此次我们新增了对 CMake 编译的支持。由于使用了 ccache 进行加速，CMake 的编译速度相比原有的 Bazel 显著提升。\n相关文档：https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Fuser_guide\u002Fbasic_usage_cmake.html\n\n## 其他改进\n在本版本中，我们通过 dana 实现了性能回归检测，并在 YML 配置文件中新增了 “gpu_queue_window” 参数，以解决因 GPU 任务执行导致的 UI 卡顿问题。\n相关文档：https:\u002F\u002Fmace.readthedocs.io\u002Fen\u002Flatest\u002Ffaq.html\n\n## 致谢\n感谢以下贡献代码、使 MACE 不断完善的各位：\nyungchienhsu、gasgallo、albu、yunikkk","2019-11-17T07:45:24",{"id":217,"version":218,"summary_zh":219,"released_at":220},136307,"v0.11.0-rc1","- 移除未实现的 GPU 矩阵乘法。\n\n- 修复 MACE 版本中缩写提交 ID 的长度。\n\n- 修复一些 bug。","2019-05-30T08:18:09",{"id":222,"version":223,"summary_zh":224,"released_at":225},136308,"v0.11.0-rc0","## 改进\n1. 支持 Kaldi 框架。\n2. 支持 iOS 和 macOS。\n3. 支持高通的 HTA 设备。\n4. 支持联发科的 APU 设备。\n5. 新增线程池以替代 OpenMP。\n6. 引入新策略，支持 CPU 和 GPU 的混合使用。\n7. 新增多项算子，并修复了多个 bug。\n\n## 不兼容的变更\n无\n\n## 新增 API\n1. 新增 CreateEngineFromProto API。\n2. MaceTensor 支持 float 和 int32 数据类型。\n\n## 致谢\n感谢以下为 MACE 贡献代码、使其更加完善的各位：\n\nyungchienhsu、gigadeplex、hanton、idstein、herbakamil。\n\n## 附件\nlibmace.zip：使用 NDK-17b 预编译的 MACE 库，包含 armeabi-v7a、arm64-v8a、arm_linux 和 linux-x86-64 四种架构的库。","2019-05-15T06:35:42",{"id":227,"version":228,"summary_zh":229,"released_at":230},136309,"v0.10.0","libmace.zip: Prebuilt MACE library using NDK-17b, which contains armeabi-v7a, arm64-v8a, arm_linux and linux-x86-64 libraries.","2019-01-04T01:27:20",{"id":232,"version":233,"summary_zh":234,"released_at":235},136310,"v0.9.0","libmace.zip: Prebuilt MACE library using NDK-15c, which contains `armeabi-v7a`, `arm64-v8a` and `linux-x86-64` libraries.\r\n","2018-08-02T04:44:32"]