[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-alibaba--MNNKit":3,"tool-alibaba--MNNKit":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":23,"env_os":107,"env_gpu":108,"env_ram":108,"env_deps":109,"category_tags":117,"github_topics":80,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":161},2507,"alibaba\u002FMNNKit","MNNKit","MNNKit is a collection of AI solutions for mobile developers, powered by MNN engine.","MNNKit 是一套专为移动端开发者打造的 AI 解决方案集合，由阿里巴巴 MNN 团队基于其高性能端侧推理引擎 MNN 开发。它旨在降低移动应用集成人工智能功能的门槛，让开发者无需深入钻研复杂的算法原理或模型训练过程，即可快速将成熟、稳定的 AI 能力部署到 Android 和 iOS 应用中。\n\n这套工具主要解决了传统 AI 落地难、适配复杂以及性能优化耗时等痛点。MNNKit 提供了包括人脸检测、手势识别和人像分割在内的多种通用场景 SDK，这些方案均经过阿里系大规模业务（如双十一）的实战验证，具备极高的稳定性和可靠性。对于开发者而言，MNNKit 实现了“开箱即用”，通过简单的 API 调用即可完成从实例创建、数据推理到资源释放的全流程，极大地缩短了开发周期。\n\n在技术层面，MNNKit 的核心优势在于其轻量化与高性能。它不依赖后端服务器，所有计算均在设备端完成，不仅保护了用户隐私，还确保了实时交互的流畅性。其底层架构分为引擎层、核心基础层和业务 Kit 层，结构清晰且模块化程度高，开发者可根据需求灵活选择集成的功能模块，无需处理繁琐的依赖关系。\n\nMNNKit 非常适合从事移","MNNKit 是一套专为移动端开发者打造的 AI 解决方案集合，由阿里巴巴 MNN 团队基于其高性能端侧推理引擎 MNN 开发。它旨在降低移动应用集成人工智能功能的门槛，让开发者无需深入钻研复杂的算法原理或模型训练过程，即可快速将成熟、稳定的 AI 能力部署到 Android 和 iOS 应用中。\n\n这套工具主要解决了传统 AI 落地难、适配复杂以及性能优化耗时等痛点。MNNKit 提供了包括人脸检测、手势识别和人像分割在内的多种通用场景 SDK，这些方案均经过阿里系大规模业务（如双十一）的实战验证，具备极高的稳定性和可靠性。对于开发者而言，MNNKit 实现了“开箱即用”，通过简单的 API 调用即可完成从实例创建、数据推理到资源释放的全流程，极大地缩短了开发周期。\n\n在技术层面，MNNKit 的核心优势在于其轻量化与高性能。它不依赖后端服务器，所有计算均在设备端完成，不仅保护了用户隐私，还确保了实时交互的流畅性。其底层架构分为引擎层、核心基础层和业务 Kit 层，结构清晰且模块化程度高，开发者可根据需求灵活选择集成的功能模块，无需处理繁琐的依赖关系。\n\nMNNKit 非常适合从事移动应用开发的工程师使用，特别是那些希望在视频中添加特效、实现互动游戏或增强相机功能的团队。无论是初创项目还是大型商业应用，都能借助 MNNKit 轻松赋予产品智能化的交互体验，同时保持应用的高效运行。","# MNNKit\n\n## 简介\n\nMNNKit是基于端上推理引擎[MNN](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNN)提供的系列应用层解决方案，它是由MNN团队在阿里系应用大规模业务实践后的成熟方案，MNNKit主要面向Android\u002FiOS移动应用开发者，使其能快速、方便地将通用场景的AI能力直接部署到移动应用中，从而基于它开发各种各样的业务能力和玩法。\n\n- SDK开箱即用，接入方便，无需关心算法或模型\n- 阿里系业务沉淀的稳定模型和算法，历经双十一等重大项目，端侧由MNN提供可靠的运行环境\n- 高性能实时推理，不依赖于后端，更适合移动端应用场景\n\n## Demo快速体验\n\n### 1. 扫码安装\n\n#### Android\n\n![安卓扫码安装](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fandroid_qrcode.png)\n\n### 2. 源码安装\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit.git\n```\n\n#### Android\n\n1. 打开Android Studio，点击File->Open...，选择MNNKitDemo\u002FAndroid目录\n2. Gradle sync成功后，点击Run安装运行到真机上（Demo中视频检测依赖摄像头输入）\n\n#### iOS\n\n```\ncd MNNKitDemo\u002FiOS\npod update\nopen MNNKitDemo.xcworkspace\n```\n\n然后安装运行到真机上（Demo中视频检测依赖摄像头输入）\n\n\n\n## SDK安装\n\n### Kit依赖关系\n\nMNNKit SDK组织结构如下图：\n\n![SDK栈](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fsdk_stack.jpeg)\n\n从底向上分为三层：\n\n1. MNN引擎层，是[MNN](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNN)开源库在Android\u002FiOS上编译好的二进制包的Relase版本，提供端侧AI运行的环境。\n2. Core基础层，这一层主要抽象和封装与MNN c++接口调用粒度基本一致的上层API，iOS以OC接口提供，Android以Java接口提供（TODO）。同时也为上层SDK提供一些公共服务类或结构定义。\n3. 业务Kit层，人脸检测、手势识别等都属于具体的一种算法能力在上层的封装，这一层的SDK称为业务Kit SDK，其中封装了若干模型和对应的算法处理。往后业务Kit层会不断扩展更多实用的Kit SDK。\n\n### 安装\n\n业务Kit层SDK相互独立，向下关联依赖无需显式指定，只需根据自身需求选择集成的SDK和版本即可。\n\n| Kit SDK              | Android | iOS   | License                                                      |\n| -------------------- | ------- | ----- | ------------------------------------------------------------ |\n| FaceDetection        | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n| HandGestureDetection | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n| PortraitSegmentation | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n\n#### Android\n\n- 系统最低API Level16（4.1版本）\n- MNNKit官方库托管在Maven Central上\n\n工程build.gradle配置maven仓库：\n\n```groovy\nallprojects {\n    repositories {\n        google()\n        jcenter()\n        \u002F\u002F 国内访问推荐使用阿里云镜像加速\n        maven { url \"https:\u002F\u002Fmaven.aliyun.com\u002Fnexus\u002Fcontent\u002Fgroups\u002Fpublic\" }\n      \t\u002F\u002F Maven Central\n\u002F\u002F        mavenCentral()\n\u002F\u002F        mavenLocal()\n    }\n}\n```\n\napp的build.gradle添加依赖：\n\n```groovy\ndependencies {\n    implementation 'com.alibaba.android.mnnkit:facedetection:0.1.0'\n    implementation 'com.alibaba.android.mnnkit:handgesturedetection:0.1.0'\n    implementation 'com.alibaba.android.mnnkit:portraitsegmentation:0.1.0'\n}\n```\n\n##### Proguard\n\n```\n-dontwarn com.alibaba.android.mnnkit.**\n-keep class com.alibaba.android.mnnkit.**{*;}\n```\n\n#### iOS\n\n- 系统最低版本ios 8.0\n- 从0.0.4版本开始，MNNKit系列SDK均为静态库\n\n```ruby\nsource 'https:\u002F\u002Fgithub.com\u002FCocoaPods\u002FSpecs.git'\nplatform :ios\n\ntarget 'MNNKitDemo' do\n    platform :ios, '8.0'\n    \n    # 人脸检测\n    pod 'MNNFaceDetection', '~> 0.0.4'\n    # 手势识别\n    pod 'MNNHandGestureDetection', '~> 0.0.4'\n    # 人像分割\n    pod 'MNNPortraitSegmentation', '~> 0.0.4'\n    \nend\n```\n\n##### Bitcode\n\n目前MNNKit SDK均不支持bitcode，应用集成时候需关闭bitcode选项。\n\n\n\n## API\n\nKit的基本API只有三个，创建实例、推理、释放实例。使用流程也是按照这个顺序，如下图所示，其中推理时可输入视频、图片或其他格式的数据。\n\n![api](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fapi_flow.png)\n\n[人脸检测API](doc\u002FFaceDetection_CN.md)\n\n[手势识别API](doc\u002FHandGestureDetection_CN.md)\n\n[人像分割API](doc\u002FPortraitSegmentation_CN.md)\n\n### 隐私说明\n\n默认情况下，MNNKit会收集SDK运行时的性能、稳定性等数据，帮助我们统计和分析问题，以在后续迭代中针对性地进行优化和改进。SDK不会收集其他任何无关的用户信息，相关协议请参考[license](license)。用户可以显式的调用API关闭该功能（不推荐）：\n\n#### Android\n\n```java\nMNNMonitor.java\n\u002F**\n * enable\u002Fdisable collection of statistical information. Enable by default.\n * @param monitorEnable true or false\n *\u002F\npublic static void setMonitorEnable(boolean monitorEnable)\n```\n\n#### iOS\n\n```objective-c\nMNNMonitor.h\n\u002F\u002F\u002F enable\u002Fdisable collection of statistical information. Enable by default.\n\u002F\u002F\u002F @param enable \n+ (void)setMonitorEnable:(BOOL)enable;\n```\n\n\n\n## 接入指南\n\nMNNKit API中包含了inAngle和outAngle两个参数值，他们是用来做什么的？理解这个问题之前，我们不妨先了解下SDK处理的一般过程。\n\n### 处理过程\n\n如下是iOS和Android设备后置摄像头正向拍摄的场景，端上整个处理过程：\n\n![process](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fprocess_graph.png)\n\n#### 1. 设备预览和输出\n\n这部分是从Camera获取数据，作为SDK的输入；同时在设备前端，要正确的预览给用户。\n\n#### 2. SDK检测\n\nMNNKit SDK内部实现封装了算法的深度学习模型，运行在MNN引擎上，因此人脸检测也并非传统的图像处理，它有着机器学习所有的特性。算法在模型训练阶段使用的是正向的人脸数据集，因而这个模型只认识\"正向\"的人脸，如果输入是一张方向不对的人脸，可能就不会有检测结果，我们称之为\"内容方向敏感\"。MNNKit中人脸检测、手势识别、人像分割都属于\"内容方向敏感\"的类型。\n\n1. 在MNN引擎执行推理之前，需要对原始的输入做预处理，保证输入数据中的人脸为正向\n2. 推理完成后，产生了基于输入图像（预处理之后的）坐标系的关键点结果\n3. 为了上层渲染方便，SDK会把关键点坐标变换到和屏幕渲染坐标系相同的方向\n\n>  SDK参数中的inAngle参数就是用来控制将原始输入旋转到\"内容正向\"的角度，outAngle就是用来变换关键点坐标到屏幕渲染坐标系方向的角度！\n\n从上图中可以看出，iOS在后置正向的情况下的输入角度为0，输出角度为0；而安卓输入角度为90，输出角度为0。\n\n#### 3. 结果渲染\n\nSDK检测的结果是图像的特征描述，最简单的描述就是关键点的坐标，这些坐标都是在图像坐标系下产生的，也就是在最终输入到引擎的图片左上角为原点的坐标系下。比如输入的图像是1280*720，那么检测结果也是在这个坐标系下产生。\n\n工程应用中，最后的结果关键点要显示在用户屏幕上，前端会使用一个用来渲染的\"画布\"，它可以是一个UI上用来显示的视图或其他组件，画布的尺寸由应用根据视觉设计自己定义。画布的坐标系我们统称为渲染坐标系，这一步要做的就是将关键点坐标从头像坐标系转换到渲染坐标系。\n\n在SDK检测的最后一步，我们已经将关键点变换到和渲染坐标系相同的方向，因为两个坐标系的大小不一样，接下来只需要等比例映射坐标就行了。映射完后直接渲染到画布上，就完成了整个过程。\n\n### 工程实践参考\n\n上述我们以iOS和Android设备后置摄像头正向拍摄为例阐述，比较简单，实际的工程接入中，摄像头的正向角度会产生输出图像的角度，设备旋转会造成输出图片非内容正向，自动旋转开启会引起渲染坐标系的变化，等等，这些都是SDK之外工程上需要解决的问题。\n\nMNNKit Demo中涵盖了工程实践中所有问题的综合解法，如输入角度、摄像头预览、结果渲染、自动旋转等等，是工程接入的最佳实践参考。如果不熟悉该如何处理，请阅读Demo中的代码示例，相信所有的问题都可以迎刃而解。\n\n\n\n## License\n\n当您在软件中使用MNNKit相关SDK时，默认您已经阅读并同意协议[《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense)\n\n","# MNNKit\n\n## 简介\n\nMNNKit是基于端上推理引擎[MNN](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNN)提供的系列应用层解决方案，它是由MNN团队在阿里系应用大规模业务实践后的成熟方案，MNNKit主要面向Android\u002FiOS移动应用开发者，使其能快速、方便地将通用场景的AI能力直接部署到移动应用中，从而基于它开发各种各样的业务能力和玩法。\n\n- SDK开箱即用，接入方便，无需关心算法或模型\n- 阿里系业务沉淀的稳定模型和算法，历经双十一等重大项目，端侧由MNN提供可靠的运行环境\n- 高性能实时推理，不依赖于后端，更适合移动端应用场景\n\n## Demo快速体验\n\n### 1. 扫码安装\n\n#### Android\n\n![安卓扫码安装](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fandroid_qrcode.png)\n\n### 2. 源码安装\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit.git\n```\n\n#### Android\n\n1. 打开Android Studio，点击File->Open...，选择MNNKitDemo\u002FAndroid目录\n2. Gradle sync成功后，点击Run安装运行到真机上（Demo中视频检测依赖摄像头输入）\n\n#### iOS\n\n```\ncd MNNKitDemo\u002FiOS\npod update\nopen MNNKitDemo.xcworkspace\n```\n\n然后安装运行到真机上（Demo中视频检测依赖摄像头输入）\n\n\n\n## SDK安装\n\n### Kit依赖关系\n\nMNNKit SDK组织结构如下图：\n\n![SDK栈](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fsdk_stack.jpeg)\n\n从底向上分为三层：\n\n1. MNN引擎层，是[MNN](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNN)开源库在Android\u002FiOS上编译好的二进制包的Relase版本，提供端侧AI运行的环境。\n2. Core基础层，这一层主要抽象和封装与MNN c++接口调用粒度基本一致的上层API，iOS以OC接口提供，Android以Java接口提供（TODO）。同时也为上层SDK提供一些公共服务类或结构定义。\n3. 业务Kit层，人脸检测、手势识别等都属于具体的一种算法能力在上层的封装，这一层的SDK称为业务Kit SDK，其中封装了若干模型和对应的算法处理。往后业务Kit层会不断扩展更多实用的Kit SDK。\n\n### 安装\n\n业务Kit层SDK相互独立，向下关联依赖无需显式指定，只需根据自身需求选择集成的SDK和版本即可。\n\n| Kit SDK              | Android | iOS   | License                                                      |\n| -------------------- | ------- | ----- | ------------------------------------------------------------ |\n| FaceDetection        | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n| HandGestureDetection | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n| PortraitSegmentation | 0.1.0   | 0.0.4 | [《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense) |\n\n#### Android\n\n- 系统最低API Level16（4.1版本）\n- MNNKit官方库托管在Maven Central上\n\n工程build.gradle配置maven仓库：\n\n```groovy\nallprojects {\n    repositories {\n        google()\n        jcenter()\n        \u002F\u002F 国内访问推荐使用阿里云镜像加速\n        maven { url \"https:\u002F\u002Fmaven.aliyun.com\u002Fnexus\u002Fcontent\u002Fgroups\u002Fpublic\" }\n      \t\u002F\u002F Maven Central\n\u002F\u002F        mavenCentral()\n\u002F\u002F        mavenLocal()\n    }\n}\n```\n\napp的build.gradle添加依赖：\n\n```groovy\ndependencies {\n    implementation 'com.alibaba.android.mnnkit:facedetection:0.1.0'\n    implementation 'com.alibaba.android.mnnkit:handgesturedetection:0.1.0'\n    implementation 'com.alibaba.android.mnnkit:portraitsegmentation:0.1.0'\n}\n```\n\n##### Proguard\n\n```\n-dontwarn com.alibaba.android.mnnkit.**\n-keep class com.alibaba.android.mnnkit.**{*;}\n```\n\n#### iOS\n\n- 系统最低版本ios 8.0\n- 从0.0.4版本开始，MNNKit系列SDK均为静态库\n\n```ruby\nsource 'https:\u002F\u002Fgithub.com\u002FCocoaPods\u002FSpecs.git'\nplatform :ios\n\ntarget 'MNNKitDemo' do\n    platform :ios, '8.0'\n    \n    # 人脸检测\n    pod 'MNNFaceDetection', '~> 0.0.4'\n    # 手势识别\n    pod 'MNNHandGestureDetection', '~> 0.0.4'\n    # 人像分割\n    pod 'MNNPortraitSegmentation', '~> 0.0.4'\n    \nend\n```\n\n##### Bitcode\n\n目前MNNKit SDK均不支持bitcode，应用集成时候需关闭bitcode选项。\n\n\n\n## API\n\nKit的基本API只有三个，创建实例、推理、释放实例。使用流程也是按照这个顺序，如下图所示，其中推理时可输入视频、图片或其他格式的数据。\n\n![api](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fapi_flow.png)\n\n[人脸检测API](doc\u002FFaceDetection_CN.md)\n\n[手势识别API](doc\u002FHandGestureDetection_CN.md)\n\n[人像分割API](doc\u002FPortraitSegmentation_CN.md)\n\n### 隐私说明\n\n默认情况下，MNNKit会收集SDK运行时的性能、稳定性等数据，帮助我们统计和分析问题，以在后续迭代中针对性地进行优化和改进。SDK不会收集其他任何无关的用户信息，相关协议请参考[license](license)。用户可以显式的调用API关闭该功能（不推荐）：\n\n#### Android\n\n```java\nMNNMonitor.java\n\u002F**\n * enable\u002Fdisable collection of statistical information. Enable by default.\n * @param monitorEnable true or false\n *\u002F\npublic static void setMonitorEnable(boolean monitorEnable)\n```\n\n#### iOS\n\n```objective-c\nMNNMonitor.h\n\u002F\u002F\u002F enable\u002Fdisable collection of statistical information. Enable by default.\n\u002F\u002F\u002F @param enable \n+ (void)setMonitorEnable:(BOOL)enable;\n```\n\n\n\n## 接入指南\n\nMNNKit API中包含了inAngle和outAngle两个参数值，他们是用来做什么的？理解这个问题之前，我们不妨先了解下SDK处理的一般过程。\n\n### 处理过程\n\n如下是iOS和Android设备后置摄像头正向拍摄的场景，端上整个处理过程：\n\n![process](https:\u002F\u002Fmnnkit.oss-cn-hangzhou.aliyuncs.com\u002Fimage\u002Fprocess_graph.png)\n\n#### 1. 设备预览和输出\n\n这部分是从Camera获取数据，作为SDK的输入；同时在设备前端，要正确的预览给用户。\n\n#### 2. SDK检测\n\nMNNKit SDK内部实现封装了算法的深度学习模型，运行在MNN引擎上，因此人脸检测也并非传统的图像处理，它有着机器学习所有的特性。算法在模型训练阶段使用的是正向的人脸数据集，因而这个模型只认识\"正向\"的人脸，如果输入是一张方向不对的人脸，可能就不会有检测结果，我们称之为\"内容方向敏感\"。MNNKit中人脸检测、手势识别、人像分割都属于\"内容方向敏感\"的类型。\n\n1. 在MNN引擎执行推理之前，需要对原始的输入做预处理，保证输入数据中的人脸为正向\n2. 推理完成后，产生了基于输入图像（预处理之后的）坐标系的关键点结果\n3. 为了上层渲染方便，SDK会把关键点坐标变换到和屏幕渲染坐标系相同的方向\n\n>  SDK参数中的inAngle参数就是用来控制将原始输入旋转到\"内容正向\"的角度，outAngle就是用来变换关键点坐标到屏幕渲染坐标系方向的角度！\n\n从上图中可以看出，iOS在后置正向的情况下的输入角度为0，输出角度为0；而安卓输入角度为90，输出角度为0。\n\n#### 3. 结果渲染\n\nSDK检测的结果是图像的特征描述，最简单的描述就是关键点的坐标，这些坐标都是在图像坐标系下产生的，也就是在最终输入到引擎的图片左上角为原点的坐标系下。比如输入的图像是1280*720，那么检测结果也是在这个坐标系下产生。\n\n工程应用中，最后的结果关键点要显示在用户屏幕上，前端会使用一个用来渲染的\"画布\"，它可以是一个UI上用来显示的视图或其他组件，画布的尺寸由应用根据视觉设计自己定义。画布的坐标系我们统称为渲染坐标系，这一步要做的就是将关键点坐标从头像坐标系转换到渲染坐标系。\n\n在SDK检测的最后一步，我们已经将关键点变换到和渲染坐标系相同的方向，因为两个坐标系的大小不一样，接下来只需要等比例映射坐标就行了。映射完后直接渲染到画布上，就完成了整个过程。\n\n### 工程实践参考\n\n上述我们以iOS和Android设备后置摄像头正向拍摄为例阐述，比较简单，实际的工程接入中，摄像头的正向角度会产生输出图像的角度，设备旋转会造成输出图片非内容正向，自动旋转开启会引起渲染坐标系的变化，等等，这些都是SDK之外工程上需要解决的问题。\n\nMNNKit Demo中涵盖了工程实践中所有问题的综合解法，如输入角度、摄像头预览、结果渲染、自动旋转等等，是工程接入的最佳实践参考。如果不熟悉该如何处理，请阅读Demo中的代码示例，相信所有的问题都可以迎刃而解。\n\n\n\n## License\n\n当您在软件中使用MNNKit相关SDK时，默认您已经阅读并同意协议[《MNN Kit Terms of Service》](https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKitDemo\u002Fblob\u002Fmaster\u002Flicense)","# MNNKit 快速上手指南\n\nMNNKit 是基于阿里开源推理引擎 MNN 的移动端 AI 应用层解决方案，提供人脸检测、手势识别、人像分割等开箱即用的 SDK，适用于 Android 和 iOS 开发。\n\n## 环境准备\n\n### 系统要求\n*   **Android**: 最低 API Level 16 (Android 4.1+)\n*   **iOS**: 最低 iOS 8.0\n    *   **注意**: MNNKit SDK 不支持 Bitcode，集成时需在 Xcode 中关闭 Bitcode 选项。\n\n### 前置依赖\n*   **Android**: Android Studio, Gradle\n*   **iOS**: CocoaPods, Xcode\n\n## 安装步骤\n\nMNNKit 的各业务 Kit（如人脸、手势、分割）相互独立，请根据需求选择集成。官方库托管在 Maven Central (Android) 和 CocoaPods (iOS)。\n\n### Android 集成\n\n1.  **配置仓库**\n    在项目根目录的 `build.gradle` 中添加 Maven 仓库。**国内开发者推荐使用阿里云镜像加速**。\n\n    ```groovy\n    allprojects {\n        repositories {\n            google()\n            jcenter()\n            \u002F\u002F 国内访问推荐使用阿里云镜像加速\n            maven { url \"https:\u002F\u002Fmaven.aliyun.com\u002Fnexus\u002Fcontent\u002Fgroups\u002Fpublic\" }\n            \u002F\u002F Maven Central\n            \u002F\u002F mavenCentral()\n            \u002F\u002F mavenLocal()\n        }\n    }\n    ```\n\n2.  **添加依赖**\n    在 app 模块的 `build.gradle` 中添加所需 SDK 依赖（以 0.1.0 版本为例）：\n\n    ```groovy\n    dependencies {\n        implementation 'com.alibaba.android.mnnkit:facedetection:0.1.0'\n        implementation 'com.alibaba.android.mnnkit:handgesturedetection:0.1.0'\n        implementation 'com.alibaba.android.mnnkit:portraitsegmentation:0.1.0'\n    }\n    ```\n\n3.  **配置 Proguard**\n    防止代码混淆导致 SDK 异常：\n\n    ```proguard\n    -dontwarn com.alibaba.android.mnnkit.**\n    -keep class com.alibaba.android.mnnkit.**{*;}\n    ```\n\n### iOS 集成\n\n1.  **配置 Podfile**\n    在项目的 `Podfile` 中添加以下配置（以 0.0.4 版本为例）：\n\n    ```ruby\n    source 'https:\u002F\u002Fgithub.com\u002FCocoaPods\u002FSpecs.git'\n    platform :ios\n\n    target 'YourTargetName' do\n        platform :ios, '8.0'\n        \n        # 人脸检测\n        pod 'MNNFaceDetection', '~> 0.0.4'\n        # 手势识别\n        pod 'MNNHandGestureDetection', '~> 0.0.4'\n        # 人像分割\n        pod 'MNNPortraitSegmentation', '~> 0.0.4'\n    end\n    ```\n\n2.  **安装依赖**\n    终端执行：\n    ```bash\n    pod update\n    ```\n\n## 基本使用\n\nMNNKit 的核心 API 流程统一为三步：**创建实例 -> 推理 -> 释放实例**。\n\n### 核心流程说明\n\n1.  **创建实例**：初始化对应的 Detector 或 Segmenter。\n2.  **推理 (Inference)**：\n    *   输入数据可以是视频帧、图片等。\n    *   **关键参数 `inAngle` 与 `outAngle`**：\n        *   `inAngle`: 用于将原始输入图像旋转至“内容正向”（模型训练时的标准方向）。\n        *   `outAngle`: 用于将推理得到的关键点坐标转换回屏幕渲染坐标系的方向。\n        *   *示例*：Android 后置摄像头通常需设置 `inAngle=90`, `outAngle=0`；iOS 后置通常为 `inAngle=0`, `outAngle=0`。具体请参考 Demo 中的相机适配逻辑。\n3.  **释放实例**：使用完毕后销毁对象，释放资源。\n\n### 代码示例结构\n\n#### Android (Java\u002FKotlin)\n\n```java\n\u002F\u002F 1. 创建实例 (以人脸检测为例)\nFaceDetector detector = new FaceDetector();\n\n\u002F\u002F 2. 推理\n\u002F\u002F 准备输入数据及角度参数\n\u002F\u002F Result result = detector.detect(inputData, inAngle, outAngle);\n\n\u002F\u002F 3. 释放实例\ndetector.release();\n```\n\n#### iOS (Objective-C)\n\n```objective-c\n\u002F\u002F 1. 创建实例\nMNNFaceDetector *detector = [[MNNFaceDetector alloc] init];\n\n\u002F\u002F 2. 推理\n\u002F\u002F 准备输入数据及角度参数\n\u002F\u002F NSArray *results = [detector detect:image inAngle:0 outAngle:0];\n\n\u002F\u002F 3. 释放实例\n[detector release];\n```\n\n### 隐私数据收集说明\n默认情况下，SDK 会收集性能与稳定性数据以优化产品。如需关闭，可调用以下 API（不推荐）：\n\n*   **Android**: `MNNMonitor.setMonitorEnable(false)`\n*   **iOS**: `[MNNMonitor setMonitorEnable:NO]`\n\n> **建议**：初次接入请详细阅读并运行官方 Demo (`MNNKitDemo`)，其中包含了处理相机预览、自动旋转、坐标映射等工程最佳实践。","某短视频社交 App 的开发团队正计划上线“手势互动滤镜”功能，允许用户通过比心、挥手等手势触发特效，以提升用户拍摄视频的趣味性和互动率。\n\n### 没有 MNNKit 时\n\n- **算法选型与调优困难**：团队需自行寻找开源手势识别模型，不仅难以保证在复杂光线下的准确率，还需投入大量人力进行模型剪枝和量化，以适配不同性能的移动端设备。\n- **端侧推理性能瓶颈**：自研或集成的通用推理框架往往体积庞大，且在低端 Android 机型上容易出现帧率下降、发热严重等问题，导致视频预览卡顿，严重影响用户体验。\n- **多平台适配成本高**：iOS 和 Android 两端需要分别维护不同的底层 C++ 代码和接口封装，处理摄像头数据旋转、内存管理等琐碎细节，开发周期长且容易引入兼容性 Bug。\n- **业务逻辑耦合度高**：算法工程师与工程开发人员需紧密协作解决模型部署问题，一旦模型更新，整个 APP 可能需要重新编译发布，迭代效率极低。\n\n### 使用 MNNKit 后\n\n- **开箱即用，专注业务**：直接集成 MNNKit 的手势识别 SDK，无需关心底层模型细节。阿里经过双十一验证的成熟算法确保了高准确率，团队可立即着手开发特效逻辑。\n- **高性能实时推理**：依托 MNN 引擎的深度优化，MNNKit 在各类主流机型上均能实现低功耗、高帧率的实时检测，确保视频预览流畅无卡顿，显著提升用户留存。\n- **统一 API，快速跨端**：iOS 和 Android 提供一致且简洁的 API（创建、推理、释放），屏蔽了底层差异。开发者只需几行代码即可接入，大幅降低了多端维护成本。\n- **独立模块化集成**：各功能 Kit 相互独立，仅按需引入手势识别模块，有效控制了 APP 包体积。模型更新可通过 SDK 版本迭代快速完成，无需重构核心代码。\n\nMNNKit 通过将复杂的端侧 AI 能力封装为标准化、高性能的移动端组件，帮助开发团队以最低的成本和最快的速度实现了高质量的互动功能落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Falibaba_MNNKit_26ec7a25.png","alibaba","Alibaba","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Falibaba_f65f7221.png","Alibaba Open Source",null,"https:\u002F\u002Fopensource.alibaba.com\u002F","https:\u002F\u002Fgithub.com\u002Falibaba",[84,88,92,96,100],{"name":85,"color":86,"percentage":87},"Objective-C","#438eff",50.2,{"name":89,"color":90,"percentage":91},"Java","#b07219",48.8,{"name":93,"color":94,"percentage":95},"C++","#f34b7d",0.6,{"name":97,"color":98,"percentage":99},"Ruby","#701516",0.3,{"name":101,"color":102,"percentage":99},"CMake","#DA3434",697,117,"2026-03-26T09:40:50","NOASSERTION","Android, iOS","未说明",{"notes":110,"python":108,"dependencies":111},"1. 该工具主要面向移动端（Android\u002FiOS）开发者，非桌面端Linux\u002FmacOS\u002FWindows环境。\n2. Android最低系统要求为API Level 16 (Android 4.1)；iOS最低系统要求为8.0。\n3. iOS集成时需关闭Bitcode选项，因为SDK不支持。\n4. SDK以静态库形式提供（iOS从0.0.4版本开始）。\n5. 默认开启性能与稳定性数据收集，可通过API关闭。\n6. 处理视频检测时依赖摄像头输入，需注意inAngle和outAngle参数以适配不同设备的坐标系旋转。",[112,113,114,115,116],"MNN (底层推理引擎)","Android: API Level 16+","iOS: iOS 8.0+","Gradle (Android构建)","CocoaPods (iOS依赖管理)",[14,13],"2026-03-27T02:49:30.150509","2026-04-06T11:30:49.438148",[121,126,131,136,141,146,151,156],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},11560,"Android 端如何支持 Android 15 要求的 16KB 页面大小对齐？","请使用版本 0.1.0 或更高版本。该版本已更新以支持 16KB 对齐。底层解决方式是将 NDK 版本升级至 r28 或更高版本进行编译。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F65",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},11558,"iOS 真机安装失败或报错，提示签名不匹配怎么办？","这是因为动态库（Framework）的签名 TeamIdentifier 必须与应用一致。解决方法有两种：\n1. 使用 CocoaPods 依赖管理（推荐），它会自动处理重签名。\n2. 如果手动集成，可以对 Framework 进行重签名以匹配应用的 TeamIdentifier。\n3. 或者使用官方发布的静态库版本，避免动态库签名问题。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F14",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},11559,"MNNKit 是否提供 iOS 静态库版本？","是的，iOS 静态库版本已经发布。如果您因团队规范或集成原因需要使用静态库，请更新仓库并查看最新文档获取静态库版本。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F13",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},11561,"人脸检测接口返回结果为空（nil）且无错误信息，可能是什么原因？","这通常是因为输入图片的角度问题。请尝试以下操作：\n1. 将图片旋转至正向（ upright ）后再传入。\n2. 或者在调用接口时，正确设置输入角度参数（如 inAngle 设为 90 度）。\n3. 确保初始化时配置的检测模式为“图片模式”。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F21",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},11562,"MNNKit 是否可以免费商用？License 有哪些限制？","根据 License 协议：\n1. 禁止以 MNNKit SDK 为基础封装任何商业或盈利目的的第三方 SDK 进行再分发。\n2. 允许在非商业目的下基于 MNNKit 开发上层 SDK，但必须使用 MNN Kit License 发布。\n3. 允许商业应用直接集成 MNNKit，即应用中某项收费功能可以基于 MNNKit 开发，只要不将其封装为独立的第三方 SDK 售卖即可。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F32",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},11563,"Android 开启代码混淆后，调用人脸识别出现 FastJSON 栈溢出错误怎么办？","这通常是由于 ProGuard 混淆规则与其他配置冲突导致的。虽然官方文档提供了基础的 keep 规则，但建议检查项目中其他的 ProGuard 配置文件，排除冲突项。确保保留 com.alibaba.android.mnnkit.** 下的所有类和方法。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F30",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},11564,"人像分割结果中，头发的边缘如何处理才能更自然（如边缘羽化）？","目前 SDK 返回的是原始的 Mask 数据，不包含边缘羽化处理。开发者需要在应用层自行处理边缘效果，可以参考 OpenCV 的相关算法对 Mask 边缘进行模糊或羽化处理。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F15",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},11565,"Android 项目何时升级支持 AndroidX？","项目已经升级支持 AndroidX，请使用最新版本。","https:\u002F\u002Fgithub.com\u002Falibaba\u002FMNNKit\u002Fissues\u002F55",[162,166,170,174,178,182,186,190,194],{"id":163,"version":164,"summary_zh":80,"released_at":165},62084,"portraitsegmentation0.0.2","2020-02-13T02:28:26",{"id":167,"version":168,"summary_zh":80,"released_at":169},62085,"handgesturedetection0.0.2","2020-02-12T14:37:35",{"id":171,"version":172,"summary_zh":80,"released_at":173},62086,"facedetection0.0.2","2020-02-12T13:30:10",{"id":175,"version":176,"summary_zh":80,"released_at":177},62087,"0.0.3","2020-02-12T12:19:38",{"id":179,"version":180,"summary_zh":80,"released_at":181},62088,"portraitsegmentation0.0.1","2020-01-17T11:03:35",{"id":183,"version":184,"summary_zh":80,"released_at":185},62089,"handgesturedetection0.0.1","2020-01-17T11:01:32",{"id":187,"version":188,"summary_zh":80,"released_at":189},62090,"facedetection0.0.1","2020-01-17T08:40:21",{"id":191,"version":192,"summary_zh":80,"released_at":193},62091,"0.0.2","2020-01-17T10:47:04",{"id":195,"version":196,"summary_zh":80,"released_at":197},62092,"0.0.1","2020-01-17T07:11:44"]