react-native-executorch
React Native ExecuTorch 是一款专为移动端开发打造的开源工具,它让开发者能够以声明式的方式,在 React Native 应用中直接运行本地 AI 模型。该工具基于 Meta 推出的 ExecuTorch 框架,有效解决了以往在移动设备上部署大语言模型(LLM)或计算机视觉模型时流程复杂、性能优化困难以及过度依赖云端算力的痛点。
通过桥接 React Native 与原生平台能力,React Native ExecuTorch 实现了高效的端侧推理,不仅降低了网络延迟和数据隐私风险,还提供了开箱即用的支持,涵盖多种主流 AI 模型。其独特的技术亮点在于将复杂的底层模型执行逻辑封装为简洁的接口,使前端开发者无需深入掌握底层原生代码或复杂的机器学习运维知识,即可轻松集成先进的 AI 功能。
这款工具非常适合使用 React Native 进行移动应用开发的工程师、希望快速验证端侧 AI 原型的算法研究人员,以及致力于构建离线可用、高隐私保护智能应用的创业团队。借助 React Native ExecuTorch,开发者可以更专注于业务逻辑与创新体验,轻松为手机等移动设备赋予强大的本地智能处理能力,推动 AI 应用在边缘端的普及。
使用场景
一家初创团队正在开发一款面向户外爱好者的 React Native 徒步助手 App,核心功能是通过手机摄像头实时识别沿途的植物种类,并要求在无网络信号的山区也能流畅运行。
没有 react-native-executorch 时
- 依赖云端导致不可用:必须将图片上传至服务器进行推理,一旦进入无信号的深山,核心识别功能直接瘫痪。
- 原生开发门槛极高:若想在本地运行模型,团队需分别招募 iOS (Swift/CoreML) 和 Android (Kotlin/NNAPI) 专家编写底层桥接代码,人力成本翻倍。
- 维护与同步困难:两套原生代码逻辑难以保持一致,每次更新 AI 模型都需要重新编译发布两个平台的原生包,迭代周期长达数周。
- 性能优化复杂:缺乏统一的声明式接口,开发者需手动管理内存和线程,极易导致 App 在低端手机上崩溃或卡顿。
使用 react-native-executorch 后
- 真正的离线可用:利用 ExecuTorch 引擎直接在设备端运行量化后的视觉模型,无需联网即可毫秒级返回植物识别结果。
- 跨平台一套代码:通过声明式 API,前端团队仅用 JavaScript/TypeScript 即可调用原生 AI 能力,无需编写任何 Objective-C 或 Java 桥接代码。
- 高效迭代部署:模型更新只需替换资源文件并热更新 JS 包,显著缩短从训练到上线的验证周期,实现天级迭代。
- 开箱即用的性能:内置针对移动端的优化策略,自动处理线程调度与内存管理,确保在各类中低端机型上均能稳定运行。
react-native-executorch 让 React Native 开发者能以纯前端的工作流,低成本构建出高性能、完全离线的原生级 AI 应用。
运行环境要求
- macOS
- Windows
- Linux
未说明 (模型在移动设备端运行,依赖设备本地 NPU/GPU/CPU)
开发环境未说明;运行 LLM 需要大量 RAM,若模拟器崩溃需增加分配内存

快速开始
React Native ExecuTorch
React Native ExecuTorch 提供了一种使用 React Native 在设备端运行 AI 模型的声明式方法,由 ExecuTorch 驱动 :rocket:。它开箱即用地支持广泛的 LLM、计算机视觉模型等。请访问我们的 HuggingFace 页面以探索这些模型。
由 Meta 开发的 ExecuTorch 是一种创新框架,允许在手机或微控制器等设备上执行 AI 模型。
React Native ExecuTorch 弥合了 React Native 与原生平台能力之间的差距,使开发者能够高效地在移动设备上运行本地 AI 模型。这一切无需深厚的原生编程或机器学习专业知识。
目录
支持的版本
最低支持版本如下:
- iOS 17.0
- Android 13
- React Native - 请参阅 兼容性表
[!重要提示] React Native ExecuTorch 仅支持 新的 React Native 架构。
实际案例
React Native ExecuTorch 正在为 Private Mind 提供支持,这是一款注重隐私的移动 AI 应用程序,现已在 App Store 和 Google Play 上架。
快速入门 - 运行 Llama
只需 3 个简单步骤,即可开始使用 AI 驱动的文本生成!
:one: 安装
# 安装包
yarn add react-native-executorch
# 如果您使用 Expo,请添加以下用于资源获取的包:
yarn add react-native-executorch-expo-resource-fetcher
yarn add expo-file-system expo-asset
# 如果您使用原生 React Native 项目,请使用以下包:
yarn add react-native-executorch-bare-resource-fetcher
yarn add @dr.pogodin/react-native-fs @kesha-antonov/react-native-background-downloader
# 根据平台选择 iOS 或 Android
yarn < ios | android >
:two: 设置与初始化
将以下内容添加到你的组件文件中:
import {
useLLM,
LLAMA3_2_1B,
Message,
initExecutorch,
} from 'react-native-executorch';
import { ExpoResourceFetcher } from 'react-native-executorch-expo-resource-fetcher';
initExecutorch({
resourceFetcher: ExpoResourceFetcher,
});
function MyComponent() {
// 初始化模型 🚀
const llm = useLLM({ model: LLAMA3_2_1B });
// ... 组件的其余部分
}
:three: 运行模型!
const handleGenerate = async () => {
const chat: Message[] = [
{ role: 'system', content: '你是一个乐于助人的助手' },
{ role: 'user', content: '生命的意义是什么?' }
];
// 聊天完成
await llm.generate(chat);
console.log('Llama 说:', llm.response);
};
演示应用
我们目前托管了一些示例应用,展示了我们库的各种使用场景:
llm- 展示 LLM 使用的聊天应用speech- 语音转文本和文本转语音任务的实现computer-vision- 计算机视觉相关任务text-embeddings- 用于语义搜索的文本表示计算bare_rn- 适用于原生 React Native(不使用 Expo)的 LLM 聊天示例
如果你想运行某个演示应用,请进入其项目目录。然后安装依赖并运行应用:
yarn && yarn < ios | android >
[!警告] 运行 LLM 需要大量的内存。如果你遇到意外的应用崩溃,请尝试增加模拟器分配的内存。
现成模型
我们的库包含许多开箱即用的 AI 模型;完整列表可在文档中找到。如果你有兴趣运行自己的 AI 模型,首先需要将其导出为 .pte 格式。有关如何操作的说明,请参阅 Python API 和 optimum-executorch README。
文档
请访问我们的文档,了解我们的库如何帮助你构建 React Native AI 功能: https://docs.swmansion.com/react-native-executorch
许可证
本库采用 MIT 许可证 许可。
下一步?
如需了解我们的未来计划和发展,请访问我们的里程碑。
React Native ExecuTorch 由 Software Mansion 打造
自 2012 年以来,Software Mansion 是一家拥有丰富经验的软件公司,专注于构建 Web 和移动应用。我们是 React Native 的核心贡献者,也是处理各种 React Native 问题的专家。我们可以帮助你打造下一个梦想产品——联系我们。
版本历史
v0.8.12026/04/02v0.9.0-libs-test2026/03/31v0.8.02026/03/25v0.7.22026/02/27v0.7.12026/02/12v0.7.02026/02/05v0.6.02025/12/11v0.5.152025/10/29v0.4.102025/10/27v0.5.132025/10/27v0.5.122025/10/17v0.4.92025/10/15v0.5.112025/10/15v0.5.102025/10/09v0.5.92025/10/08v0.5.82025/10/02v0.5.72025/10/01v0.5.62025/09/23v0.5.52025/09/15v0.5.42025/09/10常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
