cookbook
cookbook 是 Liquid AI 官方推出的开源项目集合,旨在帮助开发者利用 Liquid 基础模型(LFM)和 LEAP SDK 快速构建端到端的应用程序。它提供了一系列涵盖桌面、浏览器及移动端的实用示例、完整教程和现成应用,有效解决了用户在将先进 AI 模型部署到笔记本、手机及边缘设备时面临的“从零开始”难题,大幅降低了开发门槛。
无论是希望探索端侧 AI 潜力的软件工程师、需要验证算法可行性的研究人员,还是对本地化智能应用感兴趣的技术爱好者,都能从中找到适合的起点。项目内容极其丰富,包括发票解析、实时语音转录、飞行搜索助手、车载语音交互以及本地文件代理等多样化场景。
cookbook 的核心技术亮点在于其强大的跨平台适配能力。它不仅支持在高性能桌面上运行大参数模型,更通过 WebGPU 和 ONNX Runtime Web 技术,实现了模型在浏览器中的零安装直接运行。此外,针对苹果 Silicon 芯片的优化示例,展示了如何在消费级硬件上高效执行复杂的视觉语言任务和链式思维推理。通过 cookbook,用户可以轻松上手,将前沿的开源权重模型转化为解决实际问题的创新应用。
使用场景
一位嵌入式开发者正尝试在资源受限的树莓派或旧款笔记本电脑上,构建一个能实时处理发票图像并提取结构化数据的本地化财务助手。
没有 cookbook 时
- 环境配置迷宫:面对 Liquid AI 的 LFM 模型和 LEAP SDK,开发者需从零摸索如何在边缘设备上部署推理环境,极易因依赖冲突导致项目停滞。
- 多模态整合困难:想要结合视觉(OCR)与语言模型处理发票,却缺乏现成的代码参考,不得不自行编写复杂的图像预处理与模型调用逻辑。
- 性能优化盲区:不清楚如何让大模型在低算力设备上流畅运行,缺乏针对移动端或边缘端的量化、加速最佳实践,导致演示 Demo 卡顿严重。
- 功能验证漫长:每开发一个新功能(如工具调用或语音交互),都需要重复造轮子编写基础框架,无法快速验证核心业务逻辑。
使用 cookbook 后
- 一键复用范例:直接调用
Invoice Parser示例代码,基于 LFM2-VL-3B 快速搭建起发票数据提取流程,将数天的环境搭建时间缩短至几小时。 - 端到端架构参考:借鉴
LocalCowork或Home Assistant的完整架构,轻松实现本地文件操作、安全扫描与多模态理解的无缝集成。 - 边缘性能调优:参考书中针对笔记本和移动设备的优化策略,利用 LEAP SDK 让模型在低显存设备上也能实现实时响应,确保用户体验流畅。
- 快速迭代原型:基于
Flight Search Assistant等工具调用案例,迅速为财务助手添加联网查询汇率或自动记账的功能,大幅加速产品原型落地。
cookbook 通过将抽象的模型能力转化为可运行的端到端实例,让开发者能在边缘设备上以最低成本快速构建高性能的本地 AI 应用。
运行环境要求
- Linux
- macOS
- Windows
- Android
- iOS
- 桌面端:可选,支持 NVIDIA GPU (CUDA) 或 Apple Silicon (MLX/LEAP SDK)
- 浏览器端:需支持 WebGPU 的显卡
- 移动端:利用设备 NPU/GPU
- 具体显存未说明,取决于模型大小 (350M-24B)
未说明 (取决于运行模型的大小,从 350M 到 24B 参数不等,建议根据模型规模配置)

快速开始
示例、教程和应用,助您在笔记本电脑、移动设备和边缘设备上,基于我们的开放权重 LFMs 以及 LEAP SDK 进行开发。
目录
🖥️ 桌面应用
用于在您的笔记本电脑或台式机上运行 LFM 模型的 Python 和命令行应用程序。
| 名称 | 描述 | 链接 |
|---|---|---|
| 发票解析器 | 使用 LFM2-VL-3B 从发票图像中提取结构化数据 | 代码 |
| 音频转录命令行工具 | 使用 llama.cpp 的 LFM2-Audio-1.5B 实现实时音频到文本转录 | 代码 |
| 航班搜索助手 | 使用支持工具调用的 LFM2.5-1.2B-Thinking 查找并预订机票 | 代码 |
| 音频车载控制台 | 结合 LFM2.5-Audio-1.5B 和 LFM2-1.2B-Tool 的语音控制车载演示 | 代码 |
| LocalCowork | 基于 LFM2-24B-A2B 的本地 AI 代理,用于文件操作、安全扫描、OCR 等 | 代码 |
| 家庭助手 | 具有工具调用功能、基准测试和微调流程的本地家庭助手,使用 LFM2-350M 和 LFM2.5-1.2B | 代码 |
| Mac 语音助手 | 在 Apple Silicon Mac 上运行的本地语音助手,使用 LFM2.5-Audio-1.5B 和 LEAP SDK | 代码 |
| Mac 视觉助手 | 使用 LEAP SDK 的本地视觉语言模型聊天,专为 Apple Silicon Mac 设计 | 代码 |
🌐 浏览器应用
无需安装即可直接在浏览器中通过 WebGPU 和 ONNX Runtime Web 运行 LFM 模型的应用程序。
| 名称 | 描述 | 链接 |
|---|---|---|
| 工具调用 | 使用 WebGPU 将 LFM2 完全在浏览器中运行,实现浏览器内的工具调用 | 代码 | 演示 |
| 语音助手 | 使用 LFM2.5-Audio-1.5B 完全在浏览器中运行,实现语音识别、TTS 和对话功能 | 代码 | 演示 |
| 实时视频字幕 | 使用 LFM2.5-VL-1.6B 在浏览器中通过 WebGPU 实现实时视频字幕 | 代码 | 演示 |
| 思维链推理 | 使用 WebGPU 将 LFM2.5-1.2B-Thinking 完全在浏览器中运行,实现本地思维链推理 | 代码 | 演示 |
| 手势与语音赛车 | 完全本地运行的浏览器驾驶游戏,由手势(MediaPipe)和语音命令(LFM2.5-Audio-1.5B)控制 | 代码 |
| LEAP 语音助手 | 通过 WebAssembly 在浏览器中运行的本地语音助手,使用 LEAP SDK | 代码 |
📱 移动应用
使用 LEAP Edge SDK 在 iOS 和 Android 上部署 LFM2 模型的原生示例。Edge SDK 旨在让小型语言模型的部署如同调用云端 LLM API 端点一样简单,代码分别用 Kotlin(Android)和 Swift(iOS)编写。
安卓
| 名称 | 描述 | 链接 |
|---|---|---|
| LeapChat | 具有实时流、持久会话历史和现代 UI 的聊天应用 | 代码 |
| 语音助手 | 使用 LFM2.5-Audio-1.5B 进行音频输入输出,实现本地 AI 推理 | 代码 |
| LeapKoogAgent | 与 Koog 框架集成,实现 AI 代理功能 | 代码 |
| SloganApp | 使用 Android Views 进行单轮营销口号生成 | 代码 |
| ShareAI | 网站摘要生成器 | 代码 |
| Recipe Generator | 使用 LEAP SDK 生成结构化输出 | 代码 |
| VLM 示例 | 视觉语言模型集成 | 代码 |
苹果 iOS
| 名称 | 描述 | 链接 |
|---|---|---|
| LeapChat | 具有实时流、对话管理和 SwiftUI 的聊天应用 | 代码 |
| LeapSloganExample | 在 SwiftUI 中进行基础 LEAP SDK 集成,用于文本生成 | 代码 |
| Recipe Generator | 生成结构化输出 | 代码 |
| 语音助手 | 使用 LFM2.5-Audio-1.5B 进行音频输入和输出,实现本地 AI 推理 | 代码 |
| Vision Assistant | 使用 LEAP SDK 在 iOS 上进行视觉语言模型聊天 | 代码 |
🎯 微调笔记本
用于使用您自己的数据自定义 LFM 模型的 Colab 笔记本和 Python 脚本。
| 名称 | 描述 | 链接 |
|---|---|---|
| 监督微调 (SFT) | ||
| 使用 Unsloth 的 SFT | 使用 Unsloth 和 LoRA 进行内存高效的 SFT,训练速度提升 2 倍 | 笔记本 |
| 使用 TRL 的 SFT | 使用 Hugging Face TRL 库和参数高效的 LoRA 进行监督微调 | 笔记本 |
| 强化学习 | ||
| 使用 Unsloth 的 GRPO | 使用基于组的相对策略优化训练可验证任务的推理模型 | 笔记本 |
| 使用 TRL 的 GRPO | 使用基于规则的奖励进行基于组的相对策略优化来训练推理模型 | 笔记本 |
| 持续预训练 (CPT) | ||
| 针对翻译的 CPT | 使用领域数据将模型适配到特定语言或翻译领域 | 笔记本 |
| 针对文本补全的 CPT | 向模型传授领域特定知识和创意写作风格 | 笔记本 |
| 视觉-语言模型 | ||
| 使用 Unsloth 的 VLM SFT | 对 LFM2-VL 模型在自定义图像-文本数据集上进行监督微调 | 笔记本 |
由 LFM 提供支持的第三方应用
作为推理后端支持 LFM 模型以及其他提供商的生产级和开源应用。
| 名称 | 描述 | 链接 |
|---|---|---|
| DeepCamera | 开源 AI 相机系统,用于本地视觉智能,具备面部识别、行人再识别功能,并可在 Jetson 和 Raspberry Pi 上进行边缘部署 | 代码 |
| Osaurus | 原生 macOS AI 工具链,用于在本地管理代理、记忆、工具和身份,通过 MLX 支持 Apple Silicon 上的 LFM 模型 | 代码 |
🌟 社区项目
由社区构建的开源项目,展示了 LFM 在实际用例中的应用。
精选
| 名称 | 描述 | 链接 |
|---|---|---|
| 边缘端图像分类 | 全流程教程,涵盖微调和部署,使用本地 VLM 实现超快速且准确的图像分类 | 代码 |
| 使用小型 LMs 的国际象棋游戏 | 全流程教程,涵盖微调和部署,利用小型语言模型构建国际象棋游戏 | 代码 |
| 私人文档问答 | 设备端文档问答,结合 RAG 和语音输入 | 代码 |
| LFM2.5 移动操作 | 经过 LoRA 微调的 LFM2.5-1.2B 模型,可将自然语言转换为 Android OS 函数调用,用于设备端移动操作识别 | 代码 |
| 照片分类助手 | 使用 LFM 视觉模型清理私人照片库 | 代码 |
| Tiny-MoA | 在 CPU 上运行的混合代理系统,配备 LFM2.5 大脑(1.2B) | 代码 |
| barq-web-rag | 基于浏览器的 RAG 应用程序,用于文档问答,采用 LFM2.5-1.2B-Thinking 模型,完全在本地通过 WebGPU 运行 | 代码 |
| LFM-Scholar | 自动化文献综述代理,用于查找和引用论文 | 代码 |
更多
| 名称 | 描述 | 链接 |
|---|---|---|
| 私人摘要生成器 | 100% 本地文本摘要生成,支持多种语言 | 代码 |
| TranslatorLens | 离线翻译相机,实现实时文本翻译 | 代码 |
| 会议智能 CLI | 用于会议转录和分析的 CLI 工具 | 代码 |
| 食品图像微调 | 在食品图像数据集上微调 LFM 模型 | 代码 |
| LFM2-KoEn-Tuning | 针对韩英翻译微调的 LFM2 1.2B 模型 | 代码 |
| LFM-2.5 思考版在网页上 | LFM2.5 1.2B 参数量的日语语言模型,使用 Transformers.js 和 ONNX Runtime Web,在浏览器中通过 WebGPU 本地运行 | 代码 |
| SFT + DPO 微调 | 教育一个 1.2B 模型成为脾气暴躁的意大利厨师:使用 Unsloth 进行 SFT + DPO 微调 | 代码 |
| Tauri 插件 LEAP AI | Tauri 插件,用于将 LEAP 和 Liquid LFM 集成到使用 Tauri 构建的桌面和移动应用程序中 | Crate |
| LFM-2.5 JP 在网页上 | LFM2.5 1.2B 参数量的日语语言模型,使用 Transformers.js 和 ONNX Runtime Web,在浏览器中通过 WebGPU 本地运行 | 代码 |
| grosme | CLI 杂货助手,读取 Apple Notes 列表并使用 LFM-2.5 工具调用代理通过 Ollama 查找 Walmart 产品匹配 | 代码 |
| 使用 LEAP SDK 的聊天 | LEAP SDK 在 React Native 中的集成 | 代码 |
| Discord 版主 | 使用 LFM2.5-1.2B 检查超过预定字符限制的消息,以识别可疑内容 | 代码 |
🕐 技术深度解析
录制的约 60 分钟的会议,涵盖高级主题和动手实践。
| 日期 | 主题 | 链接 |
|---|---|---|
| 2025-11-06 | 微调 LFM2-VL 用于图像分类 | 视频 |
| 2025-11-27 | 使用 LFM2-Audio 构建 100% 本地音频转文本 CLI | 视频 |
| 2025-12-26 | 使用 GRPO 和 OpenEnv 微调 LFM2-350M 以控制浏览器 | 视频 |
| 2026-01-22 | 使用 LFM2.5-VL-1.6B 和 WebGPU 进行本地视频字幕生成 | 视频 |
| 2026-03-05 | 构建您自己的本地 AI 编程助手 | 视频 |
加入下一次会议吧!前往 Discord 的 #live-events 频道。
贡献
我们欢迎您的贡献!请在社区项目部分提交 PR,并附上您项目的 GitHub 仓库链接。
支持
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
OpenHands
OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。