[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Liquid4All--cookbook":3,"tool-Liquid4All--cookbook":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":80,"difficulty_score":45,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":117,"github_topics":118,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":125,"updated_at":126,"faqs":127,"releases":157},2193,"Liquid4All\u002Fcookbook","cookbook","Examples, end-2-end tutorials and apps built using Liquid AI Foundational Models (LFM) and the LEAP SDK","cookbook 是 Liquid AI 官方推出的开源项目集合，旨在帮助开发者利用 Liquid 基础模型（LFM）和 LEAP SDK 快速构建端到端的应用程序。它提供了一系列涵盖桌面、浏览器及移动端的实用示例、完整教程和现成应用，有效解决了用户在将先进 AI 模型部署到笔记本、手机及边缘设备时面临的“从零开始”难题，大幅降低了开发门槛。\n\n无论是希望探索端侧 AI 潜力的软件工程师、需要验证算法可行性的研究人员，还是对本地化智能应用感兴趣的技术爱好者，都能从中找到适合的起点。项目内容极其丰富，包括发票解析、实时语音转录、飞行搜索助手、车载语音交互以及本地文件代理等多样化场景。\n\ncookbook 的核心技术亮点在于其强大的跨平台适配能力。它不仅支持在高性能桌面上运行大参数模型，更通过 WebGPU 和 ONNX Runtime Web 技术，实现了模型在浏览器中的零安装直接运行。此外，针对苹果 Silicon 芯片的优化示例，展示了如何在消费级硬件上高效执行复杂的视觉语言任务和链式思维推理。通过 cookbook，用户可以轻松上手，将前沿的开源权重模型转化为解决实际问题的创新应用","cookbook 是 Liquid AI 官方推出的开源项目集合，旨在帮助开发者利用 Liquid 基础模型（LFM）和 LEAP SDK 快速构建端到端的应用程序。它提供了一系列涵盖桌面、浏览器及移动端的实用示例、完整教程和现成应用，有效解决了用户在将先进 AI 模型部署到笔记本、手机及边缘设备时面临的“从零开始”难题，大幅降低了开发门槛。\n\n无论是希望探索端侧 AI 潜力的软件工程师、需要验证算法可行性的研究人员，还是对本地化智能应用感兴趣的技术爱好者，都能从中找到适合的起点。项目内容极其丰富，包括发票解析、实时语音转录、飞行搜索助手、车载语音交互以及本地文件代理等多样化场景。\n\ncookbook 的核心技术亮点在于其强大的跨平台适配能力。它不仅支持在高性能桌面上运行大参数模型，更通过 WebGPU 和 ONNX Runtime Web 技术，实现了模型在浏览器中的零安装直接运行。此外，针对苹果 Silicon 芯片的优化示例，展示了如何在消费级硬件上高效执行复杂的视觉语言任务和链式思维推理。通过 cookbook，用户可以轻松上手，将前沿的开源权重模型转化为解决实际问题的创新应用。","\u003Cdiv align=\"center\">\n  \u003Cimg \n    src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLiquid4All_cookbook_readme_bb55caac8fb7.png\" \n    alt=\"Liquid AI\" \n    style=\"width: 100%; max-width: 100%; height: auto; display: inline-block; margin-bottom: 0.5em; margin-top: 0.5em;\"\n  \u002F>\n  \u003Cdiv style=\"display: flex; justify-content: center; gap: 0.5em;\">\n    \u003Ca href=\"https:\u002F\u002Fplayground.liquid.ai\u002F\">\u003Cstrong>Try LFM\u003C\u002Fstrong>\u003C\u002Fa> • \n    \u003Ca href=\"https:\u002F\u002Fdocs.liquid.ai\u002Flfm\">\u003Cstrong>Documentation\u003C\u002Fstrong>\u003C\u002Fa> • \n    \u003Ca href=\"https:\u002F\u002Fleap.liquid.ai\u002F\">\u003Cstrong>LEAP\u003C\u002Fstrong>\u003C\u002Fa>\n  \u003C\u002Fdiv>\n  \u003Cbr\u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1385439864920739850?style=for-the-badge&logo=discord&logoColor=white&label=Discord&color=5865F2\" alt=\"Join Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n**Examples**, **tutorials**, and **applications** to help you build with our open-weight [LFMs](https:\u002F\u002Fhuggingface.co\u002FLiquidAI) and the [LEAP SDK](https:\u002F\u002Fleap.liquid.ai\u002F) on laptops, mobile, and edge devices.\n\n## Contents\n\n- [Desktop Apps](#-desktop-apps)\n- [Browser Apps](#-browser-apps)\n- [Mobile Apps](#-mobile-apps) (Android \u002F iOS)\n- [Fine-Tuning Notebooks](#-fine-tuning-notebooks)\n- [Third-Party Apps Powered by LFM](#third-party-apps-powered-by-lfm)\n- [Community Projects](#-community-projects)\n- [Technical Deep Dives](#-technical-deep-dives)\n- [Contributing](#contributing)\n- [Support](#support)\n\n## 🖥️ Desktop Apps\n\nPython and CLI applications for running LFM models on your laptop or desktop machine.\n\n| Name | Description | Link |\n|------|-------------|------|\n| Invoice Parser | Extract structured data from invoice images using LFM2-VL-3B | [Code](.\u002Fexamples\u002Finvoice-parser\u002FREADME.md) |\n| Audio Transcription CLI | Real-time audio-to-text transcription using LFM2-Audio-1.5B with llama.cpp | [Code](.\u002Fexamples\u002Faudio-transcription-cli\u002F) |\n| Flight Search Assistant | Find and book plane tickets using LFM2.5-1.2B-Thinking with tool calling | [Code](.\u002Fexamples\u002Fflight-search-assistant\u002FREADME.md) |\n| Audio Car Cockpit | Voice-controlled car cockpit demo combining LFM2.5-Audio-1.5B with LFM2-1.2B-Tool | [Code](.\u002Fexamples\u002Faudio-car-cockpit\u002FREADME.md) |\n| LocalCowork | On-device AI agent for file ops, security scanning, OCR, and more, powered by LFM2-24B-A2B | [Code](.\u002Fexamples\u002Flocalcowork\u002FREADME.md) |\n| Home Assistant | Local home assistant with tool calling, benchmarking, and fine-tuning pipeline using LFM2-350M and LFM2.5-1.2B | [Code](.\u002Fexamples\u002Fhome-assistant\u002FREADME.md) |\n| Voice Assistant for Mac | On-device voice assistant for Apple Silicon Macs using LFM2.5-Audio-1.5B and the LEAP SDK | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fmacos\u002FLeapVoiceAssistantDemo) |\n| Vision Assistant for Mac | On-device visual language model chat for Apple Silicon Macs using the LEAP SDK | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FmacOS\u002FLeapVLMExample\u002FLeapVLMExample) |\n\n## 🌐 Browser Apps\n\nZero-install applications running LFM models directly in the browser via WebGPU and ONNX Runtime Web.\n\n| Name | Description | Link |\n|------|-------------|------|\n| Tool Calling | Run LFM2 entirely in your browser with WebGPU for in-browser tool calling | [Code](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-WebGPU\u002Ftree\u002Fmain) \\| [Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-WebGPU) |\n| Voice Assistant | Run LFM2.5-Audio-1.5B entirely in your browser for speech recognition, TTS, and conversation | [Code](.\u002Fexamples\u002Faudio-webgpu-demo\u002FREADME.md) \\| [Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-Audio-1.5B-transformers-js) |\n| Live Video Captioning | Real-time video captioning with LFM2.5-VL-1.6B running in-browser using WebGPU | [Code](.\u002Fexamples\u002Fvl-webgpu-demo\u002FREADME.md) \\| [Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-VL-WebGPU) |\n| Chain-of-Thought Reasoning | Run LFM2.5-1.2B-Thinking entirely in your browser with WebGPU for on-device chain-of-thought reasoning | [Code](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-1.2B-Thinking-WebGPU\u002Ftree\u002Fmain) \\| [Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-1.2B-Thinking-WebGPU) |\n| Hand & Voice Racer | Browser driving game controlled by hand gestures (MediaPipe) and voice commands (LFM2.5-Audio-1.5B), running fully local | [Code](.\u002Fexamples\u002Fhand-voice-racer\u002FREADME.md) |\n| LEAP Voice Assistant | On-device voice assistant running in the browser via WebAssembly using the LEAP SDK | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fweb) |\n\n## 📱 Mobile Apps\n\nNative examples for deploying LFM2 models on iOS and Android using the [LEAP Edge SDK](https:\u002F\u002Fleap.liquid.ai\u002Fdocs\u002Fedge-sdk\u002Foverview). Written for Android (Kotlin) and iOS (Swift), the goal of the Edge SDK is to make Small Language Model deployment as easy as calling a cloud LLM API endpoint.\n\n### Android\n\n| Name | Description | Link |\n|------|-------------|------|\n| LeapChat | Chat app with real-time streaming, persistent history, and modern UI | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FLeapChat) |\n| Voice Assistant | Audio input and output with LFM2.5-Audio-1.5B for on-device AI inference | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fandroid) |\n| LeapKoogAgent | Integration with Koog framework for AI agent functionality | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FLeapKoogAgent) |\n| SloganApp | Single turn marketing slogan generation with Android Views | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FSloganApp) |\n| ShareAI | Website summary generator | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FShareAI) |\n| Recipe Generator | Structured output generation with the LEAP SDK | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FRecipeGenerator) |\n| VLM Example | Visual Language Model integration | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FVLMExample) |\n\n### iOS\n\n| Name | Description | Link |\n|------|-------------|------|\n| LeapChat | Chat app with real-time streaming, conversation management, and SwiftUI | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapChatExample) |\n| LeapSloganExample | Basic LeapSDK integration for text generation in SwiftUI | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapSloganExample) |\n| Recipe Generator | Structured output generation | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FRecipeGenerator) |\n| Voice Assistant | Audio input and output with LFM2.5-Audio-1.5B for on-device AI inference | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fios\u002FLeapVoiceAssistantDemo) |\n| Vision Assistant | Visual language model chat on iOS using the LEAP SDK | [Code](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapVLMExample) |\n\n## 🎯 Fine-Tuning Notebooks\n\nColab notebooks and Python scripts for customizing LFM models with your own data.\n\n| Name | Description | Link |\n|------|-------------|------|\n| **Supervised Fine-Tuning (SFT)** | | |\n| SFT with Unsloth | Memory-efficient SFT using Unsloth with LoRA for 2x faster training | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_with_unsloth.ipynb) |\n| SFT with TRL | Supervised fine-tuning using Hugging Face TRL library with parameter-efficient LoRA | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_with_trl.ipynb) |\n| **Reinforcement Learning** | | |\n| GRPO with Unsloth | Train reasoning models using Group Relative Policy Optimization for verifiable tasks | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fgrpo_with_unsloth.ipynb) |\n| GRPO with TRL | Train reasoning models using Group Relative Policy Optimization with rule-based rewards | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fgrpo_for_verifiable_tasks.ipynb) |\n| **Continued Pre-Training (CPT)** | | |\n| CPT for Translation | Adapt models to specific languages or translation domains using domain data | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fcpt_translation_with_unsloth.ipynb) |\n| CPT for Text Completion | Teach models domain-specific knowledge and creative writing styles | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fcpt_text_completion_with_unsloth.ipynb) |\n| **Vision-Language Models** | | |\n| VLM SFT with Unsloth | Supervised fine-tuning for LFM2-VL models on custom image-text datasets | [Notebook](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_for_vision_language_model.ipynb) |\n\n## Third-Party Apps Powered by LFM\n\nProduction and open-source applications that support LFM models as an inference backend, among other providers.\n\n| Name | Description | Link |\n|------|-------------|------|\n| DeepCamera | Open-source AI camera system for local vision intelligence with facial recognition, person re-ID, and edge deployment on Jetson and Raspberry Pi | [Code](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera) |\n| Osaurus | Native macOS AI harness for managing agents, memory, tools, and identity locally, with support for LFM models via MLX on Apple Silicon | [Code](https:\u002F\u002Fgithub.com\u002Fosaurus-ai\u002Fosaurus) |\n\n## 🌟 Community Projects\n\nOpen-source projects built by the community showcasing LFMs with real use cases.\n\n### Featured\n\n| Name | Description | Link |\n|------|-------------|------|\n| Image Classification on Edge | End-to-end tutorial covering fine-tuning and deployment for super fast and accurate image classification using local VLMs | [Code](https:\u002F\u002Fgithub.com\u002FPaulescu\u002Fimage-classification-with-local-vlms) |\n| Chess Game with Small LMs | End-to-end tutorial covering fine-tuning and deployment to build a Chess game using Small Language Models | [Code](https:\u002F\u002Fgithub.com\u002FPaulescu\u002Fchess-game) |\n| Private Doc Q&A | On-device document Q&A with RAG and voice input | [Code](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fprivate-doc-qa) |\n| LFM2.5 Mobile Actions | LoRA fine-tuned LFM2.5-1.2B that translates natural language into Android OS function calls for on-device mobile action recognition | [Code](https:\u002F\u002Fgithub.com\u002FMandark-droid\u002FLFM2.5-1.2B-Instruct-mobile-actions) |\n| Photo Triage Agent | Private photo library cleanup using LFM vision model | [Code](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fphoto-triage-agent) |\n| Tiny-MoA | Mixture of Agents on CPU with LFM2.5 Brain (1.2B) | [Code](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FTiny-MoA) |\n| barq-web-rag | Browser-based RAG app for document Q&A with LFM2.5-1.2B-Thinking running fully local via WebGPU | [Code](https:\u002F\u002Fgithub.com\u002FYASSERRMD\u002Fbarq-web-rag) |\n| LFM-Scholar | Automated literature review agent for finding and citing papers | [Code](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FLFM-Scholar) |\n\n### More\n\n| Name | Description | Link |\n|------|-------------|------|\n| Private Summarizer | 100% local text summarization with multi-language support | [Code](https:\u002F\u002Fgithub.com\u002FPrivate-Intelligence\u002Fprivate_summarizer) |\n| TranslatorLens | Offline translation camera for real-time text translation | [Code](https:\u002F\u002Fgithub.com\u002Flinmx0130\u002FTranslatorLens) |\n| Meeting Intelligence CLI | CLI tool for meeting transcription and analysis | [Code](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fmeeting-prompter) |\n| Food Images Fine-tuning | Fine-tune LFM models on food image datasets | [Code](https:\u002F\u002Fgithub.com\u002Fbenitomartin\u002Ffood-images-finetuning) |\n| LFM2-KoEn-Tuning | Fine-tuned LFM2 1.2B for Korean-English translation | [Code](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FLFM2-KoEn-Tuning) |\n| LFM-2.5 Thinking on Web | LFM2.5 1.2B parameter reasoning language model running locally in the browser with WebGPU, using Transformers.js and ONNX Runtime Web | [Code](https:\u002F\u002Fgithub.com\u002Fsitammeur\u002Flfm2.5-thinking-web) |\n| SFT + DPO Fine-tuning | Teaching a 1.2B Model to be a Grumpy Italian Chef: SFT + DPO Fine-Tuning with Unsloth | [Code](https:\u002F\u002Fgithub.com\u002Fbenitomartin\u002Fgrumpy-chef-finetuning-dpo) |\n| Tauri Plugin LEAP AI | Tauri plugin to integrate LEAP and Liquid LFMs into desktop and mobile apps built with Tauri | [Crate](https:\u002F\u002Fcrates.io\u002Fcrates\u002Ftauri-plugin-leap-ai) |\n| LFM-2.5 JP on Web | LFM2.5 1.2B parameter Japanese language model running locally in the browser with WebGPU, using Transformers.js and ONNX Runtime on Web | [Code](https:\u002F\u002Fgithub.com\u002Fsitammeur\u002Flfm2.5-jp-web) |\n| grosme | CLI grocery assistant that reads Apple Notes lists and finds Walmart product matches using LFM-2.5 tool-calling agent via Ollama | [Code](https:\u002F\u002Fgithub.com\u002Fearl562\u002Fgrosme) |\n| Chat with LEAP SDK | LEAP SDK integration for React Native | [Code](https:\u002F\u002Fgithub.com\u002Fglody007\u002Fexpo-leap-sdk) |\n| Discord Moderator | Use LFM2.5-1.2B to check messages that exceed a predetermined character limit for suspicious content | [Code](https:\u002F\u002Fgithub.com\u002Fbadluma\u002Fliquid-mod) |\n\n## 🕐 Technical Deep Dives\n\nRecorded sessions (~60 minutes) covering advanced topics and hands-on implementations.\n\n| Date | Topic | Link |\n|------|-------|------|\n| 2025-11-06 | Fine-tuning LFM2-VL for image classification | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=00IK9apncCg) |\n| 2025-11-27 | Building a 100% local Audio-to-Speech CLI with LFM2-Audio | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yeu077gPmCA) |\n| 2025-12-26 | Fine-tuning LFM2-350M for browser control with GRPO and OpenEnv | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gKQ08yee3Lw) |\n| 2026-01-22 | Local video-captioning with LFM2.5-VL-1.6B and WebGPU | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xsWARHFoA3E) |\n| 2026-03-05 | Build your own local AI coding assistant | [Video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6JEm1IxcxEw) |\n\nJoin the next session! Head to the `#live-events` channel on [Discord](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai).\n\n## Contributing\n\nWe welcome contributions! Open a PR with a link to your project GitHub repo in the Community Projects section.\n\n## Support\n\n- 📖 [Liquid AI Documentation](https:\u002F\u002Fdocs.liquid.ai\u002F)\n- 💬 [Join our community on Discord](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai)\n","\u003Cdiv align=\"center\">\n  \u003Cimg \n    src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLiquid4All_cookbook_readme_bb55caac8fb7.png\" \n    alt=\"Liquid AI\" \n    style=\"width: 100%; max-width: 100%; height: auto; display: inline-block; margin-bottom: 0.5em; margin-top: 0.5em;\"\n  \u002F>\n  \u003Cdiv style=\"display: flex; justify-content: center; gap: 0.5em;\">\n    \u003Ca href=\"https:\u002F\u002Fplayground.liquid.ai\u002F\">\u003Cstrong>体验 LFM\u003C\u002Fstrong>\u003C\u002Fa> • \n    \u003Ca href=\"https:\u002F\u002Fdocs.liquid.ai\u002Flfm\">\u003Cstrong>文档\u003C\u002Fstrong>\u003C\u002Fa> • \n    \u003Ca href=\"https:\u002F\u002Fleap.liquid.ai\u002F\">\u003Cstrong>LEAP\u003C\u002Fstrong>\u003C\u002Fa>\n  \u003C\u002Fdiv>\n  \u003Cbr\u002F>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1385439864920739850?style=for-the-badge&logo=discord&logoColor=white&label=Discord&color=5865F2\" alt=\"加入 Discord\">\u003C\u002Fa>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n**示例**、**教程**和**应用**，助您在笔记本电脑、移动设备和边缘设备上，基于我们的开放权重 [LFMs](https:\u002F\u002Fhuggingface.co\u002FLiquidAI) 以及 [LEAP SDK](https:\u002F\u002Fleap.liquid.ai\u002F) 进行开发。\n\n## 目录\n\n- [桌面应用](#-desktop-apps)\n- [浏览器应用](#-browser-apps)\n- [移动应用](#-mobile-apps)（Android \u002F iOS）\n- [微调笔记本](#-fine-tuning-notebooks)\n- [由 LFM 提供支持的第三方应用](#third-party-apps-powered-by-lfm)\n- [社区项目](#-community-projects)\n- [技术深度解析](#-technical-deep-dives)\n- [贡献](#contributing)\n- [支持](#support)\n\n## 🖥️ 桌面应用\n\n用于在您的笔记本电脑或台式机上运行 LFM 模型的 Python 和命令行应用程序。\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| 发票解析器 | 使用 LFM2-VL-3B 从发票图像中提取结构化数据 | [代码](.\u002Fexamples\u002Finvoice-parser\u002FREADME.md) |\n| 音频转录命令行工具 | 使用 llama.cpp 的 LFM2-Audio-1.5B 实现实时音频到文本转录 | [代码](.\u002Fexamples\u002Faudio-transcription-cli\u002F) |\n| 航班搜索助手 | 使用支持工具调用的 LFM2.5-1.2B-Thinking 查找并预订机票 | [代码](.\u002Fexamples\u002Fflight-search-assistant\u002FREADME.md) |\n| 音频车载控制台 | 结合 LFM2.5-Audio-1.5B 和 LFM2-1.2B-Tool 的语音控制车载演示 | [代码](.\u002Fexamples\u002Faudio-car-cockpit\u002FREADME.md) |\n| LocalCowork | 基于 LFM2-24B-A2B 的本地 AI 代理，用于文件操作、安全扫描、OCR 等 | [代码](.\u002Fexamples\u002Flocalcowork\u002FREADME.md) |\n| 家庭助手 | 具有工具调用功能、基准测试和微调流程的本地家庭助手，使用 LFM2-350M 和 LFM2.5-1.2B | [代码](.\u002Fexamples\u002Fhome-assistant\u002FREADME.md) |\n| Mac 语音助手 | 在 Apple Silicon Mac 上运行的本地语音助手，使用 LFM2.5-Audio-1.5B 和 LEAP SDK | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fmacos\u002FLeapVoiceAssistantDemo) |\n| Mac 视觉助手 | 使用 LEAP SDK 的本地视觉语言模型聊天，专为 Apple Silicon Mac 设计 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FmacOS\u002FLeapVLMExample\u002FLeapVLMExample) |\n\n## 🌐 浏览器应用\n\n无需安装即可直接在浏览器中通过 WebGPU 和 ONNX Runtime Web 运行 LFM 模型的应用程序。\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| 工具调用 | 使用 WebGPU 将 LFM2 完全在浏览器中运行，实现浏览器内的工具调用 | [代码](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-WebGPU\u002Ftree\u002Fmain) \\| [演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-WebGPU) |\n| 语音助手 | 使用 LFM2.5-Audio-1.5B 完全在浏览器中运行，实现语音识别、TTS 和对话功能 | [代码](.\u002Fexamples\u002Faudio-webgpu-demo\u002FREADME.md) \\| [演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-Audio-1.5B-transformers-js) |\n| 实时视频字幕 | 使用 LFM2.5-VL-1.6B 在浏览器中通过 WebGPU 实现实时视频字幕 | [代码](.\u002Fexamples\u002Fvl-webgpu-demo\u002FREADME.md) \\| [演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-VL-WebGPU) |\n| 思维链推理 | 使用 WebGPU 将 LFM2.5-1.2B-Thinking 完全在浏览器中运行，实现本地思维链推理 | [代码](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-1.2B-Thinking-WebGPU\u002Ftree\u002Fmain) \\| [演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2.5-1.2B-Thinking-WebGPU) |\n| 手势与语音赛车 | 完全本地运行的浏览器驾驶游戏，由手势（MediaPipe）和语音命令（LFM2.5-Audio-1.5B）控制 | [代码](.\u002Fexamples\u002Fhand-voice-racer\u002FREADME.md) |\n| LEAP 语音助手 | 通过 WebAssembly 在浏览器中运行的本地语音助手，使用 LEAP SDK | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fweb) |\n\n## 📱 移动应用\n\n使用 [LEAP Edge SDK](https:\u002F\u002Fleap.liquid.ai\u002Fdocs\u002Fedge-sdk\u002Foverview) 在 iOS 和 Android 上部署 LFM2 模型的原生示例。Edge SDK 旨在让小型语言模型的部署如同调用云端 LLM API 端点一样简单，代码分别用 Kotlin（Android）和 Swift（iOS）编写。\n\n### 安卓\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| LeapChat | 具有实时流、持久会话历史和现代 UI 的聊天应用 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FLeapChat) |\n| 语音助手 | 使用 LFM2.5-Audio-1.5B 进行音频输入输出，实现本地 AI 推理 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fandroid) |\n| LeapKoogAgent | 与 Koog 框架集成，实现 AI 代理功能 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FLeapKoogAgent) |\n| SloganApp | 使用 Android Views 进行单轮营销口号生成 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FSloganApp) |\n| ShareAI | 网站摘要生成器 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FShareAI) |\n| Recipe Generator | 使用 LEAP SDK 生成结构化输出 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FRecipeGenerator) |\n| VLM 示例 | 视觉语言模型集成 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FAndroid\u002FVLMExample) |\n\n### 苹果 iOS\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| LeapChat | 具有实时流、对话管理和 SwiftUI 的聊天应用 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapChatExample) |\n| LeapSloganExample | 在 SwiftUI 中进行基础 LEAP SDK 集成，用于文本生成 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapSloganExample) |\n| Recipe Generator | 生成结构化输出 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FRecipeGenerator) |\n| 语音助手 | 使用 LFM2.5-Audio-1.5B 进行音频输入和输出，实现本地 AI 推理 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002Fleap-ui-demo\u002Fios\u002FLeapVoiceAssistantDemo) |\n| Vision Assistant | 使用 LEAP SDK 在 iOS 上进行视觉语言模型聊天 | [代码](https:\u002F\u002Fgithub.com\u002FLiquid4All\u002FLeapSDK-Examples\u002Ftree\u002Fmain\u002FiOS\u002FLeapVLMExample) |\n\n## 🎯 微调笔记本\n\n用于使用您自己的数据自定义 LFM 模型的 Colab 笔记本和 Python 脚本。\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| **监督微调 (SFT)** | | |\n| 使用 Unsloth 的 SFT | 使用 Unsloth 和 LoRA 进行内存高效的 SFT，训练速度提升 2 倍 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_with_unsloth.ipynb) |\n| 使用 TRL 的 SFT | 使用 Hugging Face TRL 库和参数高效的 LoRA 进行监督微调 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_with_trl.ipynb) |\n| **强化学习** | | |\n| 使用 Unsloth 的 GRPO | 使用基于组的相对策略优化训练可验证任务的推理模型 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fgrpo_with_unsloth.ipynb) |\n| 使用 TRL 的 GRPO | 使用基于规则的奖励进行基于组的相对策略优化来训练推理模型 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fgrpo_for_verifiable_tasks.ipynb) |\n| **持续预训练 (CPT)** | | |\n| 针对翻译的 CPT | 使用领域数据将模型适配到特定语言或翻译领域 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fcpt_translation_with_unsloth.ipynb) |\n| 针对文本补全的 CPT | 向模型传授领域特定知识和创意写作风格 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fcpt_text_completion_with_unsloth.ipynb) |\n| **视觉-语言模型** | | |\n| 使用 Unsloth 的 VLM SFT | 对 LFM2-VL 模型在自定义图像-文本数据集上进行监督微调 | [笔记本](.\u002Ffinetuning\u002Fnotebooks\u002Fsft_for_vision_language_model.ipynb) |\n\n## 由 LFM 提供支持的第三方应用\n\n作为推理后端支持 LFM 模型以及其他提供商的生产级和开源应用。\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| DeepCamera | 开源 AI 相机系统，用于本地视觉智能，具备面部识别、行人再识别功能，并可在 Jetson 和 Raspberry Pi 上进行边缘部署 | [代码](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera) |\n| Osaurus | 原生 macOS AI 工具链，用于在本地管理代理、记忆、工具和身份，通过 MLX 支持 Apple Silicon 上的 LFM 模型 | [代码](https:\u002F\u002Fgithub.com\u002Fosaurus-ai\u002Fosaurus) |\n\n## 🌟 社区项目\n\n由社区构建的开源项目，展示了 LFM 在实际用例中的应用。\n\n### 精选\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| 边缘端图像分类 | 全流程教程，涵盖微调和部署，使用本地 VLM 实现超快速且准确的图像分类 | [代码](https:\u002F\u002Fgithub.com\u002FPaulescu\u002Fimage-classification-with-local-vlms) |\n| 使用小型 LMs 的国际象棋游戏 | 全流程教程，涵盖微调和部署，利用小型语言模型构建国际象棋游戏 | [代码](https:\u002F\u002Fgithub.com\u002FPaulescu\u002Fchess-game) |\n| 私人文档问答 | 设备端文档问答，结合 RAG 和语音输入 | [代码](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fprivate-doc-qa) |\n| LFM2.5 移动操作 | 经过 LoRA 微调的 LFM2.5-1.2B 模型，可将自然语言转换为 Android OS 函数调用，用于设备端移动操作识别 | [代码](https:\u002F\u002Fgithub.com\u002FMandark-droid\u002FLFM2.5-1.2B-Instruct-mobile-actions) |\n| 照片分类助手 | 使用 LFM 视觉模型清理私人照片库 | [代码](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fphoto-triage-agent) |\n| Tiny-MoA | 在 CPU 上运行的混合代理系统，配备 LFM2.5 大脑（1.2B） | [代码](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FTiny-MoA) |\n| barq-web-rag | 基于浏览器的 RAG 应用程序，用于文档问答，采用 LFM2.5-1.2B-Thinking 模型，完全在本地通过 WebGPU 运行 | [代码](https:\u002F\u002Fgithub.com\u002FYASSERRMD\u002Fbarq-web-rag) |\n| LFM-Scholar | 自动化文献综述代理，用于查找和引用论文 | [代码](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FLFM-Scholar) |\n\n### 更多\n\n| 名称 | 描述 | 链接 |\n|------|-------------|------|\n| 私人摘要生成器 | 100% 本地文本摘要生成，支持多种语言 | [代码](https:\u002F\u002Fgithub.com\u002FPrivate-Intelligence\u002Fprivate_summarizer) |\n| TranslatorLens | 离线翻译相机，实现实时文本翻译 | [代码](https:\u002F\u002Fgithub.com\u002Flinmx0130\u002FTranslatorLens) |\n| 会议智能 CLI | 用于会议转录和分析的 CLI 工具 | [代码](https:\u002F\u002Fgithub.com\u002Fchintan-projects\u002Fmeeting-prompter) |\n| 食品图像微调 | 在食品图像数据集上微调 LFM 模型 | [代码](https:\u002F\u002Fgithub.com\u002Fbenitomartin\u002Ffood-images-finetuning) |\n| LFM2-KoEn-Tuning | 针对韩英翻译微调的 LFM2 1.2B 模型 | [代码](https:\u002F\u002Fgithub.com\u002Fgyunggyung\u002FLFM2-KoEn-Tuning) |\n| LFM-2.5 思考版在网页上 | LFM2.5 1.2B 参数量的日语语言模型，使用 Transformers.js 和 ONNX Runtime Web，在浏览器中通过 WebGPU 本地运行 | [代码](https:\u002F\u002Fgithub.com\u002Fsitammeur\u002Flfm2.5-jp-web) |\n| SFT + DPO 微调 | 教育一个 1.2B 模型成为脾气暴躁的意大利厨师：使用 Unsloth 进行 SFT + DPO 微调 | [代码](https:\u002F\u002Fgithub.com\u002Fbenitomartin\u002Fgrumpy-chef-finetuning-dpo) |\n| Tauri 插件 LEAP AI | Tauri 插件，用于将 LEAP 和 Liquid LFM 集成到使用 Tauri 构建的桌面和移动应用程序中 | [Crate](https:\u002F\u002Fcrates.io\u002Fcrates\u002Ftauri-plugin-leap-ai) |\n| LFM-2.5 JP 在网页上 | LFM2.5 1.2B 参数量的日语语言模型，使用 Transformers.js 和 ONNX Runtime Web，在浏览器中通过 WebGPU 本地运行 | [代码](https:\u002F\u002Fgithub.com\u002Fsitammeur\u002Flfm2.5-jp-web) |\n| grosme | CLI 杂货助手，读取 Apple Notes 列表并使用 LFM-2.5 工具调用代理通过 Ollama 查找 Walmart 产品匹配 | [代码](https:\u002F\u002Fgithub.com\u002Fearl562\u002Fgrosme) |\n| 使用 LEAP SDK 的聊天 | LEAP SDK 在 React Native 中的集成 | [代码](https:\u002F\u002Fgithub.com\u002Fglody007\u002Fexpo-leap-sdk) |\n| Discord 版主 | 使用 LFM2.5-1.2B 检查超过预定字符限制的消息，以识别可疑内容 | [代码](https:\u002F\u002Fgithub.com\u002Fbadluma\u002Fliquid-mod) |\n\n## 🕐 技术深度解析\n\n录制的约 60 分钟的会议，涵盖高级主题和动手实践。\n\n| 日期 | 主题 | 链接 |\n|------|-------|------|\n| 2025-11-06 | 微调 LFM2-VL 用于图像分类 | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=00IK9apncCg) |\n| 2025-11-27 | 使用 LFM2-Audio 构建 100% 本地音频转文本 CLI | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=yeu077gPmCA) |\n| 2025-12-26 | 使用 GRPO 和 OpenEnv 微调 LFM2-350M 以控制浏览器 | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=gKQ08yee3Lw) |\n| 2026-01-22 | 使用 LFM2.5-VL-1.6B 和 WebGPU 进行本地视频字幕生成 | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xsWARHFoA3E) |\n| 2026-03-05 | 构建您自己的本地 AI 编程助手 | [视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6JEm1IxcxEw) |\n\n加入下一次会议吧！前往 [Discord](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai) 的 `#live-events` 频道。\n\n## 贡献\n\n我们欢迎您的贡献！请在社区项目部分提交 PR，并附上您项目的 GitHub 仓库链接。\n\n## 支持\n\n- 📖 [Liquid AI 文档](https:\u002F\u002Fdocs.liquid.ai\u002F)\n- 💬 [加入我们的 Discord 社区](https:\u002F\u002Fdiscord.com\u002Finvite\u002Fliquid-ai)","# Liquid AI Cookbook 快速上手指南\n\n本指南旨在帮助开发者快速使用 **Liquid AI** 的开源权重模型（LFMs）和 **LEAP SDK**，在笔记本、移动端及边缘设备上构建 AI 应用。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**: \n    *   桌面端：Windows, macOS (推荐 Apple Silicon), Linux\n    *   移动端：Android (Kotlin), iOS (Swift)\n    *   浏览器端：支持 WebGPU 的现代浏览器 (Chrome, Edge 等)\n*   **硬件建议**: \n    *   本地运行大模型建议使用具备独立显卡的设备或 Apple Silicon Mac。\n    *   移动端需较新的智能手机以支持端侧推理。\n*   **核心依赖**:\n    *   Python 3.9+\n    *   Git\n    *   Hugging Face Account (用于下载模型权重)\n\n### 前置依赖安装\n克隆项目仓库并安装基础 Python 依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook.git\ncd cookbook\n\n# 安装基础依赖 (具体依赖视子项目而定，通常包含 torch, transformers, leap-sdk 等)\npip install -r requirements.txt\n```\n\n> **国内加速提示**: 若下载模型或依赖缓慢，建议配置 Hugging Face 镜像源：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> ```\n> 或使用国内 pip 源：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n根据目标平台选择对应的安装方式：\n\n### 1. 桌面端应用 (Python\u002FCLI)\n大多数桌面示例位于 `examples\u002F` 目录下。以 **发票解析器 (Invoice Parser)** 为例：\n\n```bash\ncd examples\u002Finvoice-parser\npip install -r requirements.txt\n# 确保已设置 Hugging Face Token\nexport HUGGING_FACE_HUB_TOKEN=\"your_token_here\"\n```\n\n### 2. 浏览器端应用 (WebGPU)\n无需安装本地环境，但需确保浏览器启用 WebGPU。\n*   **直接体验**: 访问 [Hugging Face Spaces Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FLiquidAI\u002FLFM2-WebGPU)\n*   **本地运行**: \n    ```bash\n    # 进入对应示例目录，如语音助手\n    cd examples\u002Faudio-webgpu-demo\n    # 通常需要启动一个本地静态服务器\n    python -m http.server 8000\n    ```\n\n### 3. 移动端应用 (Android\u002FiOS)\n需安装对应平台的开发工具链及 LEAP Edge SDK。\n\n*   **Android**: \n    1. 安装 Android Studio (最新版)。\n    2. 打开 `Android\u002FLeapChat` 或其他示例项目。\n    3. 同步 Gradle 依赖（自动拉取 LEAP SDK）。\n*   **iOS**: \n    1. 安装 Xcode (最新版)。\n    2. 打开 `iOS\u002FLeapChatExample` 等项目。\n    3. 通过 Swift Package Manager 集成 LEAP SDK。\n\n### 4. 微调环境 (Fine-Tuning)\n若需进行模型微调，推荐使用 Colab 或本地 GPU 环境，并安装 `unsloth` 或 `trl`：\n\n```bash\npip install unsloth[colab-new] -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n# 或\npip install trl accelerate peft -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下展示两个最典型的使用场景：运行本地 CLI 工具和浏览器端推理。\n\n### 场景一：运行本地音频转录 CLI\n使用 `LFM2-Audio-1.5B` 模型进行实时语音转文字。\n\n1. 进入示例目录：\n   ```bash\n   cd examples\u002Faudio-transcription-cli\n   ```\n2. 运行脚本（首次运行会自动下载模型）：\n   ```bash\n   python transcribe.py --model LiquidAI\u002FLFM2-Audio-1.5B\n   ```\n3. 对着麦克风说话，终端将实时输出转录文本。\n\n### 场景二：在浏览器中运行工具调用 (Tool Calling)\n无需后端服务器，直接在浏览器利用 WebGPU 运行 `LFM2`。\n\n1. 访问官方 Demo 或本地启动：\n   ```bash\n   # 假设已克隆 webgpu 示例代码\n   cd examples\u002Ftool-calling-webgpu\n   npm install\n   npm run dev\n   ```\n2. 打开浏览器访问 `http:\u002F\u002Flocalhost:xxxx`。\n3. 在界面中输入指令（例如：“查询今天的天气”），模型将在本地识别意图并调用模拟工具函数。\n\n### 场景三：开始微调 (SFT)\n使用 `Unsloth` 对模型进行监督微调。\n\n1. 打开微调笔记本书写环境：\n   ```bash\n   jupyter notebook finetuning\u002Fnotebooks\u002Fsft_with_unsloth.ipynb\n   ```\n2. 在 Notebook 中依次执行单元格：\n   *   加载预训练模型 (`LiquidAI\u002FLFM2-1.2B`)。\n   *   准备自定义数据集。\n   *   配置 LoRA 参数并开始训练。\n   *   导出合并后的模型权重。\n\n---\n*更多高级示例（如车机语音助手、家庭助理、视觉语言模型应用）请参考各子目录下的 `README.md` 文件。*","一位嵌入式开发者正尝试在资源受限的树莓派或旧款笔记本电脑上，构建一个能实时处理发票图像并提取结构化数据的本地化财务助手。\n\n### 没有 cookbook 时\n- **环境配置迷宫**：面对 Liquid AI 的 LFM 模型和 LEAP SDK，开发者需从零摸索如何在边缘设备上部署推理环境，极易因依赖冲突导致项目停滞。\n- **多模态整合困难**：想要结合视觉（OCR）与语言模型处理发票，却缺乏现成的代码参考，不得不自行编写复杂的图像预处理与模型调用逻辑。\n- **性能优化盲区**：不清楚如何让大模型在低算力设备上流畅运行，缺乏针对移动端或边缘端的量化、加速最佳实践，导致演示 Demo 卡顿严重。\n- **功能验证漫长**：每开发一个新功能（如工具调用或语音交互），都需要重复造轮子编写基础框架，无法快速验证核心业务逻辑。\n\n### 使用 cookbook 后\n- **一键复用范例**：直接调用 `Invoice Parser` 示例代码，基于 LFM2-VL-3B 快速搭建起发票数据提取流程，将数天的环境搭建时间缩短至几小时。\n- **端到端架构参考**：借鉴 `LocalCowork` 或 `Home Assistant` 的完整架构，轻松实现本地文件操作、安全扫描与多模态理解的无缝集成。\n- **边缘性能调优**：参考书中针对笔记本和移动设备的优化策略，利用 LEAP SDK 让模型在低显存设备上也能实现实时响应，确保用户体验流畅。\n- **快速迭代原型**：基于 `Flight Search Assistant` 等工具调用案例，迅速为财务助手添加联网查询汇率或自动记账的功能，大幅加速产品原型落地。\n\ncookbook 通过将抽象的模型能力转化为可运行的端到端实例，让开发者能在边缘设备上以最低成本快速构建高性能的本地 AI 应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLiquid4All_cookbook_bb55caac.png","Liquid4All","Liquid AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLiquid4All_99b879bb.png","Liquid AI, Inc.",null,"code@liquid.ai","liquidai","https:\u002F\u002Fliquid.ai","https:\u002F\u002Fgithub.com\u002FLiquid4All",[86,90,94],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",95.1,{"name":91,"color":92,"percentage":93},"Python","#3572A5",4.9,{"name":95,"color":96,"percentage":97},"Shell","#89e051",0,1662,257,"2026-04-04T17:59:51","Linux, macOS, Windows, Android, iOS","桌面端：可选，支持 NVIDIA GPU (CUDA) 或 Apple Silicon (MLX\u002FLEAP SDK)；浏览器端：需支持 WebGPU 的显卡；移动端：利用设备 NPU\u002FGPU。具体显存未说明，取决于模型大小 (350M-24B)。","未说明 (取决于运行模型的大小，从 350M 到 24B 参数不等，建议根据模型规模配置)",{"notes":105,"python":106,"dependencies":107},"该项目是一个包含多种应用场景（桌面、浏览器、移动端、微调）的代码库合集，而非单一工具。不同示例的环境需求差异巨大：1. 浏览器应用无需安装，依赖 WebGPU；2. 移动端 (Android\u002FiOS) 使用 LEAP Edge SDK (Kotlin\u002FSwift)；3. 桌面端部分应用依赖 llama.cpp 或 Apple MLX 实现本地运行；4. 微调笔记本依赖 Unsloth 或 TRL 库。具体硬件需求需根据所选用的特定模型（如 LFM2-350M 至 LFM2-24B）确定。","未说明 (示例中包含 Python CLI 和 Colab Notebook，通常需 3.8+)",[108,109,110,111,112,113,114,115,116],"LEAP SDK","llama.cpp","Unsloth","TRL","WebGPU","ONNX Runtime Web","Transformers.js","MLX","PyTorch",[34,15],[119,120,121,122,123,124],"android","edge","ios","language-model","laptop","language-models","2026-03-27T02:49:30.150509","2026-04-06T06:53:12.210236",[128,133,138,143,148,153],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},10117,"如何在 macOS arm64 (Apple Silicon) 上解决 audio-transcription-cli 缺少 llama-lfm2-audio 二进制文件的问题？","该问题通常是因为下载的运行器文件是压缩包且未自动解压。请手动进入 'runners' 目录，找到对应的 zip 文件（例如 lfm2-audio-macos-arm64.zip），将其解压到预期的 'bin' 文件夹中。可以使用以下命令：\n\nunzip -d bin lfm2-audio-macos-arm64.zip\n\n如果需要调整目录结构，确保二进制文件直接位于 bin 目录下。此问题已在主分支的代码更新中修复，但手动解压可立即解决当前环境问题。","https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},10118,"LFM2-VL 模型是否官方支持越南语？如何进行微调以支持越南语任务（如 OCR、VQA）？","目前 LFM2.5-VL 模型在中期训练和 SFT 阶段接触过少量越南语数据（主要是 OCR 数据），但官方尚未正式声明完全支持越南语。建议用户尝试使用越南语 OCR 数据集对模型进行微调，可能会获得意想不到的良好效果。如果您成功构建了针对越南语优化的模型并开源，维护者非常乐意将其收录到 Cookbook 中以帮助其他开发者。","https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook\u002Fissues\u002F19",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},10119,"在 browser_control 示例中找不到 config.yaml 配置文件，应该在哪里找到或如何指定？","配置文件位于 examples\u002Fbrowser-control\u002Fconfigs 目录下。运行微调时，需要通过环境变量或命令行参数指定具体的配置文件。例如，使用 make 命令时可以这样指定：\n\nmake fine-tune config=lfm2_350m_book_flight.yaml","https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook\u002Fissues\u002F14",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},10120,"在使用 LFM2-VL 进行发票解析时，是否有比默认流程更优的方案？","是的，社区反馈表明仅使用视觉模型（Vision Model）进行发票解析往往能获得更好的结果。默认流程可能包含额外的文本提取步骤，但这可能导致信息丢失或错误。建议修改代码，移除独立的文本提取器模型（extractor_model），直接使用视觉模型的 image2text() 方法输出结构化数据（InvoiceData）。这样可以简化流程并提高准确率。","https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook\u002Fissues\u002F5",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},10121,"LocalCowork 项目是否计划集成更多社区开发的 MCP 服务器（如 VMware AIops）？","目前 LocalCowork 项目暂无计划扩展更多的功能覆盖范围。该项目的核心理念是保持“最小化但可用”（minimal yet working），旨在作为一个坚实的基础，供用户在此基础上自行构建特定的应用或集成。因此，官方不会直接将各类社区集成合并到主项目中，但鼓励用户在本地基于该项目进行二次开发。","https:\u002F\u002Fgithub.com\u002FLiquid4All\u002Fcookbook\u002Fissues\u002F73",{"id":154,"question_zh":155,"answer_zh":156,"source_url":137},10122,"微调 LFM2-VL 模型时，支持哪些多模态数据格式（特别是多图像对话）？","LFM2-VL 支持类似 Qwen-VL 的多图像对话格式。数据应组织为 JSON 格式，其中 \"image\" 字段包含图像路径列表，\"conversations\" 字段包含对话内容。在人类输入的 \"value\" 中，使用 \u003Cimage> 占位符来引用图像列表中的对应图片。示例结构如下：\n\n{\n    \"image\": [\"cats\u002F001.jpg\", \"cats\u002F002.jpg\"],\n    \"conversations\": [\n        {\n            \"from\": \"human\",\n            \"value\": \"\u003Cimage>\\n\u003Cimage>\\n这两只猫有什么区别？\"\n        },\n        {\n            \"from\": \"gpt\",\n            \"value\": \"第一只是...\"\n        }\n    ]\n}",[]]