zclaw

GitHub
2.1k 177 较难 1 次阅读 昨天MIT语言模型Agent
AI 解读 由 AI 自动生成,仅供参考

zclaw 是一款专为 ESP32 微控制器打造的超轻量级个人 AI 助手。它的核心目标是在极其有限的硬件资源下实现智能化交互,整个固件(包含系统运行时、网络协议栈及加密组件)的大小被严格控制在 888 KiB 以内,其中应用代码仅约 35 KB。

这一设计巧妙解决了传统 AI 助手依赖云端或高性能处理器、难以在低成本嵌入式设备上独立运行的痛点。用户只需一块普通的 ESP32 开发板,即可拥有具备自然语言理解能力的本地智能终端。它能通过 Telegram 或网页与用户聊天,执行定时任务,直接控制 GPIO 引脚读写传感器数据,并支持记忆功能以维持对话上下文。

zclaw 特别适合嵌入式开发者、物联网爱好者以及喜欢动手折腾的极客用户。对于希望学习如何在资源受限环境下部署 AI 应用的研究人员,它也是一个极佳的实践案例。其技术亮点在于用 C 语言深度优化,不仅支持多种主流大模型后端(如 OpenAI、Ollama 等),还提供了丰富的内置工具链和自定义扩展能力。无论是用来制作智能家居控制器,还是作为探索边缘计算 AI 的入门项目,zclaw 都提供了一个有趣且高效的平台。

使用场景

一位嵌入式开发者希望为家中的小型植物温室构建一个低成本、可远程对话的智能监控系统,但受限于硬件资源和开发复杂度。

没有 zclaw 时

  • 硬件门槛高:传统方案需要树莓派等高性能主板才能运行本地 AI 或连接云端,成本高且功耗大,难以塞进小巧的温室控制盒。
  • 开发链路繁琐:手动编写 C 代码处理 Wi-Fi 重连、TLS 加密和 GPIO 时序,每次调整逻辑都需重新编译烧录固件,调试周期长达数小时。
  • 交互方式僵化:只能通过硬编码的阈值触发报警,无法用自然语言询问“现在湿度多少?”或临时修改浇水策略,缺乏灵活性。
  • 资源管理困难:在有限的闪存中平衡业务逻辑与网络协议栈极易溢出,开发者需花费大量精力裁剪代码以适应 ESP32 的存储限制。

使用 zclaw 后

  • 极致轻量部署:zclaw 将整个固件(含网络栈和 AI 逻辑)压缩至 888KiB 以内,直接跑在廉价的 ESP32-C3 上,完美适配小型设备。
  • 自然语言操控:通过 Telegram 直接发送“读取土壤湿度”或“每天上午 8 点开启风扇”,zclaw 自动解析意图并调用 GPIO 或定时任务,无需重写代码。
  • 快速迭代开发:利用其内置的工具注册机制和热更新配置脚本,开发者可在几分钟内新增传感器支持或调整 AI 人设,无需反复烧录。
  • 开箱即用的安全连接:zclaw 原生集成 TLS 加密与凭证管理,自动处理复杂的网络连接细节,让开发者专注于业务逻辑而非底层通信。

zclaw 将原本需要复杂架构的 AIoT 项目,简化为单芯片上的自然语言交互终端,极大降低了智能硬件的开发与使用门槛。

运行环境要求

操作系统
  • Linux
  • macOS
GPU

不需要 GPU(运行于 ESP32 微控制器)

内存

未说明(取决于 ESP32 开发板,通常为嵌入式低内存环境)

依赖
notes该工具是专为 ESP32 系列微控制器(如 ESP32-C3, ESP32-S3 等)设计的轻量级 AI 助手,固件大小严格控制在 888 KiB 以内。开发主机需支持 bash 脚本和常见的 Linux/macOS 包管理器(apt, pacman, dnf, zypper)。AI 推理依赖于外部大模型服务(如 OpenAI, Anthropic, Ollama),设备本身仅作为客户端运行,不包含本地大模型推理引擎,因此无需高性能 GPU 或大量内存。
python未说明(核心固件为 C 语言,构建脚本依赖系统 Shell 及包管理器)
ESP-IDF
FreeRTOS
curl
bash
zclaw hero image

快速开始

zclaw

龙虾正在焊接 Seeed Studio XIAO ESP32-C3

适用于 ESP32 的最小 AI 个人助理。

zclaw 使用 C 语言编写,运行在 ESP32 开发板上,其默认构建的固件总大小严格控制在 ≤ 888 KiB。它支持定时任务、GPIO 控制、持久化存储以及通过自然语言进行自定义工具组合。

这里的 888 KiB 是指包括所有内容在内的固件总大小,而不仅仅是应用代码。它包含了 zclaw 逻辑、ESP-IDF/FreeRTOS 运行时、Wi‑Fi/网络功能、TLS/加密以及证书包等开销。

既好玩又好折腾。

完整文档

请访问文档网站获取完整的指南和参考信息。

快速入门

单行引导脚本(macOS/Linux):

bash <(curl -fsSL https://raw.githubusercontent.com/tnm/zclaw/main/scripts/bootstrap.sh)

已经克隆了仓库?

./install.sh

非交互式安装:

./install.sh -y
设置说明
  • bootstrap.sh 会克隆/更新仓库,然后运行 ./install.sh。您可以先检查/验证引导流程(包括 ZCLAW_BOOTSTRAP_SHA256 完整性校验);详情请参阅入门文档
  • 在运行 install.sh 时,Linux 依赖项安装会自动检测 apt-getpacmandnfzypper
  • 在非交互模式下,未回答的安装提示会默认为“否”,除非您传递 -y 参数(或已保存偏好设置/显式标志生效)。
  • 对于闪存中的加密凭据,请使用安全模式(在安装流程中使用 --flash-mode secure,或直接运行 ./scripts/flash-secure.sh)。
  • 烧录完成后,使用 ./scripts/provision.sh 配置 Wi‑Fi 和 LLM 凭据。
  • 您可以随时重新运行 ./scripts/provision.sh./scripts/provision-dev.sh(无需重新烧录),以更新运行时凭据:Wi‑Fi SSID/密码、LLM 后端/模型/API 密钥(或 Ollama API 地址),以及 Telegram 令牌和聊天 ID 白名单。
  • 默认的 LLM 速率限制为每小时 100 次、每天 1000 次;编译时限制可在 main/config.h 中修改(RATELIMIT_*)。
  • 快速验证方法:运行 ./scripts/web-relay.sh 并发送一条测试消息,确认设备能够响应。
  • 如果串口被占用,运行 ./scripts/release-port.sh 后重试。
  • 如需重复本地重新配置而不必再次输入密钥,可使用带有本地配置文件的 ./scripts/provision-dev.shprovision-dev.sh 实际上是 provision.sh --yes 的封装)。

核心特性

  • 通过 Telegram 或托管 Web 中继进行对话
  • 带有时区感知的计划任务(每日、周期性和一次性)
  • 内置与用户自定义工具
  • 如需新增内置功能,可通过“打造属于你的工具”文档添加固件工具(C 处理程序 + 注册表条目)。
  • 运行时诊断功能,可通过 get_diagnostics 获取快速/运行时/内存/速率/时间/全部范围的信息。
  • GPIO、DHT 和 I2C 控制,并配有保护机制(包括 gpio_read_alli2c_scani2c_read/i2c_write 以及 dht_read)。
  • USB 本地管理控制台,用于恢复、安全模式及网络启动前的操作。
  • 重启后仍能保持数据持久化。
  • 多种角色选项:中立、友好、技术型、机智。
  • 支持 Anthropic、OpenAI、OpenRouter 和 Ollama(自定义端点)。

硬件

已测试目标:ESP32ESP32-C3ESP32-S3ESP32-C6。经典 ESP32-WROOM/ESP32 DevKit 板均受支持。欢迎提供其他 ESP32 型号的测试报告!

推荐入门开发板:Seeed XIAO ESP32-C3

本地开发与调试

典型的快速迭代流程如下:

./scripts/test.sh host
./scripts/build.sh
./scripts/flash.sh --kill-monitor /dev/cu.usbmodem1101
./scripts/provision-dev.sh --port /dev/cu.usbmodem1101
./scripts/monitor.sh /dev/cu.usbmodem1101

只需设置一次配置文件,即可重复使用:

./scripts/provision-dev.sh --write-template
# 编辑 ~/.config/zclaw/dev.env
./scripts/provision-dev.sh --show-config
./scripts/provision-dev.sh

# 如果 Telegram 不断重复旧消息:
./scripts/telegram-clear-backlog.sh --show-config

更多详细信息请参阅本地开发与调试指南

其他实用脚本

显示脚本
  • ./scripts/flash-secure.sh - 加密烧录
  • ./scripts/provision.sh - 将凭据写入 NVS
  • ./scripts/provision-dev.sh - 本地配置文件封装,便于重复配置
  • ./scripts/telegram-clear-backlog.sh - 清除积压的 Telegram 消息
  • ./scripts/erase.sh - 只擦除 NVS(--nvs)或完全擦除闪存(--all),并附带保护措施
  • ./scripts/monitor.sh - 串口监视器
  • ./scripts/emulate.sh - 运行 QEMU 模拟器
  • ./scripts/web-relay.sh - 托管中继服务 + 移动聊天界面
  • ./scripts/benchmark.sh - 测量中继/串口延迟
  • ./scripts/test.sh - 运行主机/设备测试流程
  • ./scripts/test-api.sh - 手动/本地测试实时提供商 API

本地管理控制台

当开发板处于安全模式、未配置或 LLM 路径不可用时,您仍然可以通过 USB 串口对其进行操作,而无需 Wi‑Fi 或 LLM 交互。

./scripts/monitor.sh /dev/cu.usbmodem1101
# 然后输入:
/wifi status
/wifi scan
/bootcount
/gpio all
/reboot

仅限本地可用的命令包括:

  • /gpio [all|pin|pin high|pin low]
  • /diag [scope] [verbose]
  • /reboot
  • /wifi [status|scan]
  • /bootcount
  • /factory-reset confirm(破坏性操作;清除 NVS 并重启)

完整参考:本地管理控制台

大小分解

当前默认 esp32 构建的细分(来自 idf.py -B build size-components 的镜像字节数):

段落 字节数 大小 占比
zclaw 应用逻辑 (libmain.a) 39276 ~38.4 KiB ~4.6%
Wi‑Fi + 网络栈 378624 ~369.8 KiB ~44.4%
TLS/加密栈 134923 ~131.8 KiB ~15.8%
证书包 + 应用元数据 98425 ~96.1 KiB ~11.5%
其他 ESP-IDF/运行时/驱动程序/libc 201786 ~197.1 KiB ~23.7%

本次构建的镜像总大小为 853034 字节;填充后的 zclaw.bin853184 字节(约 833.2 KiB),距离 888 KiB 的上限还剩 56128 字节(约 54.8 KiB)。

延迟基准测试

中继路径基准测试(包括 Web 中继处理 + 设备往返):

./scripts/benchmark.sh --mode relay --count 20 --message "ping"

直接串口基准测试(主机往返 + 第一次响应时间)。如果固件日志中出现 METRIC request ... 行,则报告还将包含设备端的时间信息:

./scripts/benchmark.sh --mode serial --serial-port /dev/cu.usbmodem1101 --count 20 --message "ping"

许可证

MIT

版本历史

v2.13.02026/03/22
v2.11.22026/03/07
v2.10.12026/03/03
v2.8.22026/03/01

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

153.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|3天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|4天前
插件Agent图像

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|1周前
语言模型图像Agent