clawlet

GitHub
606 46 简单 1 次阅读 昨天MITAgent开发框架图像
AI 解读 由 AI 自动生成,仅供参考

Clawlet 是一款超轻量级、高效率的个人 AI 助手,旨在为用户提供便捷且私密的智能交互体验。它解决了传统 AI 代理部署复杂、依赖环境多以及记忆检索功能难以本地化运行的痛点。无论是开发者、研究人员还是对隐私有较高要求的普通用户,只需下载一个静态二进制文件,即可在任何机器上立即运行,无需安装运行时环境或处理复杂的 CGO 依赖。

Clawlet 的核心亮点在于其“混合语义记忆搜索”机制。通过内置 SQLite 和 sqlite-vec,它能自动索引工作区内的 Markdown 文档(如 MEMORY.md),让 AI 在对话中能精准检索过往上下文,仿佛拥有长期记忆。此外,它广泛兼容主流大模型服务商(如 OpenAI、Anthropic、Gemini、OpenRouter)以及本地部署方案(如 Ollama、vLLM),甚至支持 OpenAI Codex 的 OAuth 登录。在安全性方面,Clawlet 默认限制工具仅能访问工作区目录,有效保障数据安全。如果你希望拥有一个随拿随用、既聪明又懂你历史背景的本地 AI 伙伴,Clawlet 是一个极佳的选择。

使用场景

一位独立开发者需要在多台不同配置的电脑(包括公司 Mac 和家里 Linux 服务器)上维护一个长期迭代的项目,并希望能随时与 AI 讨论历史决策细节。

没有 clawlet 时

  • 环境部署繁琐:每次换设备都要配置 Python 环境、安装依赖库,遇到 CGO 编译错误往往耗费数小时排查。
  • 记忆断片严重:AI 无法自动检索几周前的架构决策记录,开发者必须手动复制粘贴大量上下文才能继续对话。
  • 隐私与安全担忧:担心通用助手工具权限过大,意外修改工作目录之外的重要系统文件。
  • 资源占用过高:后台常驻的重型 Agent 进程拖慢老旧设备的运行速度,导致开发体验卡顿。

使用 clawlet 后

  • 即插即用:下载单个静态二进制文件即可运行,无需运行时环境或复杂编译,在任意机器上秒级启动。
  • 混合语义记忆:开启 memorySearch 后,clawlet 自动索引 memory/ 目录下的 Markdown 笔记,AI 能精准召回半年前的技术选型理由。
  • 安全沙箱机制:默认限制工具仅能访问工作区内部文件,彻底杜绝了误删系统配置的风险。
  • 极致轻量:零运行时开销,即使在低配服务器上也能流畅运行,让本地大模型协作变得毫无负担。

clawlet 通过“单文件交付 + 本地语义记忆”的组合,将个人 AI 助手从沉重的环境配置中解放出来,实现了真正的随处智能。

运行环境要求

操作系统
  • Linux
  • macOS
GPU

非必需(本地运行依赖外部服务如 Ollama/vLLM,核心程序为静态二进制文件,无 GPU 加速需求)

内存

未说明(作为轻量级静态二进制文件,内存占用应较低,具体取决于所选 LLM 模型)

依赖
notes该工具是一个无运行时依赖、无 CGO 的单静态二进制文件。它本身不包含 AI 模型,需配置外部 LLM 提供商(如 OpenAI、Anthropic、OpenRouter)或本地服务(如 Ollama、vLLM)才能运行。支持通过 Docker 部署。
python不需要(单静态二进制文件,无运行时依赖)
SQLite (内置)
sqlite-vec (内置)
clawlet hero image

快速开始

clawlet

Clawlet

超轻量且高效的个人AI助手

Clawlet 是一款轻量级的个人AI代理,具备混合语义记忆搜索功能——它是一个单一的静态二进制文件,无需运行时环境,也不使用CGO。
内置SQLite + sqlite-vec。只需将其部署到任何机器上,记忆搜索功能即可直接使用。

该项目受到 OpenClawnanobot 的启发。

安装

GitHub Releases 下载。

macOS (Apple Silicon):

curl -L https://github.com/mosaxiv/clawlet/releases/latest/download/clawlet_Darwin_arm64.tar.gz | tar xz
mv clawlet ~/.local/bin/

快速入门

# 初始化
clawlet onboard \
  --openrouter-api-key "sk-or-..." \
  --model "openrouter/anthropic/claude-sonnet-4.5"

# 检查有效配置
clawlet status

# 对话
clawlet agent -m "2加2等于多少?"

配置 (~/.clawlet/config.json)

配置文件:~/.clawlet/config.json

支持的提供商

clawlet 目前支持以下LLM提供商:

  • OpenAI (openai/<model>,API密钥:env.OPENAI_API_KEY)
  • OpenAI Codex (OAuth) (openai-codex/<model>,无需API密钥;登录方式:clawlet provider login openai-codex)
  • OpenRouter (openrouter/<provider>/<model>,API密钥:env.OPENROUTER_API_KEY)
  • Anthropic (anthropic/<model>,API密钥:env.ANTHROPIC_API_KEY)
  • Gemini (gemini/<model>,API密钥:env.GEMINI_API_KEYenv.GOOGLE_API_KEY)
  • 本地(Ollama / vLLM / 兼容OpenAI的本地端点) (ollama/<model>local/<model>,默认基础URL:http://localhost:11434/v1,API密钥可选)

最小配置(OpenRouter):

{
  "env": { "OPENROUTER_API_KEY": "sk-or-..." },
  "agents": { "defaults": { "model": "openrouter/anthropic/claude-sonnet-4-5" } }
}

代理生成的默认设置可配置:

{
  "agents": {
    "defaults": {
      "model": "openrouter/anthropic/claude-sonnet-4-5",
      "maxTokens": 8192,
      "temperature": 0.7
    }
  }
}

最小配置(通过Ollama使用本地模型):

{
  "agents": { "defaults": { "model": "ollama/qwen2.5:14b" } }
}

最小配置(通过vLLM使用相同的ollama/路由):

{
  "agents": { "defaults": { "model": "ollama/meta-llama/Llama-3.1-8B-Instruct" } },
  "llm": { "baseURL": "http://localhost:8000/v1" }
}

OpenAI Codex (OAuth):

# 一次性登录
clawlet provider login openai-codex

# 无头环境(SSH / 容器)
clawlet provider login openai-codex --device-code
{
  "agents": { "defaults": { "model": "openai-codex/gpt-5.1-codex" } }
}

选项:记忆搜索设置

要启用语义记忆搜索,可在代理默认设置中添加memorySearch

{
  "env": {
    "OPENAI_API_KEY": "sk-..."
  },
  "agents": {
    "defaults": {
      "memorySearch": {
        "enabled": true,
        "provider": "openai",
        "model": "text-embedding-3-small"
      }
    }
  }
}

本地嵌入(Ollama / 兼容OpenAI的本地端点):

{
  "agents": {
    "defaults": {
      "memorySearch": {
        "enabled": true,
        "provider": "openai",
        "model": "nomic-embed-text",
        "remote": {
          "baseURL": "http://localhost:11434/v1"
        }
      }
    }
  }
}

启用后:

  • 代理将获得memory_searchmemory_get工具,用于检索过往上下文。
  • clawlet会索引MEMORY.mdmemory.md以及memory/**/*.md文件以供检索。
  • 索引数据库将在{workspace}/.memory/index.sqlite中创建。

禁用时(默认):

  • memorySearch.enabled默认为false;搜索工具不会暴露给模型。
  • 记忆文件(memory/MEMORY.mdmemory/YYYY-MM-DD.md)仍会按常规注入到上下文中。
  • 正常的对话行为则保持不变。

安全性

安全默认设置

  • tools.restrictToWorkspace默认为true(工具仅能访问工作目录内的文件)
  • gateway.listen默认为127.0.0.1:18790
  • gateway.allowPublicBind默认为false

安全检查清单

项目 状态 详情
网关未公开暴露 默认绑定仅限于本地回环地址。除非显式设置gateway.allowPublicBind=true,否则拒绝公网绑定。
文件系统受限(无/ 文件工具会阻止根路径访问、路径遍历、编码后的路径遍历、符号链接逃逸以及敏感状态路径。
执行工具危险命令防护 exec会阻止不安全的Shell构造(命令链、不安全的变量扩展、重定向/tee、危险模式),并阻止访问敏感路径,同时只允许白名单中的环境变量传递给子进程。

工具

多模态输入(音频/图片/附件)

传入渠道的消息可以包含附件。clawlet可以:

  • 将图片发送给具备视觉能力的模型,
  • 使用配置的提供商转录音频,
  • 并将类似文本的文件附件内联到用户上下文中。

可在tools.media中进行配置(以下值为当前默认值):

{
  "tools": {
    "media": {
      "enabled": true,
      "audioEnabled": true,
      "imageEnabled": true,
      "attachmentEnabled": true,
      "maxAttachments": 4,
      "maxFileBytes": 20971520,
      "maxInlineImageBytes": 5242880,
      "maxTextChars": 12000,
      "downloadTimeoutSec": 20
    }
  }
}

聊天应用

聊天应用集成在channels中配置(以下为示例)。

Telegram

采用Telegram Bot API长轮询getUpdates),因此无需公开的Webhook端点。

  1. 使用@BotFather创建一个机器人,并复制机器人令牌。
  2. (可选但建议)通过allowFrom限制访问权限。
    • Telegram数字用户ID效果最佳。
    • 用户名也可接受(不含@)。

配置示例(合并到~/.clawlet/config.json):

{
  "channels": {
    "telegram": {
      "enabled": true,
      "token": "123456:ABCDEF...",
      "allowFrom": ["123456789"]
    }
  }
}

然后运行:

clawlet gateway
WhatsApp

采用WhatsApp Web多设备模式。无需Meta的Webhook或公开端点。

  1. 启用该通道,并(建议)设置allowFrom
  2. 运行一次登录:
    • clawlet channels login --channel whatsapp
    • 使用终端显示的二维码,在WhatsApp的“已连接设备”中扫描。
  3. 使用clawlet gateway启动正常运行。

配置示例(合并到~/.clawlet/config.json):

{
  "channels": {
    "whatsapp": {
      "enabled": true,
      "allowFrom": ["15551234567"]
    }
  }
}

然后运行:

# 一次性登录(在启动网关前必须完成)
clawlet channels login --channel whatsapp

# 正常运行时
clawlet 网关

注意事项:

  • 对于瞬时错误或速率限制错误,会采用指数退避策略进行重试。
  • 会话状态默认持久化存储在 ~/.clawlet/whatsapp-auth/session.db 中。
  • 如有需要,可通过 sessionStorePath 覆盖存储路径。
  • clawlet 网关 不执行二维码登录;若未绑定账号,则会退出并提示登录命令。
Discord
  1. 创建机器人并复制令牌 前往 https://discord.com/developers/applications,创建一个应用,然后依次选择 BotAdd Bot。复制机器人令牌。

  2. 将机器人邀请至您的服务器(OAuth2 URL生成器) 在 OAuth2URL Generator 中,选择 Scopes: bot。对于 Bot Permissions,最低权限为 View ChannelsSend MessagesRead Message History。打开生成的链接并将机器人添加到您的服务器。

  3. 启用消息内容意图(获取服务器消息文本所必需) 在开发者门户的机器人设置中,启用 MESSAGE CONTENT INTENT。否则,机器人将无法接收服务器中的消息文本。

  4. 获取您的用户ID(用于 allowFrom) 在 Discord 设置中启用开发者模式,然后右键单击您的个人资料并选择 Copy User ID

  5. 配置 clawlet channels.discord.allowFrom 是允许与代理对话的用户ID列表(空值表示允许所有人)。

示例配置(合并到 ~/.clawlet/config.json):

{
  "channels": {
    "discord": {
      "enabled": true,
      "token": "YOUR_BOT_TOKEN",
      "allowFrom": ["YOUR_USER_ID"]
    }
  }
}
  1. 运行
clawlet gateway
Slack

使用 Socket Mode(无需公开URL)。目前 clawlet 仅支持 Socket Mode。

  1. 创建 Slack 应用
  2. 配置应用:
    • Socket Mode:开启,生成一个具有 connections:write 权限的应用级令牌(xapp-...
    • OAuth范围(bot):chat:writereactions:writeapp_mentions:readim:historychannels:history
    • 事件订阅:订阅 message.immessage.channelsapp_mention
  3. 将应用安装到您的工作区,并复制机器人令牌(xoxb-...
  4. 设置 channels.slack.enabled=true,并配置 botTokenappToken
    • groupPolicy:可设置为 "mention"(默认,仅在被提及时回复)、"open"(回复所有频道消息)或 "allowlist"(限制特定频道)。
    • DM政策默认为 open。若要禁用私信,可设置为 "dm": {"enabled": false}

示例配置(合并到 ~/.clawlet/config.json):

{
  "channels": {
    "slack": {
      "enabled": true,
      "botToken": "xoxb-...",
      "appToken": "xapp-...",
      "groupPolicy": "mention",
      "allowFrom": ["U012345"]
    }
  }
}

随后运行:

clawlet gateway

CLI 参考

命令 描述
clawlet onboard 初始化工作空间并生成最小配置文件。
clawlet status 打印生效的配置(包括默认值和路由信息)。
clawlet agent 以 CLI 模式运行代理(交互式或单条消息)。
clawlet gateway 运行长期运行的网关服务(处理聊天通道、定时任务和心跳检测)。
clawlet channels status 显示哪些聊天通道已启用或配置。
clawlet cron list 列出所有计划任务。
clawlet cron add 添加一项计划任务。
clawlet cron remove 移除一项计划任务。
clawlet cron toggle 启用或禁用一项计划任务。
clawlet cron run 立即执行一项计划任务。

clawlet cron add 格式

--message 为必填项,且必须精确设置 --every--cron--at 中的一项。

# 每 N 秒执行一次
clawlet cron add --message "总结我的收件箱" --every 3600

# Cron 表达式(5 字段)
clawlet cron add --message "每日站会记录" --cron "0 9 * * 1-5"

# 在特定时间执行一次(RFC3339 格式)
clawlet cron add --message "提醒我" --at "2026-02-10T09:00:00Z"

# 发送至聊天(需同时设置 --channel 和 --to)
clawlet cron add --message "ping" --every 600 --channel slack --to U012345

🐳 Docker

使用预构建镜像

预构建镜像可在 GitHub Container Registry 上获取:

# docker-compose.yml
services:
  clawlet:
    image: ghcr.io/mosaxiv/clawlet:latest
    volumes:
      - ~/.clawlet:/root/.clawlet
    command: gateway
    restart: unless-stopped
docker compose up -d

本地构建

# 构建镜像
docker build -t clawlet .

# 初始化配置(仅首次)
docker run -v ~/.clawlet:/root/.clawlet --rm clawlet onboard

# 在主机上编辑配置文件以添加 API 密钥
vim ~/.clawlet/config.json

# 运行网关
docker run -v ~/.clawlet:/root/.clawlet clawlet gateway

# 或者运行单个命令
docker run -v ~/.clawlet:/root/.clawlet --rm clawlet agent -m "Hello"
docker run -v ~/.clawlet:/root/.clawlet --rm clawlet status

版本历史

v0.2.102026/03/24
v0.2.92026/02/24
v0.2.82026/02/21
v0.2.72026/02/18
v0.2.62026/02/18
v0.2.52026/02/17
v0.2.42026/02/15
v0.2.32026/02/13
v0.2.22026/02/13
v0.2.12026/02/12
v0.1.22026/02/11
v0.1.12026/02/10

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|6天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

151.3k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|2天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|2天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|5天前
插件开发框架