crabwalk
Crabwalk 是一款专为 OpenClaw 智能体设计的实时可视化监控助手。它就像一位贴心的“副驾驶”,让你能直观地看到 AI 代理在 WhatsApp、Telegram、Discord 和 Slack 等多个社交平台上的工作全过程。
对于开发者而言,调试黑盒般的 AI 决策过程往往是个难题。Crabwalk 通过动态节点图谱,将抽象的思维状态、工具调用参数及响应链条以图形化方式实时呈现,彻底解决了“看不见、摸不着”的监控痛点。用户不仅能追踪每一次交互细节,还能按平台或联系人筛选会话,快速定位问题所在。
这款工具特别适合正在构建或维护多平台 AI 机器人的开发者与技术研究人员。其核心亮点在于基于 WebSocket 的低延迟数据流传输,以及支持一键扫码在手机端查看监控画面的便捷特性。此外,Crabwalk 提供了灵活的部署方案,既支持命令行快速启动,也完美适配 Docker 容器化环境,并能自动检测本地配置,极大降低了使用门槛。无论是本地开发调试还是远程服务器部署,Crabwalk 都能帮助你轻松掌控智能体的运行状态。
使用场景
某电商团队部署了基于 OpenClaw 的 AI 客服集群,需同时监控其在 WhatsApp、Telegram 和 Discord 上处理数千条用户咨询的实时状态。
没有 crabwalk 时
- 黑盒运行难追踪:开发者只能查看静态日志文件,无法直观看到 AI 在多个平台间的思维链(Thinking States)和工具调用顺序,排查问题如同“盲人摸象”。
- 故障响应滞后:当某个会话出现死循环或错误调用时,团队往往等到用户投诉才发现,缺乏实时的异常感知机制。
- 多平台数据割裂:不同聊天平台的会话记录分散在各处,难以在一个视图中对比分析跨平台的代理行为模式。
- 调试效率低下:复现特定用户的复杂交互场景需要手动拼接大量日志片段,耗时且容易遗漏关键上下文。
使用 crabwalk 后
- 全景可视化监控:通过 ReactFlow 动态节点图,团队能实时看到每个代理的思考路径、工具参数及回复链条,系统内部逻辑一目了然。
- 即时异常捕获:借助 WebSocket 实时流,一旦检测到异常的工具调用或停滞状态,监控大屏立即高亮预警,实现秒级响应。
- 跨平台统一视图:在单一界面中即可过滤和搜索来自 WhatsApp、Telegram 等所有渠道的会话,轻松对比不同场景下的代理表现。
- 深度下钻调试:点击任意节点即可展开查看详细的 Payload 和参数,快速定位逻辑偏差,将复杂问题的排查时间从小时级缩短至分钟级。
crabwalk 将原本不可见的 AI 代理决策过程转化为透明的实时数据流,让多平台智能体运维从“事后救火”转变为“事前洞察”。
运行环境要求
- Linux
- macOS
未说明
未说明

快速开始
🦀 Crabwalk
由 @luccasveg 开发的 OpenClaw (Clawdbot) 代理实时伴侣监控工具。
在实时节点图中查看您的 AI 代理如何在 WhatsApp、Telegram、Discord 和 Slack 上协同工作。即时了解思维状态、工具调用和响应链。


功能
- 实时活动图:使用 ReactFlow 可视化代理会话和动作链
- 多平台支持:同时监控跨所有消息平台的代理
- 实时流式传输:通过 WebSocket 连接到 OpenClaw 网关
- 动作追踪:展开节点以检查工具参数和负载
- 会话筛选:按平台筛选,按接收者搜索
安装
通过 OpenClaw 代理
将此链接粘贴到您的 OpenClaw 代理,并让其安装或更新 Crabwalk:
https://raw.githubusercontent.com/luccast/crabwalk/master/public/skill.md
CLI 安装
VERSION=$(curl -s https://api.github.com/repos/luccast/crabwalk/releases/latest | grep '"tag_name"' | cut -d'"' -f4)
mkdir -p ~/.crabwalk ~/.local/bin
curl -sL "https://github.com/luccast/crabwalk/releases/download/${VERSION}/crabwalk-${VERSION}.tar.gz" | tar -xz -C ~/.crabwalk
cp ~/.crabwalk/bin/crabwalk ~/.local/bin/
chmod +x ~/.local/bin/crabwalk
CLI 使用
命令
crabwalk # 启动服务器(默认:0.0.0.0:3000)
crabwalk start --daemon # 在后台运行
crabwalk stop # 停止后台服务器
crabwalk status # 检查是否正在运行
crabwalk update # 更新到最新版本
选项
-p, --port <port> 服务器端口(默认:3000)
-H, --host <host> 绑定地址(默认:0.0.0.0)
-g, --gateway <url> 网关 WebSocket URL(默认:ws://127.0.0.1:18789)
-t, --token <token> 网关认证令牌
-d, --daemon 在后台运行
-v, --version 显示版本
示例
crabwalk -p 8080 # 自定义端口
crabwalk -t mytoken123 # 显式指定令牌
crabwalk -g ws://192.168.1.50:18789 # 远程网关
crabwalk start -d -p 8080 # 在 8080 端口以守护进程模式运行
自动检测
CLI 会自动从 ~/.openclaw/openclaw.json 中检测您的网关令牌——如果您在本地运行 OpenClaw,则无需任何配置。
QR 代码
启动时,Crabwalk 会显示一个二维码,您可以用手机扫描以打开监控界面。需要安装 qrencode(安装程序会自动添加)。
Docker(推荐)
docker run -d \
-p 3000:3000 \
-e CLAWDBOT_API_TOKEN=your-token \
-e CLAWDBOT_URL=ws://host.docker.internal:18789 \
-v ~/.openclaw/workspace:/root/.openclaw/workspace \
ghcr.io/luccast/crabwalk:latest
注意:当在 Docker 中运行 Crabwalk 时,OpenClaw 网关通常运行在 主机 上。 使用
CLAWDBOT_URL=ws://host.docker.internal:18789以便容器能够连接。 如果您使用bind: loopback和tailscale serve来实现仅限尾网的安全访问,则需要以主机网络模式运行 Crabwalk 容器——将-p:3000:3000替换为--network host。 这样可以在保持仅回环绑定的安全优势的同时,使容器能够访问 127.0.0.1:18789。
工作区访问
工作区资源管理器需要访问您的本地文件。默认情况下,它会在 ~/.openclaw/workspace 查找文件。在 Docker 中,请将主机的工作区挂载到容器中的相同路径:
# 默认工作区路径(推荐)
docker run -d \
-p 3000:3000 \
-e CLAWDBOT_API_TOKEN=your-token \
-v ~/.openclaw/workspace:/root/.openclaw/workspace \
ghcr.io/luccast/crabwalk:latest
# 主机上的自定义工作区路径
docker run -d \
-p 3000:3000 \
-e CLAWDBOT_API_TOKEN=your-token \
-v /path/to/your/workspace:/root/.openclaw/workspace \
ghcr.io/luccast/crabwalk:latest
或者使用 docker-compose:
curl -O https://raw.githubusercontent.com/luccast/crabwalk/master/docker-compose.yml
CLAWDBOT_API_TOKEN=your-token docker-compose up -d
如果要使用自定义工作区路径与 docker-compose,设置 WORKSPACE_HOST_PATH 环境变量:
WORKSPACE_HOST_PATH=/path/to/your/workspace CLAWDBOT_API_TOKEN=your-token docker-compose up -d
如果网关仅
bind: loopback,则需要编辑docker-compose.yml以添加network_mode: host。
从源码编译
git clone https://github.com/luccast/crabwalk.git
cd crabwalk
npm install
CLAWDBOT_API_TOKEN=your-token npm run dev
打开 http://localhost:3000/monitor
配置
需要在同一台机器上运行 OpenClaw 网关。
网关令牌
CLI 会自动从 ~/.openclaw/openclaw.json(位于 gateway.auth.token)中检测您的令牌。本地部署无需手动配置。
如需手动查找令牌:
jq '.gateway.auth.token' ~/.openclaw/openclaw.json
或者显式设置:
crabwalk -t your-token
# 或者
export CLAWDBOT_API_TOKEN=your-token
技术栈
TanStack Start、ReactFlow、Framer Motion、tRPC、TanStack DB
版本历史
v1.0.112026/02/05v1.0.102026/02/03v1.0.92026/02/02v1.0.82026/02/02v1.0.72026/01/31v1.0.62026/01/30v1.0.52026/01/28v1.0.42026/01/27v1.0.32026/01/27v1.0.22026/01/27v1.0.12026/01/26相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备