openbrowserclaw

GitHub
587 80 非常简单 1 次阅读 昨天MITAgent插件
AI 解读 由 AI 自动生成,仅供参考

OpenBrowserClaw 是一款完全运行在浏览器中的个人 AI 助手,其核心理念是“浏览器即服务器”,无需部署任何后端基础设施。它旨在解决传统 AI 助手依赖复杂服务器配置、数据隐私难以掌控以及维护成本高的问题,让用户仅需一个浏览器标签页即可拥有私有的智能代理。

这款工具特别适合注重隐私的开发者、技术爱好者以及希望本地化运行 AI 工作流的研究人员。用户只需填入 Anthropic API 密钥,即可立即开始使用。其独特的技术亮点在于架构设计:利用 Web Worker 隔离处理复杂的 AI 推理循环,通过 IndexedDB 和 OPFS(源私有文件系统)在本地安全地存储消息与文件,甚至内置了基于 WASM 的 Alpine Linux 虚拟机沙箱。这使得 OpenBrowserClaw 不仅能进行对话,还能安全地执行 Shell 命令、操作文件系统或运行代码,同时支持通过浏览器界面或 Telegram 机器人进行交互。作为一个开源项目,它将强大的自动化能力浓缩于前端,实现了真正的零基础设施部署。

使用场景

自由开发者小林需要在没有后端服务器的情况下,快速构建一个能自动抓取竞品数据并生成日报的个人自动化工作流。

没有 openbrowserclaw 时

  • 基础设施成本高:为了运行定时爬虫和存储文件,必须租用云服务器或配置复杂的本地 Docker 环境,维护成本远超需求。
  • 数据安全顾虑:将 API 密钥和敏感业务数据托管在第三方云平台,始终担心泄露风险,且难以实现端到端的本地加密。
  • 开发流程割裂:编写脚本、调度任务(Cron)、查看日志需要在终端、编辑器和浏览器之间反复切换,上下文频繁中断。
  • 响应延迟明显:传统架构中请求需经过网络往返服务器,处理简单文本任务也常因环境冷启动而等待数秒。

使用 openbrowserclaw 后

  • 零基础设施部署:直接在浏览器标签页中运行,利用 OPFS 本地文件系统存储数据,无需任何服务器即可实现“浏览器即服务器”。
  • 极致隐私安全:所有对话历史、API 密钥及执行结果均通过 AES-256-GCM 加密存储在本地 IndexedDB 中,数据完全不出用户设备。
  • 一体化交互体验:在内置聊天窗口直接输入指令,openbrowserclaw 自动调用 WebVM 沙箱执行 Bash 命令或 JS 代码,并在同一界面实时反馈结果。
  • 即时响应执行:基于 Web Worker 的代理机制消除了网络中转延迟,结合本地 Cron 调度器,能毫秒级触发任务并流式输出分析报告。

openbrowserclaw 将复杂的后端自动化能力压缩进一个浏览器标签,让个人开发者能以零成本、高隐私的方式拥有专属的 AI 运维助手。

运行环境要求

操作系统
  • 跨平台 (任何支持现代浏览器的操作系统,包括 Linux
  • macOS
  • Windows)
GPU

不需要 GPU

内存

未说明 (取决于浏览器标签页及 WebVM 负载,通常现代浏览器环境即可)

依赖
notes该工具完全在浏览器中运行,无需后端服务器。开发阶段需要安装 Node.js 和 npm;生产环境仅需静态文件托管(如 GitHub Pages, Vercel 等)。若需使用 bash 工具,需手动下载 v86 WASM 二进制文件和 Alpine Linux 镜像并放置于 public/assets 目录。主要依赖外部 Anthropic API 服务,而非本地模型推理。
python不需要 Python
Node.js (用于开发构建)
npm
Vite
Anthropic API Key
openbrowserclaw hero image

快速开始

OpenBrowserClaw

免责声明:OpenBrowserClaw 是一个个人开源项目。它与任何加密货币、模因币、代币或社交媒体账号均无关联。如果您看到声称与此项目有关联的币种、代币或社交媒体账号,它们均属非法仿冒,且未得到作者的认可。请务必保持警惕,并自行做好研究。

基于浏览器的个人 AI 助手。无需任何基础设施——浏览器本身就是服务器。

本项目是对 NanoClaw 的纯浏览器端重构。秉承相同的理念,代码简洁易懂,专为单个用户设计,完全在浏览器标签页中运行。

快速开始

cd openbrowserclaw
npm install
npm run dev

打开 http://localhost:5173,粘贴您的 Anthropic API 密钥,即可开始聊天。

架构图

┌──────────────────────────────────────────────────────────┐
│  浏览器标签页(PWA)                                       │
│                                                          │
│  ┌──────────┐  ┌──────────┐  ┌────────────────────────┐  │
│  │ 聊天界面 │  │ 设置界面 │  │ 任务管理器           │  │
│  └────┬─────┘  └─────┬────┘  └───────┬────────────────┘  │
│       └──────────────┼───────────────┘                   │
│                      ▼                                   │
│              协调器(主线程)                  │
│              ├── 消息队列与路由                 │
│              ├── 状态机(空闲/思考/响应)         │
│              └── 任务调度器(cron)               │
│                      │                                   │
│          ┌───────────┼───────────┐                       │
│          ▼           ▼           ▼                       │
│     IndexedDB      OPFS    代理 Worker                  │
│     (消息、   (群组    (Claude API                   │
│      任务、       文件、    工具使用循环、               │
│      配置)     存储)    WebVM 沙盒)               │
│                                                          │
│  通道:                                               │
│  ├── 浏览器聊天(内置)                             │
│  └── Telegram Bot API(可选,纯 HTTPS)             │
└──────────────────────────────────────────────────────────┘

核心文件

文件 用途
src/index.ts 入口文件,启动 UI
src/orchestrator.ts 状态机、消息路由、代理调用
src/agent-worker.ts Web Worker:Claude API 工具使用循环
src/tools.ts 工具定义(bash、读写文件、fetch 等)
src/vm.ts WebVM 封装(v86 Alpine Linux 在 WASM 中)
src/db.ts IndexedDB:消息、会话、任务、配置
src/storage.ts OPFS:按群组划分的文件存储
src/router.ts 将消息路由到正确通道
src/channels/browser-chat.ts 浏览器内聊天通道
src/channels/telegram.ts Telegram Bot API 通道
src/task-scheduler.ts Cron 表达式解析
src/crypto.ts AES-256-GCM 加密用于存储凭据
src/ui/ 聊天、设置和任务管理组件

工作流程

  1. 您在浏览器聊天中输入消息(或通过 Telegram 发送)
  2. 协调器检查触发模式,保存至 IndexedDB,并加入处理队列
  3. 代理 Worker(Web Worker)将您的消息及对话历史发送至 Anthropic API
  4. Claude 回应,可能使用工具(bash、文件 I/O、fetch、JavaScript)
  5. 工具结果会循环反馈给 Claude,直到其生成最终文本回复
  6. 回复会被路由回原始通道(浏览器聊天或 Telegram)

可用工具

工具 功能
bash 在沙盒化的 Linux VM(Alpine 在 WASM 中)中执行 Shell 命令
javascript 在隔离作用域中执行 JS 代码(比 bash 更轻量)
read_file / write_file / list_files 管理 OPFS 中按群组划分的工作空间内的文件
fetch_url 通过浏览器 fetch() 进行 HTTP 请求(受 CORS 限制)
update_memory 将上下文持久化至 CLAUDE.md(每次对话都会加载)
create_task 使用 cron 表达式安排定期任务

Telegram 集成

可选功能。完全基于 HTTPS 实现,无需 WebSockets 或其他特殊协议。

  1. 在 Telegram 上使用 @BotFather 创建一个机器人
  2. 打开 OpenBrowserClaw 的设置页面,粘贴机器人 Token
  3. 向您的机器人发送 /chatid 获取聊天 ID
  4. 将聊天 ID 添加到设置中
  5. 来自 Telegram 的消息会与浏览器聊天的消息一样被处理

注意:Telegram 侧的消息会排队等待,只有当浏览器标签页处于打开状态时,机器人才会响应。一旦标签页关闭,消息处理将暂停,直到标签页重新打开。

WebVM(可选)

bash 工具会在 v86 模拟的 Alpine Linux 环境中运行命令。如需启用:

  1. 下载 v86 WASM 二进制文件和 Alpine rootfs 镜像
  2. 将它们放置在 public/assets/ 目录下:
    • public/assets/v86.wasm
    • public/assets/v86/libv86.js
    • public/assets/alpine-rootfs.ext2
  3. 第一次使用时,虚拟机会自动启动(耗时约 5–15 秒)。

如果没有这些资源,bash 工具会返回一条友好的错误提示。其他工具则无需依赖 WebVM 即可正常工作。

与 NanoClaw 的对比

特性 NanoClaw OpenBrowserClaw
运行环境 Node.js 进程 浏览器标签页
代理沙盒 Docker/Apple Container Web Worker + WebVM
数据库 SQLite (better-sqlite3) IndexedDB
文件系统 文件系统 OPFS
主要通信渠道 WhatsApp 浏览器内聊天
其他渠道 Telegram, Discord Telegram
代理 SDK Claude Agent SDK 原生 Anthropic API
后台任务 launchd 服务 setInterval(需标签页打开)
部署方式 自托管服务器 静态文件(任意 CDN)
依赖包数量 ~50 个 npm 包 运行时依赖为 0

开发指令

npm run dev        # Vite 开发服务器,支持 HMR
npm run build      # 生产构建 → dist/
npm run preview    # 预览生产构建
npm run typecheck  # TypeScript 类型检查

部署步骤

npm run build
# 将 dist/ 目录上传至任何静态托管平台:
# GitHub Pages、Cloudflare Pages、Netlify、Vercel、S3 等

无需服务器。项目仅包含 HTML、CSS 和 JS 文件。

安全性

OpenBrowserClaw 是一个概念验证项目。所有数据都保留在您的浏览器中,除了调用 Anthropic API 之外,不会向任何服务器发送数据。以下是当前安全状况的坦诚分析:

它做了什么:

  • API 密钥在静止状态下使用 AES-256-GCM 加密,并通过存储在 IndexedDB 中的不可提取 CryptoKey 进行保护。JavaScript 无法导出原始密钥材料。
  • 所有存储(IndexedDB、OPFS)均由浏览器限制为同源作用域。
  • 代理运行在 Web Worker 中,与 UI 线程分离。

它尚未做到的事情:

  • 加密可以防止一般的检查(例如开发者工具、磁盘取证),但无法抵御针对同一源的完整 XSS 攻击;如果攻击者获得了脚本执行权限,便可以直接调用加密/解密 API。
  • javascript 工具会在 Worker 中执行 eval(),而该 Worker 拥有 fetch() 的访问权限。这意味着 Claude 可以通过 JS 工具发起任意 HTTP 请求,完全不受任何 fetch_url 限制的影响。
  • 出站 HTTP 请求(无论是通过 fetch_url 还是 JS 工具)都没有用户确认步骤。
  • Telegram 机器人令牌目前以明文形式存储。

这是一个单用户本地工具,而非多租户平台。欢迎为改进安全模型贡献力量。

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160.8k|★★☆☆☆|今天
开发框架Agent语言模型

opencode

OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信

144.3k|★☆☆☆☆|3天前
Agent插件

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|昨天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像