OpenClawInstaller
OpenClawInstaller 是专为 ClawdBot 私人 AI 助手打造的一键部署工具,旨在让用户在 macOS 或 Linux 系统上轻松搭建属于自己的智能助理。它解决了传统 AI 服务部署流程繁琐、环境配置复杂以及多模型切换困难的问题,通过自动化脚本自动检测依赖、安装核心组件并引导完成关键配置,极大降低了技术门槛。
这款工具非常适合希望拥有个性化 AI 助手的普通用户、开发者及技术研究者。无论是想通过 Telegram、微信或 Discord 等渠道接入智能对话,还是需要整合 Claude、GPT-4、Gemini 等多种大模型能力,OpenClawInstaller 都能提供直观的配置菜单和图形化管理界面(OpenClaw Manager)来辅助操作。
其技术亮点在于强大的多模型网关支持,允许用户通过自定义 API 地址灵活接入各类中转服务,并具备持久记忆、主动消息推送及基于 Markdown 的技能扩展系统。此外,它还支持本地 Ollama 部署,确保在无网络或隐私敏感场景下也能稳定运行。只需一条命令,即可启动包含实时监控与诊断功能的完整 AI 服务,让私有化大模型应用变得简单高效。
使用场景
某独立开发者希望在个人 macOS 笔记本上快速搭建一个能同时响应 Telegram 消息和飞书告警的私人 AI 助手,以便在外出时远程监控系统状态。
没有 OpenClawInstaller 时
- 环境配置繁琐:需手动安装 Node.js v22、配置全局权限及依赖库,极易因版本不兼容导致报错,耗时数小时。
- 多模型接入困难:想要切换 Claude 3.5 或本地 Ollama 模型,需分别查阅不同厂商的 API 文档并编写复杂的适配代码。
- 渠道集成割裂:连接 Telegram 和飞书需要单独编写 Bot 对接逻辑,缺乏统一的身份记忆管理,导致对话上下文断裂。
- 部署维护高风险:手动启动服务容易遗漏环境变量配置,一旦终端关闭服务即停止,无法实现稳定的后台常驻运行。
使用 OpenClawInstaller 后
- 一键自动就绪:运行单行命令即可自动检测系统、安装依赖并完成核心配置,5 分钟内完成从零基础到服务启动。
- 可视化模型切换:通过内置配置菜单可直观选择 Anthropic、OpenAI 或本地模型,支持自定义 API 地址,无缝切换推理引擎。
- 全渠道统一纳管:在图形化界面中一次性配置 Telegram 和飞书机器人,自动同步“持久记忆”,确保跨平台对话连贯一致。
- 稳定后台守护:安装脚本自动将 OpenClaw Gateway 注册为后台服务,无需担心进程意外终止,开箱即用且易于监控。
OpenClawInstaller 将原本需要半天的高门槛全栈开发工作,简化为一次简单的命令行操作,让开发者能立即专注于 AI 助手的能力构建而非底层运维。
运行环境要求
- macOS
- Linux
未说明
最低 2GB,推荐 4GB+

快速开始
🦞 OpenClaw 一键部署工具
🚀 一键部署你的私人 AI 助手 OpenClaw,支持多平台多模型配置
📖 目录
💻 系统要求
| 项目 | 要求 |
|---|---|
| 操作系统 | macOS 12+ / Ubuntu 20.04+ / Debian 11+ / CentOS 8+ |
| Node.js | v22 或更高版本 |
| 内存 | 最低 2GB,推荐 4GB+ |
| 磁盘空间 | 最低 1GB |
🚀 快速开始
🖥️ 桌面版 OpenClaw Manager(推荐)
如果你更喜欢图形界面,推荐使用 OpenClaw Manager 桌面应用:
- 🎨 现代化 UI - 基于 Tauri 2.0 + React + TypeScript + Rust 构建
- 📊 实时监控 - 仪表盘查看服务状态、内存、运行时间
- 🔧 可视化配置 - AI 模型、消息渠道一键配置
- 💻 跨平台 - 支持 macOS、Windows、Linux
👉 下载地址: github.com/miaoxworld/openclaw-manager
方式一:一键安装(命令行版)
curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/install.sh | bash
安装脚本会自动:
- 检测系统环境并安装依赖
- 安装 OpenClaw
- 引导完成核心配置(AI模型、身份信息)
- 测试 API 连接
- 自动启动 OpenClaw 服务
- 可选打开配置菜单进行详细配置(渠道等)
方式二:手动安装
# 1. 克隆仓库
git clone https://github.com/miaoxworld/OpenClawInstaller.git
cd OpenClawInstaller
# 2. 添加执行权限
chmod +x install.sh config-menu.sh
# 3. 运行安装脚本
./install.sh
#如果mac有权限问题,可以手动安装clawbot之后再运行install
npm install -g openclaw
安装完成后
安装完成后脚本会:
- 自动询问是否启动服务(推荐选择 Y)
- 后台启动 OpenClaw Gateway
- 可选打开配置菜单进行渠道配置
如果需要后续管理:
# 手动启动服务
source ~/.openclaw/env && openclaw gateway
# 后台启动服务
openclaw gateway start
# 运行配置菜单进行详细配置
bash ~/.openclaw/config-menu.sh
# 或从 GitHub 下载运行
curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/config-menu.sh | bash
✨ 功能特性
🤖 多模型支持
主流服务商:
- Anthropic Claude - claude-sonnet-4-5 / claude-opus-4-5 / claude-haiku-4-5 (支持自定义 API 地址)
- OpenAI GPT - gpt-4o / gpt-4o-mini / gpt-4-turbo (支持自定义 API 地址,需支持 v1/responses)
- Google Gemini - gemini-2.0-flash / gemini-1.5-pro / gemini-1.5-flash
多模型网关:
- OpenRouter - 多模型网关,一个 Key 用遍所有模型 (claude-sonnet-4 / gpt-4o / gemini-pro-1.5)
快速推理:
- Groq - 超快推理,llama-3.3-70b-versatile / llama-3.1-8b-instant / mixtral-8x7b
- Mistral AI - mistral-large-latest / mistral-small-latest / codestral-latest
本地部署:
- Ollama - 本地部署,无需 API Key (llama3 / llama3:70b / mistral)
💡 自定义 API 地址: Anthropic Claude 和 OpenAI GPT 都支持自定义 API 地址,可接入 OneAPI/NewAPI/API 代理等服务。配置时先输入自定义地址,再输入 API Key。
⚠️ OpenAI 中转要求: 自定义 OpenAI API 地址必须支持
v1/responses路径(OpenAI Responses API),不仅仅是传统的v1/chat/completions。请确认您的中转服务已支持此接口。
📱 多渠道接入
- Telegram Bot
- Discord Bot
- Slack
- 微信 (WeChat)
- iMessage (仅 macOS)
- 飞书 (Feishu)
🧪 快速测试
- API 连接测试
- 渠道连接验证
- OpenClaw 诊断工具
🧠 核心能力
- 持久记忆 - 跨对话、跨平台的长期记忆
- 主动推送 - 定时提醒、晨报、告警通知
- 技能系统 - 通过 Markdown 文件定义自定义能力
- 远程控制 - 可执行系统命令、读写文件、浏览网络
⚙️ 详细配置
配置 AI 模型
运行配置菜单后选择 [2] AI 模型配置,可选择多种 AI 提供商:
Anthropic Claude 配置
- 在配置菜单中选择 Anthropic Claude
- 先输入自定义 API 地址(留空使用官方 API)
- 输入 API Key(官方 Key 从 Anthropic Console 获取)
- 选择模型(推荐 claude-sonnet-4-5-20250929)
💡 支持 OneAPI/NewAPI 等第三方代理服务,只需填入对应的 API 地址和 Key
OpenAI GPT 配置
- 在配置菜单中选择 OpenAI GPT
- 先输入自定义 API 地址(留空使用官方 API)
- 输入 API Key(官方 Key 从 OpenAI Platform 获取)
- 选择模型
⚠️ 中转服务要求: 如使用自定义 API 地址,中转服务必须支持 OpenAI 的 Responses API (
v1/responses路径),而非仅支持传统的 Chat Completions API (v1/chat/completions)。部分老旧或功能不全的中转服务可能不支持此接口,请提前确认。
💡 其他模型: 配置菜单还支持 Google Gemini、OpenRouter、Groq、Mistral AI、Ollama 等,按菜单提示操作即可。
配置 Telegram 机器人
- 在 Telegram 中搜索
@BotFather - 发送
/newbot创建新机器人 - 设置机器人名称和用户名
- 复制获得的 Bot Token
- 搜索
@userinfobot获取你的 User ID - 在配置菜单中选择 Telegram,输入以上信息
配置 Discord 机器人
第一步:创建 Discord 应用和机器人
- 访问 Discord Developer Portal
- 点击 "New Application" 创建新应用
- 进入应用后,点击左侧 "Bot" 菜单
- 点击 "Reset Token" 生成并复制 Bot Token
- ⚠️ 开启 "Message Content Intent"(重要!否则无法读取消息内容)
第二步:邀请机器人到服务器
- 点击左侧 "OAuth2" → "URL Generator"
- Scopes 勾选:
bot - Bot Permissions 至少勾选:
- View Channels(查看频道)
- Send Messages(发送消息)
- Read Message History(读取消息历史)
- 复制生成的 URL,在浏览器打开并选择服务器
- 确保机器人在目标频道有权限
第三步:获取频道 ID
- 打开 Discord 客户端,进入 "用户设置" → "高级"
- 开启 "开发者模式"
- 右键点击你想让机器人响应的频道
- 点击 "复制频道 ID"
第四步:在配置菜单中配置
在配置菜单中选择 Discord,输入 Bot Token 和 Channel ID
配置飞书机器人
📖 详细文档: 查看 飞书机器人配置指南 获取完整的配置说明和常见问题解答。
💡 无需公网服务器:OpenClaw 使用飞书的 WebSocket 长连接模式接收事件,无需配置 Webhook 地址。
- 访问 飞书开放平台
- 创建企业自建应用(个人账号即可,无需企业认证)
- 添加机器人能力:
- 进入路径:开发者后台 → 应用详情 → 添加应用能力
- 确认:确保"机器人"开关是打开状态
- 获取 App ID 和 App Secret
- 在"权限管理"中添加权限:
im:message(收发消息)im:message:send_as_bot(发送消息)im:chat:readonly(读取会话信息)
- 发布应用:版本管理与发布 → 创建版本 → 发布
- 在配置菜单中配置飞书:输入 App ID 和 App Secret,启动 OpenClaw 服务
- 配置"事件订阅"(使用长连接):
- 进入:事件与回调 → 选择「使用长连接接收事件」
- 添加事件:
im.message.receive_v1(接收消息) - 无需填写 Webhook 地址
- ⚠️ 注意:需要 OpenClaw 服务已启动,才能保存长连接设置
- 添加机器人到群组:群设置 → 群机器人 → 添加机器人
配置 WhatsApp
💡 无需 Business API:OpenClaw 通过扫码登录你的 WhatsApp 账号,无需申请 Business API。
- 在配置菜单中选择
[3] 消息渠道配置→[3] WhatsApp - 系统会自动启用 WhatsApp 插件
- 扫描终端显示的二维码完成登录
- 登录成功后重启 Gateway 使配置生效
- 测试:用自己的 WhatsApp 给自己发消息即可触发机器人回复
⚠️ 注意:WhatsApp 账号只能在一个设备上登录 Web 版,配置后原有的 WhatsApp Web 会被踢下线。
📝 常用命令
服务管理
# 启动服务(后台守护进程)
openclaw gateway start
# 停止服务
openclaw gateway stop
# 重启服务
openclaw gateway restart
# 查看服务状态
openclaw gateway status
# 前台运行(用于调试)
openclaw gateway
# 查看日志
openclaw logs
# 实时日志
openclaw logs --follow
配置管理
# 打开配置文件
openclaw config
# 运行配置向导
openclaw onboard
# 诊断配置问题
openclaw doctor
# 健康检查
openclaw health
数据管理
# 导出对话历史
openclaw export --format json
# 清理记忆
openclaw memory clear
# 备份数据
openclaw backup
📋 配置说明
OpenClaw 使用以下配置方式:
- 环境变量:
~/.openclaw/env- 存储 API Key 和 Base URL - OpenClaw 配置:
~/.openclaw/openclaw.json- OpenClaw 内部配置(自动管理) - 命令行工具:
openclaw config set/openclaw models set等
💡 注意:配置主要通过安装向导或
config-menu.sh完成,无需手动编辑配置文件
环境变量配置示例
~/.openclaw/env 文件内容:
# OpenClaw 环境变量配置
export ANTHROPIC_API_KEY=sk-ant-xxxxx
export ANTHROPIC_BASE_URL=https://your-api-proxy.com # 可选,自定义 API 地址
# 或者 OpenAI
export OPENAI_API_KEY=sk-xxxxx
export OPENAI_BASE_URL=https://your-api-proxy.com/v1 # 可选
自定义 Provider 配置
当使用自定义 API 地址时,安装脚本会自动在 ~/.openclaw/openclaw.json 中配置自定义 Provider:
{
"models": {
"providers": {
"anthropic-custom": {
"baseUrl": "https://your-api-proxy.com",
"apiKey": "your-api-key",
"models": [
{
"id": "claude-sonnet-4-5-20250929",
"name": "claude-sonnet-4-5-20250929",
"api": "anthropic-messages",
"input": ["text"],
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}
目录结构
~/.openclaw/
├── openclaw.json # OpenClaw 核心配置
├── env # 环境变量 (API Key 等)
├── backups/ # 配置备份
└── logs/ # 日志文件 (由 OpenClaw 管理)
🛡️ 安全建议
⚠️ 重要警告:OpenClaw 需要完全的计算机权限,请务必注意安全!
部署建议
- 不要在主工作电脑上部署 - 建议使用专用服务器或虚拟机
- 使用 AWS/GCP/Azure 免费实例 - 隔离环境更安全
- Docker 部署 - 提供额外的隔离层
权限控制
禁用危险功能(默认已禁用)
security: enable_shell_commands: false enable_file_access: false启用沙箱模式
security: sandbox_mode: true限制允许的用户
channels: telegram: allowed_users: - "only-your-user-id"
API Key 安全
- 定期轮换 API Key
- 不要在公开仓库中提交配置文件
- 使用环境变量存储敏感信息
# 使用环境变量
export ANTHROPIC_API_KEY="sk-ant-xxx"
export TELEGRAM_BOT_TOKEN="xxx"
❓ 常见问题
Q: 安装时提示 Node.js 版本过低?
# macOS
brew install node@22
brew link --overwrite node@22
# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs
Q: 启动后无法连接?
- 检查配置文件是否正确
- 运行诊断命令:
openclaw doctor - 查看日志:
openclaw logs
Q: Telegram 机器人没有响应?
- 确认 Bot Token 正确
- 确认 User ID 在 allowed_users 列表中
- 检查网络连接(可能需要代理)
Q: 如何更新到最新版本?
# 使用 npm 更新
npm update -g openclaw
# 或使用配置菜单
./config-menu.sh
# 选择 [7] 高级设置 → [7] 更新 OpenClaw
Q: 如何备份数据?
# 手动备份
cp -r ~/.openclaw ~/openclaw_backup_$(date +%Y%m%d)
# 使用命令备份
openclaw backup
Q: 如何完全卸载?
# 停止服务
openclaw gateway stop
# 卸载程序
npm uninstall -g openclaw
# 删除配置(可选)
rm -rf ~/.openclaw
📜 更新日志
v1.0.0 (2026-01-29)
- 🎉 首次发布
- ✨ 支持一键安装部署
- ✨ 交互式配置菜单
- ✨ 多模型支持 (Claude/GPT/Ollama)
- ✨ 多渠道支持 (Telegram/Discord/WhatsApp)
- ✨ 技能系统
- ✨ 安全配置
📄 许可证
本项目基于 MIT 许可证开源。
🔗 相关链接
- OpenClaw 官网
- 官方文档
- 🖥️ OpenClaw Manager 桌面版 - 图形界面管理工具
- 安装工具仓库 - 命令行版本
- OpenClaw 主仓库
- 社区讨论
Made with ❤️ by miaoxworld
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备