OpenClawInstaller

GitHub
3.3k 465 简单 1 次阅读 今天语言模型Agent插件
AI 解读 由 AI 自动生成,仅供参考

OpenClawInstaller 是专为 ClawdBot 私人 AI 助手打造的一键部署工具,旨在让用户在 macOS 或 Linux 系统上轻松搭建属于自己的智能助理。它解决了传统 AI 服务部署流程繁琐、环境配置复杂以及多模型切换困难的问题,通过自动化脚本自动检测依赖、安装核心组件并引导完成关键配置,极大降低了技术门槛。

这款工具非常适合希望拥有个性化 AI 助手的普通用户、开发者及技术研究者。无论是想通过 Telegram、微信或 Discord 等渠道接入智能对话,还是需要整合 Claude、GPT-4、Gemini 等多种大模型能力,OpenClawInstaller 都能提供直观的配置菜单和图形化管理界面(OpenClaw Manager)来辅助操作。

其技术亮点在于强大的多模型网关支持,允许用户通过自定义 API 地址灵活接入各类中转服务,并具备持久记忆、主动消息推送及基于 Markdown 的技能扩展系统。此外,它还支持本地 Ollama 部署,确保在无网络或隐私敏感场景下也能稳定运行。只需一条命令,即可启动包含实时监控与诊断功能的完整 AI 服务,让私有化大模型应用变得简单高效。

使用场景

某独立开发者希望在个人 macOS 笔记本上快速搭建一个能同时响应 Telegram 消息和飞书告警的私人 AI 助手,以便在外出时远程监控系统状态。

没有 OpenClawInstaller 时

  • 环境配置繁琐:需手动安装 Node.js v22、配置全局权限及依赖库,极易因版本不兼容导致报错,耗时数小时。
  • 多模型接入困难:想要切换 Claude 3.5 或本地 Ollama 模型,需分别查阅不同厂商的 API 文档并编写复杂的适配代码。
  • 渠道集成割裂:连接 Telegram 和飞书需要单独编写 Bot 对接逻辑,缺乏统一的身份记忆管理,导致对话上下文断裂。
  • 部署维护高风险:手动启动服务容易遗漏环境变量配置,一旦终端关闭服务即停止,无法实现稳定的后台常驻运行。

使用 OpenClawInstaller 后

  • 一键自动就绪:运行单行命令即可自动检测系统、安装依赖并完成核心配置,5 分钟内完成从零基础到服务启动。
  • 可视化模型切换:通过内置配置菜单可直观选择 Anthropic、OpenAI 或本地模型,支持自定义 API 地址,无缝切换推理引擎。
  • 全渠道统一纳管:在图形化界面中一次性配置 Telegram 和飞书机器人,自动同步“持久记忆”,确保跨平台对话连贯一致。
  • 稳定后台守护:安装脚本自动将 OpenClaw Gateway 注册为后台服务,无需担心进程意外终止,开箱即用且易于监控。

OpenClawInstaller 将原本需要半天的高门槛全栈开发工作,简化为一次简单的命令行操作,让开发者能立即专注于 AI 助手的能力构建而非底层运维。

运行环境要求

操作系统
  • macOS
  • Linux
GPU

未说明

内存

最低 2GB,推荐 4GB+

依赖
notes1. 该工具主要基于 Node.js 运行,需安装 v22 或更高版本,无需 Python 环境。 2. 支持 macOS 12+、Ubuntu 20.04+、Debian 11+、CentOS 8+,README 中桌面版提及支持 Windows,但命令行安装脚本主要针对 Unix-like 系统。 3. 若使用本地模型(如 Ollama),需额外满足对应模型的硬件要求。 4. 配置 OpenAI 自定义中转地址时,必须支持 v1/responses 接口。 5. WhatsApp 渠道通过扫码登录,会踢掉原设备的 WhatsApp Web 会话。
python未说明
Node.js v22+
openclaw (npm 包)
Tauri 2.0 (桌面版可选)
React (桌面版可选)
TypeScript (桌面版可选)
Rust (桌面版可选)
OpenClawInstaller hero image

快速开始

🦞 OpenClaw 一键部署工具

版本 平台 许可证

🚀 一键部署你的私人 AI 助手 OpenClaw,支持多平台多模型配置

OpenClaw 配置中心

📖 目录

💻 系统要求

项目 要求
操作系统 macOS 12+ / Ubuntu 20.04+ / Debian 11+ / CentOS 8+
Node.js v22 或更高版本
内存 最低 2GB,推荐 4GB+
磁盘空间 最低 1GB

🚀 快速开始

🖥️ 桌面版 OpenClaw Manager(推荐)

如果你更喜欢图形界面,推荐使用 OpenClaw Manager 桌面应用:

下载

  • 🎨 现代化 UI - 基于 Tauri 2.0 + React + TypeScript + Rust 构建
  • 📊 实时监控 - 仪表盘查看服务状态、内存、运行时间
  • 🔧 可视化配置 - AI 模型、消息渠道一键配置
  • 💻 跨平台 - 支持 macOS、Windows、Linux

👉 下载地址: github.com/miaoxworld/openclaw-manager


方式一:一键安装(命令行版)

curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/install.sh | bash

安装脚本会自动:

  1. 检测系统环境并安装依赖
  2. 安装 OpenClaw
  3. 引导完成核心配置(AI模型、身份信息)
  4. 测试 API 连接
  5. 自动启动 OpenClaw 服务
  6. 可选打开配置菜单进行详细配置(渠道等)

方式二:手动安装

# 1. 克隆仓库
git clone https://github.com/miaoxworld/OpenClawInstaller.git
cd OpenClawInstaller

# 2. 添加执行权限
chmod +x install.sh config-menu.sh

# 3. 运行安装脚本
./install.sh

#如果mac有权限问题,可以手动安装clawbot之后再运行install
npm install -g openclaw

安装完成后

安装完成后脚本会:

  1. 自动询问是否启动服务(推荐选择 Y)
  2. 后台启动 OpenClaw Gateway
  3. 可选打开配置菜单进行渠道配置

如果需要后续管理:

# 手动启动服务
source ~/.openclaw/env && openclaw gateway

# 后台启动服务
openclaw gateway start

# 运行配置菜单进行详细配置
bash ~/.openclaw/config-menu.sh

# 或从 GitHub 下载运行
curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/config-menu.sh | bash

✨ 功能特性

🤖 多模型支持

AI 模型配置

主流服务商:

  • Anthropic Claude - claude-sonnet-4-5 / claude-opus-4-5 / claude-haiku-4-5 (支持自定义 API 地址)
  • OpenAI GPT - gpt-4o / gpt-4o-mini / gpt-4-turbo (支持自定义 API 地址,需支持 v1/responses)
  • Google Gemini - gemini-2.0-flash / gemini-1.5-pro / gemini-1.5-flash

多模型网关:

  • OpenRouter - 多模型网关,一个 Key 用遍所有模型 (claude-sonnet-4 / gpt-4o / gemini-pro-1.5)

快速推理:

  • Groq - 超快推理,llama-3.3-70b-versatile / llama-3.1-8b-instant / mixtral-8x7b
  • Mistral AI - mistral-large-latest / mistral-small-latest / codestral-latest

本地部署:

  • Ollama - 本地部署,无需 API Key (llama3 / llama3:70b / mistral)

💡 自定义 API 地址: Anthropic Claude 和 OpenAI GPT 都支持自定义 API 地址,可接入 OneAPI/NewAPI/API 代理等服务。配置时先输入自定义地址,再输入 API Key。

⚠️ OpenAI 中转要求: 自定义 OpenAI API 地址必须支持 v1/responses 路径(OpenAI Responses API),不仅仅是传统的 v1/chat/completions。请确认您的中转服务已支持此接口。

📱 多渠道接入

消息渠道配置

  • Telegram Bot
  • Discord Bot
  • WhatsApp
  • Slack
  • 微信 (WeChat)
  • iMessage (仅 macOS)
  • 飞书 (Feishu)

🧪 快速测试

快速测试

  • API 连接测试
  • 渠道连接验证
  • OpenClaw 诊断工具

🧠 核心能力

  • 持久记忆 - 跨对话、跨平台的长期记忆
  • 主动推送 - 定时提醒、晨报、告警通知
  • 技能系统 - 通过 Markdown 文件定义自定义能力
  • 远程控制 - 可执行系统命令、读写文件、浏览网络

⚙️ 详细配置

配置 AI 模型

运行配置菜单后选择 [2] AI 模型配置,可选择多种 AI 提供商:

AI 模型配置界面

Anthropic Claude 配置

  1. 在配置菜单中选择 Anthropic Claude
  2. 先输入自定义 API 地址(留空使用官方 API)
  3. 输入 API Key(官方 Key 从 Anthropic Console 获取)
  4. 选择模型(推荐 claude-sonnet-4-5-20250929)

💡 支持 OneAPI/NewAPI 等第三方代理服务,只需填入对应的 API 地址和 Key

OpenAI GPT 配置

  1. 在配置菜单中选择 OpenAI GPT
  2. 先输入自定义 API 地址(留空使用官方 API)
  3. 输入 API Key(官方 Key 从 OpenAI Platform 获取)
  4. 选择模型

⚠️ 中转服务要求: 如使用自定义 API 地址,中转服务必须支持 OpenAI 的 Responses API (v1/responses 路径),而非仅支持传统的 Chat Completions API (v1/chat/completions)。部分老旧或功能不全的中转服务可能不支持此接口,请提前确认。

💡 其他模型: 配置菜单还支持 Google Gemini、OpenRouter、Groq、Mistral AI、Ollama 等,按菜单提示操作即可。

配置 Telegram 机器人

  1. 在 Telegram 中搜索 @BotFather
  2. 发送 /newbot 创建新机器人
  3. 设置机器人名称和用户名
  4. 复制获得的 Bot Token
  5. 搜索 @userinfobot 获取你的 User ID
  6. 在配置菜单中选择 Telegram,输入以上信息

配置 Discord 机器人

第一步:创建 Discord 应用和机器人

  1. 访问 Discord Developer Portal
  2. 点击 "New Application" 创建新应用
  3. 进入应用后,点击左侧 "Bot" 菜单
  4. 点击 "Reset Token" 生成并复制 Bot Token
  5. ⚠️ 开启 "Message Content Intent"(重要!否则无法读取消息内容)

第二步:邀请机器人到服务器

  1. 点击左侧 "OAuth2" → "URL Generator"
  2. Scopes 勾选:bot
  3. Bot Permissions 至少勾选:
    • View Channels(查看频道)
    • Send Messages(发送消息)
    • Read Message History(读取消息历史)
  4. 复制生成的 URL,在浏览器打开并选择服务器
  5. 确保机器人在目标频道有权限

第三步:获取频道 ID

  1. 打开 Discord 客户端,进入 "用户设置" → "高级"
  2. 开启 "开发者模式"
  3. 右键点击你想让机器人响应的频道
  4. 点击 "复制频道 ID"

第四步:在配置菜单中配置

在配置菜单中选择 Discord,输入 Bot Token 和 Channel ID

配置飞书机器人

📖 详细文档: 查看 飞书机器人配置指南 获取完整的配置说明和常见问题解答。

💡 无需公网服务器:OpenClaw 使用飞书的 WebSocket 长连接模式接收事件,无需配置 Webhook 地址。

  1. 访问 飞书开放平台
  2. 创建企业自建应用(个人账号即可,无需企业认证)
  3. 添加机器人能力
    • 进入路径:开发者后台 → 应用详情 → 添加应用能力
    • 确认:确保"机器人"开关是打开状态
  4. 获取 App IDApp Secret
  5. 在"权限管理"中添加权限:
    • im:message (收发消息)
    • im:message:send_as_bot (发送消息)
    • im:chat:readonly (读取会话信息)
  6. 发布应用:版本管理与发布 → 创建版本 → 发布
  7. 在配置菜单中配置飞书:输入 App ID 和 App Secret,启动 OpenClaw 服务
  8. 配置"事件订阅"(使用长连接):
    • 进入:事件与回调 → 选择「使用长连接接收事件
    • 添加事件:im.message.receive_v1(接收消息)
    • 无需填写 Webhook 地址
    • ⚠️ 注意:需要 OpenClaw 服务已启动,才能保存长连接设置
  9. 添加机器人到群组:群设置 → 群机器人 → 添加机器人

配置 WhatsApp

💡 无需 Business API:OpenClaw 通过扫码登录你的 WhatsApp 账号,无需申请 Business API。

  1. 在配置菜单中选择 [3] 消息渠道配置[3] WhatsApp
  2. 系统会自动启用 WhatsApp 插件
  3. 扫描终端显示的二维码完成登录
  4. 登录成功后重启 Gateway 使配置生效
  5. 测试:用自己的 WhatsApp 给自己发消息即可触发机器人回复

⚠️ 注意:WhatsApp 账号只能在一个设备上登录 Web 版,配置后原有的 WhatsApp Web 会被踢下线。

📝 常用命令

服务管理

# 启动服务(后台守护进程)
openclaw gateway start

# 停止服务
openclaw gateway stop

# 重启服务
openclaw gateway restart

# 查看服务状态
openclaw gateway status

# 前台运行(用于调试)
openclaw gateway

# 查看日志
openclaw logs

# 实时日志
openclaw logs --follow

配置管理

# 打开配置文件
openclaw config

# 运行配置向导
openclaw onboard

# 诊断配置问题
openclaw doctor

# 健康检查
openclaw health

数据管理

# 导出对话历史
openclaw export --format json

# 清理记忆
openclaw memory clear

# 备份数据
openclaw backup

📋 配置说明

OpenClaw 使用以下配置方式:

  • 环境变量: ~/.openclaw/env - 存储 API Key 和 Base URL
  • OpenClaw 配置: ~/.openclaw/openclaw.json - OpenClaw 内部配置(自动管理)
  • 命令行工具: openclaw config set / openclaw models set

💡 注意:配置主要通过安装向导或 config-menu.sh 完成,无需手动编辑配置文件

环境变量配置示例

~/.openclaw/env 文件内容:

# OpenClaw 环境变量配置
export ANTHROPIC_API_KEY=sk-ant-xxxxx
export ANTHROPIC_BASE_URL=https://your-api-proxy.com  # 可选,自定义 API 地址

# 或者 OpenAI
export OPENAI_API_KEY=sk-xxxxx
export OPENAI_BASE_URL=https://your-api-proxy.com/v1  # 可选

自定义 Provider 配置

当使用自定义 API 地址时,安装脚本会自动在 ~/.openclaw/openclaw.json 中配置自定义 Provider:

{
  "models": {
    "providers": {
      "anthropic-custom": {
        "baseUrl": "https://your-api-proxy.com",
        "apiKey": "your-api-key",
        "models": [
          {
            "id": "claude-sonnet-4-5-20250929",
            "name": "claude-sonnet-4-5-20250929",
            "api": "anthropic-messages",
            "input": ["text"],
            "contextWindow": 200000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

目录结构

~/.openclaw/
├── openclaw.json        # OpenClaw 核心配置
├── env                  # 环境变量 (API Key 等)
├── backups/             # 配置备份
└── logs/                # 日志文件 (由 OpenClaw 管理)

🛡️ 安全建议

⚠️ 重要警告:OpenClaw 需要完全的计算机权限,请务必注意安全!

部署建议

  1. 不要在主工作电脑上部署 - 建议使用专用服务器或虚拟机
  2. 使用 AWS/GCP/Azure 免费实例 - 隔离环境更安全
  3. Docker 部署 - 提供额外的隔离层

权限控制

  1. 禁用危险功能(默认已禁用)

    security:
      enable_shell_commands: false
      enable_file_access: false
    
  2. 启用沙箱模式

    security:
      sandbox_mode: true
    
  3. 限制允许的用户

    channels:
      telegram:
        allowed_users:
          - "only-your-user-id"
    

API Key 安全

  • 定期轮换 API Key
  • 不要在公开仓库中提交配置文件
  • 使用环境变量存储敏感信息
# 使用环境变量
export ANTHROPIC_API_KEY="sk-ant-xxx"
export TELEGRAM_BOT_TOKEN="xxx"

❓ 常见问题

Q: 安装时提示 Node.js 版本过低?

# macOS
brew install node@22
brew link --overwrite node@22

# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs

Q: 启动后无法连接?

  1. 检查配置文件是否正确
  2. 运行诊断命令:openclaw doctor
  3. 查看日志:openclaw logs

Q: Telegram 机器人没有响应?

  1. 确认 Bot Token 正确
  2. 确认 User ID 在 allowed_users 列表中
  3. 检查网络连接(可能需要代理)

Q: 如何更新到最新版本?

# 使用 npm 更新
npm update -g openclaw

# 或使用配置菜单
./config-menu.sh
# 选择 [7] 高级设置 → [7] 更新 OpenClaw

Q: 如何备份数据?

# 手动备份
cp -r ~/.openclaw ~/openclaw_backup_$(date +%Y%m%d)

# 使用命令备份
openclaw backup

Q: 如何完全卸载?

# 停止服务
openclaw gateway stop

# 卸载程序
npm uninstall -g openclaw

# 删除配置(可选)
rm -rf ~/.openclaw

📜 更新日志

v1.0.0 (2026-01-29)

  • 🎉 首次发布
  • ✨ 支持一键安装部署
  • ✨ 交互式配置菜单
  • ✨ 多模型支持 (Claude/GPT/Ollama)
  • ✨ 多渠道支持 (Telegram/Discord/WhatsApp)
  • ✨ 技能系统
  • ✨ 安全配置

📄 许可证

本项目基于 MIT 许可证开源。

🔗 相关链接


Made with ❤️ by miaoxworld

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|3天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|2天前
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|昨天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent