NemoClaw

GitHub
18.5k 2.2k 中等 4 次阅读 今天Apache-2.0Agent开发框架语言模型
AI 解读 由 AI 自动生成,仅供参考

NemoClaw 是 NVIDIA 推出的一款开源参考栈,旨在简化 OpenClaw 常驻助手的运行流程。它通过集成 NVIDIA OpenShell 运行时,为自主智能体提供了额外的安全保障,有效解决了在本地环境中运行 AI 代理时面临的安全隐患问题。NemoClaw 不仅包含必要的运行时组件,还预置了 NVIDIA Nemotron 等开源模型,让用户能更快上手构建自己的智能体应用。

NemoClaw 特别适合开发者、AI 研究人员以及对智能体技术感兴趣的技术爱好者。它提供了一个沙盒化的执行环境,结合 Docker 或 Kubernetes 进行容器管理,确保了隔离性和稳定性。需要注意的是,NemoClaw 目前处于 Alpha 预览阶段,界面和 API 可能会随设计迭代而变化,尚未达到生产就绪状态。因此,它更适合作为早期实验和反馈收集的平台,帮助用户在安全的环境中探索 AI 智能体的潜力。

使用场景

某金融科技公司的高级工程师正在开发一个 7x24 小时运行的自动化交易验证助手,该助手需实时访问敏感的财务 API 并执行决策。

没有 NemoClaw 时

  • 在宿主机直接运行 Agent 导致进程权限过大,一旦模型被对抗攻击可能窃取核心财务数据。
  • 手动搭建 Docker 沙箱环境极其繁琐,常因内存不足触发 OOM Killer 导致服务意外中断。
  • 缺乏统一的推理管理框架,不同版本的 Nemotron 模型配置冲突严重,维护成本极高。
  • 网络策略难以精细控制,Agent 可能意外连接外部恶意服务器进行隐蔽的数据外传。

使用 NemoClaw 后

  • NemoClaw 通过 OpenShell 运行时提供强制隔离的沙箱,确保 Agent 无法越权访问宿主文件系统。
  • 预置优化后的容器镜像自动管理资源,有效规避低配机器上的内存溢出问题并提升稳定性。
  • 集成官方推荐的 Nemotron 模型栈,实现开箱即用的安全推理能力无需重复配置依赖库。
  • 内置安全策略网关限制网络出站流量,从底层阻断潜在的数据泄露路径并增强审计能力。

NemoClaw 通过标准化的安全沙箱方案,让开发者能安心部署高权限的自主智能体应用。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

最低 8 GB,推荐 16 GB

依赖
notes软件处于 Alpha 预览阶段(非生产就绪);macOS 需先安装 Xcode 命令行工具;依赖容器运行时(Linux 首选 Docker,macOS 推荐 Colima/Docker Desktop);支持多种推理提供商(NVIDIA Endpoints, OpenAI 等);凭据存储在主机 ~/.nemoclaw/credentials.json。
python未说明
Node.js >= 22.16
npm >= 10
Docker
OpenShell
NemoClaw hero image

快速开始

NVIDIA NemoClaw: 在 OpenShell 中运行 OpenClaw 的参考栈

License Security Policy Project Status

NVIDIA NemoClaw 是一个开源参考栈,旨在更安全地简化运行 OpenClaw 常驻助手的过程。 它安装了 NVIDIA OpenShell 运行时(属于 NVIDIA Agent Toolkit 的一部分),为运行自主代理提供额外的安全性。 它还包含开源模型,例如 NVIDIA Nemotron

Alpha 软件

NemoClaw 于 2026 年 3 月 16 日起提供早期预览。 该软件尚未准备好用于生产环境。 随着设计迭代,接口、API 和行为可能会在不另行通知的情况下发生变化。 该项目分享出来是为了收集反馈并支持早期实验。 在项目演进过程中,我们欢迎社区提出问题和讨论。


快速开始

按照以下步骤开始使用 NemoClaw 并设置您的第一个沙箱化 OpenClaw 代理。

ℹ️ 注意

NemoClaw 在接入期间会在沙箱内创建一个全新的 OpenClaw 实例。

前置条件

开始前请检查前置条件,确保您拥有运行 NemoClaw 所需的软件和硬件。

硬件

资源 最低要求 推荐配置
CPU 4 vCPU 4+ vCPU
RAM 8 GB 16 GB
Disk 20 GB free 40 GB free

沙箱镜像压缩后约为 2.4 GB。在推送镜像期间,Docker 守护进程、k3s 和 OpenShell 网关会与导出管道一起运行,后者将解压后的层缓冲在内存中。在内存小于 8 GB 的机器上,这种组合使用可能会触发 OOM killer(内存溢出杀手)。如果您无法增加内存,配置至少 8 GB 的交换空间可以绕过该问题,但代价是性能变慢。

软件

依赖项 版本
Linux Ubuntu 22.04 LTS 或更高版本
Node.js 22.16 或更高版本
npm 10 或更高版本
容器运行时 已安装并运行的受支持运行时
OpenShell 已安装

容器运行时支持

平台 支持的运行时 备注
Linux Docker 今日主要支持路径
macOS (Apple Silicon) Colima, Docker Desktop 受支持 macOS 设置的推荐运行时
macOS Podman 尚不支持。NemoClaw 目前依赖于 macOS 上 OpenShell 对 Podman 的支持。
Windows WSL Docker Desktop (WSL 后端) 受支持的目标路径

macOS 首次运行清单

在崭新的 macOS 机器上,请按以下顺序安装前置条件:

  1. 安装 Xcode Command Line Tools:

    xcode-select --install
    
  2. 安装并启动受支持的容器运行时:

    • Docker Desktop
    • Colima
  3. 运行 NemoClaw 安装程序。

这可以避免 macOS 上最常见的两个首次运行失败:

  • 缺少安装程序和 Node.js 工具链所需的开发工具
  • 未安装或运行受支持的容器运行时时的 Docker 连接错误

💡 提示

对于 DGX Spark,请遵循 DGX Spark 设置指南。它在运行标准安装程序之前涵盖了 Spark 特定的前置条件,例如 cgroup v2 和 Docker 配置。

安装 NemoClaw 并接入 OpenClaw 代理

下载并运行安装脚本。 如果尚未安装 Node.js,脚本会先安装它,然后运行引导式接入向导以创建沙箱、配置推理并应用安全策略。

curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash

如果您使用 nvm 或 fnm 管理 Node.js,安装程序可能不会更新当前 Shell 的 PATH。 如果安装后找不到 nemoclaw,请运行 source ~/.bashrc(zsh 用户则为 source ~/.zshrc)或打开新终端。

安装完成后,摘要将确认运行环境:

──────────────────────────────────────────────────
Sandbox      my-assistant (Landlock + seccomp + netns)
Model        nvidia/nemotron-3-super-120b-a12b (NVIDIA Endpoints)
──────────────────────────────────────────────────
Run:         nemoclaw my-assistant connect
Status:      nemoclaw my-assistant status
Logs:        nemoclaw my-assistant logs --follow
──────────────────────────────────────────────────

[INFO]  === Installation complete ===

与代理聊天

连接到沙箱,然后通过 TUI(文本用户界面)或 CLI(命令行界面)与代理聊天。

连接到沙箱

运行以下命令连接到沙箱:

nemoclaw my-assistant connect

这将使您连接到沙箱 Shell sandbox@my-assistant:~$,您可以在其中运行 openclaw 命令。

OpenClaw TUI

在沙箱 Shell 中,运行以下命令打开 OpenClaw TUI,它将启动交互式聊天界面。

openclaw tui

向代理发送测试消息并验证是否收到响应。

ℹ️ 注意

TUI 最适合交互式来回对话。如果您需要长响应(如大型代码生成输出)的完整文本,请使用 CLI。

OpenClaw CLI

在沙箱 Shell 中,运行以下命令发送单条消息并打印响应:

openclaw agent --agent main --local -m "hello" --session-id test

这会将完整响应直接打印在终端中,避免依赖 TUI 视图来处理长输出。

卸载

要移除 NemoClaw 及安装过程中创建的所有资源,请在沙箱外的终端中运行:

curl -fsSL https://raw.githubusercontent.com/NVIDIA/NemoClaw/refs/heads/main/uninstall.sh | bash

该脚本会移除沙箱、NemoClaw 网关和提供者、相关的 Docker 镜像和容器、本地状态目录以及全局 nemoclaw npm 包。它不会移除共享的系统工具,如 Docker、Node.js、npm 或 Ollama。

标志 效果
--yes 跳过确认提示。
--keep-openshell 保留已安装的 openshell 二进制文件。
--delete-models 同时移除 NemoClaw 拉取的 Ollama 模型。

例如,若要跳过确认提示:

curl -fsSL https://raw.githubusercontent.com/NVIDIA/NemoClaw/refs/heads/main/uninstall.sh | bash -s -- --yes

工作原理

NemoClaw 安装 NVIDIA OpenShell 运行时,然后创建一个沙箱化的 OpenClaw 环境,其中每个网络请求、文件访问和推理调用都由声明式策略管理。nemoclaw CLI (命令行界面) 编排整个堆栈:OpenShell 网关、沙箱、推理提供者和网络策略。

组件 角色
插件 用于启动、连接、状态和日志的 TypeScript CLI 命令。
蓝图 版本化的 Python 工件,用于编排沙箱创建、策略和推理设置。
沙箱 隔离的 OpenShell 容器,运行 OpenClaw,并实施策略控制的出站流量和文件系统。
推理 通过 OpenShell 网关路由的提供者模型调用,对代理透明。

蓝图的生命周期遵循四个阶段:解析工件、验证其摘要、规划资源,并通过 OpenShell CLI 应用。

当出现问题时,错误可能源自 NemoClaw 或其底层的 OpenShell 层。运行 nemoclaw <name> status 检查 NemoClaw 级别的健康状况,运行 openshell sandbox list 检查底层沙箱状态。


推理

来自代理的推理请求不会直接离开沙箱。OpenShell 拦截每个调用并将其路由到你配置期间选择的提供者。

支持的(非实验性)配置路径:

提供者 备注
NVIDIA Endpoints integrate.api.nvidia.com 上的精选托管模型。
OpenAI 精选 GPT 模型加上 Other... 用于手动输入模型。
其他 OpenAI 兼容端点 用于代理和兼容网关。
Anthropic 精选 Claude 模型加上 Other... 用于手动输入模型。
其他 Anthropic 兼容端点 用于 Claude 代理和兼容网关。
Google Gemini Google 的 OpenAI 兼容端点。

在配置期间,NemoClaw 会在创建沙箱之前验证所选的提供者和模型:

  • OpenAI 兼容提供者:先尝试 /responses,然后尝试 /chat/completions
  • Anthropic 兼容提供者:尝试 /v1/messages
  • 如果验证失败,向导会提示你在继续之前修复选择

凭据保存在主机上的 ~/.nemoclaw/credentials.json 中。沙箱只能看到路由的 inference.local 端点,看不到你的原始提供者密钥。

标准配置流程支持本地 Ollama。本地 vLLM 仍处于实验阶段,macOS 上的本地主机路由推理除了需要本地服务本身可在主机上访问外,仍依赖于 OpenShell 的主机路由支持。

主机端状态与配置

NemoClaw 将其面向操作者的状态保存在主机上,而不是沙箱内。 以下是新用户通常需要的定位的主要文件:

路径 用途
~/.nemoclaw/credentials.json 配置期间保存的提供者凭据
~/.nemoclaw/sandboxes.json 注册的沙箱元数据,包括默认沙箱选择
~/.openclaw/openclaw.json NemoClaw 在迁移流程中快照或恢复的主机 OpenClaw 配置

可选服务和本地访问的常见环境变量包括 TELEGRAM_BOT_TOKENALLOWED_CHAT_IDSCHAT_UI_URL。 对于正常的沙箱设置和重新配置,建议使用 nemoclaw onboard 而不是手动编辑这些文件。


保护层

沙箱启动时带有默认策略,控制网络出站和文件系统访问:

层级 保护内容 何时应用
网络 阻止未经授权的出站连接。 运行时热重载。
文件系统 防止在 /sandbox/tmp 之外进行读写。 沙箱创建时锁定。
进程 阻止权限提升和危险系统调用。 沙箱创建时锁定。
推理 将模型 API 调用重定向到受控后端。 运行时热重载。

当代理尝试访问未列出的主机时,OpenShell 会阻止请求并在 TUI (文本用户界面) 中显示以供操作者批准。

配置沙箱策略

沙箱策略定义在声明式的 YAML 文件中,并由 OpenShell 运行时强制执行。 NemoClaw 提供了默认策略文件 nemoclaw-blueprint/policies/openclaw-sandbox.yaml,该策略拒绝所有网络出站流量,除非明确列出了端点。

操作员可以通过以下方式自定义策略:

方法 方式 范围
静态 编辑 openclaw-sandbox.yaml 并重新运行 nemoclaw onboard 重启后持久化。
动态 在运行的沙箱上运行 openshell policy set <policy-file> 仅当前会话;重启后重置。

NemoClaw 在 nemoclaw-blueprint/policies/presets/ 中包含了用于常见集成的预设策略文件,例如 PyPI、Docker Hub、Slack 和 Jira。可以直接应用预设,或将其作为起始模板使用。

NemoClaw 是一个开源项目——我们仍在确定哪些预设将作为默认发布。如果您有建议,请提交 issue 或参与 discussion

当代理尝试访问策略未覆盖的端点时,OpenShell 会阻止请求,并在 TUI(文本用户界面)(openshell term) 中显示出来,以便操作员实时批准或拒绝。批准的端点仅在当前会话中持久化。

如需分步说明,请参阅 自定义网络策略。如需了解底层执行细节,请参阅 OpenShell 的 策略架构沙箱策略 文档。


关键命令

主机命令(nemoclaw

在主机上运行这些命令以设置、连接和管理沙箱。

命令 描述
nemoclaw onboard 交互式设置向导:网关、提供者、沙箱。
nemoclaw <name> connect 打开沙箱内的交互式 shell。
openshell term 启动 OpenShell TUI 用于监控和审批。
nemoclaw start / stop / status 管理辅助服务(Telegram 桥接、隧道)。

有关所有命令、标志和选项,请参阅完整的 CLI(命令行接口)参考


了解更多

有关 NemoClaw 的更多信息,请参阅文档。

  • 概述:了解 NemoClaw 的功能及其组成部分。
  • 工作原理:了解插件、蓝图和沙箱生命周期。
  • 架构:了解插件结构、蓝图生命周期和沙箱环境。
  • 推理配置文件:了解 NemoClaw 如何配置路由推理提供者。
  • 网络策略:了解出站控制和策略自定义。
  • CLI 命令:了解完整的命令参考。
  • 故障排除:排查常见问题及解决步骤。
  • Discord:加入社区进行提问和交流。

许可证

本项目采用 Apache License 2.0 许可。

版本历史

v0.0.2
v0.0.1
latest
v0.0.6
v0.0.5
v0.0.4
v0.0.3

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架