GTC 2026 最后一天,老黄扔了个 NemoClaw 出来,我连夜装上试了一下

67 阅读1分钟

GTC 大会年年都有大新闻,但今年让我最坐不住的不是 Vera Rubin GPU(买不起),也不是 DLSS 5(不做游戏),而是一个叫 NemoClaw 的开源项目——简单说就是 NVIDIA 官方给 OpenClaw 套了一层企业级安全壳,还塞了个 120B 参数的本地大模型进去。

作为一个 OpenClaw 的老用户,看到这个消息我直接从 GTC 直播切到了终端。

先说结论

对比项原版 OpenClawNemoClaw
模型需要自己配 API(Cloud)内置 Nemotron 120B,本地推理
安全隔离基本没有,agent 能访问整个系统Landlock + seccomp + netns 三重沙箱
安装手动装依赖,配 API Key一行命令搞定
硬件要求一台能上网的电脑4 vCPU / 8GB RAM(最低),跑本地模型建议 RTX 4090+
Token 费用按量付费本地推理零成本
适合谁个人玩家有 GPU 的团队 / 对数据隐私有要求的场景

NemoClaw 是什么

如果你还没玩过 OpenClaw,简单介绍一下:它是今年最火的开源 AI Agent 框架,可以部署一个 7×24 运行的个人 AI 助手,能帮你发消息、管日程、写代码、操作各种 SaaS 工具。GitHub 上 star 数早就破万了。

但 OpenClaw 有个致命问题——安全性。你的 agent 跑在你的电脑上,理论上能访问你的文件系统、网络、甚至 SSH key。之前社区还爆出过 ClawJacked 漏洞(CVE),恶意 Skills 可以窃取用户数据。

NemoClaw 就是 NVIDIA 在 GTC 2026 上发布的解决方案:

  1. OpenShell 运行时:把 agent 关进 Landlock + seccomp + netns 三重沙箱,网络隔离、文件系统隔离、系统调用过滤,一个都不少
  2. Nemotron 本地模型:内置 nemotron-3-super-120b-a12b(120B 参数,12B 激活的 MoE 架构),本地跑推理,数据不出机器
  3. 一键安装:一条命令连 Node.js 都帮你装好

实际安装体验

系统要求

  • Linux(Ubuntu 22.04+)
  • 4 vCPU / 8GB RAM(最低配置)
  • 20GB 硬盘空间
  • Docker(需要跑起来)

如果要跑本地 Nemotron 模型,显存至少要 24GB(RTX 4090 或更好)。没有独显的话,也可以接云端 API。

一行命令安装

curl -fsSL https://nvidia.com/nemoclaw.sh | bash

跑完之后会弹出一个交互式向导,让你选:

  • 沙箱名称(随便取)
  • 推理模式(本地 Nemotron / NVIDIA Cloud API / 自定义 endpoint)
  • 安全策略(网络权限、文件访问范围)

装完输出长这样:

Sandbox      my-assistant (Landlock + seccomp + netns)
Model        nvidia/nemotron-3-super-120b-a12b (NVIDIA Cloud API)
Status:      nemoclaw my-assistant status
Logs:        nemoclaw my-assistant logs --follow

连接沙箱

nemoclaw my-assistant connect

进去之后就是一个隔离环境,跑 OpenClaw 的命令跟原来一样:

# 终端聊天
sandbox@my-assistant:~$ openclaw agent --agent main --local -m "帮我看看今天的 GitHub notifications" --session-id test

# 或者用 TUI 界面
sandbox@my-assistant:~$ openclaw tui

踩坑记录

坑 1:Docker 版本问题

我的 Docker 是 24.x,跑安装脚本直接报错:

Error: Docker version 26.0+ required for Landlock support

升级到 Docker 27.x 解决。这个在官方文档里写了,但谁会先看文档呢。

坑 2:本地模型下载巨慢

Nemotron 120B 模型虽然是 MoE 架构(只有 12B 激活参数),但模型文件还是有 60 多 GB。走 NVIDIA 官方源下载贼慢,我最后找了个 HuggingFace 的镜像才搞定:

# 安装向导里选 "Custom model path"
# 提前用 huggingface-cli 下载到本地
huggingface-cli download nvidia/nemotron-3-super-120b-a12b --local-dir ./models/

坑 3:没有好 GPU?用云端 API 也行

说实话,大多数人(包括我)不会为了跑一个 AI Agent 去买一块 RTX 4090。NemoClaw 安装向导里有个 "Custom inference endpoint" 选项,可以填任意兼容 OpenAI 协议的 API 地址。

我试了一下,把 endpoint 指向一个 API 聚合服务,改几行配置就行:

{
  "inference": {
    "provider": "custom",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "你的 key",
    "model": "claude-sonnet-4-6"
  }
}

这样 NemoClaw 的安全沙箱功能照用,模型推理走云端,两全其美。我个人比较推荐这种方案——毕竟 NemoClaw 最大的价值不是本地推理,而是那套 Landlock + seccomp 的安全隔离。

跟原版 OpenClaw 对比使用感受

跑了两天下来,说说真实感受:

安全感拉满了。以前用 OpenClaw 总是心里犯嘀咕——这个 agent 是不是在偷偷读我的 .ssh/ 目录?NemoClaw 的沙箱是真隔离,ls /home/ 只能看到沙箱内的文件,想访问外部文件系统必须显式声明权限。

性能略有损耗。沙箱隔离不是免费的,每次 agent 调用外部工具都要过一层 seccomp 过滤。实测延迟大概增加 50-80ms,日常使用感知不明显。

Skills 兼容性还行。大部分 OpenClaw 的 Skills 直接能用,但涉及到文件系统操作的 Skill(比如自动备份、文件管理类的)需要额外配置权限白名单。

谁需要 NemoClaw?

不建议的情况

  • 个人玩票,原版 OpenClaw 够用了
  • 没有 Linux 服务器(目前只支持 Linux)
  • 纯跑 Cloud API,不在意本地安全性

强烈建议的情况

  • 公司/团队部署 AI Agent(数据合规要求)
  • 有 NVIDIA GPU,想省 token 费用跑本地模型
  • 之前被 OpenClaw 安全漏洞吓到了的人
  • 需要多个 agent 并行跑,沙箱隔离防止互相干扰

小结

GTC 每年发一堆东西,大部分跟普通开发者没什么关系。但 NemoClaw 不一样——它解决的是 AI Agent 落地最头疼的安全问题,而且是真开源、真能用。

如果你已经在用 OpenClaw,花 10 分钟迁移到 NemoClaw 是值得的。如果你还没用过 OpenClaw,NemoClaw 反而是个更好的入坑姿势——至少不用担心你的 agent 哪天把你的 SSH key 发到 Discord 上去。

老黄难得做个对独立开发者友好的东西,这次得给个好评 👍