#NemoClaw

meng shao
3小时前
NVIDIA NemoClaw:NVIDIA 为 OpenClaw 打造的安全插件,在本地搭建沙箱环境,让 Agent 24*7 自主运行的同时,用策略管控其网络、文件、进程和推理调用。 NemoClaw 有什么用? OpenClaw 正在成为个人 AI 的"操作系统",一个始终在线、能自我进化的自主助手。但自主性越强,安全风险越大:Agent 可能访问不该访问的网络、读写敏感文件、调用未授权的模型。NemoClaw 要解决的核心问题是:不牺牲自主性,给 Agent 加上可控的安全边界。 做法是引入 NVIDIA OpenShell 运行时,用声明式策略管控 Agent 的一切外部交互。 架构四件套 · Plugin:TypeScript CLI,用户直接操作的入口——启动、连接、查状态、看日志 · Blueprint:版本化的 Python 制品,编排沙箱创建、策略应用和推理配置。生命周期四步走:解析制品 → 校验摘要 → 规划资源 → 应用部署,借鉴了 IaC 的思路 · Sandbox:受策略约束的 OpenShell 容器,OpenClaw 的实际运行环境 · Inference:所有模型调用经 OpenShell 网关中转,Agent 本身无法直接外连 四层防护 · 网络层:阻断未授权出站连接,运行时可热加载白名单 · 文件系统层:读写范围锁定在 /sandbox 和 /tmp,沙箱创建时固化 · 进程层:阻止提权和危险系统调用,沙箱创建时固化 · 推理层:模型 API 调用重定向到受控后端,运行时可热加载 底层隔离技术栈:Landlock(文件访问控制)+ seccomp(系统调用过滤)+ network namespace(网络隔离),比普通容器隔离更细粒度。 一个关键设计:Agent 尝试访问白名单外的主机时,OpenShell 拦截请求并在 TUI 中弹出审批,实现"人在回路"的安全模式。 推理路由 Agent 的推理请求全部被网关拦截后路由,当前默认走 NVIDIA 云端的 nemotron-3-super-120b-a12b 模型,需要 API key。本地推理(Ollama、vLLM)还处于实验阶段。 这个设计既做推理审计和控制,也为未来的"隐私路由器"铺路——按数据敏感度自动分流本地或云端模型。