Agent开发离不开远程LLM沙盒执行
在Cursor、Calude Code大行其道的时代,执行代码、编辑文件、操作浏览器这些通过AI已经全都可以实现了。然而,这些他们通常面临一个共同的限制:依赖客户端。
如何解决这个问题?Manus做到了,他开启了一个在服务端虚拟机中执行Agent任务的新范式。
大模型的所有执行过程全部在服务端的系统上进行,在虚拟机中实现文件编辑,代码执行,控制浏览器进行查阅资料。
用户就算关闭电脑,任务仍在执行,和本地完全解耦。进而也奠定了Manus通过文件进行Context Engineering的基础。
OpenSandbox是什么?
OpenSandbox 是阿里巴巴开发的一款面向大语言模型及人工智能场景的通用沙盒平台。
它设计了一套统一的沙盒协议,提供Docker、Kubernetes两类沙箱运行时,方便云端部署。简单来说,它是一个安全、高效、可扩展的沙盒解决方案。
核心功能概述
OpenSandbox 提供了以下关键特性:
- 多语言SDK支持:目前提供了Python、Java语言 SDK,并计划支持TypeScript和Go。
- 统一沙盒协议:实现生命周期管理和执行 API,用户可以扩展自己的沙箱运行时。
- 多场景运行时:覆盖命令执行、代码解释、文件系统交互等核心AI场景,并支持 Chrome 浏览器等自动化操作。
- Server 扩展:支持本地 Docker 单节点以及Kubernetes分布式沙箱运行时,满足大规模分布式需求。
- 集成示例:包含代码解释器、浏览器headless模式以及主流运行集成场景(例如Claude Code、Codex等)。
主要应用场景
OpenSandbox 能处理以下复杂操作:
- 代码沙盒执行:开发者可以安全地在沙盒中运行 Python 脚本,并动态调试。
- 高级语言解释器:通过内部 Code Interpreter SDK 实现,可以快速操作更换不同版本语言库。
- 浏览器与桌面环境自动化:具备Playwright、Headless Chrome以及VNC桌面沙盒功能,适用于自动化爬取和 UI 测试。
快速上手使用
以下是使用OpenSandbox的典型流程:
-
环境准备
-
安装Docker和Python 3.10以上版本。
-
克隆项目仓库并启动服务:
git clone https://github.com/alibaba/OpenSandbox.git cd OpenSandbox/server uv run python -m src.main
-
-
沙盒示例:在沙盒执行代码
async def main(): sandbox = await Sandbox.create("runtime_image") async with sandbox: execution = await sandbox.commands.run("echo Hello!") print(execution.logs.stdout[0].text) await sandbox.kill() -
高级操作:沙盒与Code Interpreter集成 结合
opensandbox-code-interpreterSDK,您可以将任意代码沙箱化并验证其输出。
架构简介
OpenSandbox 采用模块化设计,涵盖从沙盒生命周期(server)、命令拦截(execd)、流量控制(ingress/egress)到应用示例(examples)的全套工具链。
Server: 快速配置沙箱环境。Components: 流量代理和权限管理模块。Examples: 提供对接Coding Agent的丰富示例库,演示从代码解释到桌面模拟的集成功能。
为什么是 OpenSandbox?
目前,市面上大部分沙盒环境更倾向于为单一场景服务,而OpenSandbox尝试成为“全场景”解决方案:
- 适配高速迭代的人工智能模型需求;
- 简化智能应用中复杂场景的执行;
- 面向未来支持更多语言、分布式扩展的运行协议。
这个开源项目让我想起了阿里的“无影云电脑” 产品,,本次开源可能又是其在云产品和大模型AI结合方向上的技术沉淀。
希望大家点赞、关注、加收藏,后续会持续输出更多 AI 深层次干货!
我的公众号:橙子的AI前端笔记