Headless Chrome 该退休了?Obscura 正在给 AI Agent 换浏览器底座

0 阅读6分钟

大家好,我是 虎子

有人用 Rust 搓了个专给 AI Agent 和爬虫用的无头浏览器引擎——Obscura,性能直接把 Chrome 按地上摩擦:

① 内存只吃 30MB(Chrome 吃你几个G)

② 启动只要 85ms,快得离谱

③ 整包才 70MB

Chrome 装完硬盘哭了 还支持 CDP 协议,Puppeteer、Playwright 无缝接,你原来的脚本不用改一行。

最绝的是 stealth 模式——随机化指纹、主动拦截追踪器,爬站被封概率直接拉低一个档次。 CLI 一条命令搞定单页抓取,想并行跑多个 URL 也行,起个 WebSocket 服务给自动化脚本挂着用也没问题。

Rust 写的性能怪物,爬虫党和 AI Agent 开发者必须看一眼。

第一眼以为又是一个无头浏览器新轮子,仔细看完发现,不太一样。
​编辑

它不是在给 Chrome 做补丁,而是想直接绕开 Chrome,给 AI Agent 和爬虫场景 重新做一个更轻、更快的无头浏览器引擎。

它不是想把 Headless Chrome 用得更好,而是想直接换掉那套笨重的浏览器底座。


Headless Chrome 真的该退休了

现在一提浏览器自动化,大家第一反应还是:

  • Puppeteer
  • Playwright
  • Headless Chrome

这套东西当然成熟,也当然能用。

但问题是,它太重了。

很多场景里,你只是想:

  • 打开页面
  • 执行脚本
  • 抓 DOM
  • 跑几步自动化
  • 顺便别太容易被封

结果背后却拖着一个完整 Chrome。

这就很别扭。

尤其现在到了 AI Agent 时代,这个问题更明显了。

因为 Agent 对浏览器的需求,不再是偶尔点几下页面,而是:

高频启动、批量调用、长期挂载、并发执行。

一旦进入这个场景,浏览器底座的重量,就直接决定成本和吞吐。


Obscura 解决的,不是浏览器功能问题,而是“执行底座问题”

Obscura 最值得关注的,不是它也是个无头浏览器。

而是它的目标非常明确:

专门为 AI Agent 和爬虫做浏览器执行引擎。

这个思路很关键。

因为它一开始就不是按“通用浏览器”设计的,而是按“自动化执行组件”设计的。

它关注的不是用户体验,而是这些东西:

  • 启动够不够快
  • 占用够不够低
  • 并发够不够舒服
  • 自动化脚本接入麻不麻烦
  • 被封概率能不能更低

所以我会觉得,Obscura 这种项目真正代表的是一个方向:

浏览器自动化,开始从“借用通用浏览器”,走向“为自动化场景定制执行引擎”。


它到底猛在哪?

Obscura 最抓眼球的,主要是这几件事。

1、内存占用极低

项目给的数据是:

只吃 30MB 内存。

如果这个数字在真实场景里也能稳住,那确实很猛。

因为 Headless Chrome 最烦的一点,就是一多开就开始疯狂吃资源。

这件事重要的地方,不只是省内存,而是:

原来只能少量跑的浏览器任务,未来可能可以低成本规模化部署。


2、启动速度很夸张

项目给的数据是:

85ms 启动。

这意味着浏览器在系统里,不再是一个笨重外设,而更像一个随取随用的执行组件。

这对 AI Agent 特别重要。

因为未来 Agent 调浏览器,大概率就该像今天调普通工具一样:

  • 要用就拉起
  • 用完就释放
  • 需要时并发多个

浏览器底座越轻,这件事越成立。


3、体积小很多

整包只有 70MB。

这个点不只是“下载快一点”那么简单。

它会影响:

  • 镜像大小
  • 容器部署
  • 冷启动速度
  • CI/CD 体验
  • Serverless 场景适配

说白了,浏览器太重,就很难成为一个灵活的基础设施组件。


最聪明的一步,是兼容 CDP

很多新工具一上来喜欢自己搞一套协议,最后技术很酷,生态没人接。

Obscura 这里比较聪明的一点是:

支持 CDP 协议。

这意味着你现有基于 Puppeteer、Playwright 的很多脚本,可以低成本接进去。

这事特别重要。

因为一个新底座要想进生态,最大的门槛往往不是性能,而是迁移成本。

所以 Obscura 这一步,本质上是在做一件事:

先兼容你熟悉的调用方式,再慢慢替掉底下那台笨重的 Chrome。

这个思路是对的。


对 AI Agent 和爬虫来说,轻还不够,还得不容易死

Obscura 另一个很有意思的点,是它的 stealth 模式

项目描述里提到,它会做这些事:

  • 随机化指纹
  • 主动拦截追踪器
  • 降低被识别、被封的概率

这层能力很重要。

因为浏览器自动化真正难的,从来不只是“能不能打开页面”,而是:

你能不能活下来。

尤其 AI Agent 场景里,浏览器不是只抓一次网页,而是会持续导航、翻页、交互、提交表单。

这时候你面对的已经不是简单抓取,而是一个有行为轨迹的执行体。

所以 stealth 不是附加功能,而是自动化底座的一部分。


它不只是内核,还是能直接干活的工具

Obscura 还有一点挺对味:

它不只是给高手二次开发的底层引擎,还提供了很直接的使用方式。

比如:

  • CLI 一条命令抓单页
  • 并行跑多个 URL
  • 起 WebSocket 服务给自动化脚本挂着用

这意味着它不只是“性能很强”,而是在往真正可落地的工具底座走。

适合的人也很明确:

  • 爬虫开发者
  • AI Agent 开发者
  • 自动化平台开发者

Headless Chrome 真的要退休了吗?

现在就说 Chrome 要退休,还太早。

Chrome 最大的优势不是轻,而是:

  • 兼容性成熟
  • 生态成熟
  • 社区经验成熟

这些不是一个新项目短时间就能替掉的。

但 Obscura 这种项目出现,本身已经很说明问题了。

它说明越来越多人开始意识到:

“拿 Chrome 顶所有自动化场景” 这件事,已经没那么合理了。

尤其在 AI Agent 爆发之后,大家要的不是最完整的浏览器,而是:

  • 更快的执行底座
  • 更低的资源占用
  • 更适合自动化编排
  • 更适合服务化部署

从这个角度看,Obscura 最值得关注的,不是今天能不能替代 Chrome。

而是它在提醒整个行业一件事:

浏览器自动化的下一阶段,可能不再是谁把 Chrome 用得更好,而是谁能为 Agent 和爬虫做出真正原生的浏览器执行引擎。


写在最后

很多人看到 Obscura,可能会觉得:

“又一个无头浏览器项目。”

但我觉得,它真正有意思的地方不是“又一个”。

而是它代表的方向:

浏览器自动化,开始从通用浏览器方案,分化出一条专门服务 AI Agent 和自动化系统的底座路线。

这条路线一旦成立,后面拼的就不只是兼容性了,还会拼:

  • 启动成本
  • 内存密度
  • 并发能力
  • 反检测能力
  • 服务化能力

所以 Obscura 不是一个简单的 Rust 性能项目。

它更像一个信号。

一个关于浏览器自动化底座,开始重新洗牌的信号。

🔗:github.com/h4ckf0r0day…