大家好,我是 虎子
有人用 Rust 搓了个专给 AI Agent 和爬虫用的无头浏览器引擎——Obscura,性能直接把 Chrome 按地上摩擦:
① 内存只吃 30MB(Chrome 吃你几个G)
② 启动只要 85ms,快得离谱
③ 整包才 70MB
Chrome 装完硬盘哭了 还支持 CDP 协议,Puppeteer、Playwright 无缝接,你原来的脚本不用改一行。
最绝的是 stealth 模式——随机化指纹、主动拦截追踪器,爬站被封概率直接拉低一个档次。 CLI 一条命令搞定单页抓取,想并行跑多个 URL 也行,起个 WebSocket 服务给自动化脚本挂着用也没问题。
Rust 写的性能怪物,爬虫党和 AI Agent 开发者必须看一眼。
第一眼以为又是一个无头浏览器新轮子,仔细看完发现,不太一样。
编辑
它不是在给 Chrome 做补丁,而是想直接绕开 Chrome,给 AI Agent 和爬虫场景 重新做一个更轻、更快的无头浏览器引擎。
它不是想把 Headless Chrome 用得更好,而是想直接换掉那套笨重的浏览器底座。
Headless Chrome 真的该退休了
现在一提浏览器自动化,大家第一反应还是:
- Puppeteer
- Playwright
- Headless Chrome
这套东西当然成熟,也当然能用。
但问题是,它太重了。
很多场景里,你只是想:
- 打开页面
- 执行脚本
- 抓 DOM
- 跑几步自动化
- 顺便别太容易被封
结果背后却拖着一个完整 Chrome。
这就很别扭。
尤其现在到了 AI Agent 时代,这个问题更明显了。
因为 Agent 对浏览器的需求,不再是偶尔点几下页面,而是:
高频启动、批量调用、长期挂载、并发执行。
一旦进入这个场景,浏览器底座的重量,就直接决定成本和吞吐。
Obscura 解决的,不是浏览器功能问题,而是“执行底座问题”
Obscura 最值得关注的,不是它也是个无头浏览器。
而是它的目标非常明确:
专门为 AI Agent 和爬虫做浏览器执行引擎。
这个思路很关键。
因为它一开始就不是按“通用浏览器”设计的,而是按“自动化执行组件”设计的。
它关注的不是用户体验,而是这些东西:
- 启动够不够快
- 占用够不够低
- 并发够不够舒服
- 自动化脚本接入麻不麻烦
- 被封概率能不能更低
所以我会觉得,Obscura 这种项目真正代表的是一个方向:
浏览器自动化,开始从“借用通用浏览器”,走向“为自动化场景定制执行引擎”。
它到底猛在哪?
Obscura 最抓眼球的,主要是这几件事。
1、内存占用极低
项目给的数据是:
只吃 30MB 内存。
如果这个数字在真实场景里也能稳住,那确实很猛。
因为 Headless Chrome 最烦的一点,就是一多开就开始疯狂吃资源。
这件事重要的地方,不只是省内存,而是:
原来只能少量跑的浏览器任务,未来可能可以低成本规模化部署。
2、启动速度很夸张
项目给的数据是:
85ms 启动。
这意味着浏览器在系统里,不再是一个笨重外设,而更像一个随取随用的执行组件。
这对 AI Agent 特别重要。
因为未来 Agent 调浏览器,大概率就该像今天调普通工具一样:
- 要用就拉起
- 用完就释放
- 需要时并发多个
浏览器底座越轻,这件事越成立。
3、体积小很多
整包只有 70MB。
这个点不只是“下载快一点”那么简单。
它会影响:
- 镜像大小
- 容器部署
- 冷启动速度
- CI/CD 体验
- Serverless 场景适配
说白了,浏览器太重,就很难成为一个灵活的基础设施组件。
最聪明的一步,是兼容 CDP
很多新工具一上来喜欢自己搞一套协议,最后技术很酷,生态没人接。
Obscura 这里比较聪明的一点是:
支持 CDP 协议。
这意味着你现有基于 Puppeteer、Playwright 的很多脚本,可以低成本接进去。
这事特别重要。
因为一个新底座要想进生态,最大的门槛往往不是性能,而是迁移成本。
所以 Obscura 这一步,本质上是在做一件事:
先兼容你熟悉的调用方式,再慢慢替掉底下那台笨重的 Chrome。
这个思路是对的。
对 AI Agent 和爬虫来说,轻还不够,还得不容易死
Obscura 另一个很有意思的点,是它的 stealth 模式。
项目描述里提到,它会做这些事:
- 随机化指纹
- 主动拦截追踪器
- 降低被识别、被封的概率
这层能力很重要。
因为浏览器自动化真正难的,从来不只是“能不能打开页面”,而是:
你能不能活下来。
尤其 AI Agent 场景里,浏览器不是只抓一次网页,而是会持续导航、翻页、交互、提交表单。
这时候你面对的已经不是简单抓取,而是一个有行为轨迹的执行体。
所以 stealth 不是附加功能,而是自动化底座的一部分。
它不只是内核,还是能直接干活的工具
Obscura 还有一点挺对味:
它不只是给高手二次开发的底层引擎,还提供了很直接的使用方式。
比如:
- CLI 一条命令抓单页
- 并行跑多个 URL
- 起 WebSocket 服务给自动化脚本挂着用
这意味着它不只是“性能很强”,而是在往真正可落地的工具底座走。
适合的人也很明确:
- 爬虫开发者
- AI Agent 开发者
- 自动化平台开发者
Headless Chrome 真的要退休了吗?
现在就说 Chrome 要退休,还太早。
Chrome 最大的优势不是轻,而是:
- 兼容性成熟
- 生态成熟
- 社区经验成熟
这些不是一个新项目短时间就能替掉的。
但 Obscura 这种项目出现,本身已经很说明问题了。
它说明越来越多人开始意识到:
“拿 Chrome 顶所有自动化场景” 这件事,已经没那么合理了。
尤其在 AI Agent 爆发之后,大家要的不是最完整的浏览器,而是:
- 更快的执行底座
- 更低的资源占用
- 更适合自动化编排
- 更适合服务化部署
从这个角度看,Obscura 最值得关注的,不是今天能不能替代 Chrome。
而是它在提醒整个行业一件事:
浏览器自动化的下一阶段,可能不再是谁把 Chrome 用得更好,而是谁能为 Agent 和爬虫做出真正原生的浏览器执行引擎。
写在最后
很多人看到 Obscura,可能会觉得:
“又一个无头浏览器项目。”
但我觉得,它真正有意思的地方不是“又一个”。
而是它代表的方向:
浏览器自动化,开始从通用浏览器方案,分化出一条专门服务 AI Agent 和自动化系统的底座路线。
这条路线一旦成立,后面拼的就不只是兼容性了,还会拼:
- 启动成本
- 内存密度
- 并发能力
- 反检测能力
- 服务化能力
所以 Obscura 不是一个简单的 Rust 性能项目。
它更像一个信号。
一个关于浏览器自动化底座,开始重新洗牌的信号。