当 AI 漏洞猎手开始领先人类,Project Glasswing 为什么值得所有开发者重视

0 阅读5分钟

4月7日,Anthropic 发布 Project Glasswing 时,很多人把它当作一次新的安全合作计划来看。但如果把整件事仔细读完,就会发现这并不是普通的“技术升级公告”,而更像是 2026 年 AI 安全领域的一个关键拐点。

 

这个由 Anthropic 牵头的倡议,联合了 AWS、Apple、Google、Microsoft、NVIDIA、Broadcom、Cisco、CrowdStrike、JPMorganChase、Linux Foundation、Palo Alto Networks 等 12 家发起方,目标很集中,就是守护全球关键软件基础设施的安全。它发布后迅速登上 HN 热榜并拿到 507 分热度,本身就说明行业已经意识到它的重要性。

 

真正让人无法忽视的,是 Anthropic 这次公布的核心事实:当前 AI 模型在发现和利用软件漏洞方面,已经开始超过绝大多数人类安全专家。支撑这一判断的主角,是一款尚未公开上线的前沿模型 Claude Mythos Preview。

 

Mythos Preview 在很短时间里自主发现了数千个高危零日漏洞,覆盖主流操作系统与浏览器,而且并不是依靠精心准备的演示环境才做到。Anthropic 给出的案例足够有代表性。OpenBSD 中一个潜伏 27 年的漏洞,能够让攻击者通过简单连接远程打崩目标机器;FFmpeg 中一个存在 16 年的隐患,在自动化测试工具 500 万次扫描后依然没被抓到,却被 Mythos Preview 找出;在 Linux 内核场景里,它不仅能找到多个分散漏洞,还能把这些漏洞串起来,实现从普通用户权限到完全控制机器的提权链。

 

这也是为什么 Anthropic 会把 Mythos Preview 看得如此谨慎。因为在网络安全领域,能力越强,双刃剑属性就越明显。过去,发现一个高价值漏洞往往需要顶级安全专家花费数周甚至数月,这种能力稀缺本身构成了一层保护。现在,AI 把这层门槛快速往下拉,防御者和攻击者都可能获得这种能力,而攻防又天然不对称,防御方必须看住整个攻击面,攻击者只要找到一个突破口就足够。

 

从基准测试看,这种能力提升已经不是模糊感受,而是清晰的数据差。Mythos Preview 在 CyberGym 中的漏洞复现率达到 83.1%,明显高于 Claude Opus 4.6 的 66.6%。在其他安全相关任务上,它同样展现出显著跃升。问题不再是“AI 能不能做安全”,而是“防御者是否能在攻击者之前先用好 AI”。

 

这正是 Project Glasswing 的核心逻辑。Anthropic 没有把 Mythos Preview 公开发布,而是选择通过项目合作的方式,优先把能力导向防御体系。它已经向超过 40 家维护关键软件和基础设施的组织提供扩展访问权限,让这些团队可以用 Mythos Preview 检查自身系统以及依赖的开源组件。同时,Anthropic 还承诺提供高达 1 亿美元的使用额度,并向开源安全组织捐赠 400 万美元,希望在攻击者大规模拿到类似能力之前,先帮助防御方修掉更多漏洞。

 

从合作方反馈看,这并不是纸面计划。Microsoft 的 MSRC 团队提到,在 CTI-REALM 安全基准测试中,Mythos Preview 相比前代模型出现了“实质性提升”;AWS 也已经开始把它用于关键代码库的排查工作。这些信息说明,Glasswing 并不是停留在倡议层面,而是已经进入实操阶段。

 

如果把这件事放回整个 AI 安全图景里看,还能看到几个更深的问题。

 

第一,是 AI 安全的悖论。今天我们正在用 AI 去解决 AI 时代带来的安全挑战,这听上去有些循环,但现实就是,传统代码审计和旧式自动化测试已经不够用了。FFmpeg 那行被扫描 500 万次仍未暴露的代码,就是很典型的例子。

 

第二,是开源基础设施的脆弱性。Linux 内核、FFmpeg、OpenBSD 这些项目,支撑着全球数字世界的大量底层能力,但很多维护工作长期依赖志愿者和有限预算。Glasswing 的 400 万美元捐赠和免费使用额度当然重要,但更重要的,是它把“开源项目也需要先进 AI 安全工具”这件事摆到了台面上。

 

第三,是能力扩散几乎不可避免。Anthropic 不公开发布 Mythos Preview 是明智的,但这类漏洞检测能力不会永远只存在于一个模型里。开源模型会追赶,国家级行为者也会自行研发,Glasswing 真正宝贵的,是给防御者争取了一段有限但关键的领先时间。

 

对开发者来说,最现实的结论其实很简单。如果你的系统涉及安全敏感场景,那么“人类审核 + 传统 SAST 工具”的组合很快就不够了。AI 辅助安全扫描会成为新的标配,而不是可选项。

 

对于需要跨多个模型做安全测试和能力比较的团队,像 4SAPI(4SAPI.COM)这样的企业级大模型 API 统一接入平台会更顺手。它兼容 OpenAI 接口协议,能够零成本适配 Claude、GPT、Gemini 等 650 多种主流模型,一行代码就能切换模型,这类能力对于持续做漏洞检测、验证和对比评估的开发者来说,会明显减少维护负担。

 

Project Glasswing 的价值,从来不只是一次产品发布或一次联盟成立。它真正传递出的信号是:AI 已经把网络安全带到了一个新的临界点,而防御者必须更快、更系统地完成升级。值得庆幸的是,这一次首先迈出关键一步的,至少暂时还是防御方。