Anthropic 昨夜直接炸场:Claude Mythos Preview 发布了,却选择“锁死”不给普通人玩?这波操作到底在怕什么?

31 阅读5分钟

2026年4月7日深夜,Anthropic 官网突然上线一篇重磅预览——《Claude Mythos Preview》。
短短几小时,这条消息就刷爆全球科技圈热搜。
核心原因只有一个:他们亲口承认造出了目前最强大的AI模型,却主动决定不开放给大众。这不是常规的模型更新,而是AI发展史上第一次公开说“能力太强,先别乱放”的真实案例。

Mythos Preview 究竟强到什么地步?

官方内部代号 Capybara(卡皮巴拉/水豚),直接跨过 Claude Opus 4.6,进入全新的“第四层级”(Tier 4)。
Anthropic 在系统卡里直白写道:

“by far the most powerful AI model we’ve ever developed.”

它在三大核心领域实现了真正意义上的质变(step change):

  1. 软件工程与复杂编码:能独立完成大型系统重构、跨仓库深度调试。
  2. 高级推理:处理极度复杂的多步骤问题,表现甩开上一代一大截。
  3. 网络安全:最让人震惊的一点——它已经可以自主在真实开源代码里发现零日漏洞(zero-day),并且直接写出可利用的攻击代码。这个能力已经明显超越当前绝大多数人类顶尖安全专家。

一句话总结:以前AI是会写代码的助手,现在它已经能当黑客老师了。

为什么不公开发布?

它真的已经“危险”了过去每次 Claude 大版本上线,Anthropic 都会高调开放API,让开发者狂欢。
这一次,他们却反其道而行之:

  • 仅限 Project Glasswing 项目
    全球只有约40家精选合作伙伴能用,包括 Amazon、Apple、Microsoft、CrowdStrike、Cisco、Linux Foundation 等。
    接入方式也极其严格,只能通过企业级通道,普通用户完全没戏。
  • 核心原因写在系统卡里:
    Mythos 的网络安全能力已经突破了“危险红线”。它不仅能找漏洞,还能自主利用。
    如果现在就全面放开,恶意玩家(国家背景黑客、地下组织、甚至普通脚本小子)很可能抢先用它发起大规模攻击。

Anthropic 的真实态度翻译过来就是:
“我们造出了既能攻也能防的超级武器,所以先交给防御方,把互联网上的高危漏洞全部堵死再说。”

Project Glasswing:AI 首次主动站出来守护互联网

这是整个事件最硬核、最值得点赞的部分。Anthropic 把 Mythos Preview 直接投入 Project Glasswing(玻璃翼计划),联合各大云厂商和安全公司,对数千个关键开源项目、主流操作系统、浏览器进行全面扫描。
唯一目标:抢在坏人之前,把 Mythos 发现的零日漏洞全部修补。这可能是人类历史上第一次:
前沿AI公司把最强模型拿来做纯公益级的安全贡献,而不是急着商业变现。Anthropic 等于公开对全世界喊话:
我们知道 scaling 已经把AI推到悬崖边了,这次我们选择先踩刹车。

这波操作的深远影响

  1. 技术层面:证明“scaling + 新架构”还能继续带来质变。下一代模型(OpenAI、Google、xAI 等)都会加速追赶,军备竞赛正式进入“超人类攻击级”时代。
  2. 安全层面:正式开启“AI 防御 AI”的新纪元。未来企业安全和关键基础设施保护,将越来越依赖这类前沿模型,传统安全行业可能被彻底重塑。
  3. 行业伦理层面:Anthropic 用行动兑现了他们的 Responsible Scaling Policy(负责任扩缩政策),给整个AI圈立下新标杆——能力越强,越要先把风险管住。以后谁再敢“先发布再说”,都会被拿来和 Mythos 对比。
  4. 商业与监管层面:高端模型定价会更贵,市场彻底分层;各国政府很可能借此加速对前沿AI的出口管制和安全审查。

普通人应该怎么看待这件事?

别觉得这事离自己很远。真正传递的信号是:AI 能力爆炸的时代,比我们想象的来得更快、更猛。昨天大家还在聊“AI 能不能帮我写代码”,今天 Anthropic 已经在担心“AI 能不能把整个互联网打穿”。

从“工具”到“潜在威胁”的转变,只用了一夜。而 Anthropic 的选择也给我们一个重要提醒:
技术进步本身不是问题,如何管理它的副作用,才是真正的考验。当AI强大到可以自主发现并利用零日漏洞时,“先开放再治理”的老思路已经过时了。

必须“先治理再开放”——Mythos Preview 就是这个新范式的第一次公开实践。一句话总结:Anthropic 昨夜不是发布了一个新模型,而是向全世界发出了一个明确信号——AI 已经强大到必须先用来保护自己和关键基础设施,而不是立刻交给所有人。这不是退缩,这是真正意义上的“负责任的强大”。

你怎么看?
是觉得 Anthropic 过于谨慎,还是觉得他们这次做得特别对?
欢迎评论区一起讨论,这场关于“AI 该不该继续狂飙”的对话,才刚刚开始。