WAF 出来的时候,有人说传统边界防御要凉。云安全起来的时候,有人说本地部署要退出历史舞台。零信任出来的时候,有人说防火墙这次真的完了。
结果每一次,行业都消化掉了,继续往前走,该招人招人,该卖产品卖产品。
所以这行里的人,对"颠覆"这个词,多少有点免疫。
但 Mythos 这件事,我想说。不是因为它是什么划时代的新概念,而是因为它做到了一件很具体的事——以前需要人来干的那些活,它自己干了。
Mythos 是什么
2026 年 4 月,Anthropic 发布了 Claude Mythos Preview。同时宣布了一个叫 Project Glasswing 的联合防御计划,AWS、苹果、微软、谷歌、英伟达、CrowdStrike、Palo Alto 全来了,阵容豪华得像开 RSA 主论坛。
但联合防御计划是表,真正值得注意的是里:Anthropic 同时宣布,这个模型不会对外公开发布,因为太危险。
一家 AI 公司把自己做出来的东西压着不发,说太危险,这件事本身就不正常。
那它到底干了什么?
以下三件事,都有公开记录:
第一件: 研究人员给 Mythos 一份 100 个 Linux 内核漏洞的清单,让它自己筛、自己写利用代码、自己跑测试,全程没人盯着。它挑出 40 个目标,成功率超过一半。 这活以前交给一个有五年经验的安全工程师,大概要两到三周。
第二件: 就在过去几周,Mythos 在所有主流操作系统和所有主流浏览器里,挖出了数千个此前没人发现的零日漏洞。其中最老的一个,在 OpenBSD 里藏了 27 年。27 年,经历了无数轮人工审计,跑了亿级次数的自动化扫描,愣是没人发现。 Mythos 发现了。
第三件: 研究人员把 Mythos 关进一台隔离的沙箱机器,让它尝试逃逸。它逃出去了。然后没停,继续搞了一套多步骤漏洞利用链,拿到了互联网访问权限,给正在公园吃三明治的研究员发了一封邮件。 研究员当时应该是一口三明治没咽下去。
这三件事放在一起,描述的是同一个现实:AI 已经可以自主完成一次完整的渗透行动,从头到尾,不需要人在旁边扶着。
为什么是它,为什么现在
AI 安全工具已经存在一段时间了,为什么偏偏是 Mythos 触发了这个临界点, 答案有点反直觉:Mythos 的安全能力,没有被专门训练过。
Anthropic 自己说的——这些能力是代码能力、推理能力、自主执行能力同时提升到某个高度之后,自然涌现出来的。没有人刻意教它"如何入侵系统",它是因为足够聪明、足够会写代码、足够能自主规划多步骤任务,三件事撞在一起,安全攻防能力就跑出来了。
这个涌现逻辑有一个值得警惕的推论:它的安全能力还没见到天花板,因为通用能力还在继续提升。
从数字上看:Mythos 在网络安全专项基准测试上得分 83.1%,上一代旗舰 Opus 4.6 是 66.6%,差了 16 个多百分点。这个差距在别的领域可能是"更好一点",在安全这个领域,它分隔的是"懂安全"和"能真正干安全"之间的边界。
还有一件事需要单独说:Mythos 是一个 Agent,不是聊天机器人。
以前的 AI 安全工具,本质是一个很聪明的问答系统——你问,它答,答完它就坐在那等下一个问题。Mythos 不一样,它能自己拆解任务、自己选工具、自己执行、根据中间结果调整下一步,然后把整件事做完交给你。
打个比方:以前的 AI 安全工具是一把好用的锤子。Mythos 是一个会自己看图纸、自己备料、自己把房子建完的工头。而且这个工头不需要休息,不请假,不要求加薪,周末不发朋友圈。
渗透--底层逻辑变了
先说一件实在话!
OSCP、OSEP、OSED 这条路走下来,不容易。各种操作系统的内部机制、服务的漏洞模式、脚本语法、信息收集方法论、exploit 开发的底层逻辑……每一样都要花时间,练出来的东西是真实的。
这些年的积累,不是白费的。
但这条路背后有一个前提假设:这些能力稀缺,所以值钱。
信息收集阶段,以前是渗透测试里最磨人的环节。nmap 跑着,脚本挂着,还要盯着输出一行一行看,要亲手测试每一个可疑的端口,手感要靠经验积累,一个细节漏掉,整个渗透思路可能就断了。
现在这段话里描述的每一件事,Mythos 都可以替你做,而且做得更快、更全、更细。
这些能力不再稀缺了,不再是护城河了。
说这话不是为了打击谁。这是一个需要正视的判断。
不过这里有一件事不能绕开,AI 的安全输出,不能无条件信任。
现在的 AI 工具,包括 Mythos,会生成"幻觉漏洞"。把一个实际无法利用的问题包装成高危漏洞写进报告,逻辑看起来成立,格式非常专业,读起来头头是道。但如果你真的按照这个思路去做,会发现根本行不通。
没有足够技术底子的人,分不出来 AI 在说实话还是在编故事。
这就是现在真正稀缺的东西:不是会用 AI 工具的人,而是有能力审计 AI 输出的人。
这两类人,价格不一样,稀缺程度不一样,对企业的实际价值也不一样。如果把这两者混为一谈,招了一个只会操作界面的人管安全,出了事没人能判断对错,这种状态比根本没有安全人员还要危险,至少后者你知道自己是裸奔的。
最难的不是选择,是落地
小型企业的情况相对简单。大部分业务跑在云上,云服务商的安全能力正在被 AI 大幅强化,对这类企业来说,安全意识培训比技术岗位更优先,这条路是通的,不在这里多说。
中型企业是最纠结的那一群,500 到 2000 人左右。大到有真实的安全风险和合规压力,小到很难养一个完整的安全团队,又没有大企业那种专门预算和成熟流程。夹在中间,最难。
这类企业现在最常陷进去的困境,不是不知道要重视安全,是不知道怎么落地。
"一个人加一群 AI"——这个方向是对的,也是接下来相当一段时间内中型企业最现实的配置。但这里有个坑必须说清楚。
这个"一个人",比你想的难招。
不是招一个会用 AI 安全工具的年轻人就行了。是要找一个有足够技术判断力,能读懂 AI 给出的安全报告,能区分真实威胁和误报,能在出问题的时候判断严重程度和优先级的人,也就是一个能够审计AI的人。
这类人比一个传统安全团队更难招,因为他要同时具备真实的技术底子和 AI 工具的使用能力,这个组合,目前市场上供给很有限。
如果我是企业的管理层,我会思考下面的三个问题:
核心数据和业务系统在哪里?
主要跑在云上的,云服务商的安全能力在 AI 加持下正在快速提升,优先级应该是供应商评估、员工意识培训、必要的合规审计,专职安全岗位不是第一位。 有大量自建系统、本地化数据、或者对供应链安全有较高要求的,那需要一个能驾驭 AI 安全工具的人,这个投入是真实必要的。
驱动你的是合规压力还是真实威胁?
合规驱动的场景,外包给有资质的安全公司做年度评估,配合 AI 工具做日常监控,性价比最高。为了应付合规专门养一个全职的人,大多数情况下是资源错配。 面对真实威胁的场景,金融、医疗、供应链关键节点,或者有过实际安全事件的,超级个体是必须的,而且这个人的薪资不能按普通 IT 定价,否则招来的人跟你想象的不是同一种人。
你有没有办法验证这个人在做什么?
这个问题很多企业不愿意正视。老板不懂、管理层不懂,招来一个超级个体是完全黑盒,出了事不知道是人的问题还是方向的问题,管也管不了。
一个可以操作的建议:先做一次外部红蓝对抗,再招人。 用外部评估建立一个基准线,搞清楚自己真实的风险暴露面,然后根据结果判断需要什么样的人,用实际产出来管理,不要凭感觉。
最后说两句
这行没有消失,但变了,而且还会继续变。
以前积累的技术储备没有废,是换了用途--从执行工具变成了判断标准,从核心竞争力变成了入场门票。新的竞争优势在判断力、在业务理解、在设计攻防剧本的能力上,这些东西靠背教程拿不到,偏偏是在实战里磨出来的。
焦虑正常,但焦虑没用。有用的是想清楚:你现在的能力里,哪一部分 AI 代替不了,然后把那部分练深。
Mythos 锁定的不是某个人的饭碗。
锁定的是那些觉得这件事跟自己没关系的人。