有时候,一个方向是不是到了拐点,不是看它会不会“更强一点”,而是看它有没有开始换一种工作方式。
Shannon 让我真正警觉的地方,不是它又多找了几个漏洞,也不是它把“AI 黑客”这个词重新炒热了,而是它代表了一种很具体的变化:
安全工具正在从“帮你报风险”,变成“替你把风险坐实”。
这两者表面上只差一步,实际上差得很远。
一个是告诉你:“这里可能有问题。”
另一个是告诉你:“我已经试过了,能打进去,路径在这,影响在这,代码位置也在这。”
如果你是开发,前者像是一份待确认工单。
后者才像一个真正会推着事情往前走的工程问题。
而 Shannon,恰恰踩在这个分界线上。
先看两个场景,你就知道这事为什么值得聊
场景一:你的团队已经进入“按小时发版”,安全还停留在“按季度检查”
这不是段子,很多团队现在就是这么干的。
开发这边,AI 编码工具已经开始接管越来越多的活:读代码库、跨文件改动、跑测试、修 CI、补文档、顺手改掉一堆边角问题。Claude Code 官方现在对自己的定义都不是“代码助手”了,而是一个能读代码库、改多文件、跑测试并交付提交结果的 agentic coding system。Anthropic 甚至公开说过,内部现在相当大一部分代码已经是 Claude Code 参与甚至主导写出来的。
问题来了。
当开发产能被放大之后,系统复杂度不会减少,漏洞也不会跟着变少。
你让一边进入 agent 节奏,另一边还靠人工抽查、低频渗透测试和规则扫描兜底,中间一定会出现一个越来越大的空档。
说白了就是:
代码已经进入高频生成时代了,安全却还停留在低频验证时代。
这个错位,才是今天很多安全焦虑的根源。
场景二:你给它源码和测试环境,它不是甩给你 80 个“疑似高危”,而是自己去试哪几个真的能打穿
这就是 Shannon 这类系统最不一样的地方。
传统安全工具不是没价值。
规则扫描、依赖扫描、SAST、DAST,这些东西都很重要。问题在于,它们大多数时候干的是同一类活:
发现可能性。
而真正折磨研发和安全团队的,往往不是“有没有发现”,而是“这个发现到底是不是真的值得我现在停下来处理”。
研发最烦的一句话其实很简单:
“你能复现吗?”
这句话背后不是对抗,而是成本。
因为如果一个问题只是“理论上可能成立”,那它在工程排期里很容易被继续往后放。
但如果一个问题已经被验证可以利用,甚至连利用路径、影响范围、代码位置都摆出来了,那它在组织里的优先级会立刻变。
Shannon 想做的,就是把这层模糊地带吃掉。
它不想只做“告警生成器”,而是想做“漏洞验证器”。
这就是为什么我觉得它值得单独写一篇,而不是把它当成又一个蹭热度的安全 demo。
Shannon 到底是什么?很多人其实还没弄清楚
先把背景补上。
Shannon 是 Keygraph 做的一个安全方向产品。
公开出来的开源部分叫 Shannon Lite。它官方对自己的定义很直接:这是一个面向 Web 应用和 API 的 autonomous white-box AI pentester,核心思路是把源码分析和实时利用验证结合起来。换句话说,它不是一个传统意义上的“漏洞扫描器”,而是一个会读代码、会分析攻击面、会自己尝试 exploit 的自动化安全代理。详见:github.com/KeygraphHQ/…
这里有几个点一定要说清楚。
第一,它不是万能黑盒攻击器
很多人一听“AI pentester”,脑子里马上浮现的是:给它一个网站,它自己一路点进去,然后自动拿站。
这个想象很刺激,但对 Shannon Lite 来说,并不准确。
公开资料写得很清楚,它现在主打的是 white-box。也就是说,它更适合在有源码、已授权、可控环境下使用。它不是那种什么上下文都没有、全靠外部观察来硬打的通用黑盒系统。(GitHub)
这点其实很重要。
因为它决定了 Shannon 的强项,不是“盲打任何陌生目标”,而是:
当它既能看到代码,又能操作运行中的应用时,它就能把静态理解和动态利用真正接起来。
这比纯黑盒的玩法更务实,也更容易先做出真实价值。
第二,它的卖点不是“发现很多”,而是“尽量只交付已经打通的”
Shannon 的公开文档里有个意思非常明确:
它强调的是 actual exploits,而不是单纯 alerts。
你可以把这理解成一种产品哲学:没有真正打通的东西,最好不要太早拿来吓人。(Mintlify)
这一点在 AppSec 里非常值钱。
因为大多数企业不是缺报告,而是报告太多。
更准确一点说,不是缺发现,而是缺能推动修复动作发生的发现。
Shannon 这条路线,本质上就是在解决一个安全工具老问题:
误报不一定比漏报轻。
因为误报会持续消耗研发的信任和注意力。
第三,它不是一个单点工具,而是一条任务流
你看它公开描述的流程就知道,它不是“跑一下引擎出个结果”那种产品。
它更像一条分阶段推进的工作流:
先做侦察,摸清攻击面;
再从不同方向分析漏洞可能性;
再并行尝试利用;
最后把已经打通的问题整理成报告。
这其实已经很接近人工渗透测试的逻辑了。
先建模,再假设,再验证,再收证据,再输出结论。
所以 Shannon 最值得注意的地方,不是它用了 LLM,而是它开始像一个真正的安全研究员那样工作。
为什么偏偏是现在?
因为以前很多零散能力,最近终于能拼成一个闭环了。
1. 模型开始能扛长任务了
安全测试不是问答,也不是一轮 prompt 就结束的事。
它更像这样一条链:
这要求模型不是“局部聪明”,而是能持续工作。
Anthropic 现在把 Claude Agent SDK 的定位说得很明白:它给你的不是一个简单接口,而是和 Claude Code 同级别的 tools、agent loop 和 context management。也就是说,今天做一个会读文件、跑命令、搜索、改代码的 agent,底层已经不是拼提示词,而是建立在成熟的 agent runtime 之上。
这件事听上去有点抽象,但它对安全场景意义特别大。
因为安全不是靠一句“请帮我分析风险”就能完成的。
它是一种典型的长链路、强反馈、强迭代任务。
2. 模型不再只是“看”,而是真的能“动手”
过去模型的一个大限制,是它会分析,但不太能真正采取动作。
现在不一样了。
它可以读仓库、执行命令、调用工具、操作浏览器、观察结果,再根据结果继续下一步。Anthropic 这两年在官方文档和工程文章里反复讲的,恰恰就是这种 agent loop 和工具执行能力。
这对安全测试非常关键。
因为很多漏洞,尤其是认证、授权、流程绕过、业务逻辑漏洞,光靠静态看一眼是没法真正坐实的。
你得真去走页面、撞状态、切角色、试 payload、看响应。
一旦模型能真正操作环境,它就开始从“解释器”变成“执行者”了。
3. 开发端已经 agent 化,安全端不可能不跟着变
这一点其实最现实。
Claude Code 官方产品页对自己的描述已经不是辅助型工具,而是 project-level 的 agentic coding system:读整个代码库、跨文件改、跑测试、交付结果。
当开发进入这种节奏之后,安全如果还停留在旧范式里,就会越来越像一个瓶颈。
所以不是 Shannon 太超前了,
而是整个软件生产方式已经把安全推到必须变化的节点上了。
Shannon 真正走对的一点:它不是在“猜风险”,而是在“证明风险”
这是我觉得它最值钱的地方。
很多人谈安全工具,容易默认一个前提:
发现越多越厉害。
但真实世界里并不是这样。
对于工程团队来说,真正贵的不是“没发现”,而是“发现太多但没有结论”。
因为这会带来一个非常糟糕的结果:所有问题都变成“先放着”。
Shannon 的路线其实非常朴素:
你先别告诉我有多少可能性,你先告诉我哪几个是真的。
这个思路一旦成立,整个安全产品的价值排序都会变。
以前大家比的是:
- 覆盖多少语言
- 有多少规则
- 支持多少框架
- 扫描多快
以后更值钱的,可能会变成:
- 哪些问题已经被真实验证
- 能不能给出完整利用路径
- 能不能关联到具体代码位置
- 能不能直接推到修复流程里
这就是从“检测工具”变成“任务系统”的区别。
这背后还有一个更大的技术方向:静态分析、动态利用、代码定位,开始被拉到一个闭环里
Shannon Pro 公布的方向里,有个点特别值得留意。
它不是只想做一个会“打一打”的 agent,而是在往更完整的 AppSec 平台走:
静态分析、依赖与密钥问题、业务逻辑测试、自主渗透测试这些东西,会被尽量放到一个统一闭环里,再把结果和源代码位置关联起来。
这条路线为什么重要?
因为过去很多安全工具彼此之间根本不说话。
一个工具告诉你这里有 sink;
另一个工具告诉你那个接口异常;
另一个工具告诉你依赖有 CVE;
最后安全团队抱着一堆报告,研发团队看着一堆噪音。
结果是:大家都很忙,但问题没有真正被收敛。
如果未来能把“静态理解”“动态打通”“源代码回溯”“修复建议”串起来,那安全工具的价值就不再是“再多报一点”,而是“把事情真正推到可处理状态”。
这也是为什么我一直觉得,AppSec 接下来真正有价值的,不是某个单点神器,而是谁能把验证闭环做出来。
但也别吹太过,Shannon 现在依然有很强的边界
说它重要,不等于说它已经无敌。
第一,它还不是“给个域名就横扫全场”的东西
它现在更擅长的是 Web 应用和 API,而且是 white-box、源码可见、已授权、可控环境这条线。
这已经非常有价值了,但也意味着它不等于“通用网络攻击系统”。
复杂内网横向、纯黑盒环境、二进制利用、强对抗企业网络,这些都不是它现在最舒服的战场。
第二,agent 本身也会出错
只要一个系统开始能执行命令、创建账户、修改数据、操作环境,它的风险就不再只是“说错话”,而是“做错事”。
Anthropic 最近在讲 Claude Code auto mode 的文章里就很坦白:现实里用户会批准绝大多数权限请求,于是系统必须想办法减少 approval fatigue,同时又要防止 agent 做出不合适的动作。官方还专门写了,auto mode 是在“减少打扰”和“提升安全”之间做平衡,而不是简单放飞。
这对安全 agent 来说尤其敏感。
因为它一旦误操作,影响往往不是生成错了一段文字,而是改坏了环境、污染了数据、触发了真实副作用。
第三,安全 agent 自己也会变成攻击面
这是很多人现在还没真正意识到的事。
以后你不只是要防自己的应用被攻击,
你还得防“帮你测应用的 agent”被攻击。
比如恶意仓库内容、prompt injection、工具调用诱导、被污染的测试环境、异常依赖、故意设计的对抗性输入,这些都会变成新问题。
也就是说,未来安全体系里会多出一个新层:
安全工具本身的 agent 安全。
听起来有点绕,但这件事八成会越来越重要。
真正该警惕的,不是 Shannon 本身,而是它代表的趋势
如果只看 Shannon,你会觉得这像一个很酷的开源项目。
但如果把它放回整个产业背景里看,你会发现它其实踩在两股趋势的交叉点上。
一股趋势,是开发端已经开始全面 agent 化。
Claude Code 这类系统正在把软件生产从“人主写,AI 辅助”推向“AI 持续推进,人类做审查和收口”。
另一股趋势,是安全端也开始沿着同样的方向走。
Anthropic 在 2026 年 2 月发布 Claude Code Security 的 limited research preview 时,给出的方向非常明确:它不是传统规则扫描的简单升级,而是希望像安全研究员一样读代码、理解组件怎么协同、理解数据怎么流、发现传统方法容易漏掉的问题,同时把修复建议交给人类审批。
你把这两件事放在一起看,结论就很清楚了:
攻防双方都在 agent 化。
所以未来几年,行业真正的变化不只是“AI 更会写代码了”,也不只是“AI 更会找漏洞了”,而是软件工程和软件安全都会从工具时代走向系统时代。
比拼的不再只是模型聪不聪明,
而是你的编排、上下文管理、权限边界、日志审计、失败恢复、结果收敛做得怎么样。
商业价值到底在哪?不是“替代渗透测试”这么简单
很多人看到这种东西,第一反应是:那渗透测试公司是不是要完了?
我觉得没那么简单。
Shannon 这类方向真正大的商业价值,不在于“替代某一类服务”,而在于它把很多以前做不起、做不勤、做不细的事,开始变成默认可做。
1. 它最先改写的,是安全验证的频率
过去做渗透测试,很多团队是年检式、项目制、合规制。
不是因为不想更高频,而是太贵、太慢、太依赖专家排期。
一旦自主验证这件事真的能稳定下来,很多原来一年做一次的动作,就有机会变成:
- 关键版本上线前做一次
- 认证逻辑改了做一次
- 权限模型动了做一次
- 核心业务流大改后做一次
到这一步,它卖的就不再是“找洞服务”,而是:
把低频专家动作,变成高频工程动作。
2. 它能直接吃掉一部分“误报处理成本”
企业买安全工具,最烦的通常不是没报告,而是报告太多。
尤其是那种研发根本不信、又得花时间排查的报告。
一个能拿出利用证据、还能回指代码位置的系统,对企业的吸引力远比“我们规则库又扩了几百条”大得多。
因为它减少的,不只是风险,而是组织摩擦。
3. 它会推动 AppSec 平台化
单点工具总会红一阵。
但企业最后买的,通常还是平台。
只会“自动打一打”的工具,很容易停在 demo 层。
真正能进预算的,往往是那些能接进 CI/CD、接进工单、接进审批、接进审计链路里的系统。
Shannon Pro 往统一 AppSec 闭环走,这个方向我觉得很对。
因为未来最值钱的,不是单个功能点,而是:
发现、验证、修复、回归、审计,能不能串成一条线。
4. 安全服务行业也会被迫重做一遍
以后真正强的安全服务商,卖的可能不只是“专家人天”,而是:
- 行业知识
- 私有 harness
- agent 编排能力
- 验证模板
- 修复工作流
- 客户环境集成
- 审计与治理能力
换句话说,人不会消失。
但值钱的人,越来越不是“会不会手挖一个洞”,而是“会不会设计一套能持续发现、持续验证、持续修复的系统”。
如果你是开发团队或者安全团队,现在该怎么想这件事?
我觉得先别急着喊“AI 黑客来了”。
更实际的,是先问自己几个问题。
第一,你的环境边界准备好了吗?
如果今天真给你一个 Shannon 类系统,你有没有:
- 授权边界
- 测试环境
- 数据隔离
- 审计日志
- 可回滚机制
- 最小权限控制
如果这些都没有,再强的 agent 进来都只会先制造治理问题。
第二,你的安全流程是不是已经明显慢于开发流程了?
如果研发已经在用 coding agent 高速出代码,而安全还靠季度节奏人工抽查,那你其实不是缺某一个神奇工具,而是整个节奏已经错位了。
第三,你是不是还把安全工具当成“报告生成器”?
未来真正有价值的安全工具,不是帮你多生成几份风险报告。
而是能把问题推进到真正要处理的状态。
没有 exploit 的高危,很多时候只是心理压力。
能打通、能复现、能修复、能回归的问题,才是工程问题。
最后说我的判断
Shannon 现在当然还没到“全自动接管网络攻防”的程度。
但它已经很清楚地告诉大家一件事:
软件安全这件事,正在从规则驱动,走向任务驱动;从扫描器思维,走向 agent 思维。
这不是一个小改动。
这是产品范式在换。
接下来几年,你大概率会看到的,不只是“AI 更会找漏洞了”,而是:
- 更会读代码
- 更会理解业务逻辑
- 更会自己走流程
- 更会自己验证
- 更会把结果和代码、修复、流程串起来
最终,它会把 AppSec 从“检测体系”慢慢拉成“验证体系”和“处置体系”。
所以 Shannon 最重要的意义,不是它今天到底能不能再多打下几个测试靶场。
而是它让整个行业第一次更认真地意识到:
AI 不只是能帮你看代码,它开始能围着一个目标持续行动,直到把事情做成。
以前我们担心的是,AI 会不会写出有漏洞的代码。
现在更大的问题已经变成:
AI 开始会自己把这些漏洞挖出来、自己打穿、再把证据摆到你面前。
这才是最值得重视的地方。