AI Agent 跑了 28 条测试用例后,我想通了测试人该怎么活

19 阅读6分钟

AI Agent 跑了 28 条测试用例后,我想通了测试人该怎么活

当 AI 不再只是帮你写代码,而是自己打开浏览器、自己点页面、自己判断对错——测试工程师该何去何从?


先说结论

我让一个 AI Agent 自己跑了 28 条 E2E 测试用例,覆盖 4 个真实业务需求。

通过率:100%

全程零代码。我只做了一件事:把需求链接丢给它。

然后我慌了 5 分钟。

然后我想通了。


这个 Agent 到底做了什么

先给你看它的完整工作流程——

它叫"谛听",是我用 Claude Code + 浏览器自动化工具搭的一个测试 Skill。

你在聊天窗口说一句"谛听,帮我测这个需求",然后:

  1. 它自己读需求文档,理解要测什么
  2. 它自己打开浏览器,侦察页面结构
  3. 它自己生成测试用例,按 P0/P1/P2 排好优先级
  4. 它自己逐条执行,每条截图取证
  5. 它自己写报告,上传到知识库

整个过程大约 15-30 分钟。人类介入次数:1 次(确认用例清单)。


那 5 分钟的慌,你可能也正在经历

第一次看到测试报告自动生成、截图整整齐齐、28 条全绿的时候,我脑子里蹦出来的第一个想法是:

"这活,以后不需要人了吧?"

如果你是做测试的,2026 年你一定被这个问题折磨过。

朋友圈每天都在刷:

  • "某某公司用 AI Agent 替代了 80% 的测试工作"
  • "Agentic Testing 将在 2026 年大规模落地"
  • "测试岗位将是 AI 第一批取代的岗位"

焦虑很正常。但焦虑完了,你需要看看真相。


真相:AI 替代的是执行,替代不了判断

我拿谛听跑了 4 轮验证,有成功也有翻车。翻车的部分,才是真正值得看的。

翻车 1:AI 理解错了功能入口

有一个需求是"智能分析展示优化"。AI 侦察页面后,把一个雷达图标理解成了全屏按钮——因为它们长得像。

然后它基于这个错误理解,生成了一整套"测试全屏功能"的用例,每条都跑通了,报告也很漂亮。

但它测的是错的东西。

翻车 2:复杂表单让 AI 迷路

一个包含级联选择器 + 虚拟列表 + 动态表单的页面,AI 在第 4 步操作后忘了自己在干什么,开始重复点击同一个按钮。

10 分钟后,我把它强行停了。

翻车 3:AI 无法判断"这算不算 bug"

有一次 AI 发现搜索结果从 50 条变成了 48 条。它不知道这是正常的数据变化还是一个 bug——因为它没有业务上下文。


3 个翻车背后的规律

我复盘了所有翻车场景,发现一个规律:

AI 搞不定的,恰好是测试工程师最值钱的部分。

能力层级具体能力AI 能替代吗
执行层点按钮、填表单、截图、跑流程能,而且比人快不累
判断层这是 bug 还是 feature?严重吗?优先修吗?不能
策略层应该测什么?重点在哪?哪些不用测?不能
沟通层和产品对齐需求、和开发推动修复不能

如果你日常工作 80% 是在执行层——是的,你应该焦虑。

如果你正在往判断层和策略层走——恭喜,AI 是你的加速器,不是你的替代者。


测试人在 Agent 时代的 3 个生存策略

策略 1:从"执行测试"升级为"驾驭 Agent"

以前的测试能力模型:

手工测试 → 自动化脚本 → 测试框架 → 测试平台

现在应该是:

手工测试 → 自动化脚本 → AI 辅助写脚本 → 驾驭 AI Agent

"驾驭"是什么意思?你要会:

  • 给 Agent 写规则:什么该做、什么不该做、遇到异常怎么处理
  • 设计 Agent 的侦察策略:先看什么、再看什么、怎么确认看对了
  • 评审 Agent 的产出:用例合不合理、截图对不对、报告有没有遗漏

这就是我正在做的事——我把 10 年的测试经验,编码成一个 466 行的 Markdown 文件,让 AI 按我的方法论执行。

AI 是手,你是脑。手可以换,脑不可替代。

策略 2:把经验变成 Skill

传统路径:测试经验 → 留在脑子里 → 换工作就没了

新路径:测试经验 → 写成 Skill → AI 按你的经验执行 → 经验可复制、可带走、可展示

举个例子。我在监控平台踩过的坑:

  • Ant Design 的 Select 组件,普通 click 打不开,必须用 mousedown 事件
  • 页面上有个 AI 助手弹窗,点关闭按钮会导致页面跳转
  • 虚拟列表的选项不在视口里,需要先滚动再操作

这些经验以前在我脑子里。现在我把它们写成了 Agent 的参考文档,AI 再也不会踩同样的坑。

你的经验不再是"我知道",而是"AI 也知道了,而且不会忘"。

策略 3:占住"AI + 测试"的交叉地带

现在市面上:

  • 懂 AI 的人很多,但他们不懂测试
  • 懂测试的人很多,但他们不懂 AI
  • 既懂测试又能驾驭 AI Agent 的人,极少

这就是你的护城河。

不需要你成为 AI 专家,不需要你训练模型。你只需要:

  1. 用起来(每周花 2 小时尝试)
  2. 记下来(什么场景好用、什么场景不行)
  3. 讲出来(写文章、做分享,让别人知道你在做这件事)

12 个月后,当团队需要一个"AI 测试落地负责人"的时候,你就是那个人。


回到最初的问题

AI Agent 会取代测试工程师吗?

会取代一部分:那些只会点点点、跑脚本、复制粘贴测试报告的。

不会取代另一部分:那些能判断、能决策、能驾驭 AI 的。

区别在哪?

在于你愿不愿意从"被 AI 替代的人"变成"驾驭 AI 的人"。

这个转变没有你想的那么难。我用了 3 天,写了一个 Markdown 文件,就让 AI Agent 自己跑了 28 条测试用例。

你需要的不是学 AI,而是用 AI


给你一个立刻能做的事

今天就找一个你日常最重复的测试任务,试试用 AI 来做。

不用搞什么 Agent 框架,从最简单的开始:

  • 把你的测试步骤用自然语言写出来
  • 丢给 Claude / ChatGPT / 任何一个 AI
  • 看看它能帮你做到哪一步

你会发现,它能做的比你想象的多。 你也会发现,它做不好的,恰好是你最值钱的部分。

那就是你的安全感所在。


关注「测试进化论」—— 测试不会消失,只会进化。