杨絮又开始飘了。往年的这时候,我大概正窝在工位一角,对着Excel表格里密密麻麻的测试用例,一个字段一个字段地核对,一个页面一个页面地点击。今年有点不一样,我坐在电脑前,看着屏幕上Dify工作流自动跑完最后一轮校验,起身接了杯咖啡——活干完了,脑子却比以往转得更多。
这不是岁月静好,这是工具革命带来的“副作用”。如果你还停留在“点点点”的舒适区,2026年的测试行业可能会让你感到陌生。根据行业报告,截至2025年末,AI在测试活动中的渗透率已逼近七成,传统手工测试岗位的需求正在肉眼可见地收缩。
但别慌,门槛变高的同时,路也变宽了。从“点点点”到“训训训”,我们不是失业了,而是升维了。这篇文章不聊焦虑,只聊干货:AI时代,测试人手里到底该握紧哪些新技能?
一、 新技能之一:提示词工程——你得学会“训”AI
以前我们的看家本领是“手速”,现在第一个要掌握的技能是“语商”——也就是如何跟AI大模型对话。
很多人觉得用AI就是简单的“帮我写个测试用例”,然后拿着生成的东西直接用,结果往往翻车。我以前也这样,直到有一次让AI写一个订单查询的断言,它总给我生成assert a == b这种固定值断言。后来我才明白,LLM本质是“概率预测” ,它不知道业务逻辑,它只是在补全你代码的“模样”。
新技能清单第一条:学会把大脑里的测试策略,翻译成AI能听懂的自然语言指令。
- 告别笼统,学会“链式思考”: 别再只输入“写测试用例”。试着说:“你是一个资深的电商测试专家。请针对‘优惠券叠加规则’设计测试用例。请遵循以下步骤思考:1. 先拆解规则中的互斥条件;2. 再考虑金额门槛的边界值;3. 最后考虑并发场景。请输出包含前置条件、步骤和预期结果的表格。”
- 给例子(Few-shot)比定规矩更有效: 直接甩给它两个你以前写的优秀用例作为模板,告诉它“照着这个格式和深度,再写五个”。AI在模式匹配上远比理解抽象指令更强。
- 让它扮演角色: “你现在不是AI,你是刚接手这个项目的测试新手,请根据这份PRD,列出你所有看不懂的地方”——这种提示词往往能帮你发现文档的模糊地带。
掌握这项技能,AI就不再是偶尔抽风的玩具,而是随叫随到的24小时全天候测试助理。
二、 新技能之二:AI工具链的驾驭能力——从“自动化”到“智能化”
过去我们玩的是Selenium、Appium,写的是PageObject。现在,工具链正在被AI重塑。如果你还只会录制回放,可能真的有点跟不上趟了。
新技能清单第二条:不仅要会写脚本,更要会配置“智能体”。
现在的测试工具已经进化到可以用自然语言驱动了。比如自动遍历测试,以前我们需要写复杂的爬虫脚本去遍历页面,现在只需要在AI测试平台上提供一个入口链接或安装包,配置一下遍历深度、排除规则,剩下的交给crawler智能体,它会自动识别页面元素、模拟用户操作,最后给你出一份完整的页面覆盖率报告和异常跳转截图。
更高级一点的玩法是编排多智能体协作。我在去年年底啃下了一块硬骨头——用Dify这样的工作流平台搭建AI测试流水线。
想象一下这个场景(这也是我现在每天在做的):
- 用例生成智能体:输入PRD,自动生成50条包含正向、逆向、边界场景的测试问题(JSON格式)。
- 执行智能体:把这些问题通过API或对话节点,批量喂给我们待测的“AI智能客服”系统。
- 校验智能体:这是最核心的一步。以前校验只能对字段、状态码,现在用语义校验智能体,我可以定义标准:“请判断客服的回答是否基于事实、是否答非所问、是否涉及敏感信息”。AI会返回
PASS或FAIL并附上理由。
就这么一套流程跑下来,原来需要3个人干两天的回归测试,现在45分钟无人值守自动完成。我不再是“写脚本的人”,而是 “编排智能体的架构师” 。
三、 新技能之三:质量数据分析与建模思维——给AI喂“养料”
AI模型不是神仙,它的智能程度高度依赖于训练数据的质量。如果你所在的公司开始尝试用AI预测缺陷或者自动生成用例,你手里的那些历史Bug库、测试用例库,就成了宝贝。
新技能清单第三条:从“用数据”到“养数据”,具备数据清洗和标注的思维。
- 标注历史缺陷:当团队想训练一个专门识别资金安全风险的模型时,只有你知道哪些Bug曾经导致了资损。你需要把这些历史数据从库里面捞出来,打上标签“资损”、“高优先级”,告诉模型: “这种代码模式容易出大事,给我盯紧点。”
- 构建高质量知识库:为什么有时候AI生成的用例很水?因为知识库里只有一堆过期的基线用例。你需要像产品经理一样去梳理知识库:把业务术语、核心流程图、踩坑点、典型资损场景整理成结构化的Markdown或表格。AI在RAG检索时,才能召回真正有用的信息。
天猫技术团队曾分享过,他们在偏向C端的业务中,通过优化知识库和PRD规范化,AI生成用例的采纳率能高达85%以上。这85%的背后,不是算法工程师的功劳,而是测试专家对业务知识的梳理和投喂。
四、 新技能之四:质量左移与架构思维——盯着屏幕看,不如盯着全局看
当AI把我们从重复的用例执行中解放出来后,我们的工位其实发生了转移——从盯着测试环境,转移到盯着需求文档、盯着系统架构图、盯着线上监控看板。
新技能清单第四条:跳出“找Bug”的深井,建立全链路的质量保障视野。
- 可测试性评审:在需求评审会上,以前我们只关心“这个功能怎么测”。现在我们得关心“这个东西好不好用AI测”。如果PRD写得模棱两可、交互逻辑混乱,AI生成的用例也是一团浆糊。推动PRD规范化,反而成了我们提升效率的关键一招。
- 契约测试与全链路监控:微服务架构下,一个下单流程可能调用十几个服务。现在我的关注点不再只是单个接口的返回值,而是整个调用链的拓扑结构。我开始学习在服务网格里注入测试流量,实时验证整个交易路径的可靠性。这需要去了解一些运维和开发底层的知识,比如容器、服务网格、可观测性。
- 质量度量设计:代码覆盖率已经不够看了。怎么衡量用户体验的质量?怎么衡量AI生成内容的准确性?设计新的质量指标体系,成了测试专家新的发言席。
五、 写在最后:你的护城河是什么?
可能有人会问:照你这么说,以后AI啥都能干了,我们会不会被替代?
我想用亲身经历来回答。上个月,我们APP有个反馈说“用起来有点卡”,但所有的性能指标——CPU、内存、FPS——都在正常范围内。如果依赖AI,它只会告诉你“各项指标通过”。最后是一位跟了这个项目三年的测试同事,逐帧录制了用户操作视频,发现是某个动画在下拉刷新时出现了肉眼难以察觉的掉帧,进而推动了渲染逻辑的重构。
这种基于深度业务理解和用户体验共情的洞察力,以及推动问题解决的影响力,是AI暂时还无法替代的。
所以,AI时代测试人的护城河,不是单纯的“手速”,也不是单纯的“代码能力”,而是“人机协同”的能力:让AI处理那些大规模、重复性、模式化的“点点点”工作,而我们把精力释放出来,去从事测试策略设计、复杂业务逻辑验证、质量体系架构、用户体验精雕细琢这些更有创造性的“训训训”工作。
从现在开始,给自己列一份新技能清单吧:
- 短期(0-6个月) :死磕Prompt工程,至少精通一种AI测试工具(如Dify工作流)的编排,把你的手工用例全部“训”成AI用例。
- 中期(6-18个月) :深入了解你所负责系统的架构,学习基础的数据分析,开始构建和维护你团队的质量知识库。
- 长期(18个月+) :建立自己的质量观,从“验证者”成长为“质量架构师”或“产品质量负责人”。
关于我们
霍格沃兹测试开发学社,隶属于 测吧(北京)科技有限公司,是一个面向软件测试爱好者的技术交流社区。
学社围绕现代软件测试工程体系展开,内容涵盖软件测试入门、自动化测试、性能测试、接口测试、测试开发、全栈测试,以及人工智能测试与 AI 在测试工程中的应用实践。
我们关注测试工程能力的系统化建设,包括 Python 自动化测试、Java 自动化测试、Web 与 App 自动化、持续集成与质量体系建设,同时探索 AI 驱动的测试设计、用例生成、自动化执行与质量分析方法,沉淀可复用、可落地的测试开发工程经验。
在技术社区与工程实践之外,学社还参与测试工程人才培养体系建设,面向高校提供测试实训平台与实践支持,组织开展 “火焰杯” 软件测试相关技术赛事,并探索以能力为导向的人才培养模式,包括高校学员先学习、就业后付款的实践路径。
同时,学社结合真实行业需求,为在职测试工程师与高潜学员提供名企大厂 1v1 私教服务,用于个性化能力提升与工程实践指导。