前阵子和一个技术负责人聊天,他说了一句很扎心的话:
“现在候选人都能在 30 秒里让 AI 写出一段看起来不错的代码,但我还是不知道他到底能不能把项目做成。”
这句话基本点穿了现在的面试焦虑。
不是没人会写代码,而是大家都在问:你会不会用 AI 交付结果,而不是制造新坑。
先讲结论:面试重心变了
以前很多题目在考“记没记住”。
现在更该考的是:
- 需求来了,你怎么拆。
- AI 给答案了,你怎么验。
- 真上生产了,你怎么稳住。
你可以不手写所有轮子,但不能不知道轮子什么时候会飞出去。
高点击面试文为什么有人看完还收藏
不是因为题多,而是因为“像真实面试现场”。
你看高阅读文章,通常都在做三件事:
- 开场先给一个“反常识结论”,把人留住。
- 题目都带场景,不问空定义。
- 每题都有“看点”和“追问”,像面试官真实发问。
所以这篇我也不按固定多少条来,按真实场景给你一套可直接拿去用的问法。
前端面试题(AI 环境版):不考背诵,考交付
场景 1:AI 10 分钟帮你搭完页面,你敢不敢直接提测?
你会先看什么?是“能跑就行”,还是先过可读性、可维护性、可测试性?
看点:是否会主动提 lint、单测、埋点、异常态、无障碍。
追问:如果效果上线后首屏慢了,你怎么判断是 AI 代码问题,还是资源加载策略问题?
场景 2:AI 生成了 5 个相似组件,业务很开心,半年后团队很痛苦
你怎么避免“短期提速,长期还债”?
看点:有没有抽象意识(hooks/composables)、有没有演进路径。
追问:在迭代压力大时,怎么说服团队先做一轮结构治理?
场景 3:给你一个“AI 生成 UI”需求,怎么定验收标准?
视觉像不像只是第一层,交互一致性、边界状态、可访问性才是大头。
看点:能不能把“主观好看”变成“客观可验收”。
追问:你会如何用自动化截图或 E2E 降低回归成本?
场景 4:AI 补全 TS 类型很快,但 any 也扩散得很快
你怎么在速度和类型安全之间拿平衡?
看点:边界类型、schema 校验、运行时保护意识。
追问:如果你接手一个 any 泛滥项目,第一周会先改哪三处?
场景 5:团队都在用 Copilot,代码风格越来越“人格分裂”
你会怎么立规则,既不压效率,也不放飞质量?
看点:规范落地能力,而不是“提倡大家自觉”。
追问:哪些代码允许 AI 直出,哪些必须人工重写?
后端面试题(AI 环境版):不考术语,考系统判断
场景 1:AI 生成一个订单服务,功能能跑,但你不敢上
你第一反应看哪里?
看点:幂等、事务边界、重试策略、压测和告警。
追问:只允许补三项,你先补哪三项,为什么?
场景 2:AI 写 SQL 很快,但慢查询把库打红了
你会怎么排查,不拍脑袋?
看点:执行计划、索引命中、缓存策略、读写分离。
追问:怎么把慢查询治理做成持续机制,而不是一次性救火?
场景 3:你们在服务里接了 Agent,线上偶发“胡说八道”
怎么定位是模型问题、检索问题,还是工具调用问题?
看点:trace、工具调用日志、决策日志、错误分层。
追问:如果日志不全,你怎么做最小化补救?
场景 4:老板问“AI 调用成本太高,马上降 30%”
你怎么降,不把效果砍崩?
看点:模型路由、缓存命中、token 控制、请求分级。
追问:你如何证明降本后用户体验没明显下滑?
场景 5:AI 功能准备上线,但法务问审计链路在哪
你怎么回答才像一个靠谱工程师?
看点:输入输出留痕、敏感信息脱敏、权限与可追责。
追问:发生数据泄露时,多久能复盘完整责任链?
面试官怎么打分,才不被“会说话”带跑
我更建议看这 5 件事,而不是看谁术语多:
- 能不能先澄清问题边界。
- 能不能给出分层方案和优先级。
- 能不能主动谈风险和回滚。
- 能不能给监控指标和验收闭环。
- 能不能讲人话,让团队听得懂并执行。
如果一个候选人全程都在讲“这个模型多强、多先进”,但说不出怎么上线、怎么追责、怎么降本,那基本还停留在 demo 阶段。
两个很容易吵起来,但值得聊的观点
- 会写 Prompt 不等于会做工程。
- AI 放大的是判断力差距,不是编码速度差距。
你可以直接拿去用的面试开场白
“我们不考八股,今天用一个真实场景聊聊:
给你 AI + 两周时间 + 一个必须上线的小需求,你怎么从 0 做到可交付?”
这句话一出,候选人是“背题型”还是“做事型”,通常 10 分钟就能看出来。