AI 时代,前后端面试到底怎么问?别再考八股了

0 阅读5分钟

前阵子和一个技术负责人聊天,他说了一句很扎心的话:
“现在候选人都能在 30 秒里让 AI 写出一段看起来不错的代码,但我还是不知道他到底能不能把项目做成。”

这句话基本点穿了现在的面试焦虑。
不是没人会写代码,而是大家都在问:你会不会用 AI 交付结果,而不是制造新坑。

封面建议图:候选人、AI助手、线上监控大盘三栏对照


先讲结论:面试重心变了

以前很多题目在考“记没记住”。
现在更该考的是:

  • 需求来了,你怎么拆。
  • AI 给答案了,你怎么验。
  • 真上生产了,你怎么稳住。

你可以不手写所有轮子,但不能不知道轮子什么时候会飞出去。


高点击面试文为什么有人看完还收藏

不是因为题多,而是因为“像真实面试现场”。
你看高阅读文章,通常都在做三件事:

  • 开场先给一个“反常识结论”,把人留住。
  • 题目都带场景,不问空定义。
  • 每题都有“看点”和“追问”,像面试官真实发问。

所以这篇我也不按固定多少条来,按真实场景给你一套可直接拿去用的问法。


前端面试题(AI 环境版):不考背诵,考交付

场景 1:AI 10 分钟帮你搭完页面,你敢不敢直接提测?

你会先看什么?是“能跑就行”,还是先过可读性、可维护性、可测试性?
看点:是否会主动提 lint、单测、埋点、异常态、无障碍。
追问:如果效果上线后首屏慢了,你怎么判断是 AI 代码问题,还是资源加载策略问题?

场景 2:AI 生成了 5 个相似组件,业务很开心,半年后团队很痛苦

你怎么避免“短期提速,长期还债”?
看点:有没有抽象意识(hooks/composables)、有没有演进路径。
追问:在迭代压力大时,怎么说服团队先做一轮结构治理?

场景 3:给你一个“AI 生成 UI”需求,怎么定验收标准?

视觉像不像只是第一层,交互一致性、边界状态、可访问性才是大头。
看点:能不能把“主观好看”变成“客观可验收”。
追问:你会如何用自动化截图或 E2E 降低回归成本?

场景 4:AI 补全 TS 类型很快,但 any 也扩散得很快

你怎么在速度和类型安全之间拿平衡?
看点:边界类型、schema 校验、运行时保护意识。
追问:如果你接手一个 any 泛滥项目,第一周会先改哪三处?

场景 5:团队都在用 Copilot,代码风格越来越“人格分裂”

你会怎么立规则,既不压效率,也不放飞质量?
看点:规范落地能力,而不是“提倡大家自觉”。
追问:哪些代码允许 AI 直出,哪些必须人工重写?


后端面试题(AI 环境版):不考术语,考系统判断

场景 1:AI 生成一个订单服务,功能能跑,但你不敢上

你第一反应看哪里?
看点:幂等、事务边界、重试策略、压测和告警。
追问:只允许补三项,你先补哪三项,为什么?

场景 2:AI 写 SQL 很快,但慢查询把库打红了

你会怎么排查,不拍脑袋?
看点:执行计划、索引命中、缓存策略、读写分离。
追问:怎么把慢查询治理做成持续机制,而不是一次性救火?

场景 3:你们在服务里接了 Agent,线上偶发“胡说八道”

怎么定位是模型问题、检索问题,还是工具调用问题?
看点:trace、工具调用日志、决策日志、错误分层。
追问:如果日志不全,你怎么做最小化补救?

场景 4:老板问“AI 调用成本太高,马上降 30%”

你怎么降,不把效果砍崩?
看点:模型路由、缓存命中、token 控制、请求分级。
追问:你如何证明降本后用户体验没明显下滑?

场景 5:AI 功能准备上线,但法务问审计链路在哪

你怎么回答才像一个靠谱工程师?
看点:输入输出留痕、敏感信息脱敏、权限与可追责。
追问:发生数据泄露时,多久能复盘完整责任链?


面试官怎么打分,才不被“会说话”带跑

我更建议看这 5 件事,而不是看谁术语多:

  • 能不能先澄清问题边界。
  • 能不能给出分层方案和优先级。
  • 能不能主动谈风险和回滚。
  • 能不能给监控指标和验收闭环。
  • 能不能讲人话,让团队听得懂并执行。

如果一个候选人全程都在讲“这个模型多强、多先进”,但说不出怎么上线、怎么追责、怎么降本,那基本还停留在 demo 阶段。


两个很容易吵起来,但值得聊的观点

  1. 会写 Prompt 不等于会做工程。
  2. AI 放大的是判断力差距,不是编码速度差距。

你可以直接拿去用的面试开场白

“我们不考八股,今天用一个真实场景聊聊:
给你 AI + 两周时间 + 一个必须上线的小需求,你怎么从 0 做到可交付?”

这句话一出,候选人是“背题型”还是“做事型”,通常 10 分钟就能看出来。