Vibe Coding 程序员何去何从?最大的价值是质疑能力

3 阅读5分钟

当 AI 成为强力执行者,细节做得好不好、快不快,都不再重要。模型会越来越智能、越来越快。但真正决定你能用好 AI 还是被 AI 牵着走的,是你的思考能力。

专业能力的本质是质疑能力

很多人以为用好 AI 的关键是写好提示词(Prompt)。但实际上,专业能力的本质是质疑能力

理解不够深入、没有经验判断,你就无法质疑 AI 做法的好坏。最多只能在结果层面去质疑——"这个输出不对"、"这个效果不是我要的"。但你说不出哪里不对、为什么不对、应该怎么改

更危险的是,即便 AI 很配合你的修改,进行得看起来很顺利,也很有可能在拆东墙补西墙。你修好了 A,B 悄悄坏了,而你浑然不知。

这就引出了一个关键问题:AI 生成的代码量和你的掌控力之间存在一个临界点。

代码量小的时候,谁都能 hold 住。但随着复杂度增长,如果你的质疑能力跟不上 AI 的产出速度,你就会逐渐失去引导能力和控制能力,最终只能任由 AI 发挥——你变成了一个点"确认"按钮的人。

人在 AI 时代需要的三层思考能力

我把人与 AI 协作时需要的思考能力分为三个层次:

第一层:过程质疑 —— 专家维度

这是基于专业能力和经验的质疑。

你需要能够对 AI 的执行过程进行观测和评估:它的实现思路对不对?架构是否合理?是否有扩展性?能否承载复杂状态?

没有足够的领域专业能力,即便你能利用 AI 很快入门,做出一个看似过了门槛的 demo,但在细节差异、扩展性、复杂状态承载等方面,你是提不出质疑的。

AI 的幻觉和不确定性会随着代码量增长而累积。如果你无法从过程层面质疑,这些问题就会像滚雪球一样,直到某个时刻集中爆发。

第二层:结果把控 —— 管理维度

这需要全局视角。你不一定需要知道执行细节,但你必须清楚:

  • 要达到什么结果
  • 做到什么程度算完成
  • 最关注什么、底线在哪

这里有一个反直觉的点:不是要关注更多,而是要关注更少。

AI 产生代码的速度和量远远超过了人脑的处理能力。什么都抓,等于什么都抓不住。你应该只关注最核心的目的,然后守住底线(比如安全就是底线)。

同时你必须保持持续的自我追问:现在走到哪一步了?是否符合预期?下一步应该往什么方向?

你的管理能力很大程度取决于你对最终结果的预期是否明朗。如果你自己都说不清楚要什么,AI 更不可能帮你说清楚。

第三层:问题定义 —— 最核心的能力

前两层都是在"已定义的问题空间"里工作。而第三层是:定义问题本身。

  • 存在什么问题?
  • 问题有什么影响?
  • 这个问题值不值得解决?
  • 怎么定义"解决了"?

这是人最核心的能力,也是 AI 最难替代的能力。

AI 非常擅长通过模型训练找到既定框架下的好坏对错。给它一个明确的问题,它能给你一个高质量的答案。但问题从哪来?标准谁来定?

人对世界的认知、人的感受在不停地变化,标准在不停地被重新定义。即便 AI 想跟随这些变化,也需要时间去收集数据、训练模型。

人的独特性和不可替代性,就存在于我们对问题的定义、对问题的思考之中。 这里没有绝对的好坏对错,只有基于你的经历、处境、理解所做出的判断。

三层能力的关系

这三层不是孤立的,而是自下而上支撑的:

第三层:问题定义(为什么做)
    ↓ 定义问题空间
第二层:结果把控(做成什么样)
    ↓ 设定目标和边界
第一层:过程质疑(怎么做才对)
    ↓ 引导执行过程
AI 执行层(具体做)

越往上,越不可替代。 模型进步可以逐步压缩第一层的价值——更强的 AI 需要更少的过程纠偏。第二层的价值也会被压缩——AI 会越来越擅长自我评估结果质量。

但第三层——问题的定义权——始终在人手里。因为问题的定义不是对客观世界的"发现",而是人基于自身理解的"创造"。

一个危险的趋势

当越来越多的人把第三层能力也交给 AI——"帮我想想做什么"、"你觉得我应该做什么"——人和 AI 的关系就从协作变成了依赖

你用 AI 的边界,就是你能质疑 AI 的边界。超出这个边界的部分,你要么先补上认知再做,要么就接受结果不可控的风险。

这不是 AI 的问题,是人的问题。

写在最后

AI 时代真正拉开差距的,不是谁的提示词写得好,不是谁用的模型新,而是:

  • 你能不能基于专业能力质疑 AI 的过程(第一层)
  • 你能不能克制地只关注核心目标和底线(第二层)
  • 你能不能定义出有价值的问题(第三层)

工具会越来越强,但思考能力是你唯一带不走、也替代不了的东西


本文基于与 AI 的深度对话整理而成。是的,这篇关于"如何思考 AI"的文章,本身就是人与 AI 协作的产物——我定义了问题,AI 帮我组织了表达。