AI 解锁的不是效率,是思维层级

0 阅读8分钟

我们谈论 AI 提升效率,谈论 AI 自动化,谈论 AI 降本增效。但有一件事几乎没人谈——AI 悄悄改变了我们在哪个层级上思考问题。这个变化,比效率提升更根本,也更难被量化。


在过去相当长的一段时间里,每当一个新想法出现,我的大脑几乎是同步运行着两条并行线程:一条在评估「这个目标方向是否值得」,另一条在估算「我能不能技术上实现它」。表面上看,这像是正常的可行性评估。但实际上,这两个问题的混跑造成了一个严重的认知污染——大量想法在还没想清楚「该不该做」之前,就已经因为感知到的实现难度而悄悄死掉了。

这是一种隐蔽的思维陷阱。它不像「懒惰」或「恐惧失败」那样容易被识别,甚至看起来很理性:我在做「资源评估」。但它实际上做的,是用执行层的噪音干扰了目标层的判断。


§ 01 技术复杂性是目标判断的污染源

假设你在思考:「我们是否应该为仓库管理系统引入视觉识别来替代人工盘点?」

在 AI 工具不够成熟的年代,你的脑子会很快运行到:「这需要训练一个物体检测模型,需要大量标注数据,需要部署推理服务,需要处理光照变化、遮挡问题……」——然后在这些实现细节的重量下,原本的战略问题「视觉识别是否是正确的方向」往往还没被认真讨论,项目就已经在心理上被否定了,或者被缩水成一个很小的 POC。

这就是污染。执行层的摩擦力,提前终止了目标层的思考。

实现成本越高,你就越难把注意力放在目标本身是否正确这个更根本的问题上。技术复杂性不只是执行障碍,它是一种认知税。

AI 做的事情,是大幅降低这个认知税。当你知道「实现」这件事的摩擦力可以被压缩到几天甚至几小时,你的思维资源就会自然地向上移动一个层级——从「我能不能做」移到「我该不该做」,从「怎么实现」移到「目标本身是否成立」。

这个向上移动,就是思维层级的跃迁。而第一性原则,正是在这个更高层级上工作的工具。


§ 02 第一性原则:被误解的思维工具

「第一性原则」这个词在过去几年被用滥了。Elon Musk 提到它,产品经理提到它,投资人提到它。但大多数时候,人们用它指代的,不过是「想得更底层一点」。这是对它的误读。

物理学意义上的第一性原则(First Principles),指的是从不需要进一步推导的基础事实出发,通过演绎推理得出结论。它的对立面不是「想得浅」,而是类比推理——即「别人都这么做,所以我也这么做」,或者「这个领域一直是这样的,所以我从这个起点开始」。

// 两种思维模式的对比

类比推理:
  输入:行业惯例 / 他人经验 / 历史做法
  过程:我 → 复制并微调
  风险:继承了别人的假设,包括错误的假设

第一性原则:
  输入:你认为最可靠的基础事实
  过程:事实 → 推导 → 结论
  风险:你的「基础事实」本身可能是错的

注意最后一行。第一性原则的风险,不在于推理过程,而在于你选取的「基础事实」的质量。这就引出了一个经常被忽略的问题:你的认知基础,从哪里来?


§ 03 认知基础的质量差异

对 AI 从业者来说,这个问题非常具体。

假设你要用第一性原则判断:「现在用多模态大模型做工业质检,技术可行性到底如何?」你需要一个认知基础:当前 VLM 的实际能力上限在哪里?在光照变化、小缺陷检测、推理速度等约束下,模型的表现边界是什么?

这个认知基础,主要有三种来源:

认知来源典型形态可靠性
媒体叙事新闻报道、社交媒体、会议演讲中的 Demo最低。存在严重的选择性偏差,只展示成功案例,隐去失败边界
他人经验同行分享、博客、技术报告中等。有上下文缺失,他人的场景约束未必与你的相同
亲手实验自己跑的 POC、实际测试、生产环境反馈最高。认知直接来自现实的校准,有具体的失败数据

大多数人的「第一性原则」,其实建立在第一种或第二种来源之上。这没有错,我们不可能对所有事情都亲手实验。但关键在于:你是否清楚你的认知基础属于哪一类?你是否知道它在哪里可能失效?

⚠️ 常见陷阱: 最危险的状态,是把「来自媒体叙事的类比推理」误认为「来自基础事实的第一性原则推导」。外表看起来一样底层,但一个来自可靠的实验观察,另一个来自一篇你觉得写得很有道理的 Medium 文章。


§ 04 认知局限不是障碍,不透明才是

理解了上面的问题,就能理解一个常见的误解:「我对某领域认知不够深,用第一性原则会不会在错误的地基上建楼?」

这个担忧是真实的,但它指向了一个错误的解法——「等我认知足够深再用」。这个等待永远不会结束。认知局限是人的常态,不是需要被消除的前提条件。

第一性原则的正确使用方式,是带着明确的认知边界去推理。具体来说:

// 透明的推理链结构

已知事实(来源:亲手实验):
  当前 GPT-4V 在标准光照下检测 >2mm 缺陷,准确率 ~91%
  在逆光场景下准确率下降至 ~67%

已知边界(来源:未测试):
  不清楚在动态传送带速度下的表现
  不清楚在粉尘遮挡场景的鲁棒性

推导结论(基于以上):
  技术可行性:部分场景成立
  需要追加验证的假设:[具体列出]
  建议的 POC 范围:[针对已知边界设计]

这个结构的关键不是「认知要足够深」,而是「推理链要足够透明」。透明意味着:当新的信息进来,你能准确定位在哪个节点上需要更新。如果你不能做到这一点,你的结论就不是推导出来的,而是某种程度上猜出来的。


§ 05 AI 作为第一性原则思维的放大器

回到开头的问题。AI 的真正价值,不只是「帮你更快地做事」,而是改变了你在哪个认知层级上分配注意力。

当实现层的摩擦力被大幅压缩,你的认知资源会自然上移。这是一个结构性的变化,不是自律问题,不是「我要强迫自己想得更底层」。摩擦力改变了,注意力的分配就会改变。

但这里有一个值得警惕的副作用:摩擦力降低的同时,迭代速度加快,这会让人产生一种「快速行动等于深度思考」的错觉。你可以在一天内跑出三个 POC,但如果每个 POC 的目标都没有经过第一性原则的推导,那速度只是在更快地走错路。

AI 清除了执行层的噪音,但信号仍然需要你来判断。它是放大器,不是替代品。你判断信号的质量,取决于你认知基础的质量——它从哪里来,它的边界在哪里。

所以,真正值得追问的问题是:AI 帮你节省下来的认知资源,你把它放到哪里去了?放到更快地执行,还是放到更诚实地审视目标本身?


§ 06 一个实践性的结语

对 AI 从业者来说,有一个具体的习惯值得建立:在每一个技术方向的判断上,主动把自己的推理链写出来——不是为了展示,而是为了检验。

写出来之后,检查三件事:

  1. 我的基础事实,来源是什么? 是媒体叙事,是他人经验,还是亲手实验?
  2. 我的认知边界在哪里? 哪些假设我明确知道还没有验证?
  3. 如果某个基础事实被证伪,我的结论会在哪里改变?

如果这三个问题你都能回答,你就是在做真正意义上的第一性原则推理——无论你的认知有多深,无论这个领域你有多少经验。如果你不能回答,那值得先停下来,搞清楚你的推理建立在什么之上。

认知局限人人都有,这不是问题。问题是认知来源不透明,推理链不可检验,结论无法被更新。AI 给了我们更多思考目标层的机会——用好这个机会,需要的不是更快的执行,而是更诚实的推理。