AI 时代,品味成了最后的护城河

4 阅读5分钟

HN 上有篇文章这两天热度很高:《Good Taste — The Only Real Moat Left》。作者 Raj Nandan 的核心观点很简单:当 AI 让"还不错"的输出变得廉价,判断力成了真正的稀缺资源。

读完我的第一反应是:这不是显而易见的吗?但仔细想想,这个"显而易见"的道理,大多数人(包括我自己)在实际工作中并没有真正内化。

挤满了 7/10 的世界

作者用了一个很精准的比喻:我们正在进入一个 crowded 7 out of 10 world

以前,做出一个"还不错"的落地页、写出一篇"看起来专业"的产品文案、设计一个"够用"的 dashboard——这些需要时间、技能和资源。中等水平本身就是一道门槛。

现在呢?Claude 或 GPT 一个 prompt 就能生成"看起来不错"的东西。落地页秒出、产品文案随便写、pitch deck 打磨得 pixel-perfect。问题是:它们长得都差不多

Landing pages with different logos but the same structure. Product copy that could describe almost any app. Essays with clean headings and little lived judgment.

这不是 AI 的失败,恰恰相反——这是 AI 在"统计意义上的平均值"方面的成功。LLM 本质上是模式压缩引擎,它吸收海量数据,然后以极高的速度重组。它的默认倾向是走向分布的安全中心。

结果就是:中间段太拥挤了。

稀缺技能不再是生成,而是拒绝

这是我觉得文章最有洞见的地方。

以前,平庸的工作往往反映的是时间、资源或执行技能的不足。现在,平庸往往意味着另一件事:在第一个可接受的草稿处就停下来了

AI 压缩了初稿的成本,价值向下游转移。真正稀缺的能力变成了:

  • 这看起来不错,但太泛了
  • 这听起来很厉害,但藏着真正的 trade-off
  • 这界面很精致,但不符合用户实际的心智模型
  • 这计划很宏大,但运营约束让它不现实

换句话说,稀缺的技能不是 generation,而是 refusal

像 OfoxAI(ofox.ai)这样的多模型聚合平台让模型切换成本几乎为零——你可以快速让 Claude、GPT、Gemini 各出十个版本,但最终决定哪个方向对、哪个该毙掉,这个判断只能你自己下。

品味的定义:从"感觉不对"到"诊断"

作者对"品味"的定义很实用:

Taste shows up in three places: What you notice. What you reject. How precisely you can explain what feels wrong.

很多人能说"这感觉不对"。但很少人能说:"这失败是因为它听起来和其他所有 SaaS 产品一样",或者"这个解释把监管约束压缩成了营销话术,会让客户困惑"。

品味在从"氛围"变成"诊断"的那一刻,才变得有用。

作者提了一个实用的训练方法:

  1. 挑一个本周高杠杆的产出物(一段文字、一个定价说明、一封客户邮件)
  2. 让 AI 生成 10-20 个版本
  3. 对每个版本写一句话:"fails because..."
  4. 用一个硬约束重写最好的版本(比如:不准用 buzzword / 每句话只讲一个意思 / 必须承认一个真实的 trade-off)
  5. 发布,观察反馈

这个循环的目的不是让 AI 帮你选,而是建立更锐利的"拒绝词汇"。

光有品味不够

文章最有意思的地方在后半段。作者说:如果人类的价值被简化为"策展",那人类就变成了一个机器主导流程中的判别器。

用 GAN 的类比:判别器存在是为了帮助生成器进步。一旦生成器足够好,判别器不是最终交付的那个部分。

这不是说品味没有价值,而是说:品味 + 没有作者身份、没有利害关系、没有真正的构建,是一个狭窄且脆弱的角色

人类仍然需要做的事:

  1. 持有利害关系:AI 可以建议支付功能的文案,但当这个文案模糊了监管限制、客服工单飙升时,它不承担责任
  2. 处理真正的新事物:真正新的想法往往一开始看起来是"错的",因为它不像训练集里的东西。人类可以承受这种不适,保护早期脆弱的想法足够久,直到它变得清晰
  3. 选择方向:什么问题值得解决?什么 trade-off 可以接受?你想对什么样的产品、公司、写作负责?你拒绝优化什么?

这些不是后处理任务。这些是作者身份。

我的反思

读完这篇文章,我回想了一下自己最近的工作。

说实话,确实有很多时候我在"第一个可接受的草稿"处就停了。让 Claude 帮我写一段文档,看起来结构清晰、措辞专业,我就直接用了。但它真的准确描述了那个系统的真实约束吗?它真的会让读者做出正确的判断吗?

我不确定。因为我没有认真问自己:"这 fails because..."

也许这就是 AI 时代对工程师的新要求:不是写更多代码,而是建立更锐利的判断。知道什么是"统计上的平均",什么是"真正适合这个场景"。

品味不是天生的。它是在大量曝光、批判和真正交付中训练出来的。AI 可以加速这个循环——前提是你用对了。


"The scarce skill is not generation. It is refusal."