AI不一定会让人更自由,反而可能让人更难拒绝效率

4 阅读18分钟

免责声明:本文仅为个人行业趋势独立观察与思辨,观点仅代表个人预判,不构成职业、投资及人生决策建议;亦不涉及任何违规工具的制作、传播或使用,不构成任何违法建议。

前几篇我一直在讲一个趋势:AI和Agent正在改变人和任务之间的关系。

游戏里,玩家可能从亲自操作,变成指挥Agent; 现实里,普通努力可能被重新定价; 内容领域里,当生成越来越便宜,验证和可信反而会变贵; 再往后,AI不一定会取代你,但可能会把你变得和所有人差不多; AI不一定替你做决定,但可能会悄悄限定你能看到的选项; AI越懂你,越可能把你困在过去的自己; AI帮你做了很多事,但最后谁来负责,也会变成新问题; 上一篇我写到,AI时代,省力可能会变得理直气壮。

这一篇,我想继续往下推一层。

当然,目前很多AI工具还没有到“非用不可”的程度,不同场景的成熟度也差异很大。本文讨论的不是今天所有人都必须立刻使用AI,而是当AI能力继续提高、成本继续下降、应用继续普及之后,效率压力可能怎样形成。

AI带来的变化,不一定只是让人更省力。

它还可能让“效率”本身变成一种压力。

表面上看,AI给了人更多选择:

你可以自己写,也可以让AI写初稿; 你可以自己查,也可以让AI整理资料; 你可以自己做方案,也可以让AI生成框架; 你可以自己跑流程,也可以让Agent自动推进。

这看起来像自由。

但问题是,当所有人都开始用AI提高效率之后,不用AI、不追求最快、不自动化,反而可能变成一种需要解释的行为。

以前你慢一点,可能是认真; 以后你慢一点,别人可能会问:

你为什么不用AI?

这才是我想讨论的地方:

AI不一定会让人更自由,反而可能让人更难拒绝效率。

一、工具给了你选择,但环境会逼你选最快的那个

AI刚出现时,很多人会把它理解成一种工具。

工具嘛,用不用是你的自由。

你愿意用AI写初稿,可以; 你愿意自己慢慢写,也可以; 你愿意让AI生成方案,可以; 你愿意亲自打磨,也可以。

表面上看,选择变多了。

但现实不会这么简单。

因为当一个工具真正能提高效率,它就不只是工具。

它会慢慢变成标准。

一开始,用AI是加分项。 后来,不用AI可能就变成扣分项。

一开始,用AI的人看起来很先进。 后来,不用AI的人可能看起来很落后。

一开始,你可以说:

我不用AI,因为我想自己慢慢想。

后来别人可能会说:

你慢慢想可以,但为什么要拖慢整个团队?

这就是工具变成压力的过程。

AI给了你选择。

但当环境开始奖励最快的选择,你就很难真的自由选择。

因为你不是在真空里工作。

你在公司里; 在平台里; 在市场里; 在团队协作里; 在绩效考核里; 在内容竞争里; 在交付周期里。

当别人都开始用AI压缩时间、提高产出、降低成本,你坚持慢,就不再只是个人风格。

它会变成一个需要解释的问题。

工具给了你选择,但环境会逼你选最快的那个。

二、当效率变成道德,慢就会变成错

以前,慢不一定是坏事。

慢可能代表谨慎; 慢可能代表打磨; 慢可能代表亲自理解; 慢可能代表风险控制; 慢可能代表尊重细节; 慢可能代表不愿意粗暴交付。

但AI普及之后,慢会越来越容易被重新解释。

你慢,可能会被说成不懂工具; 你慢,可能会被说成不适应时代; 你慢,可能会被说成效率低; 你慢,可能会被说成浪费资源; 你慢,可能会被说成拖慢团队; 你慢,可能会被说成没有拥抱新生产力。

这才是最微妙的地方。

效率本来只是一个指标。

但它很容易被抬高成一种道德。

谁更快,谁更先进; 谁更自动化,谁更聪明; 谁更会用AI,谁更懂趋势; 谁减少人工,谁更现代; 谁还坚持人工,谁就像是在增加成本。

于是,慢不再只是慢。

慢会变成一种需要辩护的状态。

你要解释:

为什么不用AI? 为什么还要人工做? 为什么不能自动化? 为什么不能更快一点? 为什么要保留人工判断? 为什么不能让系统先跑一版?

当效率变成道德,不追求效率的人就会被迫解释自己。

这不是简单的技术问题。

这是价值判断被效率接管的问题。

三、AI真正形成压力的,不只是快,而是又快又准

如果AI只是快,人还可以反驳。

我慢,但我更认真; 我慢,但我更可靠; 我慢,但我更有质量; 我慢,但我更懂现场; 我慢,但我更少犯错。

过去,效率和质量之间,经常有一种交换关系。

做得快,可能比较粗糙; 做得慢,可能更加细致; 自动化,可能不够灵活; 人工做,可能更可靠。

所以人还可以用一句话保护自己:

我不是慢,我是在认真做。

但AI真正改变游戏规则的地方在于,它不一定只追求快。

它会越来越快,也越来越准。

初稿快; 整理快; 比对快; 改错快; 生成多版本快; 检查漏洞快; 优化快; 复盘快; 还可能越来越少犯低级错误。

如果AI只是快,人还可以靠“认真”对抗。

但如果它又快又准,很多普通人的认真就会变得很尴尬。

因为你花两小时认真整理的东西,AI可能几分钟整理出来,而且格式更完整、逻辑更顺、错漏更少。

你花一天打磨的初稿,AI可能很快给出十个版本,还能根据反馈继续改。

你认真查资料,AI可能已经帮别人做完摘要、对比、表格、结论和风险提示。

这不是说AI一定比人更懂,也不是说人不需要认真。

而是说,当AI同时提供速度和质量,“认真做事”本身就不再一定足以形成优势。

以前你可以靠认真赢过敷衍。

以后,如果AI让大量敷衍的人也能交出看起来很完整的结果,你的认真就必须拿出更高层次的东西。

不是更整齐; 不是更完整; 不是更像样; 不是更快交付。

而是更深的判断、更真实的经验、更好的取舍、更强的验证能力。

最可怕的不是AI比你快,而是它比你快的同时,还比你少犯错。

四、工程文化会天然强化效率叙事

这里要说清楚,我不是在指责工程师。

工程师创造工具、优化流程、提高效率,本来就是技术进步的重要动力。

没有工程文化对效率、稳定性、自动化和系统化的追求,很多技术根本不可能落地。

但也正因为如此,工程文化天然容易强化一种叙事:

能不能更快? 能不能更自动? 能不能更少人工? 能不能更低成本? 能不能更稳定? 能不能更高吞吐? 能不能让Agent接管一部分流程?

这些问题本身都合理。

问题是,如果所有问题最后都被翻译成效率问题,人就容易忘记问另一组问题:

这件事是否应该慢一点? 人工参与是否仍然有必要? 可解释性是否比速度重要? 验证成本是否被忽略了? 风险是不是只是被推到后面? 人是否还保留关键判断位置? 效率提升之后,谁承担后果?

工程思维最强的地方,是它会不停问“能不能更快”。

但人类社会有些问题,还需要问:

应不应该这么快?

技术系统喜欢可优化的东西。

速度可以优化; 成本可以优化; 流程可以优化; 错误率可以优化; 人力投入可以优化; 交付周期可以优化。

但很多人的价值,不一定能完全被优化指标覆盖。

信任需要时间; 判断需要经验; 责任需要边界; 创造需要绕路; 沟通需要理解; 教育需要试错; 医疗、金融、法律这些场景,更不能只问效率。

如果技术系统只盯着“更快、更准、更省”,它当然会持续迭代AI。

而且每一次迭代都有理由。

因为谁能反对更快?

谁能反对更准?

谁能反对更低成本?

这就是效率叙事最强的地方。

它不需要说自己完美。

它只需要说:

我比原来更有效率。

五、效率叙事会让AI迭代永远显得正当

只要AI能省时间,它就有理由上。

只要Agent能省人工,它就有理由做。

只要自动化能降低成本,它就有理由扩大。

只要模型能提升产出,它就有理由接入更多流程。

这套逻辑非常强。

因为它看起来不是意识形态,而是事实。

你看,效率提高了; 你看,成本下降了; 你看,错误减少了; 你看,吞吐提升了; 你看,人工负担减轻了; 你看,用户等待时间缩短了。

每一个理由都成立。

AI高效辅助当然有助发展。真正危险的,不是效率本身,而是效率被慢慢定性为一种“正义”:谁更快,谁就更先进;谁质疑效率,谁就像是在反对进步。

当效率成为最高正当性,其他价值就会被迫让路。

质量可以让路,因为效率更重要; 体验可以让路,因为效率更重要; 人工判断可以让路,因为效率更重要; 少数人的特殊需求可以让路,因为效率更重要; 复杂场景的慢验证也可以让路,因为效率更重要。

最后,所有不够快的东西都会变得可疑。

你坚持人工审核,别人问为什么不能自动审核; 你坚持慢慢讨论,别人问为什么不用AI先出方案; 你坚持现场判断,别人问为什么不能用模型预测; 你坚持人工确认,别人问为什么不能让Agent自动执行; 你坚持保留缓冲时间,别人问为什么不能压缩流程。

效率一旦成为最高正当性,所有不够快的东西都会变得可疑。

这时,拒绝AI就不再像是拒绝工具。

它会被包装成拒绝效率、拒绝进步、拒绝新生产力。

这才是压力真正形成的地方。

六、拒绝AI会从自由变成落后

以前不用AI,是一种个人选择。

你可以说:

我喜欢自己写; 我喜欢自己想; 我喜欢手动打磨; 我喜欢慢一点做; 我喜欢亲自检查; 我喜欢保留自己的方式。

别人未必理解,但至少这还是你的自由。

但当AI成为默认工具之后,不用AI可能会被重新定义。

不是“你选择不用”。

而是:

你效率低; 你不配合; 你不会工具; 你不懂趋势; 你拖慢团队; 你增加成本; 你没有适应新工作方式。

这就是压力。

你不是完全没有自由。

但你要为自己的自由付出解释成本。

你慢一点,要解释; 你人工做,要解释; 你不用AI,要解释; 你要求人工审核,要解释; 你要求多一点时间,要解释; 你不接受全自动流程,也要解释。

最隐蔽的压力,不是禁止你慢,而是让你每一次慢都要自证合理。

这时候,人会越来越不敢慢。

哪怕他知道有些事情应该慢。

哪怕他知道有些判断不能交给AI。

哪怕他知道有些结果需要人工验证。

但只要环境不断追问效率,他就会越来越难坚持。

因为坚持慢,意味着你要不断解释自己为什么不快。

七、效率会从工具指标,变成管理语言

效率一旦成为道德,它就会进入管理语言。

管理者会说:

我们要提升效率; 我们要减少重复劳动; 我们要压缩交付周期; 我们要让AI先跑起来; 我们要把低价值工作自动化; 我们要让人做更有价值的事。

这些话听起来都没有问题。

很多时候也确实有价值。

但真正需要警惕的是:

谁来定义什么叫低价值? 谁来定义什么叫重复劳动? 谁来定义什么叫更有价值? 谁来决定哪些人工环节可以被压缩? 谁来判断效率提高后有没有把风险推迟?

很多人工参与,看起来低效,但不一定没价值。

一个人亲自看一遍,可能发现系统没发现的问题; 一个人慢慢沟通,可能避免后续误解; 一个人坚持复核,可能挡住一次重大错误; 一个人不急着交付,可能是在等更完整的信息; 一个人拒绝自动执行,可能是在保留责任边界。

但这些价值很难被效率指标直接计算。

所以它们很容易被压缩。

AI时代的管理语言,很可能会越来越强调:

更快; 更省; 更自动; 更少人工; 更高产出; 更低成本。

这当然会带来进步。

但如果只剩下这套语言,人就会越来越难说:

这件事不能只按效率算。

八、AI让人更自由,还是让人更难拒绝标准化?

很多人会说,AI让人更自由。

因为它降低了门槛。

不会写的人可以写; 不会画的人可以画; 不会做方案的人可以做方案; 不会整理资料的人可以快速整理; 没有团队的人也可以做出雏形。

这当然是真的。

AI确实释放了很多人。

但自由不只是“我能做更多事”。

自由还包括:

我能不能选择不这样做; 我能不能选择慢一点; 我能不能拒绝默认流程; 我能不能不走最高效路线; 我能不能保留自己的判断节奏; 我能不能说这件事需要人工参与; 我能不能不因为低效而被自动判定为落后。

如果AI带来的只是更多工具,那它确实让人更自由。

但如果AI带来的,是一种越来越强的效率标准,那它也可能让人更难拒绝标准化。

你当然可以不用AI。

但你要解释为什么不用。

你当然可以慢慢做。

但你要解释为什么要慢。

你当然可以亲自判断。

但你要解释为什么不能交给系统先判断。

你当然可以反对自动化。

但你要解释为什么你的反对不是落后。

这就是自由被效率重新定价的过程。

你没有被禁止。

但你被要求解释。

九、最可怕的不是效率提升,而是质疑效率变得不体面

效率本身不是坏事。

AI提高效率,也不是坏事。

真正的问题是:

当效率变成最高价值,质疑效率的人会变得越来越不体面。

你提出风险,别人说你保守; 你要求验证,别人说你拖慢; 你坚持人工判断,别人说你不懂AI; 你拒绝全自动,别人说你抗拒趋势; 你提醒责任边界,别人说你阻碍创新。

于是,真正的问题慢慢从“AI有没有用”,变成:

你凭什么质疑AI?

这就很危险。

因为任何技术都应该允许被质疑。

尤其是当它进入医疗、金融、法律、教育、公共服务、企业决策、内容分发这些场景时,更应该允许人提出:

它错了怎么办? 它偏了怎么办? 它推荐的路径是不是太窄? 它是不是把复杂问题简化了? 它是不是让人减少了判断? 它是不是把责任链变模糊了? 它是不是只优化了效率,却牺牲了其他价值?

如果这些问题都被一句“你是不是不懂效率”压下去,技术讨论就会变成道德审判。

质疑AI,不应该等于反对进步。

但效率叙事一旦太强,就很容易把二者绑在一起。

十、当效率、准确率和成本优势绑在一起,反对AI就像是在反对进步

这里会形成一个很强的闭环。

一开始,AI只是被包装成提高效率的工具。

后来,当AI不只是更快,还开始更稳、更准、更少犯低级错,效率叙事就有了事实支撑。

于是,质疑AI的人不再只是被看成“不够高效”,还可能被看成“不够正确”。

你不用AI,别人会问你为什么不用更快的方法; 你质疑AI,别人会问你是不是不懂技术; 你坚持人工判断,别人会问你是不是在拖慢流程; 你要求慢一点,别人会问你是不是在增加成本。

这时候,效率就不只是效率,而会慢慢变成一种道德压力。

更麻烦的是,当AI真的能提高速度、降低错误、压缩成本,这套压力就不再只是口号,而会变成一种看似合理的标准。

所以质疑AI的人,不只像是“不高效”,还像是“不正确”。

效率道德一旦有了事实支撑,持续迭代AI就会变得永远正义。

当效率、准确率和成本优势绑在一起,反对AI就不再像是反对工具,而像是在反对进步。

而“反对进步”这个标签,足以让很多质疑者沉默。

这就是效率叙事最强的地方:

它不需要说“AI一定完美”。

它只需要让你觉得:

不用AI很落后,质疑AI很不合时宜。

对工程文化来说,这几乎是一个最容易接受的终极理由。

不是“AI很好”这么简单。

而是:

反对AI,看起来很坏。

一旦这个叙事成立,AI迭代就会变得近乎自带正当性。

因为每一次迭代,都可以被解释成更快、更准、更低成本; 每一次扩张,都可以被解释成减少浪费、提高效率、降低错误; 每一次压缩人工参与,都可以被解释成把人从低效流程里解放出来。

问题是,当所有事情都被翻译成效率问题,人就很容易忘记问另一个问题:

这件事,真的只应该按效率来算吗?

结语:真正稀缺的自由,是即使面对非重大决定,也仍然有权不只按效率算

AI当然可以提高效率。

也应该提高效率。

很多重复劳动、低价值流程、机械整理、格式处理、初稿生成,确实应该交给工具。

问题不在于效率本身。

问题在于:

当效率变成道德,所有慢下来、保留人工判断、要求验证、提出质疑的人,都可能被迫解释自己为什么“不够快”。

这才是AI时代更隐蔽的压力。

它不是直接剥夺你的自由。

而是让你在每次不选择效率时,都要承担解释成本。

你可以慢,但你要解释为什么慢; 你可以不用AI,但你要解释为什么不用; 你可以坚持人工,但你要解释为什么不能自动化; 你可以要求验证,但你要解释为什么不能相信系统; 你可以质疑AI,但你要解释为什么你不是在反对进步。

AI不一定会让人更自由。

它也可能让人更难拒绝效率。

所以真正成熟的AI使用,不是盲目加速一切。

而是知道:

哪些事情应该快; 哪些事情必须慢; 哪些事情可以交给AI; 哪些事情必须保留人工判断; 哪些效率是进步; 哪些效率只是把风险往后推。

AI时代真正稀缺的自由,可能不是不用工具。

而是即使面对非重大决定,你仍然有权说:

这件事,不能只按效率算。