免责声明:本文仅为个人行业趋势独立观察与思辨,观点仅代表个人预判,不构成职业、投资及人生决策建议;亦不涉及任何违规工具的制作、传播或使用,不构成任何违法建议。
前几篇我一直在讲一个趋势:AI和Agent正在改变人和任务之间的关系。
游戏里,玩家可能从亲自操作,变成指挥Agent; 现实里,普通努力可能被重新定价; 内容领域里,当生成越来越便宜,验证和可信反而会变贵; 再往后,AI不一定会取代你,但可能会把你变得和所有人差不多; AI不一定替你做决定,但可能会悄悄限定你能看到的选项; AI越懂你,越可能把你困在过去的自己; AI帮你做了很多事,但最后谁来负责,也会变成新问题; 上一篇我写到,AI时代,省力可能会变得理直气壮。
这一篇,我想继续往下推一层。
当然,目前很多AI工具还没有到“非用不可”的程度,不同场景的成熟度也差异很大。本文讨论的不是今天所有人都必须立刻使用AI,而是当AI能力继续提高、成本继续下降、应用继续普及之后,效率压力可能怎样形成。
AI带来的变化,不一定只是让人更省力。
它还可能让“效率”本身变成一种压力。
表面上看,AI给了人更多选择:
你可以自己写,也可以让AI写初稿; 你可以自己查,也可以让AI整理资料; 你可以自己做方案,也可以让AI生成框架; 你可以自己跑流程,也可以让Agent自动推进。
这看起来像自由。
但问题是,当所有人都开始用AI提高效率之后,不用AI、不追求最快、不自动化,反而可能变成一种需要解释的行为。
以前你慢一点,可能是认真; 以后你慢一点,别人可能会问:
你为什么不用AI?
这才是我想讨论的地方:
AI不一定会让人更自由,反而可能让人更难拒绝效率。
⸻
一、工具给了你选择,但环境会逼你选最快的那个
AI刚出现时,很多人会把它理解成一种工具。
工具嘛,用不用是你的自由。
你愿意用AI写初稿,可以; 你愿意自己慢慢写,也可以; 你愿意让AI生成方案,可以; 你愿意亲自打磨,也可以。
表面上看,选择变多了。
但现实不会这么简单。
因为当一个工具真正能提高效率,它就不只是工具。
它会慢慢变成标准。
一开始,用AI是加分项。 后来,不用AI可能就变成扣分项。
一开始,用AI的人看起来很先进。 后来,不用AI的人可能看起来很落后。
一开始,你可以说:
我不用AI,因为我想自己慢慢想。
后来别人可能会说:
你慢慢想可以,但为什么要拖慢整个团队?
这就是工具变成压力的过程。
AI给了你选择。
但当环境开始奖励最快的选择,你就很难真的自由选择。
因为你不是在真空里工作。
你在公司里; 在平台里; 在市场里; 在团队协作里; 在绩效考核里; 在内容竞争里; 在交付周期里。
当别人都开始用AI压缩时间、提高产出、降低成本,你坚持慢,就不再只是个人风格。
它会变成一个需要解释的问题。
工具给了你选择,但环境会逼你选最快的那个。
⸻
二、当效率变成道德,慢就会变成错
以前,慢不一定是坏事。
慢可能代表谨慎; 慢可能代表打磨; 慢可能代表亲自理解; 慢可能代表风险控制; 慢可能代表尊重细节; 慢可能代表不愿意粗暴交付。
但AI普及之后,慢会越来越容易被重新解释。
你慢,可能会被说成不懂工具; 你慢,可能会被说成不适应时代; 你慢,可能会被说成效率低; 你慢,可能会被说成浪费资源; 你慢,可能会被说成拖慢团队; 你慢,可能会被说成没有拥抱新生产力。
这才是最微妙的地方。
效率本来只是一个指标。
但它很容易被抬高成一种道德。
谁更快,谁更先进; 谁更自动化,谁更聪明; 谁更会用AI,谁更懂趋势; 谁减少人工,谁更现代; 谁还坚持人工,谁就像是在增加成本。
于是,慢不再只是慢。
慢会变成一种需要辩护的状态。
你要解释:
为什么不用AI? 为什么还要人工做? 为什么不能自动化? 为什么不能更快一点? 为什么要保留人工判断? 为什么不能让系统先跑一版?
当效率变成道德,不追求效率的人就会被迫解释自己。
这不是简单的技术问题。
这是价值判断被效率接管的问题。
⸻
三、AI真正形成压力的,不只是快,而是又快又准
如果AI只是快,人还可以反驳。
我慢,但我更认真; 我慢,但我更可靠; 我慢,但我更有质量; 我慢,但我更懂现场; 我慢,但我更少犯错。
过去,效率和质量之间,经常有一种交换关系。
做得快,可能比较粗糙; 做得慢,可能更加细致; 自动化,可能不够灵活; 人工做,可能更可靠。
所以人还可以用一句话保护自己:
我不是慢,我是在认真做。
但AI真正改变游戏规则的地方在于,它不一定只追求快。
它会越来越快,也越来越准。
初稿快; 整理快; 比对快; 改错快; 生成多版本快; 检查漏洞快; 优化快; 复盘快; 还可能越来越少犯低级错误。
如果AI只是快,人还可以靠“认真”对抗。
但如果它又快又准,很多普通人的认真就会变得很尴尬。
因为你花两小时认真整理的东西,AI可能几分钟整理出来,而且格式更完整、逻辑更顺、错漏更少。
你花一天打磨的初稿,AI可能很快给出十个版本,还能根据反馈继续改。
你认真查资料,AI可能已经帮别人做完摘要、对比、表格、结论和风险提示。
这不是说AI一定比人更懂,也不是说人不需要认真。
而是说,当AI同时提供速度和质量,“认真做事”本身就不再一定足以形成优势。
以前你可以靠认真赢过敷衍。
以后,如果AI让大量敷衍的人也能交出看起来很完整的结果,你的认真就必须拿出更高层次的东西。
不是更整齐; 不是更完整; 不是更像样; 不是更快交付。
而是更深的判断、更真实的经验、更好的取舍、更强的验证能力。
最可怕的不是AI比你快,而是它比你快的同时,还比你少犯错。
⸻
四、工程文化会天然强化效率叙事
这里要说清楚,我不是在指责工程师。
工程师创造工具、优化流程、提高效率,本来就是技术进步的重要动力。
没有工程文化对效率、稳定性、自动化和系统化的追求,很多技术根本不可能落地。
但也正因为如此,工程文化天然容易强化一种叙事:
能不能更快? 能不能更自动? 能不能更少人工? 能不能更低成本? 能不能更稳定? 能不能更高吞吐? 能不能让Agent接管一部分流程?
这些问题本身都合理。
问题是,如果所有问题最后都被翻译成效率问题,人就容易忘记问另一组问题:
这件事是否应该慢一点? 人工参与是否仍然有必要? 可解释性是否比速度重要? 验证成本是否被忽略了? 风险是不是只是被推到后面? 人是否还保留关键判断位置? 效率提升之后,谁承担后果?
工程思维最强的地方,是它会不停问“能不能更快”。
但人类社会有些问题,还需要问:
应不应该这么快?
技术系统喜欢可优化的东西。
速度可以优化; 成本可以优化; 流程可以优化; 错误率可以优化; 人力投入可以优化; 交付周期可以优化。
但很多人的价值,不一定能完全被优化指标覆盖。
信任需要时间; 判断需要经验; 责任需要边界; 创造需要绕路; 沟通需要理解; 教育需要试错; 医疗、金融、法律这些场景,更不能只问效率。
如果技术系统只盯着“更快、更准、更省”,它当然会持续迭代AI。
而且每一次迭代都有理由。
因为谁能反对更快?
谁能反对更准?
谁能反对更低成本?
这就是效率叙事最强的地方。
它不需要说自己完美。
它只需要说:
我比原来更有效率。
⸻
五、效率叙事会让AI迭代永远显得正当
只要AI能省时间,它就有理由上。
只要Agent能省人工,它就有理由做。
只要自动化能降低成本,它就有理由扩大。
只要模型能提升产出,它就有理由接入更多流程。
这套逻辑非常强。
因为它看起来不是意识形态,而是事实。
你看,效率提高了; 你看,成本下降了; 你看,错误减少了; 你看,吞吐提升了; 你看,人工负担减轻了; 你看,用户等待时间缩短了。
每一个理由都成立。
AI高效辅助当然有助发展。真正危险的,不是效率本身,而是效率被慢慢定性为一种“正义”:谁更快,谁就更先进;谁质疑效率,谁就像是在反对进步。
当效率成为最高正当性,其他价值就会被迫让路。
质量可以让路,因为效率更重要; 体验可以让路,因为效率更重要; 人工判断可以让路,因为效率更重要; 少数人的特殊需求可以让路,因为效率更重要; 复杂场景的慢验证也可以让路,因为效率更重要。
最后,所有不够快的东西都会变得可疑。
你坚持人工审核,别人问为什么不能自动审核; 你坚持慢慢讨论,别人问为什么不用AI先出方案; 你坚持现场判断,别人问为什么不能用模型预测; 你坚持人工确认,别人问为什么不能让Agent自动执行; 你坚持保留缓冲时间,别人问为什么不能压缩流程。
效率一旦成为最高正当性,所有不够快的东西都会变得可疑。
这时,拒绝AI就不再像是拒绝工具。
它会被包装成拒绝效率、拒绝进步、拒绝新生产力。
这才是压力真正形成的地方。
⸻
六、拒绝AI会从自由变成落后
以前不用AI,是一种个人选择。
你可以说:
我喜欢自己写; 我喜欢自己想; 我喜欢手动打磨; 我喜欢慢一点做; 我喜欢亲自检查; 我喜欢保留自己的方式。
别人未必理解,但至少这还是你的自由。
但当AI成为默认工具之后,不用AI可能会被重新定义。
不是“你选择不用”。
而是:
你效率低; 你不配合; 你不会工具; 你不懂趋势; 你拖慢团队; 你增加成本; 你没有适应新工作方式。
这就是压力。
你不是完全没有自由。
但你要为自己的自由付出解释成本。
你慢一点,要解释; 你人工做,要解释; 你不用AI,要解释; 你要求人工审核,要解释; 你要求多一点时间,要解释; 你不接受全自动流程,也要解释。
最隐蔽的压力,不是禁止你慢,而是让你每一次慢都要自证合理。
这时候,人会越来越不敢慢。
哪怕他知道有些事情应该慢。
哪怕他知道有些判断不能交给AI。
哪怕他知道有些结果需要人工验证。
但只要环境不断追问效率,他就会越来越难坚持。
因为坚持慢,意味着你要不断解释自己为什么不快。
⸻
七、效率会从工具指标,变成管理语言
效率一旦成为道德,它就会进入管理语言。
管理者会说:
我们要提升效率; 我们要减少重复劳动; 我们要压缩交付周期; 我们要让AI先跑起来; 我们要把低价值工作自动化; 我们要让人做更有价值的事。
这些话听起来都没有问题。
很多时候也确实有价值。
但真正需要警惕的是:
谁来定义什么叫低价值? 谁来定义什么叫重复劳动? 谁来定义什么叫更有价值? 谁来决定哪些人工环节可以被压缩? 谁来判断效率提高后有没有把风险推迟?
很多人工参与,看起来低效,但不一定没价值。
一个人亲自看一遍,可能发现系统没发现的问题; 一个人慢慢沟通,可能避免后续误解; 一个人坚持复核,可能挡住一次重大错误; 一个人不急着交付,可能是在等更完整的信息; 一个人拒绝自动执行,可能是在保留责任边界。
但这些价值很难被效率指标直接计算。
所以它们很容易被压缩。
AI时代的管理语言,很可能会越来越强调:
更快; 更省; 更自动; 更少人工; 更高产出; 更低成本。
这当然会带来进步。
但如果只剩下这套语言,人就会越来越难说:
这件事不能只按效率算。
⸻
八、AI让人更自由,还是让人更难拒绝标准化?
很多人会说,AI让人更自由。
因为它降低了门槛。
不会写的人可以写; 不会画的人可以画; 不会做方案的人可以做方案; 不会整理资料的人可以快速整理; 没有团队的人也可以做出雏形。
这当然是真的。
AI确实释放了很多人。
但自由不只是“我能做更多事”。
自由还包括:
我能不能选择不这样做; 我能不能选择慢一点; 我能不能拒绝默认流程; 我能不能不走最高效路线; 我能不能保留自己的判断节奏; 我能不能说这件事需要人工参与; 我能不能不因为低效而被自动判定为落后。
如果AI带来的只是更多工具,那它确实让人更自由。
但如果AI带来的,是一种越来越强的效率标准,那它也可能让人更难拒绝标准化。
你当然可以不用AI。
但你要解释为什么不用。
你当然可以慢慢做。
但你要解释为什么要慢。
你当然可以亲自判断。
但你要解释为什么不能交给系统先判断。
你当然可以反对自动化。
但你要解释为什么你的反对不是落后。
这就是自由被效率重新定价的过程。
你没有被禁止。
但你被要求解释。
⸻
九、最可怕的不是效率提升,而是质疑效率变得不体面
效率本身不是坏事。
AI提高效率,也不是坏事。
真正的问题是:
当效率变成最高价值,质疑效率的人会变得越来越不体面。
你提出风险,别人说你保守; 你要求验证,别人说你拖慢; 你坚持人工判断,别人说你不懂AI; 你拒绝全自动,别人说你抗拒趋势; 你提醒责任边界,别人说你阻碍创新。
于是,真正的问题慢慢从“AI有没有用”,变成:
你凭什么质疑AI?
这就很危险。
因为任何技术都应该允许被质疑。
尤其是当它进入医疗、金融、法律、教育、公共服务、企业决策、内容分发这些场景时,更应该允许人提出:
它错了怎么办? 它偏了怎么办? 它推荐的路径是不是太窄? 它是不是把复杂问题简化了? 它是不是让人减少了判断? 它是不是把责任链变模糊了? 它是不是只优化了效率,却牺牲了其他价值?
如果这些问题都被一句“你是不是不懂效率”压下去,技术讨论就会变成道德审判。
质疑AI,不应该等于反对进步。
但效率叙事一旦太强,就很容易把二者绑在一起。
⸻
十、当效率、准确率和成本优势绑在一起,反对AI就像是在反对进步
这里会形成一个很强的闭环。
一开始,AI只是被包装成提高效率的工具。
后来,当AI不只是更快,还开始更稳、更准、更少犯低级错,效率叙事就有了事实支撑。
于是,质疑AI的人不再只是被看成“不够高效”,还可能被看成“不够正确”。
你不用AI,别人会问你为什么不用更快的方法; 你质疑AI,别人会问你是不是不懂技术; 你坚持人工判断,别人会问你是不是在拖慢流程; 你要求慢一点,别人会问你是不是在增加成本。
这时候,效率就不只是效率,而会慢慢变成一种道德压力。
更麻烦的是,当AI真的能提高速度、降低错误、压缩成本,这套压力就不再只是口号,而会变成一种看似合理的标准。
所以质疑AI的人,不只像是“不高效”,还像是“不正确”。
效率道德一旦有了事实支撑,持续迭代AI就会变得永远正义。
当效率、准确率和成本优势绑在一起,反对AI就不再像是反对工具,而像是在反对进步。
而“反对进步”这个标签,足以让很多质疑者沉默。
这就是效率叙事最强的地方:
它不需要说“AI一定完美”。
它只需要让你觉得:
不用AI很落后,质疑AI很不合时宜。
对工程文化来说,这几乎是一个最容易接受的终极理由。
不是“AI很好”这么简单。
而是:
反对AI,看起来很坏。
一旦这个叙事成立,AI迭代就会变得近乎自带正当性。
因为每一次迭代,都可以被解释成更快、更准、更低成本; 每一次扩张,都可以被解释成减少浪费、提高效率、降低错误; 每一次压缩人工参与,都可以被解释成把人从低效流程里解放出来。
问题是,当所有事情都被翻译成效率问题,人就很容易忘记问另一个问题:
这件事,真的只应该按效率来算吗?
⸻
结语:真正稀缺的自由,是即使面对非重大决定,也仍然有权不只按效率算
AI当然可以提高效率。
也应该提高效率。
很多重复劳动、低价值流程、机械整理、格式处理、初稿生成,确实应该交给工具。
问题不在于效率本身。
问题在于:
当效率变成道德,所有慢下来、保留人工判断、要求验证、提出质疑的人,都可能被迫解释自己为什么“不够快”。
这才是AI时代更隐蔽的压力。
它不是直接剥夺你的自由。
而是让你在每次不选择效率时,都要承担解释成本。
你可以慢,但你要解释为什么慢; 你可以不用AI,但你要解释为什么不用; 你可以坚持人工,但你要解释为什么不能自动化; 你可以要求验证,但你要解释为什么不能相信系统; 你可以质疑AI,但你要解释为什么你不是在反对进步。
AI不一定会让人更自由。
它也可能让人更难拒绝效率。
所以真正成熟的AI使用,不是盲目加速一切。
而是知道:
哪些事情应该快; 哪些事情必须慢; 哪些事情可以交给AI; 哪些事情必须保留人工判断; 哪些效率是进步; 哪些效率只是把风险往后推。
AI时代真正稀缺的自由,可能不是不用工具。
而是即使面对非重大决定,你仍然有权说:
这件事,不能只按效率算。