张笑宇,《AI文明史·前史》,2025 年 7 月第一版。读后随笔:把书里「把技术放进更长文明进程里看」的视角,接到我自己在工作里碰到的事上。不打算复述全书。
先说一句态度
我读完整本书,整体是认同的。倒也说不上特别振奋或者特别忧虑——更像心里落了一块砖:该来的总会来,挡是挡不住的,那就积极应对吧。书名里有个「前史」,我把它理解成一种提醒:我们今天讨论的 AI,并不是从 ChatGPT 才开始的「突发事件」,而是叠在旧文明逻辑上的一层新东西。带着这个背景去看公司里的各种决策,会少很多「一惊一乍」。
AI 到底有没有让岗位变少?我这边看到的版本
从 2025 年开始,我所在公司的管理层一直在琢磨一件事:怎么用 AI 降本增效。落到地面上的说法往往很直白——一个人,能不能干以前更多人的活。
研发侧,产品现在几乎都要带一点「AI 赋能」:对外是亮点,对内则希望从生产、制造流程里抠出效率。再往下传导到一线,逻辑也差不多:一个人覆盖的面更宽;以前那些固定节奏、靠人肉巡检的活,有一部分会被系统接过去——比如用 AI 分析设备数据,自动生成检查计划、甚至细化到「怎么查更省时间」。听起来很进步,但背后就是同一个问题:同一条流水线上,还需要那么多人吗?
所以「岗位变少了吗」这个问法,在我这儿可能得改一改:不一定是明天就裁员一半,而是单位产出里的人力密度在下降。岗位会不会变少,还要看业务总量、行业周期、以及组织愿不愿意把省下来的时间还给个人——那是下一节的事了。
「泡沫」和「没必要」:价值与止损
行业里泡沫不少。AI 也会挤掉一些没必要的投入——我这里的「没必要」标准很简单:软件一定要对用户有价值;如果事先就能判断使用率不会高,那就别立项;立项了发现走不通,该止损就止损,别硬撑成沉没成本。
没有泡沫就没有发展,试错照旧会有。对我个人来说,能把两件事做实就够了:软件要对用户有用;项目走不通就止损。
「大家都能做软件」之后,我真正担心的是 B 端垃圾
常听到一种安慰:AI 替代的不过是重复劳动。我同意一半。另一半是:当软件的创造速度太快,垃圾也会批量生产——我主要指 B 端内部系统。
现实里很骨感的一点是:如果 AI 能力还没到位,为了赶「智能化」赶出来的系统,有时还不如传统软件好用:流程更长、步骤更慢、还要多一层「和模型对话」的不确定性。这类事其实不用等到上线才醒悟,用 MVP 就能试出来:同样的业务路径走一遍,时间、错误率、培训成本,是不是真降了,一测便知。若测出来是负优化,那就老老实实承认:这一阶段不如不用 AI 硬上。
越卷越累:我担心的不是「干不动活」,而是「学不动、扛不住责」
几次工业革命下来,生产、制造、运输都在加速,人也被越拧越紧。到了 AI 这一轮,我的感受更具体一点:
- 要学的东西变多了:工具链、模型、合规、提示词、评测……列表每年都在加长。
- 一个人要扛的事变多了:组织一旦默认「你能者多劳」,边界就模糊。
- 责任还是落在人头上:系统再聪明,出了事对外解释、对内担责的,往往还是某个具体的人。
更麻烦的是生理曲线:人过了三四十岁,学习速度和精力本来就会往下走,但现实往往是上有老、下有小,自己还要一路工作到退休。于是「卷不动」不一定是懒,而是时间与学习能力的预算真的不够了。
那怎么缓和?我自己能想到的、也相对现实的一条,是政策与制度层面的托底。与此同时,普通人也得心里有个数:互联网、物联网那一波「好做的红利」差不多吃完了,接下来更像硬功夫阶段;预期放低一点,少把自己逼到墙角。
AGI:愿景、宣传,以及我怎么看「十年」
不少「大牛」会说:真正意义上更强的 AI,可能还要十年左右才更清晰可见。对企业把 AGI 写进战略、写进产品故事,我大体是理解的——商业需要叙事,研发需要预算。
我更看不惯的是个人知识付费这一侧:零基础被承诺「速成高手」,学完发现够不着真正门槛,最后容易变成短平快变现的套路,把整个场子带得很浮躁。学习曲线不会因为你买了课就消失;行业要健康,最终还得靠真问题、真交付、真复盘。
我们到底怕什么:想要强 AI,又怕它不受控
我说的「恐怖谷」不是人偶那条线,而是:人类既想要很强的 AI,又非常害怕它完全不受控。
这种张力,光靠工程指标未必讲得圆,哲学至少能把「好」「坏」「责任」「自由」从口号拉回可讨论的问题。几本我读下来觉得入口还不错的书:
- 斯图尔特·罗素《人类兼容》(Human Compatible):把「对齐」讲给普通人听的一本,核心问题是——如何让机器的目标真正与人类意图相容。
- 尼克·博斯特罗姆《超级智能》:偏「强假设」推演,读起来有点冷,但能把「能力极强之后世界会变成什么样」这个问题摊开。
- 迈克斯·泰格马克《生命3.0》:更宇宙观一点,适合想从文明尺度聊 AI 的读者。
读完再回到日常产品,至少能分清楚:哪些是工程渐进,哪些是叙事超前。
如果 AGI 像「人」:我会坚持两个底线
我有时会做一个思想实验:如果把 AGI 当成某种「人」,那它至少得满足两件事。
第一,对社会无害。 这不是道德高调,而是很朴素的权力逻辑:如果未来真出现「没有比它更强」的系统,那它一旦作恶,纠错成本会高到难以想象。所以「无害」不是温柔,而是硬约束。
第二,承认信息差,而不是用技术把它抹平或捅破。 现实社会里,人本来就不是同一张「理解能力」的试卷:教育、经验、修养不同,能消化的事实与风险也不同。若 AGI 要做人类的伙伴,我更希望它沿用这种信息差——该分层解释就分层解释,该限制能力边界就限制边界——而不是简单地把一切信息「全放开」或粗暴「全屏蔽」。换句话说:对齐不只是对齐模型,还要对齐社会真实的人类结构。
我私人的「AGI 验收标准」:像人,但无害
我给不出严谨定义,只敢说一个很个人、但可感知的标准:
如果有一天,一个「机器人」的外在、内在互动,都自然到你看不出它是机器人——能接话、能读空气,甚至能按场景切换脾气性格(说白了:见人说人话,见鬼说鬼话那种社交直觉),并且它的默认目标仍然是满足人类需要,大前提还是前面说的对社会无害——那我愿意把它叫作:至少在我个人词典里「够用的 AGI」。
它不严谨,但可感知比定义之争对我更有用。
结尾
《AI文明史·前史》给我最大的帮助,是把「AI 热」从热搜里拽回到一个更长的故事里:我们不是在真空里第一次发明「智能」,而是在一条文明续写的路上又加了一章。
我读完给自己留了两句硬要求:别用 AI 制造更长的流程;也别用叙事替代交付。 MVP、止损、责任边界,这些老功夫继续做扎实。