1月20日,瑞士达沃斯。一场名为"AGI之后的一天"(The Day After AGI)的圆桌论坛正在进行。
台上坐着两个人:Dario Amodei(Anthropic CEO)和Demis Hassabis(Google DeepMind CEO)。这是两家正在角逐AGI的竞争对手,两位 arguably 最接近AGI的人。
主持人问了一个直白的问题:AGI什么时候来?
Dario的回答:2026-2027年。
Demis的回答:5到10年。
一个是1-2年,一个是5-10年。相差5倍。
但在另一个问题上,他们的回答却出奇一致:程序员这个职业,很快就会发生根本性改变。
达沃斯论坛圆桌辩论现场
他们到底说了什么
先说时间表。
Dario Amodei的立场:他在2024年10月发表的长文《Machines of Loving Grace》中已经给出了明确预测——"powerful AI"(他不喜欢AGI这个词)可能在2026-2027年到来。这个AI的定义是:在大多数相关领域比诺贝尔奖得主更聪明。
Demis Hassabis的立场:他在多个场合表示AGI需要5-10年。2025年4月接受《时代》周刊采访时,他预测AGI"还有5到10年"。相比之下,这已经算是"悲观"的——在行业里,更激进的预测比比皆是。
这两个时间表的差异值得玩味。Dario更激进,Demis更保守。但两个人都在说"几年内",而不是"几十年内"。
然后是程序员的问题。
Dario在达沃斯说:AI将在3-6个月内编写90%的代码。Anthropic内部已经发生了变化——工程师现在是"编辑"而不是"作者"。
Demis没有直接反驳。他承认"AI编写AI代码"正在发生,但这恰恰是他认为AGI还需要更长时间的原因之一——因为AI需要学会AI造AI,才能实现真正的突破。
这里有个有趣的细节:两位CEO都说,自己的工程师已经"不写代码"了。一个说是"编辑",一个说是"监督"。但本质相同:从直接生产者变成了质量把关者。
业内其他人怎么说
这种分歧在AI界并不罕见。把主要玩家的预测放在一起看,会发现一个有趣的分布:
激进派(1-3年) :
- Dario Amodei (Anthropic): 2026-2027年
- Sam Altman (OpenAI): 多次暗示2025年
- Elon Musk: 2025年(原预测)
中间派(5-7年) :
- Demis Hassabis (DeepMind): 5-10年
- 预测市场Metaculus的社区中位数:2026-2027年
- 80000 Hours汇总的专家预测:50%概率在2031年之前
怀疑派(10年+或不确定) :
- Yann LeCun (Meta AI首席科学家): 认为LLM有根本性缺陷,需要世界模型路线
- 很多传统AI研究者:认为当前范式可能遇到天花板
Geoffrey Hinton的立场比较特殊。这位2024年诺贝尔物理学奖得主、深度学习先驱,在2023年将他的AGI预测从"2020s-2050s"收紧到"2025-2029年"。但他同时警告有10-20%的概率会发生灾难性后果。
业内专家对AGI时间表的观点分布:激进派、中间派、怀疑派
数据说了什么
关于"AI接管代码"这个具体话题,我们有一些实际数据:
GitHub Copilot研究(2022年):使用AI辅助的开发者完成任务快55.8%
Stack Overflow 2025开发者调查:
- 84%的开发者正在使用或计划使用AI工具
- 82%每天或每周使用AI编码工具
- 但只有29%认为AI工具能胜任复杂任务
DX Q4 2025报告(135,000+开发者):
- 91%的AI采用率
- 平均每周节省3.6小时
- 但代码质量影响"好坏参半"
这些数据说明什么?
AI确实在提升效率。但效率提升≠完全替代。目前看来,AI更像是一个超级助手,而不是替代品。开发者仍然需要设计、审查、调试——只是花在敲键盘上的时间少了。
AI编程工具的实证数据:效率提升与采用率
为什么会有这么大的分歧
同样是业内顶尖人士,为什么AGI时间表能差5倍?
第一个原因是定义问题。
Dario说2026-2027年会出现的"powerful AI",定义是在大多数领域"比诺贝尔奖得主更聪明"。Demis说的AGI,可能指的是更全面、更可靠、更安全的系统。
定义不同,预测自然不同。如果AGI是"在特定任务上超越人类",我们可能已经很接近了。如果AGI是"在所有任务上可靠地超越人类",还有很长的路要走。
第二个原因是技术路线判断。
Dario相信scaling law(缩放定律)会继续带来突破。更多算力、更多数据、更大模型,就能带来智能。
Demis虽然也scaling,但他更强调需要"AI造AI"的闭环——模型需要学会写代码、做实验、迭代自己。这需要时间。
Yann LeCun则是完全不同的路线。他认为当前LLM有根本性缺陷(无法处理物理世界的因果推理),需要"世界模型"范式。如果他的判断对,那么AGI的时间表可能要重置。
第三个原因是风险偏好。
Dario倾向于"如果没发生,我算错了"。Demis倾向于"如果发生了,我们没准备好"。
这两种态度没有对错之分,但会影响公开表态。一个会说"很快",另一个会说"还要等等"。
历史上的预测
AI预测史上有句名言:永远比专家预测的远5年。
但这几年情况有点变化。Metaculus等预测市场的AGI时间表一直在"压缩"——社区预测总是比当前时间早1.5-2年。这不是因为人们变得乐观了,而是因为能力在确实增长。
但历史也在提醒我们:能力增长≠AGI到达。
AlphaGo在2016年击败李世石,很多人说AGI快了。五年过去,我们确实看到了GPT-3、DALL-E、ChatGPT,但AGI仍然在"未来"。
这里有个关键区别:专才vs通才。
现在的AI在某些任务上已经是超人了——下围棋、写代码、做数学题。但AGI要求的是"通用"——像人一样能在任何未知的场景下解决问题。
这个"通"字,可能比"专"难10倍。
专才AI已在特定领域超越人类,但通才AGI要求的是在"任何未知场景"下的适应能力
商业利益
还有一个不能忽略的因素:商业激励。
Anthropic、OpenAI、DeepMind——这些公司都在融资、在竞争、在需要讲故事。
说"AGI还有10年",投资人可能觉得"太久了,我看不到回报"。
说"AGI还有2年",估值就能上去,融资就能到位。
这不意味着他们在故意撒谎。但商业环境会自然地筛选出那些更乐观的声音。
而那些更保守的研究者?他们可能还在学校里做研究,而不是在达沃斯的舞台上。
从业者该怎么办
说了这么多,对从业者有什么实际意义?
第一,关注具体能力,而不是抽象概念。
"AGI会不会来"是个哲学问题。"AI能不能帮我完成X任务"是个工程问题。后者才是每天工作中需要回答的。
如果AI已经能在你的具体任务上达到90%的准确率,那就该认真考虑怎么适应了。不管这叫不叫AGI。
第二,保持怀疑,但不要否认现实。
Dario说6个月内AI接管90%代码,可能夸张了。但趋势是明显的——AI在代码生成、调试、重构上的能力在快速增长。
否认这个趋势不会让它停止。尽早适应、学习使用AI工具,是更理性的选择。
第三,思考"人还能做什么" 。
AI在编码速度上已经超过人类。但以下这些仍然需要人:
- 理解业务需求,设计系统架构
- 在模糊的情况下做决策
- 责任承担——出问题了谁来负责
- 与人沟通、协作、说服
这些"软技能"可能在未来变得更值钱。
第四,给不同角色一点建议:
- 初级工程师:多学AI工具的使用,把AI当成导师而非对手。但不要依赖到丧失基础能力的程度。
- 资深工程师:从"写代码"转向"设计系统"、"审查代码"、"管理AI生产"。你的经验仍然是AI无法替代的。
- 技术管理者:开始思考"AI时代的人效怎么算"。一个人+AI可能等于3个人,但也可能需要更多审核和风险控制。
留给读者的问题
达沃斯的这场辩论,没有给出标准答案。
两个最接近AGI的人,一个说1-2年,一个说5-10年。这本身就说明事情有多不确定。
但有一点是明确的:无论AGI何时到来,AI对编程工作的影响已经在发生。
这不是一个"将来时"的问题,而是"进行时"。
每个人都需要问自己:如果AI真的能在6个月内接管90%的代码编写,我该怎么做?
这不是危言耸听,而是提前准备。