达沃斯AGI大辩论:两个最接近AGI的人,给出的时间表相差5倍

0 阅读8分钟

1月20日,瑞士达沃斯。一场名为"AGI之后的一天"(The Day After AGI)的圆桌论坛正在进行。

台上坐着两个人:Dario Amodei(Anthropic CEO)和Demis Hassabis(Google DeepMind CEO)。这是两家正在角逐AGI的竞争对手,两位 arguably 最接近AGI的人。

主持人问了一个直白的问题:AGI什么时候来?

Dario的回答:2026-2027年。

Demis的回答:5到10年。

一个是1-2年,一个是5-10年。相差5倍。

但在另一个问题上,他们的回答却出奇一致:程序员这个职业,很快就会发生根本性改变。

达沃斯AGI辩论
达沃斯论坛圆桌辩论现场


他们到底说了什么

先说时间表。

Dario Amodei的立场:他在2024年10月发表的长文《Machines of Loving Grace》中已经给出了明确预测——"powerful AI"(他不喜欢AGI这个词)可能在2026-2027年到来。这个AI的定义是:在大多数相关领域比诺贝尔奖得主更聪明。

Demis Hassabis的立场:他在多个场合表示AGI需要5-10年。2025年4月接受《时代》周刊采访时,他预测AGI"还有5到10年"。相比之下,这已经算是"悲观"的——在行业里,更激进的预测比比皆是。

这两个时间表的差异值得玩味。Dario更激进,Demis更保守。但两个人都在说"几年内",而不是"几十年内"。

然后是程序员的问题。

Dario在达沃斯说:AI将在3-6个月内编写90%的代码。Anthropic内部已经发生了变化——工程师现在是"编辑"而不是"作者"。

Demis没有直接反驳。他承认"AI编写AI代码"正在发生,但这恰恰是他认为AGI还需要更长时间的原因之一——因为AI需要学会AI造AI,才能实现真正的突破。

这里有个有趣的细节:两位CEO都说,自己的工程师已经"不写代码"了。一个说是"编辑",一个说是"监督"。但本质相同:从直接生产者变成了质量把关者。


业内其他人怎么说

这种分歧在AI界并不罕见。把主要玩家的预测放在一起看,会发现一个有趣的分布:

激进派(1-3年)

  • Dario Amodei (Anthropic): 2026-2027年
  • Sam Altman (OpenAI): 多次暗示2025年
  • Elon Musk: 2025年(原预测)

中间派(5-7年)

  • Demis Hassabis (DeepMind): 5-10年
  • 预测市场Metaculus的社区中位数:2026-2027年
  • 80000 Hours汇总的专家预测:50%概率在2031年之前

怀疑派(10年+或不确定)

  • Yann LeCun (Meta AI首席科学家): 认为LLM有根本性缺陷,需要世界模型路线
  • 很多传统AI研究者:认为当前范式可能遇到天花板

Geoffrey Hinton的立场比较特殊。这位2024年诺贝尔物理学奖得主、深度学习先驱,在2023年将他的AGI预测从"2020s-2050s"收紧到"2025-2029年"。但他同时警告有10-20%的概率会发生灾难性后果。

专家观点分布
业内专家对AGI时间表的观点分布:激进派、中间派、怀疑派


数据说了什么

关于"AI接管代码"这个具体话题,我们有一些实际数据:

GitHub Copilot研究(2022年):使用AI辅助的开发者完成任务快55.8%

Stack Overflow 2025开发者调查

  • 84%的开发者正在使用或计划使用AI工具
  • 82%每天或每周使用AI编码工具
  • 但只有29%认为AI工具能胜任复杂任务

DX Q4 2025报告(135,000+开发者):

  • 91%的AI采用率
  • 平均每周节省3.6小时
  • 但代码质量影响"好坏参半"

这些数据说明什么?

AI确实在提升效率。但效率提升≠完全替代。目前看来,AI更像是一个超级助手,而不是替代品。开发者仍然需要设计、审查、调试——只是花在敲键盘上的时间少了。

AI编程效率数据
AI编程工具的实证数据:效率提升与采用率


为什么会有这么大的分歧

同样是业内顶尖人士,为什么AGI时间表能差5倍?

第一个原因是定义问题

Dario说2026-2027年会出现的"powerful AI",定义是在大多数领域"比诺贝尔奖得主更聪明"。Demis说的AGI,可能指的是更全面、更可靠、更安全的系统。

定义不同,预测自然不同。如果AGI是"在特定任务上超越人类",我们可能已经很接近了。如果AGI是"在所有任务上可靠地超越人类",还有很长的路要走。

第二个原因是技术路线判断

Dario相信scaling law(缩放定律)会继续带来突破。更多算力、更多数据、更大模型,就能带来智能。

Demis虽然也scaling,但他更强调需要"AI造AI"的闭环——模型需要学会写代码、做实验、迭代自己。这需要时间。

Yann LeCun则是完全不同的路线。他认为当前LLM有根本性缺陷(无法处理物理世界的因果推理),需要"世界模型"范式。如果他的判断对,那么AGI的时间表可能要重置。

第三个原因是风险偏好

Dario倾向于"如果没发生,我算错了"。Demis倾向于"如果发生了,我们没准备好"。

这两种态度没有对错之分,但会影响公开表态。一个会说"很快",另一个会说"还要等等"。


历史上的预测

AI预测史上有句名言:永远比专家预测的远5年。

但这几年情况有点变化。Metaculus等预测市场的AGI时间表一直在"压缩"——社区预测总是比当前时间早1.5-2年。这不是因为人们变得乐观了,而是因为能力在确实增长。

但历史也在提醒我们:能力增长≠AGI到达

AlphaGo在2016年击败李世石,很多人说AGI快了。五年过去,我们确实看到了GPT-3、DALL-E、ChatGPT,但AGI仍然在"未来"。

这里有个关键区别:专才vs通才

现在的AI在某些任务上已经是超人了——下围棋、写代码、做数学题。但AGI要求的是"通用"——像人一样能在任何未知的场景下解决问题。

这个"通"字,可能比"专"难10倍。

专才vs通才
专才AI已在特定领域超越人类,但通才AGI要求的是在"任何未知场景"下的适应能力


商业利益

还有一个不能忽略的因素:商业激励。

Anthropic、OpenAI、DeepMind——这些公司都在融资、在竞争、在需要讲故事。

说"AGI还有10年",投资人可能觉得"太久了,我看不到回报"。

说"AGI还有2年",估值就能上去,融资就能到位。

这不意味着他们在故意撒谎。但商业环境会自然地筛选出那些更乐观的声音。

而那些更保守的研究者?他们可能还在学校里做研究,而不是在达沃斯的舞台上。


从业者该怎么办

说了这么多,对从业者有什么实际意义?

第一,关注具体能力,而不是抽象概念

"AGI会不会来"是个哲学问题。"AI能不能帮我完成X任务"是个工程问题。后者才是每天工作中需要回答的。

如果AI已经能在你的具体任务上达到90%的准确率,那就该认真考虑怎么适应了。不管这叫不叫AGI。

第二,保持怀疑,但不要否认现实

Dario说6个月内AI接管90%代码,可能夸张了。但趋势是明显的——AI在代码生成、调试、重构上的能力在快速增长。

否认这个趋势不会让它停止。尽早适应、学习使用AI工具,是更理性的选择。

第三,思考"人还能做什么"

AI在编码速度上已经超过人类。但以下这些仍然需要人:

  • 理解业务需求,设计系统架构
  • 在模糊的情况下做决策
  • 责任承担——出问题了谁来负责
  • 与人沟通、协作、说服

这些"软技能"可能在未来变得更值钱。

第四,给不同角色一点建议

  • 初级工程师:多学AI工具的使用,把AI当成导师而非对手。但不要依赖到丧失基础能力的程度。
  • 资深工程师:从"写代码"转向"设计系统"、"审查代码"、"管理AI生产"。你的经验仍然是AI无法替代的。
  • 技术管理者:开始思考"AI时代的人效怎么算"。一个人+AI可能等于3个人,但也可能需要更多审核和风险控制。

留给读者的问题

达沃斯的这场辩论,没有给出标准答案。

两个最接近AGI的人,一个说1-2年,一个说5-10年。这本身就说明事情有多不确定。

但有一点是明确的:无论AGI何时到来,AI对编程工作的影响已经在发生。

这不是一个"将来时"的问题,而是"进行时"。

每个人都需要问自己:如果AI真的能在6个月内接管90%的代码编写,我该怎么做?

这不是危言耸听,而是提前准备。