当前AI难达博士水平 行业呼吁回归理性认知

180 阅读4分钟

【2025年9月15日 综合报道】

在近日举办的“All In峰会”上,谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)针对AI行业频发的“博士级智能”宣称提出质疑。他明确表示:“现有AI系统的综合能力与真正的博士级智能存在显著差距。”这一观点与OpenAI此前对GPT-5的“博士专家”定位形成鲜明对比,引发业界对AI技术发展现状的深度反思。

“偏科生”的局限:AI的领域特异性困境

哈萨比斯以GPT-5为例指出,尽管该模型在数学竞赛(如AIME美国数学邀请赛准确率达70%)和编程任务(代码生成通过率超90%)中表现优异,但其综合推理能力仍存硬伤。例如,在处理“雨天路滑需减速”等常识问题时,模型的反事实推理能力甚至不及中学生。这种“局部高光、全局跛脚”的特性,印证了弱AI(Narrow AI)依赖数据模式匹配而非因果推理的本质 。

权威研究进一步揭示了大模型的局限性:中科大认知智能实验室的CogMath评估体系显示,当前模型在复杂数学推理中的多维度得分仅为人类博士的62%;北京智源研究院黄铁军教授在2025年智源大会上强调,AGI需实现“脑、眼、身”协同,而非单一领域突破。此外,GPT-5在医疗诊断中的幻觉率仍达1.6%,跨法系法律条款解析错误率超过20% ,凸显其“统计复刻”而非“真实理解”的本质。

缺失的持续进化与自主目标能力

哈萨比斯特别指出,人类博士的核心竞争力在于动态学习与自主目标设定——从论文创新到项目管理,均依赖主动探索与策略调整。而现有AI系统仍完全依赖人类指令驱动,无法像人类一样因“好奇”拓展新领域,或因“解决问题”主动优化路径。

这一观点与学界对AGI的定义高度吻合:斯坦福《2025年AI指数报告》强调,真正的通用智能需具备“自主推理、常识理解、跨域迁移”三大能力。尽管AI在短时任务中效率超人类4倍,但其“被动响应”模式在开放场景中暴露短板——例如工业机器人仍依赖封闭编程,而具身智能(如智元GO-1模型)虽能完成基础操作,但其复杂决策能力仍落后人类博士30%以上。

行业分化:乐观派与审慎派的路线之争

哈萨比斯关于“5-10年实现博士级智能”的预判,折射出行业内的显著分歧:

  • 乐观派(如OpenAI)以GPT-5的多模态融合(文本/图像/音频统一编码)和能效革命(SMoE架构能耗降60%)为据,认为AGI初级形态或在30年内实现; ​
  • 审慎派则强调底层瓶颈:常识推理的“隐性知识”缺失、意识本质的哲学争议,以及类脑计算的技术空白。MIT未来生命研究所创始人Max Tegmark指出:“现有AI更像‘超级计算器’,而人类博士是‘问题定义者’,二者本质不同。”

值得关注的是,行业正出现务实转向:谷歌与苹果合作开发“伦理开关”硬件,百度“安全大脑”实时监测3000+风险点,中国企业通过屏幕语义理解技术(如实在Agent)实现无API跨系统操作,聚焦“可用”而非“全能”。

结语:在技术狂飙中锚定人文价值

当GPT-5能7分钟生成物理实验代码,当具身机器人将工厂工伤率降低70%,AI的局部突破毋庸置疑。但哈萨比斯的警示恰似一剂清醒剂:博士级智能的核心不在于“解题速度”,而在于“理解世界的温度”——从“地面湿滑”联想到“老人安全”,从“用户皱眉”感知“需求未被满足”。这些人类习以为常的“常识跳跃”,恰是AI最难跨越的鸿沟。

正如《布莱切利宣言》(2023年28国签署)所呼吁:“我们需要的不是‘更快的AI’,而是‘更懂人类的AI’。”在技术狂奔的时代,承认局限、聚焦人机协作,或许才是迈向通用智能的务实路径。

(本文综合自DeepMind峰会发言、斯坦福AI指数报告、中国新闻网行业报道等信源)

#AI真相# #AGI边界# #技术理性#