离职字节后,北大教授泼了盆冷水:中国AI的真实差距,可 能正在拉大

7 阅读4分钟

离职字节跳动后,一位长期深耕人工智能基础研究的北京大学教授在近期学术研讨会上坦言:“中国AI的真实差距,可能正在拉大。”此言并非危言耸听,而是基于对技术演进路径、科研范式、产业协同与人才结构的系统性观察所得出的审慎判断。

当前,我国在AI应用层展现出强劲活力:大模型产品密集发布,行业落地场景持续拓展,用户规模与商业转化能力位居全球前列。然而,支撑这一繁荣表象的底层根基——尤其是原创性理论突破、关键工具链自主性、高精度算力基础设施的可持续供给,以及长周期基础研究的制度保障——仍面临结构性挑战。以大模型训练为例,国内头部机构虽已实现千亿参数级模型的工程化部署,但在注意力机制优化、稀疏化训练理论、可信推理框架等核心算法层面,原创性贡献仍多依循国际前沿路径;开源生态中,主流训练框架、分布式通信库、高效推理引擎等关键组件,超七成依赖境外成熟项目二次适配,自主可控度不足。

更深层的差距体现在科研范式转型的滞后性上。国际顶尖实验室正加速从“数据驱动”向“原理驱动”跃迁:如将物理约束嵌入神经网络(Physics-Informed Neural Networks)、构建可微分仿真环境支撑具身智能训练、探索神经符号融合的新一代认知架构。而国内多数研究仍集中于模型规模扩张与调参优化,在跨学科深度耦合、第一性原理建模等方向投入相对薄弱。2023年全球AI顶会论文中,涉及基础理论创新与方法论重构的中国作者主导工作占比约18%,较五年前提升4个百分点,但与美欧日合计56%的份额相比,原创势能仍显不足。

产业—学术协同机制亦构成隐性瓶颈。头部企业研发重心高度聚焦短期商业化指标,基础研究投入占比普遍低于营收的3%;高校评价体系中,长周期、高风险的基础探索类成果在职称评定、资源分配中仍处相对弱势。一位参与国家重大专项的学者指出:“我们能快速复现SOTA模型,但鲜有团队敢用五年时间去验证一个尚未被证明可行的新型学习范式——这不是能力问题,而是容错机制与激励结构的问题。”

人才结构失衡进一步加剧代际落差。据教育部最新统计,AI相关专业本科生中,超六成课程聚焦于框架使用与项目实训,数学建模、形式化验证、计算复杂性等底层能力培养课时压缩近30%;博士生科研选题中,应用导向课题占比达79%,而理论计算机科学、随机过程、泛函分析等支撑AI纵深发展的基础学科交叉研究不足12%。当全球前沿已迈向“AI for Science”新阶段,人才知识谱系的结构性短板正悄然转化为系统性追赶阻力。

差距拉大的本质,不在于单项技术指标的暂时落后,而在于基础研究耐心、范式创新勇气与制度韧性之间的复合型落差。扭转态势,亟需构建“顶天立地”的新型创新体系:在“顶天”端强化数学、物理、认知科学与AI的原始交叉,设立十年期基础理论攻关专项;在“立地”端推动产学研联合实验室深度绑定,将企业真实难题反向定义为高校研究命题;同步改革人才评价,为“冷板凳”研究者提供稳定支持与阶梯式成长通道。

真正的技术主权,永远建立在不可替代的原理性认知之上。当喧嚣的应用浪潮退去,唯有沉潜于基础土壤的深耕者,才能为下一轮范式革命埋下火种。