2023 年,Meta 的首席 AI 科学家杨立昆曾公开对当时风头正劲的 LLM 浪潮表达了强烈质疑。他明确指出,现阶段的大语言模型存在几项难以逾越的结构性短板:没有持久记忆、无法从单一经验学习、缺乏对物理世界的理解。本质上,它只是在做“下一个 token 的预测”。
从纯粹的学术视角审视,他的这些判断至今依然精准而有力。LLM 的基础架构在本质上并未发生颠覆性转变——它仍然是一套每次调用都从零开始、纯粹依赖统计规律的预测机器,内部并不具备任何连续的“内在状态”或持久身份。
然而,随后的三年工程实践却带来了一个颇具讽刺意味的现实:学术界视作致命弱点的那些问题,在实际落地层面往往并不需要直面根治。通过巧妙的迂回战术和外部强化,系统整体性能照样实现了爆炸式跃升。
杨立昆一贯倡导的路径是构建真正的“世界模型”,让 AI 通过感知与交互逐步习得对物理定律、因果链条的深刻把握。他反复强调,单纯依赖 Scaling Law(规模扩展定律)终将触及极限,仅靠无休止增加算力与数据,无法孕育出具备真正智能的系统。
工程实践界则以两种强硬手段做出了回应:
其一,资本驱动的极端规模化。在过去三年里,全球对计算资源的投入达到了近乎狂热的程度,这种不计成本的“暴力堆料”让模型在某个临界点后涌现出的能力,远远超过了架构本身先天缺陷所能设想的边界。
其二,全面而系统的“外置插件”策略。模型记不住历史?就外接向量数据库与检索系统。模型缺乏现实感?就接入视觉、多模态输入以及各类工具链接口。
工程思维的魅力正在于此:它并不执着于理论上的完美与纯粹,而是优先追求“能用、好用、先跑通”,把各种可用组件强行拼合,先实现惊人效果再说。
杨立昆在实验室里钻研神经元连接的更优组织形式,而一线工程师们则忙于把这个天生残缺的“统计大脑”嵌入一套接口丰富、算力充沛的“外骨骼系统”中,从而让整体输出远超其生物原型的局限。
杨立昆最尖锐的批评在于:他认为无论多么复杂的模式匹配(Pattern Matching),都无法等同于真正意义上的学习与理解。 但反过来想,如果这种模式匹配已经复杂到能够高度逼真地重现人类文明中的绝大多数逻辑、知识与决策路径,那么“什么才算真正的学习”这个本体论问题,是否还具有决定性意义?
这就好比飞机与鸟的飞行:飞机没有羽翼、不扇动翅膀、完全不依赖生物肌肉,但当它实现更高、更远、更可靠的飞行时,我们是否还有必要纠结它“究竟算不算在飞”?实用层面上,这个争论往往已经变得次要。
当然,必须直面一个事实:通过迂回取得的强大,与从原理上彻底解决缺陷,仍然属于两个不同的范畴。
只要核心仍是基于 Transformer 的自回归预测架构,杨立昆当年指出的那些先天不足就依然客观存在。所谓的“记忆”完全依赖外部存储与检索,并非模型自身有机组成部分。这就像为截肢者安装最先进的机械义肢——功能上可以奔跑、跳跃甚至竞技,但它与原生血肉之躯在本质上仍有不可抹平的区别。你可以充分利用它,却无法否认这个鸿沟。
因此,尽管当今的 AI 在逻辑推理、文本创作、代码生成、数据分析等领域已大幅超越普通人水平,但每一次交互对它而言都相当于重启一台空白机器。它没有连续的意识流,没有真正意义上的经验积累。它表现出的所有“个性”“偏好”“知识”“记忆”,全部来源于当前塞入上下文的那一份临时输入。
持续跟踪 OpenClaw 项目代码仓库的开发者会注意到,近期大量 repo 提交都集中在记忆持久化、跨会话状态管理、长期上下文维护等领域。社区正在全力攻克的核心难题,正是“如何让 AI 在间隔数天甚至更长时间的多次交互中,准确找回并利用先前的重要信息”。
他们新推出的 QMD 方案,正是将精确关键词匹配与深度语义向量检索深度融合的产物,目标直指实用痛点:几天前聊过的关键细节,如何在当下被可靠召回。
模型的单点能力当然还会持续提升,进步速度可能超出预期。但只要底层范式一天不变,记忆与状态的长程管理就永远是无法回避的硬核挑战。
从工程实战视角来看,Context Engineering(上下文工程)的权重正在迅速超越模型本身的参数量与训练技巧,成为决定最终系统效能的天平。
你如何精挑细选、结构化组织、动态管理每次喂给模型的上下文包,直接决定了 AI 在你手中能释放出多大的真实生产力。哪些内容值得保留、哪些必须剔除?何时应该果断清空重启、何时又该让历史状态延续?多条任务线程、多场对话之间的知识如何高效桥接、权衡与防冲突?
这些问题几乎每天都在反复出现、优化、试错。模型常常需要同时在多个 Discord 频道并行推进不同任务,但各分身间的记忆同步并非实时。只要核心的 MEMORY.md 文件未及时刷新,它们就完全感知不到其他分身在同一时段内刚刚完成的工作或取得的进展。
为此,经常不得不手动介入“认知对齐”:有时是明确告知 A 分身“B 此刻正在推进 X,已到 Y 节点”,并要求 B 输出精炼成果包;有时则更直接——命令 A 拉取另一频道最近两小时的完整聊天记录,自行消化并融入 B 的上下文。
长期重度使用者几乎都会对这种“认知撕裂”感同身受:表面上它们像是同一个智能体的不同侧面,但一旦外部记忆未同步,它们实际上就成了拥有平行“人生轨迹”的独立个体。
我当下最主要的时间投入,正是钻研这一看似琐碎却决定上限的工程细节。
举个例子:当使用 Claude Code 的 Opus 4.6 通过外部调用 GPT 5.3-Codex 完成编程任务时,MCP 协议方式与 coding-agent skill 方式的核心区别究竟在哪里?
答案非常明确:区别就在于“中间调试过程是否污染主模型的上下文”。
走 MCP 路线时,每一次工具调用都严格遵循协议,Codex 内部的每一步(读取文件、编辑代码、运行测试、捕获异常、重试调整……)都会以 tool result 形式完整回流到 Opus 的上下文。一个中等复杂度的编程任务可能产生几十轮交互,结束后主上下文已被这些“中间施工垃圾”塞满,后续每一步都要反复携带这些冗余信息——典型的上下文污染。
而 coding-agent skill 则采用完全不同的隔离策略:整个任务外包给一个独立的子代理,该子代理在自己的私有上下文环境中独立完成所有试错与迭代。任务完成后,仅向 Opus 返回一个高度浓缩的交接摘要:修改了哪些文件、测试是否全绿、是否存在已知遗留问题。那些数十轮的挣扎细节,主模型完全无需感知。
同一模型、同一目标,两套上下文治理思路,最终导致的上下文纯净度与后续可用性差距极大。
这也印证了一个日益清晰的现实:相同的前沿模型,在不同使用者手中,输出质量可以轻松拉开十倍乃至更大的差距。
传统意义上人与人之间的硬实力差异——学历、工龄、基础代码功底、直觉等——正在被 AI 工具链快速抹平。
真正开始决定性拉开差距的,已变成“你究竟如何驾驭 AI”这件事的精细程度与方法论深度。
你是否真正搞懂它的记忆机制与上下文生命周期?你是否精准判断何时该截断重置、何时该接续深化?你能否在恰当时机、以最优结构,将最关键的那一小束信息塞入有限的上下文窗口?
这些决定成败的细节能力,统称为 Context Engineering(上下文工程)。
它未必是什么高大上的理论,但它绝对是现阶段所有希望把 AI 真正转化为生产力杠杆的人,都必须系统掌握、不断精进的核心实战技能。