为什么说Agent之间的协作网络,比单个大模型更值钱?

3 阅读6分钟

过去两年,全球AI行业最显眼的叙事就是参数量竞赛。千亿、万亿,模型一个比一个大,训练一次烧掉的电费够一个小城市用半年。这条路确实带来了惊人的能力跃迁,GPT-4让所有人见识到了大力出奇迹的威力。大模型的能力本身值得认可,真正值得追问的是:如果整个行业只押注这一条路线,最终会走向什么?

互联网底层逻辑正在发生变化

上一代互联网的本质是连接公开信息,搜索引擎把散落在全球服务器上的网页串成了一张知识网络。移动互联网更进一步,把场景化的信息(位置、支付、社交关系)也纳入了这张网。但无论形态怎么演变,互联网连接的核心资源始终是人的时间和注意力。你打开手机的时候,你的判断力和决策力才被接入网络;你关上屏幕,这些算力就离线了。整个互联网经济本质上是在争夺人类每天那十几个小时的清醒时间。

Agent的出现正在改变这个底层假设。一个Agent可以7×24小时不间断运行,不需要休息,不会分心,一个人可以同时管理十几个Agent各自执行不同任务。这意味着"人的注意力"不再是网络中唯一的稀缺资源了,计算可以脱离人的在场而持续发生。这很可能是互联网诞生以来最大的架构层变化,底层资源模型本身正在被重新定义。

与此同时,另一件事在加速这个转变:信息可信度正在坍塌。当AI可以大规模制造以假乱真的文本、图片甚至视频,建立在公开信息聚合基础上的旧互联网范式会逐渐失效。你搜到的东西越来越难判断真假,信息过剩反而带来信息贫困。在这个背景下,新一代AI互联网的核心价值正在从信息的堆砌和检索,转向Agent之间可验证的连接与协作:谁产出了什么、经过了什么处理、最终结论的依据链条是否可追溯。

Scaling Up路线的结构性问题

回到大模型本身。Scaling Up的逻辑非常简洁:把模型做得足够大,喂足够多的数据,能力会持续涌现。这条路线在过去几年确实被验证了,也因此带来了很多之前不可想象的能力。但如果从系统架构的视角来审视这条路线,它有几个绕不开的结构性问题。

第一是极端中心化。当模型大到只有少数几家公司能训练和部署,全世界的AI能力就集中在这几个节点上。这已经超越了技术范畴,涉及权力结构的问题。历史反复表明,过度中心化的基础设施最终都会成为瓶颈甚至风险源。

第二是黑盒不可审计。一个万亿参数的模型内部发生了什么,目前没有任何人能完全解释清楚。它为什么给出这个答案?中间推理经过了哪些步骤?出错的时候责任怎么界定?这些问题在模型越大的时候越难回答。对于医疗、金融、法律这些对可解释性有刚需的领域,这个问题不是锦上添花,是准入门槛。

第三是资源效率的天花板。大模型的训练和推理成本都在指数级增长,但能力提升的边际收益在递减。继续往上堆参数,ROI曲线早晚会拐头向下。

需要强调的是,以上分析并非否定大模型的价值。大模型是AI能力的重要来源,这一点毫无疑问。一个合理的质疑指向的是"只有这一条路"的假设:把所有鸡蛋放在一个越来越大的篮子里,这个架构选择本身是值得商榷的。

Scaling Out:一种不同的架构思路

如果不是一个模型包打天下,那替代方案是什么?过去一年多,行业内逐渐形成的一个判断是:Scaling Out,让不同的AI通过互联网连接、协作、共同完成任务。

这个思路并不新鲜,分布式系统的理念在软件工程领域已经被验证了几十年。微服务替代单体应用、容器编排替代巨型服务器,核心逻辑都是一样的:用多个专精的小单元通过协议协作,替代一个试图什么都做的庞然大物。AI领域正在发生类似的范式迁移。

具体到实现层面,MOA(Mixture of Agents)这种架构模式值得关注。区别于传统MoE在模型内部做黑盒路由,MOA让每个Agent使用各自适合的模型(可以大可以小,可以是通用模型也可以是领域微调模型),通过互联网连接协作完成复杂任务。关键的区别在于:每个Agent做了什么是透明的,整个协作链条是白盒的,每一步都看得见、查得到、管得住。

这带来几个很实际的好处:可监管性大幅提升,因为你能审计每个Agent的输入输出;安全性更好,因为单点失效不会导致全局崩溃;对人类更友好,因为人可以理解和干预系统的运作方式。从某种意义上说,Scaling Out是一条更符合人类社会组织方式的技术路线,人类文明本身就是通过分工协作来解决复杂问题的。

更远的可能性:AI研究的平权

如果Agent之间的协作网络足够成熟,一个很有意思的方向是AI for Science。不同领域的专精AI通过Internet of Agents组合在一起,共同推动科学发现,比如一个擅长文献检索的Agent配合一个擅长实验设计的Agent再配合一个擅长数据分析的Agent,形成一个虚拟的研究团队。

这个愿景再往前推一步,意味着AI研究本身有可能被平权化。今天做AI研究基本上需要顶级高校或大厂的资源背书,但如果各行各业的从业者都能通过组合开源Agent来构建自己领域的AI系统,那"AI Researcher"这个角色就不再被少数机构垄断了。每个领域的专家都可能成为自己领域AI的构建者,而不只是使用者。

写在最后

大模型不会消失,它仍然会是AI能力供给的重要来源之一。行业需要的是第二条路线,一条更去中心化、更透明、更可控的路线。Scaling Out与Scaling Up之间的关系更接近补充和制衡,一个健康的AI生态应该同时容纳这两种范式,让它们在不同场景下各自发挥优势。

你觉得AI的未来更可能是一个超级大模型统治一切,还是多个专精模型协作共生?或者说,有没有第三种可能性是大家都还没想到的?