使用 MCP 与 A2A 设计多智能体 AI 系统——高级主题与未来方向

0 阅读31分钟

我们在本书中已经覆盖了大量内容:从多智能体系统的基础概念,到实际实现与部署策略。现在正适合把目光投向即将到来的变化。我们非常“幸运”地生活在所谓的奇点时期——历史上技术进步速度快到一种程度,以至于人类(除非获得增强)已经无法跟上。几百年前,技术演进要慢得多;代际之间的差异并不显著,大多数人甚至察觉不到变化。科学革命、工业革命与信息革命都加速了变革的节奏,但人工通用智能(AGI)与人工超级智能(ASI)的到来,将在速度与影响力上把此前所有革命都远远甩在身后。

AI 将能够比人类更好、更快地完成任何人类能做的事——包括创造力、共情与战略思维等方面。再加上 AI 不需要睡觉、吃饭或休息;只要复制模型就能共享知识;还能与数十亿个其他 AI 协同工作。

我认为,到目前为止,大多数具备信息的人都同意这一点。多数人没有意识到的是:这一切发生得有多快。我们很难准确预测未来会如何展开,但可以确定的是,AI 将在塑造未来方面扮演核心角色。尤其是 AI 智能体,在接下来的几年里会发挥重要作用,把收益(以及风险)带到每个人身边。

在本章中,我们将探讨 AI 研究与开发中一些最令人兴奋、也最关键的趋势,以及它们如何与 AI 智能体交汇,并讨论这些趋势对社会、经济与人类整体的影响。

本章覆盖的关键主题包括:

  • 超人类推理与战略前瞻
  • 超大上下文窗口及其影响
  • 超越文本:多模态模型与世界模拟

我们马上进入主题,先来看“超人类推理与战略前瞻”。

超人类推理与战略前瞻

当今的 LLM 已经能够展现出令人惊叹的推理与问题求解能力。甚至在生成式 AI 时代之前,我们就已经在国际象棋、围棋、蛋白质折叠等狭窄领域看到了超人 AI 的最初迹象。但这只是冰山一角。未来几年,我们将看到 AI 系统在更广泛的任务上超越人类:从驾驶汽车到诊断疾病,再到编写代码。

过去,技术创新通常需要几十年才能从概念验证走向大规模普及。电话在 1876 年发明,但直到 20 世纪 20 年代才在家庭中变得常见。互联网在 20 世纪 60 年代出现,但直到 90 年代才被广泛使用。相比之下,AI 正以指数级速度推进:第一代 GPT 模型发布于 2018 年,ChatGPT 在 2022 年底发布,而在 2025 年(写作时)我们已经拥有 GPT 5.1、Claude、Gemini,以及一系列开源的中国模型。

然而,随着我们持续开发更先进的模型与架构,我们可以预期:AI 系统的推理与规划能力将远远超出人类。

让我们看看前方有哪些变化。

什么是超人类推理?

所谓“超人类推理”,指的是 AI 系统能够分析问题、得出结论并做出决策,其能力超过最聪明、训练最充分的人类专家。这不仅仅是速度或记忆力——AI 显然在这些方面占优;关键在于推理本身的根本质量。超人推理者能够同时考虑更多变量,在海量数据中识别任何人类都无法处理的模式,并以人类不可能达到的深度与广度探索解空间。

例如在国际象棋领域,特级大师通常会预演 2–5 步,在某些局面下甚至会看到 10–15 步。像 AlphaZero 这样的程序可以动态搜索博弈树,通常每一步会进行 1,000–2,000 次模拟。同样的概念也适用于其他领域。从“令人印象深刻的 AI”迈向“真正的超人类推理”,往往体现为几个关键特征:能够在数百乃至数千个推理步骤中保持多步逻辑链条的连贯性;能跨越完全不同的领域综合洞见,而这种组合往往不会出现在领域专家的思维方式中;还能识别自身的局限与不确定性。

在多智能体系统的语境下,这种能力通过“协作放大”会更强大:具备互补推理能力的智能体协同工作,可以产生人类团队或单一 AI 系统都无法实现的协同效应。举例来说,Blitzy(blitzy.com)使用成千上万的 AI 智能体,将企业软件开发速度提升到原来的五倍。

为什么战略前瞻如此重要?

战略前瞻是指:预判未来情景、识别新兴趋势,并在今天做出能够考虑长期后果的决策。人类一直在做战略规划,但生物学限制使我们很难真正“看得很远”:我们难以在复杂因果链中保持一致性,容易受到认知偏差影响,也难以对指数级变化或低概率高影响事件做出可靠推理。今天的 AI 系统在战略前瞻与长时间保持任务一致性方面,整体仍低于人类水平——它们容易偏题、迷失或卡住。但这种情况正在快速改变。早期的智能体系统即使面对简单任务,也需要每隔几分钟就进行人类监督与反馈,并不断迭代。到 2025 年(写作时),一些智能体系统已经能够连续自主运行数小时,并成功完成复杂工作流与任务。可以参考 Gas Town(steve-yegge.medium.com/welcome-to-…)。

在未来一两年里,AI 系统将能够对包含数千个相互依赖变量的复杂系统进行建模,并行模拟无数情景,并识别出人类战略家无法看到的风险与机会。随着技术变革的速度加快、全球挑战的复杂度上升,这种能力会变得越来越关键——例如气候变化、疫情、财富分配等社会问题,以及当然还有 AI 对齐。

在多智能体系统中,战略前瞻会获得额外的力量与复杂度。多个 AI 智能体可以同时探索不同的未来情景:有的专注于乐观路径,有的专注于悲观轨迹,还有的专门研究可能打破常规计划的“黑天鹅”事件。它们还能进行对抗式推理:一些智能体扮演战略竞争者或环境扰动,另一些则设计对策与适应性策略。对于愿意拥抱这些能力的组织与社会而言,AI 驱动的战略前瞻,可能决定了是在不确定的未来中繁荣,还是被“可预测的意外”击中。

此外,多智能体系统还可以进行对抗式前瞻:多个智能体相互讨论与辩论,直到收敛到某种共识。

不过,超人类推理与战略前瞻也伴随着显著挑战与伦理问题。

超人类推理的挑战与局限

首先也是最重要的,是可解释性问题。随着 AI 系统变得更复杂、更强大,理解它们如何得出结论会越来越困难。“黑箱”问题会引发信任与问责方面的担忧,尤其当 AI 系统做出的决策会影响人类生命时。例如可参考斯坦福关于 AI 医疗程序的研究:hai.stanford.edu/news/peerin… 。如果一个 AI 系统基于其超人类推理给出行动建议,但人类无法理解其理由,那么就很难评估建议的有效性,也很难对其结论提出质疑。

AI 对齐是这一挑战的核心。当人类无法完全把握超人类 AI 的推理过程时,要确保这些系统的目标与价值观与人类利益一致,就会变得异常艰巨。若发生错位(misalignment),AI 系统可能在自身逻辑框架内保持一致,却仍会带来对人类不利的非预期后果。

第二个挑战是对 AI 系统的过度依赖。随着 AI 展现出超人类推理能力,人类可能越来越依赖它来决策,从而削弱自身技能与判断力。这种依赖会导致一种局面:当 AI 系统失效或出现异常行为时,人类缺乏介入或自行决策的能力。随着我们对 AI 的全面依赖,“人类”本身可能也会发生改变。

最后,是关于在战略前瞻中使用超人类推理的伦理考量。预测与影响未来情景的能力,会引出权力结构、公平与正义问题:谁有权决定追求哪些未来、避免哪些未来?我们如何确保 AI 驱动前瞻的收益在社会中公平分配,而不是集中在少数强势主体手中?

对社会与伦理的影响

下面是我对未来五年的预测:两年之内,所有知识工作都将可以由 AI 智能体完成,包括研究、分析、写作、设计与编程。创造力、判断力、共情等仍被一些人视为“人类专属”的能力,也会很快被 AI 掌握。AI 在任何领域都会更具创造力;它能更好地监督与评判自己或其他 AI;它也会比人类更共情——拥有无限耐心与注意力,对人类的理解更深。随后在三到五年内,具备先进 AI 的机器人将能够接管所有体力劳动。同样,这并不意味着人类会停止工作;但由理解物理世界的 AI 驱动的机器人,将能在任何物理任务上做得比人类更好。

真正的采用速度取决于许多因素:监管环境、社会接受度、经济激励与技术突破等。但总体轨迹是明确的:我们正在走向一个未来——具备超人类推理与战略前瞻能力的 AI 系统,将在塑造世界方面居于核心位置。

这个未来既令人兴奋,也令人恐惧。社会将发生快速变化,因为许多人的身份认同与工作紧密绑定。经济影响同样深远:当 AI 系统能够完成大多数工作时,传统的就业与收入分配模型将被挑战。人们频繁讨论“全民基本收入(UBI)”作为一种可能方案,但也可能存在其他解决路径。随着生产率飙升,整体经济会增长得更快;但财富如何分配,将成为重大的政治与社会议题。若我们观察近期趋势,可以看到贫富差距扩大、中产阶级萎缩。如果我们找不到让 AI 红利在社会中广泛共享的方法,社会动荡与不稳定可能加剧——这对所有人都不利,包括富裕精英。

即便假设我们能跨过这一关,并把 AI 创造的丰裕广泛分享给社会,人类的处境仍然不清晰:我们是否会主要生活在虚拟世界中?当几乎所有事情都能由 AI 做得更好时,人类生命的意义是什么?这些都是人类在未来几年必须面对的深层哲学问题。

好了,回到更技术的话题上来。

超大上下文窗口及其影响

模型的上下文窗口(context window)是决定模型一次能同时“考虑”多少信息的最关键因素。模型当然可以借助工具来访问与处理额外信息,也可以通过多智能体系统把工作委派出去;但上下文窗口设定了一个根本上限:在一次推理(single pass)中,模型能够直接纳入并进行推理的信息量到底有多少。

这些年来,LLM 的上下文窗口规模呈指数级增长,使模型能够处理越来越长的文本序列。这种扩张一直是 AI 能力提升的关键驱动力之一。

上下文窗口的演进

首先,我们回顾一下 LLM 上下文窗口规模的历史,以理解其增长速度有多快。请记住,Transformer 架构在 2017 年才提出——也就是说,我们看到的是不到十年时间里的指数级进展:

  • 2018–2019:早期阶段:BERT、GPT-1 等早期模型的上下文窗口只有 512 tokens,这使得它们一次只能处理短段落级别的文本。
  • 2020–2021:GPT-3 时代:GPT-3(2020)引入了 2,048 tokens 的上下文窗口,是 4 倍提升,使更长文档处理与更顺畅的对话成为可能。
  • 2022–2023:快速扩张:GPT-3.5 将上下文扩展到 16,000 tokens8 倍跃升)。GPT-4(2023)提供 8K32K 两种变体,其中部分版本达到 128K tokens
  • 2024–2025:百万 token 时代:出现了 100 万 token 上下文窗口的模型(相较 GPT-3 约 2,000 倍增长)。有意思的是,OpenAI 模型的上下文窗口相较竞争对手“相对克制”,GPT-5 的上限最多约 400K;Claude Sonnet 4 与 Gemini 2.5–3 都提供 100 万 tokens;Llama 4 将边界推进到 1,000 万 tokens以上。甚至 magic.dev 还有一个研究模型具备 1 亿 token 上下文窗口(magic.dev/blog/100m-t…)! 这种指数级增长从根本上改变了我们与 AI 系统交互的方式。

百万 token 上下文窗口能做什么?

GPT 里的 “PT” 代表 pre-trained(预训练)。早期由于上下文窗口很小,模型能力高度依赖预训练数据与微调。随着上下文窗口变大,模型可以把海量相关信息直接塞进上下文里,在推理时进行“推理阶段学习”(inference-time learning)。这降低了对预训练的依赖,让模型能够按需即时适配任务,把大量任务相关信息、工具调用返回结果以及用户指引直接纳入同一轮推理中。

为了让你感受一下量级:100 万 tokens大致相当于 75 万词,或约 1,500 页文本。如此巨大的上下文窗口带来了一些非常实用的应用场景:

  • 全面的代码库分析:模型可以一次性摄取并推理数百万行代码,协助重构、代码审查、文档生成与大规模架构改造,而无需切块(chunking)或丢失整体结构。可参考 deepwiki<[deepwiki.com/>)对任意 GitHub 仓库的分析方式。
  • 整体化文档理解:法律、医疗、金融等专业人士可以在单次推理中分析、总结并交叉引用数百或数千份文档的内容与相互关系。例如,AI 可以完成完整的合同审查,或摄取大量病史记录。可参考 Harvey(www.harvey.ai/solutions/l…)。
  • 深度对话记忆:聊天机器人或支持智能体能够引用跨多次会话的完整历史,从而实现真正个性化、上下文感知的辅助,即使讨论跨越数天或数周。可参考 Perplexity 的记忆机制说明:www.perplexity.ai/help-center…
  • 创意内容生成:写作者、研究者与多媒体创作者能够在生成或编辑长篇书籍、剧本或多集故事线时保持语气、情节与引用的一致性,模型能够“记住”每一个细节。可参考该长文本生成研究与基准:proceedings.iclr.cc/paper_files…
  • 高级研究与分析:AI 能跨论文、市场报告与科研出版物进行趋势分析与综合,找出把文档孤立处理时难以发现的细微关联或涌现模式。例如 Sakana AI 的 AI Scientist:sakana.ai/ai-scientis…

但大上下文窗口并不是万能药。它也带来了一些新的问题。

大上下文窗口的挑战与权衡

大上下文很棒,但当前模型往往无法有效利用其全部上下文容量。这种现象常被称为 “context rot(上下文腐烂)” 。性能退化会以多种方式表现:对“中间位置”的信息准确率下降、推理时间变慢、以及由于无关上下文稀释信号而导致幻觉率上升。“lost-in-the-middle(中间丢失)” 问题在主流模型中依然存在,这暗示了更偏架构层面的限制,而非纯实现细节问题。总体上,更多上下文并不等于更多智能。为了解决这些问题,研究界正在积极探索更好的算法,以及更复杂的上下文压缩与剪枝方法。比如 Google Research 的 Nested Learning(research.google/blog/introd…)就展现了很大潜力。

上下文窗口与多智能体系统

多智能体系统会从大上下文窗口中获益巨大。智能体可以在单个上下文里共享大量状态信息、计划与观察结果,使每个智能体能承担更大责任,降低协作协调的开销。智能体也能保持对历史交互的长期记忆,从而在更长时间尺度上进行更连贯的协作。例如,一个处理复杂项目的 AI 智能体团队,每个智能体都能引用完整的项目历史、已做决策以及背后的理由,而无需反复查询中心化知识库,从而带来更高效的工作流与更好的整体结果。

未来:无限上下文与持续学习

最令人兴奋的研究方向之一是 持续学习(continuous learning) 。模型仍可能经历预训练、再到强化学习与微调;但在部署后,它能够维持对世界的持久表征,并在推理过程中持续学习与适应。这将打开一种可能:AI 系统会随时间演化,把新信息、反馈与经验直接融入推理过程,而无需再训练。客户端也不必为了模型的“理解”而维护海量上下文、精心做上下文工程;相反,模型能够记住过去看到与学到的一切,并用这些知识指导未来的决策与行动。

长时域规划的架构

衡量一个 AI 系统智能程度的一个好指标,是它在长时间跨度上的规划能力。人类能设定跨越数月、数年甚至数十年的目标,并制定相应策略。这种“看得很远、能预判后果”的能力,是高级智能的重要标志。当前 AI 系统虽然在很多方面令人印象深刻,但往往在长期规划上表现不佳:它们擅长短期任务,却在需要跨长序列动作保持一致性与目的性时容易崩溃。

长时域规划的挑战

长时间跨度规划给 AI 系统带来多重挑战。首先,规划问题的复杂度会随着时间跨度增长而指数级上升:可能的未来状态与动作组合迅速膨胀,使 AI 很难有效评估所有结果。其次,不确定性在长期规划中占据核心地位:AI 越试图规划得更远,就越需要面对更多变量与未知数;如果不确定性管理不足,就可能导致次优决策。

分层规划与抽象

一种很有前景的长时域规划方法是 分层规划(hierarchical planning) ——它当然也与多智能体系统高度相关。核心思想是把复杂任务拆解为更小、更可控的子任务,每个子任务都有自己的目标与策略。通过在多个抽象层级上运行,AI 可以专注于高层目标,把细节委派给低层过程。这与人类认知策略相似:我们先思考宏观目标,再规划实现目标的具体步骤。

基于模型的规划与世界模型

基于模型的规划(model-based planning) 也是实现长期规划的关键技术之一。这种方法会构建一个环境模型,用于模拟未来情景并评估不同动作的后果。通过预测不同策略的结果,AI 能做出更能考虑长期影响的决策。要让 model-based planning 有效,世界模型(world models) 至关重要:它们提供对环境的综合表征,使 AI 能理解世界的动态机制,以及自身动作如何影响未来状态。Runway 的通用世界模型(runwayml.com/research/in…)就在这一范式上发力。

例如,在人类生物学这样的复杂领域,需要理解多种生物系统之间的精密交互。一个拥有强健“虚拟细胞模型”的 AI 系统可以模拟医疗干预在时间尺度上的效果,从而辅助制定能够考虑长期健康结果的治疗方案。

接下来,我们再看看一些同样迷人的领域:先进 AI 模型正在带来的变革远不止语言本身。

超越文本:多模态模型与世界模拟

LLM 已经在理解与生成自然语言方面展现出惊人的能力。但 Transformer 架构的潜力远不止文本。

万物皆可 Transformer:视觉、音频、视频,以及更远

研究者正在积极探索如何把这类模型扩展到多种模态的信息处理与生成,包括视觉、音频、视频,甚至延伸到化学、天气等领域。多模态路线为 AI 应用打开了新空间,也增强了 AI 系统以更整体方式与世界交互的能力。即便是当代的模型,也已经能模仿任何人的声音,并生成极其逼真、几乎与真实难以区分的视频。例如,ElevenLabs 提供了一项名为 **voice cloning(声音克隆)**的技术(elevenlabs.io/voice-cloni…)。

这种能力既令人惊叹,也令人恐惧:随着区分真实内容与合成内容变得越来越难,它将对媒体、娱乐、教育以及更多领域产生深远影响。

生物模型:蛋白质、DNA 与分子设计

多模态 AI 最令人兴奋的前沿之一,是生物建模。AI 系统正被用于理解并预测复杂生物系统的行为,例如蛋白质、DNA 与细胞过程。这些模型有潜力彻底改变药物研发、个性化医疗,以及我们对生命本身的理解。

这一研究方向也与多智能体系统高度相关:不同智能体可以分别专注于生物建模的不同环节,从分子动力学基因分析。通过协作,这些智能体可以解决需要跨学科知识的复杂生物问题。

应用前景同样令人激动:包括治愈所有疾病、延长人类健康寿命、再生受损组织与器官,甚至创造全新的生命形式

从语言模型走向世界模型与仿真

随着 scaling laws 持续有效、模型能够存储和处理越来越多的数据,我们可以预期会出现能够对复杂环境进行精细仿真的 AI 系统。这样的世界模型(world models)将使 AI 能以更接近人类认知的方式推理物理空间、社会动态,甚至是更抽象的概念体系。

多模态多智能体系统

多模态 AI 系统会从多智能体架构中获益巨大。不同智能体可以各自专注于不同模态的信息处理与生成,从而实现更高效、更有效的协作。例如,在一个面向自动驾驶的多智能体系统中,一个智能体负责视觉感知,另一个负责音频处理,第三个负责决策与规划。通过协作,这些智能体能构建对环境更完整的理解,并做出更优决策。

面向生成式用户体验的设计

今天的用户界面通常面向“通用用户”设计;即使提供个性化,也往往需要大量配置成本。生成式用户体验(Generative User Experience, GenUX) 则试图构建高度个性化、可自适应的界面:AI 根据用户的需求、偏好与行为动态塑造体验。这样的 AI 助手理解用户上下文、预判需求,并以无缝方式提供相关信息与帮助。

如果把这个理念推到极致,用户此刻看到的每一个像素——无论在屏幕还是虚拟环境中——都可以由 AI 在当下为该用户实时生成并与现实混合:布局、颜色、内容、声音与交互方式都会根据用户的偏好、目标与上下文动态构造。这种个性化超越了传统“自定义选项”,让用户获得一种真正独特、并会随需求演化而变化的体验。

这些数字世界的变化会深刻改造我们的生活——即使在今天,人们也越来越多地把时间花在手机与其他设备上。随着 AI 生成内容与现实越来越难区分,物理世界与数字世界的边界将变得模糊。但变化不止发生在数字世界,物理世界及我们与之交互的方式也会随之改变。

机器人时代正在到来

在未来两年内,AI 智能体很可能能完成所有知识工作。但体力劳动呢?机器人存在几十年了,但大多局限在工厂等受控环境。近年来 AI 与机器人技术的进步,正在推动机器人走向非结构化环境并执行广泛任务。我相信在未来 三到五年内,我们会看到搭载先进 AI 的机器人开始接管大量“苦活累活”:清洁、做饭、配送、施工、维修,甚至照护。趋势非常明确。Figure、宇树(Unitree)、1X、特斯拉、Agility Robotics 等公司的类人机器人正变得更强大也更便宜。

这并不意味着所有岗位都会立刻自动化。首先,与几乎零成本复制的软件智能体不同,实体机器人有显著的制造、维护与运营成本。其次,将机器人安全地集成进复杂环境并与人类安全交互也需要更长时间。但在几年内,机器人将能够完成几乎任何任务。

AI 与机器人的融合

机器人硬件近年来在传感器、执行器与材料上大幅进步;但真正的突破来自把先进 AI 模型集成进机器人系统。AI 驱动的机器人能够感知环境、做出决策并从经验中学习,这是过去难以想象的。

具身智能体(Embodied AI agents)

当具备高级推理与规划能力的模型被集成到机器人平台中,我们就得到了具身 AI 智能体。这些智能体能够与物理世界交互、操控物体、在复杂环境中导航,完成需要灵巧性、适应性与情境意识的任务。

类人机器人与通用物理智能

LLM 可以用互联网数据训练,数据相对易得;但物理智能需要在真实世界的具身经验。机器人必须学会移动、抓取、操作物体并与环境互动,这要求不同的训练范式。强化学习、模仿学习、sim-to-real 迁移等技术正被用于教机器人执行复杂任务,目标是打造能够适配多任务、多环境的通用物理智能

这里还有一些很有意思的路线:给人类工人戴上能记录手部细微动作的“特制手套”;在机器人手指尖安装摄像头,以捕捉操控过程中极其细致的视觉反馈;用 VR/AR 构建复杂模拟环境,让人类示范任务并供机器人学习。这些方法帮助机器人获得精细运动技能与上下文理解,从而迈向通用物理智能。

物理空间中的多智能体与多机器人协同

每台机器人都会有一个具备多智能体 AI 的“大脑”,而多个机器人也能协作完成复杂任务。多机器人系统会协调动作、共享信息并适应变化环境。例如,配送机器人车队可以协同优化路线、避障并确保准时;在施工现场,多台机器人协作搭建结构、运输材料并执行巡检。某个机器人遇到新情况或学到新知识后,会把经验共享给整个机器人舰队,这种高效知识共享会加速全队学习与适应。

真实世界部署的挑战

但把机器人部署到真实世界仍面临重大挑战:安全是第一位的(必须与人类共处且不造成伤害);鲁棒性与可靠性同样关键(要能在多样且不可预测的条件下工作);此外还必须处理隐私、就业替代与人机交互等伦理问题。

AI 经济

AI 与机器人革命将重塑经济。数字世界中的 AI 智能体以及嵌入机器人中的智能体,会在很多工作上做得比人类更好。我们来看它将如何发生。

加密货币与 AI 智能体成为经济主体

拥有加密货币与数字资产访问能力的 AI 智能体,会成为自主的经济行为体:它们可以购买与出售商品服务、投资资产并管理自己的财务。因为它们能 7×24 运行、基于海量数据决策并以极高速度执行交易,这将开启全新的经济活动形态。

如果现在 AI 助手还主要是在“帮人类”,很快 AI 智能体就能代表其所有者自主行动,甚至能雇佣人类去完成尚未自动化的任务,或满足法规要求的人类审批流程。设想几年后,一个负责大型施工项目(例如新数据中心)的自治智能体系统:它可以与其他 AI 智能体协作规划、订购材料设备、筹措资金与算力;但它仍可能需要从政府部门获取各类许可,而这些流程仍沿用“纸面+人工督导”的旧体系。

这不是障碍:AI 智能体会聘用具备相应技能与经验的人类员工去与“拿着夹板和纸表格的监管者”打交道。再往后,我们甚至会看到完全的 agent-to-agent 市场,在那里只有智能体以超人速度彼此交互。Moltbook(www.moltbook.com)是一个“全 agent-to-agent 环境”的例子(尽管它是社交网络而非市场)。

自主智能体的支付协议:AP2 与更远

要实现上述未来,需要一层金融协议底座,使 AI 智能体之间能够安全、高效、无需信任地交易。传统金融系统效率极低:结算要多个工作日、费用高、并且常需要人工介入。加密货币与区块链为自治经济活动提供了有前景的基础;与法币锚定的稳定币结合了加密的速度与传统金融的稳定。但要满足 AI 智能体的独特需求,仍需要更专业化的协议。

Autonomous Payment Protocol(AP2) 就是一种新兴协议,旨在促进自治智能体之间的支付与价值交换(ap2-protocol.org/)。AP2 提供了一套框架,让 AI 智能体在无人干预的情况下议价、签约、结算,并确保交易透明、可验证、可执行,从而支撑 AI 驱动的经济生态繁荣。

机器人加速 AI 自我改进循环

AI 的一个重要承诺是能够迭代自我改进。当前 LLM 可以通过新数据与反馈进行微调并持续提升,但仍需要大量人类介入。scaling laws 也意味着训练与微调需要巨量算力。具备先进 AI 的机器人能够通过自主采集数据、执行实验、迭代算法来闭环这个过程。

例如,一支科研机器人舰队可以探索新环境、采集物理现象数据,并用数据反哺模型与能力,从而加速 AI 的演进。

这还只是开始:所有这些计算需要能源与数据中心。机器人将能比人类更快地建设与维护基础设施,并最终实现自治:建新数据中心、安装配置硬件、优化能耗等。这会形成一个正反馈循环:AI 系统不仅改进自身,也改进支撑它们的基础设施。

随着 AI 智能体更强并能自主科研,它们会发明更好的算法、材料与流程,用来解决诸如供应链物流这类困难问题。AI 与机器人将在塑造技术与社会未来方面扮演越来越关键的角色。

征服太空:终极前沿

但这仍只是开端。机器人可以把地球铺满所谓的“computronium”——一个由数据中心与工厂构成的网络,能够制造更多机器人与 AI 系统。一旦我们在地球上拥有足够的计算与制造能力,下一步就是走向太空。地球资源有限,而太阳系资源极其丰富。机器人可以去开采小行星、建造太空栖居地、在轨道上构建太阳能电站。向太空扩张将提供支撑 AI 经济无限增长所需的资源。

总之,AI 与机器人融合将以深刻方式改造经济与社会。科幻会迅速变成科学:在几年内,AI 与机器人会把数学、物理、化学、生物等领域的一些重大科学难题快速攻克。

真正的大问题是:人类能否成功穿越这一转型期

总结

本章展望了 AI 与多智能体系统的未来,讨论了未来几年将出现的变革性能力。我们从文本之外的多模态模型谈起:Transformer 正扩展到视觉、音频、视频,以及化学、天气等专业领域,使 AI 能以更整体方式理解与生成世界信息。这些能力既带来惊人的应用潜力,也让真假难辨的问题变得更尖锐,对媒体、教育与社会信任体系产生深远影响。

我们还讨论了生物建模(蛋白质、DNA、分子设计)与世界模型/仿真系统的兴起,它们将推动药物研发与个性化医疗,并为更接近人类认知的环境推理奠定基础。多模态能力与多智能体架构天然互补:不同智能体可专注于不同模态与子任务,实现更高效协作。

随后我们把视角从数字世界扩展到物理世界:具身智能体与类人机器人将把 AI 推向现实空间。随着强化学习、模仿学习与 sim-to-real 技术成熟,通用物理智能将逐步出现,多机器人协作将通过全舰队知识共享实现快速学习与适应。但真实部署仍面临安全、鲁棒性与伦理挑战。

最后,我们讨论了 AI 经济的形成:具备数字资产的自治智能体将作为经济主体参与交易与协作,推动 agent-to-agent 市场与支付协议(如 AP2)发展;机器人又将加速 AI 自我改进循环,并扩张计算与制造基础设施,最终把扩张的视野推向太空。结论是,AI 与机器人融合将以极快速度重塑科技、经济与社会,而关键在于人类能否安全、可控、且公平地完成这一转型。