2026:AI基础设施将迎来“至暗时刻”

64 阅读5分钟

2026年企业AI将面临数据扩展现实。MCP成标准,数据库承压,数据治理关键。防范厂商锁定,采用持久化执行引擎。投资基础架构以获得AI优势。

译自:In 2026, AI Infrastructure Will Face a Reckoning

作者:Will LaForest

经过两年的快速实验和部署,2026年将是企业直面扩展AI系统现实的一年。数据堆栈的每一层都在经受AI工作负载的压力测试,而支撑过去十年数字业务的基础设施并非为AI代理无休止、对上下文的渴求而设计。

明年将区分那些将AI视为副业的公司和那些重建数据基础以支持AI的公司。以下是定义2026年的六个基础设施转变。

MCP 将成为基本要求

随着代理式AI项目的成熟,AI需要畅通无阻地访问数据并在系统间采取行动的需求变得清晰。一个挑战是,领先的前沿提供商在外部工具和函数调用方面创建了不同的方法,这给需要轻松切换模型的开发人员带来了麻烦。

模型上下文协议(MCP)已迅速成为连接AI应用程序到数据源的标准,无论使用何种大型语言模型(LLM)。早期采用的平台迅速增加了MCP支持,认识到一个简单开放的标准将比尝试维护许多紧密耦合的集成更容易集成并向AI市场提供支持。

当然,一些障碍依然存在,特别是在安全性方面。但单一、开放的协议能减少摩擦的吸引力将是不可抗拒的。到2026年中期,缺乏MCP支持的技术平台将错失下一代AI应用程序。

数据库将因代理工作负载而承压

代理不仅会增强人类任务,还会呈指数级增加数据需求。代理是贪婪的。它们不知疲倦,不等待工作时间,并以人类无法达到的规模运行。一个优化供应链的代理在一个小时内可以生成比一个分析师团队一周内更多的数据库查询。

挑战在于,许多传统和企业数据库已经难以应对当前的负载。在过载的数据库之上增加AI代理是导致连锁故障的秘诀。一个已建立的模式,即使用变更数据捕获(CDC)管道将近实时数据馈送到能够处理这些永不满足需求的、可大规模扩展的现代数据库中,将成为生存的必要条件。

数据治理成为关键路径

AI使数据治理变得更加重要。AI应用程序无法用机构知识或人类劳动力的部落智慧来弥补差距。如果没有正确的上下文,AI应用程序将无法工作,但安全性与隐私控制仍必须遵守。当AI做出决策时,组织需要以编程方式访问其完整的数据血缘。除了支持上下文的简单血缘之外,代理系统中的端到端数据流必须可审计和可回放,以实现快速迭代改进、故障排除和合规性。

2026年将迫使所有公司加倍投入其数据治理基础设施。一个令人头疼的痛点是跨系统数据血缘。数据从大型机流经消息队列,通过API与SQL Server数据结合,并最终到达多个下游系统,这种情况并不少见。追踪这些旅程至关重要。Confluent和Databricks等供应商在其平台内提供了出色的治理,但平台之间的空白正是AI可能崩溃的地方。公司还需要以同样严谨的程度处理代理自身的数据流入和流出。

厂商锁定将成为主要的AI风险

在LLM厂商之间切换的技术相对容易,这造成了一种虚假的安全感,但战线正在从模型转向生态系统。模型提供商正在积极构建专有平台,提供代理框架、开发工具和数据集成。在这些壁垒内连接企业数据和构建代理可能会让组织陷入困境。

一旦运营数据和业务上下文深入嵌入到特定厂商的生态系统中,迁移成本将变得天文数字。这是数据引力这一古老陷阱的体现。在2026年,公司将意识到从一开始就将战略性厂商独立性内置到其AI架构中是至关重要的。

解决方案是独立的控制平面。聪明的公司将构建其AI堆栈,使其数据与AI工具分离。这种解耦确保了数据的可移植性,并允许组织在不经历灾难性“离婚”的情况下切换AI厂商。在2026年解决这个问题的公司将保持谈判优势,获得最佳技术,并在新AI技术上市时保持采用的敏捷性。那些未能解决的公司将发现自己被锁定。

持久化执行引擎的采用将加速

Temporal和Restate等持久化执行平台一直在酝酿中,但2026年其采用将显著加速。它们使可靠性成为内置的原始特性,而不是工程师必须手动编写到每个应用程序中的东西。

AI代理用例将加速其采用。代理需要多系统交互、本地状态管理和多步骤流程——这正是持久化执行引擎所擅长的。那些多年来一直在与分布式系统可靠性作斗争的开发人员会想知道没有这些工具他们是如何生活的。

2026年的基础设施清算并非AI的失败,而是其进步的标志。生产中的AI系统最终达到了足够高的要求,从而暴露了企业数据基础中的弱点。那些现在投资于协议、治理、厂商独立性和可扩展架构的公司,将在AI从实验走向运营核心时获得决定性的优势。