我们正见证着AI的第三次巨大规模化浪潮,这要求我们对关键基础设施进行根本性的重新思考。当业界仍痴迷于构建越来越大的前沿模型的竞赛,企业初步努力寻找杀手级应用和投资回报时,企业AI价值创造的真实战场已经转向了边缘。
如您所在的企业也在考虑采购云服务或进行云迁移,
点击链接了解Akamai Linode解决方案,现在申请试用可得高达5000美元专属额度
AI规模化浪潮的演进
为何称之为“浪潮”?因为浪潮是一种积聚力量、达到顶峰并重塑地貌的力量——其势头、必然性和连锁效应将触发下一波浪潮。这三股浪潮是不可阻挡的力量,正在重塑整个行业,它们包括:
- 第一波浪潮:大规模预训练
- 第二波浪潮:后训练与精调
- 第三波浪潮:多步推理与思考
让我来阐述为什么这一决策对当下每一位正在规划AI基础设施的企业领导者都至关重要。
第一波浪潮
第一波浪潮——大规模预训练,为我们带来了GPT-4、Claude以及让企业认识到AI变革潜力的前沿模型。这些模型成为了我们的生产力副驾驶、头脑风暴伙伴,也让我们首次窥见通用人工智能的可能性。
然而,它们也伴随着一些附带条件:天文数字般的计算成本、全球用户面临的高延迟,以及集中式处理的固有局限。
作为行业一员,我们过去一直忽略这种延迟,因为流式生成令牌是一种新鲜的交互方式——看啊,AI正在思考呢。
第二波浪潮
第二波浪潮——后训练与精调,让AI更贴近商业现实。企业学会了使用专有数据和机构知识,将基础模型适配到其特定领域。
这波浪潮带来了首批真正的投资回报故事:真正理解上下文的客户服务自动化、遵循公司规范的代码生成,以及与现有应用浑然一体的对话式界面。
然而,即便是这些专用模型,仍然与集中式云服务绑定在一起。随着使用场景的发展,这种集中式将为实时、对延迟敏感的场景(例如需要毫秒级而非秒级或分钟级响应的个性化推荐、自动驾驶汽车与制造、物理AI与机器人技术)造成瓶颈。
分布式能力的缺失尚未成为瓶颈,只是因为真正需要它的场景……尚未大规模普及。
第三波浪潮
现在,我们正在进入第三波浪潮。这要求模型能够对复杂工作流进行推理思考,在长时间交互中保持上下文连贯,并在全球范围内实时交付响应。
这不仅关乎让模型变得更大——更关乎让它们更努力地工作、更长久地思考,并在用户所在的任何地方运行。要让AI在大规模应用中真正有用,它必须快速、安全、准确且引人入胜。
分布式推理将使我们能够在边缘汇聚这些关键要素,并将彻底改变我们参与业务、实现盈利和促进增长的方式。
尚无人提及的基础设施挑战
以下是大多数基础设施提供商不会告诉你的:对于大规模的实时场景,集中式AI推理的经济模型会灾难性地崩塌。当每一次推理请求都需要往返于遥远的数据中心时,你面临的不仅是延迟,更是由带宽、排队延迟和距离的纯粹物理特性带来的叠加成本。
试想,当一个AI智能体执行多步推理时会发生什么。每一步都可能需要多次模型调用、向量数据库查询和API集成。在集中式架构下,每个环节的延迟可能高达数百毫秒,这些细小的滞后在实际应用中层层累积,最终导致响应时间超出可接受范围。
现在,想象一下这样的场景:将其乘以成千上万遍布不同地区的并发用户——你就不难理解,为什么依赖超大规模云厂商的集中式方案会行不通了。
Akamai推理云:为实时分布式AI而生
这正是我们构建Akamai推理云的原因。我们并非试图与超大规模厂商竞争,看谁能在某个小区域建造最大的集群。我们是在解决企业面临的实际问题:如何在行星级规模上,交付具备本地化性能的AI推理。
我们的方法利用了只有Akamai才能提供的三大关键优势:
- 边缘基础设施
- 平台原生的AI运维
- 理解AI的安全体系
边缘基础设施
我们正在将NVIDIA Blackwell RTX PRO 6000服务器版GPU部署到我们的全球网络中——不是集中在少数几个巨型数据中心,而是分布在你的用户实际所在的位置。这并非试验性质,而是生产就绪的基础设施,构建在已经承载约30%网络流量的同一网络上。
平台原生的AI运维
通过在我们Linode Kubernetes Engine (LKE)上运行的NVIDIA推理微服务 (NIM),我们让AI工作负载的部署、扩展和管理变得简单。你的团队可以获得用于实现检索增强生成 (RAG) 的集成向量数据库、用于存储模型制品的对象存储,以及能够自动将推理请求路由至最佳位置的全局负载均衡。
这不是生硬拼接的AI——而是AI原生的平台设计。
理解AI的安全体系
这尤其有趣的地方。传统安全体系并非为AI工作负载而建。我们开发了横跨各层的针对性保护措施,包括:
- 应用安全:主动发现经AI增强的应用与API,持续监测其安全态势,并部署智能防护策略。
- AI防火墙能力:专门设计用于保护提示词免受注入攻击,保护模型免受提取尝试。
- 工作负载安全:利用AI自身分析东西向流量模式,自动生成最优分段策略,并持续适应新出现的威胁。
- 访问安全:通过我们的安全企业浏览器控制员工与LLM界面的交互并防止数据外泄,同时结合零信任网络访问和多重身份验证来保护基础设施访问。
- 基础设施安全:提供实时的DNS和网络状况评估,并给出AI驱动的策略建议。
- 生成式SIEM界面:使安全运营中心团队能够通过对话方式访问海量遥测数据,从而变革安全运营。
当推理从集中式云端移至边缘时,延迟显著降低(让实时AI交互真正做到即时响应),带宽成本得到节约(数据就地处理,无需长途传输),合规性也更易于掌控(可确保数据处理严格限定于指定地域)。更重要的是,通过构建真正分布式的冗余架构,系统可靠性大幅提升——这不仅依赖单一区域内的多可用区部署,更得益于广泛分布的处理能力。
但真正的变革发生在应用层面。以往难以实现的场景突然变得触手可及,需要复杂协调的多智能体工作流如今可以轻松部署,大规模实时个性化服务也具备了经济上的可行性。
这对你的AI战略意味着什么
如果你依然将AI基础设施仅仅理解为训练集群和模型托管,那么你解决的只是昨天的问题。在这场第三波浪潮中胜出的企业,会是那些意识到推理(而非训练)正成为关键瓶颈,并将分布式边缘基础设施视作破局之道的先行者。
问题不在于你是否需要分布式推理基础设施,而在于你选择如何获取它:是自己投入构建(祝你好运)、等待超大规模云厂商最终跟进(而你的竞争对手已抢占先机),还是直接采用已经实现行星级规模化运行的成熟平台。
在Akamai,我们用25年时间深耕分布式计算、安全与全球规模化技术。Akamai推理云,正是互联网基础设施面向AI时代的自然演进。
AI的第三波浪潮已至。支撑它的基础设施也已就位。唯一的问题是:你,准备好乘风破浪了吗?
了解更多
要了解更多关于Akamai推理云如何改变你的AI基础设施战略,请访问我们的网站或在LinkedIn上与我联系。
如您所在的企业也在考虑采购云服务或进行云迁移,
点击链接了解Akamai Linode解决方案,现在申请试用可得高达5000美元专属额度