一些基于云的人工智能系统正在回归到企业内部的数据中心
AI/ML模型训练和基于知识的存储和处理在云上的成本比许多人想象的要高,而计算和存储设备的价格已经下降了。
作为一个概念,人工智能是非常古老的。近40年前,我大学毕业后的第一份工作是作为一个使用Lisp的人工智能系统开发者。当年的许多概念至今仍在使用。然而,现在为任何数量的商业目的建立、部署和操作人工智能系统的成本要低一千倍。
云计算彻底改变了人工智能和机器学习,不是因为超大规模的人发明了它,而是因为他们使它变得可负担得起。尽管如此,我和其他一些人看到,关于在哪里托管AI/ML处理和AI/ML耦合数据的思维正在发生转变。在过去的几年里,使用公共云供应商几乎是没有问题的。这些天,在公共云供应商上托管AI/ML和所需数据的价值正在受到质疑。为什么呢?
当然是成本。许多企业已经在云中建立了改变游戏规则的AI/ML系统,当他们在月底收到云账单时,他们很快就明白,托管AI/ML系统,包括TB或PB的数据,是很昂贵的。此外,数据出口和入口成本(你为将数据从云供应商发送到你的数据中心或另一个云供应商而支付的费用)将大大增加该账单。
公司正在寻找其他更具成本效益的选择,包括管理服务提供商和协同定位提供商(colos),甚至将这些系统移到大厅里的旧服务器室。这最后一个群体回归到 "自有平台",主要有两个原因。
首先,在过去五年左右的时间里,传统的计算和存储设备的成本已经下降了很多。如果你从来没有使用过任何基于云的系统,让我解释一下。我们曾经进入被称为数据中心的房间,在那里我们可以实际接触到我们的计算设备--在我们使用它之前,我们必须直接购买的设备。我只是半开玩笑。
当谈到租赁和购买时,许多人发现传统的方法,包括维护自己的硬件和软件的负担,实际上要比不断增加的云计算账单便宜得多。
其次,许多人在使用云计算时遇到了一些延迟问题。延迟的发生是因为大多数企业通过开放的互联网消费基于云的系统,而多租户模式意味着你在同一时间与许多其他人共享处理器和存储系统。偶尔的延迟可以转化为每年数千美元的收入损失,这取决于你在云中使用特定的基于云的AI/ML系统的情况。
许多云供应商提供的AI/ML系统也可以在传统系统上使用。如果你没有被锁定在一个只在单一云供应商上运行的AI/ML系统上,从云供应商迁移到本地服务器更便宜、更快,而且更类似于一个升降的过程。
这里的底线是什么?云计算将继续增长。传统的计算系统,其硬件是我们自己拥有和维护的,没有那么多。这个趋势不会放缓。然而,一些系统,特别是使用大量数据和处理的人工智能/ML系统,碰巧对延迟敏感,在云中不会有那么高的成本效益。对于一些较大的分析应用,如数据湖和数据湖屋,也可能是这种情况。
有些人可以通过将人工智能/ML系统送回企业内部来节省每年在公共云供应商上托管的一半费用。这个商业案例实在是太有说服力了,许多人不会忽视。
云计算价格可能会降低,以适应这些在公共云供应商上运行成本过高的工作负载。事实上,许多工作负载可能一开始就不会建立在那里,这就是我怀疑现在正在发生的事情。利用云计算进行人工智能/ML不再是一个简单的问题了。