AI灭绝风险并非当务之急

4 阅读5分钟

避免人工智能导致的灭绝真的是当务之急吗?

科技史告诉我们,最大的风险并非来自技术本身,而是来自控制它的人。

今年,人工智能带来的灭绝风险成为主流话题。它出现在各大领先刊物上,被英国首相府提及,也出现在某白宫人工智能战略文件中。但一群有影响力的AI技术专家认为,这仍未得到足够重视。他们签署了一份声明,声称:“减轻人工智能带来的灭绝风险,应成为与流行病和核战争等其他社会规模风险并列的全球优先事项。”

“全球优先事项”应当是人类面临的最重要、最紧迫的问题。2023年,人工智能能力实现了飞跃,这无疑带来了新的风险,其中可能包括增加了未来某个人工智能系统失控并消灭人类的概率。但我们并不认为减轻这种风险是一个全球优先事项。其他人工智能风险同样重要,而且更为紧迫。

首先,关注点集中在人工智能带来的“风险”上。这个短语很模糊,但它暗示了一个自主的、失控的智能体。那么,那些因疏忽、鲁莽或恶意使用人工智能系统的人所带来的风险呢?无论我们担忧失控的人工智能可能造成什么危害,在更早的阶段,由一个获得人工智能辅助的“失控的人”造成的这些危害,其可能性要大得多。

事实上,专注于这种特定的威胁可能会加剧更可能发生的风险。迄今为止的科技史表明,最大的风险并非来自技术本身,而是来自控制技术、利用技术积累权力和财富的人。签署这份声明的人工智能行业领导者,恰恰是处于最佳位置去做这些事的人。在呼吁通过监管来应对未来失控人工智能系统的风险时,他们提出的干预措施将进一步巩固他们的权力。我们应该警惕那些既想从“盗火予人”中获利,又想被信任为“消防员”的普罗米修斯式人物。

为什么又特别关注“灭绝”呢?尽管那会很糟糕,但正如声明前言所述,人工智能还带来其他严重的社会规模风险。而全球优先事项不仅应重要,还应紧迫。我们仍处在一场全球性大流行病之中,某国的侵略行为使核战争成为迫在眉睫的威胁。声明中未提及的灾难性气候变化,很可能已经开始。来自人工智能的灭绝威胁同样紧迫吗?签署者们是否认为现有人工智能系统或其直接继任者可能将我们全部消灭?如果是这样,那么签署此声明的行业领导者应立即关闭他们的数据中心,并将一切交给各国政府。研究人员应停止试图让现有人工智能系统变得安全,转而呼吁将其彻底消除。

我们认为,事实上,声明的多数签署者相信,失控的人工智能还有一段距离,需要重大的科学进步才能实现——这种进步我们无法预见,即使我们确信它终将发生。如果是这样,那么至少可以得出两点结论。

第一,我们应该更重视那些更为紧迫的、来自人工智能的严重风险。即使现有人工智能系统及其合理的扩展不会消灭我们,它们已经在造成更为集中的危害,它们势必会加剧不平等,并且,在渴望权力的政府和肆无忌惮的公司手中,它们将损害个人和集体自由。我们现在就可以减轻这些风险——我们无需等待某些不可预测的科学进步来取得进展。这些应成为我们的优先事项。毕竟,如果我们不愿付出努力解决已经存在的风险,又怎能有信心应对未来人工智能的风险呢?

第二,与其用模糊的未来人工智能预测来惊吓公众,我们应少关注“我们应该担心什么”,多关注“我们应该做什么”。未来人工智能系统可能带来的极端风险应是对话的一部分,但不该主导对话。我们应该首先承认,人工智能的未来——或许比流行病、核战争和气候变化更是如此——从根本上掌握在我们的集体控制之中。我们现在就需要问,我们希望那个未来是什么样的。这不仅意味着就“神一般的人工智能”应受何种规则约束征求意见。这意味着要质问,在世界任何地方,是否存在创造此类系统的民主多数。

我们应该专注于建设机构,既能减少现有人工智能风险,又能使我们在了解更多情况时,具备强大的能力来应对新的风险。这无疑意味着应用预防原则,并采取具体措施来预见尚未实现的风险。但也意味着要增强那些在此次人工智能权力名单上未被充分代表的群体和声音——他们中的许多人长期以来一直在关注人工智能的社会规模风险,却未得到如此多的关注。在他们的工作基础上,让我们聚焦于那些我们能够研究、理解和控制的事物——现有人工智能系统及其直接继任者的设计、实际应用,以及它们所处的社会和政治体系。FINISHED