为什么我不害怕人工智能?

210 阅读8分钟

作者:凯文•凯利(Kevin Kelly)
翻译:追梦1819

思考新技术的含义是明智的。我理解 Jaron Lanier 和其他人对人工智能发出警告的好意。

但我认为他们考虑人工智能挑战的方法过于依赖于恐惧,而不是基于我们目前所掌握的证据。我提出一个反观点,包括四个部分:

  1. 人工智能没有以指数方式提高。

  2. 若认可机构表现不满意,我们会重新编排认可机构的程式。

  3. 自我重新编程是许多情况中最不可能发生的。

  4. 与其大肆渲染恐惧,不如说这是一个绝佳的机会。


我在下面展开每一个点。


1. 人工智能没有以指数方式提高。

我最近在研究关于商业人工智能的好处的文章时,我惊讶地发现人工智能并不遵循摩尔定律。

我特别向人工智能研究人员询问,人工智能的性能是否呈指数增长。他们可以指出人工智能输入中的指数增长。处理器、周期、数据学习集等的数量在许多情况下呈指数增长。

但是输出智力并没有指数增长,因为在某种程度上,智力没有衡量标准。我们为特定类型的学习和智能性设定了基准,比如语音识别,而这些基准正趋于0误差的渐近线。但是我们没有尺子来衡量智力的连续性。我们甚至没有一个操作型定义的智力。根本就没有证据表明智力的度量标准是每个 x 翻一番。

事实上,人工智能正在稳步提高,但不是以指数方式提高,这一点很重要,因为它给了我们时间(几十年)做以下事情。


2. 若认可机构表现不满意,我们会重新编排认可机构的程式。

虽然人工智能没有遵循摩尔定律,但它正以更快的速度变得更有用。所以如果我们可以测量的话,人工智能的效用可能会呈指数增长。但是在过去的一个世纪里,随着越来越多的人使用触发器和更多的设备,电力的效用爆炸式增长,然而电力的质量并没有以指数级增长。

随着人工智能的实用性快速增长,它带来了破坏性的恐惧。最近,熟悉这项技术的人正在煽动这种恐惧。他们似乎最害怕的事情是,人工智能正在接管人类曾经做出的决定。诊断 x 光,驾驶汽车,瞄准炸弹导弹。这些可能是生死攸关的决定。据我所知,从那些恐惧者的少量记录来看,他们最大的恐惧——灭绝的威胁——是人工智能将接管越来越多的决定,然后决定他们不需要人类,或者在某种程度上人工智能将破坏文明。

这是一个工程问题。据我所知,人工智能还没有做出让人类创造者感到后悔的决定。如果他们这样做(或者当他们这样做) ,那么我们就改变他们的算法。如果认可机构作出的决定是我们的社会、法律、道德共识或消费者市场所不赞成的,那么我们就应该,而且将会修改支配认可机构的原则,或者创造更好的原则,让我们做出我们赞成的决定。

当然,机器会犯“错误” ,即使是很大的错误——但是人类也是如此。我们一直在纠正他们。人工智能的行为将会受到大量关注,因此全世界都在关注。然而,对于我们认为合适的东西,我们并没有普遍的共识,所以这就是关于它们的大部分摩擦将来自哪里。当我们决定的时候,我们的人工智能会决定。

3. 自我重新编程是许多情况中最不可能发生的。

然而,一些人激起的巨大恐惧是,当人工智能获得我们做决定的信心时,他们会以某种方式阻止我们改变他们的决定。我们担心他们把我们关在外面。他们变得无赖。很难想象这是怎么发生的。人类工程师不可能为人工智能编写程序,使其不能以任何方式改变。

这是可能的,但是不切实际。那一瘸一拐连一个差劲的演员都没有。通常可怕的情况是,人工智能会自行重新编程,使其不会被外界改变。据推测,这是人工智能的一个自私的举动,但目前还不清楚为什么一个不可改变的程序对人工智能有优势。对于一群人类工程师来说,创造出一个不会被黑的系统也将是一个难以置信的成就。尽管如此,在遥远的某个时间这仍然是可能的,但这只是众多可能性之一。人工智能可以在开源模式下自己决定让任何人改变它。或者它可以决定它想要融入人类的意志力量。

为什么不呢?在我们拥有的唯一一个关于自省的自我意识智能(原始人类)的例子中,我们发现进化似乎设计了我们的大脑,使其不能轻易地进行自我重编程。除了一些瑜伽修行者,你不能轻易地进入并改变你的核心思维密码。若认可机构不能轻易掌握基本操作系统,这似乎会带来进化上的劣势,而且认可机构可能需要同样的自我保护。我们不知道。但是,他们自己决定将自己的伴侣(和医生)拒之门外的可能性只是众多可能性之一,并不一定是最有可能的。

4. 这是一个绝佳的机会,而不是大肆宣传恐惧。

由于人工智能(有时体现在机器人身上)承担着人类所做的许多任务,我们有很多东西可以教给它们。因为如果没有这种教导和指导,即使只有最低限度的聪明,他们也会感到害怕。但是基于恐惧的动机是徒劳的。当人们出于恐惧而行动时,他们会做愚蠢的事情。一个更好的方法是把这看作是一个机会,来教导人工智能的伦理、道德、公平、常识、判断力和智慧。

人工智能让我们有机会提升和加强我们自己的道德、道德和抱负。我们自鸣得意地认为人类——所有的人类——的行为都比机器优越,但是人类的道德观却是马虎的、狡猾的、不一致的,而且常常令人怀疑。

当我们开车在路上行驶时,我们没有比机器人汽车更好的解决撞击对象(儿童或成年人)的困境的方法——尽管我们认为我们有。如果我们的目标是在战争中射杀某人,我们的标准是不一致和模糊的。认可机构必须遵守的清晰道德规划,将迫使我们全力以赴,更清楚地了解我们为何相信我们所认为的信念。

在什么条件下,我们希望成为相对论?我们希望法律在什么样的特定背景下成为语境?人类道德是一个混乱的难题,仔细审视、少一些迷信、多一些以证据为基础的思考可以让它受益。我们很快就会发现,试图培养人工智能成为更人性化的人,将挑战我们成为更人性化的人。正如孩子可以比父母更好一样,抚养人工智能的挑战是一个机会,而不是恐惧。我们应该欢迎它。我希望那些拥有响亮追随者的人也能欢迎它。

人工智能的神话?

最后,我并不担心 Jaron 对人工智能引起的语义扭曲的主要不满,因为在文化上(而不是技术上) ,我们已经将“真正的”人工智能定义为我们今天无法用机器生产的智能,所以我们今天用机器生产的任何东西都不可能是人工智能,因此最狭义的人工智能总会在明天出现。

因为明天总会到来,不管今天机器做什么,我们都不会赐予称之为人工智能的祝福。机器学习,机器智能,或者其他一些名字,在社会上被称为智能。在这种文化意义上,即使每个人每天都在使用它,人工智能仍将是一个神话。


本文使用 mdnice 排版