写文章 - Chapter 9 - 掘金

187 阅读36分钟

机器学习Chapter 9机器作为算法为什么人工智能很难实现?

在关于这一主题的谈话或文章中,习惯上会以一种声明的形式提供些许安慰,即某种特殊的人类特征永远不会被机器模仿。例如,人们可能会说,游牧者可以写出很好的英语,或者它不会受到性感的影响,也不会抽烟斗。我不能提供任何这样的安慰,因为我相信没有这样的界限是可以设定的。但我当然希望也相信,不会花大力气去制造具有最明显的人类特征,但非智力特征的机器,比如人体的形状;在我看来,这样的尝试是徒劳的,其结果将是类似于人造花的令人不快的质量。试图制造一台在我看来似乎是不同类别的思维机器。整个思维过程仍然是相当神秘的,但我相信制造一台思维机器的尝试将极大地帮助我们了解我们自己是如何思考的。艾伦·图灵

9.1简介

我一直对“人工智能”这个词有些不安,很少说自己主要在那个领域工作。然而,我还记得我第一次见到埃德斯格·迪克斯特拉(Edsger Dijkstra)的情景。他不仅因为在计算机科学方面的开创性贡献而闻名,而且还因为有强烈的见解和犀利的机智而闻名。他问我在做什么。也许只是为了引起记忆交流,我说,“人工智能。”对此,他立即回应道:“你为什么不在我身上下功夫呢?” 当然,他是对的,如果“我”比“人工智能”更普遍,人们应该研究更普遍的问题,特别是如果它是自然现象的话,在这种情况下就是这样。事实上,这正是我一直认为我在做的事情。在这本书中,到目前为止所说的一切,基本上都适用于人工智能,也适用于智能。但我们都知道,自然形式的智能和人工形式的智能不一定是一样的。本章讨论两者之间的区别。 前面的章节已经寻求了一种关于学习和智能的计算观点,这种观点足够明确,以至于用计算机模拟两者都不存在固有的问题。所以,你可能觉得有理由问,是什么阻止了我们? 一个问题是,尽管机器学习的实践证明了学习是智能的核心这一概念,但人类大脑中固定的学习算法还没有被识别出来。然而,最初受到自然同行启发的机器学习算法已经没有得到广泛的使用,现有的机器学习算法正在各种数据中发现有用的规律,无论是人工生成的还是自然生成的。更广泛地说,尽管算法方法揭示了用机器模拟人类智能的问题-它表明在这一努力中需要使用以学习为中心的方法-但它也指出了一些严重的障碍。本章的主要目标之一是解释算法观点如何令人信服地解释为什么人工智能比预期更难实现。这听起来像是一个借口,但没有人能否认我们迫切需要一个好的借口。

9.2机器学习

面对任何任务,一台计算机可以通过编程来处理它,也可以让它学习如何处理它,或者两者兼而有之。正如我们所看到的,学习是有统计意义的,因此不可能没有错误。与为任务创建完美无缺的程序的可能性相比,学习解决方案总是有这个本质的弱点。在我们知道如何指定我们想要的确切结果的应用程序中,假设我们能够做到这一点,最好的办法可能是简单地对其进行编程。 当然,由于种种原因,我们可能无法对其进行编程。学习变得更加强大,而且确实是不可或缺的,(I)当我们不能明确地指定我们想要的结果时,(Ii)当我们不能确切地指定要执行它的系统已经知道什么时,或者(Iii)当我们不能获得对系统的直接编程访问时。当所讨论的系统是人类时,这三个条件都成立,我们别无选择。当设备是计算机时,条件(I)和(Ii)有时成立。然后,学习解决方案也变得对计算机来说是可取的。 机器学习现在是一门重要而普及的技术.。到目前为止,重要的应用大多属于第一类,我们不知道如何明确规定期望的结果.。人们还可以预见第二种类型的应用,在这种应用中,就像在稳健逻辑学中一样,学习的知识被添加到连续的层中,因此准确地指定系统知道的东西的可能性很快就会消失,即使它一开始就在那里. 万维网展示了机器学习的重要应用领域,每天都会产生大量的新信息,任何一个人,甚至一个群体都不可能跟上理解它的步伐。检测电子邮件中的垃圾邮件就是一个例子。每天都会出现新的垃圾邮件来源。跟踪每一种新的类型,并手动将检测方法整合到电子邮件系统中,这将是令人望而却步的。更有效的是机器学习算法的使用,它可以学习一些规则,以区分用户标记为垃圾邮件的电子邮件和他们不标记为垃圾邮件的电子邮件。其他应用程序使搜索引擎能够对网页进行排序,以确定在页面顶部显示哪些内容以响应用户的搜索词。当提供其他选择时,人们点击哪些页面的证据是非常有价值的信息。同样,对于在线广告,从不同网站的点击率历史中学习可以提供关于在哪里投放广告最有利可图的宝贵信息。 其他重要的应用包括自然语言处理和计算机视觉,这两个领域都试图模拟人类的能力。在自然语言处理中,一个基本的问题是拼写错误。在一篇文章中,人们可能会有沙漠或甜点等词。人们通常可以从附近的词中判断出哪一个是想要的,骆驼是暗示前者,而吃是后者。人们可以尝试通过编程或学习来自动完成这项拼写更正任务。简单的机器学习方法在对包含目标词的正确句子进行训练时,可以准确地预测正确的选择,而后者在最近几年一直在获胜,产生了更准确的系统。在计算机视觉领域,一项重要的任务是自动识别图片中存在的对象类别。这里,当前选择的方法再次涉及机器学习算法。 机器学习的普遍成功在很大程度上取决于最近发现的几种学习算法的有效性。一项值得注意的创新一直在推进,这是一种通用技术,可以提高几乎所有基本学习算法的性能。这一发现源于对PAC学习模型健壮性的调查。PAC学习的定义是要求假设以任意小的误差进行预测。本着同样的精神,人们也可以定义弱学习的概念,相反,它有一个较弱的要求,即假设的预测只比随机猜测略好1。这将是一种有用的学习形式,对于赌徒来说,预测略高于赔率就足够了。人们可以从这个意义上定义一类概念是弱可学习的,并再次坚持学习对于每个分布都是成功的,因为如前所述,专门针对狭窄分布范围的学习算法并不是太有效。 有些令人吃惊的是,可以证明对于任何分布都可以弱学习的任何这样的类,在强标准意义下也可以对每个分布学习!事实上,人们可以自动将弱学习算法转化为强学习算法,其思想是多次使用弱学习方法来得到一系列假设,每个假设都重新聚焦于以前发现困难和分类错误的例子。弱学习算法适用于任何分布的事实允许人们在每个阶段修改分布以实现这种重复的重新聚焦。然而,请注意,如何做到这一点并不明显,因为当我们看到一个新的分类例子时,我们无法立即知道之前的假设是正确的还是错误的,更不用说它们是否会发现困难了。然而,正如罗伯特·沙皮尔在1990年的博士论文中所展示的那样,这是可以做到的。2进一步,在后来的合作中,他和约阿夫·弗洛因德找到了一种非常简单而有效的方法来实现这一点,称为Adabost.。增强式学习已被发现是提高各种基本学习方法预测准确性的一种实用和通用的方法,即使没有证据表明所使用的方法确实是弱小的学习者也是如此。 除了Boosting等通用方法外,各种更特殊的机器学习算法也得到了广泛的应用。正如我们之前提到的,PAC学习是学习时需要达到的目标的规范,而不是关于如何最好地实现它的意识形态。一个重要的经验发现是,具有可分析行为的简单算法通常执行得非常好。者也是如此。 我们所描述的感知器算法已经是非常有效的算法。正如我们所观察到的,可以通过使用非线性项作为特征来消除对线性函数的限制,但是只有在计算和所需示例的数量上都相应地引起更高的成本时,才能消除对线性函数的限制。对于感知器和一些相关的方法来说,一种有效的方法可以在没有所有成本的情况下拥有更大的特征集的能力,称为核方法。4相对于直接的方法,核可以大大节省计算成本,但不能节省所需的示例数量。广泛使用的支持向量机方法遵循THISIDA,但它选择的分隔符(我们在3.7节中讨论)是最大化的,而不是感知器算法选择的分隔符。 对于某些问题,即使是更简单的方法也可能是高效的。最近邻方法就是一个例子,在该方法中,标记的数据项被简单地存储,并且从不生成任何假设。当待分类的新项到达时,将其与存储的项进行比较,根据一定的准则识别最接近的项,并预测其标签作为新项的标签。语言翻译软件最近的成功可以归功于这一技术的强大。通过检查两种不同语言的对应句子对的海量数据集,可以提取关于一种语言的特定新句子应该如何翻译成另一种语言的有价值的信息。 与实际学习算法的选择问题正交的是要使用的基本特征或变量的选择。好的选择可以产生更准确的预测。例如,对于计算机视觉应用程序,从单个像素的亮度或颜色开始总是可能的,但通常不会给出最好的结果。取而代之的是,从一些依赖于一组相邻像素的编程功能开始,而不是直接使用,通常会产生更好的效果。例如,一个区域的平均亮度可能比单个像素的亮度更能提供信息。众所周知,生物系统也使用这种更高层次的特征,这些特征可能是通过进化获得的,个人很难从头开始学习。在计算机中,可以通过试验来比较可供选择的编程功能集的有效性。就学习算法本身而言,有一小部分方法通常对遇到的许多类型的数据都是有效的。他们中的许多人所获得的性能通常可以通过提升来进一步提高。 机器学习对于几乎所有来源的数据都取得了惊人的成功。来自大脑的数据就是一个很好的例子。尽管人们对大脑中的信息是如何表示或处理的知之甚少,但可以训练机器学习算法,根据大脑记录的数据来预测人类在想什么。例如,当一个人查看一个文本单词时,可以从该人大脑中血液流动的功能MRI图像中恢复关于该单词是指工具、动物还是建筑物的信息。6这种恢复是通过应用于图像的标准学习算法来实现的,以图像为例,以单词的类别为标签。这些图像构成了一个没有理论的竞技场,因为我们对知识在大脑中的表现方式知之甚少。然而,这些图像显然有很多可以学习的规律性。这很好地说明了这样一个事实,即即使在最复杂和没有理论依据的数据中,也可能发现可学习的规则。 近几十年来,机器学习不仅受益于更好的算法的发现,而且得益于速度更快的计算机和更丰富的数据。事实上,前所未有的大规模数据的可获得性是我们文明中的一项重大新发展。在现在可能达到的规模上进行数据挖掘的潜在回报是巨大的,而且目前有很大一部分尚未开发。机器学习技术在如此广泛的任务上的成功,有力地证明了学习算法在与人类信息处理相关的领域中的有效性。它为我们在这里声称的更广泛的现象(例如常识推理)提供了对算法中心性的间接支持。 人们能很容易地分辨出人们希望机器学习在哪些应用程序中取得成功,而在哪些应用程序中不成功呢?我想说的最低要求是,系统需要在其上运行良好的分布(PAC学习的定义中的D)应该是可识别的。这并不意味着人们需要能够明确地描述它。恰恰相反,它仅仅意味着一个人可以毫不含糊地识别它。例如,一个人应该能够构建一个典型例子的数据库,如果一个系统在那个集合上运行良好,那么它也应该在“现场”运行良好,在那里将决定是否成功。例如,如果你想要一个系统来玩“危险边缘”(Jeopardy)游戏,用模糊的哲学术语定义一般知识任务是不够的。取而代之的是,你需要确定典型问题的分布,可能来自以前的实际游戏。如果你想建立一个能够很好地给学生作文打分的计算机系统,你需要指定一个分布,比如按照语言、主题和作文所处的时代。你必须做出一些呼应。如果不能创建典型实例的数据集,那么训练一台计算机做好这项任务的前景就微乎其微了。如果能建立这样一个典型实例的数据库,那么前景会好得多,但不能保证。失败可能是因为所需规则本身很难学习,或者超出了当前的能力范围。失败同样可能发生,因为数据集中的信息不足以完成任务。例如,在作文评分的情况下,我们可能会受到获得所有常识知识的困难,这些常识是学生们知道的,但没有人写下来。

9.3人工智能--难点在哪里?

在寻找接近人类处理常识知识能力的机器的过程中,遇到了很多令人失望的事情。如果人类能够做到这一点,复制当然不是不可能的。然而,困难似乎至少是巨大的。 我相信,困难的根源在于我们已经在这里讨论过的关于先天/后天的争论:进化和学习这两个过程之间的相似之处。个体的认知系统是数亿年来进化目标追求的结果,然后是出生后几年可学习目标追求的结果。图灵谈到教育计算机就像教育婴儿一样。只要我们能制造出一台功能类似于婴儿的计算机,这听起来就是可信的。不幸的是,婴儿的状态是进化算法的结果,就我们目前的理解而言,是没有理论依据的。没有理由相信婴儿的状态很容易描述。进化的算法可能是理论上的,但从我们的角度来看,他们的结果仍然是没有理论的。 如果我们有一个好的理论,知道哪些原始特征是由人类神经系统在出生时计算出来的,那么我们就可以编写一台计算机来计算这些原始特征,然后也许可以像人类的婴儿一样教育计算机。然而,如果出生的那一刻不是任何这样的教育课程的合适起点,那么是否有什么好的起点就不得而知了。在最坏的情况下,可能别无选择,只能从数十亿年前的生命开始,模拟所有的进化。这将是不幸的,因为伴随着数十亿年的进化而来的条件和特定的投入可能太难确定,以至于我们永远无法在这方面取得成功。 人们可以希望有一个中间的解决方案,在这个方案中,对人类出生时的功能或发育的早期阶段的部分了解就足够了。这也许是我们最大的希望。例如,在那个阶段,我们至少需要对人类视觉系统的运作有一个基本的了解。有很多证据表明,即使是这个系统也是非常微妙的,在出生后还有很多需要学习的地方。但是,即使视觉系统可以接受这样的中间处理,其他领域也可能被证明是更困难的。在认知层面上,婴儿对生活的准备比以前认为的要彻底得多。作为间接证据,以人工智能研究人员在形式化我们理解日常生活所需的所有常识知识方面遇到的困难为例。要读懂一部小说,需要知道许多小说中没有陈述的事实;许多事实是如此显而易见,以至于没有在纸质书中陈述。这不仅仅是复杂的成人小说的一个特点;有人指出,儿童故事需要的常识几乎和为成人写的小说一样多。不幸的是,图灵的梦想是,婴儿出生时消息灵通,并为获得更好的消息做好了充分的准备。 问题是,人类在出生后如何获得他们在出生后学到的东西,而这些东西并没有明确说明。当然,还有一系列可能的模式可以绕过语言,包括视觉、嗅觉、味觉和触觉。我们以前已经解决了这样一个问题,即这些知识需要被视为习得知识,以便它的所有不确定性都能得到充分解决。以任何形式指定这些知识,无论是原始模式,还是文字描述,都是困难的,超出了我们目前的能力。知识越明显,似乎就越难确定一个人是如何获得它的。 图灵在一次关于“或多或少没有身体的‘大脑’”的计算机能力的讨论中谈到了这个问题。7他观察到,游戏(如国际象棋)、语言翻译、密码学和数学领域非常适合这样的大脑,因为这些任务“几乎不需要与外部世界接触”;他认为,密码学可能被证明是“最有价值的”。这是非常有先见之明的。我们的计算机在我们所有人交流时都会自动加密,我至少在其他三项活动中也利用了计算机。这些勇气如图灵与第五个领域的语言学习形成对比:“在上述领域中,语言学习将是最令人印象深刻的,因为它是这些活动中最人性化的。”然而,这一领域似乎过于依赖感官和运动,行不通。“。他用这几个字概括了常识获取问题的一个本质特征。 撇开出生后的学习过程不谈,我们能对婴儿出生时的特征问题说些什么呢?为了了解婴儿的回路,我们可以通过行为实验,观察婴儿在许多不同的外部刺激下的反应,以了解他们的反应。然后,我们希望能从这些复杂的计算系统对各种输入的行为中归纳出它们所做的事情。然而,早先回顾的学习理论的负面结果表明,这条道路有其自身的困难。除非电路来自足够简单的类别,否则执行这种归纳可能本质上是不可行的。 最后,也是最极端的方法是使用一些未知的技术,逐个细胞或逐个分子复制婴儿细胞的电路,忠实地复制它们的所有功能。正如我们在3.6节中看到的,从描述中推断电路的功能可能很困难。因此,即使有一天这种方法变得可行,也不一定会增进我们的理解。 人工智能挑战一直被视为一个科学问题,因为有观点认为,它只是试图模仿自然界中已经存在的系统。我认为,这一点之所以困难,是因为现存的系统是数十亿年来从经验中学习的结果,而所有这些经验的明显痕迹可能已经消失。只要没有发现根本不同的方法来产生相同的最终结果,这就是一个严重的障碍。

9.4人工智能中的人工

这就自然而然地引出了人工智能有什么不同或人工的问题。人工智能不是人工的,因为实现的物质基础是人工制品,就像计算机,而不是生物。这不可能是最基本的--特征计算与发生它的底物无关。此外,人工智能不是人工的,因为它的计算过程与自然不同。这也不可能是根本的,因为人工模拟自然过程是没有障碍的。如果有根本的不同,那一定是从环境中学习知识的方式。正如我所说,从自然界中获取知识的唯一途径是通过某种学习过程,而在这个过程中,几十亿年的进化起着主导作用。因此,重建导致自然进化的自然环境的困难可能是模仿自然智能的最根本障碍。我们可能理解并能够模拟所有涉及的算法过程,而STILL无法在技术上模拟这些过程的结果,因为这些算法所学习的环境是不可重现的。 因此,目前人工智能领域正在研究的各种技术可能被视为试图通过其他方式复制自然知识获取过程的结果。在某些领域,这些技术将比自然的同类技术更有效。例如,对于国际象棋和其他游戏,计算机对游戏树进行大规模搜索,在游戏中探索比人类多数百万倍的可能路径。这是一种人工技术,它对国际象棋来说比自然的、截然不同的技术更有效。 在第9.6节中,我将根据已经说过的内容,给出一些关于我们如何在人工智能领域继续前进的想法。但首先,我将考虑一些核心问题的不同观点,以及它们对我们可能持有的任何见解。**

9.5无监督学习

我到目前为止还没有讨论过一项有趣的任务,那就是所谓的无监督学习,即示例没有标签的学习。这经常被对称地呈现出来,而监督学习则是一种补充现象。从表面上看,这种互补性是有说服力的。在地球上生命刚开始的时候,肯定没有人给它们贴上例子的标签。考虑一下在生物学中发现的视觉系统,它们被认为与地球上发现的自然景观非常协调。例如,自然物体通常有竖直的边界,不会平滑地融合在一起。人类的视觉系统擅长探测这些边界。这些关于自然景观的知识是通过监督还是非监督的方式获得的? 正如我们所描述的,PAC学习是一种有监督的学习模型。它的优点之一是它本质上是自由假设的。为无监督学习制定类似理论的尝试并不成功。在无监督学习中,学习者似乎不得不对相似性的含义做出具体的假设。如果外部提供的标签不可用,则学习者必须决定将哪组对象归类为一类,哪些归类为另一类。 我认为有监督学习是一种强大的自然现象,而无监督学习则不是,那么我该如何解释我们生物回路中所有无法通过显式标记获得的知识呢?我的答案是进化论。在我的公式中,进化只是一种有监督的学习形式,标记只有一种--适应性。为了开发一种在暮色中区分敌友的视觉系统,有监督的学习是可用的--目标就是对进化实体最有用的视觉系统。 人们也可以问无监督学习的作用,不是在进化过程中,而是在我们出生后的大脑中。正如我之前所观察到的,许多自然情况都是自我标记的,所以即使没有老师给例子贴上标记,监督学习也适用。我们已经可以识别参与者是猫和老鼠的场景是自我标记的,因为我们可以了解更多关于猫和老鼠的知识,而不需要任何人给它们贴上这样的标签。此外,我们在长期记忆中储存的规则简化了我们所看到的事物的相似性度量。如果我们在街上看到一个人,我们可能会想起一个特殊的朋友,这不是因为人与人之间有某种绝对的相似性,而仅仅是因为在我们碰巧拥有的所有电路中,对那个特定朋友的识别电路就是被触发的那个。然而,这个衡量标准是特别的,因为它完全由我们所拥有的经验和我们从他们那里获得的知识决定。 这些论点表明,无监督学习可能不是看待自然现象的正确视角。虽然这是我的立场,但我不能由此推论,无监督学习是人工智能追求的一个坏概念。正如我所说的,有充分的理由探索人工知识获取过程的潜力,这种过程可能会取代自然过程。 我们可以从人工智能的角度来制定非监督学习的一种方式,那就是相关性检测。我们希望能够检测出哪些特征对与频率一起出现,如果这些特征是不相关的,这是不太可能的。如果两个关节特征非常频繁地同时出现,那么也许我们会注意到它,而不需要有人指出它。如果你每次去纽约都看到人群,你可能会注意到这个巧合。但这很可能是因为人群的存在对你的活动产生了重大影响,减缓了你的旅行速度,或者让你排队的时间更长。我们注意到的其他一些关联的难度更大。我们一直在处理硬币,但很难回忆起头朝哪个方向,即使是在我们每天看着和使用的硬币上也是如此。在缺乏激励因素的情况下,人类往往不会注意到同时发生的事情,即使是在它们耀眼的时候也是如此。一般说来,检测相关性可以表述为一个计算问题,而且似乎在计算相关性时可能存在固有的计算障碍。如果我们不擅长这一点,那么我们可能有一个合理的借口,如果我们擅长,那么我们的大脑正在进行的计算比我们目前所能想象的最好的算法更好。 所谓的灯泡问题是对检测相关性所固有的挑战的表述。8在这个问题中,有大量的N个灯泡,每个灯泡都由一枚公平的硬币掷来控制。在每一秒的时间里,根据硬币是正面还是反面,每个灯泡要么亮起来,要么熄灭。除了只有一对之外,所有的控制币都是相互独立的。这对特殊的灯泡是相互关联的,所以他们控制的两个灯泡将处于相同的状态,不是以1/2的概率,而是以更大的概率,例如3/5或0.51,而不是像它们独立时那样。问题是在观察N个灯泡足够长的时间后,识别N(N−1)/2对中的哪一对是相关对。 通常,第i个灯泡将产生诸如00101…的关断/导通序列si。011.。问题是,为了在N(N−1)/2个可能的灯泡对(i,j)中找到相关的对,人们是否必须比较每个序列对(si,Sj),从而做N2阶的工作,或者这是否可以用更少的努力来完成,例如O(N1.5)或甚至O(NlogN)。 如果相关对是完全相关的,因此p=1,那么在任何时刻,这两个灯泡都会同时熄灭或同时亮起。在这种情况下,可以如下在接近线性的时间内检测到相关对。人们将序列Si视为二进制数,并将它们以升序放入列表中。两个完全相关的元素将是完全相同的,因此在有序列表中彼此紧随其后。这种排序或排序可以在对这种序列对的N log2N比较操作中执行。

QQ图片20211006230645.png

图9.1 灯泡问题涉及到如何有效地识别大量击打灯泡中的哪一对灯泡是相关的。平均而言,每个灯泡一半时间亮着,一半时间熄灭。每一对飞行灯泡都独立闪烁,除了一对相关的灯泡,它们都亮着或都关着,概率高于正常的1/2。相关的灯泡对可以通过依次比较每对灯泡来识别,问题是是否有比这种二次时间法更有效的方法。 对于1/2<p<1的一般情况,这种关联任务的计算难度不是很清楚。这个问题最初提出后不久,1989年,拉马莫汉·帕图里(Ramamohan Paturi)、SanguthevarRajasekaran和约翰·赖夫(John Reif)找到了一个有趣的解决方案。他们的算法采用Nx操作,当p从1/2增加到1时,x从2减少到1。对于p=0.51,在最具挑战性的范围末端附近,这种方法仍然需要接近N2步,实际上是N1.97步,而没有证据表明这项任务本身甚至需要N1.01步。Piotr Indyk和Rajeev Motwani以及后来Mohe Dubiner的后续算法对此进行了改进,后者给出了N1.96forp=0.51。直到2012年才发现了一种次二次算法,它的指数不依赖于p。在那一年,Gregory Valiant发现了一个算法,它对p>1/2的任何固定的n(N1.62)步都有效 这些算法有些复杂,只对数量非常大的灯泡有优势,显然不适合神经计算。因此,如果进化论为我们的大脑发现了其中任何一种的有效版本,那将是令人惊讶的。因此,根据目前的知识,人们不得不猜测生物系统在灯泡问题或任何同等的相关检测任务上表现不佳。人类可以识别数以万计的不同概念。在数百万个潜在的概念对中识别任意关联的一般能力需要大脑有一个大规模解决灯泡问题的方案。以目前的知识,很难想象大脑是如何做到这一点的。10一个能够展示出令人印象深刻的灯泡探测能力的人将执行一种我们目前无法想象的算法。 当然,一些相关的问题要容易得多。如果人们只需要检测在物理上相邻的直线或正方形阵列中的相关灯泡,那么就不会有很大的计算障碍。但我们在这里问的是一个更普遍的问题。当然,最终可以想象的是,对于一般问题,存在近乎线性的时间算法。同样可以想象的是,存在无法绕过的大量固有的计算限制。

9.6人工智能--下一步将何去何从?

我重申我的信念,即学习必须是人工智能企业的核心。虽然我不认为智力是一种单一的现象,但我确实相信,从学习到的数据进行推理的问题是它的一个核心方面。此外,基于原则性的学习和推理相结合的有用的工程化系统也有很好的前景。 我赞扬了健壮的计算模型的重要性,并声称对于学习和进化来说,有强有力的证据证明这种模型的存在。我现在强调,对于情报而言,目前没有相应的论据。这与其他学科的思考是一致的。研究智力测试的研究人员早就认识到,现有的各种测试并不都测量相同的东西。加德纳曾著名地提到“多元智能”11。 在更趣闻的层面上,一个人通常需要对另一个人所说的话感兴趣,才能认为这个人是聪明的。我们发现很难把高智商归因于与我们意见不同的人。这是关于如果一个人把健壮的逻辑作为智慧的一个基本方面,他会期待什么。智力从根本上讲是关于一个人如何从经验中得出结论。如果从相同的经验中我得出了与你不同的结论,你可能会怀疑我的基本学习和推理算法的质量。当然,在实践中,更多的是经验和信念的不同导致了我们的不同观点,而不是我们应用的算法的不同。 人工智能领域的历史可以追溯到图灵测试,该测试被设计为机器是否可以被认为是在思考的标准。12图灵的机器通过测试的标准是,当它与人类远程互动时,它是否能成功地模仿人类。我认为,图灵测试的永恒归功于它的两个基本方面。首先,他建议通过观察人类受试者多长时间能成功区分计算机和它所模拟的东西来衡量其性能。其次,他提出了一项任务,涉及不受限制的理论知识,而不是象棋或化学知识这样的特定技能。 政治行动委员会的学习给我们带来了一个新的想法。这就是说,在图灵测试的任何特定化身中,性能都不可避免地要根据投入的特殊分布来衡量。任何特定的测试实例都必须在特定的世纪、特定的地点进行,并针对特定的任务进行测试。目前还不清楚,如果一个系统确实通过了这个测试的一个这样的实例,那么除了该特定任务和输入分布的成功之外,还可以声称所使用的方法具有更多的一般性。 我相信具有图灵测试主要特征的测试正是智能系统测试所需要的。但我认为,挑战在于为各种各样的任务构建一系列系统,而不仅仅是一项,所有这些系统都涉及到涉及不受约束的理论知识的任务的可测量性能。这些通用的测试将根据任务和分布的不同而有所不同。 我给出的稳健逻辑的表述就是这样的。它包含了我所强调的图灵测试的两个方面--有一些衡量性能的标准,即预测的准确性,以及是否适用于一般的无理论知识。它为常识背景下的推理提供了一个具体的框架,在常识背景下,知识是没有理论的,是可以学习的。按照这些原则建立的任何系统的行为都将取决于它所训练的环境。从这个意义上说,聪明的行为确实是相对的,在旁观者的眼中也是如此。当然,人们会希望基本学习和推理算法的功能更加绝对。这意味着智力中有一些理论上的东西。 图灵讨论了让机器编程和让它们学习之间的两难选择。他认识到后者的重要性。13然而,在他死后,这一论点占据了优势,即一台学习的机器在学习后将执行某个固定的程序,因此学习的程序可能同样是由程序员创建的。这个论点最好被认为是虚假的。在机器学习算法已经成功使用的大多数情况下,用显式编程取代最终产品是不可行的。这是因为除了通过学习过程之外,没有其他已知的方法可以获得具有所有相关参数值的学习到的程序。 为什么人类学习的结果在其他方面很难复制呢?我相信本质上有一个原因,一个已经提到过的原因。当明确地给机器编程或教人时,你不是从一块白板开始,而是建立在机器或人已经有程序的功能之上。为了能够编写明确的程序,程序员需要准确地理解系统中已经实现的功能。否则,就有可能产生新的不良后果或副作用。 学习有一个重要的优势,那就是这个过程相对于系统中已经实现的任何功能进行操作。讲师在课程中提出的每个例子,对于每个学生,对于该学生已经认识到的每个概念,要么被识别为该概念的例子,要么不被识别。这个例子将以这种方式与学生以前的知识联系在一起,即使老师并不确切地知道这种关系是什么。从这个意义上说,教学比编程更有活力,因为学习者以前的知识会自动应用到互动中。与教师对学习者的要求相比,程序员需要更多地适应正在编程的系统。当唯一可用的老师是被动的环境时,这一点尤为重要。 因此,学习的一个好处是,它直接连接着学习者可能复杂的当前知识状态和总是复杂的外部世界。学习可以在不需要任何人明确了解学习者的状态或世界的复杂性的情况下完成。程序员需要两者都懂才能成功。 以现在学习的中心地位为前提,我认为构建智能系统的任务可以分为三个部分。第一部分包括按照我们在前几章中描述的思路提供通用的学习和推理算法。第二个是描述如何组合使用这些算法的一些架构,例如操纵眼睛。第三部分是制作合适的教学材料,举一反三。 最后一个问题在人工智能中很少讨论,尽管它在人类教育中占主导地位。教育机构在课程上投入了大量精力,在选择和组织要教授的材料方面投入了大量的精力。随意介绍相关材料被认为是不够的。我们有理由期待,一旦人工智能变得更加以学习为中心,毫无疑问,计算机课程的编写应该不亚于阿基尔德。

9.7我们需要害怕人工智能吗?

对人类来说,可能有一些好消息,因为一个人可以在许多不同的方面变得聪明。这给了我们希望,我们可以赋予机器人比我们更智能的优势,但只能在对我们有用且不具威胁性的方向上。此外,它清楚地表明,没有充分的理由想要制造与人类完全一样的机器人。 地球上有生命的有机体最奇特的能力一定是生存能力。任何能存活几十亿年、几百万代的东西都一定是好东西。幸运的是,我们没有理由赋予机器人同样的能力。即使他们的智商在很多方面都优于我们,我们也没有理由相信,除非我们不遗余力地迫使他们这么做,否则他们会为了他们的生存利益而不是我们的智商。我们对驯养动物的恐惧是有限的。我们也不一定要害怕智能机器人。他们不会抗拒被切断,除非我们为他们提供与我们自己的祖先在地球上经历过的极端生存训练相同的遗产。