本篇文章来自于Tom Taulli所写的《Artificial Intelligence Basics: A Non-Technical Introduction》,本书目前我还没有看到它的中文译本,我在一边阅读的时候一边将其翻译出来了,这本书出版于2019年,有些信息相对落后了,但是也并不妨碍我们在阅读后,对于AI领域可以有一个较为基础的认知。另外一点需要强调的是,翻译本书只是我个人学习过程的记录,如果涉及侵权,请及时联系我
人工智能的历史和基石
1 历史
人工智能是 Google 的极致追求,目标是创建一个全面理解互联网内容的搜索引擎。它将精确掌握你的需求,并精准提供所求。目前,我们尚未实现这一目标。然而,我们正逐步向这一愿景靠近,这正是我们努力的方向。
——Larry Page,Google Inc. 的联合创始人及 Alphabet 的 CEO
在 Fredric Brown 的 1954 年短篇小说《回答》里,宇宙内 960 亿颗星球的计算机被联合起来形成了一台超级计算机。当这台机器被问及“是否存在神?”时,它回答:“是的,现在存在神了。”
Brown的故事不仅机智,幽默但是又让人不寒而栗!科幻小说是我们探索新技术可能带来的后果的一种方式,人工智能(AI)是其中的一个核心议题。科幻作品中一些最令人难忘的角色,比如《终结者》中的机器人、《银翼杀手》中的仿生人、《2001:太空漫游》中的计算机,乃至《弗兰肯斯坦》的怪物,都涉及到了获得自我意识的AI。
但在如今技术和创新进步的飞速时代,昔日的科幻逐渐成为现实。我们能够与智能手机对话并获得答案;社交媒体账户推荐感兴趣的内容;银行应用主动发送提醒;种种便利接踵而至。这样的个性化内容制作几乎像是魔法,却已迅速成为我们日常生活的新常态。
要深刻理解人工智能,掌握其深厚的历史背景至关重要。这一领域的发展历程见证了无数的创新突破与挑战。艾伦·图灵、约翰·麦卡锡、马文·明斯基和杰弗里·辛顿等一批光辉的研究者和学者不断拓展技术的极限。尽管面临诸多挑战,人工智能的发展却始终保持着稳步的前进。
1.1 艾伦-图灵和图灵测试
艾伦·图灵是计算机科学和人工智能领域的杰出人物,被广泛尊称为“AI之父”。
1936年,他撰写了《论可计算数》一文,首次阐述了计算机的基本理念,引入了后世称之为“图灵机”的概念。值得注意的是,实际的计算机设备要到十年后才问世。
他的另一篇开创性论文《计算机器与智能》则为人工智能的发展奠定了里程碑。图灵探讨了智能机器的可能性,并提出了一个衡量机器智能的方法:什么构成了机器的智能?
此处,他设计了著名的“图灵测试”:通过一个包含两名人类和一台计算机的游戏,其中一名人类评判者通过提问尝试区分哪一个是计算机。如果评判者无法判断出哪个是计算机,则认为该计算机展现了智能。
图 1-1 展示了图灵测试的基本工作流程
这个理念的独到之处不在于验证机器是否真正拥有知识、自我意识,或其回答的准确性。图灵测试的真正意义在于它展示了机器处理海量信息、理解人类语言并与人交流的能力。
图灵曾预测,机器要到20世纪末期才可能通过这一测试。确实,这只是众多未能兑现的人工智能预测中的一个。
图灵测试多年来能否被成功攻破?事实证明,这是一个极具挑战的任务。值得注意的是,如洛布纳奖和图灵测试竞赛等比赛旨在激励开发者创造出智能的软件系统。
2014年的一个案例似乎通过了图灵测试,是一台自称13岁的计算机。有意思的是,错误的回答很可能误导了人类判断。
2018年5月,在 Google I/O 大会上,CEO Sundar Pichai 展示了 Google Assistant 的惊人能力。他当众使用这个设备拨打电话给一家本地理发店预约时间,接电话的人竟然以为她在与一个真人交谈!
确实令人惊叹,不过它似乎还未能通过图灵测试。这是因为对话仅限于特定主题,并非开放式交流。
不足为奇的是,图灵测试一直饱受争议,许多人质疑其有效性。1980年,哲学家约翰·塞尔在其论文《心灵、大脑和程序》中提出了“中国房间”思想实验,用以指出该测试的不足。
实验设想如下:假设约翰在一间房里,他不懂中文,但他有一本手册,里面有将中文翻译成他能理解的语言的规则。房间外的简懂中文,她向约翰提交了一些中文字符。经过一段时间后,她收到了约翰的准确翻译。因此,简合理地认为约翰懂中文。
塞尔的结论指出:
这个论证的核心在于:如果一个人通过执行特定程序而不真正理解中文,那么基于相同原理,任何数字计算机也不可能真正理解中文。因为从本质上讲,计算机所具有的,这个人也具备,反之亦然。
这个论点引起了广泛关注,并成为自那时以来 AI 领域热议的主题。
塞尔提出了 AI 的两种存在形式:
- 强AI:机器不仅理解其处理的信息,而且能够体现情感和创造性,这通常出现在科幻影视作品中。这种 AI,也称为通用人工智能(AGI),目前只有像谷歌 DeepMind (译者注:作者写这篇文章时ChatGPT等大语言模型还没有问世)这样的少数机构在深入探索。
- 弱 AI:这类 AI 通过模式匹配来执行特定的、狭义的任务,例如苹果的 Siri 和亚马逊的 Alexa(译者注:我觉得也包含DeepMind的AlphaGO)。
目前,我们的 AI 技术仍主要处于探索弱 AI 的初级阶段。要实现强 AI 的飞跃可能还需要几十年的时间,有些研究者甚至认为这一目标可能永远无法实现。
由于图灵测试的局限,出现了几种替代测试方法,如下所示:
- Kurzweil-Kapor 测试:由未来学家雷·库兹韦尔和科技企业家米奇·卡普提出。该测试规定,一台计算机需要与人交谈两小时,且至少有两名评审认为对方是人类。卡普认为,达到这一标准要到2029年才有可能。
- 咖啡测试:苹果公司联合创始人史蒂夫·沃兹尼亚克提出的测试。按照这个标准,机器人需要能自主进入陌生人家中,找到厨房并制作一杯咖啡。
1.2 人类的大脑是机器吗?
沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)。这两个人是神经生理学领域的先驱,他们在20世纪40年代提出了一个被称为“神经元模型”的理论,该理论描述了神经元如何处理和传递信息。这个模型是计算神经科学的基础之一,对人工智能和计算机科学的发展产生了深远的影响。
1943年,沃伦·麦卡洛克和沃尔特·皮茨在芝加哥大学相遇,尽管他们的背景和年龄差异很大(麦卡洛克42岁,皮茨18岁),但他们很快成为了好朋友。麦卡洛克出生于一个富裕的东部建制家庭,曾就读于名校。另一方面,皮茨则在一个低收入社区长大,青少年时期甚至一度无家可归。
尽管如此,这一伙伴关系最终成为人工智能发展中最具影响力的合作之一。麦卡洛克和皮茨提出了解释大脑的新理论,这个理论与弗洛伊德心理学等传统认知不同。他们俩都认为“逻辑”能够解释大脑的原理,并且还借鉴了艾伦·图灵的见解。基于此,他们在1943年共同撰写了一篇名为《神经活动中固有思想的逻辑演算》(A Logical Calculus of the Ideas Immanentin Nervous Activity)的论文,并发表在《数学生物物理学公报》上。论文主张,大脑的核心功能如神经元和突触,可以用逻辑和数学解释,比如使用逻辑运算符如“与”、“或”和“非”。利用这些,你可以构建一个复杂的网络,能够处理信息、学习和思考。
讽刺的是,这篇论文并没有在神经学家中引起太大反响。但它确实吸引了从事计算机和人工智能研究的人们的注意。
诺伯特·维纳(Norbert Wiener)是一位美国数学家,被认为是控制论(cybernetics)的创始人之一。控制论是一种研究如何控制和管理系统的学科,是一个涉及控制系统、通讯和信息处理的跨学科领域。维纳的工作为现代控制工程和系统分析的发展奠定了基础。在本书中,维纳也被当作了AI的奠基人之一
在诺伯特·维纳提出的众多理论中,最著名的理论是关于控制论的。它集中于理解动物、人类和机器中的控制与通信——强调了反馈循环的重要性。
1948年,维纳出版了《控制论:或动物和机器中的控制与通信》。尽管这是一部学术作品充满了复杂的方程式。但是这本书仍然成为了畅销书,甚至登上了《纽约时报》的畅销书榜单。
它的范围确实非常广泛。一些包含的主题有牛顿力学、气象学、统计学、天文学和热力学。这本书预见了混沌理论、数字通信甚至计算机内存的发展。
但这本书对人工智能也有深远的影响。像麦卡洛克和皮茨一样,维纳将人脑与计算机进行了比较。此外,他推测计算机将能够下棋,并最终击败国际象棋大师。主要原因是他相信机器可以通过玩游戏来学习。他甚至认为计算机将能够自我复制。
然而,《控制论》并不是乌托邦式的幻想。维纳也预见到了计算机的负面影响,比如可能导致的非人性化。他甚至认为机器会让人类变得不再必要。
这无疑是一个复杂的,但却是强大的想法,并且激发了人工智能的发展。
1.3 AI故事的起源
约翰·麦卡锡(John McCarthy)是人工智能领域的一位重要人物,他也被誉为“人工智能之父”。他在1955年首次提出了“人工智能”这个术语,并在随后的几十年里为人工智能领域的发展做出了杰出的贡献,他在达特茅斯会议上首次提出了“人工智能”这个术语,并且提出了一些关于人工智能的核心理念。他主张研究能够像人类一样思考和学习的机器,这成为了人工智能研究的主要目标之一。
约翰·麦卡锡对计算机的兴趣始于1948年,当他参加了一个名为“行为中的脑机制”的研讨会,该研讨会探讨了机器最终将如何能够思考的话题。一些参与者包括该领域的领军人物,如约翰·冯·诺伊曼、艾伦·图灵和克劳德·香农。
麦卡锡继续深入涉足新兴的计算机行业,在贝尔实验室工作期间,于1956年在达特茅斯大学组织了为期十周的研究项目。他称之为“人工智能的研究”。这是“人工智能”这一术语首次被使用。参与者包括了如 马文·明斯基、纳撒尼尔·罗彻斯特、艾伦·纽厄尔、奥.G.塞尔弗里奇、雷蒙德·索罗莫诺夫和 克劳德·香农(Marvin Minsky、Nathaniel Rochester、Allen Newell) 等人工智能领域的开创者。他们后来都成为了该领域的关键人物。
这项研究设定了极具野心的目标:
探索是否所有关于学习和智能的特性都可以被精确到能够让机器模拟。研究将尝试让机器学会使用语言、建立抽象概念、解决目前人类独有的问题,并自我优化。我们相信,通过一个夏天的密集合作,这个由精选科学家组成的团队能在这些领域取得突破。
在那次会议上,Allen Newell、Cliff Shaw 和 Herbert Simon 展示了他们在研究与发展 (RAND) 公司开发的一个程序,名为“逻辑理论家”(Logic Theorist)。这一程序的灵感源自 Simon(他后来获得了诺贝尔经济学奖)。Simon 曾被计算机在防空系统地图上打印单词的能力所启发,意识到机器的潜力远不止处理数字。它们还能处理图像、文字和符号,为创造能思考的机器铺平了道路。
关于“逻辑理论家”,其主要任务是解决《数学原理》书中的数学定理问题。该软件提供的解决方案比以往更加简洁优雅,这让该书的合作者伯特兰·罗素感到非常满意。开发“逻辑理论家”项目充满挑战。Newell、Shaw 和 Simon 利用了一台 IBM 701 计算机,这台机器运行机器语言。为了提高编程效率,他们发明了一种新的高级编程语言,名为 IPL(信息处理语言),很快这种语言就成为人工智能研究的首选。
由于 IBM 701 的内存限制,这促使他们进行了另一项革命性创新——列表处理技术(list processing)。这种技术使得程序在运行过程中能够动态地管理内存,既能分配又能释放内存资源。
归根结底,"逻辑理论家"被誉为史上第一个人工智能程序,标志着一个重大里程碑。
不过,这项成就当时并未引起广泛的关注。达特茅斯会议未能达到预期的影响力,甚至对“人工智能”这一术语也有所质疑。
尽管研究人员尝试用“复杂信息处理”等词汇替代,但这些术语并未像“AI”这样广为流传。
对 麦卡锡 来说,他未曾停止在人工智能领域内的探索与创新:
- 他于1950年代末发明了 Lisp 编程语言,由于其处理非数字数据的高效性,该语言成为AI项目的首选。同时,他引入了递归、动态类型和垃圾回收等革命性编程概念,直至今日 Lisp 仍广泛应用于机器人技术和商业应用。在此过程中,他还参与创立了 MIT 人工智能实验室。
- 1961年,他推动了计算机时间共享的概念,极大地推进了互联网和云计算的发展。
- 他后来又创立了斯坦福大学的人工智能实验室。
- 1969年,他的《计算机控制的汽车》一文预见了自动驾驶技术的可能性,展示了用键盘和电视摄像头导航汽车的想法。
- 他因其对计算机科学的贡献于1971年荣获图灵奖,这是计算机科学领域的最高荣誉。
在2006年的演讲中,McCarthy表达了他对强人工智能进步估计过于乐观的反思。他解释说:“我们人类其实并不太能准确知道,自己在日常决策和问题解决中,实际上采用了哪些直觉上的判断方法。”
1.4 AI的黄金时期
在1956年至1974年间,人工智能领域成为了科技界最引人注目的焦点之一,主要得益于计算机技术的飞速进步,从依赖真空管的庞大机器转变为基于集成电路、更加迅速和存储能力更强的紧凑系统。这个时期,联邦政府对包括人工智能在内的新技术进行了大量投资,部分原因是阿波罗计划和冷战对技术的迫切需求。
人工智能的主要资金来源之一是创立于1950年代末的高级研究项目署(ARPA),目标是促进突破性创新。ARPA 的领导 J. C. R. Licklider 提倡“资助人才而非项目”的理念,这种策略主要惠及了斯坦福、麻省理工学院、林肯实验室和卡内基梅隆大学等机构。在私营部门,除了 IBM 外,对人工智能的投入寥寥无几。IBM 在50年代中期开始专注于计算机的商业化,顾客对可能导致的大规模失业感到担忧,IBM 因此不愿承担对应的职责。
换言之,人工智能的许多创新都源自学术界的研究。1959年,Newell、Shaw 和 Simon 在人工智能领域取得了显著进展,他们开发的“通用问题解决者”(General Problem Solver)旨在解决数学难题,例如汉诺塔问题,标志着AI领域的重要里程碑。
此外,还有非常多的项目在以“强AI”为研究目标进行努力,在此就不一一详细说明,以下列出它们的名字:
- SAINT or Symbolic Automatic INTegrator (1961)
- ANALOGY (1963)
- STUDENT (1964)
- ELIZA (1965)
- Computer Vision (1966)
- Mac Hack (1968)
- Hearsay I (Late 1960s)
在此时期,人工智能领域的学术成果迅速增长,涵盖了从贝叶斯方法、机器学习到计算机视觉等多样化的主题。
在人工智能的研究中,主要分为两个流派的理论。马文·明斯基提倡的一方认为,建立符号系统至关重要。这一观点强调,人工智能应当建立在传统的计算机逻辑或是预设程序的基础上,例如通过应用 If-Then-Else 这类条件判断语句来实现。
接下来,弗兰克·罗森布拉特主张,人工智能应借鉴大脑的工作方式,特别是采用神经网络这类系统(亦称联结主义)。不过,他将这些神经网络中的基本单元命名为“感知器”,通过它,系统能够在不断摄入数据的过程中进行学习。
弗兰克·罗森布拉特(Frank Rosenblatt)是神经网络的先驱之一,他在1957年发明了一种被称为感知机(Perceptron)的线性分类器。感知机是一种基于二元线性分类器的机器学习算法,它可以对输入数据进行二分类,即将数据分为两类之一。感知机使用权重和偏置来计算输入数据的线性组合,并根据该组合的值来决定数据属于哪一类。
1957年,罗森布拉特开发出了名为“Mark 1 感知器”的首个计算机程序,配备了摄像头,能够区分两种20×20像素的图像。Mark 1 感知器运用了含有随机权重的数据,并遵循以下步骤进行学习:
- 接收输入并计算出感知器的输出。
- 若结果不符,则进行调整:
- 如果实际输出为1,而预期为0,则降低权重。
- 如果实际输出为0,而预期为1,则提高权重。
- 循环执行上述步骤,直到得到准确的结果。
感知器的发明无疑为人工智能领域带来了突破。《纽约时报》对 Rosenblatt 的报道将其描绘成了革命性的发明:“海军今日展示了一款电子计算机的雏形,期望它未来能够行走、交谈、视觉识别、书写、自我复制并具备自我意识。”
尽管如此,感知器还面临一些挑战。其一是,由于当时计算能力的限制,神经网络仅限于单层,这在一定程度上限制了模型的复杂度和学习能力。此外,当时的大脑科学研究尚处初级阶段,对于认知能力的深入理解还相当有限,这也影响了人工智能在模仿人类认知方面的进展。
Minsky 与 Seymour Papert 合著的《感知器》(1969年)书中,对 Rosenblatt 的感知器方法进行了深刻的批判,导致这一研究方向迅速陷入沉寂。值得一提的是,早在20世纪50年代初,Minsky 就尝试构建了一个基本的神经网络机器,使用了数百个真空管和 B-24 轰炸机的废旧部件。然而,他很快意识到这项技术还远未成熟。
Rosenblatt 企图进行反驳,但已为时过晚。神经网络研究在人工智能社区中迅速失宠。不久后,Rosenblatt 在一次划船事故中不幸去世,时年43岁。
人工智能的黄金时代充满了自由和创新的气息,世界上最杰出的学者们竞相尝试创造出能真正思维的机器。然而,这一时期的乐观主义有时候过于盲目。例如,1965年,Simon 曾预测,20年内机器将能完成任何人类能做的工作。到了1970年,他在《生活》杂志的一次采访中更是将这一预期缩短到仅3至8年内(他还曾是《2001太空漫游》电影的顾问)。
遗憾的是,随后人工智能领域进入了一个较为困难的时期,越来越多的学者开始对人工智能的未来持怀疑态度。其中,哲学家 Hubert Dreyfus 是最直言不讳的一位。在他的作品《计算机仍不能做的事:对人工理性的批评》中,他深刻指出计算机本质上与人脑不同,人工智能的发展将难以实现人们的高期待。
1.5 AI的寒冬
1970年代初期,人工智能领域的热情逐渐降温,这段时期后来被称作“AI寒冬”,象征着人工智能发展的停滞,直到1980年左右才结束。虽然在这一时期内人工智能实现了诸多突破,但这些成就大多局限于学术研究和受控实验环境。当时的计算机硬件性能限制,如常用于AI研究的DEC PDP-11/45计算机,其内存扩展能力仅限于128K,严重制约了复杂程序的运行。此外,尽管Lisp语言在学术界中被广泛应用于AI研究,但它并不适合当时的主流计算机系统。相比之下,企业界更倾向于使用FORTRAN语言,这进一步加剧了AI技术的商业应用难度。此外,在理解智能和推理的过程中,我们面临着许多复杂问题,比如消歧义——一个词汇可能含有多重意义,这要求人工智能程序不仅要识别文字,还需把握上下文,大大增加了开发难度。
至于1970年代,经济环境的动荡——持续的通胀、缓慢的经济增长和如石油危机等供应链中断——对科研资金构成了额外压力。因此,面对经济挑战,美国政府对研究资金的审查更加严格,这并不令人意外。毕竟,在五角大楼的规划者看来,一个仅能下棋、解数学定理或识别基础图像的程序并不能直接转化为实用价值。遗憾的是,这些早期的人工智能应用未能充分展现其在实际场景中的潜力。卡内基梅隆大学的语音理解研究项目是一个典型的例子。国防高级研究计划署(DARPA)原本寄希望于这种语音识别技术,以便战斗机飞行员能通过语音命令控制系统。然而,实践证明,这项技术并未达到预期的实用性。例如,项目中的一个名为 Harpy 的程序,仅能识别1,011个单词——与一个三岁孩子的词汇量相当。DARPA 的官员们感到极度失望,认为项目进展与其预期相去甚远,结果是该机构决定撤销该项目每年300万美元的资金支持。
但对人工智能领域的最大冲击来自 Sir James Lighthill 教授1973年发布的一份报告。该报告受英国议会资助,彻底质疑了强人工智能所追求的“宏大目标”,并特别指出了“组合爆炸”问题——模型因过度复杂而难以优化调整。报告的结论是:“目前在这个领域内的任何成果都未能实现最初的宏大承诺。”Lighthill 对此表示极度悲观,他甚至不认为计算机未来能识别图像或赢过国际象棋大师。这份报告引发了一场在 BCC 电视台播出的公开辩论,参与者包括 Lighthill、Donald Michie、Richard Gregory 和 John McCarthy。尽管 Lighthill 对大量研究进行了深入分析,提出了一些有力的论点,但他未能预见到弱人工智能的发展潜力。
这份报告的影响如此深远,以至于许多研究人员不得不转换职业路径。而那些坚持研究人工智能的学者,往往采用了“机器学习”、“模式识别”和“信息学”等术语来规避当时对AI的负面看法。
1.6 专家系统(Expert Systems)的崛起与陨落
即便在"AI寒冬"期间,创新活动依旧活跃不息。显著的成就之一是反向传播技术的发展,这对于神经网络中权重的分配至关重要。紧接着,还有递归神经网络(RNN)的诞生,它使得信息能够在输入层和输出层之间进行循环传递。然而,进入1980年代和1990年代,专家系统(Expert systems)作为一种新兴技术开始受到关注。推动其发展的关键因素之一是个人电脑和小型计算机的快速普及。
专家系统构建在 Minsky 提出的符号逻辑理论之上,其核心是通过构建复杂的逻辑路径来模拟专家在特定领域如医疗、金融和汽车制造中的决策过程。这些系统往往需要领域专家深入参与,以确保其决策路径的准确性和实用性。虽然无法直接展示图表,但专家系统的核心部分包括知识库(存储专家知识的地方)、推理引擎(根据知识库中的规则进行逻辑推理)和用户界面(使用户能够与系统交互)等关键组件。
尽管专家系统自1960年代中期起就已经存在,但它们要到1980年代才真正步入商业领域。如 XCON(专家配置器)便是一个典型实例,它由约翰·麦克德莫特在卡内基梅隆大学开发,该系统专门用于优化计算机组件的选择过程,最初设定了约2500条规则,标志着推荐系统时代的来临。自1980年投入使用以来,XCON 成为了 DEC 公司在其 VAX 计算机系列中实现大规模成本节约的关键(截至1986年,节约成本约达4000万美元),充分证明了专家系统在商业应用中的潜力和价值。
XCON 的成功激发了专家系统行业的蓬勃发展,将其推向了价值数十亿美元的市场。日本政府也积极参与其中,投入了巨资希望促进国内产业的发展,但最终成效并不如预期,创新的主要活力仍然集中在美国。值得一提的是,IBM 的深蓝计算机便应用了专家系统技术,在1996年的一场比赛中战胜了国际象棋大师卡斯帕罗夫,这一成就标志着专家系统在特定领域的巨大潜力。深蓝拥有每秒处理两亿个棋局位置的惊人能力,这种处理速度是其胜利的关键。然而,专家系统的应用面临诸多挑战。这些系统在特定领域内虽然表现出色,但往往缺乏灵活性,难以扩展到其他领域。随着系统规模的扩大,维护和数据输入的难度也随之增加,错误率上升。此外,对这些系统的测试过程复杂,专家间的观点分歧有时也会影响系统的准确性。最重要的是,专家系统无法随时间自我学习和进化,需要不断手动更新逻辑模型,这不仅增加了维护成本,也加剧了操作复杂度。
到20世纪80年代末,专家系统在商业上的吸引力急剧下降,导致众多初创企业或是合并或是倒闭。这一变化进一步加剧了人工智能的第二次寒冬,一直持续到1993年左右。与此同时,个人电脑的兴起对高端硬件市场形成了冲击,导致基于 Lisp 语言的专用机器需求大减。政府对人工智能的投资,包括 DARPA 的资金支持,也随之枯竭。这一时期还见证了冷战随着苏联解体的结束,进一步减少了国防相关的研究投资,对人工智能领域也造成了间接影响。
1.7 神经网络和深度学习
Geoffrey Hinton是一位著名的计算机科学家和人工智能领域的先驱,被誉为“深度学习之父”。他在人工智能和神经网络方面做出了很多贡献,尤其是在反向传播算法、循环神经网络、卷积神经网络、深度学习等方面的研究方面,具有重要的地位和影响。
在20世纪50年代成长的 Geoffrey Hinton 有一个梦想:成为一位专研人工智能的教授。出身于以 George Boole 为代表的学术世家,他的母亲常告诫他:“非成为学术界的一员,否则便是失败。”即便在人工智能发展的初冬期间,Hinton 对这一领域的热情未减,坚信神经网络,即 Rosenblatt 的研究方向,是探索人工智能的正确路径。因此,他于1972年在爱丁堡大学就此主题获得了博士学位。然而,在当时,不少人视 Hinton 对人工智能的执着为对时间和才华的浪费,人工智能被边缘化,甚至并不认为其是一门正经的学科。这种观点反映了当时社会和学术界对于人工智能潜力的普遍怀疑。
但这反而更激发了 Hinton 的决心。他珍视自己作为异类的身份,坚信自己的理念终将获得认可。Hinton 清楚地认识到,限制人工智能发展的最大障碍是计算力。然而,他也明白随着时间的推移,这一局面将得到改变。摩尔定律揭示了技术进步的迅猛,预测芯片上的晶体管数量将大约每18个月翻一番,意味着计算能力的飞速提升。
在此期间,Hinton 不遗余力地研究神经网络的核心理论,这一努力最终孕育出了深度学习这一概念。1986年,他与 David Rumelhart 和 Ronald J. Williams 共同发表了一篇具有里程碑意义的论文《通过反向传播错误来学习表示》。该论文阐述了利用反向传播技术在神经网络中学习的关键流程,显著提升了系统在预测和视觉识别等方面的准确性,为深度学习技术的进一步发展奠定了基础。
Hinton 的突破性研究并完全是一个人的结果,它建立在一群同样坚信神经网络潜力的研究者们的基础之上。Hinton 的工作不仅自身具有创新性,也触发了一系列领域内的其他重要发现:
- 1980年,Kunihiko Fukushima 开发了 Neocognitron,这是一种模式识别系统,为卷积神经网络的发展奠定了基础,其设计灵感来源于动物的视觉皮层。
- 1982年,John Hopfield 提出了霍普菲尔德网络,实质上开创了递归神经网络的先河。
- 1989年,Yann LeCun 将卷积网络技术与反向传播算法相结合,有效提升了手写支票分析等领域的应用效率。
- 同年,Christopher Watkins 在其博士论文《从延迟奖励中学习》中详述了 Q 学习,为强化学习领域的发展贡献了一项关键技术。
- 1998年,Yann LeCun 发表了研究论文《梯度学习应用于文档识别》,利用梯度下降算法显著提高了神经网络在文档识别方面的性能和准确度。
1.8 现代人工智能的技术启动因素
现代人工智能的发展不仅仅得益于理论和模型上的创新,还有一些关键的技术驱动因素:
- 互联网的普及使得大规模数据集的创建成为可能,这为人工智能提供了宝贵的“原材料”。接下来,我们将深入探讨数据如何促进了这项技术的转型。
- 谷歌,在过去15年左右时间里,对人工智能产生了深远的影响。面对网络内容的爆炸性增长,谷歌不得不开发出创新的技术以构建可扩展的系统,这包括在商品服务器集群、虚拟化技术和开源软件上的突破。谷歌的这些创新不仅推动了自身的发展,也为整个人工智能领域的进步提供了重要支撑。2011年,谷歌启动的“谷歌大脑”项目标志着该公司成为深度学习技术的先行者。顺便提一句,2013年3月深度学习之父Hinton入职了Google,并仍然在Google工作期间继续他的研究项目
- GPU(图形处理单元)的发展为人工智能的飞速进步提供了强大的硬件支持。虽然最初 NVIDIA 开发 GPU 是为了满足游戏中对高速图形处理的需求,但其并行处理能力很快被证明对深度学习研究同样重要。这一发现极大地加速了模型的计算速度,将原本需要数周甚至数月的计算时间缩短到了仅需一两天。
这些技术进步和硬件创新的相互作用不仅推动了人工智能领域的繁荣,而且为其未来的持续增长奠定了基础。随着 GPU 和其他并行处理技术的不断进步,我们有理由相信,这些驱动因素将在未来继续发挥其影响力,持续支持人工智能技术的发展。
1.9 AI的架构
在本章,我们介绍了众多人工智能领域的概念。鉴于这些概念的广泛性和深奥性,理解人工智能的整体结构可能显得有些复杂。特别是,像机器学习和深度学习这样的术语经常被人们混淆使用,弄清楚这些概念之间的区别对于深入理解人工智能至关重要,我们将在本书后续章节中对此进行详细解析。
从宏观上看,人工智能领域可以视为一个包含了丰富理论和技术的广阔天地。在这个广阔的框架下,人工智能主要被划分为两大类别:机器学习和深度学习。机器学习作为人工智能的一个重要分支,涵盖了让计算机通过数据学习来改善任务执行能力的方法和技术;而深度学习,则是机器学习中一个专注于使用深层神经网络模型来处理和解释大量数据的子领域。
1.10 结论
今天,人工智能已经成为人们口中的流行词汇,这一点毫不奇怪。这个概念经历了多次的兴衰循环,每一次都带来了行业的剧烈变动。
那么,人工智能是否可能再度陷入低谷?这个可能性存在。然而,与过往不同的是,现在的人工智能正通过真正的创新,彻底改造着商业模式。谷歌、微软和脸书等科技巨头把人工智能视为战略重中之重。综合来看,有充分的理由相信,人工智能将持续发展,进一步影响和重塑我们的世界。
关键要点概览:
- 技术发展的过程通常比人们最初预见的要漫长。
- 人工智能的研究和进展不仅局限于计算机科学和数学领域,其他学科如经济学、神经科学、心理学、语言学、电子工程、数学以及哲学等也都对其做出了不可忽视的贡献。
- 人工智能分为强人工智能和弱人工智能两大类。当前,我们主要处于发展弱人工智能的阶段,即设计专注于完成特定任务的系统,而非具备自我意识的强人工智能。
- 图灵测试是判断机器是否具备思考能力的一种经典方法,它基于人类对机器智能的主观判断。
- 推动人工智能发展的关键因素包括研究者如 Hinton 的新理论探索、互联网带来的数据爆炸、不断更新的技术基础设施,以及 GPU 等计算技术的进步。