人工智能六十多年

1,151 阅读10分钟

前言

作为吃瓜群众,多数人对人工智能的了解主要是通过科幻片,里面的机器人拥有人类的思维和超凡的能力。然而目前现实的人工智能却只是很弱的人工智能,它仅仅是功能单一的某个程序。

人工智能六十多年的发展经历了几度繁荣和衰落,虽然已取得不错的进展,然而现实与理想的差距还是很大,前进道路曲折。

达特茅斯会议之前

1956 年的达特茅斯会议被称为是AI诞生的标志,但在此之前已经有AI相关的研究。1900 年国际数学家大会上,数学家希尔伯特提出《未来的数学问题》,其中有一些与人工智能相关。

艾伦图灵设计出了图灵机,也是现代计算机的理论原型。并在 1950 年发表了《计算机器与智能》,给出了机器和思考的定义,并且给出了“图灵测试”标准,如果通过该测试则认为机器具有智能。

这个著名的测试主要内容是有两个密闭房间,其中一个人在某个房间,另外一个房间放一台机器,房间外边有一个测试者,其只能通过导线通讯,如果一定时间内无法判断出哪个房间有人哪个房间有机器,则通过图灵测试。

在图灵测试提出64年后的2014年才有一个名为“尤金”的程序通过图灵测试,图灵为人工智能做出了重大贡献,也被称为“人工智能之父”。如果这位天才没有在42岁时吃下毒苹果自杀,也许人工智能有更大的发展。

另外一位被称为“计算机之父”的天才冯诺依曼,是属于现代计算机、博弈论、核武器和生化武器等领域内的科学全才。他设计出了现代计算机,即冯·诺依曼体系结构。现代计算机的出现让数学家们将自己的研究转换出实际成果。

达特茅斯会议

有了数学家的理论和工程界的计算机作为基础,人工智能真正出现。1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,约翰·麦卡锡(John McCarthy)、马文·闵斯基(Marvin Minsky,人工智能与认知学专家)、克劳德·香农(Claude Shannon,信息论的创始人)、艾伦·纽厄尔(Allen Newell,计算机科学家)、赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家正聚在一起,讨论着一个完全不食人间烟火的主题:用机器来模仿人类学习以及其他方面的智能。

会议足足开了两个月的时间,虽然大家没有达成普遍的共识,但是却为会议讨论的内容起了一个名字:人工智能。因此,1956年也就成为了人工智能元年。

在会上阿瑟撒缪尔研制了一个跳棋程序,它具有自我学习能力,从比赛中不断获取经验来提高棋艺,三年后程序已能打败了他本人。

达特茅斯会议过后人工智能开始井喷式发展,1956年奥利弗萨尔福瑞德研制出第一个字符识别程序,开辟了模式识别新领域。1957年罗森布拉特发明感知机,1960年通用问题求解系统GPS。1965年人工智能进入瓶颈,受到了不小的挫折,进入了寒冬,相关经费也不断被缩减。1968年第一个成功的专家系统DENDRAL问世,各式各样的专家系统不断涌现,形成了知识产业新分支。

1977年后人工智能进入瓶颈,它只能完成很小领域的任务,而且最棘手的问题是,没有人知道如何才能获取知识,如何才能学习如此丰富的信息。

三大学派

对于知识获取的瓶颈,20世纪80年代开始机器学习成为大家关注的焦点。传统的人工智能就像是填鸭式教学,而机器学习则是启发式教学,让机器自己来学。一批人认为可通过模拟大脑的结构神经网络来实现,即连接派。还有人认为可以从简单生物体和环境互动的模式中寻找答案,即行为派。而传统的人工智能则被称为符号学派。80年代到90年代三大学派三足鼎立。

符号学派

符号学派的代表是人工智能创始人之一的约翰麦卡锡,他的观点认为,任何能够将物理的某些模式或符号进行操作并转化成另外一些模式或符号的系统,就可能产生智能行为。这里的物理符号可以是通过高低电位组成,也可以是神经网络的电脉冲信号。

符号学主要集中在人类智能的高级行为,比如推理、规划、知识表示等。

计算机博弈(下棋)让符号学派名扬天下,1988年IBM研发的国际象棋智能程序“深思”,美妙70万步棋的思考速度。在1991年深思二代战平澳大利亚国际象棋冠军,1997年深思升级版深蓝打败国际象棋世界冠军。

2011年IBM的超级计算机沃森在知识问答中战胜了人类选手,这些自由知识问答涵盖了时事、历史、文学、科学、体育、地理、文化等各个领域的知识。

符号学派的发展势头越来越弱,人工智能霸主地位开始让位于其他学派。

连接学派

就像人类的智慧源于大脑,每个人的大脑都有一万亿个神经元细胞,它们错综复杂的互相连接。人们很自然想到能否通过大量神经元来模拟大脑的额智力。连接学派认为高级的智能行为是从大量神经网络的连接中自发出现的。

连接学派的发展一波三折。1957年弗兰克罗森布拉特对单个神经元计算模型进行了扩充,加上了学习算法,称其为感知机。它能根据模型的输出和我们希望的输出之间的误差来调整权重以完成学习。

到1969年人工智能权威人士闵斯基通过理论分析指出,感知机并无法学习所有问题,连最简单的一个问题:判断一个两位的二进制是否仅包含0或1都无法完成。这个致命的打击几乎将神经网络的研究打死。

1974年人工智能连接学派的救世主杰夫辛顿提出神经网络多了就强大,把多个感知机连接成一个分层网络,它就能圆满地解决闵斯基的问题。而多神经元也带来了更复杂的网络训练问题,可能有几百上千个参数需要调节,辛顿等人发现采用阿瑟布莱森等人提出的反向传播算法即能解决多层网络的训练问题。

很快地因为没有理论的支持让连接派再次陷入困境,因为神经网络能解决问题,但他们为什么在有些问题上有屡遭失败,没有人说的清楚。而且对于神经网络运行原理的无知,使得人们不知道如何提高神经网络运行效率。

2000年左右提出统计学习理论指出我们的模型一定要与待解决问题相匹配,如果模型太简单而问题本身复杂则无法得到预期精度,而问题简单却用复杂模型则会出现过拟合。

行为学派

行为学派出发点与其他两个学派完全不同,他们并没有把目光聚焦到高级智能的人类身上,而是关注低级的昆虫。昆虫能灵活走动并快速反应,这些体现出智能。

各种机器昆虫并没有复杂的大脑,它们不需要大脑干预,仅凭四肢和关节协调来适应环境。在复杂地形中,它们能聪明地避开障碍物,这些智能并不来源于复杂的设计,而是来源于与环境的互动。

最著名的有波士顿动力公司研发的机器人大狗,能在各种复杂地形中行走、攀爬、奔跑、负重。

把时间拉长来看,生物体对环境的适应会迫使生物进化,约翰霍兰发表了计算机模拟生物进化的遗传算法。它对大自然中生物进化进行了抽象,提取两个环节:变异和选择。在计算机中通过二进制串来模拟生物体,而大自然的选择作用则抽象为适应度函数。

不需要大一统

2000年前后,人工智能走进了新世纪,人工智能发展非但没解决问题,还引入一个又一个新问题,这些问题越来越难以回答,涉及的理论也越来越深。于是干脆不理理论问题了,只是一心向应用看起,实践是检验真理的唯一标准,无论什么学派,能解决实际问题的就是好学派。

在这个大背景下,人工智能进一步分化,形成很多独立的学科。比如自动定理证明、模式识别、机器学习、自然语言理解、计算机视觉、自动程序设计。大一统的人工智能没有任何意义,也没有存在的必要。

深度学习闪亮登场

21世纪第二个十年,深度学习成为了人工智能最闪耀的研究。2011年谷歌X实验室从youtube抽取1000万图片,把它喂给采用了深度学习的谷歌大脑,三天后这个大脑在没有人类的帮助下自己发现了猫。2012年微软使用深度学习,完成演讲者实时语音识别、翻译,也就是完成同声翻译。

虽然深度学习在20世纪80年代就出现了,但受限于当时的硬件能力和数据资源缺乏,并没有体现出效果。只有辛顿带着学生在这个冷门领域坚持耕耘,直到2009年,辛顿他们才获得了意外的成功,他们将深度学习用在语音识别领域,打破了世界纪录,错误率比之前减少25%。深度学习开始火起来。

深度学习之所以有这么大的性能提升,是因为它类似人脑一样的深层神经网络,它更好地模拟了人脑的工作。

人工智能的发展充满曲折,未来还会如何发展呢?

-------------推荐阅读------------

我的2017文章汇总——机器学习篇

我的2017文章汇总——Java及中间件

我的2017文章汇总——深度学习篇

我的2017文章汇总——JDK源码篇

我的2017文章汇总——自然语言处理篇

我的2017文章汇总——Java并发篇


跟我交流,向我提问:

这里写图片描述

公众号的菜单已分为“读书总结”、“分布式”、“机器学习”、“深度学习”、“NLP”、“Java深度”、“Java并发核心”、“JDK源码”、“Tomcat内核”等,可能有一款适合你的胃口。

为什么写《Tomcat内核设计剖析》

欢迎关注:

这里写图片描述