AI浪潮&NLP入门

211 阅读3分钟

1 AI浪潮

第一次浪潮(基于规则)

20世纪50年代到60年代

1950年10月,图灵提出了人工智能(AI)的概念,同时提出了图灵测试来测试 AI。图灵测试提出没有几年,人们就看到了计算机通过图灵测试的“曙光”。

1956 达特茅斯夏季人工智能研究项目(Dartmouth Summer Research Project on Artificial Intelligence)为一个致力于“让软件像人类一样聪明”的新领域起了个名字。

1966年,心理治疗机器人 ELIZA 诞生。那个年代的人对他评价很高,有些病人甚至喜欢跟机器人聊天。但是他的实现逻辑非常简单,就是一个有限的对话库,当病人说出某个关键词时,机器人就回复特定的话。

第一次浪潮并没有使用什么全新的技术,而是用一些技巧让计算机看上去像是真人,计算机本身并没有智能。

第二次浪潮(机器学习/基于统计)

20世纪80年代到90年代

在第二次浪潮中,语音识别是最具代表性的几项突破之一。核心突破原因就是放弃了符号学派的思路,改为了统计思路解决实际问题。

1997 IBM 电脑“Deep Blue”击败国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov)

第二次浪潮最大的突破是改变了思路,摒弃了符号学派的思路,转而使用了统计学思路解决问题。

扩展阅读:

History of Speech & Voice Recognition and Transcription Software

第三次浪潮(深度学习/基于学习)

21世纪初

2004 五角大楼举办了 Darpa 大挑战赛,这是一场在莫哈韦沙漠举行的机器人汽车比赛,促进了自动驾驶汽车产业的发展。

2006 深度学习发展史的分水岭。杰弗里辛顿在这一年发表了《一种深度置信网络的快速学习算法》,其他重要的深度学习学术文章也在这一年被发布,在基本理论层面取得了若干重大突破。 2013年,word2vec提出,NLP的里程碑式技术。 2014年,seq2seq提出,在机器翻译领域,神经网络碾压基于统计的SMT模型。 2015年,attention提出,可以说是NLP另一里程碑式的存在 2016 AlphaGo 击败了围棋世界冠军。

之所以第三次浪潮会来主要是2个条件已经成熟:

2000年后互联网行业飞速发展形成了海量数据。同时数据存储的成本也快速下降。使得海量数据的存储和分析成为了可能。

GPU 的不断成熟提供了必要的算力支持,提高了算法的可用性,降低了算力的成本

第四次浪潮(Transformer/BERT)

2017年末,Transformer提出。 2018年末,BERT提出,横扫11项NLP任务,奠定了预训练模型方法的地位

2 NLP入门级课程

1 「59页PDF」非技术也能看懂的 NLP 入门科普.pdf 2 「75页PDF」面向所有人的机器学习科普大全.pdf 3 「65页PDF」深度学习精华汇总-产品经理的AI知识库.pdf

参考

[1] easyai.tech/