深度学习课程笔记 - 第一章

280 阅读2分钟

本文已参与「新人创作礼」活动,一起开启掘金创作之路。

(一)绪论

人工智能概述

  1. 人工智能一共经历了三个发展阶段:计算智能,感知智能,认知智能。计算智能使得机器能存能算,感知智能让机器能说会说、能看会认,而第三阶段的机器更加智能化,能理解事物并思考问题。
  2. 人工智能的实现方法在这里插入图片描述
  3. 神经网络得到任何局面的估值都是常数时间,这和搜索树是非常不同的神经网络这些算法最有意思的一点是其时间复杂度往往近似为常数(因为只是简单的函数求值),这和人的行为更加接近:人在很多认知问题上都是和输入无关的,时间近乎固定的处理,而不是像现今的大多数人工设计的算法具有显著的时间复杂度特性。
  4. 知识工程的发展:知识工程不是就没用了,一直在发展;知识图谱,google knowledge graph,大量应用在了包括搜索、问答、金融等领域 并有结合的趋势,比如解释性的优势。在这里插入图片描述

深度学习概述

  1. 机器学习的演变在这里插入图片描述

  2. 神经网络的三起三落在这里插入图片描述

  3. 人工智能>机器学习>深度学习在这里插入图片描述

  4. 传统机器学习:hand-craft features, features > classifiers在这里插入图片描述在这里插入图片描述 不同学习方法: 在这里插入图片描述 前深度学习时代: 在这里插入图片描述 深度学习时代: 在这里插入图片描述 后深度学习时代:小样本,自动化学习 在这里插入图片描述

  5. 深度学习的历史: 感知机 :1957年,Rosenblatt提出;1969年,Minsky论证了两个关键问题:(1)不可以解决线性划分问题(2)计算量巨大。从此,陷入低谷。 反向传播:Hinton,运算量下降到了和神经元个数正相关;增加隐藏层,解决了XOR问题。 CNN:1989年,Lecun,运用CNN识别数字。 GPU:1993年,黄仁勋(中国台湾),创立Nvidia公司,实现大规模数据并行处理,适用于矩阵计算;2009年,吴恩达,引入GPU进行训练,参数量达到1亿 LSTM:1997年,Schimidhuaber(瑞士),LSTM DBN:2006年,Hinton,受限玻尔兹曼机 ImageNet:2009年,李飞飞(中国成都),完成ImageNet数据集 ReLU:Yushua Bengio(加拿大) ImageNet Large Scale Visual Recognition Challenge:2012年,Hinton,CNN+Dropout+ReLU,挫败其它技术,标志深度学习在图像领域的登封。 GAN:2016年,Ian Goodfellow,生成对抗网络

  6. 神经网络结构的发展在这里插入图片描述在这里插入图片描述 在这里插入图片描述

(二)后续章节复习资料

请参考:深度学习复习笔记 2