1950年图灵发表划时代的论文《计算机器与智能》。
1956年众多的学者和学科奠基人在达特茅斯学院举行了一次大会,现代AI(人工智能)学科从此正式成立。
AI的发展时热时冷,目前第三波AI正如火如荼,这其中两个最重要的技术就是机器学习与深度学习。
AI覆盖面很广,机器学习是AI的重要分支,深度学习又是机器学习的重要分支。
机器学习与深度学习并不是大家想象中那种高深莫测的技术,这两种技术实用性强门槛却并不是很高,值得也应该去了解和学习。
我们学机器学习,学的是各种模型(也就是算法),并用它们进行实战。核心不是多高的编程与数学水平,而是模型的选择和整合、参数的调试。
机器学习就是在已知数据集的基础上,通过反复的计算,选择最贴切的函数去描述数据集中自变量X1,X2,X3···Xn和因变量y之间之间的关系。这些自变量(X1,X2,X3···Xn)在机器学习领域叫作特征,因变量y叫作标签。
机器学习也可以说是使用正确的特征来构建正确的模型,把无序的数据转换成有用的信息,以完成既定的任务。机器学习没有抽样的习惯,对于机器来说,数据是多多益善。机器从数据中训练模型的过程与人类从经验中归纳出规律十分相似,这种从已知到未知的学习能力是机器学习与以前符号式AI(比如专家系统)最本质的区别。机器从已知数据中不断试错最终归纳出规则,多么伟大!
机器学习的类别---监督学习及其他:
机器学习的类别多,分类方法也多。最常见的分类为监督学习、无监督学习、半监督学习。
监督学习的训练需要标签数据,而无监督学习不需要标签数据,半监督学习介于两者之间(只有少量已分好类的有标签数据,因为有时候获得有标签数据的成本很高,所以半监督学习使用大量的无标签数据,同时使用部分有标签数据进行建模)。
监督学习与无监督学习是根据数据集有没有标签来对机器学习进行分类,深度学习(机器学习的重要分支)则是根据机器学习的模型或者说训练机器时所采用的算法进行分类,深度学习训练机器时使用神经网络算法。
各种深度学习模型,如卷积神经网络(CNN)、循环神经网络(RNN),在计算机视觉、自然语言处理(NLP)、音频识别等应用中都得到了极好的效果。这些问题大多很难被传统基于规则的编程方法所解决,直到深度学习出现,“难”问题才开始变简单。
深度学习的另一大好处是对数据特征的要求降低,自动地实现非结构化数据的结构化,无须手工获取特征,减少特征工程。特征工程是指对数据特征的整理和优化工作,让它们更易于被机器所学习。在深度学习出现之前,对图像、视频、音频等数据做特征工程是一项非常繁琐的任务。
使用传统算法进行图片识别,识别之前需要手工做特征工程,如果识别数字8,可能需要告诉机器数字8有两个圈,通常上下左右都对称;如果辨别猫狗,可能需要预定义猫的特征、狗的特征等等,然后通过机器学习模型进行分类。而深度学习通过神经网络把特征提取与分类任务一并解决了。
机器学习新热点---强化学习:
强化学习也是机器学习领域中一个很抢眼的热点。
强化学习研究的目标是智能体如何基于环境做出行动反应,以取得最大化的累积奖励。
强化学习与普通机器学习的差异:普通机器学习是在开放的环境中学习,如自动驾驶,每一次向前驾驶都带给机器新的环境;强化学习的环境是封闭的,如AlphaGO下围棋,每落一个子,棋盘就少一个目,棋盘永远不会增大或减小。那么在这样的封闭环境中,就比较容易实现对机器刚才所采取的策略进行奖惩。
强化学习与监督学习的差异:监督学习是从数据中学习,强化学习是从环境给它的奖惩中学习。
除了上面说的监督学习、无监督学习、半监督学习、深度学习、强化学习之外,还有很多其他的机器学习方法(算法),比如集成学习(ensemble learning)、在线学习(online learning)、迁移学习(transfer learning)等,每隔一段时间,就会有新的学习热点涌现。
机器学习的两大应用场景---回归与分类:
- 回归问题:通常用来预测一个值,其标签的值是连续的。例如预测房价、未来的天气等任何连续性的走势、数值。比较常见的回归算法是线性回归算法与深度学习中的神经网络。
- 分类问题:是将事物标记一个类别标签,结果为离散值,也就是类别中的一个选项。分类有二元分类和多元分类,每类的最终正确结果只有一个。分类是机器学习的经典应用领域,很多机器学习算法都可以用于分类,包括最基础的逻辑回归算法、经典的决策树算法、以及深度学习中的神经网络等。还有从多元分类衍生出来的多标签分类问题,典型应用如社交网站上传照片时自动标注人名功能,以及推荐系统---在网络或app中为同一个用户推荐多种产品,或把某一种产品推荐给多个用户。
机器学习的其他应用场景: