1.人工智能发展必备三要素:
-
数据
-
算法
-
计算力
- CPU,GPU,TPU
-
计算力之CPU、GPU对比:
- CPU主要适合I\O密集型的任务
- GPU主要适合计算密集型任务(1)计算密集型的程序。(2)易于并行的程序。
-
人工智能和机器学习,深度学习的关系
- 机器学习是人工智能的一个实现途径
- 深度学习是机器学习的一个方法发展而来
2.图灵测试
测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。
多次测试(一般为5min之内),如果有超过30% 的测试者不能确定被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。
- 计算机视觉(CV)
计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。物体检测和人脸识别是其比较成功的研究领域。 这项技术离社会影响阶段还有一定距离,那要等到机器能在所有场景中都达到人类的同等水平才行(感知其环境的所有相关方面)。
- 自然语言处理(NLP)
- 机器人
3.什么是机器学习
机器学习是从数据中自动分析获得模型,并利用模型对未知数据进行预测。
4.机器学习工作流程
-
机器学习工作流程总结
-
1.获取数据
-
2.数据基本处理
-
3.特征工程
-
4.机器学习(模型训练)
-
5.模型评估
- 结果达到要求,上线服务
- 没有达到要求,重新上面步骤
-
5.数据集
-
数据简介
在数据集中一般:
- 一行数据我们称为一个样本
- 一列数据我们成为一个特征
- 有些数据有目标值(标签值) ,有些数据没有目标值(如上表中,电影类型就是这个数据集的目标值)
-
数据类型构成:
- 数据类型一:特征值+目标值(目标值是连续的和离散的)
- 数据类型二:只有特征值,没有目标值
-
数据分割:
-
机器学习一般的数据集会划分为两个部分:
- 训练数据:用于训练,构建模型
- 测试数据:在模型检验时使用,用于评估模型是否有效
-
划分比例:
- 训练集:70% 80% 75%
- 测试集:30% 20% 25%
-
-
数据基本处理:
- 即对数据进行缺失值、去除异常值等处理
6.特征工程
特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程。
- 意义:会直接影响机器学习的效果
- 数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。
- 包含内容:
- 特征提取: 将任意数据(如文本或图像)转换为可用于机器学习的数字特征
- 特征预处理: 通过一些转换函数将特征数据转换成更加适合算法模型的特征数据过程
- 特征降维: 指在某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程
7.机器学习算法分类
-
监督学习:
-
输入数据是由输入特征值和目标值所组成。
- 函数的输出可以是一个连续的值(称为回归),
- 或是输出是有限个离散值(称作分类)。
-
-
无监督学习:
-
输入数据是由输入特征值组成,没有目标值
- 输入数据没有被标记,也没有确定的结果。样本数据类别未知;
- 需要根据样本间的相似性对样本集进行类别划分。
-
半监督学习:
- 训练集同时包含有标记样本数据和未标记样本数据。
-
强化学习:
- 实质是make decisions 问题,即自动进行决策,并且可以做连续决策。
- 主要包含五个元素:agent, action, reward, environment, observation。
- 强化学习的目标就是获得最多的累计奖励。
-
监督学习和强化学习的对比
独立同分布:在概率统计理论中,如果变量序列或者其他随机变量有相同的概率分布,并且互相独立,那么这些随机变量是独立同分布。IID独立同分布即假设训练数据和测试数据是满足相同分布的,它是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。
8.模型评估
模型评估是模型开发过程不可或缺的一部分。它有助于发现表达数据的最佳模型和所选模型将来工作的性能如何。
按照数据集的目标值不同,可以把模型评估分为分类模型评估和回归模型评估。
分类模型评估
- 准确率:预测正确的数占样本总数的比例。
- 其他评价指标:精确率、召回率、F1-score、AUC指标等
回归模型评估
均方根误差(Root Mean Squared Error,RMSE)
- RMSE是一个衡量回归模型误差率的常用公式。 不过,它仅能比较误差是相同单位的模型。
其他评价指标:相对平方误差(Relative Squared Error,RSE)、平均绝对误差(Mean Absolute Error,MAE)、相对绝对误差(Relative Absolute Error,RAE)
9.拟合
欠拟合(under-fitting) :模型学习的太过粗糙,连训练集中的样本数据特征关系都没有学出来。 过拟合(over-fitting):所建的机器学习模型或者是深度学习模型在训练样本中表现得过于优越,导致在测试数据集中表现不佳。
10.深度学习——神经网络
-
定义与特点:
- 深度神经网络(DNN)是一种由多层神经元组成的人工神经网络,模仿人脑神经元网络结构和工作原理。
- 它通过多层次的非线性变换来学习数据的特征表示,实现对复杂数据的高效处理和分析。
-
技术特点:
- 多层的好处是可以用较少的参数表示复杂的函数。
- 深度神经网络的核心原理是通过多层次的神经元连接来构建复杂的特征表示,逐层传递和变换信息,从而学习到数据的高级特征表示。
- 每一层的神经元接收上一层的输出,进行加权求和和非线性变换,然后将结果传递给下一层。
-
常见架构:
- 感知器(Perceptron):最基本的神经网络单元,只连接一个输入神经元和一个输出神经元。
- 前馈(Feed-Forward)网络:包含输入层、隐藏层和输出层,通过反向传播算法进行训练。
- 循环神经网络(RNN):处理序列数据,具有时间联结的前馈神经网络,允许信息存储在网络中。
- 长短期记忆网络(LSTM):解决RNN中的梯度消失问题,通过特殊的门控机制实现长期记忆。
- 卷积神经网络(CNN):特别适用于图像处理,通过卷积和池化操作提取图像特征。
-
训练与优化:
- 深度神经网络的训练过程通常采用反向传播算法,通过计算损失函数对网络参数进行调整,使得网络的预测结果与真实标签尽可能接近。
- 训练需要大量的标记数据和计算资源,以不断优化网络参数,提高泛化能力和性能。
-
应用领域:
- 自然语言处理:机器翻译、文本生成、情感分析等。
- 语音识别:将语音转化为文字。
- 图像识别:无人驾驶、医疗诊断、公共安全等领域。
- 计算机视觉:图像分类、物体检测、图像生成等。
- 推荐系统:商品推荐、影视推荐等。
- 医疗诊断:医学图像分析、疾病预测等。
- 金融风控:信用卡欺诈检测、贷款风险评估等。
-
最新研究进展:
- 神经网络在自然语言处理方面,如BERT模型,通过大量未标注的文本自动学习语言知识,提高了处理的准确性和效率。
- 在图像识别领域,如ResNet模型,通过残差块解决了深度网络中的梯度消失和梯度爆炸问题,提高了图像识别的准确性和效率。