“开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 3 天,点击查看活动详情”
机器学习的三个基本因素
机器学习是从有限的观测数据中学习
(或“猜测”)出具有一般性的规律,并可以将总结出来的规律推广应用到未观测样本上。
机器学习方法可以粗略地分为三个基本要素:模型、学习准则、优化算法。
模型
对于一个机器学习任务,首先要确定其输入空间x和输出空间y,不同机器学习任务的主要区别在于输出空间不同。在二分类问题中 y=+1,−1,在C分类问题中 y=1,2,...,C,而在回归问题中y=R.
输入空间x和输出空间y构成了一个样本空间,对于样本空间中的样本(x,y)∈x×y,假定x和y之间的关系可以通过一个未知的真实映射函数y=g(x)或真实条件概率分布pr(y/x)来描述。机器学习的目标是找到一个模型来近似真实映射函数g(x)或真实条件概率分布 pr(y/x)。
由于我们不知道真实的映射函数g(x)或条件概率分布 pr(y/x)的具体形式因而只能根据经验来假设一个函数集合F,称为假设空间( Hypothesis Space),然后通过观测其在训练集D上的特性从中选择一个理想的假设(Hypothesis )f∗∈F。
假设空间F 通常为一个参数化的函数族
F={f(x;θ)∣θ∈RD}
其中f(x;θ)是参数为θ的函数,也称为模型(Model),D为参数的数量。
常见的假设空间可以分为线性和非线性两种,对应的模型f也分别称为线性模型和非线性模型.
线性模型
线性模型的假设空间为一个参数化的线性函数族,即
f(x;θ)=w⊺x+b,
其中参数θ包含了权重向量w和偏置 b.
非线性模型
广义的非线性模型可以写为多个非线性基函数ϕ(x)的线性组合
f(x;θ)=w⊤ϕ(x)+b
其中ϕ(x)=[ϕ1(x),ϕ2(x),⋯,ϕK(x)]⊺为K个非线性基函数组成的向量,参数θ包含了权重向量w和偏置b。
如果ϕ(x)本身为可学习的基函数,比如
ϕk(x)=h(wk⊺ϕ′(x)+bk),∀1≤k≤K
其中h(⋅)为非线性函数,ϕ′(x)为另一组基函数,wk和bk为可学习的参数,则f(x;θ)就等价于神经网络模型。
学习准则
令训练集D={(x(n),y(n))}n=1N 是由N个独立同分布的(Independent and dentically Distributed,IID)样本组成,即每个样本(x,y)∈x×y是从x和y的联合空间中按照某个未知分布 pr(x,y)独立地随机产生的。这里要求样本分布pr(x,y)必须是固定的(虽然可以是未知的),不会随时间而变化。如果 pr(x,y)本身可变的话,就无法通过这些数据进行学习.
一个好的模型f(x,θ∗)应该在所有(x,y)的可能取值上都与真实映射函数y=g(x)一致,即
∣f(x,θ∗)−y∣<ε,∀(x,y)∈x×y,
或与真实条件概率分布 pr(y/x)一致,即
∣fy(x,θ∗)−pr(y∣x)∣<ϵ,∀(x,y)∈x×y,
其中ϵ是一个很小的正数,fy(x,θ∗)为模型预测的条件概率分布中y对应的概率。
模型 f(x;θ)的好坏可以通过期望风险( Expected Risk ) R(θ)来衡量,其定义为
R(θ)=E(x,y)−pr(x,y)[L(y,f(x;θ))]
其中 pr(x,y)为真实的数据分布,L(y,f(x;θ))为损失函数,用来量化两个变量之间的差异.
损失函数
损失函数是一个非负实数函数,用来量化模型预测和真实标签之间的差异下面介绍几种常用的损失函数.
0-1损失函数 最直观的损失函数是模型在训练集上的错误率,即0-1 损失函数( 0-1 Loss Function ) :
L(y,f(x;θ))=⎩⎨⎧01=I(y=f(x;θ)),ify=f(x;θ)ify=f(x;θ)
平方损失函数 平方损失函数(Quadratic Loss Function)经常用在预测标签y为实数值的任务中,定义为
L(y,f(x;θ))=21(y−f(x;θ))2.
平方损失函数一般不适用于分类问题。
交叉损失函数 交叉熵损失函数( Cross-Entropy Loss Function)一般用于分类问题. 假设样本的标签y∈{1,...,C}为离散的类别,模型f(x;θ)∈[0,1]C的输出为类别标签的条件概率分布,即
p(y=c∣x;θ)=fc(x;θ)
并满足
fc(x;θ)∈[0,1],c=1∑Cfc(x;θ)=1
我们可以用一个C维的one-hot 向量y来表示样本标签。设样本的标签为k,那么标签向量y只有第k维的值为1,其余元素的值都为0.标签向量y可以看作样本标签的真实条件概率分布 pr(y/x)即第c维(记为y_c$$ 1\leq c\leq C)是类别为c的真实条件概率.假设样本的类别为 k,那么它属于第k类的概率为1属于其他类的概率为0.
对于两个概率分布,一般可以用交叉熵来衡量它们的差异.标签的真实分布y和模型预测分布f(x;θ)之间的交叉熵为
L(y,f(x;θ))=−yτlogf(x;θ)=−∑c=1Cyclogfc(x;θ).
比如对于三分类问题,一个样本的标签向量为 y=[0,0,1]T,模型预测的标签分布为 f(x;θ)=[0.3,0.3,0.4]T,则它们的交叉熵为 −(0×log(0.3)+0×log(0.3)+1×log(0.4))=−log(0.4)
因为y为one-hot向量,公式也可以写为
L(y,f(x;θ))=−logfy(x;θ)
其中fy(x;θ)可以看作真实类别y的似然函数。因此,交叉损失函数也就是负对数似然函数( Negative Log-Likelihood )。
Hinge 损失函数 对于二分类问题,假设y的取值为−1,+1,f(x;θ)∈R.
Hinge损失函数(Hinge Loss Function)为
L(y,f(x;θ))=max(0,1−yf(x;θ))≜[1−yf(x;θ)]+,
其中[x]+=max(0,x)
风险最小化准则
一个好的模型 f(x;θ)应当有一个比较小的期望错误,但由于不知道真实的数据分布和映射函数,实际上无法计算其期望风险R(θ). 给定一个训练集 D={(x(n),y(n))}n=1N,我们可以计算的是经验风险( Empirical Risk ),即在训练集上的平均损失:
RDemp(θ)=N1n=1∑NL(y(n),f(x(n);θ))
因此,一个切实可行的学习准则是找到一组参数 θ∗ 使得经验风险最小,即
θ∗=θargminRDemp(θ)
这就是经验风险最小化( Empirical Risk Minimization,ERM)准则。
过拟合 根据大数定理可知,当训练集大小∣D∣趋向于无穷大时,经验风险就趋向于期望风险.然而通常情况下,我们无法获取无限的训练样本,并且训练样本往往是真实数据的一个很小的子集或者包含一定的噪声数据,不能很好地反映全部数据的真实分布.经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高.这就是所谓的过拟合(Overfitting).
过拟合问题往往是由于训练数据少和噪声以及模型能力强等原因造成的.为了解决过拟合问题,一般在经验风险最小化的基础上再引入参数的正则化( Regularization) 来限制模型能力,使其不要过度地最小化经验风险,这种准则就是结构风险最小化(Structure Risk Minimization,SRM) 准则:
θx=argminRDstract(θ)=argminRDener(θ)+21λ∥θ∥2=argminN1n=1∑NL(y(n),f(x(n);θ))+21λ∥θ∥2,
其中∥θ∥是ℓ2范数的正则化项,用来减少参数空间,避免过拟合;用来控制正则化的强度.
正则化项也可以使用其他函数,比如ℓ1范数。ℓ1范数的入通常会使得参数有一定稀疏性,因此在很多算法中也经常使用.从贝叶斯学习的角度来讲,正则化是引入了参数的先验分布,使其不完全依赖训练数据。
和过拟合相反的一个概念是欠拟合(Underfitting) ,即模型不能很好地拟合训练数据,在训练集上的错误率比较高.欠拟合一般是由于模型能力不足造成的.下图给出了欠拟合和过拟合的示例.

总之,机器学习中的学习准则并不仅仅是拟合训练集上的数据,同时也要使得泛化错误最低.给定一个训练集,机器学习的目标是从假设空间中找到一个泛化错误较低的“理想”模型,以便更好地对未知的样本进行预测,特别是不在训练集中出现的样本.
因此,我们可以将机器学习看作一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题。