集成学习算法精讲:Boosting方法与AdaBoost、GBDT

762 阅读14分钟

在机器学习领域,深度学习(Deep Learning\text {Deep Learning})基本都被神经网络统治着,而浅层学习(Shallow Learning\text {Shallow Learning})目前任然属于树模型的领地。一方面,尽管深度学习在大规模学习上表现强大,但它在小规模学习上的表现差强人意;另一方面,集成树算法(RF\text {RF}GBDT\text {GBDT}XGBoost\text {XGBoost}等)因其模型解释度高、调参难度小、运行速度快、几乎不需要特征工程等优点,在中小规模数据集上完全碾压深度学习,而且对于“异质类数据”(比如风控场景中的年龄、收入、城市这类数据),即便在大规模数据集上,集成树模型也比深度学习表现更好。在实际应用中,Facebook、阿里巴巴等大企业都在使用结合LR的GBDT\text {GBDT}作为点击率预估、广告推荐等重要业务的技术支撑,而XGBoost\text {XGBoost}更是在近些年的Kaggle算法大赛中屡屡绽放异彩。

本文介绍集成学习中的Boosting\text {Boosting}方法,以及它的家族成员AdaBoost\text {AdaBoost}GBDT\text {GBDT},如果你对基础的决策树算法还不太了解,推荐参阅我另一篇博文: 决策树模型:ID3\text {ID3}C4.5\text {C4.5}CART\text {CART}算法介绍



集成学习

  • 传统机器学习的目标都是训练得到一个预测准确率尽可能高的“强学习器”(决策树、神经网络等),而实际情况中要找到一个最优的“强学习器”很难,于是“集成学习”被提出。“集成学习”认为,对多个预测准确率较低的“弱学习器”(只要求预测准确率略高于随机猜测),如果以某种恰当的方式将这多个“弱学习器”组合,那么就能提升为“强学习器”,获得更高的预测准确率。基于这种思想,1990年, Schapire最先构造出一种多项式级的算法,对该问题做了肯定的证明,这就是最初的 Boosting算法,后来发展到现在,“集成学习”已经成为一种非常成熟且应用广泛的机器学习方法,它的家族成员包括RF、GBDT、XGboost等众多优秀算法。

  • 如今集成学习主要包括三种类型:Bagging\text {Bagging}(袋装法)、Boosting\text {Boosting}(提升法)、Stacking\text {Stacking}(堆叠法),本文讲解Boosting\text {Boosting}方法及相关算法(AdaBoost\text {AdaBoost}GBDT\text {GBDT})。

Boosting\text {Boosting}方法

  • 不同于Bagging\text {Bagging}的并行,Boosting\text {Boosting}是阶梯状的串行,它从第一个基学习器开始,后面每个基学习器都会根据上个基学习器对各个样本的预测正误而调整样本的权值分布,同时根据基学习器自身的预测准确率而调整自身的权重值,得到一系列权重值不同的基学习器,然后将这多个学习器进行加权组合,得到最终的学习器。具体步骤如下:

  • 1、它首先令每个样本拥有相同的权重值(1/n,用来计算误差率或准确率,一些分类算法中这个权值不会改变),构建一个弱分类器。

  • 2、改变样本的权值分布:增大该分类器分错误的样本的权值,减小该分类器分正确的样本的权值;改变该分类器的权重值:计算该分类器的正确率,正确率越高,越加大它的权重值;

  • 3、根据改变权值分布后的样本数据构建一个新的弱分类器。

  • 4、重复2、3步骤,直到到达预定的学习器数量或预定的预测精度。

  • 直观理解:

    • Boosting\text {Boosting}的每一步总是更关注于分类错误的样本,使它们再下一步更容易被分正确;
    • Boosting\text {Boosting}中正确率越高的分类器的权值越大,使得最后线性组合以后更优的分类器拥有更大的发言权,而不像Bagging\text {Bagging}方法中每个分类器是相同的权重。

AdaBoost\text {AdaBoost}(自适应增强)

  • AdaBoost(Adaptive Boosting)\text {AdaBoost(Adaptive Boosting)}Boosting\text {Boosting}方法中的入门级算法。原始的 Adaboost 算法用于解决二分类问题,因此对于一个训练集
T={(x1,y1),(x2,y2),,(xn,yn)}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right)\right\}
  • 其中 xiXRn,yiY={1,+1}x_{i} \in \mathcal{X} \subseteq \mathbb{R}^{n}, y_{i} \in \mathcal{Y}=\{-1,+1\}, 首先初始化训练集的权重
D1=(w11,w12,,w1n)w1i=1n,i=1,2,,n\begin{aligned} D_{1} &=\left(w_{11}, w_{12}, \ldots, w_{1 n}\right) \\ w_{1 i} &=\frac{1}{n}, i=1,2, \ldots, n \end{aligned}
  • 根据每一轮训练集的权重 DmD_{m}, 对训练集数据进行抽样得到 TmT_{m}, 再根据 TmT_{m} 训练得到每 一轮的基学习器 hmh_{m } 。通过计算可以得出基学习器 hmh_{m} 的误差为 ϵm\epsilon_{m}, 根据基学习器的误 差计算得出该基学习器在最终学习器中的权重系数
αm=12ln1ϵmϵm\alpha_{m}=\frac{1}{2} \ln \frac{1-\epsilon_{m}}{\epsilon_{m}}
  • 更新训练集的权重
Dm+1=(wm+1,1,wm+1,2,,wm+1,n)wm+1,i=wm,iZmexp(αmyihm(xi))\begin{aligned} D_{m+1} &=\left(w_{m+1,1}, w_{m+1,2}, \ldots, w_{m+1, n}\right) \\ w_{m+1, i} &=\frac{w_{m, i}}{Z_{m}} \exp \left(-\alpha_{m} y_{i} h_{m}\left(x_{i}\right)\right) \end{aligned}
  • 其中 ZmZ_{m} 为规范化因子
Zm=i=1nwm,iexp(αmyihm(xi))Z_{m}=\sum_{i=1}^{n} w_{m, i} \exp \left(-\alpha_{m} y_{i} h_{m}\left(x_{i}\right)\right)
  • 从而保证 Dm+1D_{m+1} 为一个概率分布。最终根据构建的 MM 个基学习器得到最终的学习器:
hf(x)=sign(m=1Mαmhm(x))h_{f}(x)=\operatorname{sign}\left(\sum_{m=1}^{M} \alpha_{m} h_{m}(x)\right)
  • 下面以图例来直观理解AdaBoost\text {AdaBoost}

  • 1、左图,一开始,所有的数据点有相同的权重(正号、负号的大小都一样),第一个基学习器将数据样本分成了两部分。可以看出,三个正号标记的数据点分类错误,因此我们将这三个点赋予更大的权重。同时,根据分类正确率的高低来给这个学习器赋予一个权重值。

  • 2、中间图,第二个基学习器,可以看到上个学习器未正确分类的3个(+)号的点的权重已经增大,此时第二个基学习器根据改变权值分布后的数据进行训练,得到第二个分类模型,由于它的分类将三个(-)号标记的点识别错误,因此在下一次分类中,这三个(-)号标记的点被赋予更大的权重。同时,根据分类正确率的高低来给这个学习器赋予一个权重值。

  • 3、右图,第三个基学习器,重复相同步骤。

  • 4、最终,将前面三个基学习器进行加权线性组合,作为最终的强学习器,它将会比前面任何一个弱分类器表现的都要好。


GBDT\text {GBDT}(梯度提升树)


前向分步算法与梯度提升

  • GBDT(Gradient Boosting Decision Tree)\text {GBDT(Gradient Boosting Decision Tree)}以及其他类型的提升树模型都是基于“前向分步算法”。 而前向分步算法可以这样来理解:假设我们要使用决策树来预测一个人的年龄, 刚开始的时候模型初始化会直接给出一个预测值 f0(x)f_{0}(x), 注意这个预测值不需要训练决策树来得到, 而且不一定精确(比如刚开始模型初始预测为0岁,或者根据人群年龄分布给出一个相对合理的值)。接着在模型上一步所给出的预测基础上来训练第一棵决策树, 此时模型的输出便是模型初始化的预测值加上第一棵决策树的输出值, 然后我们继续添加第二棵决策树, 使得第二棵决策树能够在前面所构造的模型基础之上, 让总体损失最小, 不断的进行这一过程直到构建的决策树棵数满足要求或者总体损失小于一个阈值。

  • 当前向分步算法进行到第 mm 步时, 预测函数可以表示为:

    fm(x)=fm1(x)+βmT(x;Θm)f_{m}(x)=f_{m-1}(x)+\beta_{m} T\left(x ; \Theta_{m}\right)
  • 其中 fm1(x)f_{m-1}(x) 是第 m1m-1 步的预测函数, 而 T(x;Θm)T\left(x ; \Theta_{m}\right) 是我们当前需要构造的第 mm 棵决策树, βm\beta_{m} 表示学习率(也称步长)。由于前面的 m1m-1 棵决策树已经训练好了, 参数都已经固定了, 对于固定的 βm\beta_{m} , 那么在第 mm 步, 我们仅需要训练第 mm 棵树的参数 Θm\Theta_{m} 来最小化当前总体损失:

Θ^m=argminΘmi=1NL(yi,fm1(xi)+βmT(xi;Θm))\hat{\Theta}_{m}=\underset{\Theta_{m}}{\arg \min } \sum_{i=1}^{N} L\left(y_{i}, f_{m-1}\left(x_{i}\right)+\beta_{m} T\left(x_{i} ; \Theta_{m}\right)\right)
  • 其中 NN 代表样本的总个数, LL 代表损失函数。在前向分步算法搞清楚之后, 我们再来回顾一下机器学习中是如何最小化损失函数的。
  • 假设现有一损失函数 J(θ)J(\theta), 当我们需要对这个参数为 θ\theta 的损失函数求最小值时, 只要按照损失函数的负梯度方向调整参数 θ\theta 即可, 因为梯度方向是使得函数增长最快的方向, 沿着梯度的反方向也就是负梯度方向会使得函数减小最快, 当学习率为 ρ\rho 时, θ\theta 的更新方法如下:
θi:=θiρJθi\theta_{i}:=\theta_{i}-\rho \frac{\partial J}{\partial \theta_{i}}
  • 那么同理, 前向分步算法中要使得损失总体损失 J=iL(yi,fm1(xi))J=\sum_{i} L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right) 更小, 需要对 fm1(x)f_{m-1}(x) 求导, 而 fm1(x)f_{m-1}(x) 是针对 NN 个样本的, 所以对每个样本预测值求偏导数:
fm(xi):=ρJfm1(xi)f_{m}\left(x_{i}\right):=-\rho \frac{\partial J}{\partial f_{m-1}\left(x_{i}\right)}
  • 这里的 ρ\rho 和刚才所提到的 βm\beta_{m} 的作用是相同的,次数令 ρ=1\rho=1 。对于第 mm 棵决策树而言, 其拟合的不再是原有数据 (xi,yi)\left(x_{i}, y_{i}\right) 的结果值 yiy_{i}, 而是负梯度, 因为这样就能使得总体损失函数下降最快。于是对于第mm棵决策树,它要拟合的样本数据集更新为:
{(x1,Jfm1(x1)),(x2,Jfm1(x2)),,(xn,Jfm1(xn))},m=1,2,,M\left\{\left(x_{1},-\frac{\partial J}{\partial f_{m-1}\left(x_{1}\right)}\right),\left(x_{2},-\frac{\partial J}{\partial f_{m-1}\left(x_{2}\right)}\right), \cdots,\left(x_{n},-\frac{\partial J}{\partial f_{m-1}\left(x_{n}\right)}\right)\right\}, m=1,2, \cdots, M
  • 这样迭代到一定步骤,损失函数达到足够小,最后GBDT\text {GBDT}输出的预测值就是前面所有树的和,它会非常接近yy值。

GBDT\text {GBDT}回归算法

  • 对于回归问题来说, 我们以平方误差损失函数为例, 来介绍GBDT的处理方法。平方误差损失函数:
L(y,f(x))=12(yf(x))2L(y, f(x))=\frac{1}{2} \cdot(y-f(x))^{2}
  • 对于第m1m-1棵决策树,每个样本ii的损失函数为: J=L(yi,fm1(xi))J=L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right),其关于预测值fm1(xi)f_{m-1}\left(x_{i}\right)的梯度(偏导数)为:
Jfm1(xi)=iL(yi,fm1(xi))fm1(xi)=L(yi,fm1(xi))fm1(xi)=fm1(xi)yi\frac{\partial J}{\partial f_{m-1}\left(x_{i}\right)}=\frac{\partial \sum_{i} L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right)}{\partial f_{m-1}\left(x_{i}\right)}=\frac{\partial L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right)}{\partial f_{m-1}\left(x_{i}\right)}=f_{m-1}\left(x_{i}\right)-y_{i}
  • 那么对应的负梯度:
Jfm1(xi)=yifm1(xi)-\frac{\partial J}{\partial f_{m-1}\left(x_{i}\right)}=y_{i}-f_{m-1}\left(x_{i}\right)

yifm1(xi)y_{i}-f_{m-1}\left(x_{i}\right) 便是当前一棵决策树需要拟合的残差(Residual),因此对于回归问题的提升树模型而言,每棵决策树只需要去拟合前面遗留的残差即可。

注意fm1(x)f_{m-1}\left(x\right)并不是第m1m-1棵决策树,而是在第m1m-1棵决策树这一步的预测函数,同理fm1(xi)f_{m-1}\left(x_{i}\right)表示预测函数在样本xix_i上的预测值。第m1m-1棵决策树仅仅拟合负梯度,而预测函数fm1(x)f_{m-1}\left(x\right)是拟合的负梯度加上前面树的预测值。

  • 回归问题的GBDT方法流程:

    • 输入:训练数据集 T={(x1,y1),(x2,y2),,(xN,yN)},xiXRn,yiYRT=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\}, x_{i} \in \mathcal{X} \subseteq \mathbf{R}^{\mathrm{n}}, \mathbf{y}_{\mathbf{i}} \in \mathcal{Y} \subseteq \mathbf{R} \quad, 以及学习率 βm\beta_{m}(也称步长)

    • 输出:提升树 fM(x)f_{M}(x)

    1. 初始化 f0(x)=1NiNyif_{0}(x)=\frac{1}{N} \sum_{i}^{N} y_{i}

    2. 对决策树 m=1,2,,Mm=1,2, \cdots, M

      (a) 计算每个样本i的残差:

      rmi=yifm1(xi),i=1,2,,Nr_{m i}=y_{i}-f_{m-1}\left(x_{i}\right), i=1,2, \cdots, N

      (b) 拟合残差 r_{m i} 学习一个回归树, 得到第 m 棵树的叶结点区域 Rmj,j=1,2,,JR_{m j}, j=1,2, \cdots, J 。注意:决策树(CART\text {CART}回归树)内部也是以平方误差作为损失函数进行分裂的。

      (c) 对叶结点 j=1,2,,Jj=1,2, \cdots, J, 计算最优输出值:

      cmj=argmincxiRmjL(yi,fm1(xi)+c)c_{m j}=\arg \min _{c} \sum_{x_{i} \in R_{m j}} L\left(y_{i}, f_{m-1}\left(x_{i}\right)+c\right)

      这一步是为了计算怎么对叶结点区域内的样本进行赋值, 使得模型损失最小, 因此这一步是需要根据当前决策树的损失函数来计算的, 而\text {CART}回归树的损失函数是平方误差损失,所以这一步计算结果为:

      cmj=1NmjxiRmjrmic_{m j}=\frac{1}{N_{m j}} \sum_{x_{i} \in R_{m j}} r_{m i}

      即每个叶结点区域残差的均值。

      (d) 更新决策树 fm(x)=fm1(x)+βmj=1JcmjI(xRmj)f_{m}(x)=f_{m-1}(x)+\beta_{m} \sum_{j=1}^{J} c_{m j} I\left(x \in R_{m j}\right)

    3. 最终得到针对回归问题的梯度提升树:

      fM(x)=m=1Mβmj=1JcmjI(xRmj)f_{M}(x)=\sum_{m=1}^{M} \beta_{m} \sum_{j=1}^{J} c_{m j} I\left(x \in R_{m j}\right)

      注意:\beta_{m} 的范围是(0,1),它的作用和梯度下降算法中的学习率(也称步长)是一样的, 能够使得损失函数收敛到更小的值, 因此可以调小 \beta_{m}, 而一个较小的学习率会使得模型趋向于训练更多的决策树, 使得模型更加稳定, 不至于过拟合,因此在GBDT中\beta_{m}也可以作为正则化参数。


GBDT\text {GBDT}二分类算法

  • 由于GBDT\text {GBDT}的基决策树采用的是以平方误差为分裂准则的CART回归树,其叶节点的输出是整个实数范围, 因此要做分类时,我们可以参考逻辑回归算法在线性回归表达式基础上嵌套SigmoidSigmoid函数(逻辑回归函数)的方法, 来使得 GBDT能够应对分类问题。下面我们先来讨论GBDT\text {GBDT}的二分类处理。

  • 我们可以把二分类GBDT的损失函数定义为:

L(y,f(x))=ylogy^(1y)log(1y^)y^=11+ef(x)L(y, f(x))=-y \log \hat{y}-(1-y) \log (1-\hat{y}) \\ \hat{y}=\frac{1}{1+e^{-f(x)}}
  • 其中 y^\hat{y} 是一个SigmoidSigmoid函数,我们用它来表示决策树将样本类别预测为1的概率 P(y=1x)P(y=1 \mid x)yy为样本类别的实际值(0和1)。

  • 那么对于第m1m-1棵决策树,损失函数 J=iL(yi,fm1(xi))J=\sum_{i} L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right),其关于样本预测值的梯度计算为 :

    Jfm1(xi)=L(yi,fm1(xi))fm1(xi)=[yilog11+efm1(xi)(1yi)log(111+efm1(xi)))fm1(xi)=[yilog(1+efm1(xi))+(1yi)[fm1(xi)+log(1+efm1(xi))]]fm1(xi)=[(1yi)fm1(xi)+log(1+efm1(xi))]fm1(xi)=11+efm1(xi)yi=yi^yi\begin{aligned} \frac{\partial J}{\partial f_{m-1}\left(x_{i}\right)} &=\frac{\partial L\left(y_{i}, f_{m-1}\left(x_{i}\right)\right)}{\partial f_{m-1}\left(x_{i}\right)} \\ &=\frac{\partial\left[-y_{i} \log \frac{1}{1+e^{-f_{m-1}\left(x_{i}\right)}}-\left(1-y_{i}\right) \log \left(1-\frac{1}{\left.1+e^{-f_{m-1}\left(x_{i}\right)}\right)}\right)\right.}{\partial f_{m-1}\left(x_{i}\right)} \\ &=\frac{\partial\left[y_{i} \log \left(1+e^{-f_{m-1}\left(x_{i}\right)}\right)+\left(1-y_{i}\right)\left[f_{m-1}\left(x_{i}\right)+\log \left(1+e^{-f_{m-1}\left(x_{i}\right)}\right)\right]\right]}{\partial f_{m-1}\left(x_{i}\right)} \\ &=\frac{\partial\left[\left(1-y_{i}\right) f_{m-1}\left(x_{i}\right)+\log \left(1+e^{-f_{m-1}\left(x_{i}\right)}\right)\right]}{\partial f_{m-1}\left(x_{i}\right)} \\ &=\frac{1}{1+e^{-f_{m-1}\left(x_{i}\right)}}-y_{i} \\ &=\hat{y_{i}}-y_{i} \end{aligned}
  • 计算得到的结果就是该决策树的类别预测概率值与类别实际值之间的差值, 那么负梯度为:

Jfm1(xi)=yiy^i-\frac{\partial J}{\partial f_{m-1}\left(x_{i}\right)}=y_{i}-\hat{y}_{i}
  • 因此对于处理二分类问题的GBDT来说,其每棵决策树拟合的是类别实际值与类别概率预测值的差值。二分类问题的GBDT方法流程为:

    • 输入:训练数据集 T={(x1,y1),(x2,y2),,(xN,yN)},xiXRn,yi{0,1}\quad T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\}, x_{i} \in \mathcal{X} \subseteq \mathbf{R}^{\mathrm{n}}, \mathbf{y}_{\mathbf{i}} \in\{\mathbf{0}, \mathbf{1}\} \quad, 以及学习率 βm\beta_{m}

    • 输出:提升树 fM(x)f_{M}(x)

    1. 初始化 f0(x)=logp11p1f_{0}(x)=\log \frac{p_{1}}{1-p_{1}}, 其中 p1p_{1} 代表的是样本中 y=1 的比例。

    2. m=1,2,,Mm=1,2, \cdots, M

      (a) 对每个样本i计算负梯度:

      rmi=yiy^i,i=1,2,,Nr_{m i}=y_{i}-\hat{y}_{i}, i=1,2, \cdots, N

      其中 y^i=11+efm1(xi)\hat{y}_{i}=\frac{1}{1+e^{-f_{m-1}\left(x_{i}\right)}} ,代表 y_{i}=1 的概率。

      (b) 拟合负梯度 r_{m i} 学习一个回归树, 得到第 m 棵树的叶结点区域 Rmj,j=1,2,,JR_{m j}, j=1,2, \cdots, J 。注意这一步也是按照平方误差损失进行分裂节点的。

      (c) 对叶结点 j=1,2,,Jj=1,2, \cdots, J, 计算:

      cmj=argmincxiRmjL(yi,fm1(xi)+c)c_{m j}=\arg \min _{c} \sum_{x_{i} \in R_{m j}} L\left(y_{i}, f_{m-1}\left(x_{i}\right)+c\right)

      (d) 更新 fm(x)=fm1(x)+βmj=1JcmjI(xRmj)f_{m}(x)=f_{m-1}(x)+\beta_{m} \sum_{j=1}^{J} c_{m j} I\left(x \in R_{m j}\right)

    3. 最后,得到二分类梯度提升树:

      fM(x)=m=1Mβmj=1JcmjI(xRmj)f_{M}(x)=\sum_{m=1}^{M} \beta_{m} \sum_{j=1}^{J} c_{m j} I\left(x \in R_{m j}\right)
    4. 最终,还要对最后的预测函数嵌套逻辑函数,从而可以表示预测概率值:

      P(y=1x)=11+efM(x)P(y=1 \mid x)=\frac{1}{1+e^{-f_M(x)}}

GBDT\text {GBDT}多分类算法

  • GBDT\text {GBDT}在二分类问题上采用了对原始回归树模型嵌套一个“逻辑回归函数”的方法,而GBDT\text {GBDT}在多分类问题上采用的是“多项逻辑回归”(Softmax Regression\text {Softmax Regression})的方法,下面先简单介绍一下多项逻辑回归。

  • “多项逻辑回归”(Softmax Regression\text {Softmax Regression})可以看作是逻辑回归(Logistic Regression\text {Logistic Regression})的一般形式,反之,也可以将逻辑回归看作是多项逻辑回归的一个特例。在Logistic Regression\text {Logistic Regression}中需要求解的是两个概率: P(y=1x;θ)P(y=1 \mid x ; \theta)P(y=0x;θ)P(y=0 \mid x ; \theta);而在Softmax Regression\text {Softmax Regression}中将不再是两个概率,而是 kk 个概率, kk 表示类别数。Softmax Regression\text {Softmax Regression}的预测函数:

    hθ(x)=P(Y=yix)=[P(Y=1x;θ)P(Y=2x;θ)P(Y=kx;θ)]=1j=1keθjTx[eθ1Txeθ2TxeθkTx]\begin{array}{c} h_{\theta}(x) =P\left(Y=y_{i} \mid x\right)= {\left[\begin{array}{c} P(Y=1 \mid x ; \theta) \\ P(Y=2 \mid x ; \theta) \\ \cdot \\ \cdot \\ \cdot \\ P(Y=k \mid x ; \theta) \end{array}\right]} =\frac{1}{\sum_{j=1}^{k} e^{\theta_{j}^{T} x}}\left[\begin{array}{c} e^{\theta_{1}^{T} x} \\ e^{\theta_{2}^{T} x} \\ \cdot \\ \cdot \\ \cdot \\ e^{\theta_{k}^{T} x} \end{array}\right] \end{array}
  • 其中, θ1T,θ2T,,θkT\theta_{1}^T, \theta_{2}^T, \ldots, \theta_{k}^Tkk个模型分别的参数(向量),最后乘以 1j=1keθjTxi\frac{1}{\sum_{j=1}^{k} e^{\theta_{j}^{T} x_{i}}} 是为了让每个类别的概率处于 [0,1][0,1]区间并且概率之和为1。Softmax Regression\text {Softmax Regression}将输入数据 xix_{i} 归属于类别 jj 的概率为:

p(yi=jxi;θ)=eθjTxil=1keθlTxi p\left(y_{i}=j \mid x_{i} ; \theta\right)=\frac{e^{\theta_{j}^{T} x_{i}}}{\sum_{l=1}^{k} e^{\theta_{l}^{T} x_{i}}}
  • 上面公式可以用下图来形象化地解析:


  • 一般来说, Softmax Regression\text {Softmax Regression}具有参数冗余的特点, 即将θ1T,θ2T,,θkT\theta_{1}^T, \theta_{2}^T, \ldots, \theta_{k}^T 同时加减一个向量后预测结果不变, 因为 P(Y=1x)+P(Y=2x)++P(Y=kx)=1P(Y=1 \mid x)+P(Y=2 \mid x)+\ldots+P(Y=k \mid x)=1 ,所以 P(Y=1x)=1P(Y=2x)P(Y=kx)P(Y=1 \mid x)=1-P(Y=2 \mid x)-\ldots-P(Y=k \mid x)。假设从参数向量 θjT\theta_{j}^{T} 中减去向量 ψ\psi, 这时每一个θjT\theta_{j}^{T} 都变成了 θjTψ(j=1,2,,k)\theta_{j}^{T}-\psi(j=1,2, \ldots, k) 。此时预测函数变成了:

    P(Y=yjx;θ)=eθjTxi=1keiTix=e(θjTψ)xi=1ke(θiTψ)x=eθjTx×eψxi=1keθiTx×eψx=eθjTxi=1keθiTx\begin{aligned} P\left(Y=y_{j} \mid x ; \theta\right) &=\frac{e^{\theta_{j}^{T} x}}{\sum_{i=1}^{k} e_{i}^{T_{i} x}} \\ &=\frac{e^{\left(\theta_{j}^{T}-\psi\right) x}}{\sum_{i=1}^{k} e^{\left(\theta_{i}^{T}-\psi\right) x}} \\ &=\frac{e^{\theta_{j}^{T} x} \times e^{-\psi x}}{\sum_{i=1}^{k} e^{\theta_{i}^{T} x} \times e^{-\psi x}} \\ &=\frac{e^{\theta_{j}^{T} x}}{\sum_{i=1}^{k} e^{\theta_{i}^{T} x}} \end{aligned}
  • 从上式可以看出, 从 θjT\theta_{j}^{T} 中减去 ψ\psi 完全不影响假设函数的预测结果。特别地,当类别数kk为2时:

    hθ(x)=1eθ1Tx+eθ2Tx[eθ1Txeθ2Tx]h_{\theta}(x)=\frac{1}{e^{\theta_{1}^{T} x}+e^{\theta_{2}^{T} x}}\left[\begin{array}{l} e^{\theta_{1}^{T} x} \\ e^{\theta_{2}^{T} x} \end{array}\right]
  • 利用参数冗余的特点, 我们将上式所有的参数减去 θ1\theta_{1},上式变为:

hθ(x)=1e0x+e(θ2Tθ1T)x[e0xe(θ2Tθ1T)x]=[11+eTTx111+eθTx]\begin{aligned} h_{\theta}(x) &=\frac{1}{e^{0 \cdot x}+e^{\left(\theta_{2}^{T}-\theta_{1}^{T}\right) x}}\left[\begin{array}{c} e^{0 \cdot x} \\ e^{\left(\theta_{2}^{T}-\theta_{1}^{T}\right) x} \end{array}\right] \\ &=\left[\begin{array}{c} \frac{1}{1+e^{T^{T} x}} \\ 1-\frac{1}{1+e^{\theta T} x} \end{array}\right] \end{aligned}
  • 其中 θ=θ2θ1\theta=\theta_{2}-\theta_{1} 。可以看出,整理后的式子与逻辑回归完全一致,因此,二分类的逻辑回归其实可以看作是多项逻辑回归在k=2k=2时的一种特例。

  • 接下来我们看GBDT\text {GBDT}多分类的具体方法:

    • 将GBDT应用于二分类问题时需要考虑逻辑回归模型,同理,对于GBDT多分类问题则需要考虑以下 Softmax模型:
    P(y=1x)=eF1(x)i=1keFi(x)P(y=2x)=eF2(x)i=1keFi(x)P(y=kx)=eFk(x)i=1keFi(x)\begin{array}{c} P(y=1 \mid x)=\frac{e^{F_{1}(x)}}{\sum_{i=1}^{k} e^{F_{i}(x)}} \\ P(y=2 \mid x)=\frac{e^{F_{2}(x)}}{\sum_{i=1}^{k} e^{F_{i}(x)}} \\ \ldots \ldots \\ P(y=k \mid x)=\frac{e^{F_{k}(x)}}{\sum_{i=1}^{k} e^{F_{i}(x)}} \end{array}
    • 其中 F1FkF_{1} \ldots F_{k}kk 个不同的CART回归树集成。每一轮的训练实际上是训练了 kk 棵树去拟合 softmax的每一个分支模型的负梯度。softmax模型的单样本损失函数为:
     loss =i=1kyilogP(yix)=i=1kyilogeFi(x)j=1keFj(x)\text { loss }=-\sum_{i=1}^{k} y_{i} \log P\left(y_{i} \mid x\right)=-\sum_{i=1}^{k} y_{i} \log \frac{e^{F_{i}(x)}}{\sum_{j=1}^{k} e^{F_{j}(x)}}
    • 这里的 yi(i=1k)y_{i}(i=1 \ldots k) 是样本原始结果标签在k个类别上作one-hot编码之后的取值, 在kk个类别上属于ii类就yi=1y_i=1其余都为0。由以上表达式不难推导:
    lossFi=yieFi(x)j=1keFj(x)=yip(yix)-\frac{\partial l o s s}{\partial F_{i}}=y_{i}-\frac{e^{F_{i}(x)}}{\sum_{j=1}^{k} e^{F_{j}(x)}}=y_{i}-p\left(y_{i} \mid x\right)
    • 可见, 这 kk 棵树同样是拟合了样本的真实标签与预测概率之差, 与 GBDT二分类的过程非常类似。

GBDT\text {GBDT}BDT\text {BDT}

  • BDT(Boosting Decision Tree)\text {BDT(Boosting Decision Tree)},提升树,尽管梯度提升树是提升树的改进版,但我们也可以把提升树看作是令梯度提升树中的损失函数取平方误差损失时的一个特例,因此提升树每次训练决策树只需要拟合上一步的残差即可。

  • 但是以残差作为损失函数其实有很大的劣势,一个比较明显的缺点就是对异常值过于敏感。我们来看一个例子:

  • 很明显后续的模型会对第4个值关注过多,这不是一种好的现象,所以一般回归类的损失函数会用绝对损失或者huber损失函数来代替平方损失函数:

  • 可以看出huber损失对于异常值的鲁棒性强很多。Huber损失是均方差和绝对损失的折衷产物,对于远离中心的异常点,采用绝对损失,而中心附近的点采用均方差。




有问题欢迎留言交流。

最后,如果你对Python、数据挖掘、机器学习等内容感兴趣,欢迎关注我的博客。