李宏毅2020机器学习:2)bias+variance

217 阅读2分钟

小知识,大挑战!本文正在参与“ 程序员必备小知识 ”创作活动

本文同时参与 「掘力星计划」 ,赢取创作大礼包,挑战创作激励金

很基础又很重要的一个问题

模型的方差和偏差。

  1. 统计学中的无偏估计和有偏估计: 均值估计和方差估计

这里举了一个均值估计的例子。通常情况下对x的均值估计是取n个点,做个平均。通过这种方式得到m1,m2,m3....当然这些m和真实的u有差距,但是如果对估计出来的所有的m取个期望,就可以看作是样本真实的u(因为数目很多),也就是m是均匀的散布在u的上下。 这种估计出来的结果和真实一样,所以叫做无偏估计。

这里举了一个均值估计的例子。通常情况下对x的均值估计是取n个点,做个平均。通过这种方式得到m1,m2,m3....当然这些m和真实的u有差距,但是如果对估计出来的所有的m取个期望,就可以看作是样本真实的u(因为数目很多),也就是m是均匀的散布在u的上下。 这种估计出来的结果和真实一样,所以叫做无偏估计。

在五篇估计中m的散布程度由方差决定,N越大,方差越小,散布的越靠近中心。

有偏估计。可以看到估计出来的方差比较多的在真实的方差的下面。当N无穷大的时候,也就差不多相等了。

在机器学习模型下:方差和偏差的图,太形象了

我们想要的是一个 bias小的,variance也小的一系列模型。

简单的模型 方差比较小,因为不怎么受data的影响。

复杂的模型 方差比较大,因为非常受data的影响。

比如说极端情况下,让f(x)=c。 方差为0.

bias:

模型复杂的bias小。模型简单的bias大。

直观解释:我们的model是个function set,简单的model里面的space可能根本不包含最好的target。如果model比较复杂,可能包含target。
综上:

简单的model:方差小,偏差大。

复杂的model:方差大,偏差小。

因此设计模型的最终目的就是学习到一个平衡2者的模型。

如何处理高方差和高偏差?

高偏差:

•Diagnosis: 训练集表现很差(Underfitting),测试集表现很差(Overfitting)

方法:增加更多的特征,设计一个更复杂的模型。

高方差:

•More data

•Regularization(May increase bias)