概述
对于给定数据集D=(xi,yi)i=1m,其中xi=(xi1,xi2,...,xid),yi∈R。线性回归的目的是找到一个函数
f(x)=wTx+b
使得线性模型的预测值f(x)与真实值y尽可能接近。通常选用均方误差来判断其接近程度,即
E(f;D)=m1i=1∑m(f(xi)−yi)2=m1i=1∑m(wTxi+b−yi)2
当均方误差最小时,即可求得最优线性回归模型。此时
(w∗,b∗)=argw,bminE(w,b)=argw,bmini=1∑m(f(xi)−yi)2=argw,bmini=1∑m(wTxi+b−yi)2
w∗,b∗表示w,b的解。我们只需要求得均方误差E在最小值时的w,b值,因此均方误差的常数项m1可忽略。
一元线性回归
当数据集中xi的维度为1时,即xi=(xi),此时x为标量,则对于给定数据集D=(xi,yi)i=1m,线性回归给出的模型为
f(x)=wx+b
此时w也是标量。易证E(w,b)=∑i=1m(wxi+b−yi)2对w,b均为开口向上且恒大于0的二次函数,因此我们可以使用二次函数对称轴公式或求导来确定该函数的最小值。这里选择求导的方法。将E(w,b)分别对w,b求导:
∂w∂E(w,b)∂b∂E(w,b)=2i=1∑m(wxi+b−yi)xi=2[wi=1∑mxi2−i=1∑m(yi−b)xi]=2i=1∑m(wxi+b−yi)=2[mb−i=1∑m(yi−wxi)]
令上式等于0,得到
bw=m1i=1∑m(yi−wxi)=yˉ−wxˉ=∑i=1m(xi−xˉ)2∑i=1m(xi−xˉ)(yi−yˉ)=∑i=1mxi2−mxˉ2∑i=1m(xiyi)−mxˉyˉ

多元线性回归
最小二乘法
对概述中的式子,我们令
X=x11x21⋮xm1x12x22⋮xm2⋯⋯⋱⋯x1dx2d⋮xmd11⋮1=x1Tx2T⋮xmT11⋮1,y=y1y2⋮ym,w^=[wb]
则
f(x)w^∗=wTx+b=Xw^=argw^minE(w^)=argw^min(y−Xw^)T(y−Xw^)
将E对w^求导得
∂w^∂E(w^)=2XT(Xw^−y)
当XTX是满秩矩阵时,令上式等于0可得
w^=(XTX)−1XTy
将其代入一元线性回归,仍有效。
