1. 基本概念
对数几率回归(Logistic Regression),尽管名字中包含“回归”,但它主要用于分类任务。它通过使用线性回归模型的输出逼近真实标记的对数几率。
2. 对数几率函数
对数几率函数(Logistic Function),也称为Sigmoid函数,是一种将线性回归模型的输出转换为概率的函数,其形式为:
p(y=1∣x;β)=1+e−(wTx+b)1
其中,x 是特征向量,w 是权重向量,b 是偏置项,β=(w;b)。
3. 几率(Odds)
几率是正例与反例发生概率的比值,用
1−p(y=1∣x;β)p(y=1∣x;β)
表示。
4. 对数几率(Log Odds)
对数几率是几率的自然对数,即
log(1−p(y=1∣x;β)p(y=1∣x;β))
5. 模型优化
使用极大似然法来估计模型参数 w 和 b,即最大化对数似然函数:
ℓ(w,b)=i=1∑n[yilog(p(yi=1∣xi;β))+(1−yi)log(1−p(yi=1∣xi;β))]
极大似然函数可以转换为最小化损失函数(二元交叉熵损失函数),通常使用数值优化算法求解,如梯度下降法或牛顿法。
梯度下降法通过迭代更新权重和偏置项来最小化损失函数。
牛顿法是一种更高效的优化算法,它利用函数的二阶导数来加速收敛。其迭代更新公式为:
βt+1=βt−(∂β∂βT∂2ℓ(β))−1∂β∂ℓ(β)
6. 优点
- 对数几率回归不依赖于数据分布的假设,避免了分布假设不准确带来的问题。
- 它提供了概率预测,对于需要概率信息辅助决策的任务非常有用。
- Sigmoid函数是可导的凸函数,具有良好的数学性质,使得优化算法易于实现。
补充
考虑二分类任务,其输出标记 y∈{0,1}而线性回归模型产生的预测值 z=wTx+b 是实值,于是,我们需将实值 z 转换为 0/1 值。最理想的是“单位阶跃函数”(unit-step function)
y=⎩⎨⎧0,0.5,1,z<0;z=0;z>0.

对数几率回归通过以下公式将线性回归的输出转换为对数几率:
lnp(y=0∣x)p(y=1∣x)=wTx+b.
由此,我们可以得到概率预测公式:
p(y=1∣x)=1+ewTx+bewTx+b,
p(y=0∣x)=1+ewTx+b1.
在牛顿法中,第 t+1 轮迭代解的更新公式为:
βt+1=βt−(∂β∂βT∂2ℓ(β))−1∂β∂ℓ(β).
关于β 的一阶导数和二阶导数分别为:
∂β∂ℓ(β)=−i=1∑mx^i(yi−p1(x^i;β)),
∂β∂βT∂2ℓ(β)=i=1∑mx^ix^iTp1(x^i;β)(1−p1(x^i;β)).
参考文献: