本文正在参加 人工智能创作者扶持计划
0.动机
感觉最近是一段拨乱反正的时间段 : 想要更深入理论更好地了解之前很多看论文时没有细看的数学推导和数学证明 (感觉想要真正做出好的工作的前提之一是对于数学性质的扎实理解),然后就是补各种知识。为了保证自己能够在比较快的时间内补完相关知识,我决定一边看一边理解和记录,以此倒逼自己的学习进度。这篇札记主要是对于Logistic回归模型的数学性质的理解和记录。
1. Logistic 分布
定义 1 设 X 是连续随机变量,X 服从 Logistic 分布是指 X 具有下列分布函数和密度函数 :
F(x)=P(X⩽x)=1+e−(x−μ)/γ1f(x)=F′(x)=γ(1+e−(x−μ)/γ)2e−(x−μ)/γ
其中,μ 为位置参数,γ 为形状参数。下对其进行数学性质的推导。
E[x]====∫−∞∞xf(x)dx=∫−∞∞xγ(1+e−(x−μ)/γ)2e−(x−μ)/γdx∫−∞∞(1+e−t)2xe−tdt(let γx−μ=t)∫−∞∞(1+e−t)2(μ+tγ)e−tdt=μ∫−∞∞(1+e−t)2e−tdt((1+e−t)2tγe−t+(1+et)2−tγet=0)−et+1μ∣∣t=−∞∞=μ
D[x]======E[(x−E[x])2]=E[x2−2μx+μ2]E[x2]−μ2=∫−∞∞x2γ(1+e−(x−μ)/γ)2e−(x−μ)/γdx−μ2∫−∞∞(1+e−t)2x2e−tdt−μ2(let γx−μ=t)∫−∞∞(1+e−t)2(μ+tγ)2e−tdt−μ2μ2∫−∞∞(1+e−t)2e−tdt+γ2∫−∞∞(1+e−t)2t2e−tdt−μ2((1+e−t)2tγe−t+(1+et)2−tγet=0)γ2∫−∞∞(1+e−t)2t2e−tdt=3(πγ)2
μ 确定函数的位置,γ 确定函数的图像性质,与上述定义一致。
f(x) 和 F(x) 的图像性质如上图所示。f(x) 关于 μ 对称,F(x) 关于 (μ,21) 中心对称。
2. 二项 Logistic 回归模型
二项 Logistic 回归模型 (binomial logistic regression model) 是一种分类模型,由条件概率分布 P(Y∣X) 表示,形式为参数化的 Logistic 分布。这里,随机变量 X 取值为实数,随机变量 Y 取值为 1 或 0。我们通过监督学习的方法来估计模型参数。
定义 2 (Logistic 回归模型) 二项 Logistic 回归模型是如下的条件概率分布 :
P(Y=1∣x)=1+exp(w⋅x+b)exp(w⋅x+b)P(Y=0∣x)=1+exp(w⋅x+b)1
这里,x∈Rn 是输入,Y∈{0,1} 是输出,w∈Rn 和 b∈R 是参数,w 称为权值向量,b 称为偏置,w⋅x 为 w 和 x 的内积。
有时为了方便,将权值向量和输入向量加以扩充,仍记作 w,x,w=(w(1),w(2),⋯,w(n),b)T,x=(x(1),x(2),⋯,x(n),1)T。这时,Logistic 回归模型如下 :
P(Y=1∣x)=1+exp(w⋅x)exp(w⋅x)P(Y=0∣x)=1+exp(w⋅x)1
现在考查 Logistic 回归模型的特点。一个事件的几率 (odds) 是指该事件发生的概率与该事件不发生的概率的比值.如果事件发生的概率是 p,那么该事件的几率是 1−pp,该事件的对数几率 (log odds) 或 logit 函数是
logit(p)=log1−pp
对 Logistic 回归而言,结合上面的简易形式有 :
log1−P(Y=1∣x)P(Y=1∣x)=w⋅x
这就是说,在 Logistic 回归模型中,输出 Y=1 的对数几率是输入 x 的线性函数。或者说,输出 Y=1 的对数几率是由输入 x 的线性函数表示的模型,即 Logistic 模型。
3. 多项 Logistic 回归
上面介绍的 Logistic 回归模型是二项分类模型,用于二类分类。可以将其推广为多项 Logistic 回归模型 (multi-nominal logistic regression model),用于多类分类。假设离散型随机变量 Y 的取值集合是 {1,2,⋯,K},那么多项 Logistic 回归模型是
P(Y=k∣x)=1+∑k=1K−1exp(wk⋅x)exp(wk⋅x)P(Y=K∣x)=1+∑k=1K−1exp(wk⋅x)1k=1,2,⋯,K−1
其中 x∈Rn+1,wk∈Rn+1
参考资料 (References)