持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第3天,点击查看活动详情
{(xi,yi)}i=1N,xi∈Rp,yi∈{0,1}
逻辑回归是直接对p(y∣x)建模,而高斯判别分析作为概率生成模型,是通过引入类型的先验,通过贝叶斯公式,得到联合分布p(x,y)=p(x∣y)p(y),再对联合分布的对数似然得到参数
贝叶斯公式为
p(y∣x)=p(x)p(x∣y)p(y)
但是由于我们只关心p(y=1∣x)=p(x)p(x∣y=1)p(y=1)和p(y=0∣x)=p(x)p(x∣y=0)p(y=0)的大小关系,因此不需要关注分母,因为二者是一样的,即
y^=y∈{0,1}argmax p(y∣x)由于p(y∣x)∝p(x∣y)p(y)=yargmax p(y)⋅p(x∣y)
高斯判别分析我们对数据集作出的假设有,类的先验是二项分布,每一类的似然是高斯分布,即
yx∣y=1x∣y=0∼B(1,ϕ)⇒p(y)={ϕy(1−ϕ)1−yy=1y=0⇒p(y)=ϕy(1−ϕ)1−y∼N(μ1,Σ)∼N(μ2,Σ)⇒p(x∣y)=N(μ1,Σ)y⋅N(μ2,Σ)1−y
因此,最大后验
L(μ1,μ2,Σ,ϕ)=logi=1∏N[p(xi∣yi)p(yi)]=i=1∑N[logp(xi∣yi)+logp(yi)]=i=1∑N[logN(μ1,Σ)yi+logN(μ2,Σ)1−yi+logϕyi(1−ϕ)1−yi]
![![[附件/Pasted image 20220928160422.png|400]]](https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/57df2f1704c24963a07bb623c0af82c3~tplv-k3u1fbpfcp-zoom-in-crop-mark:1512:0:0:0.awebp)
作者:张文翔
链接:Andrew Ng Stanford机器学习公开课 总结(5) - 张文翔的博客 | BY ZhangWenxiang (demmon-tju.github.io)