持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第2天,点击查看活动详情
一点最大后验估计的理解,不知道该写哪,就放这里了
最大后验估计是根据经验数据获得对难以观察的量的点估计。与最大似然估计类似,但是最大的不同是,最大后验估计的融入了要估计量的先验分布在其中。故最大后验估计可以看做规则化的最大似然估计。
MAP与MLE最大区别是MAP中加入了模型参数本身的概率分布,或者说。MLE中认为模型参数本身的概率的是均匀的,即该概率为一个固定值。
举例来说:
假设有五个袋子,各袋中都有无限量的饼干(樱桃口味或柠檬口味),已知五个袋子中两种口味的比例分别是
樱桃 100%
樱桃 75% + 柠檬 25%
樱桃 50% + 柠檬 50%
樱桃 25% + 柠檬 75%
柠檬 100%
如果只有如上所述条件,那问从同一个袋子中连续拿到2个柠檬饼干,那么这个袋子最有可能是上述五个的哪一个?
我们首先采用最大似然估计来解这个问题,写出似然函数。假设从袋子中能拿出柠檬饼干的概率为p(我们通过这个概率p来确定是从哪个袋子中拿出来的),则似然函数可以写作
p(两个柠檬饼干∣袋子)=p2
由于p的取值是一个离散值,即上面描述中的0,25%,50%,75%,1。我们只需要评估一下这五个值哪个值使得似然函数最大即可,得到为袋子5。这里便是最大似然估计的结果。
上述最大似然估计有一个问题,就是没有考虑到模型本身的概率分布,下面我们扩展这个饼干的问题。
假设拿到袋子1或5的机率都是0.1,拿到2或4的机率都是0.2,拿到3的机率是0.4,那同样上述问题的答案呢?这个时候就变MAP了。我们根据公式
θ^MAP=θargmax ∫θ∈Θf(x∣θ′)g(θ′)dθ′(x∣θ)g(θ)=θargmax f(x∣θ)g(θ)
写出我们的MAP函数。
MAP=p2⋅g
根据题意的描述可知,p的取值分别为0,25%、50%、75%、1;g的取值分别为0.1、0.2、0.4、0.2、0.1。分别计算出MAP函数的结果为:0、0.0125、0.125、0.28125、0.1。由上可知,通过MAP估计可得结果是从第四个袋子中取得的最高。
作者:可乐LL
链接:最大后验估计(MAP) - 可乐LL - 博客园 (cnblogs.com)
{(xi,yi)}i=1N,xi∈Rp,yi∈{0,1}
逻辑回归作为线性分类中的软输出,相对于硬输出,输出结果为y为各值的概率,总体思路与硬输出是相同的,即
线性回归ωTx→线性分类→激活函数{yi={0,1}p(yi)=p∈(0,1)硬分类软分类
相对于概率生成模型,逻辑回归的概率判别模型是对p(y∣x)直接建模
逻辑回归的激活函数为Sigmoid Function
σ(z)=1+e−z1⎩⎨⎧z→+∞z→0z→−∞limσ(z)=1σ(z)=21limσ(z)=0
显然通过σ(z),将R→(0,1),ωTx→P
二项逻辑回归模型时如下的条件概率分布
p1p0p(y∣x)=p(y=1∣x)=σ(ωTx)=1+e−ωTx1=p(y=0∣x)=1−p(y=1∣x)=1+e−ωTxe−ωTx=p1yp01−y
对其中的ω进行最大似然估计
ω^=ωargmax logp(Y∣X)=ωargmax logi=1∏Np(yi∣xi)=ωargmax i=1∑Nlogp(yi∣xi)=ωargmax i=1∑N(yilogp1+(1−yi)logp0)记p1=ψ(x,ω)=ωargmax i=1∑N[yilogψ(xi,ω)+(1−yi)log(1−ψ(xi,ω))]
个人理解,先用已知数据估计出ω^,然后带回p(y=1∣x),p(y=0∣x),然后对于新的x,代入p(y=1∣x),p(y=0∣x),比较大小,哪个大,就认为y的值为哪个