充分统计量
-
定义:对于一个分布族{Pθ:θ∈∣Θ},样本x1,...,xn。如果统计量t可以让分布F(x1,...,xn∣t)与θ无关,那么t是充分统计量。
-
判定(Fisher准则):样本的联合分布可以分解为p(x,θ)=g(T(x),θ)h(x)
重要分布
χ2分布
n个iid的标准正态分布的平方和,χ2(n),pdf为f(x)=2n/2Γ(n/2)1xn/2−1e−x/2(x>0)。其实就是Γ(n/2,1/2,x)
期望为n,方差为2n
可加性:χ2(n1)+χ2(n2)=χ2(n1+n2)
t分布
X N(0,1),Y χ2(n),两者独立,那么T=X/Y/n服从t(n),pdf:f(t)=nπΓ(n/2)Γ(2n+1)(1+nt2)−2n+1
F分布
X χ2(n1),Y χ2(n2),F=Y/n2X/n1
σ2(n−1)S2 χ2(n−1)
其他分布
负二项分布
n次iid伯努利实验,执行到x时,出现了r次成功的概率。
Pr[x]=Cx−1r−1pr(1−p)x−r
拉普拉斯分布
也叫双指数分布,f(x)=2b1e−b∣x−μ∣,相当于把指数分布向左平移μ然后保留右侧对称过去,再重新归一化。
Gamma分布
首先简单回忆指数分布f(x)=θe−θx,期望和方差分别为θ,θ2。他说明的是一个时间发生之前经过时间的分布。
接下来有两个方向思考:
- 一个是在一段时间里到底发生了多少次-这是poisson分布。概率里讲了
- 另一个是一系列iid的指数分布时间发生的总时间,这就是Gamma分布
这个证明可以用归纳法,但过于考察积分技巧,如果已经知道了分布,那可以利用矩母函数来证明会简单很多。
首先需要知道gamma函数
Γ(α)=∫0∞xα−1e−xdx
这个函数的性质:
- Γ(1)=1
这很明显
- Γ(α+1)=αΓ(α)
分部积分,把e−x看作导数,注意e−x的原函数是−e−x,在分布积分的第二项中符号会变。
- Γ(n+1)=n!
整数情况,是前一种的特殊情况。
- Γ(1/2)=π
积分换元令x=t2把前面指数的1/2消掉,然后求积分的平方,转化成二元积分,极坐标换元。
接下来就是gamma分布
Γ(α,β,x)=Γ(α)βαxα−1e−βx
其实,α就是指数分布的个数,β就是指数分布的θ,所以期望和方差符合直觉的分别为α/β,α/β2,α=1的时候恰好就是指数分布,而且他甚至不局限于整数个指数分布。。。
Beta分布
从二项分布而来,回顾n次实验,成功概率为p,那么成功a次的概率为Pr[X=a]=Cnapa(1−p)n−a
现在反向问一个问题,假设做了n次实验,发现成功了a次失败了b=n−a次,p是多少?p可以是一个数值,但是Bayesian学派会认为这个概率本身未必是数值,应该也是一个分布。这就是beta分布,即二项实验可能概率的概率分布。
既然p是未知量了,那么f(p)=Cnapa(1−p)b,组合数系数没有p,另外f(p)是概率密度所以需要归一化,因此我们重新设一个系数,f(p)=Kpa(1−p)b,然后归一化∫01f(p)dp=1,可以得到系数K=∫01pa(1−p)bdp1。
我们令分母B(a,b)=∫01pa(1−p)bdp。这个积分是多少?这里有一个很巧妙的小球模型来求解(ref: zhuanlan.zhihu.com/p/69606875)
现在0-1区间扔一个红球等概率落在任意位置p,然后再扔n个白球也是均匀的,此时落在左侧白球的数量X满足Pr[X=k∣p]=Cnkpk(1−p)n−k,积分去掉条件,可得
Pr[X=k]=∫01Cnkpk(1−p)n−k⋅1dp=CnkB(a,n−k)
从另一个视角看,如果是一股脑扔出n+1个球,那么X=k的意思就是从n+1个球里选第k+1个当红球。因为都是均匀分布,所以等可能,因此Pr[X=k]=n+11,所以结合上面的公式
CnkB(k,n−k)=n+11
因此B(k,n−k)=(n+1)!k!(n−k)!,重新令a=k,b=n−k,n=a+b,那么有
B(a,b)=(a+b+1)!a!b!=Γ(n+2)Γ(a+1)Γ(b+1)
重新换元一下,得到最经典的beta函数公式
B(α,β)=Γ(α+β)Γ(α)Γ(β)
所以相应的Beta分布为
f(x)=B(α,β)1xα−1(1−x)β−1
期望和方差很容易计算,因为乘x和x2的积分恰好就是B(α+1,β)和B(α+2,β)