preliminaries
指数分布
定义
F(x)=1−e−θx or f(x)=θe−θx
如何理解:考虑一个时间长度,它的分布如果服从指数分布,那么这个时间越长概率越低。
而如果时间非常短,在一个几乎为0的区间,那么这个概率和这个分布的参数一样。
考虑一个寿命情景,设寿命随机变量为X,所谓错误可以描述为
P(t<X<t+Δt∣X>t)=P(X>t)P(t<X<t+Δt)=1−FX(t)FX(t+Δt)−FX(t)
如果Δt→0就相当于是垂死前最后一刻,这个概率就可以表征错误概率,于是
α(t)Δt=1−FX(t)fX(t)Δt=1−FX(t)dFX(t)
两侧求积分,解得,
FX(t)=1−e(−∫0tα(t′)dt′),fX(t)=α(t)e∫0tα(t′)dt′
α如果是const,服从指数分布,无后效性。
性质
E[X]=∫0∞xf(x)=θ1
Var[X]=θ21
Pr[X>s+t∣X>t]=Pr[X>s]
不论之前过去多长时间,再等待多长时间并不会因为之前的等待而发生变化。这里反直觉的地方在于:从整个概率分布来看,时间越长的概率就是更低的,那为啥等了这么长时间再等的概率和从头等一样呢?这是因为已经等待的时间已经发生了,不在有随机性,体现在公式上就是条件概率的那个分母。这就导致随机性完全体现在了接下来等待的时间上了。
一系列独立的指数分布,参数分别为θ1,...,θn,那么Pr[min(x1,x2,...,xn)]服从参数为∑iθi的指数分布。且Pr[min(x1,...,xn)=xi]=∑kθkθi
直观解释:指数分布的参数的含义是取值几乎为0的概率。那和明显谁的参数越大,谁越有可能取值几乎为0,而进一步的准确分析发现刚好是成正比的。
应用:有反馈的球和箱子
模型
假设两个箱子,里面球的数量是分别是x和y,下一个球落入两个箱子中的一个,概率为(xp+yp)xp,p>1
解释:这个模型适合解释垄断现象,比如电脑的操作系统,人们会根据周围人使用的情况来选择自己的型号,所以可以近似把他选择的看成是上面的分布。
分析
这个模型的分析思路是构造了一个精确模仿过程。考虑下面的过程
两个箱子,每一个箱子隔一段时间会到来一个球,时间的间隔服从指数分布,参数分别为xp,yp。那么按照前面成比例分配到定理,下一个进入第一个箱子等价于该箱子的时间间隔是最小间隔,那这个概率恰好是xp+ypxp,所以两个独立指数分布的相互作用恰好描述了一次球的到达分布。
接下来分析球落入过程是否存在极限。定义F1=∑iTi,那么E[F1]=E[∑iTi]=∑iE[Ti]=∑ii−p≤1+p−11,说明期望有限,这意味着极限情况下,球的数量不会无限制的增长。
此外,F1和F2以概率1不相同,这是因为假设F1=F2,那么 T1=∑2∞Ti−F2,因为T1的任何取值概率都为0,所以两者相等的概率也是0。
假设F1<F2,那一定存在一个n,F1<∑in+1Ui,也就是说,在2号箱子到达n个球之前,1号箱子可以得到无穷的球。这是因为1号箱子的期望时间有限,说明球会疯狂进入这个箱子,而2号拿不到比n个球更多的球了。
Poisson过程
定义
计数过程:N(t)满足如下三个条件
- N(0)=0
- limt→0Pr[N(t)=1]/t=λ
- limt→0Pr[N(t)≥2]=0
后两条的意思是,在一个极短的时间内,数字增加1的概率是确定的,而增加2或更多几乎不可能。
经过一系列推理,其实他分布刚好是一个possion分布
Pr[N(t+s)−N(s)=k]=e−λtk!(λt)k
补充一点和Poisson相关但和这块没太有关系的知识点
如果我们有一个随机变量Y,他服从的分布P是一个到达强度随机变化的分布,但是对一个确定的到达强度是服从Poisson的,设到达强度分布为f(x),假设我们可以观测到Y的数据从而估计P,如何倒推估计f呢?
P(Y)=∫0∞P(Y∣x)f(x)dx
对f(x),乘e−x后做傅立叶变换
F′(ω)=∫0∞e−xf(x)e−jωxdx,之后taylor展开
F′(ω)=∫0∞e−xf(x)∑k=0∞k!(−jωx)kdx,交换顺序
F′(ω)=∑k=0∞(−jω)k∫0∞e−xxk/k!f(x)dx,
发现刚好能凑出来一个poisson分布,然后积分完就是原始的P分布,所以
F′(ω)=∑k=0∞(−jω)kP(Y),通过观测可以把P估计出来,然后就能进一步估计出F′,再对F'做逆变换得到e−xf(x),再乘ex即可。
性质
考虑事件Xi表示从i-1增加到i的间隔时间。
那么Pr[X1>t]=Pr[N(t)=0]=e−λt, 所以Pr[X1<t]=1−e−λt
对于一般的i,Pr[Xt>ti∣X0=t0,X1=t1,...,Xi−1=ti−1]=Pr[N(∑kitk)−N(∑ki−1tk)=0]=e−λti
这也蕴含了他们之间是独立的。因为算Xi的时候其他的作为条件了但最后没有影响。
如果两个独立的poisson过程N1(t)和N2(t)求和,那么整体是一个服从λ1+λ2的poisson。
如果按照p的概率分解成两个,那两个新的possion过程竟然独立,而且参数是λp
当然从证明的角度可以从定义出发展开这些公式,但是从直观上感受一下,这一切的来源都是因为间隔时间是指数分布并且无记忆
Pr[X1<s∣N(t)=1]=ts 即,已知t时间内出现一个时间,那这个时间在s之前发生的概率刚好是时间的比值。
Pr[X1<s∣N(t)=1]=Pr[N(t)=1]Pr[X1<s,N(t)=1]=e−λtλtPr[N(t)−N(s)=0,N(s)=1]=e−λtλtPr[N(t)−N(s)=0]Pr[N(s)=1]=e−λtλte−λ(t−s)λse−λs=ts
这里利用了,N(t)−N(s)和N(s)的独立性
推广到n如果N(t)=n,那么n个到达时间与[0,t]上的n个均匀随机变量的顺序统计量同分布。
remark
性质1的计算从时间概率转移到计数概率上,而性质3的计算从计数概率转移到时间概率上。这种技巧很常用。
连续时间Markov过程
定义
关键是定义连续时间上的Markov Property:
Pr[X(s+t)∣X(u),∀u∈[0,t]]=Pr[X(s+t)∣X(t)]
表示
表示的思路肯定是利用之前的离散时间Markov Chain。那么怎么利用呢,把状态转移之间时间看作是一个连续的时间随机,而每一次状态转移和以前是一样的。所以定义如下:
- 状态转移的骨架:Pij表示从i转移到j的概率
- 参数向量:(θ1,...,θn),对应每个状态有一个指数分布,表示在状态i时,发生转移的时间间隔满足的分布。
平稳分布
定义πi=limtPji(t) .
那么考虑导数Pji′(t)=limh→0hPji(t+h)−Pji(t)=limh→0h∑kPjk(t)Pki(h)−Pji(t)
这里最后一个等号的意思是,把t+h的时间拆成两步,第一步是t时间,第二步是h的时间,然后假设在h这里发生转移是从任何一个概率走的。
Pji′(t)=limh→0(∑k=ihPki(h)Pjk(t)−h1−Pii(h)Pji(t))
对于hPki(h),h趋于0的时候表示在时间很短的时间发生转移并且从k转移到i的概率,这个按照定义就是θkpki,后面h1−Pii(h)这个注意1-P必须看成一个整体,因为1也在分子上。所以这个整体的含义是在极短的时间内,发生转移但没有留在i状态的概率,即θi(1−pii)。
所以最后Pji′(t)=∑kθkpkiπk−θiπi,平稳分布的话,t趋于无穷的时候导数为0,然后利用limtPji(t)=πi所以得到如下速度方程
πiθi=∑kπkθkpki
这个方程的含义,lhs表示离开i的速度,而rhs表示进入i的速度,动态平衡
两个排队论模型
排队论模型的公式一般表示为A/B/C/D,其中A是顾客到达的分布,B是顾客离开的分布,C是服务窗口数,D是队列的长度
顾客到来有3个动作,到达、进入、和离开。到达和进入的区别在于队列长度有限的时候,队列满了到达之后就不在进入了。
M/M/1
设M(t)表示队列长度随时间变化的随机过程,试分析其平稳分布,即limt→∞Pr[M(t)=k]∀k
先分析Pr[M(t)=0]=P0(t)的稳定分布,思路和前面一样,还是分析导数
P0′(t)=limhhP0′(t+h)−P0′(t)
之后就很神奇,还是把t+h的时间分成两段,在h这个极小的时间里,至多发生一次转移,所以在t+h变成0有两种可能,一种是本来就是0没发生转移(概率为P0(t)(1−λh)),一种是之前是1,转移到了0(概率为P1(t)μh),带入可得P0′(t)=−λP0(t)+μP1(t),两侧去极限可以得到关于平稳分布的方程,其他情况也类似。解方程组,并满足概率分布和为1,可得
πk=(1−μλ)(μλ)k
有了平稳分布可以求期望,这个期望是长度,所以用Length的L表示L=μ−λλ
等待时间用Waiting time是W表示。
W=∑k=0∞E[W∣L(k)]Pr[L(k)]
对于E[W∣L(k)]=(k+1)μ1,这是因为队列前面有k个人,算上我自己有k+1个人,每个人等待时间独立,然后期望时间μ,所以在到达时队列有k个人的时候,期望很容易。接下来分析Pr[L(k)]。这里用到了PASTA原则,即如果顾客到达满足poisson分布,那么他身处这个队列看到前面有k个人和外部观察这个队列有k个人的分布是一样的,这是因为Poisson分布的无记忆性,后面的人分布不受前面影响。所以Pr[L(k)]=πk。
因此,W=λL。
上面这个W和L的关系被称为Little结果,对任意稳定排队系统成立。
M/M/1/K
容量为K的分析和前面基本一致,递推方程组也是一样的,只是他最多只分析到K,然后可以得出分布列
πk=π0(λ/μ)k,π0=∑k(λ/μ)k1
M/M/∞
πk=k!e−λ/μ(λ/μ)k