HMM 词性标注(HMM Part-of-Speech Tagging)

985 阅读8分钟

「这是我参与11月更文挑战的第1天,活动详情查看:2021最后一次更文挑战

[本文为《 Speech and Language Processing 》8.4翻译 同时加入了一些些译者自己的思考]

一、马尔可夫链

马尔可夫假设(Markov assumption):当预测未来时,过去并不重要,只有现在才重要。

P(qi=aq1...qi1)=P(qi=aqi1)(8.3)P(q_i = a|q_1...q_{i-1}) = P(q_i = a|q_{i−1})\qquad(8.3)

一个马尔可夫链主要由以下几部分组成:

公式备注
Q = q1q2...qNq_1q_2 ...q_NN个状态的集合
A = a11a12...aN1...aNNa_{11}a_{12} ...a_{N1} ...a_{NN}A表示转移概率矩阵,aija_{ij}代表从状态i到状态j的可能性
π=π1,π2,...,πNπ = π_1,π_2,...,π_N状态所服从的初始概率分布,πiπ_i表示马尔可夫链在状态i开始的概率。如果有些状态j的πj=0π_j=0,则说明这些状态不可能作为马尔可夫链的初始状态o, i=1nπi=1\sum_{i=1}^{n}π_i=1

举例:天气事件序列

image.png

state=[hot、cold、warm]
π = [0.1, 0.7, 0.2]    //表示马尔可夫链初始状态是状态1(hot)的可能性为0.1

转移矩阵A: | state (i \ j)|hot |cold|warm| | --- | --- ||--- | --- | | hot | 0.6 || 0.1| 0.3 | | cold| 0.1 ||0.8 | 0.1 | | warm | 0.3 ||0.1 | 0.6 |

Q:请使用如上的概率来计算以下每个序列的概率

hot hot hot hot

cold hot cold hot

二、隐马尔可夫模型(The Hidden Markov Model

我们可以很方便的用马尔可夫链来计算一个观察事件序列的概率,但是在有些情况下,我们所感兴趣的事情是隐藏的,我们不能直接观察出来,比如在文本中,我们能够直接观察到单词,但是我们无法直接得知单词的词性标签,必须从单词的序列中推断出单词的标签,我们称这些标签为隐藏的,因为他们无法被直接观察到,

隐马尔可夫模型同时支持可观察事件(如我们在输入中看到的词) 和我们认为在概率模型中具有因果关系的隐藏事件(如词性标签)

2.1 HMM组成部分

HMM由以下几个部分组成:

公式备注
Q = q1q2...qNq_1q_2 ...q_NN个状态的集合
A = a11a12...aN1...aNNa_{11}a_{12} ...a_{N1} ...a_{NN}A(transition probability matrix)表示转移概率矩阵,aija_{ij}代表从状态i到状态j的可能性,使得对任意i来说, j=1naij=1\sum_{j=1}^{n}a_{ij}=1
O=o1o2...oTO = o_1o_2 ...o_T由T个观察值组成的序列,每个观察值都来源于一个脑信号数字
B=bi(ot)B = b_i(o_t)观察值似然序列,也称为发射概率(emission probabilities),代表了从状态 qiq_i 能产生观察值 oto_t 的概率
π=π1,π2,...,πNπ = π_1,π_2,...,π_N状态所服从的初始概率分布,πiπ_i表示马尔可夫链在状态i开始的概率。如果有些状态j的πj=0π_j=0,则说明这些状态不可能作为马尔可夫链的初始状态o, i=1nπi=1\sum_{i=1}^{n}π_i=1

一阶隐性马尔可夫模型包含两个简化的假设 词汇表V=v1,v2,...,vVV = v_1, v_2,..., v_V

  1. 与一阶马尔可夫链一样,一个特定状态的概率只取决于前一个状态:

P(qiq1qi1)=P(qiqi1)(8.6)P(q_i | q_1 \ldots q_{i-1}) = P(q_i | q_{i-1})\qquad(8.6)

  1. 一个输出观察值 oio_i 的概率只取决于产生该观察值的状态 qiq_i ,而不取决于任何其他状态和其他观察值: P(oiq1,,qi,,qT,o1,,oi,,oT)=P(oiqi)(8.7)P(o_i | q_1, \ldots, q_i, \ldots, q_T, o_1, \ldots, o_i, \ldots, o_T) = P(o_i | q_i)\qquad(8.7)

2.2 HMM标注器组件

HMM有两个组件:矩阵A和矩阵B

矩阵A:标签转移概率 P(titi1)P(t_i|t_{i-1}),表示在给定前一个标签的情况下,出现当前标签的可能性。例如,情态动词后面很可能是一个基本形式的动词,即 VB,如 race,所以我们会期望这种概率会很高。我们通过统计一个语料库中第一个和第二个出现的次数,来计算这个转移概率的最大似然估计。

P(titi1)=C(ti1,ti)C(ti1)(8.8)P(t_i|t_{i-1}) = \dfrac{C(t_{i-1}, t_i)}{C(t_{i-1})}\qquad(8.8)

词性标记集: www.ibm.com/docs/zh/wca…

例如,在 WSJ 语料库中,MD 出现了 13124 次,其中后面跟着 VB 的情况出现了 10471 次,所以其 MLE 估计为

P(VBMD)=C(MD,VB)C(MD)=1047113124=0.80(8.9)P(VB|MD) = \dfrac{C(MD, VB)}{C(MD)}=\dfrac{10471}{13124}=0.80\qquad(8.9)

词性标注任务举例

在 HMM 标注中,概率是通过统计标注训练语料库来估计的。在这个例子中,我们将使用标注好的 WSJ 语料库。

发射概率 BBP(witi)P(w_i|t_i),表示给定一个标签tit_i(例如 MD),其对应词是某个给定词wiw_i(如 will)的概率。该发射概率的 MLE 是

P(witi)=C(ti,wi)C(ti)(8.10)P(w_i|t_i) = \dfrac{C(t_i, w_i)}{C(t_i)}\qquad(8.10)

在 WSJ 语料库中出现的 13124 次 MD 中,其对应词是 will 的有 4046次:

P(willMD)=C(MD,will)C(MD)=404613124=0.31(8.11)P(will|MD) = \dfrac{C(MD, will)}{C(MD)}=\dfrac{4046}{13124}=0.31\qquad(8.11)

请记住,这个似然项不是在问“will 这个词最可能的标签是什么?” 那将是后验概率 P(MDwill)P(MD|will),相反P(willMD)P(will|MD) 回答的是一个略显反常的问题:“如果我们要生成一个 MD,那么这个情态动词有多大可能是 will?”

如图

image.png

类比马尔可夫链,这里有三个状态VB(动词)、MD(情态动词)、NN(名词),观察值oio_i表示的是词,如"will"、"back"等 、如图可看出转移概率矩阵AA和观察值似然BB

对于包含隐藏变量的模型,如HMM,解码指的就是确定与观察值序列相对应的隐藏值序列的任务,即

解码:给定一个 HMM λ=(A,B)\lambda = (A, B) 和一个观察值序列 O=o1,o2,,oTO = o_1, o_2, \ldots, o_T 作为输入,找出最有可能的状态序列 Q=q1q2q3qTQ = q_1 q_2 q_3 \ldots q_T

对于词性标注,HMM 解码的目标给定 nn 个词的序列 w1wnw_1 \ldots w_n,选择最有可能的标签序列 t1tnt_1 \ldots t_n

t^1:n=arg maxt1tnP(t1tnw1wn)(8.12)\hat{t}_{1:n} = \argmax_{t_1 \ldots t_n} P(t_1 \ldots t_n | w_1 \ldots w_n)\qquad(8.12)

我们在 HMM 中实际会使用贝叶斯法则来计算:

t^1:n=arg maxt1tnP(w1wnt1tn)P(t1tn)P(w1wn)(8.13)\hat{t} _{1:n} = \argmax_{t_1 \ldots t_n} \dfrac{P(w_1 \ldots w_n | t_1 \ldots t_n) P(t_1 \ldots t_n)}{P(w_1 \ldots w_n)}\qquad(8.13)

我们继续简化上一个公式,直接去掉分母 P(w1n)P(w_1^n)(Luna:因为我们已知这个单词序列,所以它的可能性为1,可以直接去掉)

t^1:n=arg maxt1tnP(w1wnt1tn)P(t1tn)(8.14)\hat{t} _{1:n} = \argmax_{t_1 \ldots t_n} {P(w_1 \ldots w_n | t_1 \ldots t_n) P(t_1 \ldots t_n)}\qquad(8.14)

HMM标注器又做了两个简化:

  1. 一个词出现的概率只取决于它自己标签的概率,而与它相邻的词没有关系

P(w1wnt1tn)i=1nP(witi)(8.15)P(w_1 \ldots w_n | t_1 \ldots t_n) \approx \prod_{i=1}^n P(w_i | t_i) \qquad(8.15)

  1. 一个标签出现的概率只取决于它前一个标签,而与整个标签序列无关

P(t1tn)i=1nP(titi1)(8.16)P(t_1 \ldots t_n) \approx \prod_{i=1}^n P(t_i | t_{i-1})\qquad(8.16)

由这两个简化我们可以得出从二元组标注器得到最有可能的标签序列公式:

t^1:n=arg maxt1tnP(t1tnw1wn)arg maxt1tni=1nP(witi)发射概率P(titi1)转移概率(8.17)\hat{t} _{1:n} = \argmax_{t_1 \ldots t_n} P(t_1 \ldots t_n | w_1 \ldots w_n) \approx \argmax_{t_1 \ldots t_n} \prod_{i=1}^n \overbrace{P(w_i|t_i)}^{发射概率} \overbrace{P(t_i|t_{i-1})}^{转移概率}\qquad(8.17)

2.3 维特比算法(The Viterbi Algorithm)

HMM 的解码算法是如下图所示的维特比(Viterbi)算法。作为动态规划的一个例子,Viterbi 算法类似于slp3第二章的动态规划最小编辑距离算法。

image.png

Viterbi 算法首先建立一个概率矩阵或者叫网格lattice),其中每列为每个观察值 oto_t,每行为状态图中的每个状态。因此,在单个组合自动机中,每列(观察值oto_t)对于每个状态 qiq_i 都有一个单元格。下图显示了 Janet will back the bill 这个句子对应的网格 lattice。

网格中的每个单元格,vt(j)v_t(j),表示给定的 HMM λ\lambda 在“看到”前 tt 个观测值,并通过最可能的状态序列 q1,,qt1q_1, \ldots, q_{t-1} 后,处于状态 jj 的概率。每个单元格 vt(j)v_t(j) 的值都是通过递归的方式计算的,即每次都取到达该单元格的最可能的路径。从形式上看,每个单元格表示的概率是

vt(j)=maxq1,,qt1P(q1qt1,o1,o2ot,qt=jλ)(8.18)v_t(j) = \max_{q_1, \ldots, q_{t-1}} P(q_1 \ldots q_{t-1}, o_1, o_2 \ldots o_t, q_t = j | \lambda)\qquad(8.18)

我们通过在前面所有可能的状态序列中取最大值 maxq1,,qt1\max_{q_1, \ldots, q_{t-1}} 来表示最可能的路径。像其他动态规划算法一样,Viterbi 算法递归地填充每个单元格。鉴于我们已经计算出了在时间 t1t-1 时处于每个状态的概率,所以我们可以取到达当前单元格的所有扩展路径中的概率最大值作为当前时间 tt 的概率值。对于在时间 tt 时的给定状态 qjq_j,其值 vt(j)v_t(j) 的计算方法是

vt(j)=maxi=1Nvt1(i)aijbj(ot)(8.19)v_t(j) = \max_{i=1}^N v_{t-1}(i) a_{ij} b_j(o_t) \qquad(8.19)

公式备注
vt1(i)v_{t-1}(i)前一个时刻的Viterbi 路径概率
aija_{ij}前一个状态 qiq_i 到当前状态 qjq_j 的转移概率
bj(ot)b_j(o_t)给定当前状态 jj,观察值 oto_t 的状态观察值似然

举例:Janet will back the bill,目标是得到正确的标签序列:

Janet/NNP will/MD back/VB the/DT bill/NN

image.png

上图(8.11)显示了每个单词可能的标签,并从这些隐藏状态中突出展示了句子对应的正确的词性序列。并且把词性(状态)被实现为单词(观测值)概率为0的状态用灰色展示(比如DT不可能->Janet)

那么接下来我们来具体分析:

图8.12表示状态之间的转移概率aija_{ij}矩阵:

image.png

即前一个时刻是MD后一个时刻是VB的可能性是0.7968

P(VBMD)=0.7968P(VB|MD)=0.7968

图8.13表示bi(ot)b_i(o_t) 概率,即给定标签时观察值的似然

image.png

image.png 图8.14是图8.11的详细版本,即用于计算观察值序列“Janet will back the bill”的最佳隐藏状态序列的 Viterbi 网格。

N=5N=5 个状态列。我们从第 1 列(对应于词 Janet)开始,将每个单元格的 Viterbi 值设置为转移概率 π\pi(状态 ii 的初始概率,我们可以从图 8.12 的 <s> 项中得到)即P(NNPstart)=0.2767P(NNP|start)=0.2767(标签NNP作为start的概率是0.2767),以及我们可以看到给定该单元格标签时,词 Janet 的观察值似然值。这一列中的大部分单元格都是零v1(7)=P(JanetDT)=0v_1(7)=P(Janet|DT)=0,因为 Janet 这个词不可能是这些标签中的任何一个。读者应该可以在图 8.14 中看到这一点。

接下来,更新 will 列中的每个单元格。对于每个状态,我们根据公式 8.19 来计算 viterbi[s,t]viterbi[s,t],取前一列中通往当前单元的所有路径的扩展值的最大值。我们已经给出了 MD、VB 和 NN 单元格的值。每个单元格都取前一列 7 个单元格的最大值,再乘以相应的转移概率;在这个例子中,它们中的大多数都是零。然后再乘以相应的观察值概率,并取其中最大值。在这个例子中,最终的数值(译者注:即最大值),2.772e-8,来自前一列的 NNP 状态。读者可以继续完成图 8.14 中剩余的单元格,并回溯看看 Viterbi 算法是否返回了正确的状态序列 NNP MD VB DT NN。