BERT模型入门系列(四):Transformer模型详解

2,675 阅读7分钟

Transformer模型实在论文《Attention Is All You Need》里面提出来的,用来生成文本的上下文编码,传统的上下问编码大多数是由RNN来完成的,不过,RNN存在两个缺点:

一、计算是顺序进行的,无法并行化,例如:对于一个有10个单词的文本序列,如果我们要得到最后一个单词的处理结果,就必须要先计算前面9个单词的处理结果。

**二、RNN是顺序计算,存在信息的衰减,**所以很难处理相隔比较远的两个单词之间的信息,因此,RNN通常和attention相结合使用。

针对RNN的缺陷,《Attention Is All You Need》提出了Transformer模型解决这个问题。Transformer由多头注意力、位置编码、层归一化和位置前向神经网络等部分构成。

说得再多,还不如直接一幅图看起来清晰一些,来看一下Transformer的网络结构图。

Transormer和seq2seq模型一样,由Encoder和Decoder两大部分组成,其中左侧的是Encoder,右侧的是Decoder。模型主要由多头注意力和前馈神经网络组成。

这里有个关键的点--**位置编码。**使用RNN的进行处理的时候,每个输入天然存在位置属性,但这也是RNN的弊端之一。文本单词的排列与文本的语义有很大的关联,所以文本的位置是一个很重要的特征,因此,在Transformer模型里面,加入了位置编码来保留单词的位置信息。

下面,我们对Transformer里面的每一部分进行讲解:

编码(Encoder)部分:

一、多头注意力

多头注意力是Transformer模型的重要组成部分,通过下面的图,我们来看看多头注意力的结构

多头注意力是self-attention(自注意力)的拓展,对与self-attention不熟悉,可以参考self-attention详解 ,相对于self-attention,多头注意力再两个方面有所提高:

1、扩展了模型在文本序列不同位置的注意力能力。相对于self-attention,self-attention的最终输出中,包含了其他词的很少信息,其注意力权重主要由词语本身即query占主导位置。

2、赋予attention多种子表达方式。使用多头注意力机制,我们会有多组的Q、K、V参数矩阵(Transformer使用了8个heads,所以会有8组参数矩阵)。

我们一起来看看Transformer里的多头注意力机制是怎么计算的。

首先,会划分为8个heads,得到8组的Q、K、V参数矩阵

随后,我们要计算注意力权重,我们有8组矩阵,所以输出的注意里权重也有8个矩阵[公式]

在这里,问题来了,下一层的是一个前馈神经网络,只输入一个矩阵,但我们多头注意力机制输出了8个。所以,我们要把这8个矩阵压缩成一个矩阵。

这要怎么做呢?这个算法太精妙了,以至于我不得不把膝盖献给大佬们,

分为两个步骤

  1. [公式] 连接起来得到一个新的矩阵
  2. [公式] 连接得到的矩阵乘上一个参数权重矩阵 [公式] ,得到最终的输出结果 [公式]

最后,用一个图总结一下多头注意力的计算过程

二、位置编码(positional embedding)

前面已经说过,Transformer设计了位置编码(positional embedding)来保留单词的位置信息,每一个位置都会分配一个独特的位置编码,下面是以三角函数定义的一种位置编码:

[公式]

[公式]

其中, [公式] 代表文本序列中pos个位置的单词的位置编码第 [公式] 维分量的值。 其中, [公式] 表示当前词语再句子中的位置, [公式] 表示当前的向量中每个值的index

假设词的向量维度为4,那么实际的位置编码就是这样子的:

即在按照公式计算的得到Positional Encoding后,把positional Encoding和Embeding的值相加,作为下一层的输入。

三、层归一化(layer normalization)

神经网络的训练是具有高度的计算复杂性,为了减少训练的时间成本,加快网络的收敛速度,可以采用的方法是层归一化(layer normalization)。

层归一化操作会对一层的输入 [公式] 进行归一化操作得到 [公式] 。计算层归一化的操作公式如下:

[公式]

[公式]

其中, [公式] 为参数, [公式] 为非线性函数

在transformer的Encoder的网络架构里面,还有一个我们需要注意的细节。在Encoder的每一个子层(self-attention、ffnn)里面都有一个残差连接(residual connection),残差连接会将网络层的输入和输出进行相加。

把self-attention、层次归一化、残差连接的计算细节和相互之间的联系更进一步展示,可以如下图所示:

Decoder里面的子网络层也是由self-attention、层次归一化、残差连接组成的,而Transformer主要由Encocder和Decoder两部分构成。那么,Transformer的内部细节就可以如下图所示:

二、解码(Decoder)部分

现在我们已经了解了Encoder的各个组成部分和相关的概念/。Decoder的组成部分也和Encoder类似,所以我们也基本上 知道了Decoder的组成部分,我们来看看他们整体的工作流程是怎么样的。

输入的文本经过Embeding、positional Embeding后,输入到encoder进行处理。在最后,顶端的encoder会输出一组attention的 [公式] 向量,这个向量会在解码器中使用,帮助解码器关注输入文本的合适位置。

解码的步骤如下图所示,图中的这个步骤会一直重复,直到遇到终止符。在解码过程中,每次当前解码的输出都会作为下一次解码的输入。在Encoder 中,positional encoding会和词的Embeding相加作为下一层的输入,在Decoder里也一样,每个词的positional encoding也会和相应的embeding相加作为Decoder输入。

Mask

mask表示掩码。即对某些值进行掩盖,不参与计算,不会对参数更新产生效果。Decoder计算注意力的时候,为了让decoder不能看到未来的信息,需要把未来的信息隐藏。例如在 time_step 为 t 的时刻,解码计算attention的时候应该只能依赖于 t 时刻之前的输出,而不能依赖 t 之后的输出。因此需要想一个办法,把 t 之后的信息给隐藏起来。这就是mask的作用。

具体的办法是在计算attention步骤中,在计算softmax之前,在这些位置加上一个非常打的负数(-INF),这样,经过softmax这些位置的概率会接近0。

Linear和softmax

Decoder最终输出的结果是一个浮点型数据的向量,我们要如何把这个向量转为一个单词呢?这个就是Linear和softmax要做的事情了。

Linear层是一个全连接的神经网络,输出神经元个数一般等于我们的词汇表大小。Decoder输出的结果会输入到Linear层,然后再用softmax进行转换,得到的是词汇表大小的向量,向量的每个值对应的是当前Decoder是对应的这个词的概率,我们只要取概率最大的词,就是当前词语Decoder的结果了。

Transformer的主要模块和相关工作原理都已经讲完了,希望对你有所帮助,毛主席说:实践是检验真理的唯一标准,代码是学习算法的最佳资料,(我说的),下一篇我们来认真分析一下transformer的模型的实现代码,然后再使用一下transformer模型,来进一步理解模型的原理。

码字不易,如果对你有帮助,希望能给个赞,鼓励我一下~^_^

参考

terrifyzhao.github.io/2019/01/11/…

medium.com/inside-mach…

jalammar.github.io/illu