TensorFlow NMT的词嵌入(Word Embeddings)

1,003 阅读13分钟

声明:本文由 罗周杨 stupidme.me.lzy@gmail.com 原创,未经授权不得用于商业用途

自然语言处理的第一步,就是要将文本表示成计算机能理解的方式。我们将长文本分词之后,得到一个词典,对于词典中的每一个词,我们用一个或者一组数字来表示它们。这样就实现了我们的目标。

Embedding(词嵌入)到底是什么

首先,Embedding词嵌入,它的作用是什么呢?很简单,将文本信息转化成数字。因为计算机无法直接处理文字,所以我需要 将文字转化成数字这一个技术。

文字转化成数字不是很简单吗?最简单的,对于每一个词,我们都给一个整数进行表示,这样不就可以了吗?更进一步,对于每一个词,我们都给定一个定长的向量,让某一个位置(可以是前面的整数表示),使这个位置的值为1,其余位置为0。也就是说,假设我们有1000个词,那么我们对于每一个词,都写成一个1000个元素的列向量,每个向量里,只有一个位置的值是1,其余位置都是0,比如:

  • hello --> [1,0,0,0,…,0]

  • world --> [0,1,0,0,…,0]

实际上,上面这种编码就是 one-hot编码,翻译过来就是 独热编码

但是我们的Embedding并不是这样做的,为什么呢?主要原因就是上述 one-hot编码有以下几个严重的缺点:

  • 维度爆炸,如果我有30万个词,那么每一个词就需要[1,300000]的向量表示。词越多,维度越高

  • 无法表示词语之间的关系。

也就是说,我们的 Embedding需要解决以上问题,那么怎么办呢?也很简单:

  • 对于每一个词,我们使用一个固定长度的向量来表示,比如长度为256

  • 对于每一个的表示,不是使用非0即1这种表示,我们使用浮点数,向量的每一个值都可以是一个浮点数

这样以来,上述两个问题也就解决了。

实际上,你肯定发现了一个问题,我们这写词语的数字表示组成的矩阵,所有的值都是可以变化的,那么这个变化到底该怎么变呢?这是一个很关键的问题!

答案是:我们这个矩阵,实际上就是一个浅层的神经网络,模型训练过程中,会自动更新这些值!等模型训练好了,我们的词语数字矩阵的值也就确定下来了。那么,如果我们把这个矩阵的值,保存下来,下次不让模型训练了,直接加载,这样可以吗?

答案是:当然可以!。这样做还可以减少训练参数的个数,从而减少训练时间呢!实际上,tensorflow/nmt项目有一个参数--embed_prefix指的就是这个所谓的矩阵的值保存的文件!

这就是 Embedding所有的秘密,一点都不玄乎对不对?

NMT项目中Embedding的构建过程

TensorFlow NMT的词嵌入代码入口位于nmt/model.py文件,BaseModel有一个init_embeddings()方法,NMT模型就是在此处完成词嵌入的初始化的。

根据上面的介绍,我们知道,有两种方式构建Embedding:

  • 从已经训练好的文件(embed_file)直接加载

  • 构建一个矩阵,让模型自己训练

接下来,分别介绍一下这两种方式在tensorflow/nmt项目中的构建过程。

从超参数获取需要的参数

需要做词嵌入,则首先要获取需要的信息。比如词典文件,或者说词嵌入文件(如果已经有训练好的词嵌入文件的话)。这些信息,都是通过超参数hparams这个参数传递过来的。主要的参数获取如下:

 1    def _init_embeddings(self, hparams, scope): 2        # 源数据和目标数据是否使用相同的词典 3        share_vocab = hparams.share_vocab 4        src_vocab_size = self.src_vocab_size 5        tgt_vocab_size = self.tgt_vocab_size 6        # 源数据词嵌入的维度,数值上等于指定的神经单元数量 7        src_embed_size = hparams.num_units 8        # 目标数据词嵌入的维度,数值上等于指定的神经单元数量 9        tgt_embed_size = hparams.num_units10        # 词嵌入分块数量,分布式训练的时候,需要该值大于111        num_partitions = hparams.num_embeddings_partitions12        # 源数据的词典文件13        src_vocab_file = hparams.src_vocab_file14        # 目标数据的词典文件15        tgt_vocab_file = hparams.tgt_vocab_file16        # 源数据已经训练好的词嵌入文件17        src_embed_file = hparams.src_embed_file18        # 目标数据已经训练好的词嵌入文件19        tgt_embed_file = hparams.tgt_embed_file2021        # 分块器,用于分布式训练22        if num_partitions <= 1:23            # 小于等于1,则不需要分块,不使用分布式训练24            partitioner = None25        else:26            # 分块器也是一个张量,其值大小和分块数量一样27            partitioner = tf.fixed_size_partitioner(num_partitions)2829        # 如果使用分布式训练,则不能使用已经训练好的词嵌入文件30        if (src_embed_file or tgt_embed_file) and partitioner:31            raise ValueError(32                "Can't set num_partitions > 1 when using pretrained embedding")

参数的意义我已经写在注释里面了。  获取到这些参数之后,我们就可以创建或者加载词嵌入的矩阵表示了。

创建或者加载词嵌入矩阵

根据超参数,如果提供了预训练的词嵌入文件,则我们只需要根据词典,将词典中的词的嵌入表示,从词嵌入文件取出来即可。如果没有提供预训练的词嵌入文件,则我们自己创建一个即可。

 1        # 创建词嵌入的变量域 2        with tf.variable_scope(scope or "embeddings", dtype=tf.float32, partitioner=partitioner) as scope: 3            # 如果共享词典 4            if share_vocab: 5                # 检查词典大小是否匹配 6                if src_vocab_size != tgt_vocab_size: 7                    raise ValueError("Share embedding but different src/tgt vocab sizes" 8                                     " %d vs. %d" % (src_vocab_size, tgt_vocab_size)) 9                assert src_embed_size == tgt_embed_size10                vocab_file = src_vocab_file or tgt_vocab_file11                embed_file = src_embed_file or tgt_embed_file12                # 如果有训练好的词嵌入模型,则直接加载,否则创建新的13                embedding_encoder = self._create_or_load_embed(14                    "embedding_share", vocab_file, embed_file,15                    src_vocab_size, src_embed_size, dtype=tf.float32)16                embedding_decoder = embedding_encoder17            # 不共享词典的话,需要根据不同的词典创建对应的编码器和解码器18            else:19                # 加载或者创建编码器20                with tf.variable_scope("encoder", partitioner=partitioner):21                    embedding_encoder = self._create_or_load_embed(22                        "embedding_encoder", src_vocab_file, src_embed_file,23                        src_vocab_size, src_embed_size, tf.float32)24                # 加载或创建解码器25                with tf.variable_scope("decoder", partitioner=partitioner):26                    embedding_decoder = self._create_or_load_embed(27                        "embedding_decoder", tgt_vocab_file, tgt_embed_file,28                        tgt_vocab_size, tgt_embed_size, tf.float32)29            self.embedding_encoder = embedding_encoder30            self.embedding_decoder = embedding_decoder

如你所见,在获取词嵌入表示之前,有一个share_vocab的判断。这个判断也很简单,就是判断源数据和目标数据是否使用相同的词典,不管是不是share_vocab,最后都需要创建或者加载词嵌入表示。这个关键的过程在_create_or_load_embed()函数中完成。  该函数的主要工作如下:

 1    def _create_or_load_embed(self, embed_name, vocab_file, embed_file, vocab_size, embed_size, dtype=tf.float32): 2        # 如果提供了训练好的词嵌入文件,则直接加载 3        if vocab_file and embed_file: 4            embedding = self._create_pretrained_emb_from_txt(vocab_file, embed_file) 5        else: 6            # 否则创建新的词嵌入 7            with tf.device(self._get_embed_device(vocab_size)): 8                embedding = tf.get_variable( 9                    embed_name, [vocab_size, embed_size], dtype)10        return embedding

加载预训练的词嵌入表示

如果超参数提供了embed_file这个预训练好的词嵌入文件,那么我么只需要读取该文件,创建出词嵌入矩阵,返回即可。  主要代码如下:

 1    def _create_pretrained_emb_from_txt(self, vocab_file, embed_file, 2                                        num_trainable_tokens=3, dtype=tf.float32, scope=None): 3        """ 4        从文件加载词嵌入矩阵 5        :param vocab_file: 词典文件 6        :param embed_file: 训练好的词嵌入文件 7        :param num_trainable_tokens:词典文件前3个词标记为变量,默认为"<unk>","<s>","</s>" 8        :param scope: 域 9        :return: 词嵌入矩阵10        """11        # 加载词典12        vocab, _ = vocab_utils.load_vocab(vocab_file)13        # 词典的前三行会加上三个特殊标记,取出三个特殊标记14        trainable_tokens = vocab[:num_trainable_tokens]1516        utils.print_out("# Using pretrained embedding: %s." % embed_file)17        utils.print_out("  with trainable tokens: ")1819        # 加载训练好的词嵌入20        emb_dict, emb_size = vocab_utils.load_embed_txt(embed_file)21        for token in trainable_tokens:22            utils.print_out("    %s" % token)23            # 如果三个标记不在训练好的词嵌入中24            if token not in emb_dict:25                # 初始化三个标记为0.0,维度为词嵌入的维度26                emb_dict[token] = [0.0] * emb_size2728        # 从训练好的词嵌入矩阵中,取出词典中的词语的词嵌入表示,数据类型为tf.float3229        emb_mat = np.array(30            [emb_dict[token] for token in vocab], dtype=dtype.as_numpy_dtype())31        # 常量化词嵌入矩阵32        emb_mat = tf.constant(emb_mat)33        # 从词嵌入矩阵的第4行之后的所有行和列(因为num_trainable_tokens=3)34        # 也就是说取出除了3个标记之外所有的词嵌入表示35        # 这是常量,因为已经训练好了,不需要训练了36        emb_mat_const = tf.slice(emb_mat, [num_trainable_tokens, 0], [-1, -1])37        with tf.variable_scope(scope or "pretrain_embeddings", dtype=dtype) as scope:38            with tf.device(self._get_embed_device(num_trainable_tokens)):39                # 获取3个标记的词嵌入表示,这3个标记的词嵌入是可以变的,通过训练可以学习40                emb_mat_var = tf.get_variable(41                    "emb_mat_var", [num_trainable_tokens, emb_size])42        # 将3个标记的词嵌入和其余单词的词嵌入合并起来,得到完整的单词词嵌入表示43        return tf.concat([emb_mat_var, emb_mat_const], 0)

处理过程,我已经在注释里面写得很清楚了。接下来看看新创建词嵌入表示的过程。

重新创建词嵌入表示

这个过程其实很简单,就是创建一个可训练的张量而已:

1with tf.device(self._get_embed_device(vocab_size)):2    embedding = tf.get_variable(embed_name, [vocab_size, embed_size], dtype)  

该张量的名字就是embed_name,shape即[vocab_size, embed_size],其中vocab_size就是词典的大小,也就是二维矩阵的行数, embed_size就是词嵌入的维度,每个词用多少个数字来表示,也就是二维矩阵的列数。该张量的数据类型是单精度浮点数。当然,tf.get_variable()方法还有很多提供默认值的参数,其中一个就是 trainable=True,这代表这个变量是可变的,也就是我们的词嵌入表示在训练过程中,数字是会改变的。

这样就完成了词嵌入的准备过程。