LSTMs
RNN具有长期依赖问题(Long-Term Dependencies) RNN 会受到短时记忆的影响。如果一条序列足够长,那它们将很难将信息从较早的时间步传送到后面的时间步。
如果你正在尝试处理一段文本进行预测,RNN 可能从一开始就会遗漏重要信息。在反向传播期间(反向传播是一个很重要的核心议题,本质是通过不断缩小误差去更新权值,从而不断去修正拟合的函数),RNN 会面临梯度消失的问题。
因为梯度是用于更新神经网络的权重值(新的权值 = 旧权值 - 学习率*梯度),梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。
在递归神经网络中,获得小梯度更新的层会停止学习—— 那些通常是较早的层。 由于这些层不学习,RNN会忘记它在较长序列中以前看到的内容,因此RNN只具有短时记忆
LSTM定义
长短期记忆网络(Long Short Term Memory networks)
它们可以学习只保留相关信息来进行预测,并忘记不相关的数据。简单说,因记忆能力有限,记住重要的,忘记无关紧要的。
LSTM通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是LSTM的默认行为,而非需要付出很大代价才能获得的能力!
LSTMs核心架构
单元状态(cell state)
LSTM 的关键是单元状态,即贯穿图顶部的水平线。
单元状态可以一层一层的线性传递下去,同时可以通过各种称为门的结构来调节。门是一种选择性的让信息通过的方式,它们由sigmoid神经网络层和逐点乘法运算组成。
sigmoid 层输出介于 0 和 1 之间的数字,描述每个组件应允许多少通过。值 0 表示“不让任何内容通过”,而值 1 表示“让所有内容通过。
LSTMs有3个门来保护和控制单元状态!
普通LSTMs的门结构
遗忘门(forget gate layer)
LSTM 的第一步是决定要从 cell 状态中丢弃哪些信息。这个决定是由一个称为 “forget gate layer” 的 sigmoid 层做出的。
注意:其中W_f并不共享,上式可以写成f_t=\sigma(W_{f_h}h_{t-1}+W_{f_x}x_t+b_f)
输入门(input gate layer)
下一步是决定我们将在 cell state 中存储哪些新信息。这分为两部分。首先,一个名为 “input gate layer” 的 层决定了我们将更新哪些值。接下来, 层创建一个新候选值的向量,该向量可以添加到状态中。在下一步中,我们将把这两者结合起来,创建对状态的更新。
我们将旧状态乘以,忘记了我们之前决定忘记的事情。然后我们添加。这是新的候选值,根据我们决定更新每个 state 值的程度进行缩放。
输出门(output gate layer)
最后,我们需要决定要输出什么。此输出将基于我们的 cell 状态,但将是过滤版本。首先,我们运行一个 sigmoid 层,它决定我们要输出的 cell state 的哪些部分。然后,我们将单元状态通过 tanh(以将值推到-1和1之间) 并将其乘以 sigmoid 门的输出,以便我们只输出我们决定的部分。
LSTMs变体
窥视孔链接(peephole connections)
让 gate layers 查看单元cell状态。
耦合门
耦合的 forget 和 input 门。我们不是单独决定要忘记什么以及应该添加新信息什么,而是一起做出这些决定。我们只会在它的位置上输入一些东西。我们只在忘记旧值时向 state 输入新值。
GRU
LSTM 的一个稍微更引人注目的变化是由 Cho 等人(2014 年)引入的门控循环单元或 GRU(Gated Recurrent Unit)。它将 forget 和 input 门合并到一个 “update gate” 中。它还合并了 cell 状态和 hidden 状态,并进行了一些其他更改。生成的模型比标准 LSTM 模型更简单,并且越来越受欢迎。
和都是对做的sigmoid非线性映射,那区别在哪呢?原因在于GRU把忘记门和输入门合二为一了,而是属于要记住的,反过来则是属于忘记的,相当于对输入做了一些更改,而则相当于先见之明的把输入在对其做更改之前,先实现存一份原始的,最终在上做一个变化。
缺点
另外需要强调的是LSTM搞的这么复杂,除了在结构上天然地克服了梯度消失的问题,更重要的是具有更多的参数来控制模型;通过四倍于RNN的参数量,可以更加精细地预测时间序列变量。
此外,我记得有一篇文章讲到,LSTM 在 200左右长度的文本上,就已经捉襟见肘了。