门控循环单元 GRU

GRU,Gate Recurrent Unit,是循环神经网络RNN的一种。

和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。

 

 

GRU和LSTM在很多情况下实际表现上相差无几,那么为什么我们要使用新人GRU(2014年提出)而不是相对经受了更多考验的LSTM(1997提出)呢?

         我们在我们的实验中选择GRU是因为它的实验效果与LSTM相似,但是更易于计算。

         相比LSTM,使用GRU能够达到相当的效果,并且相比之下更容易进行训练,能够很大程度上提高训练效率,因此很多时候会更倾向于使用GRU。

 

GRU的结构

GRU的表达式

门控循环单元 GRU

 

GRU 有两个有两个门,即一个重置门(reset gate)和一个更新门(update gate)

从直观上来说,重置门决定了如何将新的输入信息与前面的记忆相结合,更新门定义了前面记忆保存到当前时间步的量

如果我们将重置门设置为 1,更新门设置为 0,那么我们将再次获得标准 RNN 模型。使用门控机制学习长期依赖关系的基本思想和 LSTM 一致,但还是有一些关键区别:

  • GRU 有两个门(重置门与更新门),而 LSTM 有三个门(输入门、遗忘门和输出门)。
  • GRU 并不会控制并保留内部记忆(c_t),且没有 LSTM 中的输出门。
  • LSTM 中的输入与遗忘门对应于 GRU 的更新门,重置门直接作用于前面的隐藏状态。
  • 在计算输出时并不应用二阶非线性。

 

GRU的输入输出结构

门控循环单元 GRU

门控循环单元 GRU

 

单个门控单元的具体结构

门控循环单元 GRU

 

 

https://www.jiqizhixin.com/articles/2017-12-24