伯禹《动手学深度学习》打卡博客:Task03+Task04

量太大了,我先挑几个我感兴趣的学一下,漏下的等有空再补上了

文章目录

循环神经网络

参考博客:零基础入门深度学习(5) - 循环神经网络
1.循环神经网络最大的用处就是处理序列的信息,即前面和后面的输入是有关系的,比如理解一句话的意思,以及处理视频

2.语言模型:给定一句话前面的成分,预测接下来最有可能的一个词是什么

3.下面是一个简单的RNN模型示意图,它由输入层、隐藏层和输出层组成
伯禹《动手学深度学习》打卡博客:Task03+Task04
4.全连接层:该层的每个节点都和隐藏层的每个节点相连

5.循环神经网络展开后如下:
伯禹《动手学深度学习》打卡博客:Task03+Task04
其中U,V,W都是权重矩阵,st是第t层隐藏层的值
我们来分析一下,第t层隐藏层的值st和输出ot:
ot=g(Vst)
st=f(Uxt+Wst-1)

6.双向循环神经网络:
伯禹《动手学深度学习》打卡博客:Task03+Task04
在这张图中,y是输出,A是正向隐藏层的值,A‘是反向隐藏层的值,同样,我们来分析一下第t层隐藏层的值st和输出ot:
ot=g(Vst+V’s’t)
st=f(Uxt+Wst-1)
st=f(U’xt+W’st-1)

7.深度循环神经网络:
伯禹《动手学深度学习》打卡博客:Task03+Task04
其中,设每一层隐藏层的隐藏单元个数为h,xt\in Rn×d,n个样本,d个输入单元,
记Wxh(i)为横向传播的权重参数,即从H(i-1)到H(i)的传播权重;
记Whh(i)为纵向传播的权重参数,即从Ht-1到Ht的传播权重;
所以有:
Ht(l)=Φ\Phi(H(l-1)tWxh(l)+Ht-1(l)Whh(l))
横向就是隐藏层数(上标l)增加,纵向就是时间点(下标t)增加