Part 1(四)深层神经网络
4.1 深层神经网络
我们说logistic回归是一个浅层模型,当我们数一个网络有多少层的时候,我们不用数输入层,只需要数隐藏层的数量。
4.2 深层网络中的前向传播
用一个for循环去遍历所有层 的计算也是可以的;
n[1]=5表示第一层的神经元个数是5。
4.3 核对矩阵的维数
实现深度神经网络的时候,一个比较好的检查代码错误的方法是计算矩阵的维数。
例子:
一个神经网络,层数L是5(除去输入层),计算每一层矩阵计算时候的维数,z[1]=w[1]x + b[1],在这个情况下维度分别是(n[1],1),(n[1],n[0]),(n[0],1),(n[1],1)。
向量化之后,就是将所有样本X变成[x1,x2,x3,x4…xm]代进去,x维度为(n[0],m),Z[1]就变成[z[1] (1),z[1] (2),…, z[1] (m)],维度发生变化,变成(n[1],m)。
我们知道,在向量化之后,w,b,dw和db的维数应该是一样的,而z,a,x会在向量化之后改变维数。