吴恩达第4周 深度神经网络

深层神经网络

吴恩达第4周 深度神经网络

吴恩达第4周 深度神经网络
每一个节点都是一个logistic 回归。拥有和输入特征数相同的维度。

深层神经网络的前向传播
吴恩达第4周 深度神经网络
对m个样本向量化,对每一层使用for 循环。

核对矩阵的维数

吴恩达第4周 深度神经网络
对于单个样本:
L层权重,行数等于本层神经单元个数,列数等于上层神经单元个数。
L层输出及**函数输出: 行数等于本层神经单元个数,列数等于1
L层偏置,行数等于本层神经单元个数,列数等于1
吴恩达第4周 深度神经网络
对于m个样本:
L层权重:行数等于本层神经单元个数,列数等于上层神经单元个数。
L层输出 :行数等于本层神经单元个数,列数等于样本个数m
L层偏置:行数等于本层神经单元个数,列数等于1(向量化)

为什么使用深层神经网络
吴恩达第4周 深度神经网络
深指的是隐藏层比较多
网络大指的是隐藏单元比较多。
第一层:特征探测器,提取边缘特征,输出是边缘。第二层将边缘组合,形成局部面部。、
从边缘入手一步一步到更大更复杂的区域。
较早的前几层学习低层次的简单特征,最后几层把简单特征组合起来去探测更复杂的东西。

神经网络的求导
吴恩达第4周 深度神经网络

吴恩达第4周 深度神经网络
吴恩达第4周 深度神经网络
搭建深度学习网络块
吴恩达第4周 深度神经网络吴恩达第4周 深度神经网络
前向传播和反向传播
吴恩达第4周 深度神经网络
吴恩达第4周 深度神经网络
吴恩达第4周 深度神经网络

超参数
吴恩达第4周 深度神经网络

吴恩达第4周 深度神经网络