卷积神经网络04(反向传播)

卷积神经网络04(反向传播)
卷积神经网络04(反向传播)
计算图过程
多隐藏层的时候,就相当于对前一层的结果进行
卷积神经网络04(反向传播)
可以看出其实就是对每一层的叠加,这里可能有人会问,那是不是所有的都一样呢?
直接化简不久OK了嘛?其实不然,如果化简了,那还弄这些有啥意义了呢?
因此需要进行一个非线性的函数,加入到每一层。
卷积神经网络04(反向传播)
加入到**函数,非线性函数sigmoid,relu等
卷积神经网络04(反向传播)

卷积神经网络04(反向传播)
卷积神经网络04(反向传播)
卷积神经网络04(反向传播)
卷积神经网络04(反向传播)
卷积神经网络04(反向传播)
卷积神经网络04(反向传播)