反向传播算法几个重要公式的详细推导

斯坦福大学《Machine Learning》第五周学习过程中,对反向传播算法的几个公式看得云里雾里的,这里做一个详细的推导和总结

  • 公式一:反向传播算法几个重要公式的详细推导
  • 公式二:反向传播算法几个重要公式的详细推导
  • 公式三:反向传播算法几个重要公式的详细推导

首先已知反向传播算法几个重要公式的详细推导,这个是我们定义的,不用推导,但是为什么要这样定义呢?

我们给神经元的加权输入添加一点改变反向传播算法几个重要公式的详细推导,这就导致了神经元的输出变成了反向传播算法几个重要公式的详细推导,而不是之前的反向传播算法几个重要公式的详细推导。这个改变在后续的网络层中传播,最终使全部代价改变了反向传播算法几个重要公式的详细推导。因此,反向传播算法几个重要公式的详细推导可以用来衡量神经元里的错误量.

 

公式一证明:

要证明反向传播算法几个重要公式的详细推导

也就是证明反向传播算法几个重要公式的详细推导 (1) 这个式子就是反向传播的核心式子,和我们求a的过程是一样的,只是方向相反。

反向传播算法几个重要公式的详细推导 (2) 这里第二个等号后面的累加符号不太好理解,你可以这样想,(l+1)层的每个z都是z(l)j的函数,z(l)j的细小改变会影响到整个z(l+1)的变化,打个比方,M = u(x,y)+v(x,y),M对u或者v求偏导就类同J对l+1层的z求导,M对x或者y求偏导就类同J对z(l)j求导,这也就是求导公式的链式法则。

反向传播算法几个重要公式的详细推导 (3)

将(3)代入(2)即得到我们要证明的(1),证毕

公式二证明:

反向传播算法几个重要公式的详细推导

公式三证明:

反向传播算法几个重要公式的详细推导