人工神经网络 - 后向传播算法(Back Propogation)
一、人工神经网络 - 后向传播算法
本质上就是梯度下降法(Gradient Descent Method)求极值。
- 找一个w0
- 设 k = 0,假设 d f(w) / d w = 0,退出,否则 wk+1 = wk - a (d f(w) / d w)|wk
二、推导 BP 算法
1.运用实际例子推导 BP
以如下例子进行讲解,X是二维向量,φ是一个非线性函数,E是目标函数,是为了对函数进行优化,系数1/2是为了求导方便。
存在 w11 w12 w21 w22 b1 b2 b w1 w2 九个未知数 , 我们要做的就是利用获得的数据去求解这些未知量。
下图是利用梯度下降对所有参数进行优化的过程。
BP问题的重点在于第二点,如何求 əE / əw 和 əE / əb,核心在如下的三个式子。因为得出这三个等式之后,其他的式子将迎刃而解。
通过上述的三个式子,结合一定的数学可以得出所有未知变量的偏导,如下图所示。
2.为什么叫做后向传播算法?
因为我们解决这个问题的方法在于 y , a1 , a2 这三个数,它们的连接关系最为丰富,得到它们的求导之后再去看局部。
3.一些常见的非线性函数
因为上式中φ求了导,线性函数已不符合定义,所以要使用新的非线性函数。