tensorflow 2.0 随机梯度下降 之 MLP反向传播

多输出感知机

tensorflow 2.0 随机梯度下降 之 MLP反向传播
tensorflow 2.0 随机梯度下降 之 MLP反向传播

MLP 反向传播推导

tensorflow 2.0 随机梯度下降 之 MLP反向传播
tensorflow 2.0 随机梯度下降 之 MLP反向传播
总结:
对 于 一 个 输 出 层 的 节 点 kKk \in K:
Ewjk=Ojδk\frac{\partial E}{\partial w_{jk}}=O_j\delta_k
这 里,
δk=Ok(1Ok)(Oktk)\delta_k=O_k(1-O_k)(O_k-t_k)
对 于 一 个 隐 藏 层 的 节 点 jJj \in J:
Ewij=Oiδj\frac{\partial E}{\partial w_{ij}}=O_i\delta_j
这 里,
δj=Oj(1Oj)kKδkwjk\delta_j=O_j(1-O_j)\sum_{k\in K}\delta_k w_{jk}

tensorflow 2.0 随机梯度下降 之 MLP反向传播
正向传播:
OJ  >  OK  >  EO^J~~-->~~O^K~~-->~~E
反向传播:
δK  >  EwK  >  δJ  >  EwJ  >  δL  >  EwL\delta^K~~-->~~\frac{\partial E}{\partial w^K}~~-->~~\delta^J~~-->~~\frac{\partial E}{\partial w^J}~~-->~~\delta^L~~-->~~\frac{\partial E}{\partial w^L}