吴恩达-深度学习笔记《神经网络基础》

logistic回归与损失函数

吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》

神经网络表示

吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》

**函数

为什么要用**函数?**函数的种类和特点?
1,如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。
2,因为如果不用非线性激励函数,每一层都是上一层的线性函数,无论神经网络多少层,输出都是输入的线性组合,与只有一个隐藏层效果一样。相当于多层感知机了。所以引入非线性激励函数,深层网络就变得有意义了,可以逼近任意函数。
吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》

参数和超参数

吴恩达-深度学习笔记《神经网络基础》

反向传播

反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是
(1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程;
(2)由于ANN的输出结果与实际结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层;
(3)在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。
吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》
吴恩达-深度学习笔记《神经网络基础》