应用案例
经典论文:
D.E.Rumelhart,G.E.Hinton,and R.J.Williams,“Learning representations by back-propagating erros,” Nature,vol.323,no.6088,pp.833-536,1986
反向传播Back Propagation是将损失函数的信息沿网络层向后传播用以计算梯度,达到优化网络参数的目的。反向传播是非常重要的算法。
可手算的神经网络示例
设输入样本自变量(0.35,0.9),应变量0.5,初始权重如图。
三个神经元计算公式为f(x)=1+e−x1,x是输入的权重和。得到:
P(A,B)=1+e−(AP∗A+BP∗B)1=1+e−(0.1∗0.35+0.9∗0.8)1;Q(A,B)=0.6637;O(P,Q)=0.69;ξ=21(0.69−0.5)2=0.01805
为了得到最小的ξ值,使用梯度下降法。
∂PO∂ξ=∂e∂ξ∗∂o∂e∗∂PO∂o=e∗O∗(1−O)∗P=(0.69−0.5)∗0.69∗(1−0.69)∗0.68=0.02763
∂QO∂ξ=e∗f(x)(1−f(x))=(0.69−0.5)∗0.69∗(1−0.69)∗0.6673=0.02711
PO∗=PO−∂PO∂ξ=0.2723,QO∗=0.8730
∂AP∂ξ=∂e∂xi∗∂o∂e∗∂p∂o=∂AP∂p=e∗O(1−O)∗PO∗(1−P)∗P∗A
AP∗=AP−∂AP∂ξ=0.09916;BP∗=0.7978;AQ∗=0.3972;BQ∗=0.5928
神经网络与深度学习
典型的机器学习
- 通过传感器来获得数据
- 预处理、特征提取、特征选择
- 推理、预测、识别,机器学习算法
- 特征
一般情况下,机器学习特征越多,信息越多,识别准确性得到提升。但是,特征多会导致计算复杂度增加,训练数据在全体特征向量中会显得稀疏,影响相似性判断;如果有对分类无益的特征,会干扰学习效果。
深度学习
深度学习是一种基于无监督特征学习和特征层次结构的学习模型。
利用算法自动提取特征进行“端到端”的学习高维权重参数或者海量的训练数据。
- 历史
感知机→神经网络→深度学习
基础的神经网络算法无法满足异或
- 与神经网络的区别
|
神经网络 |
深度学习 |
网络结构 |
3层以内 |
可达上千层 |
层间连接 |
通常全连接 |
形式多样:共享权值、局部感知、跨层反馈等 |
目标函数 |
MSE |
CE等 |
**函数 |
Sigmoid等 |
ReLU等 |
梯度下降方法 |
GD等 |
Adam等 |
避免过适应 |
凭经验 |
Dropout等 |
资料
Lab code (WIP), but call for comments