深度学习(一):卷积神经网络的基本概念

深度学习(一):卷积神经网络的基本概念

1.卷积层

卷积层是卷积神经网络的核心。

什么是卷积?我认为,类似于一个过滤器,或者

如何卷积?通俗来说,用一个滑动窗口在特征中滑动并进行相应的计算——卷积核与之进行相乘,相加,然后strid表示步距,即滑动窗口滑几个格子

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vJrng99h-1591437324990)(assets/1591436367286.png)]

特性:局部感知;权值共享

1.卷积核的channel与输入特征层的channel相同(深度)
2.输出的特征矩阵channel与卷积核个数相同

相关参数:卷积核的大小F、stride步长,padding补齐的边距

深度学习(一):卷积神经网络的基本概念

2.池化层 pooling

池化层比较好理解,就是用于降低输入数据的纬度,减少计算。主要方法有:平均池化,最大池化。

如下图所示。池化可以将一个4×4的矩阵降为2×2的矩阵。

深度学习(一):卷积神经网络的基本概念

3.非线性层

非线性层即**函数,常用的**函数有sigmoid和relu,现在比较常用的是后者。

sigmoid **函数缺点:不好算导数,网络比较深的时候出现梯度消失的问题。

深度学习(一):卷积神经网络的基本概念

4.全连接层

在全连接层中,我们会将最后一个卷积层的输出压平,并把当前层的每个节点和下一层的节点相连。其实全连接层就是一种常规的人工神经网络,如下图所示。全连接层中的操作和人工神经网络中的操作是一某一样的:

深度学习(一):卷积神经网络的基本概念
 综上所述,一个神经网络的整个过程基本完成,下面我们总结一下卷积神经网络的过程:

一  卷积运算:前一层的特征图与一个可学习的卷积核进行卷积运算,卷积的结果经过**函数后的输出形成这一层的神经元,从而构成该层特征图,也称特征提取层,每个神经元的输入与前一层的局部感受野相连接,并提取该局部的特征,一旦该局部特征被提取,它与其它特征之间的位置关系就被确定。

二 池化运算:它把输入信号分割成不重叠的区域,对于每个区域通过池化(下采样)运算来降低网络的空间分辨率,比如最大值池化是选择区域内的最大值,均值池化是计算区域内的平均值。通过该运算来消除信号的偏移和扭曲。

三 全连接运算:输入信号经过多次卷积核池化运算后,输出为多组信号,经过全连接运算,将多组信号依次组合为一组信号。

四 识别运算:上述运算过程为特征学习运算,需在上述运算基础上根据业务需求(分类或回归问题)增加一层网络用于分类或回归计算。

深度学习(一):卷积神经网络的基本概念

参考文档

https://www.cnblogs.com/dylancao/p/9822207.html