池化层

缩减模型大小,提高计算速度,同时提高所提取特征的鲁棒性

最大化操作就是只要在任何一个象限内提取到某个特征,它都会保留在最大池化的输出里。(保留其最大值)

 

Max pooling

(最大池化)计算方法:

像卷积那样移动过滤器,不同的是每个区域不再相乘计算,而是取最大值作为输出层对应区域的值。

池化层

池化层并没有参数需要学习,但是有超级参数(HypeParameter):f和s(过滤器大小和步幅)

Eg:常用参数:f=2,s=2,就是把表示层的高度和宽度缩减一半。

最大池化很少用padding(p=0).

 

每个信道(通道channel,即每一层二维数组)都单独进行最大池化

 

平均池化(Average pooling):每个区域不取最大值,而取平均值(可以不是整数)。

平均池化不常用,但是深度很深的神经网络,可以用平均池化来分解规模。

池化层

最大池化只是计算神经网络某一层的静态属性。