池化层
缩减模型大小,提高计算速度,同时提高所提取特征的鲁棒性
最大化操作就是只要在任何一个象限内提取到某个特征,它都会保留在最大池化的输出里。(保留其最大值)
Max pooling
(最大池化)计算方法:
像卷积那样移动过滤器,不同的是每个区域不再相乘计算,而是取最大值作为输出层对应区域的值。
池化层并没有参数需要学习,但是有超级参数(HypeParameter):f和s(过滤器大小和步幅)
Eg:常用参数:f=2,s=2,就是把表示层的高度和宽度缩减一半。
最大池化很少用padding(p=0).
每个信道(通道channel,即每一层二维数组)都单独进行最大池化
平均池化(Average pooling):每个区域不取最大值,而取平均值(可以不是整数)。
平均池化不常用,但是深度很深的神经网络,可以用平均池化来分解规模。
最大池化只是计算神经网络某一层的静态属性。