神经网络运算量的计算

简介

那么对于给定一个卷积神经网络的模型定义,该如何估算其浮点数运算量。对卷积神经网络来说,卷积层的运算量是占网络总运算量的大头,而对于一些像素级别任务,反卷积层也要算上。

普通卷积

卷积的运算一般的实现就是转化为矩阵乘法运算,首先来看一下卷积运算的简单的示意图:
神经网络运算量的计算首先左上角定义了输入和输出的feature map的形状,假设卷积核大小是(K,K)(K, K),所以权值的形状就是CoutCinKKC_{out}*C_{in}*K*K,然后一般来说实现卷积的前向是通过首先对输入的feature map应用im2col操作,从 CinHinWinC_{in}*H_{in}*W_{in}形状的矩阵,转换成形状是CinKKHoutWoutC_{in}*K*K*H_{out}*W_{out}的矩阵,接着与权值相乘,就得到右边的输出。所以卷积前向的运算量是:
CoutCinKKHoutWoutC_{out}*C_{in}*K*K*H_{out}*W_{out}
当然卷积运算的时候除了乘法还有加法(HoutWoutH_{out}*W_{out}),而我这了只算了乘法的次数。
如果加上加偏置的计算,运算量就是:
Cout(CinKK+1)HoutWoutC_{out}*(C_{in}*K*K+1)*H_{out}*W_{out}

卷积的反向和接下来要介绍和反卷积的前向是对应的,这里简单提一下卷积的反向过程,求输入的梯度的时候是把权值转置,然后与输出的梯度相乘就得到中间结果,然后再做一个col2im操作把中间结果回填到输入梯度矩阵的对应位置上。

普通反卷积

接着我们来看下普通反卷积的运算量的计算方法,首先看一下反卷积前向和后向运算过程的示意图:
神经网络运算量的计算左上角也是定义了反卷积的输入与输出的feature map大小,这里反卷积的权值的形状与卷积有点不同,是CoutCinKKC_{out}*C_{in}*K*K,这是因为反卷积的前向和后向操作分别是对应卷积的后向和前向,也就是刚好反过来的。

然后我们直接看反卷积的前向操作,和卷积的后向操作对应,权值做转置与输入feature map做一个乘法,这里可以看成是一个的卷积111*1,输出通道数是CoutKKC_{out}*K*K ,然后得到中间结果,然后再做一个col2im的操作回填到输出feature map对应的位置上。所以反卷积的运算量如下:
CoutKKCinHinWinC_{out}*K*K*C_{in}*H_{in}*W_{in}

同样1*1部分也是只考虑了乘法次数,还有后面的col2im回填累加其实也会占据运行时间的,但是这里没有加上这个加法次数的时间。加上偏置的话则是:
CoutKKCinHinWin+CoutHoutWoutC_{out}*K*K*C_{in}*H_{in}*W_{in}+C_{out}*H_{out}*W_{out}

分组卷积

分组卷积的运算量其实就是直接把卷积的运算量除以组数,比如分为g组,继续沿用上面卷积的运算量公式的话,那么分组卷积的运算量为:
CoutCin/gKKHoutWoutC_{out}*C_{in} / g*K*K*H_{out}*W_{out}
加上偏置的话就是:
Cout(Cin/gKK+1)HoutWoutC_{out}*(C_{in}/g*K*K+1)*H_{out}*W_{out}

具体是怎么算出来的呢,直接看下面的示意图就应该很清晰了:

神经网络运算量的计算

分组反卷积

来看下反卷积,有了分组卷积的铺垫,分组反卷积也不难求,分组反卷积的FP同样也是对应分组卷积的BP:
神经网络运算量的计算对于每组的计算,权值首先需要转置一下,得到Cout/gKKCin/gC_{out}/g*K*K*C_{in}/g的权值矩阵然后和输入对应的组数做乘法,然后得到输出对应的组的中间结果,然后每一组的中间结果再通过 col2im 回填到输出 feature map 对应的组的位置。

所以分组反卷积的运算量如下:
Cout/gKKCinHinWinC_{out}/g*K*K*C_{in}*H_{in}*W_{in}

如果有偏置的话就是:
Cout/gKKCinHinWin+CoutHoutWoutC_{out}/g*K*K*C_{in}*H_{in}*W_{in}+C_{out}*H_{out}*W_{out}