深度学习【36】mobilenetV2

mobilenet的一个改进,加上了Inverted residual block。residual block 和Inverted residual block:
深度学习【36】mobilenetV2
两者的不同是,residual block的中间两个卷积层的通道数比输入和输出的通道数少。而Inverted residual block则相反。

不同模型的block对比:
深度学习【36】mobilenetV2

需要注意的是,mobilenetV2最后的输出层的**函数是线性**函数,不是relu。这个论文有详细的说明。

论文采用t来控制Inverted residual block中间两层的通道数与输入输出两层的通道数关系:
深度学习【36】mobilenetV2

mobilenetV2网络结构,参数t上面有提到,c表示block的输出通道数,n表示block重复输出,s表示stride:
深度学习【36】mobilenetV2

实验结果

imageNet,比shuffleNet性能稍好一些
深度学习【36】mobilenetV2

coco物体检测,SSD框架上,模型大小12M,mAP与yoloV2好一点点。
深度学习【36】mobilenetV2