2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion

这篇文章主要有两个创新点。
一个是Dense Feature Fusion,在encoder和decoder部分都有。一个是Deep boosted dehazing network,在decoder部分引入encoder的特征深入处理。

思考了下本文的网络结构与我之前网络的异同点,只有本文网络的基础——unet结构与我相似,而其他细节处理部分是我没有的,恰恰是这两部分处理模块才是论文有价值的地方。文中说,这两部分思想一个是去噪文章常用的方法,另一个源于超分辨。因此,还是得多看文章。自己当前状态远远不够。

第一个点:密集特征融合模块
encoder和decoder部分是对称的,将处理过程中的卷积(下采样)和反卷积(上采样)操作调换一下。decoder部分为例:
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion
每层的特征都会用于后面的每一层,同时计算每层特征时也会用到上面每一层的特征。表达式如下:
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion
j表示特征,上面的波浪线表示融合后的特征,n表示第n层。具体的操作如下图:
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion
在downsample和unsample过程中,因为函数p()和q()是不确定的,所以用conv和deconv,步长为2.

这个特征融合对于整个网络的结构没有影响,是可以完全去掉的,可移植性比较好,可以作为一个trick直接加到其他网络上。

第二个点:深度增强去雾网络
这部分设计的基础是unet模型的skip-connection,但不是直接作cat。表达式如下:
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion
n是层数,i是当前层相对应的encoder层的特征,↑2表示进行2倍的unsample,G是一个refinement unit,在文中好像是Residual Group,这个不确定,等放出网络结构代码再细看。decoder的每一层都利用上一层和当前层对应的encoder层的特征,构造当前的特征。(decoder的第一层特征怎么来的?要看代码),针对上面公式所表示的处理方法,作者同时给出了其他四种方法作比较,证明所采取的方法的优越性。
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion

在此方法提出时,作者通过Portion of Haze(PoH)来证明了本方法所借用的模型
2020CVPR去雾-Multi-Scale Boosted Dehazing Network with Dense Feature Fusion
在数学上的可行性。(没看懂这部分什么意义)