[图像超分]--ICCV2019-Embedded Block Residual Network

论文中的指标很高,但是细读论文会发现很多隐藏的trick,例如损失用L1训练+L2微调、patch取64 * 64。自己也复现了网络,但是训练的时候出现了收敛很慢的现象,估计跟学习率的调整有关系。还是等作者开源吧!
[图像超分]--ICCV2019-Embedded Block Residual Network

摘要:

单幅图像的超分辨率恢复了低分辨率图像中丢失的结构和纹理,得到了研究领域的广泛关注。该领域的佼佼者包括深度或广度卷积神经网络或递归神经网络。然而,这些方法强制一个单一的模型来处理各种纹理和结构。一个典型的操作是某一层根据前一层恢复的纹理恢复纹理,忽略图像纹理的特征。在本文中,我们认为图像中的低频和高频信息具有不同程度的复杂性,应该通过不同的表征能力模型来恢复。受此启发,我们提出了一种新的嵌入式块残差网络(EBRN),它是一种增量式的纹理超分辨率恢复方法。具体来说,模型中的不同模块恢复不同频率的信息。对于低频信息,我们使用较浅的网络模块进行恢复;对于更高频率的信息,我们使用更深的模块进行恢复。大量的实验表明,所提出的EBRN模型在性能和视觉效果上都优于现有模型。

正文:

[图像超分]--ICCV2019-Embedded Block Residual Network
首先是一个实验分析,由上图可以看出,低频信息(简单的纹理,颜色)经过复杂网络反而重建效果很差。当前模型没有有效区分不同频率的信息,浅层适合低频信息(简单的纹理),深层适合高频信息(复杂的纹理)。
EBRN:
[图像超分]--ICCV2019-Embedded Block Residual Network
[图像超分]--ICCV2019-Embedded Block Residual Network
网络结构比较简单直白。输入特征经过BRM将特征分离为低频信息和高频信息,低频信息直接输出,高频信息继续在网络中重建。网络整体包含特征提取,嵌入式块残差学习和重建部分。损失函数是先用L1训练再用L2微调。

实验:

1.BRM越多,低频信息占比越少,高频信息越多
[图像超分]--ICCV2019-Embedded Block Residual Network
2.推理时间和BRM模块个数实验分析
[图像超分]--ICCV2019-Embedded Block Residual Network
3.实验结果比之前的SOTA高出很多,而且模型计算量相对很少
[图像超分]--ICCV2019-Embedded Block Residual Network
4.模型参数量对比
[图像超分]--ICCV2019-Embedded Block Residual Network