图像超分辨率 EnhanceNet-2017
论文地址:https://arxiv.org/pdf/1612.07919.pdf
EnhanceNet注重纹理细节,在文中使用四种损失函数
分别是:
MSE loss
感知损失
对抗损失
以上三种损失参考SRGAN:https://blog.****.net/weixin_41798111/article/details/84979236
Texture matching loss纹理匹配损失:
就是VGG特征提取到的信息,和感知损失一样。G()是Gram矩阵
Given a target texture image, the output image is generated iteratively by matching statistics extracted from a pre-trained network to the target texture.
在给定目标纹理图像的情况下,通过将预处理网络中提取的统计信息与目标纹理进行匹配,生成输出图像。
由于该方法基于迭代优化,因此速度较慢,且仅在测试时提供目标纹理时才有效。
对SISR使用风格转换损失。
并训练一个网络将全局纹理特征合成到图像中(类似于图像风格转换思想),在训练过程中基于patch来计算纹理匹配损失,保证纹理信息在局部上相同。实验表明采用16*16的局部纹理特征效果较好,如果采用整张图像的纹理特征导致纹理平均化,效果较差。
(至于这个纹理匹配损失个人还是没有理解十分清楚,大概是vgg特征提取后经过Gram矩阵,计算损失。在计算损失的过程中是以patch来计算的,因为若是计算整张图像的纹理匹配损失则会因为平均化导致匹配到的纹理特征与真实纹理不同)
文中实验对这四种损失进行分别讨论。
网络结构:
采用没有BN层的10个残差块,最近邻上采样方式,学习插值后的图像与real images之间的残差(也就是output images=残差+LR_4X插值后的图像)