论文阅读笔记:Perceptual Losses for Real-Time Style Transfer and Super-Resolution

这篇文章是ECCV2016的一篇文章,主要是提出了一种全新的Loss用于图像风格转换和图像超分辨。

论文阅读笔记:Perceptual Losses for Real-Time Style Transfer and Super-Resolution

整体框架如上图所示,分为两个网络,图像转换网络和损失网络,其中图像转换网络是深度残差网络,将图片转换为^ y = fW (x) 。我们训练图像转换网络来最小化损失网络的输出值加权和。损失网络部分部分是16层的VGG网络,它的特定层拿出来作为损失函数。

我们将这个损失函数与这两个函数作对比实验。在图像风格转换上的实验表明我们的方法比基本方法 快3倍,而在图像超分辨上的实验表明我们的方法性能要更好。

论文阅读笔记:Perceptual Losses for Real-Time Style Transfer and Super-Resolution

图像风格转换主要有图片迭代和模型迭代两种方式,据我所知这应该是属于模型迭代的(?)