风格迁移2-04:MUNIT(多模态无监督)-白话给你讲论文-翻译无死角(2)

以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 a944284742 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。
风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解
我们接着上篇博客,把剩下的内容翻译完成。

5 Experiments

5.1 Implementation Details

Content encoder: 我们的 Content 编码器由几个下采样卷积和几个残差模块组成,所有的卷积层都使用了Instance Normalization。

Style encoder: Style 编码器包含了几个下采样卷积层,和一个 global average pooling 以及一个全链接层,再 Style 编码器中,我们没有使用Instance Normalization(IN),因为IN删除了代表重要Style 信息的原始特征均值和方差

Decoder: 我的解码器是根据输入的 Content code 与 Style code 进行图片重构,他首先通过一组残差模块处理content code,最后通过上采样和几个卷积生成图片。受到别的论文启发(再normalization 的层,使用 affine transformation parameters),我们采用了Adaptive Instance Normalization(AdaIN), 这些些参数由一个 来自 style code 的multilayer perceptron (MLP) 生成:
AdaIN(z,γ,β)=γ(zµ(z)σ(z))+βAdaIN(z, γ, β)=γ(\frac{z-µ(z)}{σ(z)}) +β这里的 zz 是卷积之前的**量,µµσσ 是平均值和标准偏差。γγββ是通过MLP生成的参数,注意, affine parameters 是由一个学习网络产生的,而不是由一个预先训练的网络的统计数据计算出来的。

Discriminator: 鉴别器我们使用了 LSGAN ,借鉴于Wang,我们使用多尺寸进行鉴别,指导生成器生成真实的细节和正确的全局结构。

Domain-invariant perceptual loss: 域不变感知 loss,一般都是计算输出域和目标域,通过VGG提取的特征之间的空间距离。在配对的条件GAN中,效果是非常好的。然而,在无监督的情况下,我们在目标域中没有参考图像。我们提出了一个改进版本的感知损失,它更具有领域不变性。因此,我们可以使用输入图下作为参考,计算感知 loss。具体来说,为了移除原图特征的均值和方差,在计算距离之前,我们执行实例正常化(不带 affine transformations)。在附录C中,我们定量地展示了实例规范化确实可以使VGG特性具有更强的域不变性。我们在高分辨率(≥512×512)数据集上发现了域不变感知loss,加速了训练,并将其应用于这些数据集。

5.2 Evaluation Metrics

Human Preference: 使用了不同的办法,去评估生成图像的真实性。我们在Amazon Mechanical Turk (AMT)上进行人类感知研究。类似于 Wang 的做法。 给工人一个输入图像和两个来自不同方法的翻译输出。然后给他们无限的时间来选择哪个翻译输出看起来更准确。对于每个比较,我们随机产生500个问题,每个问题由5个不同的工作人员回答。

LPIPS Distance: 为了评估翻译图像的多样性,我们计算了随机生成张图像的 LPIPS 距离,LPIPS距离由图像深度特征间的L2加权给出,他已经被证明了和人类的感知比较类似。我们使用100个输入图像,每个输入19个输出对,总共有1900对,我们使用imagenet预处理的AlexNet[78]作为深度特征提取器。

(Conditional) Inception Score: 这个Inception Score(IS)是比较流行的图片生成评估方式,我们提出了一个修改之后的版本,叫做Conditional Inception Score(CIS),他更加合适多模态的图像翻译。当我们知道一个域中有多少种模态,并且知道其中每张图片属于那个模态,可以去训练一个分类网络p(y2x1)p(y_2|x_1),去预测 x1x_1 其所属于的类别y2y_2。条件是一个单一的输入图像x1x1,转化出来的样本x12x_{1→2},其属于的类别,应该发生改变。

5.3 Baselines

UNIT : UNIT 包含了一个 VAE-GANs 和一个共享 latent space,翻译的随机性来自于高斯编码器,也来自于VAEs中的dropout层。

CycleGAN CycleGAN由两个带有adversarial loss的残差翻译网络和cycle reconstruction loss构成,们在培训和测试中都使用了Dropout来鼓励多样。

CycleGAN* 带有噪声。我们去测试了CycleGAN是否能够生成多样性的图片。在两个翻译网络中我们添加了噪声,我们使用带有噪声的 图片单作 U-net 的输入。我们发现,网络会把这些噪声忽略掉

BicycleGAN 我们所知道的唯一能够生成连续和多模态输出分布的图像-图像转换模型是双环模型,但是,它需要成对的训练数据。当数据集包含对信息时,我们将我们的模型与双循环比较

5.4 Datasets

数据集我就不介绍了,大家自己看看即可
下面是在各个数据集评估的结果,我复制以下:
风格迁移2-04:MUNIT(多模态无监督)-白话给你讲论文-翻译无死角(2)
风格迁移2-04:MUNIT(多模态无监督)-白话给你讲论文-翻译无死角(2)

6 Conclusions(结论)

一些吹逼的话,网络多好,多好。做出了什么贡献这些东西,无关紧要。