GAN网络

Self-Attention Generative Adversarial Networks

主要贡献:

在GAN网络中加入了自注意力机制,可以从所有位置的细节线索来生成高分辨率细节特征,判别器可以检查图像的远端部分中的高度详细特征是否彼此一致。
GAN网络
添加的自注意力机制网络结构如上图。
同时,作者还用了以下两个技巧:
Spectral normalization: 频谱归一化可以防止参数梯度的上升,避免异常梯度.使得训练更加稳定。
Imbalance learning rate for generator and discriminator updates:训练过程中给G和D不同的学习效率,目的是平衡二者的训练速度。

Your Local GAN:Designing Two Dimensional Local Attention Mechanisms for Generative Models

motivate: dense attention计算效率低下,以及统计效率低下。

contribute:

i. 提出了一种新的局部稀疏attention layer,保留了二维图像的局域性。通过注意层能够保留有效的信息。
ii. 使用了信息流图的信息理论框架,这量化了信息如何在多个步骤中流动并保持二维的局部性。

GAN网络

MSG-GAN: Multi-Scale Gradients for Generative Adversarial Networks

MSG-GAN受到PG-GAN启发,但是并没有用到Progressive Growing。多是网络结构的创新。本文采用的方法是将生成器的中间层连接到鉴别器的中间层。
GAN网络
前面和普通的生成器类似,由z生成得到图片。根据层数的不同,将生成器的公式写作
GAN网络
r函数,图中红色的函数定义如下
GAN网络
最后生成oi就是生成器中第i层生成的图片。
判别器
将生成的不同尺寸的图片全部放到判别器中进行判别,判别器每层的公式如下:
GAN网络
其中r’为r的反向操作
整个判别式的公式写作:
GAN网络

Progressive Growing of GANs for Improved Quality, Stablity, And Variation

(1) 采用了一种过程化的训练方法,先试着生成低分辨率或者低质量的图像,然后不断增加分辨率和细节。PG-GAN网络结构先从4x4生成,然后不断给D和G添加层,最后输出1024x1024.
GAN网络
(2) 当新的层添加到网络的时候,使用了一种平滑的转换过程
GAN网络
(3) Equalized Learning Rate
此处的目的是为了让weight的更新速度是一样的。利用的公式为 。
(4) Pixelwise Feature Vector Normalization In Generator
在生成器的卷积操作之后进行的一种标准化操作,利用公式GAN网络 进行标准化。

Mixture Density Generative Adversarial Networks

为了解决mode collapse问题,想要discriminator形成多个聚类,发现数据中的不同模型。
所有聚类的核心点会等距离排放,每个核心点构成一个高斯分布核,那么整个分布就可以看作一个高斯混合模型,也就是“简单高斯混合模型”(SGMM)。
用SGMM的参数定义一个似然函数,每次更新,都试图训练分类器,将输入的真实图片映射到中心点周围,任意一个中心点都行。而输入的假图片都基本会随机的分布在d维空间中。理想状态下,生成器生成图片时会考虑所有的核心,由此可以产生许多不一样的图片
GAN网络

InfoGAN

这篇论文的主要目的就是通过非监督学习得到可分解的特征学习,使用GAN加上最大化生成的图片和输入编码之间的互信息。
文章中提出如果在generator中使用隐藏编码c直接进行训练,generator会忽视隐藏编码的作用,看成z和c相互独立(z是噪声变量)。因此提出了一种正则化约束,隐藏编码c与生成样本G(z,c)的互信息量应该较大,即I(c;G(z,c))应该较大。

ACGAN

ACGAN简单来说就是结合了CGAN和SGAN的优点既将标签信息输入到generator,使得可以输出特定类型的样本,又将标签信息输入到discriminator提高生成样本的质量

DCGAN

证明了生成器具有向量运算的特性,以及提出了针对GAN结构的约束。
1、 用卷积层代替池化层
2、 在generator和discriminator中使用batchnorm
3、 为了更深层的网路结构移除隐藏层中的全连接层
4、 在generator的输出层使用Tanh**函数,其余层使用ReLU**函数
5、 在discriminator中所有层都使用LeakyReLU**函数。

TripleGAN

GAN网络
这篇论文论文提出的原因主要是为了解决半监督学习中存在的两个问题,生成器G和判别器D无法各自达到最优以及生成器G无法掌握生成样本的语义信息。
作者认为上述两个问题产生的原因主要是传统的GAN中,G、D双方博弈过程使得G无法兼顾判别输入样本的真实性以及类别标签。为了解决这个问题,作者在标准GAN的基础上加入了分类器C。

Enhancing TripleGAN for Semi-Supervised Conditional Instance Sythesis and Classification

GAN网络
与原始的tripleGAN不同的是,这篇文章的网络结构有两个分类器,通过分类器的协同学习来提高网络的效果,其他不同的就是生成器和分类器的损失函数设置的不同,具体来说,就是从潜在空间统计量和语义一致性两个方面对生成器和分类器进行了特征相似匹配,以增强生成器对类条件分布的学习能力。
具体算法如下:
GAN网络

CVAE-GAN

本文主要是将CVAE和GAN结合起来,提出的一种新的GAN网络。方法的创新主要在两个方面:
(1) 提出了在判别器和分类器网络中使用交叉熵损失,对于生成器则使用平均差异目标函数。这样不对称损失函数能够使得训练出来的GAN网络更加稳定。
(2) 使用了encoder网络学习潜在空间和真实空间的关系,并使用成对的特性去保持生成图像的结构
出发点:CVAE网络生成的图像模糊,GAN生成的图像清晰,但是和原图像误差较大,为了将二者结合起来提出的CVAE-GAN
网络结构如下:
GAN网络
算法如下:GAN网络