GAN学习总结二-理论推导
本文从理论角度总结一下GAN的理论,主要参考李宏毅老师的GAN课程,可参考GAN完善理论推导与实现;
如下图 Generator是一个network,从Normal的分布中取出数据z送入G中,产生出x,x=G(z);当输入很多的数据时,产生出一个分布PG(x) 目的是使得该分布与Pdata(x) 的分布越近越好,其中Pdata(x) 是给定数据的分布,x表示高纬向量,表示图像。可得到图中的G∗=argGminDiv(PG,Pdata),其中DIV(PG,Pdata)表示PG和Pdata的散度,现在问题是Pdata和PG的数据分布是都不知道的,因此,DIV也是没法计算出来的?
PG和Pdata的分布我们不知道,但可以从给定的数据集中sample出数据,如下图,从*生出的图像认为是PG中采样得到的值。
训练一个D,即寻找一个最优化的D,使得V(D,G)达到一个最大值,固定的G时,优化如下公式:
V(G,D)=Ex∼Pdata[logD(x)]+Ex∼Pc[log(1−D(x))] 使该式值最大;
如下图:当给定一个G时,寻找一个D∗使得V(G,D)最大,如下为推导过程,当给定一个x时,需要求一个D∗使得Pdata(x)logD(x)+PG(x)log(1−D(x))最大:
利用求导求f(D)=alog(D)+blog(1−D)导数求得使该式子的最大值,最后得到的D∗(x)=Pdata(x)+PG(x)Pdata(x)时f(D)最大;同时将求得的D∗(x)代入下式:
V=Ex∼Pdata[logD(x)]+Ex∼PG[log(1−D(x))]
最终得到的maxV(G,D)符合Jensen–Shannon divergence (JS散度)
结论:根据原始GAN定义的判别器loss,我们可以得到最优判别器的形式;而在最优判别器下,我们可以把原始GAN定义的生成器loss等价变换为最小化真实分布Pdata与生成分布PG之间的JS散度,我们越训练判别器,它就越接近最优,最小化生成器的loss也就越近似于最小化Pdata和PG之间的JS散度。
参考:
https://zhuanlan.zhihu.com/p/25071913
https://zhuanlan.zhihu.com/p/29837245[GAN完善理论推导与实现]