信息量-logP、信息熵求期望-ElogP、交叉熵=KL散度=相对熵
学习参考https://blog.csdn.net/u011984148/article/details/99439576
一般情况是D(G)=0.5导致D_loss=-log0.5-log0.5.但是D目的是D(G)=0,进一步D_loss变大=0(分析D(art)=1,D(gan)=0,所以log(D(art)=1)=0, log(1-D(G))=log(1)=0,。。。)
交叉熵loss(二元)
熵是表示信息的混乱程度
KL散度相对熵,但不是距离因为Dkl(p-q)不等于Dkl(q-p)
JS散度,优化KL,使距离对称且值域(0,1)
损失函数分开分析:设伪造的是0,后者是提升G欺骗D的损失,minG梯度下降
信息量的期望就是熵:
联合熵
条件熵
互信息:,带入替换条件熵得到
Veen图
交叉熵就是相对熵:两个分布的距离Kullback-Leible(KL散度)
概率=频率(从分布中得出概率)
GAN中D的loss就是交叉熵