机器学习:Gan 黄教授
问题:监督、生成模型概念
Gan的生成模型和HMM、贝叶斯生成模型的区别
1 train data和generator data 同分布same distribution怎么理解?是经过编码器映射后的特征空间吗
从统计学的角度看generator data 和real data 同分布,学到的是z生成器fake data的分布,会不会有和完全一样的
杂讯的图和real的图不同之处就是数据分布不同,比如说直方图,或者经过D编码到特征空间的分布位置
??
2 对数似然函数D,最大化对数似然,G,最小化D(G)为假的(1-D(G))=p概率=0,的log值即:log(1-D(G))。为什么不可以写成min-arg{-log(D(G))} 预测为真的概率P
3 Gan是非监督没有使用数据标签,但是有discrimator 监督反向传播,跟hmm、贝叶斯非监督学习算法的区别
4 Gan的loss可以加入triplet loss,每次real1 real2,real1 fake,
Gan的损失函数
条件Gan(网络模型上的变化)
wGan的loss(loss变化)
SRGan:super resolution Gan 超分辨Gan