原始的GAN为什么处理离散数据效果很差?
源问题是为什么GAN用在NLP领域的paper不多?
以下是goodfellow的回答,链接(似乎需要翻墙):
https://www.reddit.com/r/MachineLearning/comments/40ldq6/generative_adversarial_networks_for_text/
总结:
GAN的设计要求生成器的输出是一个连续空间,否则D到G(z)的梯度无法指导G修正的方向。
由于这种限制,GAN虽然在图像生成应用中获得了巨大的成功,却很少用于离散空间的文本生成
但也不是说完全不能做离散数据的生成,seqGAN和textGAN等就是想解决离散数据的生成问题。