生成模型中的互信息
基础知识
在信息论中,随机变量
条件熵
从上式也能看出互信息其实是对称的,
InfoGAN & InfoVAE
在生成模型的研究中,我们常常认为观测到的数据
对于 GANs 一类生成模型,我们使用一个判别器与生成器做对抗,促使生成器的数据分布尽可能接近真实的数据分布。可以证明,GANs 在隐式地最小化
对于 VAEs 一类生成模型,我们引入了变分后验
可以看见,InfoGAN 和 InfoVAE 优化的互信息其实是不同的——前者是为了保留生成器(也就是解码器)的输入和输出之间的信息传递,而后者是为了保留编码器的输入和输出之间的信息传递。
InfoGAN
前文提到,InfoGAN 希望最大化互信息
具体而言,InfoGAN 引入互信息的动机是希望在 GAN 的学习过程中鼓励隐变量的解耦。作者其实并没有直接最大化
InfoVAE
如前文所述,InfoVAE 希望最大化互信息
我们发现第一项正好是原 VAE 的 ELBO 中的正则项:
然而,
进一步地,为了更好的通用性,作者在
参考资料
- 互信息(Mutual Information)浅尝辄止(一):基础概念 - idejie的文章 - 知乎 https://zhuanlan.zhihu.com/p/240676850 ↩︎
- Mutual information. https://en.wikipedia.org/wiki/Mutual_information ↩︎
- 深度学习中常见的互信息的变分上下界(详细推导) - sonta的文章 - 知乎 https://zhuanlan.zhihu.com/p/91900950 ↩︎
- Barber, David, and Felix Agakov. The im algorithm: a variational approach to information maximization. Advances in neural information processing systems 16, no. 320 (2004): 201. ↩︎
- A Tutorial on Information Maximizing Variational Autoencoders (InfoVAE). https://ermongroup.github.io/blog/a-tutorial-on-mmd-variational-autoencoders/ ↩︎
- Zhao, Shengjia, Jiaming Song, and Stefano Ermon. Infovae: Information maximizing variational autoencoders. arXiv preprint arXiv:1706.02262 (2017). ↩︎
- Makhzani, Alireza, Jonathon Shlens, Navdeep Jaitly, Ian Goodfellow, and Brendan Frey. Adversarial autoencoders. arXiv preprint arXiv:1511.05644 (2015). ↩︎