专栏名称: AI数据派
THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。
目录
相关文章推荐
简约小生活  ·  难怪医生总是让多喝水?看完终于明白了! ·  16 小时前  
向雷锋学习  ·  长期这样喝,身体炎症水平升高! ·  4 天前  
51好读  ›  专栏  ›  AI数据派

GAN之父5篇文章细数GAN在人脸生成方向4年多进展

AI数据派  · 公众号  ·  · 2019-01-23 07:30

正文

来源:专知

本文 2000字 ,建议阅读 5分钟

GAN之父Ian Goodfellow在twitter谈论了关于GAN在人脸生成的4年半进展,包含5篇代表性文章,值得关注。


[ 导读 ] 生成式对抗网络(Generative Adversarial Networks, GAN)自在2014年被Ian Goodfellow提出后,取得巨大的进展,在理论算法和应用方面有着丰富成果。近日,GAN之父Ian Goodfellow在twitter谈论了关于GAN在人脸生成的4年半进展,包含5篇代表性文章,值得关注,人脸生成从早起的模糊阶段进化到现在逼真的程度。


GAN在人脸生成这4.5年进展



GAN在人脸生成的进展代表性论文包括5篇,分别是:


1.  Generative Adversarial Networks



https://papers.nips.cc/paper/5423-generative-adversarial-nets

谷歌学术引用数高达6800+


这篇论文是最早提出 GAN 的文章,作者 Ian J. Goodfellow 提出了一种新的对抗过程来评价生成模型的效果。GAN 主要分为两部分:生成模型和判别模型。生成模型的作用是模拟真实数据的分布,判别模型的作用是判断一个样本是真实的样本还是生成的样本,GAN 的目标是训练一个生成模型完美的拟合真实数据分布使得判别模型无法区分。


生成模型和判别模型之间的交互可以类比为这样一个场景:生成模型是一个生产假币的伪造者,他的任务就是要生成假币然后使用假币而不被发现,判别模型则是一个警察,他的任务则是识别出那些假币,两者之间的较量使得伪造者不断提升制造假币的能力,警察不断提升识别假币的能力,最终警察无法区分伪造者生产的假币和真实的货币。


2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks



https://arxiv.org/pdf/1511.06434.pdf


近年来,使用卷积神经网络的监督学习被大量应用于计算机视觉应用中。相对地,使用卷积神经网络的非监督学习则被较少的关注。在这项工作中,我们希望可以帮助缩小监督学习和非监督学习在CNN的成功上差距。我们介绍了CNN的一个类,称为深度卷积生成对抗网络(DCGANs),这个网络有着明确的结构约束,并且表明他们对非监督学习有着强烈的可信度。在不同的图像数据集上训练,我们展示出了令人信服的证据,我们的深度卷积对抗对,从对象部分到场景,在生产器和判别器上都能学到层级的表示。此外,我们在一些新的任务上使用学习到的特征,表明了它们在一般化图像的表示上具有通用性。


3. Coupled Generative Adversarial Networks



https://arxiv.org/pdf/1606.07536.pdf


作者提出了一个coupled generative adversarial network (CoGAN) 来学习关于multi-domain images的联合分布出来。本质上GAN是学习一个图像分布p(x’)出来,这个分布要足够逼近训练样本的分布p(x)。这样的结果就是能够使我们任意输入噪声到训练好的generator中去,都能够产生一个足够像训练样本的图片出来。而这里作者将单个分布p(x)拓展到联合分布p(x,y)分布上来了。这样做的目的很深刻,因为涉及到domain adaption 问题。也就是说,在传统的domain adaption中,我们需要学习或者训练一个domain adaptor出来,而这个domain adaptor需要 用source domain和对应的target domain的训练图片来训练。而本文中的CoGAN可以无监督的学习一个联合分布。方法就是对网络加上权值共享约束,同时求解一个体育编辑分布的内积的分布解(不是很懂)。 作者测试这个CoGAN做联合分布学习的任务,包括学习图片的颜色和深度两个的联合分布,学习一个带有不同属性的联合分布出来。作者将其拓展到了domain adaption和image transformation task。


4. Progressive Growing of GANs for Improved Quality, Stability, and Variation


论文地址:

http://research.nvidia.com/sites/default/files/publications/karras2017gan-paper-v2.pdf

实现地址:

https://github.com/tkarras/progressive_growing_of_gans


英伟达在本文中描述了一种新的 GAN 训练方法,其核心思想是同时逐渐地增加生成器与鉴别器的能力:从低分辨率开始,添加持续建模精细细节的新层作为训练过程。这不仅加速了训练,而且更加稳定,获得质量超出预想的图像。本文同时提出了一种增加生成图像变体的简便方法,并在 CIFAR10 上取得了 8.80 的得分。另外的一个额外贡献是创建 CELEBA 数据集的更高质量版本。


项目地址:

https://github.com//RedditSota/state-of-the-art-result-for-machine-learning-problems


5. A Style-Based Generator Architecture for Generative Adversarial Networks



https://arxiv.org/abs/1812.04948


这篇论文于 2018 年 12 月 12 日被收录。作者们确认论文中所提出的方法的代码,不久后就会对外发布。此外,对于想要了解更多关于这一方法的信息但不想阅读全篇论文的读者,前两天发布的一篇博文对这篇论文进行了概述,大家可前往如下地址查看:







请到「今天看啥」查看全文