本文经AI新媒体量子位(ID:QbitAI)授权转载,转载请联系出处
金磊 发自 凹非寺
AI画的简笔画能到什么水平?
给一张美国演员Rami Malek的照片,效果是这样的。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqzuO0aD8jibDwFur6mBopfbokicYs5dLamkxfB6UbDytAFLPwttz1JNtw/640?wx_fmt=png)
是不是和原图很逼近了?
再来看下输入《老友记》合影的效果。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqOmicSicicmkxVxicERhjTs2jjlctz1VC22d3biawbjGibn4hIfOXNKG7Cbicw/640?wx_fmt=png)
虽然人物众多,但出来的简笔画效果,依旧还是能分清剧中的人物。
如果毛发特别浓密的人物照,AI还能hold得住吗?
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCq3myJdxIeNhmdN64JvuqCqWpPQNyhdX4hOEpBR9D5icTrZBGcSQ8y8pg/640?wx_fmt=png)
小姐姐“爆炸头”的边缘毛发,也算得上是完美还原了。
再近距离一些的呢?来看“霉霉”(Taylor Swift)照片的效果。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqkjZlaspSs6HuKzlwvY1NOp4OS3UpXNTtOckbu4Xsm45hOyfiaT03smQ/640?wx_fmt=png)
可以说是相当的细节了,把发丝的层次感、光感,以及衣物的褶皱,都发挥的“淋漓尽致”。
……
这些就是出自一个叫ArtLine的AI的作品。
而且它在Reddit非常火爆,已经达到了1100+的热度。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqSGCCjtJUn3tOcAZ6h7jSLpWY2Qj60hWhhErTBfSX3Yo8xp0Qd4gAWQ/640?wx_fmt=png)
如此惟妙惟肖的效果,你是不是认为又是GAN的功劳?
错!
ArtLine完全没有用到GAN:
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqp8r5Nga9La8TNyfFBnibSsic6Kwic0F2s3ckGLn34XsCMJIHibJsJkIBdg/640?wx_fmt=png)
也正因如此,ArtLine的效果真真儿的惊艳到了网友。
那么,它是如何做到的呢?
ArtLine背后的三大“法宝”
ArtLine的作者十分爽快地分享了其背后的三大技术:
Self-Attention
Progressive Resizing
Generator Loss
接下来,一起逐一看下各个技术背后的细节内容。
Self-Attention部分引用的技术,出自两年前GAN之父lan Goodfellow等人提出的研究。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCq5TwUiaxVLv6U30HM5uvl44Gh585zu0senVGqjH7xD3M6VtLbPdOO4xQ/640?wx_fmt=png)
等等,刚才不是还说“没用到GAN”吗?
作者对此的解释是:
并没有起到太大作用。
这项研究主要是在GAN生成中加入了注意力机制,同时将SNgan的思想引入到生成器当中。
所要解决的是传统GAN自身存在的一些问题,例如:
使用小的卷积核很难发现图像中的依赖关系
使用大的卷积核就会丧失卷积网络参数与计算的效率
研究中核心的自注意力机制如下图所示。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqMSibvAmoGo6tMTyI1HsBDhhTPUqYQXknGI4icPh0XC4hvkWg61iahmvcw/640?wx_fmt=png)
其中,f(x),g(x)和h(x)都是普通的1x1卷积,差别只在于输出通道大小不同。
而后,将f(x)的输出转置,并和g(x)的输出相乘,再经过softmax归一化,得到一个Attention Map。
得到Attention Map之后,和h(x)逐像素点相乘,得到自适应的注意力feature maps。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqvroKNjbicUmSo8fv0YhlKcybvic47HbicurIGI0fSA5J0iadMzJ2YjX9Gg/640?wx_fmt=png)
从结果上来看,引入自注意力机制的效果,确实在FID和IS两个性能指标下,得到了较好的效果。
ArtLine涉及到的第二个技术灵感,来自英伟达在2018年的一项研究。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqJ5ialvFqf98bBSo3WZrG3P1jqW0wGjNIicbCaVXiakwychQkCtqwamYicQ/640?wx_fmt=png)
这项研究主要提出了一种新的训练对抗神经网络的方法。
核心思想是逐步训练生成器和判别器:从低分辨率开始,随着训练进程推进,逐步增加新的层来提炼细节。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCq5YFr7fhN0YZGpGw1zY9WtjYolfCeP4nOKpredKHtJduMYJVRdleLug/640?wx_fmt=png)
这种方法不仅加快了训练速度并且更加稳定,可以产生高质量的图像。
ArtLine所涉及到的最后一个技术,是来自斯坦福大学李飞飞团队在2016年提出的研究。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqYyY6UxWeAhC9u455liae2pqUcYWvf54XUQ2UGQpxUImbvEZKLT68zmg/640?wx_fmt=png)
这项研究主要解决了实现的风格转换,比较费时的问题。
![](http://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDXsOcA95txOlnmA5QoGZCqmwp1kzqmBpNPCqUZInU2smWQsjtvJE75SA5pCf7682fibwyQ6eu7sGQ/640?wx_fmt=png)
风格转换部分主要用了上面的网络模型,这个模型可以分为两部分:左侧是图像转换网络,而右侧是损耗网络。
其超分辨率重建也是采用上面的网络模型,只是具体内部的图像转换网络部分稍有区别。
这个网络与之前的研究相比,效果达到了相当的水平,但速度却提升了百倍之多,达到3个数量级。