专栏名称: 脑极体
你的困惑,来自于无路贴近未知。我们在技术、思想、传播的异界,贩来极限脑量下的TMT。
目录
相关文章推荐
51好读  ›  专栏  ›  脑极体

当马赛克被AI看穿,我们的隐私将藏于何处?

脑极体  · 公众号  ·  · 2018-08-11 19:33

正文

提起马赛克,相信很多神级宅男都恨得牙痒痒:费劲吧啦地下载了一两个小时,一打开,有码……估计摔电脑的心都有。


当然马赛克除了有时候会耽误宅男的心情,更多的时候是起到了非常重要的保护作用。比如对一些涉及恐怖、血腥内容,或者警务人员的画面时候,打个马赛克能避免对人造成不适,也可以保护公职人员的安全。而且,电影中打码也并不是为了故意要伤宅男的心,一切都是商业需要。总体来说,马赛克在日常使用中基本上没什么正经值得黑的地方。


但问题在于,在人工智能时代来临之后,马赛克可能要面临被“解码”的风险了。


为了好好打码,AI没闲着


虽然日常图片、视频中我们经常会接触到马赛克,但很多人对它的由来可能并不清楚。


“马赛克”是英文单词“mosaic”一词的音译,其本为一种镶嵌工艺,呈块状,源于古希腊。而人们对图像进行区域性模糊处理的方法就是,将特定区域的色阶细化,并造成色块打乱的效果。这样的色块就像一个个小方格,与马赛克非常相似。因此,这种图像模糊处理就被称为马赛克。



其实更简单点说,就是调低图像分辨率。本来一张脸可以细分为1000万个像素点,现在给你变成10个,你还能认出来吗?


所以,我们说码打得重不重,就是看分辨率调低的程度如何。


既然是图像处理,马赛克自然基本有两种场景:图片和视频。


给图片打码基本上不存在什么难度,由于图片是静态的,因此选中区域,直接操作就可以。但涉及给动态视频打码的时候,技术难度就出来了。


视频是由一帧一帧的图片组成的,看起来要解决这个问题最直接的方式就是对每一帧图片都打码,然后组合在一起,视频打码就大功告成。但显然不太可能。传统的电影胶片一秒钟有24帧,即便是处理一个5分钟的视频,也要处理上千张图片,活干完估计看什么都成马赛克了。


为此,人们也是想了很多办法。YouTube曾推出过一款自定义模糊工具,用户们可以通过该工具对自己的车牌号、门牌号、银行卡等一系列隐私内容打码。表面上来看,技术小白也能够轻松打上马赛克。但尴尬的是,这款工具很容易扩大打码范围,比如你给车牌打个码,很可能整个车头都没了;要给自己的脸打个码,可能会连累到整个身体一起模糊。



而微软开发的打码工具可能会跟踪得更加精准。该工具基于人工智能技术打造:通过建立一个深度学习神经网络,其可以精准检测到视频中的人脸,从而实现跟踪。并且为了避免对视频中其他人物的“误码”,其能够实现对不同人脸的识别。通过这一套流程,人工智能打码的表现还不错。


利用人工智能打码可以说是打码技术的一大进步,人们不必一帧一帧地进行图像处理,也不必使用笨笨的视频处理软件对视频片段进行提取、复制、渲染、跟踪,也就在很大程度上避免了会时不时出现马赛克跟不上目标移动速度而导致暴露的情况出现。


可是,马赛克带着保护隐私的目的而来,却更激发了人们对背后真实内容的好奇心。AI打码没闲着,还有一群“解码”的人也是忙忙碌碌。


以子之矛攻子之盾:

看起来AI似乎更擅长“解码”


解码的逻辑也很简单:既然你马赛克是模糊图像处理,那我给你清晰化不就完了吗?


不久前英伟达、芬兰阿尔托大学和麻省理工就联合开发了一项技术,利用AI可以在几毫秒内对模糊图像进行精细化处理。事实上,类似的模糊图片处理技术有很多,对其而言,处理一些打码层级较低的图片可能还有点做用,稍微复杂点儿就要靠边站了。


当然也有人正儿八经地干马赛克消除技术的研发。



得克萨斯大学2016年曾经开发出一种消除马赛克的手段,能够有效地穿透马赛克的遮挡,从而识别出图片信息。技术人员通过建立一个面部和文字识别系统,利用网络上的图片对其进行训练,最终对模糊视频中人脸还原准确率达到80%以上,对经过严重马赛克处理的人脸也可以实现50%左右的正确还原率。


能做到这个程度,应该说足够引起那些随随便便就打打码的人的警惕了。


而去年谷歌则来个了更狠的。就在微软推出人脸识别的移动打码之后,谷歌宣布,通过采用全新的像素递归超分辨率技术,Google brain已经获取了图像高低像素之间的变化规律,因此可以实现对打码内容的更精准匹配。比如学到红的是嘴唇之后,它就会把相应的部分还原成嘴唇。



也就是说,通过学习和训练,Google brain可以针对马赛克“脑补”出照片中人脸的原貌。


看起来谷歌是很不给微软面子啊……


相信宅男朋友们已经跃跃欲试,巴不得谷歌赶紧把这项技术推到实际应用当中,免得一次又一次在希望和失望之间辗转反侧了。


但客观来说,打码实际上是对图片的一种不可逆的损害行为。因此,与其说对图片的“还原”,更准确的说法应该是“猜测”。利用人工智能对马赛克图片进行通俗意义上的还原处理,一个必要的条件就是大量的图片对比。无论是得克萨斯大学还是谷歌都是如此,这也就意味着在缺乏原图素材的情况下,人工智能也只能是无限地接近原图。


当马赛克被击穿,

我们的隐私还安全吗?


但是,接近就意味着可能,或者说不一定与原图相同,但可以做到高度相似。从这个角度上来说,马赛克消除技术的出现无疑会对我们文章开头提到的隐私安全问题产生巨大威胁。








请到「今天看啥」查看全文