专栏名称: 把科学带回家
面向未来的科学教育
目录
相关文章推荐
海通财富  ·  盈专题|美联储降息落地,各资产将如何演绎? ·  11 小时前  
海通财富  ·  盈专题|美联储降息落地,各资产将如何演绎? ·  11 小时前  
李楠或kkk  ·  AirPods4半入耳的特征决定了降噪不可能 ... ·  2 天前  
小熊科学分析  ·  金矿化验方法-金矿石化验实验室 ·  6 天前  
小熊科学分析  ·  金矿化验方法-金矿石化验实验室 ·  6 天前  
天使调研  ·  华为鸿蒙,再觅华强海思! ·  1 周前  
嘶吼专业版  ·  2024 年第二季度 APT 趋势报告 ·  1 周前  
51好读  ›  专栏  ›  把科学带回家

脸被人偷走,用来造谣和报复?AI假照片是新的霸凌手段,但还要靠AI解决问题……

把科学带回家  · 公众号  · 互联网安全 科技自媒体  · 2024-09-19 06:00

正文

撰文 | Skin

审校|Ziv


西班牙的米丽亚姆·阿迪布的女儿今年14岁,有一天,女儿告诉她自己被“霸凌”了,她拿出手机,向阿迪布展示了一张不属于自己,但却有自己的脸的露骨照片


作为妇科医生的阿迪布提到,若不是她足够了解女儿的身体,真的会以为这张照片是真的。而这张以假乱真的照片已经在当地的社交媒体群组里不断传播。


自己的脸忽然出现在其他“身体”上,但看起来像是真的?|图源网络


近一个月,相同的事情也发生在英国和韩国。韩国女孩Heejin(化名)在社交媒体上发现,她居然有一个专属于自己的“聊天室”,在里面,许多张她几年前拍的,还是学生时的照片上的脸,被放在不属于自己的假的露骨照片上。


Deepfakes是一个近些年来才出现的词,它由“深度学习(deep learning)”和“虚假(fake)”两个词合成,顾名思义,就是用AI工具来做出的假的图像、视频或音频。在AI的帮助下,这些假照片越来越逼真了!


你也许早已在社交媒体上见过许许多多的假照片,比如各种名人做着他们“其实从未做过的事”。2017年,有人想看演员尼古拉斯·凯奇主演的经典电影,便将他的脸换到各种知名电影片段中;2018年,这种换脸的门槛变得越来越低,在deepfake网站或手机APP上,你就算完全不懂AI,也能很快做出一张虚假照片。

有许多网站可以让你看到“假”照片。但是当你上传照片想看看老去的自己时,是否阅读过此网站的隐私声明?你的脸也有可能遭到隐私泄露|FaceApp


而不需要门槛的造假技术很快就滋生了一系列具有威胁性和犯罪的行为:假新闻、金融欺诈,以及越来越频繁发生的青少年、儿童和女性遭遇到的露骨照片恶性事件。


面对没有门槛的造假技术,我们需要的,可能是没有门槛的抵抗它的技术。网络上一起传播广泛的deepfake性犯罪事件被揭露后,中国科学院自动化所的研究团队VisionRush就宣布开源他们的AI打假工具。


AI工具可以辨别真实照片和deepfake照片之间的那些细微差别。|pixabay


而这种对抗AI造假的技术,其实也是通过AI来实现的。在前期,AI将学习各种AI生成图片的特征,也就是成为“造假图片专家”,因此在识别阶段,就能拿着一些特殊的“放大镜”,用不同的角度来检查照片中的像素,并且根据学到的内容,来特别提取这些照片中容易出错的“特征”,比如说纹理,光照,表情和边缘的细节。


AI造假技术需要靠AI的分析来辨别。|Pixabay


这项技术参与了一个月前举办的外滩大会AI创新赛·全球Deepfake攻防挑战赛。而在8月30日,这项比赛的组委会就倡议大家,可以将参赛的模型开源。而比赛中获奖的VisionRush和JTGroup便很快宣布将自己的模型开源


而这也是希望技术人员能够合力做出更加完善的模型,并且做成网站、APP,让普通人也能轻轻松松地使用对抗deepfake犯罪的工具


而在另一个方面,最近互联网巨头微软的Bing也做出了对抗Deepfake的动作。9月初,Bing宣布和StopNCII合作,希望能帮助到deepfake受害者。

StopNCII或许可以帮助到受害者。|StopNCII

StopNCII是一个帮助受害者保护自己的免费数据库。在网络上,如果一张照片借用了受害者的脸,不管它如何处理,那张脸的“代码”都是一样的。


当受害者发现自己的照片可能已经被泄露,甚至有被造假的风险后,他们可以给自己的脸申请一个独特的“数字指纹”。而StopNCII和一系列其他的社交媒体平台合作,则会同步这些指纹,在平台上搜索是否有这些“指纹”。如果有,平台上的相关影像将会被下架。


如今,已经有许多社交媒体平台和StopNCI合作,Bing是第一个和它合作的搜索引擎,除此之外还有reddit,TikTok,Instagram,Snap等。



而谷歌的搜索引擎也宣布将会降低搜索内容中露骨和AI合成内容的权重,未来也将帮受害者删除那些非自愿的伪造内容。


从检测假照片,到删除假照片,目前也许都有了一些解决方案,如今也希望能更加完善。而作为互联网的用户,我们如今还是不得不从源头上保护我们的个人隐私,比如,尽量少在互联网上分享儿童和青少年影片,警惕偷拍行为,以及查看APP对你个人信息的访问权限等。



参考资料:

[1]https://www.theguardian.com/world/article/2024/jul/09/spain-sentences-15-school-children-over-ai-generated-naked-images

[2]https://www.bbc.com/news/articles/cpdlpj9zn9go

[3]https://stopncii.org/

[4]https://blogs.microsoft.com/on-the-issues/2024/09/05/an-update-on-our-approach-to-tackling-intimate-image-abuse/



将“把科学带回家”
设为星标

不错过每条有趣科学推文!



原创文章版权归微信公众号
“把科学带回家”所有

转载请联系:[email protected]

凡本公众号转载、引用的文章 、图片、音频、视频文件等资料的版权归版权所有人所有,因此产生相关后果,由版权所有人、原始发布者和内容提供者承担,如有侵权请联系删除。




‍‍

 关注我们,点亮在看,分享一下