主要观点总结
文章主要围绕AI合成的视频诈骗展开,介绍了张文宏被AI合成的视频推销蛋白棒的事件,以及AI剪辑冒充明星的案例。同时提供了识别AI换脸换声的方法以及防范AI诈骗的建议。
关键观点总结
关键观点1: 张文宏被AI合成视频推销蛋白棒
网友发现张文宏被AI合成的视频在推销一种蛋白棒,家中老人可能受骗购买。目前该视频已不可见,但商品仍在售卖。
关键观点2: AI剪辑冒充明星的案例增加
近年来,有不少人用AI剪辑冒充明星进行诈骗,有人因此上当。例如,江西一位老人被骗子用AI合成的视频欺骗,误以为是大明星“靳东”。
关键观点3: 如何识别AI换脸换声
可以通过要求对方在视频对话时做挥手动作、问一些只有对方知道的问题、通过按鼻子按脸的方式观察面部变化来识别AI换脸换声。但这些都是基于现有算法的局限性,未来可能难以应对新技术。
关键观点4: 防范AI诈骗的建议
防范AI诈骗需要从自己出发,做好信息保护,提高警惕。不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。
正文
今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
民警随即拿起老人的手机进行查看,发现老人所谓的
大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成
,但老人对网络知之甚少,对于骗子所说所做深信不疑。
最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,表示不会再相信网络上的“靳东”,并放弃了开卡贷款的念头。
我们可以要求对方在视频对话的时候,
在脸部面前,通过挥手的方式去识别实时伪造的视频。
在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。
在点对点的沟通过程中,
可以问一些只有对方知道的问题,验证对方的真实性。
还可以让对方
通过按鼻子按脸的方式
,观察其面部变化,真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。
所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。