专栏名称: 人工智能那点事
专注国内外AI人工智能、机器人、AR/VR、无人驾驶、深度学习、5G、智能制造、新零售等前沿科技报道。
目录
相关文章推荐
爱可可-爱生活  ·  【[207星]Deep Research ... ·  昨天  
爱可可-爱生活  ·  【[655星]obs-localvocal: ... ·  昨天  
爱可可-爱生活  ·  【[20星]audiobox-aesthet ... ·  4 天前  
51好读  ›  专栏  ›  人工智能那点事

“张文宏”深夜带货?紧急提醒!

人工智能那点事  · 公众号  · AI  · 2024-12-12 09:12

主要观点总结

文章主要讨论了AI剪辑冒充明星的现象以及防范措施。文章提到有网友发布张文宏涉嫌AI合成的卖蛋白棒视频引发争议,类似冒充明星的案例已经屡见不鲜,不少人因此上当受骗。文章还提到识别AI换脸换声的三招方法,但也指出了这些方法的局限性,并强调了防范AI诈骗需要从自身做起,提高警惕并做好信息保护。

关键观点总结

关键观点1: AI剪辑冒充明星的现象屡见不鲜,很多人受骗。

文章中提到有网友发布张文宏涉嫌AI合成的卖蛋白棒视频引发争议,类似冒充明星的案例已经发生多起,有不少人因此上当。

关键观点2: 识别AI换脸换声的方法存在局限性。

文章介绍了三种识别AI换脸换声的方法,包括要求对方在视频对话时挥手、问只有对方知道的问题、让对方按鼻子按脸观察变化等。但同时也指出这些方法基于现有算法的局限性,未来可能难以应对新技术。

关键观点3: 防范AI诈骗需要从自身做起,做好信息保护。

文章强调了防范AI诈骗需要提高警惕,并注意保护个人信息和生物信息。个人公开在外的照片、视频等数据越多,生成的“数字人”会更真实,因此在涉及资金交易等场景下需要多留心眼。


正文

最近,有网友发消息称
“张文宏是不是带货了?”
视频中
张文宏在卖一种蛋白棒
家里的老人信以为真已经下单
还转发了很多群


据媒体报道
这个账号名为“般画234”
在视频中
“张文宏”反复介绍一种产品
口型是他的,声音也是他的
但稍微懂点AI的小伙伴们
一眼就能分辨
这是AI合成的视频!

目前
这段视频已在该账号内不可见
但商品橱窗内
还保留着蛋白棒售卖的页面
显示已售出1266件



近年来
AI剪辑冒充明星的案例屡见不鲜
也有不少人因此上当

今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。

民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成,但老人对网络知之甚少,对于骗子所说所做深信不疑。

最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,表示不 会再相信网络上的“靳东”,并放弃了开卡贷款的念头。


今年10月
老牌港星黄百鸣
在社交媒体上发布声明表示
有人盗用他过去的影片
并利用人工智慧技术替换掉原有声音
假借自家名义代言一个
不知名的药膏品牌
这种行为纯属欺诈
旨在误导公众并从中取利


学会三招识别AI“换脸换声”

我们可以要求对方在视频对话的时候, 在脸部面前,通过挥手的方式去识别实时伪造的视频。 在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。

在点对点的沟通过程中, 可以问一些只有对方知道的问题,验证对方的真实性。

还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。


值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。


例如 ,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。 “AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。

同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。






请到「今天看啥」查看全文