专栏名称: 开平广播电视台
权威发布、服务本土
目录
相关文章推荐
开平广播电视台  ·  国庆假期火车票明天开售!购票指南→ ·  2 天前  
开平广播电视台  ·  再次提醒,不能放! ·  2 天前  
黄埔观察  ·  操盘十年,黄埔旧改大盘改名了 ·  4 天前  
黄埔观察  ·  黄埔学位盘,活该让人眼红 ·  5 天前  
Livin广州  ·  中秋将至,广州这群街坊重新定义「团圆」 ·  6 天前  
51好读  ›  专栏  ›  开平广播电视台

重要提醒!这种照片不要随便发

开平广播电视台  · 公众号  · 广东  · 2024-09-12 12:00

正文


开平广播电视台

新闻报料|宣传推广|活动策划

加小编微信:kptvxmt

关注


近日
韩国曝出“Deepfake”(深度伪造技术)事件
被认为是采用新犯罪手段的
“N号房”案件重现
多个关于“韩国AI深度伪造”的话题词
引发网友热议



据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。


在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。

曾曝光“N号房”事件的前共同民主党
紧急对策委员会共同委员长朴智贤表示
目前全国涉及深度伪造犯罪的人数
可能达到22万(包含可能重复的情况)
众多女性因此陷入不安和恐惧之中
因为针对年轻女性的
深度伪造色情内容泛滥
韩国总统敦促当局采取更多措施
来“根除”该国的数字性犯罪流行问题


韩联社资料图


如何快速识别AI换脸变声诈骗?

深度鉴伪5秒让AI换脸诈骗无处遁形

如何为“一老一小”构建安全通讯环境?

AI技术强力反制电信诈骗


9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。


画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。



中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。


通过“换脸”伪造不雅照

深圳警方打掉一个犯罪团伙


AI换脸、换声等技术

一旦被不法分子利用,

还会成为敲诈勒索的工具,

此类案例在各地已经发生了很多起。

前不久,

深圳警方打掉一个犯罪团伙

👇👇👇

前不久,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。


当事人 吴先生:当时我收到一条彩信,里面是我的一张裸照。他当时威胁我,在几点之前要跟他联系、转钱,我当时一想不对劲,就报警了。


深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。



随着调查的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话敲诈勒索。在掌握大量线索后,深圳警方展开统一收网行动,成功抓获以王某为首的10多名犯罪嫌疑人。


在犯罪嫌疑人的电脑里,警方发现了大量经过合成换脸后的不雅照片。



深圳市公安局坪山分局民警 张威:从嫌疑人电脑里面提取的相关证据,这些图片是嫌疑人从各种渠道收集的被害人图片信息,然后进行合成处理用来敲诈被害人。


目前,王某等人已被检察机关提起公诉。案件正在进一步审理当中。


AI换脸的原理是什么?

如何一眼识别换脸破绽?


据了解,目前针对“AI换脸”技术实施各类侵犯个人信息的行为时有发生,在灰色领域甚至违法犯罪领域被滥用。


AI换脸的原理是什么?如何一眼识别换脸破绽,加以防范?




张博向记者详细展示了AI换脸过程和原理,“只需要输入一张正面静态图片,借助人工智能技术,便可以实时‘移花接木’。”


他进一步介绍,AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”




如今“AI 换脸”技术已经比较成熟的,甚至能够实现视频通话的实时换脸,虽然单凭肉眼很难分辨,不过张博指出,只要稍加留心,“AI换脸”还是有明显破绽,“马脚”就在面部轮廓和光线。





识别“AI换脸”,重点关注哪些地方?

“如果接收到视频信息,视频通话,要仔细观察对方的面部轮廓是否存在异常的模糊,光线是否正常”张博说道,“如果有必要的话,可以要求对方快速大幅度地抬头、点头,转头,然后来仔细观察这个过程当中,面部轮廓是否有异常模糊。”



现实生活中我们如何辨别AI换脸变声?

中国移动信息安全与管理运行中心副经理王晓晴表示,一方面,检查面部特征,观察表情和动作,以及声音和口型匹配度。另一方面,要观察情绪和语境,核实信息来源,让对方用手遮住面部或进行其他面部动作判断画面是否连贯。


不过张博指出

防止网络诈骗还是要从上游入手

首先要防止个人信息的过度外泄

👇👇👇

“需要采集面部信息的场景,市民群众还是需要额外留心网络环境和周围环境。”在遇到疑似AI换脸的场景中,可以选择通过更加直接的方式,比如说给当事人打个电话,确认对方身份是否真实。


网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。


警惕!

这几种照片千万不要随便发


日常生活中

不少人喜欢在朋友圈、短视频

晒美食、晒美景

但是如果不小心的话

这些行为很可能

间接泄露你的个人信息

如果被别有用心的人获取

可能会危及自己和家人的

财产乃至人身安全

哪些照片一定要小心

千万不要随意发到网上呢?

👇👇👇



不要公布手持身份证或手持白纸照。这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。


不要发布各种票据类的照片。很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。


不要晒家门钥匙、车牌等照片。不法者通过大数据等技术手段,通过这些照片会分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。




保护个人隐私至关重要

公众应提高警惕

避免在网络上随意发布

包含个人敏感信息的照片

转发提醒亲朋好友注意~



来源:央视新闻、封面新闻、观察者网、橙柿新闻、广州日报

点个赞

转发让更多人知道

↓↓↓

推荐文章
开平广播电视台  ·  国庆假期火车票明天开售!购票指南→
2 天前
开平广播电视台  ·  再次提醒,不能放!
2 天前
黄埔观察  ·  操盘十年,黄埔旧改大盘改名了
4 天前
黄埔观察  ·  黄埔学位盘,活该让人眼红
5 天前
河北交通广播  ·  最新限号措施!多地有变化!除了……
7 年前
银行螺丝钉  ·  定投的频率:按周好还是按月好?
7 年前
北大清华讲座  ·  送给孩子们的话:关于读书
7 年前