4月16日,在美国克利夫兰市街头,一名男子开着车似乎在寻找着什么,一边还自言自语:“找个人,我要杀人,就那个人,那个老人。”,随后他拿着枪下车走向那位老人,要求他说出一个女性的名字,老人表示不知道,枪声响起,老人倒下。
这不是某一个电影或者电视剧的剧情,而是4月17日通过Facebook Live直播的真实谋杀事件。
直播的主角,也就是作案男子名叫Steve Stephens,是一名47岁的非裔男子,目前正在被克利夫兰市的警方通缉。社交网站为凶手变态的杀人炫耀心理提供了天然温床,Stephens在Facebook上记录了这个变态杀人狂的发展路线,还发文讲述自己的“复活节大屠杀”,一间弃屋和15具尸体。
Steve Stephens的Facebook帐号
直播中被害的老人是78岁的Robert Goodwin Sr,并非仇人,而是被Stephens随机指定的。
Facebook在事后封禁了事件相关的视频,并发表声明说:“这是一个可怕的罪行,我们不允许Facebook上的这种内容。 我们努力在Facebook上保持安全的环境,并在紧急情况下与执法人员保持联系。”
但这个视频下架的过程耗时近三个小时。这三个小时,视频一边被谴责一边被转发着就火了起来,也传播到了网络上的各个地方,恐怖氛围酝酿的很到位。这即不是Facebook第一次成为暴力恐怖事件的温床,也不是第一次暴力视频没有及时得到处理。
2016年6月13日,一名自称效忠“伊斯兰国”极端组织的法国籍男子拉罗西·阿巴在巴黎附近持刀杀害了两名警察,并且对残忍杀害过程进行了直播。
2016年7月,美国人Antonio Perkins遭到了芝加哥警方的枪杀在Facebook上直播。
据《华尔街日报》统计,目前在Facebook Live上的自杀、谋杀类的暴力直播已经达到50起。堪比一个视频网站的恐怖频道。
每次事故发生后Facebook都会自己检讨并表示杜绝此类视频的再次传播,但是在这个用户数量超过15亿的社交平台,审查员审查的速度还是远没有跟上事故发生的速度。
Facebook最初的审查机制主要依靠用户之间互相举报,层层向上打报告。用户举报不宜内容,然后工作人员再逐个对内容进行检查,重要程度高的再往上交给高管决定,确定违反规定的再进行下架删除。这一套流程完成时间,正好可以满足一起暴力事件的充分发酵。
这样的审查通常不够及时而且还很耗力,仅仅是浏览被用户标记过的视频就需要数个小时。
随后Facebook开始开发智能监测的软件,可以对视频直播中的敏感内容进行监控和识别。这个系统可以对黄色、暴力、以及极端组织发布的画面进行自动识别和标注。由于大量自杀直播事件的频频发生,在今年三月,Facebook把自杀也加入智能监测的列表。
但是这样的监测也有一定难度。智能监测系统的开发者说,要对视频直播内容进行实时监控识别,主要存在两个技术难题:首先是计算机视觉识别的算法必须足够快,预计目前Facebook的研发能够达到应用水平。另外系统也必须对违规视频直播进行优先级决策,让一些了解政策的专业人士决定是否应该停止某个直播。
从今天的事件看来,这个难度真实存在并且还没有找到很好的解决办法,智能监测系统中的漏网之鱼仍然很多。
中国的网络直播平台也在面临一些相同的问题,虽说大部分的直播系统都自称是机器+人工的审核方式,但机器只能排除一部分完全没问题的画面,大部分的直播视频还是需要人工判断。去年12月在微博上流传着这样一张照片,这是某家直播平台的审核现场,这种场景是不是很熟悉?网吧的网管们面对的屏幕基本都是这个样的。
审核员会在后台浏览所有的直播间画面,觉得不对劲的画面点进去亲测,然后通过“忽略”和“处理”的按钮对直播视频归类。映客直播此前还公布了自己审核员的门槛标准,必须经过严格的培训和考核之后才能正式上岗。
直播的人工审核瓶颈在于事件的实时发生,也就是在你已经抓到非正常事件的时候很大可能事件已经造成了不良的后果。所以审核的意义就更大在于及时的采取后续措施,同时把不良影响扩大控制在最小程度。要求任何形式的审核机制在犯罪发生的正当时立刻检测到并做出反映,是不现实的。
然而,对于性骚扰、自杀他杀、虐杀猫狗等暴力直播来说,直播时观众的反应可能已经刺激了直播者的犯罪心理。
当然,即便没有直播这个世界上依然每天有无数的暴力事件在发生。只是直播在让我们贴近彼此的同时,也离那些阴暗面更近了,这可能才是最可怕的地方。
关注PingWest品玩(微信号:wepingwest)
发现更多有趣好玩的内容