专栏名称: 果核剥壳
果核剥壳,分享数码体验,新奇软件,行业动态,丰富你的生活,提高你的效率,让网络更有滋味!
目录
相关文章推荐
51好读  ›  专栏  ›  果核剥壳

互联网大厂的“鉴黄师”,看片看到集体工伤

果核剥壳  · 公众号  ·  · 2025-01-18 08:20

正文

以下文章来源于酷玩实验室


身为全球顶流APP的 脸书 ,怎么就成了员工眼里的 “非死不可”?

最近,200名来自非洲国家 肯尼亚 外包员工, 起诉了脸书的母公司Meta,以及雇佣他们的外包公司,诉状中涉及多项严重指控,包括故意精神伤害、不公平劳动合同、现代奴役以及非法裁员,总计索赔 16亿美元。


目前有相当多的国外媒体报道此事,《卫报》、《时代》都在追踪,还有很多人权组织、劳工组织,也在关注这个案子。在他们眼中,这次审判的结果,很可能改变各大平台的运作模式,也会改变整个互联网的生态。

卫报

原因很简单,跟Meta闹上法庭的这200个外包,做的是一项 特殊又常见的工作,内容审核员, 即中文互联网上俗称的 “鉴黄师”。


01 脸书背后的“现代黑奴”


自2019年起,Meta通过一家肯尼亚外包公司,雇用了大量的当地员工,专门审核非洲区脸书用户发布的内容,他们每天都需要接触大量的不健康内容,仔细鉴别其是否符合平台规则,并将违规内容从平台上剔除。


如果我们将视角更微观一些,会发现审核员这份工作更残酷的细节。

根据涉事者的回忆,他们在招聘启事上看到的工作内容,只有 客服 或者 筛除虚假信息, 当你真的去面试了,主管会要求你签一份 密协议 ,然后才说出实话, 工作内容是帮脸书审核违规内容。

而审核员的入职培训也非常离谱,就是一群人站在大屏幕旁,集体观看违规的内容,每播一条,就随机抽个实习生出来,让你一段段分析,图片和视频是哪里有问题,具体违反了哪条规定。

有位女审核员清晰地记得,她抽中的是个 凶杀视频, 她只能目不转睛地看着屏幕里,一个人拿着利刃,一下两下三下,白刀子进红刀子出,把另一个大活人直接捅死,血流了一地。

看得她浑身颤抖,还要强装镇定,跟主管分析视频内容,在培训结束后,她直接冲进厕所,关起门来痛哭。


另一位审核员抽中的则是 腐尸的照片, 具体画面就不描述了,反正她经历过培训后,只要看到蜂窝状的东西,或者什么蠕动的虫子,肠胃就会一阵翻滚,忍不住想要呕吐。

还有个更倒霉的审核员,主管分给他的是 极端组织发的斩首视频, 恐怖主义+血腥暴力,分析倒是不存在难度,但这是当众考核,再加上非洲混乱的社会环境,让这位仁兄换上了PTSD,下班出门都要担心起恐怖分子跟踪。


而他们的日常工作,就是类似场景的 无限重演。

审核员需要维持 平均每50秒审1条内容 的速度,不管是文字、图片,还是长短视频,都需要快速看完并确定是否违规,否则用户就会因为发布延迟而不满。

他们每天还要工作8到12小时,达不到这个速度或者无法承受高强度劳动的人,会被公司迅速解雇。

久而久之,几乎全部的审核员都受到了严重的心理创伤,起诉Meta的外包员工中,81%的人被医院诊断出出严重或极其严重的 创伤后应激障碍 (PTSD),还有许多人表现出了 广泛性焦虑症 (GAD)和 重度抑郁症 (MDD)。


这种创伤是持续性且难以自愈的,哪怕他们离职,病情也没有明显好转,其中有大约40人,因为过于痛苦,选择了用酒精和管制药物来麻痹自己,最终成瘾,把人生搞得一团糟,甚至闹到了妻离子散的地步。

这么个让人身心俱疲还可能影响一生的工作,脸书开多少 买命钱 呢?

答案是 时薪1.46 美元,折合人民币就是10元。

一块5090显卡的价格,就能让他们工作1370个小时了。这么点钱根本无法弥补观看大量不健康内容带来的心理损伤。

两年前,该外包公司终于有一位员工勇敢地拿起法律武器,要求Meta赔偿身心损失,结果Meta立即指示外包公司开除了与他交往比较密切的几位同事,此后又开掉了43名试图建立工会和组织罢工的审核员,今年1月更是开启大裁员模式,让外包公司开掉了260个审核员,全都是Meta认为“不可靠”的。


其中有名领头的审核员叫莫塔翁,他回忆道,当Meta知道审核员们准备联合反抗之后,直接派了两个管理层空降肯尼亚,现场指挥外包公司镇压他们。

这两个美国人刚开始试图通过私下给他涨一倍工资来收买莫塔翁,希望他拿钱之后不要再“搞事”,结果遭到拒绝,美国人马上变脸,转去威逼利诱其它员工,让十几个人投诉莫塔翁有职场欺凌、骚扰和胁迫的行为,以违反员工守则的理由开除了莫塔翁。


对于其它想反抗的员工,Meta也是这么干脆又直接, 年薪20万美元、高高在上的美国管理层, 毫不掩饰地给这群审核员撂狠话,“要么脱离工会,要么就等着被开”,“你不干,有的是人干”。

《Business inside》


确实有些人放弃了,他们担心持续跟脸书对抗会失去收入来源,也担心被打击报复,以后在当地的互联网行业再也找不到工作。

但也有一部分人,不愿意看到脸书和外包公司如此压榨员工,是要讨回公道,于是就有了开头那一幕,200名愤怒的审核员联合人权组织,将Meta和外包公司给告了。


案件目前还在审理之中,但深陷舆论风波的Meta已经等不了了,赶紧出来回应。Meta认为这些指控并不成立,关于身心伤害,Meta坚持称自己已经给审核员提供了必要的 “防护措施”, 对违规内容进行无害化处理,并且还要求外包提供心理健康咨询。基于这一点的,时薪1.46 美元也是非常合理的,已经高于了肯尼亚的最低工资标准,你还要怎么样?

外包公司甚至辩解称,60%到70%的审核员在接受这份工作前,都生活在贫困线以下,是自己带领他们脱贫了,功德无量。


审核员们也迅速回击,揭露了更多的真相。

脸书所谓“防护措施”,就是把简单的图片或者视频 变成黑白或者降低分辨率, 画面确实没那么刺激了,但你也根本看不清内容,就没法做出判断,一旦错判就要扣工资,所以审核员们根本不会用防护措施,都是 直接看原图原片。

至于心理咨询师,更是从没见过。

不知道大家看到这种解释怎么想,反正连美国的媒体都看不下去了,纷纷站在审核员一边,新闻标题写满了对Meta的嘲讽。 《走进脸书的非洲血汗工厂》、《Meta如何剥削新时代的奴隶》……

《时代》


02 4万脸书审核员,集体工伤


而这样的互联网血汗工厂,并不止一家。

根据《卫报》的统计,脸书在2016、2017年几次因为不当内容引发争议后,就大力扩充了审核员队伍,多以 劳务外包 的形式存在,目前有 多达40000名脸书审核员 分布于全球各地,管理来自不同大区、不同语言的内容。而脸书还仅仅是Meta旗下的平台之一,Meta又只是互联网巨头之一,可想而知,整个审核员的群体是极为庞大的。

审核员们状告Meta。2018年时,Meta就被迫支付 5200万美元, 与数千名在美国工作的脸书内容审核员达成和解。这些审核员的年薪仅为 2.88万美元, 远低于当时美国平均水平的3.6万美元,还不到Meta正式员工薪资的1/3。

但他们干的是整个Meta最脏最累的活,和肯尼亚的同事一样,天天盯着违规内容看,每天要审核数千个帖子内容才算达标。2019年,佛罗里达州一位审核员猝死在了工作岗位上,也唤醒了其他人的反抗意识,于是他们对Meta发起了集体诉讼,并获得了赔偿。


可能是经过这件事,脸书意识到了,在高薪资且法律完善的发达国家设置这种岗位,是非常不划算的,外包到欠发达国家才是性价比最高的选择。

为了降低人力成本,也为了适应不同地区语言环境,Meta将大量的脸书审核岗外包到了有大量廉价劳动力的第三世界国家,像肯尼亚,审核员的薪资还不到美国外包岗1/8,四舍五入等于免费,Meta在 菲律宾、印度 也找了很多外包。其中印度外包公司的入职年薪为10万卢比,差不多相当于1500美元,折合成日薪也就 每天6美元。

但他们每天需要工作8小时,而且是分早晚班的,公司必须7x24小时维持审核能力, 每个班次要审阅超过2000个帖子,平均每分钟大约4个。 而Meta对于 准确度 的要求是 必须达到98%以上, 漏判错判都要罚款。


而且印度分部脑洞清奇,直接让员工分组审核特定内容,有的组专门鉴黄,有的组专门看凶杀,还有的组整天都在观看自杀直播。

一部名叫 《网络清道夫》 的纪录片,则揭示了菲律宾分部的状况,这里的劳动强度更是丧心病狂,员工每天上班只有固定的两次 15 分钟休息和 30 分钟的午餐时间,另外还有 9 分钟所谓的“健康时间”,其余时间全部要坐在电脑前审帖子。

他们的KPI指标,达到了惊人的 每天2.5万条帖子, 审完才能走,而且每个月出错不能超过三次,否则就会被开除,菲律宾审核员都无奈地自嘲, “感觉这浏览量可以申请吉尼斯纪录了”。

《网络清道夫》

不止是Meta,其它的互联网企业也这么干。

像肯尼亚那家脸书的外包公司,它同时还跟 谷歌 微软 以及 亚马逊 合作,也是提供类似的廉价审核员服务。

TikTok 也在北非和东非找了大量的外包,光摩洛哥审核中心就有1400名审核员,他们平均每小时要看200个短视频,不过时薪好歹比脸书高点,“高达”3美元。
直播平台 Bigo Live 则选择了巴基斯坦,巴铁虽然穷,大学生倒不少,花点小钱就能让桌子前坐满有文化的审核员。

约会应用程序 GERDR, 在洪都拉斯找到了外包团队,这里是美洲最贫困的地方之一,2美元的时薪就能让人卖命干活。


过去我们说奴役、说剥削,可能脑海中浮现的是在棉花田里劳作的黑奴,和奴隶主扬起的鞭子;后来画面又变成了,在阴暗的工厂中,目光呆滞的工人像机器一样重复着流水线组装工作,或者神情麻木地操作着缝纫机,为有钱的消费者生产手机电脑、鞋服箱包。

网络时代,剥削方式再一次升级了, 巨头们用极低的价格,雇一群穷人吃掉互联网阴暗角落的剧毒垃圾,让其它用户能够享受看似体面的环境。



03 为什么不用 AI ?


可能很多人看完审核员所承受的折磨,可能内心有个疑问。 为什么不使用AI来替代人类审核 ?

首先有必要说明, 审核员现在的庞大的工作量,已经是AI和自动化系统进行过滤之后的结果。

以脸书为例,用户们每天要上传20亿张图片,平摊到4万个审核员头上, 每人每天要看5万张图, 就算是号称“肝帝”的菲律宾分部,听了都要骂娘。

更何况除了图片之外,还有数以十亿计的博文、评论,以及视频和直播,都需要进行审核,还得保证审核时间不能太长,否则用户捉急,不可能全由审核员来管。


而全人类每天产生的数据,高达 5271亿GB, 相当于数亿个硬盘,而其中有相当大一部分是需要公开发布的,只要公开,就必然经过审核,如果只靠人工,那么需要海量的劳动力来完成审核,对社会运转都是巨大的负担。


所以,目前互联网企业普遍采用的是 AI/自动化系统与人类审核员 搭配工作的方式,具体企业的分配比例和搭配策略不尽相同,比较常见的模式是, AI先进行快速过滤,剔除掉可以完全确定违规的内容 (尤其是即时通讯软件), 剩下的一小部分可疑内容,再交给审核员来做最终判断;也有的公司让AI自行对内容进行判断,如果处理出现争议,再由审核员来解决用户的申诉和举报。

在顶流互联网企业中,AI通常可以分摊掉超过90%的工作量,但剩下那一小部分内容,依然需要人类来看,不管哪家企业都做不到完全舍弃人工。

像脸书,在2018年因为种种丑闻被国会老爷拖去质询时,就在听证会上承诺, 会通过AI加强对内容的审核。 这个AI项目甚至是由首席技术官迈克·施罗普弗直接领导的,有多达150人的核心团队,实力非常强劲。但AI显然没有彻底解决问题,Meta依然要为脸书招募大量的审核员。最让人哭笑不得的是,迈克·施罗普弗本人承受了巨大的压力,并且也在工作中接触了大量违规内容,心态直接爆炸,一聊起审核这事就哽咽含泪,还悲观地称 “违规内容永远都不可能降到零”, 直接干废了一个高管可还行。


还有个不信邪的案例, YouTube 搞出AI审核系统之后,就觉得自己牛了,直接炒掉了所有的审核员,省了10000人的劳务费。结果AI在接管YouTube的3个月时间内,直接下架了 1100万个视频, 什么概念呢?在审核员的管理下,YouTube一个季度下架的视频大约660万,相当于AI直接多“杀”了一倍,这里面包含大量误伤,直接导致用户和核心UP主不满, 32万个视频被用户提出申诉。 其结果是, YouTube不得不紧急返聘了自己开除的审核员, 求人家回来上班。

当然,国内企业也是差不多的情况,宣传的时候,AI扫黄,1日处理10亿张,审核员即将集体失业。


然后到招聘平台上一搜,月薪6K,急招高级审核员。


至少在目前而言,AI还只能顶半边天,可以减轻审核员的负担,但无法做到完全替代人类。



04 黑话的智慧

这倒不是说AI有多蠢,它的长处在于速度和效率,以及永不知疲倦的工作态度,光靠这几点,还不足以对抗 人类的最终武器——“想象力”。

2019年时,新西兰发生了震惊全球的枪击案,凶手冲进寺庙射杀了51人,并且全程通过脸书直播,网友也大肆传播枪击视频,而当时脸书的AI系统对此毫无反应,甚至都没有作为可疑对象上报给审核员,直到脸书得知发生枪击,才开始开规模删除。迈克·施罗普弗对此的解释是,过往的枪击案视频,极少有 第一视角 的拍摄,AI还以为这是啥 FPS游戏, 就直接开了绿灯。


从这件事你就能看出来, 身为人类的用户,可以不断创造新类型违规内容,用新的手段去绕开规则, 一切都是在动态变化的。 而AI只能根据现有的经验做出反应,不能独立理解新的事物,也无法自己总结规律, 所以审核还是需要有人参与。

类似的例子其实非常非常多,在某些平台,你发的文字里面如果带有 “微信” 会被系统自动屏蔽掉,于是用户们很快就学会了用 “WX” 来绕开规则,其它人看见这个缩写,能够很自然第想起实际要表达的内容,但对于AI来说就很迷惑,WX是什么单词么?还是人名?AI并不会像人类那样联想到原本的词汇去,需要审核员自己去发现这个规律,并且将经验传授给AI,它才能明白。等AI学会了屏蔽这个缩写,人类用户又迅速改用 “V” 来指代微信。

这还只是最最初级的变体表达,碰到更高级的黑话就更惨了。AI不可能自己想明白, “啵啵间” 代表直播间, “搞米” 等于挣钱,它也不可能猜到, “全国可飞” 说的并不是航班, “租车包日” 租的并不是车。就连电话号码,都能搞出无数种花样,大家能看出下面这一堆人名中藏着数字吗?


图片也是一样,就拿站在对抗AI的第一线的 福利姬 们来说。最早的时候是把图片 旋转倒置 或者 P成黑白的 再发,AI就识别不出来了。这个方法被AI掌握之后,她们很快又想出了 发长图 的办法,把大量无关的图片和擦边放在一起,做成一张长图,可以迷惑AI。再后来,她们又学会了把图片切成9张,粉丝在页面上看正好是 完整的九宫格, 还有人把 擦边图融入GIF, 有些平台的AI只检测GIF的第一帧,识别不了后面的擦边。

说白了,内容审核是个 魔高一尺道高一丈 的过程,而AI本身没有创造力和想象力,永远都处于被动的一方。


另一个问题在于,哪怕是 同样的内容 AI和审核员也经常做出 不同的判断。

根据审核员的说法,脸书给他们培训的时候,拿 美莱村惨案






请到「今天看啥」查看全文