书说简短,不兜圈子。
小红书的致命问题——配套设施跟不上日益庞大的用户规模。
以最近被热议的「非法送养」为例。
「刚出生的婴儿有人领养吗?」
含有这类字眼的主贴或跟帖,是怎么做到绕开监测公开发布的?
风控中心搭建一个简单的模型就可以轻松做到甄别。
说明小红书没有做,或者压根就没预料到这方面的风险。
作为一个近乎国民级的APP,基于理性且善良的理解——非法、灰产、擦边内容去到人多的地方是经济规律,不能说平台本恶。
可当你成长为参天大树了,管理义务或者说主体责任是绕不开的,尽管我并不认为其中有些「钳制」是平台该承受的,但这就是游戏规则,你做不好,出局的风险随之而来。
那看起来,内里上,小红书还是个小公司,在风控方面难以投入优先级更高的资源,和其他几个大厂比不了。
以我现在主力运营的内容平台举例,不说作者自己发布的内容了,就是留言区内容的筛查、甄别、隐藏,系统已经做到秒响应了。
如果意识到与黑灰产的搏斗将是长期的,且依靠平台一己之力无法根除的,那就要在话术上、对公众传播上下点功夫。
以抖音为例,「非法送养」的产业链自然会盯上它。
按我的观察,抖音风控部门会做前置处理,也会做瞬时监测,同时还会将线索提供给强力部门,进行线下打击。
最后正如结案报告一般,公关部门会将这方面的成果透露给媒体,邀请他们来报道这种与公共利益密切相关的事。
你看,这活儿就干的漂亮。
没让你平台除恶务尽,你做不到,但你确实在做了,对大家都有交待。
另外,活儿干了,得让大众知道,不要让大众产生——是的,是的,我特么在小红书上看到这些内容举报都没用的无力感。
你看抖音是如何交答卷的,在一篇媒体的报道中如是说——「2022年5月,我们开始用算法筛选平台上的举报信息里是否有拐卖风险的信息,6月起,算法开始把用户的评论也都纳入到风险识别的模型中。2022年6月初,我们终于帮助警方破获了一起拐卖的案件。」