从“开放”到“干预”,人们对互联网精神的认知也要变了。
By 刺猬君
谁能想到,因推崇“开放、自由”而崛起的互联网公司,如今却要依靠信息过滤、平台干预,才能保住流量。
道琼斯2月7日消息称,作为全球访问量最大的十家网站之一,
Twitter将在未来几周推出反语言暴力措施,主要通过微调算法,识别“可能含有语言暴力或劣质的推文”,然后将其隐藏。
同时,
Twitter计划将含有“潜在敏感内容”的推文从搜索结果中删除,并滤除被用户屏蔽的账户发布的推文。
不过,如果用户访问该帐户的Twitter页面,仍能找到这些推文。
这两年Twitter一直饱受困扰,网络上只见其文、不见其人的“喷子”实在太多了,导致不堪忍受的用户不断流失。
Twitter联合创始人兼首席执行官杰克·多西(Jack Dorsey)曾在2015年承认,该平台活跃用户数的增长率已经降到了一个“无法接受”的水平。
而当时德意志银行对Twitter用户进行的一项调查显示,60%的Twitter前用户表示,如果该平台能够加强信息筛选和过滤,他们愿意回到Twitter。
另一大“地球流量担当”Facebook,也因为对平台内容的干预力度不够而备遭诟病。
去年,脸书被扣了一口“大黑锅”——在2016年美国总统大选期间,有不少观点将特朗普的意外当选归因于Facebook的假新闻。他们认为,在大选期间Facebook上关于希拉里的假新闻和恶作剧泛滥成灾,在大选过程中迷惑了选民,从而改变了大选结果。
这口“飞来横锅”,Facebook 的首席执行官马克·扎克伯格当然不背。他坚称,
Facebook不是媒体机构、不是媒体平台,而是一个科技平台,是帮助用户彼此共享信息的“中性管道”。
小扎的话乍听挺对,但也有人不同意。他们认为,如果平台不介入信息内容的审查过滤,假新闻就会蔓延。
身为社交媒体巨头,Facebook 坐拥全球17亿用户,有超过40%的美国成年人通过Facebook获取新闻资讯。因此,哪怕Facebook上的假新闻只有小扎口中的1%,它们的传播幅度、广度恐怕也相当惊人,潜在危害难以估计。
这是典型的“平台责任论”。那些并不直接生产内容的网络公司,即便只是内容的“搬运工”,也必须为自身平台上发布的内容担负起社会责任。而且,平台越大,责任越大。
有了前车之鉴,Facebook在今年4月即将到来的法国总统大选之前,作出了改变。
2月6日,Facebook宣布加入一个名为Crosscheck(交叉核查)的行业联盟,于今年法国大选前在该国进行新闻打假。
这个新联盟的成员除了Facebook外,还有谷歌,以及《世界报》、法新社等15家法国新闻机构。从联盟名称的字面可以理解,这17家成员机构将对新闻资讯的真实性进行交叉核查,合作打假。
若上述新闻机构裁定特定新闻文章、图片或视频不实,Facebook和谷歌将把该文章标记为有‘争议的”(disputed),并减少其出现在用户新闻动态列表中的频率。
今年1月,Facebook已率先在德国实施这项举措。
Facebook此举也是迫于市场和政界的双重压力。欧盟委员会上月向这两家科技巨头发出警告,如果它们不采取行动阻止虚假新闻的病毒式传播,将面临来自布鲁塞尔的行动。
在中国,平台“打假”同样拉开了序幕。
从去年12月底开始,如果你打开今日头条阅读资讯,可能会刷到标注红色“辟谣”小标签的新闻。
图片来源于网络
这是今日头条推出的一项新功能——辟谣机制。
只要用户最近5天在今日头条内阅读过的内容,后被证实为谣言,系统将通过辟谣机制,第一时间在页面的信息流中为其展示一条辟谣信息。
互联网发展了半个多世纪,人们对互联网精神的理解却要发生改变了。
一直以来,互联网备受推崇,核心原因不外乎“开放、自由、分享”,而如今,互联网公司却不得不实施各种形式的“审查、过滤、干预”,才能再次获得市场和监管层面的认可和更好的发展。
背后的原因也不难理解——
时代变了。
在每个人都能随手发布推文、微博的移动互联网时代,由于平台缺乏科学合理的把关机制,社交网络媒体一直被指责——谣言和戾气越来越重,给网络环境制造混乱。
所以,从另一个角度上看,
如今在颠覆或者说与传统媒体竞争的过程中,社交媒体其实也在通过建立“网络正义”,重塑自身的“合法性”。
只是,如何重塑?
Twitter要过滤语言暴力,那么,什么是暴力语言?谁来评判?如何保证平台反网络暴力的行为本身不成为一种“网络暴政”?
Facebook要打击虚假新闻,那么,怎么才能确定何为假新闻?什么样的内容需要接受审查?界限在哪里?更关键的是,由谁来决定?
如果由社交平台对内容进行主动的审查、编辑,在海量的内容当中筛选出假新闻,那么,这恐怕将使类似Facebook的社交媒体摇身成为“网络警察”。这对于言论自由是相当危险的。
小扎就曾公开表达过对社交平台成为“网络警察”的警惕。
“我们认为给人们发声的权利是没错的,这就意味着允许人们随时共享他们想要共享的东西。我们必须小心谨慎,这不是鼓励人们不要共享观点或错误地限制准确的内容。
我认为,对于成为真理的仲裁者这件事,我们应该持非常谨慎的态度。
我们不想让自己成为真理的仲裁者,而是依靠社区和我们信任的第三方来解决这个问题。”
但哪怕是对Facebook这样的科技巨头来说,网络环境的规范治理也已经是一项不可逃避的任务。所以,尽管小扎不想当“网络警察”,这差事他也必须接下去。
这差事还有一个难点在于,对于海量资讯的审查,人工力不从心,而机器算法在技术层面上尚不成熟。
其实,早在2015年1月,Facebook就推出了一套“打假”系统,对那些被大量用户标记为虚假信息的链接进行降级处理。在之后的虚假信息判定中,Facebook更多地引用了机器算法,逐渐减少人工甄别新闻的比例,以提高假新闻检测的效率和准确度。
但普及机器算法来甄别假新闻,显然也为时尚早。
2016年7月,Facebook宣布裁撤热门话题的编辑团队,改用算法来核查和推送有价值的新闻。仅在短短一个月之后,算法便推送了一条消息——福克斯新闻女主播 Megyn Kelly 因表态支持美国总统候选人希拉里而被公司解雇。
该新闻被算法标注为“爆炸性新闻”,在Facebook上停留了长达八个小时,获得了20万个赞,但最后被确定为毫无争议的假新闻。
无论如何,在目之所及的未来里,人们对社交媒体的依赖性只会越来越强。
而尽管棘手,媒体环境的规范也是一项必须面对的课题。