我之前写了一篇文章,重新反思算法推送好的一面(详情点击:《
张一鸣和字节有什么错?
》)但我知道,这件事远不是有好有坏这么简单明了。或者说,若是已经意识到算法推送机制造成的破坏性之后,平台是否负有道义上的责任?平台在算法上是否应该有相应的调整?
原本一直在构思这样一篇文章继续聊算法问题。但现在不用写了,因为赫拉利的新书《智人之上》聊的正是这个话题。
简单介绍一下这本书,大致分两个部分。首先是赫拉利的招牌书写,就是简史梳理。这本书该部分的内容甚至有些大胆了,尤其第五章讲到过去纳粹德国和前苏联针对信息的管制,里面穿插许多生动且有说服力的故事。提出了一个一点也不新鲜但无比重要的概念,系统的自我纠错机制。
所有人都会犯错,所有组织机构作出决策的都是具体的人。由这样两个客观现实决定了,一个地方需要不同的声音,否则极有可能一错再错,直到万劫不复。这个道理实在简单得不像话,一言堂了又怎么有自我纠错的可能?
就光这第一部分内容,这本书就值得今天更多人读到。
本书的第二部分,引出的是当下算法推送时代人们获取信息的现状。各大平台都希望用户能够尽可能停留,就是手机不停刷刷刷。
在这样的一个考核机制下,算法自然不会去判断内容上的真善美与假丑恶,什么内容有更多围观点赞,什么内容就会获得更多推送。那么毫无疑问,带情绪的,容易点燃愤怒的,宣传仇恨的内容必然会得到更多数据的支持。冷静客观的摆事实讲道理的内容很容易被算法无视。
因为在内容上,从来都是“晓之以理,不如动之以情”。只不过这个原理在今天的算法时代被无限放大了。与此同时,海量的创作者也都从数据的反馈里感受到了算法的偏好,于是为了流量自然会不择手段搞一些劣质内容。
有十几年上网经验的人大概都会明显感觉到如今网络环境的无聊、无趣、愚昧、暴戾。一个是网民数量爆炸式增长,封印解除,村村通网。另一个是,算法推荐机制让人群和内容高度匹配,什么内容吸引更多人,最庞大的人群最喜欢什么,相互作用之下,就是今天的网络氛围。
赫拉利在新书里有个例子比较震撼,就是几年前发生在缅甸的针对罗兴亚人的种族灭绝,有过硬的证据表明当地很多人的仇恨是被脸书上的推送信息给点燃的。有脸书离职员工也出示相关数据证明。就是说,当时很多的缅甸人都是在脸书上获取信息,他们不停地刷到对罗兴亚人的各种包括仇恨在内的谣言,最终这样的仇恨情绪从线上转移到了线下行动,完成屠杀。
今天,我们这里有多少人每天都沉浸在算法推送的自豪和仇恨的信息里呢?如果一大群人从不阅读思考(几乎是这样的)每天就刷着算法推送的内容,大脑很容易被包括但不限于仇恨和绝望的信息推送俘获,一轮又一轮地强化,这其中出现个别无能懦弱的变态,他们的愤怒转成行动似乎也并不意外。
绝不是说平台有任何法律上的责任,
毕竟每个成年人都要为自己选择负责任
。只是算法在吸引用户停留参与的商业考量会非常自然地走到“推送内容专攻人性弱点”这个方向。正因此,只不过是一种对大平台算法机制负起社会责任的期待。并且我相信这些超级大平台里的很多决策者应该也都注意到这一点。
如同我一直强调的,大环境大平台各种大,我们无能为力,每个人确实只能管好自己的生活。我们生活在算法推荐无孔不入的时代,首先我们自己要意识到这一点,你刷到的信息只不过是系统“以为你会喜欢的”,其次我们要尽量避免被各种仇恨信息影响,第三,还是那句话,今天的好东西都在书里。