专栏名称: 扯氮集
魏武挥的扯氮集。鄙人执教于上海交通大学媒体与设计学院,天奇阿米巴基金投资合伙人。
目录
相关文章推荐
最爱大北京  ·  大反转!支付宝紧急回应 ·  昨天  
北京本地宝  ·  考了这些证书的可享个税扣除!附申请指南 ·  2 天前  
最爱大北京  ·  2月27日 | 京城事儿全知道 ·  2 天前  
51好读  ›  专栏  ›  扯氮集

到底有没有信息茧房?

扯氮集  · 公众号  ·  · 2017-09-27 16:54

正文


某权威媒体以今日头条为靶子,近日三评以算法推荐为核心的内容聚合客户端。


在第二评中,文章这样说到:


毫无疑问,信息的私人订制能满足人们多元化、个性化的需求。智能化的信息传播机制可以快速完成用户与信息的精确匹配,大大降低获取信息成本,为生活带来便利。但换个角度看,算法主导下的内容分发模式,也会带来“自我封闭”的危险。


这段话有以句号为分割点,共有三句。而实际上,第一句和第三句是非常弱的弱相关。(我后文说明这一点)


接下来,文章继续说到:


一旦身处这样的“信息茧房”,就再难接受异质化的信息和不同的观点,甚至在不同群体、代际间竖起阻碍沟通的高墙。


我们在这里看到了一个很高大上的词:信息茧房。


而本文,就打算较个真,到底存在不存在信息茧房,如果存在,是什么样的机制导致了信息茧房?


凡事不要想当然——就像权威媒体的这篇文章一样。



信息茧房(Information Cocoons),是美国哈佛大学法学教授凯斯桑斯坦在2001年的《网络共和国》一书(这本书非常薄,中译本只有155页,区区十万字)中提出,后来在他的另外一本著作《信息乌托邦》(2008年)还有更大段的分析和讨论。


这个词的源头,可以追溯到一本相当古老的书:1995年出版97年译为中文的尼葛洛庞帝所著《数字化生存》。在这本早年中国互联网从业者的启蒙书中,尼葛洛庞帝创造了一个词:Daily Me——我的日报。


尼葛洛庞帝对“我的日报”不乏溢美之词:我们由此而可以不再看到那些我们不感兴趣的东西,大幅提升我们日常生活工作的效率。但桑斯坦则不以为然,他对信息定制化提出了警告。


桑斯坦对另外一个概念:部落化,也表现出了一定程度上的忧虑。这个词的发明权应该归于麦克卢汉,他准确地预见到了他身后那个时代一对矛盾:地球村与部落化。


信息茧房里这个茧字,就是作茧自缚的茧。所以信息茧房并不是特别深奥晦涩难懂的理论名词。定制就是作茧,结果就是自我封闭。


伴随着信息茧房,还有类似“小团队思维”、“信息极化”诸如此类的名词。大致意思类似:在一个封闭的信息环境里,团队成员互相强化已有的观点。在一些恐怖主义组织中,的确会发现这样的现象。我仇恨美国50分,你仇恨美国50分,互相交换,大家都仇恨美国100分。


但是,有一个前置问题必须考量:算法推荐会导致信息环境封闭么?


再一次提醒各位,不要想当然。



算法推荐的核心是对三类事物打标签:信息(文章)本身、受众(用户)、传者(信息发布者,或者叫帐号)。


在各个内容聚合客户端里,文章打标签提取关键词,这是今天大家都耳熟能详的事。至于帐号,各个客户端都有三六九等的标签,越高级的帐号获算法推荐的可能性越大,这是一种人工干预式的平衡。


关键是用户标签。通过分析用户的属性,来进行文章配对,以满足符合用户需求的内容推送。


这里所谓的用户属性,基本上,当下的数据挖掘,已经能很好地解决两个属性:社会属性(比如性别、年龄、收入阶层等)和兴趣属性。


在我的 《谁是内容行业里的大赢家》 一文中,我提到头条接过的是百度的旗帜,就是指他们都是围绕用户兴趣属性做生意的。百度是用户输入关键字,头条则是进行数据挖掘建模分析。


但对这两个属性分析得再好,依然用户会产生“一点都不准嘛”这种感觉。


原因就在于兴趣并不代表立场、态度、观念。


我称之为“观念属性”。



一位对美国大选有兴趣的人,ta其实完全有可能对川普或希拉里有预设立场:比如川普粉+希拉里黑。


但算法推荐只能做到系统知道你对美国大选有兴趣,很难知道你的观念落在哪里。


于是这样的结果是很常见的:无论是吹捧川普的,还是吹捧希拉里的,都推送给这位对美国大选有兴趣的用户。


试问,在这样的情况下,如何构建出一个信息茧房?


前阵子关于电影敦刻尔克的文章非常多,这里当然有力挺这部电影,也有批评这部电影, 有的批评还非常莫名其妙


但算法推荐可不知道你的态度,也无法得知这篇文章是否很莫名其妙。


试问,在这样的情况下,又如何形成所谓信息极化,越看越坚持既定的观念?


对于商业公司而言,不能很好地获知用户的观念立场态度,当然是一种遗憾。也许未来技术能先进到准确地抓捕。但至少到现在,这种遗憾是一种幸运。


基于兴趣的算法推荐,是无法构建出所谓的信息茧房的。


离信息茧房略近的,不是算法推荐,而是对信息源的定制。这是两回事。



这在早年的博客阅读中,已经有所体现。博客阅读有一种方法就是RSS浏览器。将自己喜欢的博客放在这类应用中,以后就可以每篇都不拉地接受到博客的推送。如果不喜欢了,可以取消订阅。


是的,博客虽然这一页已经翻过去了,但它有很多痕迹,在微信公号中复生:我们难道没有做过订阅或取消订阅公号的事么?


社会化媒体场域里是有信息主动定制的成分的。微博上我喜欢/不喜欢一个人,可以关注/取消关注。微信朋友圈里,我可以视情况看/不看ta的朋友圈。


比起算法推荐来,这种订阅+关注的方式,才离信息茧房更近。


因为观念、立场、态度,在用户选择订阅/不订阅、关注/不关注时,已经内化在这些行为中了。


但我依然无法同意,社会化媒体或者信息定制,就肯定导致信息茧房。这里可能有一点相关性,但绝对不会有彻底的因果关系。


因为很少有人只看微博或朋友圈,从来不接触其它的媒体信源。


而且,转发机制的存在,从单个用户的角度而言,ta总是会看到一些让ta觉得不太和谐的东西。


比如我对乐视这家公司一直持否定立场,但这种情况并不存在:我的微博、朋友圈里就没有力挺乐视的文章了。



学理上讲,信息茧房并不是理论(theory),而是一种假设(hypothesis)。


因为它很难得到量化的证明。如果要证明这一点,需要花费很长的时间对样本进行跟踪观察和反复实验。


小团队思维倒是有可能的,尤其是恐怖主义组织。这类组织会倾尽全力构建封闭的信息环境,极化组织成员的观念。


但作为互联网时代中的普通老百姓,全封闭的信息环境——这件事当然有人在努力,但总有一些漏洞。


其实传播学学者们早就注意到一个现象,将之形成理论:使用与满足理论。学者们很早就发现,人们会出于种种原因,对媒体使用出现一种选择性行为。


这不是什么了不得的洞见,信息偏食自古有之,要说能够完全不偏不倚抛弃自己主观立场来进行信息获取,这大概也就AI能做到了。







请到「今天看啥」查看全文