专栏名称: 张丽俊
创业酵母创始人、酵母咨询创始人、知名组织创新专家、前阿里巴巴集团组织发展专家。
目录
相关文章推荐
德善学园微讯  ·  群英荟萃,展教研风采 ·  昨天  
德善学园微讯  ·  群英荟萃,展教研风采 ·  昨天  
果粉之家  ·  微信支持面容登录了!很简单~ ·  昨天  
果粉之家  ·  微信支持面容登录了!很简单~ ·  昨天  
Canalys  ·  Canalys数据快闪:2024年第三季度, ... ·  昨天  
Canalys  ·  Canalys数据快闪:2024年第三季度, ... ·  昨天  
柠檬工会  ·  打起来了!网易云硬刚QQ音乐:别抄了! ·  2 天前  
柠檬工会  ·  打起来了!网易云硬刚QQ音乐:别抄了! ·  2 天前  
专知  ·  开源!自然语言处理快速入门书 ·  3 天前  
专知  ·  开源!自然语言处理快速入门书 ·  3 天前  
51好读  ›  专栏  ›  张丽俊

四部门联手整治“算法乱象”:算法没有价值观,但人一定要有

张丽俊  · 公众号  · 互联网短视频 科技自媒体  · 2024-11-27 07:00

正文


导语:为什么说算法没有价值观,但人一定要有?本文与大家探讨。

 本期音频由科大讯飞提供的语音合成支持


最近这段时间,有两件事情蛮触动我的。

 

第一个,是农夫山泉董事长钟睒睒炮轰算法,向今日头条、抖音公开宣战。


他说:“有人利用了算法,屏蔽了多角度来的消息。很多恶是人为造成的,尤其是利用了科学、科技手段、技术能力后,那造成的恶比普通人造成的恶要大。”


最后,他喊话张一鸣,要求对方承担起文明整治的责任。


第二个,是最近中央网信办、工信部、公安部、市场监管总局四部门联合发文,开展“清朗·网络平台算法典型问题治理”专项行动。


文件中列举了一些算法乱象:


比如,同质化推送营造“信息茧房”。算法推送你想看的,诱导用户沉迷。


比如,盲目追求利益侵害新就业形态劳动者权益。文件直指一些外卖平台,要求严防“一味压缩配送时间导致配送超时率、交通违章率、事故发生率上升等问题”。


比如,大数据杀熟。根据用户年龄、职业、消费水平等特征,对相同商品实施差异化定价。


比如,算法向上向善服务缺失。文件要求平台提供有利于未成年人、老年人身心健康的信息。


监管部门的态度是很明确的,这些“算法乱象”必须改变。


关于平台算法,一直以来有很多的讨论。也有人问我:“Cherry,你怎么看这件事?”


我想先告诉你3个概念:上瘾、信息茧房、仇恨袋。


我们一个个讲。



什么是上瘾?你可能听过生物学上的一个著名实验——“老鼠也疯狂”。


一只老鼠被连上了一个电极,每当老鼠按下按钮,就有微小的电流刺激它的大脑。


但老鼠被电后不仅没有躲开,反而越来越兴奋。


12个小时的时间里,老鼠足足按了7000次按钮,最后力竭而死。


原来,电极刺激了大脑区域的快感中枢,于是老鼠上瘾了,掉入了这个“快感陷阱”里。


在算法时代,快乐容易,上瘾也容易,我们很容易变成这只疯狂的老鼠。


你想想,你是不是也是这样的?


下班回家,本打算放松一下,打开手机,刷短时间,一看就是好几个小时,根本停不下来。


之所以这样,是因为算法设计常常利用大脑中的多巴胺奖励系统来引发上瘾行为。


比如,你刷到一个喜欢的视频,多巴胺就会分泌一下。多巴胺会给你带来愉悦感和满足感,使你产生想要继续这种行为的冲动。


平台通过算法,精准推送你喜欢的视频内容,不断刺激你大脑释放多巴胺,久而久之你就会上瘾。最后,你的时间就耗在了这些低级的娱乐上。


这个世界遵循等价交换的原则,凡是让你上瘾的东西,必定也让你痛苦。


一方面,上瘾让你把时间都浪费在一些“廉价的快乐”上,损害你的身心健康;另一方面,上瘾会导致额叶皮层结构萎缩,损伤大脑,导致记忆力、注意力下降。


2018 年美国国家卫生研究院(NIH)的一项研究发现,每天使用智能手机超过 7 小时的 9 至 10 岁儿童的大脑会出现明显的萎缩。


更重要的是,算法不断推送与你兴趣、观点相符的内容,而较少看到其他不同类型的信息。


久而久之,“信息茧房”就会逐渐构建起来。

信息茧房


什么是“信息茧房”?这是由哈佛大学教授凯斯·R·桑斯坦提出一个概念。


简单来说,就是在信息传播中,如果一个人只关注自己选择的领域,或者只关注使自己愉悦舒服的东西。


时间久了,便会像蚕一样,将自己封闭在自我编织的“茧房”之中。


现在大数据兴起,算法推荐越来越高级,平台会基于你的浏览记录、阅读习惯,迅速摸清你的喜好,给你主动推荐你最感兴趣的内容。


比如,当你在社交媒体上点赞认同了某一个观点时,过几个小时后,它又有一篇近似的资讯推荐给你。


你每天都被定制化的信息流包裹着,只看见自己想看的,听见自己想听的。你当然会很高兴,因为你会觉得这个世界就是你所理解和认识的样子。


但,真的是如此吗?


我给你举个例子:你知道吗?在美国,有很多人相信地球是平的。


曾经有机构针对美国人做了一项调查,结果显示34%的美国人不确定地球是不是圆的。同时,每50个美国人里面,就有一个是“地平说”的捍卫者。


之所以有这么多人相信“地球是平的”,这和平台算法推荐脱不了关系。


这种看似荒诞的论调,在推特、YouTube等平台上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容。


观点不断重复,认知不断强化,令越来越多的人相信了“地球的平的”这种说法。


甚至,有一位美国发明家为了证明地球是平的,发射自制载人火箭,结果因火箭坠毁而身亡。


当你陷入到“信息茧房”中,你会丧失全面看待事物的能力,你的思维会变得狭隘,离世界的真相,越来越遥远。


不光如此,你的茧房越大,认知越固化,往往越富有攻击性。


你可能听过“仇恨袋”的故事。


仇恨袋


希腊神话中,有一个英雄叫海格力斯。传说有一天,他走在坎坷不平的路上,看见脚边有个像鼓起来的袋子的东西,很难看,他便踩了那东西一脚。


谁知,那东西不但没有被他踩破,反而膨胀起来,并成倍地增大。


海格力斯被激怒了,于是,他捡起一根碗口粗的木棍砸那个怪东西,没想到那东西膨胀得更大,竟然把路给堵死了。


就在这时,一位智者出现了,告诉他,这个东西叫“仇恨袋”。你越是愤怒,充满仇恨,它就会越胀越大;相反,你若不理它,它就会变小如初。


算法喂养的世界里,我们的认知不断被固化,偏见不断被加深。极端的观点,愤怒的情绪,激化的矛盾,令“仇恨袋”越长越大。


尤瓦尔·赫拉利在《智人之上》提出了一个观点:企业在要求算法提高用户参与度的时候,就开始了一个走向偏激与极端的过程。


他讲了一个例子,YouTube主播发现,如果发布满是谎言、让人愤慨的视频,会受到算法青睐,视频会被推荐给大量观众,于是自己的人气会飙升。


相较之下,如果不刺激人们愤怒的情绪,坚持只谈事实,算法常常对他们的作品视而不见。


经过几个月的强化学习,算法让许多YouTube主播都成了喷子。


这也是为什么在一些平台上,噱头、情绪、非理性、偏激等方面的内容大行其道的原因。


对于用户而言,被裹挟在这样的信息洪流中,很容易失去是非的判断,再加上算法推荐,营造出一种“不光是我一个人这么想”虚假的认同,就更容易强化偏见,助长群体对立,每个人的意见越来越不相容。


我之前说过,任何生意,都是做人性的生意。当你利用了人性中的恶的一面,或许会有爆发式的增长,但能长久吗?一定是不可以的。 


科技应该向善,应该激发人良善、美好的一面。算法不能只有精度和准度,还应该要有温度。


归根结底,算法解决的是人与人之间的事。人,才是丈量算法的尺度。


因此,企业在算法设计、开发和应用过程中必须遵循“作为人,何为正确”的朴素价值观,遵循基本的伦理原则,要“利人”而不能“损人”。


而这也正是企业的应尽之责,应有之义。


最后,我想说:科技的发展,不是为了作恶,而是向善。科技向善的背后,其实是人心向善。算法固然没有价值观,但人一定要有。唯有心存敬畏,有所为有所不为,你才能走得更远。




不想被困在信息茧房里,你就要学会独立思考。

每天学习,精进,提升你的认知能力。

《精进日志》,不仅可以帮助你写TDL,养成思考的习惯。

还有很多管理工具,帮助你提升管理的认知。

更有管理金句,帮助你重新认识管理,培养你的管理意识。


点击下方图片,立即了解。

……