据光明网报道,近日,一则关于“80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世”的虚假信息刷屏,不少人为此惶恐不安。经证实该信息并不属实,并且最早有可能是在与AI对话时产生的,那么如何让此类谣言不攻自破呢?
在此之前,我们要搞清楚AI软件在回答用户提问时的基本方式。首先,AI利用自然语言处理技术理解用户问题,接着收集来自网页文本、书籍、论文、新闻、音视频等资料,同时,也会参考结构化的知识库,如知识图谱,其中包含了实体、属性等信息。在检索资料后,AI通过处理分析提炼出最关键、最准确的内容,最终通过算法生成文本输出。因此,我们不难发现,AI软件大部分情况下是整合互联网上发布的已有的信息,当信息缺失或数据不清晰时,它也会通过多种数据分析方式、算法机制,对信息处理后再发布。
从传播路径而言,现在大量APP的搜索引擎链接的AI自动生成功能,以及自媒体的过度吹捧均起到推波助澜的作用。在此事件中,当用户在互联网被“80后高死亡率”刷屏,急切地想通过不同平台求证该热门且平时不涉猎的话题时,诸如百度、微信等搜索功能,AI自动生成功能极有可能利用相同的数据或虚假数据生成类似答案。加之,自媒体博主为了“博眼球、赚流量”,对该类极端不实讯息配上“被时代透支的一代”等煽动性言论后大肆转载引用,利用网络传播的交互性、易复制性、社群性等特点,使得假消息迅速传播,消极情绪就此形成气候。
不可否认的是,当前网络空间中,确实存在AI造假事件,诸如“AI论文写作、AI换脸、AI造谣侵权”等事件屡见不鲜。但其责任也并不全在AI,始作俑者是利用AI牟利的不法分子,AI不该成为谣言的“替罪羊”。AI对话时已标注数据有局限性,它的数据在没有大量数据支撑时科学性、可靠性不强,另一种可能是,部分人先编造了假数据,污染了AI算法的底层数据,导致AI输出信息错误,而后自媒体再借AI“背书”,让谣言传播更广。
在AI时代,信息流通速度极快,人们受谣言困扰的问题亟待解决。在AI方便我们获取整合好的大量、系统的信息情况下,辨别信息真伪的能力也愈发重要。面对良莠不齐的海量信息,公众不能盲目相信和转发,要保持理性思考和批判性思维,了解AI逻辑,从算法投喂中夺回思考主权,更加严谨地获取信息,切不可人云亦云,引发不必要的困扰。AI研发技术也应进一步加强,在对话时或搜索引擎中回答用户的答案应更加科学。《沉默的螺旋》一书中表示:大众传播通过营造“意见环境”来影响和制约舆论。因此,监管部门应加大对自媒体“意见领袖”的监管力度,严厉打击虚假的“优势意见”。
智能手机的发明应用和人工智能的迅速普及,在使一部分善于思考的人崛起的同时,也在为思想懒惰的人“画饼充饥”。不勤思考,不去探究事物本质,往往会被信息洪流埋没。在接受信息时,难以下结论的情形下,我们不妨隔岸观火,让子弹再飞一会。