低注意力时代——AI文章的温床
是什么让如此多的豆瓣用户,都没识别出这是一篇由AI生成的影评呢?这并不是因为影评本身有多么精妙,“蒸汽朋克风的机械巨兽”和“霓虹闪烁的赛博龙宫”等错误也不存在识别的难度。我推测原因无他,对于这篇篇幅为1085字的影评,大多数人投入的注意力不会超过10秒,也就是“扫视”。
十秒里,读者可能在扫视中看到了“人物动机潦草…为打而打…母亲被简化为无私奉献的刻板符号…反派角色黑化逻辑潦草如PPT…创作迷失…再多魔改也难逃速朽的命运”。在扫视中,这篇文章与读者达成了一种“大而化之”的情感共鸣或厌恶。
十秒后,大家就可以开始翻评论了。如果评论是“写挺好的,我看完就这感觉”或是“就硬黑“,这样潦草的评论也不需要读者对原文有任何的注意力,只用识别出来对电影是夸是骂即可。
“扫视”并非来自AI时代的阅读习惯。在一个文本爆发的时代,几乎很难找到不需要“扫视”的文本环境了,无论是公众号文章,小红书文案,还是淘宝产品介绍。如今,每个人每天需要处理的信息量已经超出常规,有限的时间和精力,使得人们只能选择“扫视”而非深度阅读。
以微信公众号为例,很多公众号的段落逐渐变短,几乎做到一句一段,正是为了方便读者快速浏览。而诸如金句、高亮等,更是让扫视变得轻松可行。这种方式成为了微信公众号提高阅读效果的必然选择,微信官方还推出了用户标注和投票功能,以便帮助用户筛选出更适合“扫视”的内容。
注意力是稀缺的,于是文本的首要目标是获取注意力,以迅速“唬住”读者。相较于此,文本的逻辑、连贯性与深度的优先级都往后靠。文本的生产者和阅读者都不再“较真”,因为扫视过程中的每一个“语言片段”,也只需要大概感受到它的“意涵”,而不必去深究其真正的意义。还是以这篇哪吒2的影评举例子,“反派角色黑化逻辑潦草如PPT”这个表达,仔细想一想,其实并没有什么道理。中文中并没有“潦草”与“PPT”的固定搭配,而且PPT格式本身也并不总给人“潦草”的印象。
过去,“扫视”并不被视为大问题。但在AI高频生成文本的时代,如果我们仔细审视,言之有物的文本似乎变得越来越稀缺。而DeepSeek为了以较低算力实现大模型的性能,采用了稀疏注意力机制,而不是像GPT那样使用密集(DENSE)模式
(用发言举例,DENSE 模式就像全班同学互相交流,每个人都听所有人的发言,然后得出总结;稀疏注意力则像选择代表讨论,每个人只听特定几个人的发言,减少信息量但保留关键交流,然后再进行总结)
。事实上,DeepSeek的一些性能问题正是由于其稀疏注意力的局限性所导致。然而,「被稀释的文本」在我们日常的阅读体验中却不会引起明显的问题,因为我们已经习惯于在信息中找寻碎片化的意义,而不是追求完整的逻辑结构。
信息轰炸下的私域漏斗
毫无疑问,AI的广泛应用会导致网络文本的产量大增。特别是在DeepSeek出现后,「大语言模型生成式内容」在各大短视频平台成为了一种趋势。针对DeepSeek的各种培训,也是知识付费领域的新兴题材——无论是价格几块到十几块的DeepSeek技巧培训,还是几百块的DeepSeek小红书起号与电商盈利方案,甚至有价格高达数万的,从选配电脑到DeepSeek本地化服务的一站式解决方案,都在这段时间迎来井喷式增长。
一种AI流量生意的典型模式正在形成。这个模式通常包括大规模的AI生成内容轰炸,先是诱导用户小额付费加入小型社群,随后在这个私域流量中推销高价服务或内容。后续模式是私域流量的一种基本“打法”。由于大多数人无法获得稳定的大规模流量,相比薄利多销,更重要的是提供高价的服务。
这是一个“三步走”的过程。大部分人起先只是随便浏览免费的内容,而当需要支付几十元时,他们的注意力便会更加集中。如果进一步购买上千元的课程,他们就会更加审慎地学习内容。也是几年前“私域流量”兴起后最简单的盈利模式。而在这个模式中,价格较低的入门课程,往往是针对高价课程的试水和广告。
但与过去不同的是,这个漏斗的最外层,即作为“诱饵”的信息部分,过去由于创作者精力有限,内容产量受到限制。而如今,借助大语言模型,信息轰炸的规模将被彻底释放,可能会加剧注意力的稀疏,也会大大降低网络流量生意的门槛,让“网赚”和“搞钱”变得更加拥挤。但如果只是拥挤,网络内容的数量早已超出任何人的接受上限,这种“拥挤”可能并不显著。然而,在激烈的竞争中,许多私域流量服务可能会变得短期化甚至“诈骗化”。
举个例子,最近被很多人捕捉到的一个商机——DeepSeek本地安装,正是这一趋势的缩影。大量不了解大语言模型及参数配置的人,在“隐私保护”或“私人知识库”等噱头的吸引下,花费十几元到数百元不等的费用,在自己的电脑上部署DeepSeek,却发现自己的电脑配置过低,不能运行相应的模型参数,无法有效的完成内容输出。
但这种现象又无可避免,当一个DeepSeek级别的热点出现时,FOMO
(Fear of Missing Out,错失机会的恐惧)
的焦虑情绪会击中绝大多数人,特别是中小企业主和中老年人。当下,从政治、经济到科技,不同领域的“过度承诺”无往不利,唯一可以抵御的方式就是“判断力”,但“判断力”谈何容易?AI的特长就是生成“看上去言之成理”的内容,对于实际做研究或生成严肃文本的人来说,这是个大问题,但如果仅仅为了说服人下单,这反而成为优势。
技术、语言和神话的三重剥夺
我不知道现在有多少中小企业主,开始认为AI比自己雇佣的员工更能干、更高效、更便宜,从而产生了可以“优化”人员结构的念头。又有多少自媒体人认为,AI输出的内容比自己创作的更有趣、更能吸引流量,决定未来要彻底依靠AI,才能完成自己的工作。
恐怕只有很长时间的尝试,他们才会发现AI 目前难以担此大任。AI使用对人提出了极高的要求,分辨AI生成内容的优劣,既需要本就不多的“注意力”,也需要对文本的分辨力,还需要对AI技术原理的理解,这三项当前都是稀缺的。在真正产生这种分辨力前,大量资源会被消耗,大量文本将被生产。
从这波DeepSeek热潮出现的第一个杀手级应用——算命就可以看出来。算命求卜是经济下行期巨大的社会需要,从刮刮乐到塔罗牌,再到“九紫离火运”,国人无比渴望命理上的安慰。当然AI算命不是DeepSeek的专有功能,从ChatGPT上线开始,就有很多玄学应用,国内的另一个AI创业公司Kimi,甚至推出了名为“塔罗师”的应用程序。
但如果了解大语言模型的Token Prediction
(Token Prediction指的是大语言模型的核心原理:它们通过根据上下文猜测下一个最可能出现的字或词来生成文本。模型并不理解或推理,只是逐个“预测”下一个token,直到完整输出。每次预测都是基于大量训练数据的统计规律,而非真正的理解能力)
的原理,就应该知道用AI算命实在是刻舟求剑的行为。同一Prompt恐怕多次输入都会得到离散的结果,更不必说只需要简单修改提问方式,结果就会南辕北辙。AI能算的不是“命”,而只是用一种不够泛化的方式算“词汇的函数分布”,不涉及任何命理知识。就算你的问法中西合璧,并让AI综合命理与量子力学,它也只能“编”出一套看上去合理的词语排列。
诚然,了解AI的Transfomer算法是有技术门槛的,但这倒是一个可以通过AI得到较为清晰答案的问题。例如,许多人误将DeepSeek比作AlphaGo Zero,认为它已经自主学习并超越人类智能,这其实是误读。AlphaGo Zero在只遵循围棋规则情况下自主训练,真正抛弃了人的所有“棋路”,可以称为纯粹机器的自主智慧。但人类语言这件事儿不存在围棋一样的封闭规则,DeepSeek即便是R1-Zero也采用了大量人类拥有形式化验证结果的题目作为训练(只不过不用监督),从大模型的底层构成,到推理训练,都不可能摆脱“人的痕迹”。
上述问题,如果真要说清楚还需要大量的篇幅,在此先不赘述。而这些“祛魅”在一个技术狂热的社会潮流中难有声量,AI不仅成为了新的“专家系统”,甚至还成为了机制不可知的“黑箱专家”,也成为了结合技术神话与民族主义神话傍身的“流行专家”。例如在小红书上,近期就涌现了一大批以DeepSeek为开头的内容账号,起号标题往往是“被DeepSeek一针见血到了”,为情感、职场、学业等等话题答疑解惑。在这种话语范式里,DeepSeek和“权威”深度绑定了。
这几乎带来了新的认知门槛,加上文章最开始提到的信息爆炸下「被稀释的注意力」,会对社会造成一种结构性的影响。如果将公共舆论比喻为淘金:先从泥沙俱下的环境中筛选出粗金,再通过公共探讨对粗金进行打磨。那么AI的参与,就可以比喻为向泥沙俱下的河流中倒入大量长得像金沙的普通碎石,并且在打磨过程中掺入同样的碎石。外加AI的高产,公共舆论中有效信息的数量和筛选难度都将遭遇困境。
至此,我们讨论了AI在公共舆论中对于信息稀释的问题,不过除了信息的稀释,这里还有一种更严重的稀释。回到那篇哪吒2的影评。设想一个你喜欢的微信公众号,甚至涉及一点“社会责任”的帐号,如果你知道他们的文章主要以AI段落构成,你会怎么想?只要道理是对的,就无所谓吗?我想很难。
文本不仅载道,还有“以言行事”的功能。写文章做表达这个行为本身就具有公共性,读者的阅读很多时候也是通过这样的文章产生身份、道德和情绪的共鸣。在这里,我们共鸣的必须是真情实感,需要是一个有道德主体性和有责任担当的真人。如果只是一个AI程序,这种内容就不再成立了。
我猜很快就会看到,有的文章必须以承诺自己的内容不是由AI生成,来证明文章本身的真诚和道德主体性了。另一方面,批评者可以直接“扣帽子”,指责一个人的内容是用AI生成的,瓦解内容的真诚性,而不必对里面的道理进行任何的辩驳。
到这一步,情势就发展得有点太快了。也许这也会反过来逼迫人类,进行更像“人”的写作,不过其方式可能非常非常的反讽。
在各种各样关于DeepSeek的教程中,有一个经常出现的套路,便是在Prompt的结尾加上“说人话”。实际输出结果是什么样的“人话”呢?大概就是一个夹杂着俗梗和各种俏皮话与流行语的段落。当然,这样的内容在网上是流行的。我想AI会把所有假模假式的分析与议论,把所有俗气的网络梗、贴吧老哥的牢骚和知乎的卖弄模仿得八九不离十,尤其在那些注意力投入不足的地方。当AI配合投机创作者可以生造十倍百倍的公众号文章、知乎答案、小红书帖子,其实也是让这些媒介的生命周期快速迭代与枯竭。兴许AI会像漫天沙尘一样覆盖,让我们所见之处皆成为荒漠。
但这恰恰让绿洲变得可贵。未来的竞争是谁能真正像“人”,提供经得起仔细审视的内容,穿透性的分析与修辞,而不是AI的概念花架子。而这些内容恰恰是“不说人话”的——当AI用它拙劣的模仿定义了何谓“人话”后。不过挑战同样降临,在一个大规模复制甚至AI化的时代,还能真正像人是一种罕见的品质,也需要经年累月的练习和打磨。
而那些持续生产可以以扫视的节奏划过的字句的人们,可能会陷入一个不知如何张口的状态。