专栏名称: 凤凰网科技
这里可以看到新鲜出炉的科技产业新闻、深入浅出的企业市场分析,可以看到直击真相的科技事件图解、轻松逗比的科技人物吐槽,干货满满绝无水分。
目录
相关文章推荐
新浪科技  ·  【#小米回应SU7Ultra设新手期#:安全 ... ·  2 天前  
爱范儿  ·  iPad Air M3 首发评测:一个典型 ... ·  2 天前  
新浪科技  ·  【#智元已量产下线1000台机器人#】据智元 ... ·  2 天前  
51好读  ›  专栏  ›  凤凰网科技

算法占卜时代:当AI算命成为年轻人的“心灵止疼片”

凤凰网科技  · 公众号  · 科技媒体  · 2025-03-09 21:00

正文

导语:

用最科学的工具做最玄学的事:我们为何钟爱AI算命? ‍‍‍‍‍‍‍

来源|刺猬公社
作者|冰点
编辑|陈梅希

新学期刚开学的一次家庭聚餐上,五年级小学生林朵听大人们讨论用DeepSeek“算命”,她既不懂算命,也没听明白DeepSeek是哪两个单词,但还是当场问爸爸要来手机, 向那个画着鲸鱼的APP虔诚提问:“您好,请预测我下一次考试的分数。”

很快,对话框里吐出答案:“预测考试成绩需要结合你的学习情况、复习效率、知识掌握程度等多方面因素,而这些信息我目前无法获取。不过,我可以给你一些科学备考的建议。”紧跟着是一系列诸如“高效计划”“番茄工作法”“费曼学习法”之类的建议。

林朵大失所望,因为没有得到一个准确的分数;林朵的爸爸在一边吐槽女儿不会设置算命提示词,试图进行教学但被其他人当场阻止;而林朵的妈妈则对这个答案拍手叫好,让她参考一下D老师推荐的学习方法。

这不是一个杜撰出来的场景,作为林朵的舅妈,我就坐在林朵对面,观察着一个五年级小学生的大模型应用初体验。 AI玄学在蛇年掀起了一阵旋风,不论信不信玄学、也不论懂不懂 AI,一段“咒语”(prompt,即“提示词”)在手,就能向 DeepSeek 问问自己的运势,或者问问办公室应该摆什么植物,答辩PPT该选用哪种配色。

图|在DeepSeek建议下添置的水培龟背竹,它看起来很有生命力,除了有点遮挡光线

向AI寻求一些似是而非(也有一部分用户表示“很准”)的答案,似乎对全年龄段的人都有莫名的吸引力。

为什么我们总爱用最科学的算法,来做最玄学的事?当我们向AI寻求人生答案时,我们到底在寻求什么?

准不准不重要,情绪价值给够就行

距离 ChatGPT 的横空出世已经过去了两年,在这期间 AI 大模型不断发展突破,“百模大战”之下诞生了不少 C 端 AI 应用。在激烈的竞争中,DeepSeek 依然凭借斐然的文采和有理有据的推理冲了出来,成为蛇年的社交宠儿。

不知是谁第一个开始用 DeepSeek 算命的,但这款“更适合中国网友体质”、更懂中文和中国文化的 AI 产品显然比 ChatGPT 更符合国人心意。 小红书上忽然出现了许多用 DeepSeek 算八字的帖子,还贴心附上了对应的 prompt,让不懂八字原理的网友也可以“拿走即用”。在现实中,一段精心设计的prompt甚至能成为职场的“社交密码”,迅速和新同事打开话题。

有人说“原本对 DeepSeek 无感,一说可以算八字就马上下了一个”;还有人因为白天服务器繁忙就半夜爬起来找 DeepSeek 算命,直算到天亮。

高金金原本就是大模型行业的从业者,日常会用 AI 问一切。她偶然刷到用 DeepSeek 算八字的帖子,就想着算一下玩玩。她把同一段 prompt 发给了 DeepSeek 和豆包,结果得到了两个相反的答案,她就兴致勃勃地分别拿一方的答案去质问另一方——最后豆包先败下阵来,承认 DeepSeek 算得对,并且告诉她:不要迷信。这让她有点哭笑不得。

她没有问关于人生的重要问题,比如灾祸、正缘、人生选择之类,对于结果她也就是“挑高兴的参考”。因为日常喜欢戴首饰,她就会问 DeepSeek 戴什么更好,如果得到不称心的答案就继续追问。直到 DeepSeek 有理有据地结合了她的命理和偏好,给出一款她喜欢的首饰类型,她才心满意足地结束对话。

周思远也有类似的心理。 她用 AI 算塔罗牌,因为免费,她就会一直抽牌,直到获得让自己满意的解释。但她也只是当成一种娱乐,不是真的很在意结果。

周思远对算法基于大数据提供的答案有自己的一套理解。比如 AI 说近期家里装修会有争吵、不太顺利,她就会想,谁家装修都会吵架闹心,很少有人能顺顺利利的。如果 AI 算得不好,那就是大部分人都要面对的生活常态;如果算得还不错,那就是大部分人生活里都有的小喜悦,自己看到了乐一乐也挺好。

白鸥觉得 DeepSeek 很像一个懂点玄学的好朋友,会捡好听的和你分享,也不会劝你花钱。虽然它会推荐买一些改运的手串、金饰什么的,但不买也没关系,还能继续算。当 DeepSeek 建议他新的一年要多去户外、多晒太阳时,原本就是户外爱好者的白鸥可高兴了。

在投其所好这方面,大数据真的有点东西。

在偏听偏信这方面,人类也是不遑多让。

在玄学赛道,AI能替代人吗?

用国产 AI 来算中国传统玄学,听起来好像合情合理。但打开小红书的评论区,就会发现有一半人觉得 AI “准得可怕”,另一半人觉得AI就是在“胡说八道”。

最近两年突飞猛进的 AI 大模型,本质上是利用海量数据进行学习和训练,掌握了一定的规律,就能够预测一句话中的下一个token是什么。DeepSeek 在这个流程中加入了“推理思考”过程,它的“预测”也就显得更有逻辑了。

但通用大模型仍然有很大的局限性,比如训练数据多数来自公开信息——玄学的理论知识也许有一些公开资料,但是否有足够多的、公开的运算实例就很难得知了,毕竟许多人的“玄学实践”发生在线下,过程和结果也不会发在网上。

大模型的“幻觉”也是一大难题。 AI 会“一本正经的胡说八道”,编造出原本不存在的内容。 因为设计原理决定了,大模型不论是否知道准确答案都必须预测出结果,这就会让它“脑补”一些内容——但人类是很难分辨的。

DeepSeek 的幻觉甚至比其他大模型还要严重。有人推测,DeepSeek-R1 模型对于文本的“创造性”给予了更多“奖励”,导致模型能生成更多让人意想不到的富有创意的内容,同时也更容易偏离事实。另外它的“推理”过程也容易把简单的问题复杂化,因为“用力过猛”导致输出方向偏离,从而产生幻觉。

从理论上说,抛开“玄学”本身是否存在这类形而上的问题,如果给 AI 投喂足够多的玄学知识和运算实例,做成一款垂类大模型,它是有可能很好地完成“命理师”“塔罗师”之类的工作的。

但更多的问题并不在此。







请到「今天看啥」查看全文