先来一段可能大家都用得上的广告:
开学了,如果家里的娃看视频看得多、网课上得多,或者在学编程,家长们一定要来关注一下我们家自用了一年多的
京东方远像屏
,具体可以来我直播间了解:
点击预约 / 收看👇
如今 AI 那可是火得一塌糊涂,就说DeepSeek吧,只要打开手机、电脑,关于DeepSeek的发展动态、对各行各业发展的影响,DeepSeek的使用技巧,以及无数关于DeepSeek如何帮助了自己、治愈了自己的文章……可以说是铺天盖地!
不少家人们纷纷反馈,有了DeepSeek,不但自己工作上方便不少,对于孩子的教育也是如虎添翼:从错题本生成、到学科预习考试以及学习资源管理、甚至到未来的学业规划,都可以一揽子解决,不但省心、还省了大钱啊!真心是喜!大!普!奔!
但是,今天,
常爸必须要提醒大家
,最近在使用DeepSeek的过程中,我发现它有一个致命的缺陷,而且是细思极恐。那就是——
AI大模型的“幻觉”问题!
更直白一点说就是:
DeepSeek特别擅长一本正经地胡说八道!
大模型幻觉(AI Hallucination)是指人工智能模型在生成文本、回答问题或执行其他任务时,产生不符合事实或毫无根据的信息的现象。
咱们举个具体的例子来看:
我让DeepSeek以《哈利・波特》为例,讲一讲”整本书阅读“对英语学习的好处,如果可以的话,最好能引用一些研究报告的数据或结论。
它给了我一长段的分析,非常专业,而且还引用了5个文献,看起来特别靠谱对不对?
可是!
当我用各种学术的数据库去查阅这些文献时发现,
5个文献里竟然只有1个才是真实存在的!
于是,我又问DeepSeek,你上面提到的这篇文章我找不到。请问是发表在哪个学术期刊上的?
看,它马上条分缕析地给我解释了一下这个疏漏的信息有可能是怎么产生的,而且还态度特别好地给我道歉、承认错误,并马上修正了数据来源!
知错就改,情绪稳定,感觉不错!
一般人到这里可能就结束了!
但是,我可是处女座啊!马上又去搜了一下,很好很好,这篇文章的确存在的。
一般人到这里可以结束了吧?
我没有!我打开文章通读了一遍,想要确认引用数据的具体的上下文,结果却发现,这篇文章根本没提到《哈利·波特》!!!!所以,它根本不可能用来支撑《哈利·波特》词汇量统计啊!
你能相信吗?!离谱吗?!
这种看似有理有据的胡说八道可是太有迷惑性了!
要不是我之前曾经历过类似的Ai幻觉“骗局”,真就很有可能把这个莫须有的数据当作背书来引用了!
我之前用ChatGPT做二语习得的研究时,发现它给的参考文献10篇有8篇压根就不存在。所以这次我就多长了一个心眼儿,特别对这个数据进行信源追踪,果然还是出了问题!
而一个不争的事实就是:我们习惯性地认为Ai比我们看得多、看得快、看得深,所以它提供的内容肯定是正确的;以及,作为非专业人士我们对专业数据本身也可能并不理解或者看不出其中存在的问题,所以很容易就会将这些错误信息引用以及传递出去!
更可怕的是,就像有朋友说的,这个DeepSeek还把人学得十成像啊!你说它错,它就给你赔礼道歉,然后貌似诚心诚意地给你修改……博取你的信任,试想,如果Ai具有了自主意识,它是很可能故意提供错误信息、产生错误引导而让人类全无察觉,你就说可怕不可怕吧!
所以,这里我想特别和家人们说的就是,
虽然现在的AI大模型的确很强大,真的是可以帮我们提高生产效率好几倍。但是我们一定要清楚认识到它的局限性,特别是信源追踪意识,极其重要!
如果大家全都无脑引用未经核查的数据,难以想象这个世界以后会变得多么魔幻和混乱……
我简单总结了一下,有三个重灾区大家在使用Ai的时候千万要小心:
虚构学术文献
——特别是标注了「XX大学2020年研究」却查不到原文的;
完美数据陷阱
——像「提升28%准确率」这种精确数字却没有具体出处的;
时空错乱细节
——比如把2023年的研究说成是2018年发表的。
我知道,现在有很多家长是非常支持孩子、尤其是高年级的孩子自主使用Ai来辅助学习、提高学习效率的,
建议大家务必要和孩子聊聊大数据幻觉这个话题
,提醒孩子们看到AI给的惊艳数据时,记得先问三个问题,而不是盲目地“拿来主义”,这真的太重要了!