专栏名称: 网信浙江
浙江省互联网信息办公室主办,围绕浙江网络安全与信息化工作,提供最权威、最前沿、最全面的信息服务,搭建有态度、有深度、有温度的发布平台,创建可思考、可体验、可分享的交流空间。
目录
相关文章推荐
新闻夜航  ·  停!停!停!黑龙江一地发布...... ·  22 小时前  
新闻夜航  ·  突发讣告!他于凌晨1时去世 ·  昨天  
哈尔滨日报  ·  打一针就能根治春季过敏?国家卫健委辟谣 ·  昨天  
哈尔滨日报  ·  【数字有温度·TA的故事】点翠饰品一年卖出4 ... ·  2 天前  
51好读  ›  专栏  ›  网信浙江

当AI一本正经地“胡说八道”, 人们应如何避免被误导?

网信浙江  · 公众号  ·  · 2025-02-27 18:06

正文

图片
你是否遇到过这种情况:向 AI 提出问题后,它给出的回答往往十分详细、丰富,且表面上看逻辑连贯,但当我们仔细核对时,却发现这些信息完全是虚构的,与真实情况不符。
这就是AI幻觉。

图源: 央视新闻报道截图

近日,一组“截至2024年末80后死亡率突破5.2%”的假消息引发热议,不少人信以为真。据央视新闻报道,错误死亡率源头可能为“AI运算偏差”。

在AI赋能百行千业的时代,人们在感受便利的同时,时常也被AI幻觉所迷惑。那么,AI幻觉从何而来?我们又该如何应对AI幻觉?

AI幻觉与生俱来

可以说,只要AI大模型是基于概率生成文本,就会有幻觉。

什么是AI幻觉?南京理工大学计算机科学与技术学院副教授蒋庆远解释,一般而言,在计算机领域,AI 幻觉指的是AI大模型产生与事实不符的内容,最常见的表现就是会编造一些不存在的事实或者细节。简单理解,就是AI一本正经地胡说八道。

AI幻觉可以分“事实性幻觉”和“忠实性幻觉”。前者是AI大模型生成的内容与现实世界事实相矛盾,比如生成“秦始皇发明了电灯”,后者则是AI大模型生成的内容和用户的指令上下文不一致。

资料图片 图源: 新华社客户端

“AI 之所以会出现幻觉,主要原因是训练数据存在不准确以及大模型自身的推理特性。AI幻觉是技术发展中的阶段性挑战,行业正通过算法优化和监管措施逐步解决。”蒋庆远解释道,当大模型的数据本身不准确时,AI大模型就易抓取错误信息,生成错误内容。

另外,他还表示,AI大模型的特性是基于概率生成文本,当数据库中没有现成答案时,大模型会依据原有知识库,以及学习的概念关系进行推测,进而产生一些不完整或错误的信息。“

AI大模型在数据不足时可能基于统计规律生成看似合理但虚构的内容,这一过程本质是技术缺陷,而非主动的创造性行为。“这就像考试遇到不会的题目时,考生基于前期知识积累,完成题目的行为。AI幻觉的出现,其实是AI大模型基于自身逻辑推理形成的内容,这个推理行为本身没有问题。”蒋庆远说道。

多领域面临考验

如今,AI技术迅猛发展,不少人在获取信息时,会过度依赖AI大模型的答案,因此,AI幻觉导致的问题屡见不鲜。

美国纽约联邦法院官网

在国外,据路透社报道,2023年6月,一名纽约联邦法官对两名律师和一家律师事务所,处以了5000美元罚款,原因是他们代理的一起航空伤害索赔案中,引用了ChatGPT撰写的一份由虚假案例引证的法庭简报。

在国内,前文提到的“80后死亡率数据”,正是AI幻觉误导人们的“代表作”。

在网上,还有不少引用这一数据的关于80后死亡率的文章,比如:“80后5.2%的死亡率,开启了黄金一代的黯然离场”;再比如:“当80后开始集体谢幕——5.2%死亡率背后,一代人的生存困境与时代之殇”。

图源:央视新闻报道截图

中国人民大学教授李婷在接受媒体采访表示,这一数据与事实严重不符,而且错误非常明显,因为专业统计数据中关于死亡率用千分率表示,而不是百分率。

她认为,这个耸人听闻又漏洞百出的死亡率数据,很有可能是AI大模型在问题回答过程中出现错误,由于训练的语料不足、数据来源局限等,导致错误推算。

“所有的内容均由AI生成,仅供参考。”“内容由AI生成,请仔细甄别。”——在与大模型交互时,总会出现类似带有免责意味的“提示”,但却不耽误AI幻觉对人们的工作和生活的影响,如何面临幻觉问题带来的挑战,成为当务之急。

AI不是“万能药”

面对来势汹汹的AI幻觉,一些企业也在探索“应对之策”。

据相关报道,此前腾讯混元大模型,在预训练阶段,通过“探真”算法进行事实修正,实测幻觉率可以降低30%-50%;百度则发布iRAG技术,即image based RAG检索增强文生图技术,用于解决大模型在图片生成上的幻觉问题。

近年来,我国也相继出台了一系列管理规定,规范AI健康发展。如在2022年,国家互联网信息办公室等三部门就发布了《互联网信息服务深度合成管理规定》,明确指出深度合成服务提供者应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。

中国政府网截图

那么,普通人如何避免被AI大模型误导?

蒋庆远给出了几点建议。他表示,在与大模型交流时,优化提问方式,在一定程度上能减少幻觉出现,比如要求在指定范围回答,并提供信息来源链接。其次,可以要求大模型分批输出。由于大模型根据概率生成内容,单次生成的内容越多,产生的虚假内容也可能增加。另外,用户也可以通过交叉对比多个 AI 大模型回答或权威来源进行验证,以此避免误导。

此外,他也提到,在向大模型提问时,是否选择联网搜索也很重要,当选择联网搜索时,AI大模型会综合检索的结果和网上的数据,这在一定程度上,也可以减少“幻觉”的出现。







请到「今天看啥」查看全文