专栏名称: APPSO
让智能手机更好用的秘密。
目录
相关文章推荐
51好读  ›  专栏  ›  APPSO

AI 能「深度研究」了,但我还是离不开百度和 Google

APPSO  · 公众号  · app  · 2025-03-17 17:23

正文

在一轮轮 AI 基础建设起来之后,目前率先卷起来的应用场景,是「深度研究」。
更准确、更针对、更深入,看到「深度研究」卷成这样,不禁要大呼:完了,搜索引擎都别干了。
别急,还未必就这样。
Semrush 是一个监测网站的访问流量变化的平台,数字营销及 SEO 在调研中发现,Semrush 统计显示,被认为最容易受到 AI 威胁的维基百科,流量实际上并没有如预期般走低。
月均访问量仍然有 50 亿次,谁说的 Wikipedia 马上就要被 AI 干掉了?
甚至不同于搜索引擎,支持关键词又支持完整句, 维基百科是一个「词条」导向的检索方式 ,纯复古。
AI 搜索不断进化的过程,实际也在不断证明 Wikipedia 的重要性,或者说内容来源的重要性。
幻觉横行的旧版本
早期把 AI 应用到搜索场景中时,它的 幻觉是一个严重的问题 。尤其是预训练和参数量被视为唯二法则的时候,LLM 有时会给出行文上看起来合理,但实则虚假的回答。
「一本正经地胡说八道」是最常见的形容。比如,去年两位纽约律师遭到了法庭制裁,因为他们提交的文书中,有六个案件引文完全不存在,是律师们在用 GPT 生成时,模型凭空捏造出来的 。
这个例子多少有点离谱,却很典型:在早期 AI 搜索没有被质疑的时候,引用链接还不是常见的设计,导致 AI 直接给出的单一答案往往缺乏透明度 ,很难核查。
这对于某些领域的工作而言是非常致命的。2022 年,Meta 曾经发布过一版名为「Galactica」的模型,主打科研场景,但没几天就被科研人员大量投诉,Meta 不得不紧急撤回一个发布。
相比之下,传统搜索引擎的排列,有一套规则和判断方式。以 Google 去年发布的 Google’s Search Quality Rater Guidelines 中,提出了一套「EEAT」法则:
简而言之就是, 经验、专业性、权威性、可信度 ,这四个维度,共同构成了 Google 抓取内容时的标准。同时,平台还会根据用户反馈,调整页面排名,使低质内容沉底。 这些机制,都对错误信息和低质内容起到了过滤的效果,从而保障整体信息质量。
当然,不能忽略的是,当竞价广告成为传统搜索引擎的主要收入来源之后,这一套机制也要对营收妥协。
不过,传统搜索引擎的形态在很长一段时间内没有发生变化。而 AI 搜索,在过去一两年里快速进步,在形态上发生了翻天覆地的改变。
有「深度研究」就可以不核查了吗?
今年才过去三个月,主流的大模型厂商纷纷推出 Deep Research 服务。从 OpenAI、DeepSeek,到刚推出不久的 Grok 3,以及曾经的弄潮儿 Perplexity,「深度研究」成了一时间,家家都在卷的功能。
所有的 Deep Research 都有一点共性: 内容有来源,且来源可追
在以往,AI 生成的回答就是一个完整的段落,让人没法核查。有些即便提供了引用来源,溯源依然有很大的难度。
比如,模型罗列了一大堆网站和文档,但实际只用了其中一小部分内容。或者给出的回答主要靠数据集的「记忆」来生成,而非检索到的文档。
而作为 Deep Research 模式的 基本操守 ,来源是必须有的。在 ChatGPT 的 Deep Research 中,会文内显示来源网站的域名。
Grok 3 里面是在思考过程里列出网址,报告正文有时候会触发出文内引用,有时候没有,看情况。






请到「今天看啥」查看全文