你有多久没用过搜索引擎了?或者换个问法,你的搜索习惯有没有发生变化?在大模型时代,传统搜索引擎是否仍然不可或缺?
01
一个服务器报错引起的问题
最近,我遇到了一个服务器报错问题。如果是几年前,我的第一反应肯定是复制报错信息,粘贴到搜索引擎中,看看排名靠前的页面里有没有能解决问题的帖子。
通常情况下,像 StackOverflow 这样的技术社区会排在搜索结果的前列,因为它积累了大量的技术问答资源,很多开发者遇到问题都会去那里找答案。
而对于一些较为冷门的问题,答案可能隐藏在某个小众论坛或者个人博客里,这时候就需要我们具备一定的耐心和判断能力,从搜索结果中筛选出最有价值的内容。
02
把问题交给大模型
但这一次,我决定尝试用大模型来解决问题。我直接把报错信息交给 Perplexity,并让它结合 DeepSeek R1 进行推理,同时联网搜索可能的解决方案。
从表面上看,这样的方式似乎比传统搜索更高效。因为大模型不仅能从多个来源抓取信息,还能自动总结、归纳,理论上可以帮我省去筛选冗余信息的步骤。
然而,实际情况并没有那么理想。大模型确实提供了不少建议,它总结了所有能找到的网页内容,整体上看似乎很专业,也省去了人工筛选的步骤。
但真正能解决我问题的内容,可能只藏在其中的一篇帖子里。如果逐一尝试所有的文字方案,不仅耗时,还可能带来不必要的干扰。
这一点让我意识到,光靠大模型的总结是不够的。在关键时刻,我们仍然需要自己查找和验证信息,而不能完全依赖它的归纳。
于是,我回归到当年的原始方式,开始手动检查大模型引用的来源,逐一打开相关网页。最终,在第三个网页上,我找到了真正需要的内容。
03
大模型帮了忙,但不是它想的那样
可见,在这个过程中,大模型的确提供了一些帮助,比如节省了搜索的时间,帮我缩小了范围,但它并没有做到完美助攻,真正的答案还是需要我自己去挖掘。
这让我想到一个问题:为什么大模型在这个过程中没能彻底解决问题?很大程度上,这是因为多模态能力的局限性。
当前的大模型在文本处理方面表现突出,但它们并不能很好地理解网页中的图片、截图等信息,而很多技术问题解决方案的匹配,恰恰隐藏在这些非结构化的数据里。
如果它无法有效分析网页中的关键图像,或者没有识别到某些截图与我的问题高度相似,那它的推理能力也就受到了限制。
04