专栏名称: 深度学习自然语言处理
一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
目录
相关文章推荐
上海发布  ·  2025年“乐·上海”服务消费券来啦! ·  昨天  
上海发布  ·  【最新】市政府近日发布一组人事任免信息 ·  3 天前  
乐游上海  ·  免费大展!网红博物馆又上新了 ·  3 天前  
51好读  ›  专栏  ›  深度学习自然语言处理

ACL2024 | LLM+RAG可能要毁了信息检索,一份深入研究

深度学习自然语言处理  · 公众号  ·  · 2024-09-02 13:30

正文

论文 :[ACL2024] Spiral of Silence: How is Large Language Model Killing Information Retrieval?—A Case Study on Open Domain Question Answering
地址 :https://arxiv.org/pdf/2404.10496

研究背景

  1. 研究问题 :这篇文章研究了大型语言模型(LLMs)对检索增强生成(RAG)系统的影响,特别是LLM文本在信息检索和生成中的短期和长期效应。具体来说,研究了LLM生成文本是否会逐渐取代人类生成的内容,导致数字信息生态系统中的“沉默螺旋”效应。
  2. 研究难点 :该问题的研究难点包括:LLM生成文本的快速传播和索引对检索和生成过程的影响;如何评估LLM生成文本对RAG系统的短期和长期影响;以及如何防止LLM生成内容的错误传播和误导信息的扩散。
  3. 相关工作 :相关研究包括RAG系统的分析、AIGC的影响以及“沉默螺旋”理论的应用。RAG系统的研究表明,检索在增强语言模型效能方面起到了重要作用。AIGC的研究则集中在AI生成内容对社会和技术的影响,特别是对错误信息和偏见的研究。

研究方法

这篇论文提出了一个迭代管道来研究LLM生成文本对RAG系统的短期和长期影响。具体来说,

  1. RAG系统建模 :RAG系统可以形式化为一个函数 , 其中 是查询集合, 是文档集合, 是LLM的知识库, 是系统生成的文本集合。RAG系统分为检索阶段和生成阶段, 分别通过检索函数 和生成函数 实现。
  2. 模拟过程 :模拟过程从纯人类生成文本数据集开始, 逐步引入LLM生成文本, 观察其对RAG系统的影响。具体步骤包括:
  • 基线建立:使用初始数据集 建立基准RAG管道的性能。
  • 零样本文本引入:将LLM生成的零样本文本加入数据集 , 生成新的数据集
  • 检索和重排:对每个查询 , 通过检索函数 获取文档子集 , 并进行重排。
  • 生成阶段:使用LLM生成答案文本
  • 后处理阶段:去除可能暴露LLM身份的文本片段。
  • 索引更新:将生成的文本 加入数据集 , 更新索引。
  • 迭代操作: 重复上述步骤, 直到达到所需的迭代次数

实验设计

  1. 数据集和指标 :实验使用了常用的开放域问答(ODQA)数据集,包括NQ、WebQ、TriviaQA和PopQA。评估检索阶段的指标包括Acc@5和Acc@20,评估生成阶段使用Exact Match(EM)指标。






请到「今天看啥」查看全文