专栏名称: 深度学习自然语言处理
一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
目录
相关文章推荐
河南新闻广播  ·  今天起正式实施!食品添加剂最新标准 ·  19 小时前  
河南新闻广播  ·  批复了!又一家新银行,要来了→ ·  19 小时前  
大河报  ·  零下12.8℃!今早河南多地冻“黑紫” ·  2 天前  
河南新闻广播  ·  登顶中国影史票房榜首!哪吒16字回应 ·  2 天前  
河南市场监管  ·  假日不放松 监管不打烊 ... ·  3 天前  
51好读  ›  专栏  ›  深度学习自然语言处理

最新RAG综述:15种经典RAG框架综述(上)

深度学习自然语言处理  · 公众号  ·  · 2024-12-26 15:25

正文

来源:深度图学习与大模型LLM

本文约3500字,建议阅读9分钟

本文深入探讨了 Retrieval-Augmented Generation (RAG) 的发展历程,从基础概念到最新技术。

LLM所有细分方向群+ACL25/ICML25/NAACL25投稿群->LLM所有细分领域群、投稿群从这里进入!


15种典型RAG框架:卡内基梅隆大学最新RAG综述

A Comprehensive Survey of Retrieval-Augmented Generation (RAG): Evolution, Current Landscape and Future Directions

本文深入探讨了 Retrieval-Augmented Generation (RAG) 的发展历程,从基础概念到最新技术。RAG 通过结合检索与生成模型,有效提升了输出准确性,克服了 LLM 的局限。研究详细分析了 RAG 的架构,展示了检索与生成如何协同处理知识密集型任务。此外,本文还回顾了 RAG 在问答、摘要等领域的关键技术进展,并探讨了提升检索效率的新方法。同时,文章也指出了 RAG 在可扩展性、偏见和伦理方面的挑战,并提出了未来研究方向,以增强模型鲁棒性、拓展应用范围并关注社会影响。本调查旨在为 NLP 领域的研究者和实践者提供一份基础指南,帮助他们更好地理解 RAG 的潜力及其发展路径。

https://arxiv.org/abs/2410.12837

1. 引言

1.1 检索增强生成(RAG)概览

RAG(Retrieval-Augmented Generation)融合了两大核心组件:

-(i)检索模块,负责从外部知识库中检索相关文档或信息,利用 密集向量 表示从大型数据集,如维基百科或私有数据库中识别相关文档。

-(ii)生成模块,负责处理这些信息,产出类似人类语言的文本,检索到的文档随后被送至生成模块,该模块通常基于 transformer 架构构建。

RAG有助于 减少生成内容的“幻觉”现象 ,确保文本更具事实性和上下文适宜性。RAG已广泛应用于多个领域,包括:

  • 开放领域问答
  • 对话智能体
  • 个性化推荐。

1.2 混合检索和生成的新系统

在RAG出现之前,自然语言处理(NLP)主要依赖于检索或生成方法。

  • 基于检索的系统:例如传统的信息检索引擎,能够高效地根据查询提供相关文档或片段,但无法合成新信息或以连贯的叙述形式呈现结果。
  • 基于生成的系统:随着 transformer 架构的兴起,纯生成模型以其流畅性和创造力受到欢迎,却常常在事实准确性上有所欠缺。

这两种方法的互补性,使得大家开始尝试检索和生成的混合系统。最早的混合系统可以追溯到DrQA,使用检索技术来获取问答任务的相关文档。

1.3 RAG 的局限性

  • 在面对模糊查询或特定知识领域的检索时,仍可能出现错误。依赖于如DPR(Dense Passage Retrieval)所使用的密集向量表示,有时也会检索出不相关或偏离主题的文档。因此,需要通过引入更精细的查询扩展和上下文消歧技术来提升检索技术的精准度。理论上,检索与生成的结合应该是天衣无缝的,但在实际操作中,生成模块有时难以将检索到的信息有效整合进回应中,导致检索事实与生成文本间的不一致或不连贯。
  • 计算成本也是一个备受关注的点,因为需要对每个查询执行检索和生成两个步骤,这对于大规模应用尤其资源密集。模型剪枝或知识蒸馏等技术可能有助于在不牺牲性能的前提下降低计算负担。
  • 伦理问题,尤其是偏见和透明度问题。AI和LLM中的偏见是一个广泛研究且不断演变的领域,研究者们识别出包括性别、社会经济阶层、教育背景在内的多种偏见类型。虽然RAG通过检索更平衡的信息有潜力减少偏见,但仍存在放大检索来源偏见的风险。而且,确保检索结果在选择和使用过程中的透明度,对于维护这些系统的信任至关重要。

2. RAG系统的核心构件与架构概览

2.1 RAG模型概览

RAG模型包括两个核心组件:

  • 检索器:利用密集段落检索(DPR)或传统BM25算法等技术,从语料库中检索最相关的文档。
  • 生成器:将检索到的文档整合成连贯、上下文相关的回答。

RAG的强项在于其能够 动态 利用外部知识,在性能上超越了依赖 静态数据集 的生成模型如GPT-3。

2.2 RAG系统中的检索器

2.2.1 BM25

BM25是一种使用较广的信息检索算法,利用词频-逆文档频率(TF-IDF)来根据相关性对文档进行排序。尽管是一种经典方法,依然是许多现代检索系统,包括RAG模型中使用的系统的一个标准算法。

BM25根据查询词在文档中的出现频率来计算文档的相关性得分,同时考虑文档长度和词在整个语料库中的频率。尽管BM25在关键词匹配方面表现出色,但它在理解语义含义上存在局限。例如, BM25无法捕捉词与词之间的关系 ,并且在处理需要上下文理解的复杂自然语言查询时表现不佳。

但是,BM25因简单高效而被广泛采用。适用于基于关键词的简单查询任务,尽管像DPR这样的现代检索模型在处理语义复杂的任务时往往性能更好。

2.2.2 密集段落检索(DPR)

密集段落检索(Dense Passage Retrieval,DPR)是一种新的信息检索方法。使用一个高维向量空间,查询和文档都被编码成高维向量。

采用 双编码器架构 ,分别对查询和文档进行编码,从而实现高效的最近邻搜索。

与BM25不同,DPR在捕捉查询和文档之间的 语义相似性方面表现出色 ,使其在开放域问答任务中极为有效。

DPR的优势在于其能够 根据语义含义而非关键词匹配来检索相关信息 。通过在大量问答对语料库上训练检索器,DPR能够找到与查询上下文相关的文档,哪怕查询和文档没有使用完全相同的词汇。最新的研究通过将DPR与预训练语言模型结合,进一步优化了DPR。

2.2.3 REALM(Retrieval-Augmented Language Model)

REALM将检索过程融入语言模型的预训练,确保检索器与生成器协同优化,以适应后续任务。

REALM的创新之处在于:能够学习检索出能够提升模型在特定任务上表现的文档,比如问答或文档摘要。

训练过程中, REALM对检索器和生成器进行同步更新 ,优化检索流程以更好地服务于文本生成任务。

REALM的检索器被训练为能够识别出 既与查询相关又有助于生成准确、连贯回答的文档 。因此,REALM显著提升了生成回答的质量,尤其是在需要依赖外部知识的那些任务上。

最新研究显示,在某些知识密集型任务中, REALM超越了BM25和DPR ,特别是在检索与生成紧密结合的情况下。

RAG的 精髓在于检索段落的质量 ,但许多现有方法依赖于基于相似性的检索(Mallen等,2022)。

Self-RAG和REPLUG通过利用大型语言模型(LLM)增强检索能力,实现了更灵活的检索。

初次检索后,交叉编码器模型通过联合编码查询和检索文档来重新排序结果,计算相关性得分。这些模型虽然提供了更丰富的上下文感知检索,但计算成本较高。

RAG系统利用LLM中的自注意力机制来管理输入和检索文本各部分的上下文和相关性。在将检索信息整合到生成模型时,采用交叉注意力机制,以确保在生成过程中突出最相关的信息片段。

2.3 RAG系统中的生成器

在 RAG 中,生成器是将检索到的信息与输入查询融合,生成最终输出的关键环节。

一旦检索组件从外部资源中提取出相关知识,生成器便会将这些信息编织成连贯、符合上下文的回应。大型语言模型(LLM)构成了生成器的核心,确保生成的文本流畅、准确,并与原始查询保持一致。

2.3.1 T5

T5((Text-to-Text Transfer Transformer)是RAG系统中用于生成任务的常用模型之一。

T5的灵活性体现在其将所有NLP任务视为文本到文本的任务。这种统一的框架使得T5能够针对广泛的任务进行微调,包括问答、摘要和对话生成。

通过整合检索与生成,基于T5的RAG模型在多个基准测试中超越了传统生成模型,如GPT-3和BART,特别是在Natural Questions数据集和TriviaQA数据集上。

此外,T5在处理复杂多任务学习方面的能力,使其成为需要应对多样化知识密集型任务的RAG系统的首选。







请到「今天看啥」查看全文