专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
目录
相关文章推荐
51好读  ›  专栏  ›  AINLPer

革命性RAG框架!Emory & UTA | 提出Spatial-RAG——开启空间智能问答的新时代

AINLPer  · 公众号  ·  · 2025-03-17 22:19

正文

请到「今天看啥」查看全文


点击上方 AINLPer ,设为 星标

更多干货,第一时间送达

引言

在人工智能领域,大型语言模型(LLMs)如GPT系列已经在文本生成和理解任务中展现了强大的能力。然而,当涉及到 空间推理 任务时,LLMs的表现却显得力不从心。空间推理不仅要求模型理解复杂的空间关系,还需要结合地理数据和语义信息,生成准确的回答。为了突破这一瓶颈,本文作者推出了革命性的框架: Spatial-RAG 该框架通过结合空间数据库和LLM的语义理解能力,显著提升了空间推理任务的性能
Paper https://arxiv.org/pdf/2502.18470

作者:Dazhou Yu,Riyang Bao,Gengchen Mai,Liang Zhao(埃默里大学, 德州大学奥斯汀分校)

背景介绍

空间问答作为一个基础领域长期存在,涵盖从最近邻识别到线与多边形交集检测等多种空间问题。传统空间问答系统依赖专业查询语言(如GeoSPARQL、Spatial SQL),这些语言与自然语言差异巨大,普通用户难以使用。

近年来,大型语言模型(LLMs)在理解和生成类人文本方面的进展,启发了本文作者尝试直接从LLMs中提取空间知识,应用于地理百科问答、地理定位和自动地图生成等领域。然而, 研究表明LLMs在空间推理方面存在显著局限,即使在地理解析(地理实体名称转换成坐标)和理解相对空间关系("北方"、"附近"、"之间"等)等基本任务上也表现不佳 。例如地理解析和理解相对空间关系。这种差距在处理现实世界的空间推理任务时尤为明显,案例如下图所示: 目前空间推理面临双重挑战:

  1. 空间约束 :上图用户的问题涉及复杂的空间关系:“沿某条路线推荐餐厅”。传统的空间数据库可以高效处理这些空间查询,但它们无法理解用户的语义需求:“要求肉食”。
  2. 语义理解 :LLMs擅长理解自然语言中的语义信息,例如用户对餐厅类型、价格或评分的偏好。然而,LLMs缺乏直接处理空间数据的能力,无法执行复杂的空间计算(例如,计算两个点之间的距离或判断一个点是否位于某个区域内)。

我们知道,RAG技术在知识密集型任务(如问答)中已经展示了其有效性,通过检索特定领域的文档来增强LLM的响应。然而,现有的RAG系统主要专注于检索和生成文本内容,缺乏空间推理任务所需的空间智能,尤其是涉及理解和计算几何体(如点、多段线和多边形)之间复杂空间关系的任务。

为解决这一问题,本文作者提出了 空间检索增强生成(Spatial-RAG)框架 ,将文本引导的空间检索与空间感知的文本生成相结合。 无缝集成了空间数据库、LLMs和基于检索的增强 ,使得能够在LLMs的熟悉操作范式内有效处理复杂的空间推理问题。

Spatial-RAG架构

Spatial-RAG是 第一个将RAG扩展到空间问答的架构 ,能够处理广泛的空间推理任务,如地理推荐、空间约束搜索和上下文路径规划。 图2 为能够让RAG技术更好的适配到空间QA上,作者分别在稀疏-密集空间检索、空间约束和文本推理平衡、系统评估方面做相关的创新。

1)稀疏-密集空间检索器 :提出了一种混合检索机制,结合了稀疏检索(基于SQL的结构化查询)和密集检索(基于LLM的语义匹配)。这种双重方法确保检索结果在空间和语义上与用户查询一致,显著提高了空间上下文中的检索准确性。

2)空间约束和文本推理平衡 :为了处理空间问答任务中的空间约束和文本推理,引入了一个多目标优化框架,动态平衡空间和语义相关性之间的权衡。这确保了生成的响应既几何准确又语言连贯。

3)系统评估 :在从旅游网站收集的真实世界数据集上评估了方法,该数据集包含用户对不同空间实体的问题和评论。在该数据集上的实验揭示了处理现实世界空间推理问题的能力。

Spatial-RAG算法详解

3.1 空间推理问题定义

对于一个空间推理问题 ,  Spatial-RAG 将生成答案 , 形式上,该研究定义:

其中包含三个待解决的关键阶段:

  1. 构建空间候选集 :系统必须精确定义空间约束,然后检索满足这些约束的空间对象。如图2 sparse spatial retrieval(稀疏空间检索)所示,通过将输入的自然语言问题解析为空间SQL查询来实现这一点,该查询将在空间数据库上执行,以高效地从数据库中检索相关的空间对象。此过程在第4.2节中详细说明。

  2. 计算空间相关性 :为了在集成文本信息的同时有效计算空间相关性,本文作者提出了一种混合空间检索方案。如图2所示,该方法结合了来自数据库的稀疏空间相关性分数和来自文本嵌入的密集语义相似性分数。这使得系统能够根据输入问题的空间相关性对检索到的空间对象进行排序,详见第4.3节。

  3. 多目标优化生成 :在给定空间和语义约束的情况下,本文作者提出了一个多目标优化问题来平衡这些因素。系统计算候选答案的Pareto前沿,LLM动态在这些解决方案之间进行权衡,以生成最优响应。此步骤在第4.4节中详细介绍。

3.2 稀疏空间检索

空间推理问题的答案必须满足特定的空间约束。空间候选集 由满足一组空间约束 的所有可能答案 组成。形式上,该研究定义:

其中 表示编码空间条件的约束函数(例如,拓扑、方向或距离约束), 是与问题 相关的所有空间约束的集合。例如,如果空间约束要求 与参考位置 的距离不超过 ,则可能的约束函数为:

这种公式确保只有空间上有效的答案才会被包含在 中。

处理空间约束需要在空间数据库中执行定义良好的空间SQL查询。此过程涉及识别适当的查询函数、参考空间对象、目标空间对象以及任何必要的数值参数。形式上,空间SQL查询可以表示为:

其中 是确定对象之间关系的空间查询函数。 表示从问题中提取的参考对象集合。 表示作为潜在答案的目标对象集合。 是控制空间约束的数值参数。

鉴于这些约束的多样性和潜在的复杂性,大型语言模型(LLMs)通常难以直接从用户输入中构建完整且可执行的空间查询。为了弥合这一差距,本文作者逐步构建空间查询,允许LLM系统地填充所需的组件。

方法遵循三个关键步骤:

  1. 几何识别 :从用户输入中识别并提取参考空间对象 和候选目标空间对象 ,并提取它们的空间几何体。
  2. 查询函数选择 :根据预期的空间关系(例如,包含、接近)确定适当的空间函数
  3. 参数估计 :分配数值约束 以确保精确的空间过滤(例如,缓冲区半径)。

通过形式化这一结构化过程,本文作者增强了LLM生成准确且可执行的空间SQL查询的能力,从而提高了系统处理复杂空间推理问题的能力。

3.2.1 几何识别

在空间推理任务中,准确识别空间对象并提取其空间几何体对于将问题解析为空间查询至关重要。空间对象 通常可以分为三种基本类型:点、多段线和多边形。形式上,本文作者定义这些类别如下:

  • 。此类别包括单个点和多点,表示面积可忽略的位置。例如,停车标志、地址点和用户的当前位置。在空间数据库中,这些实体通常表示为“点”几何类型。

  • 多段线 。多段线(包括多段线组)表示宽度可忽略的线性一维对象。常见的例子包括街道、河流、公交路线和电力线。在空间数据库中,这些几何体抽象为“线串”类型。

  • 多边形 。多边形(包括多边组)表示定义封闭区域的二维对象。这些几何体对于描绘区域(如人口普查区、地块、县、社区和分区区域)至关重要。

空间查询的复杂性取决于所涉及对象的类型。对于较简单的查询,例如“从给定位置找到最近的公交站”,只需要点几何体,空间候选集为:

其中 表示点对象(例如,给定位置), 是距离阈值。对于更复杂的查询,例如“我将从家沿着第7街和琼斯街步行到大学校园;请推荐一家我可以在步行途中购买早餐的咖啡馆。”,必须考虑多种几何类型,空间候选集为:

其中 表示多段线对象(例如,路线), 表示多边形区域(例如,大学校园), 是多段线周围的缓冲区, 是缓冲区大小。

通过以这种方式构建空间查询,本文作者确保了精确的几何表示,促进了强大的空间推理和查询执行。

3.2.2 查询函数识别和参数估计

在识别了空间查询中涉及的几何体之后,下一步是确定处理各种几何交互所需的适当空间查询函数 。尽管几何体之间的交互不同,但它们可以通过距离函数 统一处理,该函数计算两个几何实体 之间的最短距离。

形式上,给定参考几何体集合 和目标几何体集合 ,空间候选集 可以定义为:

参数如搜索半径或缓冲区距离 由LLM自主确定,通常基于上下文理解(例如,估计的步行距离或感兴趣区域)。参数 可以表示为: ,其中 是将查询 的上下文映射到适当数值的函数。

一旦几何体 、函数 和参数 被确定,系统将构建精确的空间查询 。这确保了从空间数据库中进行精确检索,保持结果的准确性和相关性。通过利用这些数学公式,系统有效地将空间推理任务转化为可执行的查询,促进了LLM框架内的强大空间智能。

3.3 混合空间对象排序

空间相关性分数 由两个部分组成:一个来自空间数据库的稀疏空间检索分数,另一个来自基于问题和候选对象空间描述之间的文本相似性的密集空间检索分数。形式上,本文作者定义:

其中 是控制每个分数贡献的权重系数。

3.3.1 稀疏空间相关性评分

稀疏空间相关性直接从空间数据库中使用显式空间关系计算。分数由空间查询函数 确定,该函数计算参考对象和目标对象之间的距离。形式上,本文作者定义:

其中 分别是参考和目标空间对象。 是测量空间数据库中接近度的距离函数。如果 重叠,分配一个完美的相关性分数1。

这确保了区域内的对象具有最大的相关性,而区域外的对象随着距离的增加,其分数逐渐衰减。

3.3.2 密集空间相关性评分

与稀疏评分不同,密集空间相关性是从与空间对象相关的文本描述中推断出来的。本文作者利用LLM从用户查询中提取关键空间属性,并将其与候选对象的描述进行比较。

提取空间需求 :给定用户查询 和一组空间对象 的文本描述 ,本文作者通过基于注意力的掩码函数提取相关的空间内容:

其中 是空间特征的密集向量表示, 是将输入文本映射到空间相关文本的提取函数, 是文本编码器。

通过余弦相似性排序 :相关性分数通过余弦相似性计算:

3.3.3 混合排序作为广义模型

混合排序泛化了稀疏和密集排序方法:

  • 仅稀疏情况 :如果 ,则 ,简化为纯基于距离的排序。
  • 仅密集情况 :如果 ,则 ,简化为纯基于语义的排序。
  • 混合情况 :如果两个权重都非零,混合排序受益于显式空间约束和隐式语义相关性,从而形成更全面的排序机制。

这种公式确保混合排序通过捕捉空间接近度和语义对齐,优于任何单一排序方法。

3.4 多目标生成

语义候选集 和语义相关性分数 基于密集向量相似性计算。在获得所有分数和候选集后,问题变为多目标优化问题,因为每个视角(空间和语义)都独立贡献。

3.4.1 Pareto前沿计算

给定空间和语义相关性分数,目标是识别在空间和语义相关性之间实现最佳权衡的Pareto最优候选。一个候选 是Pareto最优的,如果没有其他候选在空间和语义相关性上都优于它。形式上,Pareto前沿 定义为:

这确保了 中的每个候选都是非支配的,意味着没有其他候选在空间和语义相关性上都严格优于它。

3.4.2 基于LLM的权衡决策

一旦确定了Pareto前沿 ,本文作者使用LLM根据用户查询的上下文动态平衡空间约束和语义偏好之间的权衡。具体来说,LLM接收用户查询、稀疏空间相关性分数和空间对象描述作为输入:

基于上下文信息的动态加权函数 从输入中提取,调整空间与语义相关性的重要性,其中 是捕捉查询特定权衡的学习函数。

LLM选择排名最高的候选

并生成自然语言响应。

系统适应不同的查询上下文,而不是使用固定的加权方案。通过将决策过程结构化为离散步骤(候选过滤 Pareto选择 权衡平衡 响应生成),LLM避免了生成不可行或不合理的结果。这种结构化方法最大限度地提高了准确性和可用性,确保系统的最终响应与用户的原始意图紧密一致。

实验结果

本文作者在 纽约市 迈阿密 的旅游数据集上对Spatial-RAG进行了评估,展示了其在处理真实世界空间推理问题上的显著优势。

数据集与评估指标

  • 数据集 :使用了来自TripAdvisor的用户问题和评论数据,涵盖纽约市的9,470个兴趣点(POIs)和迈阿密的2,640个POIs。
  • 评估指标
  1. 交付率 :评估方法是否能够成功生成结果。
  2. 空间稀疏通过率 :评估解析的空间查询是否正确。
  3. 空间密集通过率 :评估答案是否满足问题中的空间相关语义约束。
  4. 语义通过率 :评估答案是否符合问题中的语义约束。

对比方法

为了评估LLM(GPT-3.5-Turbo和GPT-4-Turbo)在此框架下的表现,研究团队对比了以下基线方法:

  • Sort-by-distance (SD):按照空间问题中的参考对象距离排序候选空间对象。
  • Text embedding (TE):基于文本描述的嵌入向量,计算目标对象与参考对象的向量距离,并选择最近的对象。
  • Spatial-text (ST):基于用户问题的嵌入向量计算与目标对象文本描述的相似度,并结合目标对象的距离得分进行加权求和后决策。
  • Naive RAG :使用向量数据库存储所有空间对象描述,并基于向量相似性检索最相关的对象。
  • GeoLLM :对空间对象进行编码,并通过添加附近对象的空间信息丰富上下文。

实验结果

纽约(NYC)

  • Spatial-RAG(GPT-3.5-Turbo 和 GPT-4-Turbo)在交付率上与其他基线方法存在一定差距,大约 86.1% 的问题被成功处理。
  • 失败的 12.9% 的情况是由于 无法从空间数据库检索到任何空间对象(可能由于多边形识别错误或SQL查询指定区域内无相关对象)。
  • 另 0.9% 的情况是 LLM在重新排序(reranking)过程中未能正确排列检索结果。
  • Spatial-RAG(GPT-4-Turbo)比 GPT-3.5-Turbo 在 Spatial Dense Pass Rate 上高 7%,在 Semantic Pass Rate 上也稍有优势。
  • SD 方法由于仅基于距离返回最近的对象,其 Spatial Dense Pass Rate 较高,但其他指标表现较差。
  • GeoLLM 方法仅基于对象名称和距离,因此在 Spatial Dense Pass Rate 方面表现尚可。
  • TE 和 ST 方法考虑了语义信息,在 Semantic Pass Rate 方面表现较优。
  • Naive RAG 和 ST 共同优化了空间密集检索和用户语义检索,因此两者在这两个方面表现接近。

迈阿密(Miami)

  • Spatial-RAG 在迈阿密数据集上的表现也较好。
  • 基线方法的表现模式与纽约数据集基本一致,但由于迈阿密的数据量较小(QA 对数量仅为 133),模型表现的稳定性可能受到影响。

消融实验

本文作者通过移除稀疏空间模块、密集空间模块和密集语义模块进行了消融实验。结果表明:

  • 移除稀疏空间模块后,交付率显著提高,但空间得分下降。
  • 移除密集语义模块后,空间密集通过率最高,但语义通过率显著降低。

案例研究

下面两张图展示了一个典型的多段线搜索案例。Spatial-RAG成功识别了用户意图,推荐了沿路线的餐厅,展示了其在复杂空间推理任务中的强大能力。

Spatial-RAG 运行方式的示例:给定一个问题,1) 稀疏空间检索:LLM 将自然语言问题解析为空间数据库的空间 SQL 查询,检索满足空间约束和稀疏空间相关性分数的空间对象。2) 问题分解和密集检索:同时,Spatial-RAG 将问题分解为空间和语义组件,并将它们与空间对象的描述进行比较以执行密集检索,过滤掉不相关的内容。3) LLM 重新排序:语言代理平衡空间和语义方面以重新排序候选并生成最终答案。

(a) 查询ϵ km半径内的点 (b) 查询路径周围的点 (c) 查询多边形内的点”

更多前沿内容>> 专注于大模型/AIGC、Agent、RAG等分享!

推荐阅读

[1] Kimi|出MoE注意力架构:MoBA!

[2]2万字长文!一文了解Attention,非常详细!

[4]这几天!DeepSeek发布5个重要代码库!

[5]每周速递44期!大模型最前沿!

欢迎投稿或寻求报道,联系:ainlperbot

「资料整理不易,点个 再看







请到「今天看啥」查看全文