专栏名称: 深度学习与图网络
关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
目录
相关文章推荐
HACK学习呀  ·  交易实战 | ... ·  昨天  
九派新闻  ·  科室主任回应唐山南湖医院停诊:正在调整 ·  3 天前  
西安头条  ·  一医院突然停诊,所有患者全部出院! ·  3 天前  
FM1007福建交通广播  ·  唐山南湖医院被曝倒闭!院方:已停止接诊,患者 ... ·  4 天前  
51好读  ›  专栏  ›  深度学习与图网络

图结构赋能语言模型:华为诺亚MILA联合提出基于图的可控数据合成提升大语言模型长逻辑链推理能力

深度学习与图网络  · 公众号  ·  · 2024-10-24 09:35

正文

图结构赋能语言模型:华为诺亚MILA联合提出基于图的可控数据合成提升大语言模型长逻辑链推理能力

Enhancing Logical Reasoning in Large Language Models through Graph-based Synthetic Data

https://arxiv.org/abs/2409.12437

大语言模型(LLMs)在理解和生成类人语言方面取得了巨大的进步,展现了其在自然语言处理上的强大潜力。然而,当涉及逻辑推理,尤其是多跳推理和复杂关系时,这些模型的能力仍然有待提高。L LM 的未来不只是通过更大的模型和更多的数据来实现,而在于如何使用更智能的数据和更有效的方法来训练这些系统,从而增强其逐步推理的能力 。最近的研究表明,基于图的合成数据可能是提升 LLM 逻辑推理能力的关键突破口。

1. 研究目的

本文探讨了通过基于图的合成推理数据作为训练监督信号,以提升大语言模型(LLM)在逻辑推理任务中的表现,同时揭示了这种方法的潜力和局限性。研究团队提出了一种创新方法,利用图结构化数据进行任务特定的后期训练,以提高模型在逻辑推理任务中的准确性和生成质量。

  • 论文链接: https://arxiv.org/abs/2409.12437

2. 逻辑推理的挑战

尽管近年来在训练和提示策略上取得了显著进展,大语言模型(LLMs)在处理多跳推理任务时仍然面临挑战。例如,像 Mistral 和 Llama 这样的模型在理解上下文方面表现得非常出色, 但在推断家庭关系或处理空间位置等多跳复杂推理任务上,仍然存在性能瓶颈 。这些任务不仅需要记忆和模式识别能力,还需要模型能够深入理解和处理复杂的逻辑关系链。

3. 数据合成相关工作

近期几项研究[1] [2]已经证明通过在更强大的LLMs生成的合成数据上进行微调,可以有效提升LLMs的推理能力。然而,如何使这种合成数据生成对特定应用有效且保证可控生成仍是一个悬而未决的问题。同时需要进行广泛的提示工程和进一步的人工干预来指导LLMs的生成,但生成的长链推理问题的难度及其标签的质量仍然不可保证[3][4].

4. 基于图的合成数据

研究团队提出了一种创新方法[5],利用基于图的合成数据来弥补 LLM 在推理能力上的不足。与仅依赖自然语言数据不同,他们将逻辑推理任务转换为图表示——节点代表实体(如家庭成员或空间位置点),边代表它们之间的关系。

为了生成这些合成数据,研究人员采用了一种关系图构建方法, 通过迭代建立连接并生成推理样本 。通过随机游走采样,可以可控的创建不同复杂度的抽象推理链(通过游走的步数控制数据的复杂度),并进一步实例化推理链条完成数据合成。这种方法在生成长逻辑链方面表现优于传统方法,同时在经济性上也更加高效。

他们将此方法应用于两个基准逻辑推理任务:用于人物关系推理的 CLUTRR 和空间推理的 StepGame 。这些基准代表了多跳推理任务,模型必须通过多步逻辑推导来得出正确结论。实验结果表明,利用基于图的合成数据SFT大模型后可以显著提升模型在多跳逻辑推理任务中的表现,尤其是在复杂情境下效果尤为显著。

5. 互补的提示策略

除了合成数据,研究团队还提出了一种新型的提示策略,称为 ETA-P (Extract then Answer - Prompting: 提取逻辑链然后回答的提示) 。与标准提示策略STD-P (Standard Prompting)不同,ETA-P 首先引导模型从输入文本中提取关系图,然后再尝试回答问题。这种方法类似于Graph版本的“Chain of Thought Prompting”,帮助模型系统分解复杂问题,先整理关键信息形成推理链条,再逐步推导出结论。

6. 基线设置

作者评估了三种系统配置,均使用指令调教的 LLM 作为主干模型:

  1. FS(Few-shot) :模型在少样本条件下测试,无额外微调。
  2. SFT-S(监督微调) :模型在官方训练集上进行监督微调,使用自然语言故事数据。
  3. SFT-S+k :微调数据由原有训练故事加上 k 条基于图游走的合成样本组成。

在主要实验中,作者使用了 Mistral-2-7B 作为主干模型,并包含商业闭源模型 GPT-4o 的少样本测试结果。

7. 研究结果

基于图的合成数据和提示策略在实验中取得了显著效果。微调后的模型在高复杂度场景中的表现明显优于仅依赖传统标注数据训练的模型。具体来说,作者在 StepGame CLUTRR 这两个基准数据集上进行实验,观察到添加合成数据后模型在推理复杂度上取得显著进步并且符合训练数据的scaling law,甚至在某些情况下超越了商业闭源模型 GPT-4o。此外,所有模型在推理复杂度从低到中再到高时,性能都出现了系统性下降,这表明特别复杂的推理任务仍然对 LLMs 构成了重大挑战。







请到「今天看啥」查看全文