论文
:FAME: Towards Factual Multi-Task Model Editing
链接
:https://arxiv.org/abs/2410.10859
项目
:https://github.com/BITHLP/FAME
前言
大语言模型中丰富的知识使得其在如智能助理,法律顾问,医疗咨询等多个领域中表现出色。但是大语言模型中过时的知识或事实错误会导致不正确的输出,进而在实际应用中导致严重后果。微调和重新训练都可以修正大语言模型中的事实,但是微调可能导致灾难性遗忘,而重新训练的代价过高。为了解决这一问题,之前的工作提出了
模型编辑
任务用于精准高效地修正大语言模型中的知识。
然而,之前的数据集如COUNTERFACT[1]或ZSRE[2]存在以下问题:
-
使用虚构的数据:编辑的目标是虚构的,使得这些数据集不能真实用于提升模型能力。
-
大语言模型的回答可能因过时而错误,模型编辑可以修正这一错误。但是之前的数据集大多将错误的答案修改成了另一个虚构的错误答案,而本文的数据集使用真实世界的数据。
这些问题使得之前的数据集既不能真实地用于提升大语言模型的能力,也难以评价之前的模型编辑方法在真实世界中的有效性。
为了推动模型编辑在真实世界中的应用,作者提出了一个新的标准:
实用性
。这一标准包含以下两个方面:
-
对于模型编辑数据集来说,它应该
真实
、
多样
、
高质量
-
对于模型编辑方法来说,它应该
高效
、
泛化性强
、
能处理现实世界的复杂变化
为了解决模型编辑数据集和方法实用性不足的问题,推动模型编辑在现实世界中的应用,作者提出了具有实用性的模型编辑数据集
FAME
和模型编辑方法
SKEME
。
模型编辑
定义
设一个模型为
,其中
代表输入集合,
代表输出集合,用
表示一个输入-输出对,特别地,用
表示正在被编辑的事实。
-
设
为
语义上的等价领域,也即和
具有相同语义的输入输出对的集合,对于在这一集合内的输入,期望的输出即为
。(待编辑事实的输出即是期望输出)。
-
设
为
将作为先验知识后,可以推导得出的事实的集合,对于这一集合内的输入,期望的输出为
。(模型基于待编辑事实可以推导得出新的输出)。
-
设
为除
和
之外的输入-输出对,对于这一集合内的输入,期望的输出为
(模型的输出不应该改变)。
相关工作
模型编辑可以分为
修改模型参数
和
不修改模型参数
两类方法。
-
修改模型参数的方法包括元学习和定位然后编辑,前者训练一个超网络来预测编辑模型所需的参数更改;后者定位需要编辑的神经元,之后进行针对性修改。
-
不修改模型参数可以分为基于额外参数和基于知识库的方法,前者冻结原有模型参数,并添加额外参数进行微调;后者类似于检索增强生成(RAG)模型,知识存储在一个外部知识库中。
FAME:一个实用的模型编辑数据集
为了解决模型编辑数据集实用性不足的问题,作者提出了
FAME (FActual Multi-task model Editing)
数据集。FAME 有以下优势:
-
真实
:FAME 的所有数据从两个在线数据库 Wikidata 和 DBpedia 收集,保证了数据符合真实世界事实。
-
多样
:FAME 包含 QA,句子补全,完形填空,多项选择,事实核查,对话等多种形式的任务。
-
高质量
:FAME 使用人工核查,抽查数据项并逐个核查数据模板,以确保数据的质量。
表 1: FAME和之前工作提出的模型编辑数据集的对比。“isC.”、“Cho.”、“FC”、“Clo.”、“Dia.”、“Com.”、“Re.”、“WD.”、“DB.”、“Si.” 和 “Mu.”分别表示数据是否真实、多项选择、事实核查、完形填空、对话、句子补全、关系数、Wikidata、DBpedia、单跳问题、多跳问题
上表展示了FAME和之前模型编辑数据集的对比,可以看出,FAME是少有的使用了真实数据的数据集之一。另外,FAME涵盖了多种任务,并在数据总数、包含的关系数、数据来源、包含的问题形式上均有优势,展现出了其多样性。
SKEME:为真实世界应用设计的模型编辑方法
为了适应模型编辑在现实世界中的需要,作者提出了模型编辑方法
SKEME
(
Structured Knowledge retrieved by Exact Matching and reranking Editing
),这种方法创新地将缓存机制和 RAG 融合,使得其能应对现实世界的变化。
SKEME 分为以下三步:
-
-
实体抽取旨在从输入中抽取出关键实体,以使后续的检索过程不受输入形式的影响。
-
-
受计算机系统中缓存系统的启发,作者设计了类似的机制来存储知识。
-
知识以知识图谱(knowledge graph)的形式存储,当需要检索时,首先在本地知识库检索。如果在本地知识库未找到,则在外部数据库(如 Wikidata 和 DBpedia)检索,并将检索得到的知识存储在本地。
-
-
-
将检索得到的知识按照和输入的相关性重排,并使用 in-context learning 来修正模型的输出。
实验
评价指标
作者分以下几个方面来评价模型编辑方法的效果:
-
正确率
:编辑后的模型输出是否与目标输出精确匹配(
EM
)。
-
副作用
:作者使用
DD
和
NKL
评价副作用。前者评价模型在不相关事实上的输出是否改变,后者评价编辑前后模型输出改变的剧烈程度。
-
综合评价
:作者提出了一个新的指标
SURE(Statistical and Unbiased Real-world Evaluation)
。SURE 将 EM 和 DD 结合起来以评估编辑后模型的实际能力: