作者 |
Khurram Javed
,
Hengshuai Yao
,
Martha White
译者 | Monanfei
出品 | AI科技大本营(ID:rgznai100)
实践证明,基于梯度的元学习在学习模型初始化、表示形式和更新规则方面非常有效,该模型允许从少量样本中进行快速适应。这些方法背后的核心思想是使用快速适应和泛化(两个二阶指标)作为元训练数据集上的训练信号。但是,其他可能的二阶指标很少被关注。在本文中,研究者提出了一种不同的训练信号——对灾难性干扰的鲁棒性。与仅通过快速适应性最大化学习的表示相比,通过引导干扰最小化学习的表示更有利于增量学习。
以下为论文内容详细介绍,AI科
技大本营(ID:rgznai100)编译:
背景介绍
当在大型数据集上训练和使用 IID 采样进行训练直至收敛时,人工神经网络被证明是非常成功的函数逼近器。但是如果没有大的数据集和 IID 采样,他们很容易产生过拟合和灾难性的遗忘。最近的研究表明,基于梯度的元学习能够成功地从元数据集中提取问题的高级平稳结构,从而可以在不过度拟合的情况下进行小样本泛化,它也证明可以减轻人们对更好的持续学习的遗忘。
基于梯度的元学习器具有两个重要组成部分。(1)元目标:算法在元训练期间最小化的目标函数;(2)元参数:元训练期间更新的参数,以最小化所选的元目标。这种元学习框架最流行的实现之一是 MAML。MAML 将最大化快速适应和泛化作为元目标,通过学习模型初始化(一组用于初始化神经网络参数的权重),解决了少样本学习的问题。这个想法是对固定任务结构进行编码,这些结构来自用于初始化模型的固定任务的权重分布,以使得从该初始化开始的常规SGD 更新对于少样本学习有效。
尽管 MAML 为元目标和元参数所做的选择是合理的,但我们还有许多其他选择。
例如,除了学习模型初始化外,我们还可以学习表示形式、学习率、更新规则、因果结构甚至是完整的学习算法。类似地,除了使用少样本学习目标,我们还可以定义一个将其他二阶指标最小化的元目标。
本文在元目标中将鲁棒性与干扰相结合,研究该方式是否会改善元学习目标上增量学习基准的性能。最近,
Javed 和 White
提
出了一个目标——MRCL,
该目标通过最大程度地减少干扰来学习表示,并表明这种表示极大地提高了增量学习基准上的性能。但是,他们没有与通过少样本学习目标获得的表示形式进行比较。
另一方面,
Nagabandi
发现在元训练时并入增量学习的影响(例如
干扰)并没有在元测
试时提高他们的持续学习基准的性能。那么,对于有效的增量学习而言,
Javed 和 White
引入的新目标是否必要?
对于元学习无干扰表示,是否仅使用快速适应就足够了?
问题表述
为了比较这两个目标,我们采用了在线持续学习预测任务(CLP):
这是一个既需要快速适应和对干扰鲁棒性的任务。
该任务定义如下: