在现实世界中部署机器学习或深度学习模型时,模型需要对自分布外(OOD)样本以及攻击样本做出敏锐的判断,这是AI安全领域中的重要课题,通常被称为OOD检测。目前的主流OOD检测方法通常会在模型训练阶段中加入辅助的异常数据来实现异常暴露,以提高OOD检测的性能。
本文介绍一篇来自IEEE 神经网络先驱奖得主、LSTM网络提出者Sepp Hochreiter教授团队的工作。本文引入了一种 新型的OOD增强方法 ,称为Hopfield Boosting,其利用现代Hopfield网络中的能量信息来锐化分布内和 OOD 数据之间的决策边界。Hopfield Boosting 鼓励模型专注于难以区分的辅助异常值示例,从而提高性能。本文方法在OOD检测任务中达到了全新的SOTA性能,目前已经发表在人工智能顶级会议NeurIPS 2024上。 论文题目:
Energy-based Hopfield Boosting for Out-of-Distribution Detection
论文链接:
https://arxiv.org/abs/2405.08766
一、介绍
1.1 现代Hopfield网络 2024年诺贝尔物理学奖颁发给了美国普林斯顿大学科学家约翰·霍普菲尔德(John J. Hopfield),其最著名的工作便是由自己命名的Hopfield Network。由于Hopfield Network诞生于20世纪80年代,其实际操作早已不满足现实需求,但其运行机理仍然焕发生机。Sepp Hochreiter教授团队在ICLR 2021上提出了现代Hopfield 网络(Modern Hopfield Networks, MHN)的概念[1],其引入了一种具有连续状态和相应更新规则的机制,这种更新机制相当于 transformer 中使用的注意机制,因此新的现代 Hopfield 网络可以作为中间层集成到各种深度学习架构中以提高性能。 1.2 OOD检测 OOD检测(Out-of-Distribution Detection, OOD)也被称为异常检测或离群值检测,是机器学习系统中的关键问题。在实际应用场景中,机器学习模型往往会遇到与训练分布不同的输入数据。这需要模型能够识别出与训练数据分布不同的输入样本。这可以有效避免模型给出错误或不可靠的预测结果。现有的OOD检测方法大体可以分为以下三种:
1. 事后检测方法 (Post-hoc OOD Detection)
其中的代表性方法为最大softmax概率法(Maximum Softmax Probability, MSP),这种方法的局限性在于其主要关注条件概率 ,而非边缘概率 。 2. 基于训练的方法 (Training Methods)
这种方法通过修改训练过程来提升模型的OOD检测能力,例如自监督异常检测方法(Self-Supervised Outlier Detection, SSD)。 3. 辅助异常数据暴露 (Outlier Exposure, OE)
这类方法通过在训练过程中引入一些辅助的异常数据集来帮助模型提升在ID(In-Distribution)和OOD数据之间的区分能力。 与这些方法相比,本文提出的Hopfield Boosting可以基于MHN中的关联能量来进行判断,并且以MHE (Modern Hopfield Energy) 作为新的能量函数,可以有效的锐化ID和OOD数据之间的决策边界。 二、本文方法
2.1 问题定义:异常检测任务(OOD) 传统机器学习领域中的OOD任务可以形式化表示为一个分类问题。给定一个多分类任务: ,其中 ,由 个 维特征向量构成, 为对应的标签, 为可能的类别集合。此时,OOD样本可以被定义为:
其中 是数据的原始分布,由于实际中无法直接获得 ,本文提出可以通过编码器 和异常分数 来近似估计:
在实际操作时,由于AUROC的计算通常会超过阈值 ,因此可以直接在 上计算AUROC曲线下的面积来作为评价标准,而无需手动指定 。 2.2 现代Hopfield能量(Modern Hopfield Energy, MHE) 下图展示了Hopfield Boosting的工作流程,模型首先选择分布内样本(ID样本,橙色),然后根据分配的概率选择辅助异常样本(AUX,蓝色)来创建弱学习器。随后根据预测结果计算损失,最终根据AUX样本在超球面上的位置为其分配新的概率,并不断按照上述流程进行迭代增强。 在计算分配概率时,本文引入现代Hopfield能量(MHE)进行计算,MHE被定义为:
该能量函数从直观上可以理解为计算查询点 与存储模式 的相似性,并用对数和指数(log-sum-exponential, lse)函数来聚合这些相似性。其中 可以控制聚合操作的强度。对数和指数(log-sum-exponential, lse)函数可以作为最大值计算的soft近似:
其中 是逆温度参数。随着 ,lse会逐渐接近最大值。对于OOD检测,通过编码器 将原始数据映射到特征空间,能量较低表示样本属于分布内(ID)。 2.3 自适应boosting框架 Hopfield Boosting的核心思想是使用 AUX 数据在训练期间学习 ID 和 OOD 区域之间的决策边界。具体来说,Hopfield Boosting更倾向于选择靠近 ID-OOD 决策边界的信息异常值,并通过更频繁地对靠近决策边界的数据实例进行采样,这种采样方式类似于AdaBoost[2]的加权采样。作者将靠近决策边界的样本视为弱学习器,它们的最近邻居由来自它们自己类别以及来自外部类别的样本组成。
作者认为,可以通过构建一组弱学习器的集合来创建强学习器,具体来说,将包含原始 AUX 数据实例 的矩阵表示为 ,将包含编码 AUX 模式的内存表示为 。在对模型进行自适应增强时,Hopfield Boosting引入了一个新的能量函数 来选择一些弱学习器:
其中, 表示分布内(ID)的模式, 表示辅助异常(AUX)的模式,在增强时, 中的每个数据点都被赋予一个权重 ,各个权重被聚合到权重向量 中。Hopfield Boosting 使用这些权重从 中提取小批量 进行增强训练,其中弱学习器的采样频率更高。随后通过softmax归一化能量来更新采样权重:
这样做可以确保更接近决策边界的样本被赋予更高的权重。通过上述自适应采样的增强后,Hopfield Boosting可以帮助模型塑造更加明显的决策边界,如下图(c)所示。 三、实验效果
本文的实验在 CIFAR-10、CIFAR-100、ImageNet-1K和SVHN、Textures、iSUN、Places 365等OOD数据集上进行,OOD设置分为CIFAR-10/CIFAR-100和ImageNet-1K两种设置。前者将CIFAR-10和CIFAR-100用作ID数据集,ImageNet-RC(低分辨率版本)作为辅助(AUX)数据集,随后在OOD数据集上测试性能。后者将ImageNet-1K作为ID数据集,辅助数据集使用ImageNet-21K。评价指标使用FPR95(越低越好)和AUROC(越高越好)。 上表展示了本文方法在ImageNet-1K实验设置上的性能,本文方法在大规模数据集上保持持续领先,将平均FPR95从先前SOTA方法的50.74降低到36.60,并且在Places 365等具有挑战性的数据集上仍保持较好性能。
此外,作者还对所提出的能量函数 进行了可视化,上图展示了输入到模型的ID样本和异常样本如何塑造能量分布的超球面。其中图(a)展示了 针对ID点(橙色)和OOD点(蓝色)的分布情况,图(b)展示了经过lse函数计算后的分布情况。 四、总结
本文 基于现代Hopfield能量提出了一种全新的OOD检测增强方法 ,其主要利用MHE 和 boosting 机制来锐化 ID 和 OOD 数据之间的决策边界。通过选择靠近决策边界的弱学习器,Hopfield Boosting 能够学习到更清晰的决策边界,从而提高 OOD 检测的性能。与先前方法相比,Hopfield Boosting具有极强的可扩展性,可以扩展到ImageNet-1K等大型数据集上。此外,与经典的检测方法(例如SVM),Hopfield Boosting的能量函数是可微的,可以使用梯度下降法进行优化,更适合部署在在现实的深度学习场景中。 参考资料 [1] Ramsauer, H., Schäfl, B., Lehner, J., Seidl, P., Widrich, M., Gruber, L., Holzleitner, M., Pavlovic, M., Sandve, G. K., Greiff, V., Kreil, D., Kopp, M., Klambauer, G., Brandstetter, J., and Hochreiter, S. Hopfield networks is all you need. In 9th International Conference on Learning Representations (ICLR), 2021.
[2] Freund, Y. and Schapire, R. E. A decision-theoretic generalization of on-line learning and an application to boosting. In Computational Learning Theory: Eurocolt ’95, pp. 23–37. Springer- Verlag, 1995.
From IconScout By IconScout Store
“AI技术流”原创投稿计划
TechBeat是由将门创投建立的AI学习社区( www.techbeat.net )。 社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。
投稿内容
// 最新技术解读/系统性知识分享 //
// 前沿资讯解说/心得经历讲述 //
投稿须知
稿件需要为原创文章,并标明作者信息。
我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励
投稿方式
发送邮件到
[email protected]
或添加工作人员微信(yellowsubbj ) 投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“投稿 ”二字,获得投稿说明。
将门 是一家以专注于 数智核心科技领域 的 新型创投机构 ,也是 北京市标杆型孵化器 。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。 将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。 如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务, 欢迎发送或者推荐项目给我“门”: