专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
中国能源报  ·  我国科研团队取得重要进展! ·  18 小时前  
中国能源报  ·  我国科研团队取得重要进展! ·  18 小时前  
智在点滴  ·  盘点10大国产数字人平台 ·  昨天  
智在点滴  ·  盘点10大国产数字人平台 ·  昨天  
艾锋降级  ·  新的 iPad Air 来了,价格 4799 起 ·  2 天前  
艾锋降级  ·  新的 iPad Air 来了,价格 4799 起 ·  2 天前  
烂板套利  ·  半导体先进封装全景深度解析 ·  2 天前  
烂板套利  ·  半导体先进封装全景深度解析 ·  2 天前  
51好读  ›  专栏  ›  极市平台

CVPR 2024|LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重

极市平台  · 公众号  · 科技创业 科技自媒体  · 2024-08-21 22:00

主要观点总结

该文章介绍了Less-Attention Vision Transformer(LA-ViT)架构的细节和主要贡献。LA-ViT通过引入少注意力机制来修改标准ViT的基本架构,旨在解决注意力饱和问题并降低计算复杂度。文章详细描述了LA-ViT的架构设计和关键组件,包括少注意力层、损失函数设计以及复杂度分析。实验结果表明,LA-ViT在多个视觉任务中表现出优异的性能,并降低了计算复杂度和内存消耗。

关键观点总结

关键观点1: LA-ViT架构的引入及主要目标

LA-ViT是一种修改后的Vision Transformer架构,旨在解决注意力饱和问题并降低计算复杂度。它通过引入少注意力机制来修改标准ViT的架构,以捕捉长范围的关系。

关键观点2: LA-ViT的关键组件

LA-ViT的架构由原始注意力(VA)层和少注意力(LA)层组成。在每个阶段,专门计算传统的自注意力,并将注意力分数存储在几个初始的VA层中。在后续的层中,通过利用先前计算的注意力矩阵高效地生成注意力分数。此外,还集成了残差连接和一种新的损失函数来保持注意力矩阵的对角性。

关键观点3: LA-ViT的性能和优势

LA-ViT在各种基准数据集上进行了实验,并与现有最先进的ViT变种进行了比较。实验结果表明,LA-ViT在解决注意力饱和并在视觉识别任务中取得优越性能方面非常有效。此外,LA-ViT在计算复杂度和内存消耗方面也具有类似或更低的特点。

关键观点4: LA-ViT的复杂度分析

LA-ViT的复杂度分析表明,与传统的ViT相比,该架构在计算复杂度和K-Q-V转换方面具有更低的复杂度。这是由于它利用了线性变换来避免计算内积的需要,并只在Less-Attention中计算查询嵌入。


正文

↑ 点击 蓝字 关注极市平台
作者丨VincentLee
来源丨晓飞的算法工程笔记
编辑丨极市平台

极市导读

Less-Attention Vision Transformer利用了在多头自注意力(MHSA)块中计算的依赖关系,通过重复使用先前MSA块的注意力来绕过注意力计算,还额外增加了一个简单的保持对角性的损失函数,旨在促进注意力矩阵在表示标记之间关系方面的预期行为。该架构你能有效地捕捉了跨标记的关联,超越了基线的性能,同时在参数数量和每秒浮点运算操作(FLOPs)方面保持了计算效率。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

论文地址 https://arxiv.org/abs/2406.00427

Introduction

近年来,计算机视觉经历了快速的增长和发展,主要得益于深度学习的进步以及大规模数据集的可获得性。在杰出的深度学习技术中,卷积神经网络( Convolutional Neural Networks , CNNs )被证明特别有效,在包括图像分类、目标检测和语义分割等广泛应用中展现了卓越的性能。

受到 Transformer 在自然语言处理领域巨大成功的启发, ViT Vision Transformers )将每幅图像划分为一组标记。这些标记随后被编码以生成一个注意力矩阵,作为自注意力机制的基础组成部分。自注意力机制的计算复杂度随着标记数量的增加而呈平方增长,且随着图像分辨率的提高,计算负担变得更加沉重。一些研究人员尝试通过动态选择或标记修剪来减少标记冗余,以减轻注意力计算的计算负担。这些方法在性能上已证明与标准 ViT 相当。然而,涉及标记减少和修剪的方法需要对标记选择模块进行细致设计,可能导致关键标记的意外丢失。在本研究中,作者探索了不同的方向,并重新思考自注意力的机制。发现在注意力饱和问题中,随着 ViTs 层数的逐渐加深,注意力矩阵往往保持大部分不变,重复前面层中观察到的权重分配。考虑到这些因素,作者提出以下问题:

在网络的每个阶段,从开始到结束,是否真的有必要始终一致地应用自注意力机制?

在本文中,作者提出通过引入少注意力 ViT Less-Attention Vision Transformer )来修改标准 ViT 的基本架构。框架由原始注意力( Vanilla Attention , VA )层和少注意力( Less Attention , LA )层组成,以捕捉长范围的关系。在每个阶段,专门计算传统的自注意力,并将注意力分数存储在几个初始的原始注意力( VA )层中。在后续的层中,通过利用先前计算的注意力矩阵高效地生成注意力分数,从而减轻与自注意力机制相关的平方计算开销。此外,在跨阶段的降采样过程中,在注意力层内集成了残差连接,允许保留在早期阶段学习到的重要语义信息,同时通过替代路径传输全局上下文信息。最后,作者仔细设计了一种新颖的损失函数,从而在变换过程中保持注意力矩阵的对角性。这些关键组件使作者提出的 ViT 模型能够减少计算复杂性和注意力饱和,从而实现显著的性能提升,同时降低每秒浮点运算次数( FLOPs )和显著的吞吐量。

为验证作者提出的方法的有效性,在各种基准数据集上进行了全面的实验,将模型的性能与现有最先进的 ViT 变种(以及最近的高效 ViT )进行了比较。实验结果表明,作者的方法在解决注意力饱和并在视觉识别任务中取得优越性能方面非常有效。

论文的主要贡献总结如下:

  1. 提出了一种新颖的 ViT 架构,通过重新参数化前面层计算的注意力矩阵生成注意力分数,这种方法同时解决了注意力饱和和相关的计算负担。
  2. 此外,提出了一种新颖的损失函数,旨在在注意力重新参数化的过程中保持注意力矩阵的对角性。作者认为这一点对维护注意力的语义完整性至关重要,确保注意力矩阵准确反映输入标记之间的相对重要性。
  3. 论文的架构在包括分类、检测和分割在内的多个视觉任务中,始终表现优异,同时在计算复杂度和内存消耗方面具有类似甚至更低的特点,胜过几种最先进的 ViTs

Methodology

Vision Transformer

表示一个输入图像, 其中 表示空间分辨率, 表示通道数。首先通过将图像划分为 个块来对图像进行分块, 其中每个块 的大小为 像素和 通道。块大小 是一个超参数, 用于确定标记的粒度。块嵌入可以通过使用步幅和卷积核大小均等于块大小的卷积操作提取。然后, 每个块通过不重叠的卷积投影到嵌入空间 , 其中 表示每个块的维度。

  • Multi-Head Self-Attention

首先提供一个关于处理块嵌入的经典自注意力机制的简要概述, 该机制在多头自注意力块 ( M HSAs ) 的框架内工作。在第 个 MHSA 块中, 输入 被投影为三个可学习的嵌入 。多头注意力旨在从不同的视角捕捉注意力; 为简单起见, 选择 个头, 每个头都是一个维度为 的矩阵。第 个头的注意力矩阵 可以通过以下方式计算:

分别是第 个头的注意力矩阵、查询和键。还将值 分割成 个头。为了避免由于概率分布的锐性导致的梯度消失, 将 的内积除以 。注意力矩阵被拼接为:

在空间分割的标记之间计算的注意力,可能会引导模型关注视觉数据中最有价值的标记。随后,将加权线性聚合应用于相应的值V:

  • Downsampling Operation

受到 CNN 中层次架构成功的启发, 一些研究将层次结构引入到 ViTs 中。这些工作将 Transf ormer 块划分为 个阶段, 并在每个 Transformer 阶段之前应用下采样操作, 从而减少序列长度。在论文的研究中, 作者采用了一个卷积层进行下采样操作, 卷积核的大小和步幅都设置为 2 。该方法允许在每个阶段灵活调整特征图的尺度, 从而建立一个与人类视觉系统的组织相一致的 Transformer 层次结构。

The Less-Attention Framework

整体框架如图 1 所示。在每个阶段,分两步提取特征表示。在最初的几个 Vanilla Attenti on(VA)层中,进行标准的多头自注意力(MHSA)操作,以捕捉整体的长距离依赖关系。随后,通过对存储的注意力分数应用线性变换,模拟注意力矩阵,以减少平方计算并解决接下来的低注意力(LA)层中的注意力饱和问题。在这里,将第 个阶段的初始 -th VA 层的 Softmax 函数之前的注意力分数表示为 , 它是通过以下标准程序计算的:

这里, 分别表示来自第 个阶段第 层的查询和键, 遵循来自前一阶段的下采样。而 用于表示 VA 层的数量。在最初的原始注意力阶段之后, 丢弃传统的平方 MHSA,并对 应用变换, 以减少注意力计算的数量。这个过程包括进行两次线性变换, 中间夹一个矩阵转置操作。为了说明, 对于该阶段的第 , 即 LA 层 的注意力矩阵:

$$\begin{equation} \begin{aligned} &\mathbf{A}^{l}_m = \Psi(\Theta(\mathbf{A}^{l-1}_m)^\mathsf{T})^\mathsf{T},  ~~ L^{\text{VA}}_m 表示维度为 的线性变换层。这里, 分别表示第 个阶段的层数和VA层的数量。在这两个线性层之间插入转置操作的目的是保持矩阵的相似性行为。这个步骤是必需的, 因为单层中的线性变换是逐行进行的,这可能导致对角特性丧失。

Residual-based Attention Downsampling

当计算在分层 ViT ViTs )中跨阶段进行时,通常会对特征图进行下采样操作。虽然该技术减少了标记数量,但可能会导致重要上下文信息的丧失。因此,论文认为来自前一阶段学习的注意力亲和度对于当前阶段在捕捉更复杂的全局关系方面可能是有利的。受到 ResNet 的启发,后者引入了快捷连接以减轻特征饱和问题,作者在架构的下采样注意力计算中采用了类似的概念。通过引入一个短路连接,可以将固有的偏差引入当前的多头自注意力( MHSA )块。这使得前一阶段的注意力矩阵能够有效引导当前阶段的注意力计算,从而保留重要的上下文信息。

然而, 直接将短路连接应用于注意力矩阵可能在这种情况下面临挑战, 主要是由于当前阶段和前一阶段之间注意力维度的不同。为此, 作者设计了一个注意力残差(AR)模块, 该模块由深度卷积(DWConv)和一个 层构成,用以在保持语义信息的同时对前一阶段的注意力图进行下采样。将前一阶段(第 阶段)的最后一个注意力矩阵(在 层)表示为 , 将当前阶段(第 阶段)的下采样初始注意力矩阵表示为 的维度为 ( 表示第 阶段的标记数量)。将多头维度 视为常规图像空间中的通道维度, 因此通过 DWConv 操作符(stride , kernel size ),可以在注意力下采样过程中捕获标记之间的空间依赖关系。经过 DWConv 变换后的输出矩阵适合当前阶段的注意力矩阵的尺寸, 即 。在对注意力矩阵进行深度卷积后, 再执行 , 以便在不同头之间交换信息。

论文的注意力下采样过程如图 2 所示, 从 的变换可以表示为:

其中 LS 是在 CaiT 中引入的层缩放操作符, 用以缓解注意力饱和现象。







请到「今天看啥」查看全文