专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
上海本地宝  ·  外地户口也能申请!上海公租房房源上新! ·  3 天前  
春城晚报  ·  凌晨通报:29人失联!原因公布 ·  2 天前  
云南气象  ·  2月10-11日云南西北部有雨雪天气 ... ·  3 天前  
云南新闻网  ·  【行摄云南】“郁”见春城浪漫 ·  4 天前  
51好读  ›  专栏  ›  极市平台

ACCV 2024 | ViT涨点神器!DeBiFormer:双层路由注意力新框架

极市平台  · 公众号  ·  · 2025-01-03 22:00

正文

↑ 点击 蓝字 关注极市平台
作者丨晓飞的算法工程笔记
来源丨晓飞的算法工程笔记
编辑丨极市平台

极市导读

本文提出了一种新的注意力机制DBRA和基于此的新型视觉Transformer网络DeBiFormer,通过双层路由注意力和代理查询优化键值对选择,增强了模型的识别能力,并在多个数据集上取得了优异的性能。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

论文: DeBiFormer: Vision Transformer with Deformable Agent Bi-level Routing Attention

  • 论文地址: https://arxiv.org/abs/2410.08582
  • 论文代码: https://github.com/maclong01/DeBiFormer

创新点

  • 提出了可变形双层路由注意力( DBRA ),一种用于视觉识别的注意力内注意力架构,利用代理查询优化键值对的选择并增强注意力图中查询的可解释性。
  • 提出了一种新型主干网络 DeBiFormer ,基于注意力热图的可视化结果具有更强的识别能力。
  • ImageNet ADE20K COCO 上进行的大量实验表明, DeBiFormer 始终优于其他基线。

内容概述

为了改善注意力,许多研究提出了精心设计的高效注意力模式,其中每个查询仅选择一小部分键值对进行关注。然而,尽管有不同的合并或选择键和值标记的策略,这些标记对于查询而言并不具有语义性。在将预训练的 ViT DETR 应用于其它下游任务时,查询并不是来自语义区域的键值对。因此,强迫所有查询集中在不充足的标记集合上可能不会产生最佳结果。

最近,随着动态查询感知的稀疏注意力机制的出现,查询聚焦于动态语义最强的键值对,即双层路由注意力。然而,在这种方法中,查询是由语义键值对处理的,而不是源自详细的区域,这在某些情况下可能无法产生最佳结果。此外,在计算注意力时,为所有查询选择的这些键和值受到过多无关查询的影响,导致对重要查询的关注减少,这在执行分割时会产生显著影响。

为了使查询的注意力更加高效,论文提出了可变形双层路由注意力( DBRA ),这是一种用于视觉识别的注意力内注意力架构。

  1. 第一个问题是如何定位可变形点。为注意力附加一个偏移网络,该网络以查询特征为输入,生成所有参考点的相应偏移量。因此,候选的可变形点朝着重要区域移动,以高灵活性和高效率捕获更多信息特征。
  2. 第二个问题是如何从语义相关的键值对中聚合信息,然后将信息广播回查询。当选择用于可变形点的键值对时,专注于前 k 个路由区域,选择与区域仅需的语义最相关的部分键值对。在选择了语义相关的键值对后,对可变形点查询应用标记到标记的注意力,然后应用第二个标记到标记的注意力将信息广播回查询。在此过程中,作为键值对的可变形点用于表示语义区域中最重要的点。

DeBiFormer

可变形双层路由注意力( DBRA )

DBRA 首先采用一个可变形注意力模块,根据查询特征生成参考点的偏移量,得到可变形点。然而,这些点往往倾向于聚集在重要区域,导致在某些区域的过度集中。

为了解决这个问题,参考 BiFormer 引入了可变形点感知的区域划分,确保每个可变形点仅与少量的键值对进行交互。然而,单靠区域划分可能导致重要区域和不重要区域之间的不平衡。

为了应对这一问题, DBRA 将每个可变形点作为一个代理查询,与语义区域的键值对计算注意力。这种方法确保每个重要区域只分配少数可变形点,从而使注意力能够分布在图像的所有关键区域。较少重要区域的注意力得以减少,而在更重要的区域则得以增加,从而确保整个图像的注意力分布达成平衡。

Model architectures

基于 DBRA 作为基本构建块,论文提出了一种新颖的视觉变换器,称为 DeBiFormer

遵循了最先进的视觉 Tansformer ,采用四阶段金字塔结构。在第一阶段使用重叠的图像块嵌入,在第二到第四阶段使用图像块合并模块。这是为了降低输入的空间分辨率,同时增加通道数。随后,使用 个连续的 DeBiFormer 块来转换特征。

在每个 DeBiFormer 块中,开始时使用 的深度卷积,为了隐式编码相对位置的信息。随后,依次使用一个 DBRA 模块和一个具有扩展比例 2-ConvFFN 模块,分别用于跨位置关系建模和每位置嵌入。

主要实验







请到「今天看啥」查看全文