专栏名称: 小白学视觉
本公众号主要介绍机器视觉基础知识和新闻,以及在学习机器视觉时遇到的各种纠结和坑的心路历程。
目录
相关文章推荐
中国中医  ·  甘肃两家中医药机构入选省级古籍保护重点单位 ·  13 小时前  
北京厚朴中医  ·  樱花季,在厚朴汤河原学堂来一次身与心的对话 ·  昨天  
北京厚朴中医  ·  厚朴锦囊 | ... ·  4 天前  
北京厚朴中医  ·  今晚19:00直播 | 闲话假期综合征 ·  4 天前  
51好读  ›  专栏  ›  小白学视觉

MIA 2024 | VSmTrans:一种用于医学图像分割的融合自注意力和卷积的混合范式

小白学视觉  · 公众号  ·  · 2024-10-19 11:52

正文

点击下方“ ReadingPapers ”卡片,每天获取顶刊论文解读

论文信息

题目:VSmTrans: A hybrid paradigm integrating self-attention and convolution for 3D medical image segmentation

VSmTrans:一种融合自注意力和卷积的混合范式用于3D医学图像分割

作者:Tiange Liu, Qingze Bai, Drew A. Torigian, Yubing Tong, Jayaram K. Udupa

源码链接:https://github.com/qingze-bai/VSmTrans

论文创新点


  1. 提出一种新颖的混合Transformer骨干网络 :作者提出了一种名为Variable-Shape Mixed Transformer (VSmTrans)的混合范式,用于3D医学图像分割。这种混合范式能够紧密整合 自注意力 卷积 ,以利用这两种范式的优势。

    1. 设计了有效的自注意力机制VSW-MSA :作者设计了一种名为Variable-Shape Window Multi-head Self-attention (VSW-MSA)的新型自注意力机制。这种机制可以快速扩展接受域,并在全局和局部信息收集之间实现良好的平衡,而无需额外的计算成本。

    1. 混合Transformer模块的创新设计 :在新的混合模块中,CNN不仅仅是引入归纳偏置的独立路径,而是将并行卷积增强模块嵌入到Transformer模块中,可以享受大接受域和强大归纳偏置的好处。

    1. 在多个公共医学图像数据集上的广泛实验 :作者在AMOS CT数据集和BraTS2021 MRI数据集上进行了广泛的实验,验证了所提出方法的有效性。实验结果表明,该方法在性能上具有竞争力,甚至超过了其他一些最先进的方法。

    1. 消融实验验证了混合机制的有效性 :通过一系列消融实验,作者验证了所提出的混合机制能够充分利用 自注意力 卷积 模块,有效平衡大接受域与局部归纳偏见,从而实现准确的分割结果,尤其是在物体边界上。

    关键词 图像分割、3D医学图像、Transformer、卷积

    摘要

    目的:近期,视觉Transformer因其出色的全局表征学习能力,在性能上与CNNs不相上下。然而,在将它们应用于3D图像分割时存在两个主要挑战:i) 由于3D医学图像的庞大尺寸,由于巨大的计算成本,很难捕获全面的全局信息。ii) Transformer中局部归纳偏置的不足影响了分割细节特征的能力,例如模糊和微妙定义的边界。因此,要将视觉Transformer机制应用于医学图像分割领域,需要充分克服上述挑战。方法:作者提出了一种名为Variable-Shape Mixed Transformer(VSmTrans)的混合范式,它整合了自注意力和卷积,并能够享受自注意力机制带来的复杂关系自由学习的益处以及卷积带来的局部先验知识。具体来说,作者设计了一种Variable-Shape自注意力机制,它可以在不增加额外计算成本的情况下快速扩展接受域,并在全局意识和局部细节之间实现良好的平衡。此外,平行卷积范式引入了强大的局部归纳偏置,以促进挖掘细节的能力。同时,一对可学习的参数可以自动调整上述两种范式的的重要性。作者在两种公共医学图像数据集上进行了广泛的实验,这些数据集具有不同的模态:AMOS CT数据集和BraTS2021 MRI数据集。结果:我们的方法在这些数据集上实现了88.3%和89.7%的最佳平均Dice分数,这优于以前的基于Swin Transformer和基于CNN的架构。作者还进行了一系列消融实验,以验证所提出的混合机制及其组成部分的效率,并探索VSmTrans中那些关键参数的有效性。结论:所提出的用于3D医学图像分割的混合Transformer骨干网络可以紧密整合自注意力和卷积,以利用这两种范式的优势。实验结果证明了我们方法的优越性,与其他最先进的方法相比。混合范式似乎最适合医学图像分割领域。消融实验还表明,所提出的混合机制可以有效平衡大接受域和局部归纳偏置,从而实现高精度的分割结果,特别是在捕获细节方面。

    方法

    3.1. 总体架构

    在本文中,我们设计了一个U形编码器-解码器架构,如许多其他基于Transformer的方法(Dosovitskiy等人,2020;Hatamizadeh等人,2022)所示,以验证新提出的变压器,称为Variable-Shape Mixed Transformer(VSmTrans)。如图2所示,该网络使用VSmTrans块作为编码器,解码器主要由常规卷积块组成。输出的每个编码器层还通过跳跃连接传输到解码器。具体来说,对于输入的CT补丁,尺寸为H × W × D,我们使用不重叠的卷积获得尺寸为H/2 × W/2 × D/2的特征图。线性嵌入层应用于将每个特征图投影到C个特征通道。然后,将投影的特征输入到VSmTrans中,它由四个阶段组成。在每对相邻阶段之间,有一个补丁合并层,用于降低分辨率并为特征图的通道翻倍。ResBlock(He等人,2016)用作解码器的主要成分,以上采样特征图,直到它们达到原始分辨率。
    作为编码器的主要组成部分,VSmTrans是基于作者新设计的可变形状混合窗口多头自注意力(VSmW-MSA)(第3.3节)。在VSmW-MSA中,作者将并行卷积嵌入到所提出的可变形状混合窗口多头自注意力中,以增加归纳偏见。值得注意的是,每个阶段由两个块组成,我们在第二块中使用移位窗口划分方法(Lee等人,2022;Liu等人,2021)以进一步扩大接受域。因此,两个连续的VSmTrans块可以总结如下:
    其中VSmSW-MSA是具有移位窗口的VSmW-MSA。多层感知器(MLP)和层归一化(LN)分别是多层感知器和层归一化。 分别表示在同一给定层中VSmW-MSA模块和MLP模块的输出。

    3.2. 可变形状窗口多头自注意力

    视觉Transformer具有来自自注意力机制的高复杂性的固有特征。这导致了在计算复杂性和性能之间寻找平衡的挑战。大多数现有方法通过堆叠许多具有正方形注意力窗口的Transformer块(Xie等人,2021b;Zhou等人,2021;Tang等人,2022)或应用各种条纹注意力窗口(Ho等人,2019;Dong等人,2022)来解决这个问题。然而,正方形注意力窗口无法迅速扩展接受域,并可能在多层堆叠过程中丢失部分注意力特征,而条纹注意力窗口则更倾向于捕获全局信息而不是局部特征。我们设计了可变形状窗口多头自注意力(VSW-MSA),以扩展接受域并考虑局部细节。关键的洞察是,应用基于多个不同形状窗口的自注意力可以迅速扩展接受域,而无需额外的计算负担。在这些窗口中,包括立方体和条纹窗口,以实现全局和局部信息之间的良好平衡。我们的实验(第4.4节)表明,这种方法实现了强大的形状感知。
    如图3所示,输入特征图将被平均分成四组自注意力窗口。这四组分别对应条纹轴向、条纹矢状、条纹冠状和局部窗口。具体来说,假设 是特征图空间,其中包含C个通道,每个通道的特征图尺寸为 。然后输入特征图集 ,使得每个组具有 个通道。在每个组中,特征图将在多头机制下进一步排列为K个头。我们共同使用三个条纹窗口形状,以实现大规模接受域,并使用立方体窗口形状来学习局部信息。在自注意力计算之后,对所有组的输出应用连接,以捕获局部和全局信息。正式地,自注意力路径可以定义为:
    其中 表示相应自注意力操作的输出。 分别表示第i组的查询、键和值的投影矩阵。
    为了进一步捕获全局信息,类似于先前的工作(Liu等人,2021),我们引入了移位窗口划分方法,为每个组的自注意力建立跨窗口连接。每个窗口区域将在两个连续块之间移动






    请到「今天看啥」查看全文