在有限的数据资源下,为了训练出高性能的机器学习模型,我们常会考虑
Transformer+小样本学习
。
这是因为Transformer能从有限的数据中提取更多有用的信息,这样与小样本学习结合,可以更有效的帮助我们
提高模型的性能,加速训练和推
理
,模型也能拥有
更灵活的架构和更强的迁移学习能力。
因此
Transformer+小样本学习也是当前机器学习领域的一个研究热点,
有不少顶会成果,比如CVPR 2024的PriViLege框架以及AAAI 2023的SCAT网络。
目前这个方向正在快速发展中,建议想发顶会的同学围绕预训练策略、微调方法、数据增强技术等方面进行挖掘。当然为了方便各位,我这边也整理好了
10篇
Transformer+小样本学习新论文
给大家参考,代码基本都有。
扫码添加小享,
回复“
小样本T
”
免费获取
全部论文+开源代码
Pre-trained Vision and Language Transformers Are Few-Shot Incremental Learners
方法:
论文提出了一个名为PriViLege的新型框架,用于处理小样本类增量学习任务。PriViLege框架利用在大型数据集上预训练的视觉和语言Transformer模型,通过一种新的预训练知识调整方法,以及两种新的损失函数:基于熵的散度损失和语义知识蒸馏损失,有效地解决了在大型模型中常见的灾难性遗忘问题。
创新点:
-
提出了一种新颖的少样本类增量学习(FSCIL)框架,称为PriViLege,利用大规模预训练的视觉和语言变换器,显著提高了性能。
-
PKT引入了一种简单而有效的方法,通过选择性训练特定层来保护大模型的预训练知识,同时有效学习领域特定的知识。
-
提出了新的熵基分歧损失,以增强基会话期间的判别能力,并将知识转移到增量会话中。
Few-shot 3d point cloud semantic segmentation via stratified class-specific attention based transformer network
方法:
论文提出了一种分层类特定注意力Transformer网络,用于少样本3D点云语义分割,通过引入层次化结构和多头注意力机制来优化支持和查询间的关系,显著提高了分割性能并减少推理时间,相较于现有方法如MPTI和AttMPTI,其在S3DIS和ScanNet数据集上实现了新的最先进性能,推理时间减少约15%。
创新点:
-
引入了一种新的分层类特定注意力Transformer网络,用于少样本3D点云语义分割。
-
通过保留更多支持类别信息,改善了对查询点云特征的处理。
-
设计了一种网络,将查询点云的多尺度特征与标记的支持样本条件聚合,以更好地探索它们之间的关系。
扫码添加小享,
回复“
小样本T
”
免费获取
全部论文+开源代码
Supervised masked knowledge distillation for few-shot transformers
方法:
论文提出一种在小样本学习(FSL)中表现优异的知识蒸馏框架,以解决视觉Transformer在小数据集上的泛化问题,通过引入掩码图像建模(MIM)和改进的损失函数,实现更具语义意义的特征嵌入,从而在无需大批量和负样本的情况下提高模型的泛化能力。
创新点:
-
提出了一种新的监督知识蒸馏框架,将类标签信息融入自我蒸馏中,弥合了自监督知识蒸馏与传统监督学习之间的差距。
-
通过使用加权平均池化而非[cls]标记,提升了小样本学习的性能。
Linknet-spectral-spatial-temporal transformer based on few-shot learning for mangrove loss detection with small dataset