专栏名称: 学姐带你玩AI
这里有人工智能前沿信息、算法技术交流、机器学习/深度学习经验分享、AI大赛解析、大厂大咖算法面试分享、人工智能论文技巧、AI环境工具库教程等……学姐带你玩转AI!
目录
51好读  ›  专栏  ›  学姐带你玩AI

又被Transformer秀到了!结合小样本学习发A会!

学姐带你玩AI  · 公众号  ·  · 2024-10-11 18:29

正文

在有限的数据资源下,为了训练出高性能的机器学习模型,我们常会考虑 Transformer+小样本学习

这是因为Transformer能从有限的数据中提取更多有用的信息,这样与小样本学习结合,可以更有效的帮助我们 提高模型的性能,加速训练和推 ,模型也能拥有 更灵活的架构和更强的迁移学习能力。

因此 Transformer+小样本学习也是当前机器学习领域的一个研究热点, 有不少顶会成果,比如CVPR 2024的PriViLege框架以及AAAI 2023的SCAT网络。

目前这个方向正在快速发展中,建议想发顶会的同学围绕预训练策略、微调方法、数据增强技术等方面进行挖掘。当然为了方便各位,我这边也整理好了 10篇 Transformer+小样本学习新论文 给大家参考,代码基本都有。

扫码添加小享, 回复“ 小样本T

免费获取 全部论文+开源代码

Pre-trained Vision and Language Transformers Are Few-Shot Incremental Learners

方法: 论文提出了一个名为PriViLege的新型框架,用于处理小样本类增量学习任务。PriViLege框架利用在大型数据集上预训练的视觉和语言Transformer模型,通过一种新的预训练知识调整方法,以及两种新的损失函数:基于熵的散度损失和语义知识蒸馏损失,有效地解决了在大型模型中常见的灾难性遗忘问题。

创新点:

  • 提出了一种新颖的少样本类增量学习(FSCIL)框架,称为PriViLege,利用大规模预训练的视觉和语言变换器,显著提高了性能。
  • PKT引入了一种简单而有效的方法,通过选择性训练特定层来保护大模型的预训练知识,同时有效学习领域特定的知识。
  • 提出了新的熵基分歧损失,以增强基会话期间的判别能力,并将知识转移到增量会话中。

Few-shot 3d point cloud semantic segmentation via stratified class-specific attention based transformer network

方法: 论文提出了一种分层类特定注意力Transformer网络,用于少样本3D点云语义分割,通过引入层次化结构和多头注意力机制来优化支持和查询间的关系,显著提高了分割性能并减少推理时间,相较于现有方法如MPTI和AttMPTI,其在S3DIS和ScanNet数据集上实现了新的最先进性能,推理时间减少约15%。

创新点:

  • 引入了一种新的分层类特定注意力Transformer网络,用于少样本3D点云语义分割。
  • 通过保留更多支持类别信息,改善了对查询点云特征的处理。
  • 设计了一种网络,将查询点云的多尺度特征与标记的支持样本条件聚合,以更好地探索它们之间的关系。

扫码添加小享, 回复“ 小样本T

免费获取 全部论文+开源代码

Supervised masked knowledge distillation for few-shot transformers

方法: 论文提出一种在小样本学习(FSL)中表现优异的知识蒸馏框架,以解决视觉Transformer在小数据集上的泛化问题,通过引入掩码图像建模(MIM)和改进的损失函数,实现更具语义意义的特征嵌入,从而在无需大批量和负样本的情况下提高模型的泛化能力。

创新点:

  • 提出了一种新的监督知识蒸馏框架,将类标签信息融入自我蒸馏中,弥合了自监督知识蒸馏与传统监督学习之间的差距。
  • 通过使用加权平均池化而非[cls]标记,提升了小样本学习的性能。

Linknet-spectral-spatial-temporal transformer based on few-shot learning for mangrove loss detection with small dataset







请到「今天看啥」查看全文