为提高模型在信号处理、图像分析、时间序列预测等多个领域的性能和准确性,我们考虑将
小波变换与其他技术相结合
。
这种结合利用了小波变换的多尺度分析能力,以及其他技术的优势,有效捕捉信号的局部特征,从而实现特征的高效提取与融合,
不仅提升了模型的识别精度和鲁棒性,还优化了计算效率
,帮助我们更合理地利用资源。
目前,这种结合主要有以下几个常见思路:
+Transformer、+Mamba、+注意力机制、+GNN、+CNN
...创新空间还是很大的,可参考的顶会成果也比较多。
本文挑选了
45个
最新的小波变换结合创新方案
,方便有论文需求的同学找idea,开源代码基本都有,不想多花时间找参考的可直接拿。
扫码添加小享,
回复“
小波魔改
”
免费获取
全部论文合集
结合Transformer
Spiking Wavelet Transformer
方法:
本文提出了一种新型的尖峰神经网络架构——SWformer,它通过结合小波变换和Transformer架构的优势,有效捕获图像的时空频率特征,显著提高了脉冲神经网络(SNNs)在静态和神经形态数据集上的准确性和参数效率。
创新点:
-
SWformer 的核心创新在于其频率感知标记混合器 (FATM),结合了空间学习器 (SL)、频率学习器 (FL) 和通道混合 (CM) 分支。
-
引入了一种新颖的脉冲频率表示方法,支持稳健的、无乘法的事件驱动信号变换。
-
SWformer 作为一种结合时频信息的注意力免架构,允许跨宽频范围的高效特征感知,而无需乘法操作,适合在神经形态硬件上实现。
结合CNN
WeConvene: Learned Image Compression with Wavelet-Domain Convolution and Entropy Model
方法:
本文提出了一种简单但高效的框架,将离散小波变换(DWT)引入卷积神经网络(CNN)为基础的学习图像压缩(LIC)中,通过在卷积层和熵编码中使用小波变换,使潜在表示在小波域中更加稀疏,从而提高了率失真(R-D)性能。
创新点:
-
提出了一种低成本、模块化且即插即用的WeConv层,将离散小波变换(DWT)和逆小波变换(IDWT)嵌入卷积过程中,使得模块可以作为大型卷积神经网络中的一层。
-
提出了一种基于小波域的量化和熵编码方法,称为WeChARM模块,通过WeConv模块提高的稀疏性受益。
扫码添加小享,
回复“