专栏名称: AI算法科研paper
每日更新人工智能行业技术干货、论文推荐、动态资讯、职场指南等AI知识。关注AI算法科研paper更深入了解人工智能。
目录
相关文章推荐
51好读  ›  专栏  ›  AI算法科研paper

1+1>2!今年小波变换的结合创新思路建议(附代码)

AI算法科研paper  · 公众号  ·  · 2025-02-05 19:06

正文

为提高模型在信号处理、图像分析、时间序列预测等多个领域的性能和准确性,我们考虑将 小波变换与其他技术相结合

这种结合利用了小波变换的多尺度分析能力,以及其他技术的优势,有效捕捉信号的局部特征,从而实现特征的高效提取与融合, 不仅提升了模型的识别精度和鲁棒性,还优化了计算效率 ,帮助我们更合理地利用资源。

目前,这种结合主要有以下几个常见思路: +Transformer、+Mamba、+注意力机制、+GNN、+CNN ...创新空间还是很大的,可参考的顶会成果也比较多。

本文挑选了 45个 最新的小波变换结合创新方案 ,方便有论文需求的同学找idea,开源代码基本都有,不想多花时间找参考的可直接拿。

扫码添加小享, 回复“ 小波魔改

免费获取 全部论文合集

结合Transformer

Spiking Wavelet Transformer

方法: 本文提出了一种新型的尖峰神经网络架构——SWformer,它通过结合小波变换和Transformer架构的优势,有效捕获图像的时空频率特征,显著提高了脉冲神经网络(SNNs)在静态和神经形态数据集上的准确性和参数效率。

创新点:

  • SWformer 的核心创新在于其频率感知标记混合器 (FATM),结合了空间学习器 (SL)、频率学习器 (FL) 和通道混合 (CM) 分支。
  • 引入了一种新颖的脉冲频率表示方法,支持稳健的、无乘法的事件驱动信号变换。
  • SWformer 作为一种结合时频信息的注意力免架构,允许跨宽频范围的高效特征感知,而无需乘法操作,适合在神经形态硬件上实现。

结合CNN

WeConvene: Learned Image Compression with Wavelet-Domain Convolution and Entropy Model

方法: 本文提出了一种简单但高效的框架,将离散小波变换(DWT)引入卷积神经网络(CNN)为基础的学习图像压缩(LIC)中,通过在卷积层和熵编码中使用小波变换,使潜在表示在小波域中更加稀疏,从而提高了率失真(R-D)性能。

创新点:

  • 提出了一种低成本、模块化且即插即用的WeConv层,将离散小波变换(DWT)和逆小波变换(IDWT)嵌入卷积过程中,使得模块可以作为大型卷积神经网络中的一层。
  • 提出了一种基于小波域的量化和熵编码方法,称为WeChARM模块,通过WeConv模块提高的稀疏性受益。

扫码添加小享, 回复“







请到「今天看啥」查看全文