专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
CDA数据分析师  ·  “TikTok ... ·  2 天前  
CDA数据分析师  ·  【干货】7类常见的统计分析错误 ·  3 天前  
软件定义世界(SDX)  ·  史上最全数据资产管理知识地图(最新版) ·  2 天前  
玉树芝兰  ·  (抽奖)Flowith 2.0 ... ·  2 天前  
天池大数据科研平台  ·  一文揭秘|如何速成RAG+Agent框架大模 ... ·  2 天前  
51好读  ›  专栏  ›  数据派THU

NeurIPS 2024 ImagenTime:利用图像转换实现变长时间序列生成的处理

数据派THU  · 公众号  · 大数据  · 2025-01-15 17:00

正文


来源:EvolGroup
本文约2500字,建议阅读5分钟
本文提出了一种基于信号到图像变换和视觉扩散骨干的新模型实现在一个框架中同时考虑短期、长期和超长期时间序列。

标题
Utilizing Image Transforms and Diffusion Models for Generative Modeling of Short and Long Time Series
作者
Ilan Naiman,Nimrod Berman,Itai Pemper,Idan Arbiv,Gal Fadlon,Omri Azencot
论文
https://arxiv.org/pdf/2410.19538
代码
https://github.com/azencot-group/ImagenTime


摘要


最近,围绕时间序列数据的生成建模的兴趣激增。大多数现有方法要么设计用于处理短序列,要么用于处理长序列。这种二分法可以归因于循环网络的梯度问题、与变换器相关的计算成本,以及状态空间模型的有限表现力。为了实现可变长度时间序列的统一生成模型,我们在本研究中提出将序列转换为图像。

通过使用可逆变换,如延迟嵌入和短时傅里叶变换,本文解锁了三个主要优势:

  • 利用先进的扩散视觉模型;
  • 在同一框架内显著处理短序列和长序列输入;
  • 利用时间序列到图像文献中最近提出和建立的工具。

我们的方法在强基线对比下持续达到最先进的结果。在无条件生成任务中,我们在短判别得分上比先前的扩散模型提高了58.17%,在(超)长分类得分上提高了132.61%。

1.引言


现有的时间序列生成模型通常要么设计用于多变量短期序列,要么设计用于单变量长期数据,通常导致完全不同的神经网络框架。然而,一个自然的问题出现了:能否开发出一个统一的框架,既能处理高维短序列,也能处理低维长时间序列?

现有的时间序列处理方法,包括循环神经网络(RNN)、Transformer和状态空间模型(SSM)及其衍生方法,各自在处理短序列和长期依赖性方面存在挑战,其中RNN受梯度问题困扰,Transformer计算成本高且在生成模型方面未充分探索,而SSM及其变体在长期序列生成上应用有限且线性模型在处理短序列时表达力不足。

为了克服循环骨干的梯度问题、Transformer的时间计算成本和SSM的表达问题,我们通过小尺寸图像来表示时间序列信息。

我们的工作创新在于:

  • 将时间序列生成建模视为视觉问题,利用图像转换和视觉模型技术;
  • 开发了一个灵活的生成模型,无需重大调整即可处理不同长度的序列;
  • 在无条件及条件生成任务上达到最先进水平,尤其在超长序列基准上表现卓越。


2.问题陈述


本文致力于生成时间序列问题,旨在从学习到的分布  中采样以模拟未知分布 ,处理的数据为  长度、 特征的序列。本文的任务包括无条件生成,即学习模型  从   采样,以及条件生成,即给定信号  学习 ,后者对时间序列插值和外推等任务至关重要。

3.时间序列到图像的转换




在本研究中,本文关注两种可逆的时间序列到图像的转换方法:1)延迟嵌入;2)短时傅里叶变换(STFT)。

延迟嵌入(Delay embeddings )


延迟嵌入通过将时间序列的数据信息按列排列并必要时填充,将单变量时间序列  转换为图像。设  和  是两个用户参数,分别表示跳跃值和列维度。我们构造以下矩阵 

其中 。通过零填充,使得图像  满足神经网络输入的要求。

给定 ,可以通过多种方式提取原始时间序列 

短时傅里叶变换(STFT)


短时傅里叶变换(STFT)是一种将信号映射至频率域的技术,通过时间轴上的滚动窗口保持时间结构,对时间序列片段应用FFT。输入信号经STFT处理后形成图像,包含实部和虚部。STFT对短序列可能需线性插值以满足长度要求,且变换是可逆的,信息损失极小,不涉及频谱图的进一步计算。

4. 方法


思路形成


本文用于时间序列信息生成建模的方法基于以下简单的观察和直接的想法:

视觉领域的扩散模型最近取得了显著的进展和成果,因此,本文的思路是将时间序列转换为图像,从而能够使用现有的扩散视觉模型进行处理。

模型框架概述



本文的计算流程由三个主要模块组成:

  • 时间序列到图像的模块;
  • 扩散模型;
  • 图像到时间序列的模块。

扩散模型是我们神经网络中唯一的可学习参数部分。

形式上,给定一个输入时间序列 ,我们将其转换为图像 。噪声被添加到该图像中,得到张量 ,并用我们的扩散模型进行处理,输出  代表去噪后的图像。在推理过程中,噪声  从  中采样,反向迭代到 ,并转换为时间序列 

我们框架的核心是生成性扩散模型骨干。所有扩散模型的一个限制是推理过程中需要反复去噪图像,从而导致成本较高的神经函数评估(NFE)。

Karras等人提出了一种平衡快速采样与高质量生成的增强评分模型,通过定义设计空间和采用二阶ODE的EDM扩散模型,实现了35次NFE下的低FID图像生成,本研究以EDM作为生成骨干。

5.实验


5.1 短期、长期和超长期无条件生成


短期实验中,使用延迟嵌入变换,嵌入维度为n = 8,延迟为m = 3,得到8×8的图像。长期实验中使用STFT变换,生成32×32大小的图像,长短期都使用18个采样步骤和EDM扩散生成骨架。

超长期实验中,对Traffic数据使用延迟嵌入变换(n = 144, m = 136),生成144×144的图像。KDD-Cup数据则通过STFT变换,生成112×112的图像。两个数据集的采样步数均为36。



相比之下,本文除了在短期时间序列上取得SOTA结果外,本文在长期时间序列任务中也取得了强劲的表现。这些结果还突显了本文框架在超长序列上的可扩展性,展示了它在所有序列长度上的出色表现。

在一个框架中同时考虑短期、长期和超长期时间序列正是我们工作的创新之处。

5.2 时间序列的条件生成


本文方法在无条件生成基准之外,还在条件生成任务(包括填补和预测)上进行了评估。通过简单修改,方法能适应这些任务,如插值任务中仅在缺失值处应用模型并使用掩码,而外推任务则类似于图像修复。实验中,插值任务掩盖了50%的序列值,而外推任务则分割序列以预测目标值,涵盖了不同时间跨度的序列。


本文的方法在短期插值任务中性能比CRU高出4倍,在短期外推中比最优现有方法提高30%;在长期插值任务中显著提升,特别是在Physionet和USHCN数据集上分别提升两个和一个数量级。在超长期插值任务中也表现出色,比ODE-RNN好4倍。

总体而言,该方法对不同长度的序列具有强大的鲁棒性,并在多个数据集上优于现有最优生成模型。

6.总结


新生成模型快速涌现,但大多针对短或长序列,缺乏统一处理不同长度时间序列的框架。本文提出了一种基于信号到图像变换和视觉扩散骨干的新模型实现在一个框架中同时考虑短期、长期和超长期时间序列。本文的思路本质是将输入进行转化以借助其他领域的先进模型/技术来实现跨模态生成,这种跨领域寻找启发的思路可以帮助拓展思考的范围,站在不同模态的角度去理解模型。

编辑:王菁



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。



新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU