专栏名称: 学姐带你玩AI
这里有人工智能前沿信息、算法技术交流、机器学习/深度学习经验分享、AI大赛解析、大厂大咖算法面试分享、人工智能论文技巧、AI环境工具库教程等……学姐带你玩转AI!
目录
相关文章推荐
91运营网  ·  第一批因DeepSeek失业的受害者,已经出 ... ·  2 天前  
出彩写作  ·  写材料狠人的干货笔记 ·  3 天前  
运营研究社  ·  如何用飞书+Deepseek做小红书AI内容矩阵? ·  3 天前  
51好读  ›  专栏  ›  学姐带你玩AI

代码可复现 | 2024时间序列领域相关顶会

学姐带你玩AI  · 公众号  ·  · 2024-05-18 18:12

正文

首个全开源时间序列预测基础模型Moirai发布 ,它是一种通用的预测范式,让预训练模型可以处理任意时序预测任务。在零样本预测中,Moirai的性能媲美甚至超越了SOTA。

MOIRAI的整体架构

不仅仅是Moirai,谷歌的TimesFM、亚马逊的Chronos等都达成了时间序列领域的革命性突破。

作为学术研究的热门方向,时间序列不仅可以 提高预测模型的性能 ,还能精确预测未来趋势和模式,特别适用于数据点之间存在时间依赖关系的情况,比如股票市场预测、气象预报等。因此在学术界与工业界都有广泛应用,研究成果丰富且多样。

对于时间序列领域想发论文的同学来说,学习这些优秀成果尤为必要。本文盘点了 时间序列领域2024最新顶会论文,共 19篇 ,代码可复现 ,篇幅原因只做部分介绍,希望能给各位带来一些启发。

  • Transformer:1篇
  • 图神经网络:1篇
  • 扩散模型:1篇
  • 预训练与表示:3篇
  • 长时序预测:4篇
  • 多元时序与多实例学习:4篇
  • 因果发现:1篇
  • 基础模型:1篇
  • 其他:3篇

扫码添加小享, 回复“ 时序新顶会

免费获取 全部论文+ 开源代码

Transformer

【ICML2024】Unlocking the Potential of Transformers in Time Series Forecasting with Sharpness-Aware Minimization and Channel-Wise Attention

方法: 论文基于Transformer的多元时间序列预测问题,发现传统的Transformer模型在这个任务上表现较差,并提出了一种新的浅层Transformer模型(SAMformer),通过引入锐度感知优化方法,使得模型能够更好地泛化。

创新点:

  • 作者发现传统的Transformer模型在多变量长期预测中表现不佳,无法收敛到最佳解,尽管它们具有高度表达能力。作者进一步确定了Transformer的注意力机制是造成这种低泛化能力的主要原因。
  • 作者提出了一种浅层轻量级的Transformer模型,称为SAMformer,它成功地摆脱了训练中的不良局部最小值,通过锐度感知优化实现更好的泛化性能。作者在常见的多变量长期预测数据集上经验性地证明了我们方法的优越性。SAMformer在平均值上比当前最先进的多变量模型TSMixer提高了14.33%,同时参数数量约为TSMixer的4倍。

图神经网络

【ICLR2024】BIASED TEMPORAL CONVOLUTION GRAPH NETWORK FOR TIME SERIES FORECASTING WITH MISSING VALUE

方法: 论文提出一种用于处理带有缺失值的时间序列预测的方法——BiTGraph,通过结合时空动态性和空间结构,通过两个精心设计的模块(Multi-Scale Instance PartialTCN和Biased GCN)来处理缺失值。

创新点:

  • 提出了BiTGraph模型,用于处理具有缺失值的多变量时间序列预测。该模型能够同时捕捉时间动态和空间结构,并且明确考虑了缺失值的影响。在五个真实世界基准数据集上的实验结果验证了该模型在各种缺失值情况下的优越性。
  • 引入了Multi-Scale Instance PartialTCN来有效地建模由于缺失值而破坏的时间依赖性,并提出了Biased GCN来通过构建有偏差的图形来在实例之间传播信息,以一种考虑缺失值的方式。

扫码添加小享, 回复“ 时序新顶会

免费获取 全部论文+ 开源代码

基础模型

【ICML2024】MOMENT: A Family of Open Time-series Foundation Models

方法: 作者引入了MOMENT,这是一个开源的通用时间序列分析基础模型系列。MOMENT通过在大量来自不同领域的时间序列数据上进行掩码序列预测任务的预训练来解决时间序列预训练的挑战,并通过针对多个任务和数据集的评估来构建实验基准。

创新点:

  • 通过编译大量公开可用的数据集构建了Time Series Pile,这是一个包含来自不同领域的多个时间序列数据库的大型数据集,为预训练提供了丰富的数据资源。
  • 针对时间序列数据的特点,设计了一种基于transformer和patching的时间序列建模方法,通过将时间序列划分为子序列并以子序列为输入,实现了有效的时间序列表示学习和预测能力。
  • 提出了使用掩码表示学习的方法进行预训练,可以在没有标签的情况下学习时间序列的重建能力,并且通过fine-tuning进一步优化模型性能,实现了多个时间序列分析任务的端到端解决方案。







请到「今天看啥」查看全文