专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
目录
相关文章推荐
宝玉xp  ·  回复@新钓鱼侯:看来是真爱👍 评论配图 ... ·  21 小时前  
爱可可-爱生活  ·  【[18星]MPO:用Meta Plan ... ·  2 天前  
爱可可-爱生活  ·  【[2.7k星]database-build ... ·  2 天前  
宝玉xp  ·  这两天国内 AI 圈最火的非 Manus ... ·  2 天前  
宝玉xp  ·  转发微博-20250307131223 ·  2 天前  
51好读  ›  专栏  ›  新智元

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

新智元  · 公众号  · AI  · 2025-03-09 12:51

正文



新智元报道

编辑:LRST
【新智元导读】 TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。
如何在保证预测精度的同时降低计算成本,是时序预测应用面临的核心挑战。

传统的时序预测模型(如基于Transformer或CNN的复杂结构)虽在精度上表现卓越,但计算开销往往难以满足实际部署需求。而轻量级MLP(多层感知器)虽然具备较高的推理速度,却常因建模能力不足,导致预测精度较低。

这引出了一个有趣的问题:是否可以将MLP与其他先进架构(如Transformer和CNN)结合,以构建一个既强大又高效的模型?

一个直觉的解决方案是知识蒸馏(Knowledge Distillation),通过将更大、更复杂的模型(教师模型)的知识迁移到较小、更简单的模型(学生模型),使其在提升性能的同时实现更高的计算效率。

近期,来自美国埃默里大学、澳大利亚格里菲斯大学等多地的华人科研团队联合提出了一种跨架构知识蒸馏(Cross-Architecture Knowledge Distillation)框架TimeDistill,将MLP作为学生模型,其他复杂先进架构(如Transformer和CNN)作为教师模型,通过蒸馏复杂模型的优势至轻量级模型,实现计算负担大幅降低的同时显著提升预测精度。

相比于教师模型,TimeDistill加快了最多7倍推理速度,降低了最多130倍参数量,同时TimeDistill还在多个数据集上展现了超越教师模型的SOTA表现,为构建高效、高精度的时序预测模型提供了全新思路。

论文链接: https://arxiv.org/pdf/2502.15016

通过蒸馏,TimeDistill在多个数据集上取得超越教师模型的预测精度并实现了最佳的效率平衡。

TimeDistill模型方法

设计思路

首先,研究人员对MLP与其他时序模型的预测模式进行了对比分析。

研究发现,尽管MLP的整体预测精度较低,但往往在某一部分样本上表现出色,突显了其与教师模型之间存在一定的优势互补,强调了通过知识蒸馏向教师模型的学习互补知识的重要性。

为了进一步探索需要蒸馏的时序「知识」,研究人员聚焦于两个关键的时序模式:

  • 时间域的多尺度模式(Multi-Scale Pattern) :真实世界的时序数据通常在多个时间尺度上呈现不同的变化。可以观察到,在最细粒度时间尺度上表现良好的模型通常在较粗粒度上也能保持较高的准确性,而MLP在大多数尺度上均表现不佳。

  • 频率域的多周期模式(Multi-Period Pattern) :时序数据往往存在多个周期性,性能较好的模型能够捕捉到与真实数据接近的周期性特征,而MLP无法有效识别这些周期性结构。

因此,为了增强MLP的时序预测能力,从教师模型中蒸馏并整合多尺度和多周期模式至关重要。

跨架构知识蒸馏(Cross-Architecture Distillation)

对于任意教师模型,TimeDistill均能有效提炼其在时序预测中的多种模式,并将其压缩进轻量学生模型(例如MLP),使后者具备更强的预测能力。

其中 即学生模型的预测, 即学生模型的中间特征,S即预测长度,D即中间特征维度,C即变量数量。下标为t即代表教师模型。

多尺度、多周期特征的系统性提炼

多尺度蒸馏(Multi-Scale Distillation): 在不同的时间分辨率上分别下采样教师模型与学生模型的预测和中间特征,确保学生模型同时捕捉粗粒度的整体趋势与细粒度的瞬时变化。

多周期蒸馏(Multi-Period Distillation): 通过傅里叶变换(FFT)分析频域信息,将教师模型在周期性模式上的优势提炼并传递给学生模型,使后者在应对长周期波动(如季节、年度周期)与短周期干扰(如日内流量峰谷变化)时,都能维持稳定高精度。

由于FFT得到的频谱往往包含很多低频噪声,研究人员通过低温蒸馏使得频率(周期)分布更加锋利,使得学生模型可以直接学习最显著的频率(周期)分量。

理论解释

从理论上,研究人员将多尺度和多周期蒸馏损失诠释为一种数据增强策略,类似于分类任务中的标签平滑(Label Smoothing)。

蒸馏过程实际上等同于将教师模型的预测结果与真实标签进行混合,类似生成了经过Mixup变换的增广样本,这种数据增强带来了以下 三个益处 :增强泛化,显式融合多种模式,稳定训练,为TimeDistill的优异表现提供了理论支撑。

实验效果

效果全面领先

TimeDistill在8个时序数据集上进行实验,其中7个数据集的MSE指标优于基线教师模型,在所有数据集的MAE指标上均取得最佳表现,展现出卓越的预测能力。

兼容多种教师模型

TimeDistill适用于多种教师模型,能够有效蒸馏知识并提升MLP学生模型的性能,同时相较教师模型本身也有显著提升。







请到「今天看啥」查看全文