其他一些重要的时间序列基础模型:
1. TimeGPT:
首个原生基础模型,于2023年问世,迅速在预测领域引起了广泛关注。它在时间序列数据的处理和预测方面表现出色,成为了基础模型研究的里程碑。
2. MOMENT:
一个开源的大型预训练时间序列模型,旨在服务于各种时间序列分析任务,包括预测、分类和异常检测。它的设计使其能够适应多种应用场景,具有较强的灵活性和适应性。
3. TSMamba:
基于Mamba架构,是一个高效的时间序列预测基础模型。它解决了传统模型在数据获取、泛化能力和数据效率方面的挑战,适用于多种领域的时间序列预测任务。
4. TimeDiT:
结合了去噪扩散模型和Transformer架构,能够有效处理多通道、多分辨率和缺失值问题。它在时间序列分析中表现出色,尤其是在整合物理知识方面。
5. DAM:
(深度数据依赖近似分析模型)是一种通用的时间序列预测基础模型,能够在多个不同的数据集和领域中进行准确预测,具有良好的泛化能力。
1. TimeGPT:
首个原生基础模型,于2023年问世,迅速在预测领域引起了广泛关注。它在时间序列数据的处理和预测方面表现出色,成为了基础模型研究的里程碑。
2. MOMENT:
一个开源的大型预训练时间序列模型,旨在服务于各种时间序列分析任务,包括预测、分类和异常检测。它的设计使其能够适应多种应用场景,具有较强的灵活性和适应性。
3. TSMamba:
基于Mamba架构,是一个高效的时间序列预测基础模型。它解决了传统模型在数据获取、泛化能力和数据效率方面的挑战,适用于多种领域的时间序列预测任务。
4. TimeDiT:
结合了去噪扩散模型和Transformer架构,能够有效处理多通道、多分辨率和缺失值问题。它在时间序列分析中表现出色,尤其是在整合物理知识方面。
5. DAM:
(深度数据依赖近似分析模型)是一种通用的时间序列预测基础模型,能够在多个不同的数据集和领域中进行准确预测,具有良好的泛化能力。
Google AI 在Hugging Face 上发布了 TimesFM-2.0,准确率和最大上下文长度都比1.0有显著提升。
这里面有趣的是"时间序列基础模型"这个技术,用于时间序列预测的预训练时间序列基础模型。主要用于预测未来的股票走势、公司业绩等。
以下内容来自Google 24年5月的Blog内容,可以理解这种模型的特点:
★ 为何需要时间序列预测基础模型?
时间序列预测在零售、金融、制造、医疗等领域至关重要,例如零售业中提升需求预测精度能够显著降低库存成本并增加收入。
虽然深度学习模型(DL)在预测复杂多变量时间序列数据方面表现出色,但传统方法仍面临以下挑战:
1. 高昂的训练与验证成本:大多数DL模型在应用到新时间序列数据前需要复杂的调试和训练。
2. 部署延迟:无法快速进行零样本预测以满足即时需求。
TimesFM 的优势:无需额外训练,即可对未见时间序列数据提供高质量预测,使用户专注于具体下游任务(如零售需求规划)。
★ 模型架构与创新
TimesFM 架构核心:借鉴语言模型的解码器设计,使用堆叠的 Transformer 层。
- 输入处理:将连续的时间点集合(称为“时间块”)作为“Token”,输入到 Transformer 中。
- 输出灵活性:能够预测比输入时间块更长的未来时间点,显著减少生成步骤,提高预测准确性。
关键创新:
1. 使用多层感知机(MLP)将时间块转换为 Transformer 可处理的 Token。
2. 输出时间块长度可大于输入时间块长度,适合长时间跨度预测。
示例:
- 训练时:模型使用前 32 个时间点预测未来 128 个时间点,并逐步增加输入范围以预测更长时间段。
- 推理时:模型可基于输入时间点及已生成的预测结果进行多步预测。
项目:github.com/google-research/timesfm
#ai创造营##chatgpt#ChatGPT
这里面有趣的是"时间序列基础模型"这个技术,用于时间序列预测的预训练时间序列基础模型。主要用于预测未来的股票走势、公司业绩等。
以下内容来自Google 24年5月的Blog内容,可以理解这种模型的特点:
★ 为何需要时间序列预测基础模型?
时间序列预测在零售、金融、制造、医疗等领域至关重要,例如零售业中提升需求预测精度能够显著降低库存成本并增加收入。
虽然深度学习模型(DL)在预测复杂多变量时间序列数据方面表现出色,但传统方法仍面临以下挑战:
1. 高昂的训练与验证成本:大多数DL模型在应用到新时间序列数据前需要复杂的调试和训练。
2. 部署延迟:无法快速进行零样本预测以满足即时需求。
TimesFM 的优势:无需额外训练,即可对未见时间序列数据提供高质量预测,使用户专注于具体下游任务(如零售需求规划)。
★ 模型架构与创新
TimesFM 架构核心:借鉴语言模型的解码器设计,使用堆叠的 Transformer 层。
- 输入处理:将连续的时间点集合(称为“时间块”)作为“Token”,输入到 Transformer 中。
- 输出灵活性:能够预测比输入时间块更长的未来时间点,显著减少生成步骤,提高预测准确性。
关键创新:
1. 使用多层感知机(MLP)将时间块转换为 Transformer 可处理的 Token。
2. 输出时间块长度可大于输入时间块长度,适合长时间跨度预测。
示例:
- 训练时:模型使用前 32 个时间点预测未来 128 个时间点,并逐步增加输入范围以预测更长时间段。
- 推理时:模型可基于输入时间点及已生成的预测结果进行多步预测。
项目:github.com/google-research/timesfm
#ai创造营##chatgpt#ChatGPT