时间序列预测在近两年内得到了显著的发展,特别是随着kaiming的MAE的出现。现在,时间序列模型也可以使用类似MAE的无监督预训练方法进行训练。
M-Competitions系列比赛,如M4和M5,为时间序列生态系统提供了现有状态的总结,为预测理论和实践提供了经验和客观的证据。这些比赛的参与者使用的模型大多基于机器学习(ML)方法,尤其是深度学习模型,如LightGBM、Amazon's Deepar和N-Beats等。
N-Beats模型在时间序列预测领域中表现优异,其模型设计表达性强且易于使用,具有对多个时间序列进行概括的能力。该模型通过残差连接和叠加的方式,帮助模型更好地逼近有用的后推信号。该模型还提供了通用和可解释的两种变体,以满足不同应用场景的需求。
DeepAR是另一个值得关注的模型,它在多个时间序列上进行工作,并允许使用已知的未来时间序列(自回归模型的一个特点)和额外的静态属性。该模型进行概率预测,而不是直接输出未来值,这通过蒙特卡洛样本完成,用于计算分位数预测。
除了上述提到的模型外,还有Spaimeformer、Temporal Fusion Transformer(TFT)和TSFormer等模型也在时间序列预测领域取得了显著的成果。这些模型利用了Transformer的结构,能够捕获数据中非常长的依赖关系,并支持在多个异构时间序列上构建模型。
其中,TSFormer是一种基于Transformer的无监督时间序列预训练模型,使用了MAE中的训练策略。该模型通过掩蔽输入序列段并进行重建,来完成自监督任务。编码器在未遮蔽的patch上进行操作,而则适用于所有patch,并进行重建目标的预测。