本技术涉及时间序列数据预测技术领域,公开了一种基于多层噪声剥离的时间序列数据预测方法,通过将原始时间序列数据进行归一化处理,使用移动平均分离趋势项和季节项,通过小波阈值化处理剥离两项中的噪声部分,通过线性映射得到各项的预测值进行累加,最后进行反归一化得到最终的时间序列数据预测值。本发明提供的基于多层噪声剥离的时间序列数据预测方法,通过准确剥离时间序列数据中噪声成分,实现对时间序列数据的准确预测。
背景技术
近些年来,长期多变量时间序列数据预测因其在金融、交通、能源和天气预测等各个领域的出色性能而受到了广泛的关注。为了捕获时间序列数据内部的特征,大量基于RNN、GNN和Transformers的预测模型设计了复杂的神经网络架构。但受到其高昂的计算开销的限制,此类模型在应用于大规模真实世界数据集时,在计算量和计算效率方面面临严峻挑战。研究表明,一组简单的单层线性模型的效果优于复杂的神经网络模型。且现有的模型多侧重于捕捉时间序列数据的时间和维度相关性,而忽略了时间序列数据存在分布偏移和噪声对预测性能的影响。
时间序列数据预测的现有技术的技术方案,主要可分为基于Transformer的模型、基于MLP的时序模型、统计学时序模型等方法。
(1)基于Transformer的模型是一种革命性的神经网络架构,主要用于处理序列到序列(sequence-to-sequence)的任务,如机器翻译和语言建模。它于2017年由Google的研究人员提出,并在NLP领域引起了广泛的关注和应用。与传统的循环神经网络(RNNs)和卷积神经网络(CNNs)不同,Transformer模型完全基于自注意力机制(self-attentionmechanism),这使得它能够并行处理输入序列的所有位置,而不受序列长度的影响。这种特性使得Transformer在处理长序列时具有很大的优势,能够更好地捕捉长距离依赖关系。然而,它们大量的参数和复杂的网络结构会带来高昂的计算成本。
(2)基于MLP的时序模型通常是指使用MLP来对时序数据进行建模和预测的模型。MLP是一种基本的前馈神经网络结构,由多个全连接层组成,每个层之间都经过非线性的激活函数。在时序数据中,MLP可以用于解决回归或分类问题,其中输入是一个时序序列,输出是对未来值的预测或者对序列的分类。然而,由于MLP结构本身的局限性,它在处理长期依赖关系时可能表现不佳;在时序数据中,某个时间点的取值通常受到前面多个时间点的影响,而MLP可能无法充分捕捉这种长期依赖关系。
(3)统计学时序模型是利用统计学方法对时序数据进行建模和预测的一种方法。这些模型通常基于对数据的统计特性进行分析,并利用这些特性来进行预测。然而,在处理复杂的、非线性的时间序列数据时,这些基于统计学的预测方法的效果欠佳。
所以,线性模型可以提取到序列内部季节性和趋势性的特征,但它缺忽略了季节性和趋势性还会受到时间序列数据中的随机波动或干扰(噪声)的影响,噪声会使得数据变得更加复杂和难以预测从而影响到它们的预测性能。
因此,有必要提供一种基于多层噪声剥离的时间序列数据预测方法解决上述技术问题。
实现思路