机器学习-算法-时间序列分析

时间序列:现在时刻的输出与前一时刻的输出或者输入有关系

平稳性

  • 定义:具有如下统计属性

  1. constant mean
  2. constant variance
  3. an autocovariance that does not depend on time.
  • 非平稳的原因:

  1. 时间序列变化的均值产生了趋势
  2. 序列在特定时间范围内变化---季节性

  • 如何检验平稳性:

  1. 画图看是否有趋势和季节性变化
  2. 单位根检验是指检验序列中是否存在单位根,因为存在单位根就是非平稳时间序列了。单位根就是指单位根过程,可以证明,序列中存在单位根过程就不平稳,会使回归分析中存在伪回归。迪基-福勒检验(Dickey-Fuller test)和扩展迪基-福勒检验(Augmented Dickey-Fuller test),分别处理AR(1)和AR(p)模型。KPSS (Kwiatkowski-Phillips-Schmidt-Shin) TestLjung-Box Test
  • 如何将非平稳信号转化为平稳信号(注意预测后要转换回到原尺度空间)

  1. 变换 - 利用Log等对较大的值施加惩罚,进而减小趋势,对数变换,平滑变换(移动平均,指数平均等),差分变换(一阶差分,二阶差分,高阶差分,季节性差分等),分解变换(多成分分解 = 长期趋势 + 中期趋势 + 随机)
  2. 聚合 - 取每月/每周平均值等时间段的平均值
  3. 平滑 - 采用滚动平均值
  4. 多项式拟合 - 拟合回归模型

如何预测

  • 机器学习-算法-时间序列分析,其中p,q可以用ACF与PACF确定,也可由BIC,AIC确定

 

ARAutoregression. A model that uses the dependent relationship between an observation and some number of lagged observations.

IIntegrated. The use of differencing of raw observations (e.g. subtracting an observation from an observation at the previous time step) in order to make the time series stationary.

MAMoving Average. A model that uses the dependency between an observation and a residual error from a moving average model applied to lagged observations.

 

 

 

 

 

 

为了使用卷积运算处理时序数据,TCN 结合了一维全卷积与因果卷积两种结构。通过使用一维全卷积网络,TCN 可以产生和输入序列等长的输出序列,且每一个隐藏层通过使用 Padding 可以保持和输出层等长。而通过使用因果卷积,TCN 可以保证前面时间步的预测不会使用未来的信息,因为时间步 t 的输出只会根据 t-1 及之前时间步上的卷积运算得出。因此总的来说时间卷积网络简单地组合一维全卷积和因果卷积而转化为适合序列数据的模型。全卷积网络最开始在论文 Fully Convolutional Networks for Semantic Segmentation(2015)中提出,它将传统卷积神经网络最后几个全连接层替换为卷积层。一般卷积网络会使用全连接层将特征图映射为固定长度的向量,且每一个元素代表一个类别。这种结构相当于将卷积抽取的高级特征实现线性组合而最终预测类别,但它的局限性体现在只能对整张图像或整段序列做分类处理。因此引入全卷积的意义在于它能实现密集型的预测,即在二维卷积下对图像实现像素级的分类,在一维卷积下对序列实现元素级的预测。此外,由于低层的卷积运算感受野较小,对于特征的位置变化不敏感,而高层的卷积网络感受野非常大,对特征的变化也非常敏感。因此 TCN 用一维卷积替代最后几个全连接层有助于感受整个输入序列的信息,这对于构建长期记忆非常有帮助。以下展示了带全连接层的卷积网络和全卷积网络的区别:

机器学习-算法-时间序列分析

如上所示,全卷积网络将预测类别概率(上)转化为像素级的预测(下)。

因果卷积首次是在 WaveNet(van den Oord et al., 2016)论文中提出,从直观上来说,它类似于将卷积运算「劈」去一半,令其只能对过去时间步的输入进行运算。对于 TCN 所使用的一维卷积来说,因果卷积可以简单将一般卷积的输出移动几个时间步而实现。在训练过程中,所有过去时间步的卷积预测可以并行化,因为它们的输入和标注真值都是已知的,所以这相对于循环网络在训练上有非常大的优势。因果卷积的结构将结合空洞卷积一起展示。

参考

  1. https://pengfoo.com/post/machine-learning/2017-01-24
  2. https://www.jianshu.com/p/d9a205ec284b
  3. https://www.analyticsvidhya.com/blog/2018/09/non-stationary-time-series-python/
  4. https://www.analyticsvidhya.com/blog/2018/08/auto-arima-time-series-modeling-python-r/
  5. https://www.jiqizhixin.com/articles/2018-04-12-3