GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

GRAIL Efficient Time Series Representation Learning

有效的时间序列表示学习

作者

芝加哥大学的John Paparrizos和Michael J. Franklin

PVLDB Reference Format:John Paparrizos and Michael J. Franklin. GRAIL: Efficient TimeSeries Representation Learning. PVLDB, 12 (11): 1762-1777, 2019.

DOI: https://doi.org/10.14778/3342263.3342648

原文链接:https://pan.baidu.com/s/1DZbKFWrfEAWTG6NBfi5IWw  提取码:36qd

5. 实验设置

       在本节中,我们将回顾(i)内核函数SINK的求值设置;k-Shape作为字典学习算法;(i)我们的参数选择方法;(五)利用GRAIL表象的五种时间序列挖掘方法。数据集:我们使用来自UCR archive32的128个数据集,这是最大的类标记时间序列数据集的集合。数据集跨越不同的领域,被归一化,并分成训练集和测试集。每个数据集包含40到24000个序列。我们使用标准化的重采样和插值方法来修复不同长度和缺失值的问题[90],故意留下这些值来反映真实世界。最大序列长度为2,844。每个数据集中的每个序列只属于一个类。

       平台:我们在300台服务器的集群上运行实验,配置相同:双Intel XeonE5-2650v4(12核,双向SMT)处理器,时钟速度为2.2 GHz,最高128 GB RAM。每个服务器运行Red Hat Linux 6.6(64位)和Matlab R201 8a(64位)。

       实现:我们在Matlab中实现了所有方法,以实现一致的评估。我们还在Apache Spark(使用PySpark)之上构建了GRAIL,用于大规模分析。出于可重复性的目的,我们使源代码可用。

       基线: 【评估SINK我们将SINK与以下时间序列的最先进的距离测量和核函数进行比较:(i) SBD,一种高效、准确、无参数的距离测量方法[91];(ii) cDTW,约束版本)of  DTW,提高了精度和效率[103];和(ii) GA,一个最先进的全球对齐内核[30]。在[35,119]之后,我们使用1-NN分类器,这是一个简单的、无参数的分类器,来评估距离度量。重要的是,将1-NN分类器与弹性距离度量(如cDTW)相结合,可以实现最先进的时间序列分类性能[126,119,9]。对于核函数,我们使用[23]实现的支持向量机(SVM)分类器26[来评估SINK (SVM+SINK)和GA (SVM+GA)核。此外,我们还将这些方法与最近提出的弹性集成分类器(Elastic Ensemble, EE)和COTE分类器进行了比较。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

分类精度                                              运行时间

       【SVM+SINK的分类器在绝大多数数据集上都优于SVM+GA分类器、SVM+SINK比SVM+GA2的速度快得多】

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

              图7:基于各个数据集的平均等级的分类器的等级。wiggly连接的方法在统计上并没有什么不同。

【图7显示了128个数据集中85个数据的平均等级,波浪线:没有统计学上显著的差异,Cote的那个中心,优于第二个聚类,更优于第三个聚类,SVM+SINK99是保存99%的能量】

       【评估K-shape我们将k-shape与最先进的采样和投影方法相比较,后者用于计算Nystrom的地标向量。具体而言,我们考虑以下抽样方法:(i) Random随机,一种简单高效的均匀抽样方法[123];(ii) AFK MC2, k-means++抽样方法[8]的近似版本;(iii) GibbsDPP,基于Gibbs采样的确定性点过程(DPP)抽样方法的近似版本[64,1];(iv)LevScore,一种基于杠杆评分[47]的非均匀抽样方法。此外,我们考虑了两种投影方法:(i) SRFT基于傅立叶变换[47]的投影方法;(二)基于高斯过程(GP)[47]的投影方法。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       【a: 在大多数数据集中,k-Shape优于Random, b: k形在所有不同的k值上都优于所有方法,】

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       【图9显示了每个方法在数据集上的平均排名,K-shape领先,排第一,唯一显著优于所有方法的方法.】

       【评估参数调整方法函数我们评估GRAIL-PT,我们的参数调整方法,针对三种方法的核函数参数估计:(i) MinVariance最小方差法,这是一种选择核函数参数以使数据方差最小的简单方法;(ii) MaxVariance最大方差,一种选择核函数参数使数据方差最大化的简单方法;(iii) LOOCAcc,一种始终选择核函数参数以使遗漏分类精度最大化的监督方法。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       【图10显示了每个方法的在各个数据集的平均排名,使用它们的分类精度作为度量。GRAIL-PT、LOOCAcc、MaxVariance排名靠前,MinVariance计算能力较差】

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       【图11显示了每个方法在数据集上的平均等级(长度),这些方法用于测量学习表示的维数。最小方差排在第一位,最小方差产生了最紧凑的表示,最小的差异也会导致在分类上的重大损失,尽管GRAIL-PT和MaxVariance在分类精度方面的表现相似,但是GRAIL-PT平均产生的维数地域GRAIL,总体来说GRAIL是很优秀的】

       在五个主要的时间序列挖掘任务中,结合合适的内核方法评估学习表示。【评估GRAIL表示性能】为了在实践中了解GRAIL表示的性能,我们在5个主要的时间序列挖掘任务中将学习表示与合适的内核方法 结合 起来进行评估。此外,我们对文献中提出的不同方法进行了广泛的实验,以学习时间序列的表示。具体来说,我们使用平移不变的字典学习(SIDL)方法[134],相似性保持表示学习方法(SPIRAL)[68], the Random Warping Series (RWS)[125],和Encoder ADAPT深学习方法(EncoderA)[110],股票一个非常类似的架构完全卷积神经网络(FCN) [121],这五种方法进行评估

       计算表示

       为了查询,我们将GRAIL-LB,即SINK的下界,与ED和cDTW距离度量的两个最新的下界进行比较:(i) DFT-LB:一种使用傅里叶变换来表示时间序列并使用第k个傅里叶系数来表示下界ED[39]的方法;(ii) Keogh-LB, cDTW的最新下界[61]

       对于分类,我们评估GRAIL-SVM,我们的分类器利用线性支持向量机的[40]对相同的分类器,我们认为上述评估汇。此外,我们还将GRAIL-SVM与经过SIDL (SIDL-SVM)、SPIRAL-SVM (SPIRAL-SVM)和RWS表示(RWS-SVM)训练的线性SVM分类器进行了比较。对于EncoderA,我们使用的是原文中建议的培训和测试程序[110]。

       对于聚类,我们将GRAIL-SC,一种运行于GRAIL表示上的光谱聚类方法[85]与两种最先进的聚类方法[91,92]进行比较: (i) k-AVG+ED,原k-means聚类方法,效率高,但精度低[76]; (ii) k-Shape:一种高效、高精度的时间序列聚类方法[91]。

       此外,我们还比较了GRAIL-SC和k-means方法在SIDL (SIDL- km)、SPIRAL (SPIRAL- km)和RWS (RWS- km)表示上的运行情况。

       对于采样,我们将使用GRAIL-DPP,一种运行在GRAIL表示的DPP采样方法[64,1],与目前两种最先进的方法进行比较,(i)即使用k-means++机制,即AFKMC2,(ii)以及使用我们前面讨论过的DPP方法,即GibbsDPP

       最后,为了可视化,我们比较了我们的表示(GRAIL+Rep)之间的近似误差(见下文),当我们使用精确的KPCA方法(KPCA +Rep)来可视化二维时间序列时。在这两种方法中,Rep表示所使用的表示(例如…GRAIL+Z95表示GRAIL表示,Zk,这解释了Zd中95%的方差)。

       参数设置:在上面讨论的距离度量中,eDTW需要设置一个参数来控制其翘曲窗口的应变。我们通过对每个数据集的训练集(cDTW)执行遗漏分类步骤来计算最优窗口。为了使用SVM来评估SINK和GA核,我们需要设置一个正则化参数C。我们使用两个C值的power进行网格搜索,调整每个数据集训练集中的C值,C值的范围是-10到20,步骤0.11。对于这两个内核,我们考虑从1到20的缩放参数。我们称SINK为“SINK的一个版本,它通过计算一个减少的傅里叶系数来预先提供w%的信号能量。对于字典学习,所有的方法为每个数据集选择或构造相同数量的地标时间序列,相当于每个数据集时间序列数量的40%(对于大型数据集,上限为100)。为了评估学习表征,我们使用k-Shape和GRAIL-PT提取地标时间序列来估计SINK的参数,

       对于查询,GRAIL-LB和DFT-LB方法在每个数据集上以固定数量的坐标(10)进行低维表示。keoh - lb使用cDTW'对原始时间序列进行操作,cDTW的窗口为每个数据集时间序列长度的5%。

       对于分类,我们使用与之前相同的网格搜索值设置GRAIL-SVM的正则化参数c,并利用d地标时间序列构建GRAIL表示。

       我们对SIDL-SVM、SPIRAL-SVM和RWS SVM使用相同的训练过程。我们对这些方法所需的附加参数进行了调优,这些参数需要遵循相应论文中的推荐值。唯一的区别是,为了进行公平的比较,我们强迫习得的表示具有与我们相同的大小。对于聚类和采样,我们使用G RA IL表示来解释f = 95%的方差,我们使用每个数据集中的类的数量分别作为聚类的数量和样本的数量。

       度量:我们比较我们的方法在运行和管理。对于运行时,我们计算CPU时间利用率并测量每个数据集比较的时间比。为了评估分类器,我们报告分类精度(i。通过对每个数据集的训练和测试集执行分类,可以得到正确分类的实例总数。评估表示我们报告使用弗罗贝尼乌斯的近似误差范数之间原有的内核矩阵k和近似内核k = ZkZk•128数据集的可视化结果,我们采用min-max规范化约束它的近似误差在0和1之间,report1 -误差精度值。我们使用Rand Index (RI)[100]来评估每个数据集的融合训练和测试集的聚类精度。对于聚类和抽样,我们报告平均RI / 10次运行;在每次运行中,我们使用不同的随机初始化。

       统计分析:在[33,91,9]之后,我们使用具有99%置信水平的Wilcoxon检验[122]来评估多个数据集上的算法对,该检验受异常值的影响小于t检验[102]。我们还使用了Friedman test[43]和post-hoc Nemenyi test[84],其中95%置信水平用于比较多个数据集上的多种算法。

6. 实验结果

       在这一部分,我们报告我们的实验结果。我们的目标是:(1)根据最新的标准和核心函数来评估SINK(6.1);(2)k-Shape与字典学习方法进行比较(6.2);(3)评估我们的参数调整方法(6.3);(4)评估GRAIL的五个任务:(i)查询;(2)分类;(3)聚类;()采样;(v)可视化(6.4)。最后,我们提出我们的案例研究(6.5),并强调我们的发现(6.6)

6.1距离测量评价

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

 

                    分类精度                                               运行时间

       SVM+SINK的分类器在绝大多数数据集上都优于SVM+GA分类器、SVM+SINK比SVM+GA2的速度快得多

图6:SVM+SINK和SVM+GA分类器在128个数据集上的比较。

       我们评估了结合SINK和GA核的SVM分类器的准确性。图6a显示了128个数据集之间的两两差异。SVM+SINK的分类器在绝大多数数据集上都优于SVM+GA分类器(即大多数圆(每个圆代表一个数据集)都在对角线的上方),Wilcoxon认为这种准确性上的差异具有统计学意义。SVM+SINK在效率上也明显优于SVM+GA。具体而言,图6b显示,在我们考虑的所有数据集中,SVM+SINK比SVM+GA2的速度快得多,差异在一个数量级到三个数量级之间。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       图7:基于各个数据集的平均等级的分类器的等级。wiggly连接的方法在统计上并没有什么不同。图7显示了128个数据集中85个数据的平均等级,波浪线:没有统计学上显著的差异,Cote的那个中心,优于第二个聚类,更优于第三个聚类,SVM+SINK99是保存99%的能量

       随后,我们对所有分类器的性能进行了综合评价。图7显示了128个数据集中85个数据的平均等级(因为COTE和EE的精度值只对这个子集有效)。根据弗里德曼随后进行的Nemenyi测试,这条曲线代表了这两个排名之间没有统计学上的显著差异。我们观察到三个聚类:cote是第一个聚类,SVM+SINK, SVM+SINK%和EE,形成第二个聚类,而1-NN+SBD, 1-NN+cDTWOpt, SVM+GA形成第三个聚类。COTE在第二个集群中的方法和在第二个集群中的方法明显优于第三个集群中的方法。我们观察到支持向量机+SINK和支持向量机+SINK99之间没有统计学上显著的差异,虽然SINK99只对前几个傅里叶系数起作用,但这并不意味着精度损失。保留时间序列99%的能量,为每个数据集确定的系数。平均而言,这一步会导致所需系数大小减少67%,从而使支持向量机+SINK99相对于支持向量机+SINK的速度提高4.2倍。

       我们测试了SINK的不同能量水平,发现当我们压缩越来越多的原始时间序列时,精度逐渐降低(例如,SINK9o的精度明显低于SINK)。此外,我们观察到SINK的变化,当与适当的核方法相结合时,可以像EE(11个分类器的集合)一样准确地执行。对于一个单独的相似函数来说,这是非常高的性能,这意味着,正如我们将要展示的那样,尽管在低维(压缩)表示上操作,保存sink的学习表示仍然可以在我们的分析中考虑的所有5个任务上取得最先进的性能。相比之下,sINK的变种要比cote严重得多,cote是目前最先进的分类器。然而,我们注意到COTE是由35个分类器组成的一个集合。考虑到SVM+SINK是多么强大,我们相信新版的COTE,包括SINK和之前省略的其他核函数(如GA),将会产生新的最先进的分类性能

6.2词典评价

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       【a: 在大多数数据集中,k-Shape优于Random,b: k形在所有不同的k值上都优于所有方法】

       在展示了SINK的鲁棒性之后,我们现在评估k-Shape作为字典学习算法的性能。首先,我们用最简单、最有效的随机时间序列抽样方法来评价k形。图8a比较了这两种方法的近似值误差(如第5节所讨论的转化为精度)。在大多数数据集中,k-Shape优于Random,而Wilcoxon检验表明这种精度差异在统计上是显著的。为了确保k-Shape的性能不会因为选择k界标序列作为每个数据集的类数而受到影响,我们进行了一个额外的实验,将k landmark时间序列的数量从10变化到100。图8b显示了StarLightCurve (SLC)数据集(随机选择)上的近似误差(转换为第5节中讨论的精度)。我们观察到,k形在所有不同的k值上都优于所有方法,而wilcoxon表明,所有精度上的差异在统计上都是显著的。我们在数据集中观察到类似的行为。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       为了验证k形相对于其他方法的优越性,我们评估了它们在精度上的差异的重要性。图9显示了每个方法在数据集上的平均排名。k- shapeis是最常见的,这意味着k-Shape在大多数数据集中表现最好。我们观察到三种方法的聚类,它们的等级在统计学上没有显著性差异:SRFT和GP,这两种投影方法形成第一个聚类;AFKMC2和Random这两种采样方法构成第二个簇;第三个聚类是两种抽样方法:GibbsDPP和Lev-Score。第一个集群中的方法比第二个集群中的方法好得多,而第二个集群中的方法又比第三个集群中的方法好得多。因此,我们可以得出结论,投影方法在字典学习任务中执行抽样方法,重要的是,k-Shape是唯一显著优于所有方法的方法.

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

6.3参数估计的评估

       现在我们将重点放在参数选择离子方法上。LOOCAcc,一种使用每个数据集的训练集来选择参数的监督方法,如预期的那样,排名第一,这意味着LOOCAcc在大多数数据集中表现最好。有趣的是,我们观察到GRAIL-PT,我们的非监督方法来调整参数,和最大方差达到与LOOCAcc相似的分类精度。根据Friedman检验和事后Nemenyi检验来评估等级差异的重要性,只有MinVariance与其他方法相比在计算能力上有显著的降低。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       图11显示了每个方法在数据集上的平均等级(长度),这些方法用于测量学习表示的维数。最小方差排在第一位,最小方差产生了最紧凑的表示,最小的差异也会导致在分类上的重大损失,尽管GRAIL-PT和MaxVariance在分类精度方面的表现相似,但是GRAIL-PT平均产生的维数地域GRAIL,总体来说GRAIL是很优秀的。我们观察到最小方差排在第一位,这意味着与其他所有方法相比,最小方差产生了最紧凑的表示。然而,正如我们以前所看到的,最小的差异也会导致在分类上的重大损失。相反,我们观察到GRAIL-PT产生的响应与LOOCAcc产生的响应一样紧密,LOOCAcc是调整参数的超级直观方法。重要的是,尽管GRAIL-PT和MaxVariance在分类精度方面的表现相似,但在学习表征离子的双量值方面,grail - pt4明显优于MaxVariance。因此,我们可以得出这样的结论:grail - pt是唯一一种产生精确而紧凑的代表离子的非监督方法,类似于LOOCAcc以监督方式产生的代表离子。相反,MaxVariance和MinVariance分别产生非常高维的表示和非常低维的表示。非常低维的表示是可取的。不幸的是,在选择这种低维表示时,最小方差在准确性方面没有竞争力。

6.4 GRAIL五项任务的评价

       在展示了grail的所有关键组件的鲁棒性之后,我们现在将评估重点放在五个时间序列挖掘任务的学习表示的性能上。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

GRAIL-LB显著优于Keogh-LB

       查询:我们评估GRAIL-LB,我们的SINK下限与最先进的ED和cdtw的下限。我们用剪枝力(即剪枝力)来度量剪枝力。方法避免了所有可能的两两比较)。图12显示,GRAIL-LB显著优于Keogh-LB,后者是一种下界tw方法,也是ED的最先进表示方法,即DFT-LB。这是一个关键的成就,因为,据我们所知,这是第一次自动构建较低的边界度量,而且,重要的是,导致了比现有的手工解决方案更好的结果。

       分类:图13比较了grail表示与最先进的分类任务的表示学习方法的性能。我们观察到RWS-SV M、SPIRAL-RWS和EncoderA方法的性能类似,而SIDL-S VM明显比其他所有方法更差。有趣的是,GRAIL-SVM的输出显著地形成了所有的方法。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       为了理解这个结果,在图14中,我们展示了GRAIL-SVM,我们的SVM 分类器 在GRAIL表示与SVM+SINK的性能非常相似(因为GRAIL-SVM基本上接近SVM+SINK的精度),这表明了GRAIL表示在这个任务中的robus性。重要的是,grailal -SVM的性能显著优于SVM+GA和1-NN+SBD方法,这表明,尽管操作的维数超过了重构的维数,但grailal -SVM的性能优于原始的、高维的timeseries方法。而受遗传算法核启发的二叉树-支持向量机的性能明显低于支持向量机+SINK。螺旋支持向量机是一种无参数的方法,因此使用支持向量机的好处是有限的。SIDL-SVM依赖于与out方法相似的移不变性质,但是调优后的参数并没有显示出任何显著的性能改进。最后,对于EncoderA方法,我们报告的结果比原始论文(即因为我们强制EncoderA的表示具有有限的大小(与我们的类似)。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       聚类:我们根据k-Shape和k-AVG+ ED对我们的谱分类算法GRAIL-SC进行了评估。从图15a可以看出,尽管GRAIL-SC是一种低维表示,但它的性能与k-Shape相似,是一种高精度、高效率的时间序列聚类方法。重要的是,由于时间序列的维数减少,GRAIL-SC带来了比k形算法更快的时间序列聚类算法(图15b)。GRAIL-SC是唯一一种显著优于k-AVG+ ED的方法,并达到与k-Shape相似的精度。所有其他方法,即SPIRAL-KM、RWS-KM和SIDL-KM,执行与k-AVG+ED类似或更差(图16)。螺旋km和rws - km的效果与k-AVG +ED相似,而SIDL-KM的表现则要差得多。

       抽样:我们将基于抽样方法的GRAIL-DPP与两种最先进的近似抽样方法(采用k- means++机制和DPP方法)进行比较。图17将所有方法放在一起考虑。GRAIL-DPP outper两种方式AFKMC2和GibbsDPP无显著差异。

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       可视化:为了可视化的目的,我们用精确的KPCA生成的表示来评估grail表示的性能。图18显示了两个KPCA-Z85、KPCA-Z90、GRAIL- z90和GRAIL Z95在数据集中的平均排名。我们观察到KPCA-Z90排名第一,这意味着KPCA-Z90在大多数数据集中有最好的近似误差。GRAIL-Z95排名第二,KPCA-Z85紧随其后,但二者的近似值误差差异无统计学意义。我

6.5 10M时间序列的案例分析

GRAIL Efficient Time Series Representation Learning论文阅读笔记(三)

       现在,我们使用Spark演示了GRAIL的可伸缩性。通过与伊利诺斯州著名的能源供应商的合作,我们获得了包含客户两年能源使用情况的智能能源计算数据。我们创建了一个包含1000个能量测量值的1000万timeseries(不同周的客户数据)数据集。我们做了两个实验来演示GRA IL在不同的环境下的可扩展性,使用我们集群中的机器(见第5节)。在这两个实验中,我们报告了用于学习grail表示和执行k-means集群的运行时(在学习的表示之上),并根据客户机的能源使用模式将它们分组在一起。在图19a中,我们利用了100个核心(5台机器)来显示我们的框架是如何随着数据集大小的增加(从10K到10M timeseries)以及字典大小的增加(100、500和1000)而扩展的。我们观察到我们的框架是随着数据量的增加而线性扩展的,而字典的大小并不影响其扩展性。在图19b中,我们保持数据集不变,但是考虑到时间序列长度的变化。我们观察到,当有更多可用内核时,我们的框架会线性扩展,并且长度不会影响可伸缩性。

6.6实验评价总结

       简而言之,我们的实验评估表明:(1)与合适的核函数相结合的核方法,如SINK,明显优于与1- nn分类器相结合的最先进的距离测量方法;(2)聚类中心向量,如k形聚类中心向量,可以有效地作为表征学习任务的地标性时间序列字典;(3)对核函数参数进行无监督整定,得到精确、紧凑的时间序列表示;(4)圣杯;学习比最先进的表达方式更紧凑、更准确的时间序列再现;(5) GRAIL表征实现了对时间序列比较的优秀修剪;(6)GRAIL表示法,结合合适的方法,在低维repre-sentations上运行,实现了高精确度并显著提高了算法的运行速度;GRAIL适用于大规模的时间序列分析,因为它可以在越来越大的数据集中线性地扩展它的所有参数。

7.相关工作

       我们着重于从时间序列中学习有效的表示。在非监督方法之外,传统的基于模型的方法假设一个模型,该模型通常以带参数的解析方程的形式表示,来去除时间序列,并将该模型的估计参数作为时间序列挖掘任务的特征[66]。文献[55,17,44]中大量基于模型的方法依赖于不同的模型来满足不同的应用需求,如隐马尔可夫模型[97]、高斯过程模型[18]和自回归模型[75]。不幸的是,这些模型不切实际的假设,加上它们用解析方程对高度复杂高维时间序列建模的能力有限,影响了基于模型的方法作为现实问题的独立特征提取方法的有效性[66]。

       因此,时序文学方面付出了大量努力来提取通用的特性来表示时间序列的使用组合统计措施,总结不同的时间系列的属性,包括它们的分布、相关结构、平稳性,熵,和合适的一系列不同的时间系列模型(83年,120年,34岁,46岁,45岁)。尽管这类方法对于分类和预测任务是有效的,但是当特征的监督选择降低了特征向量的维数并提高了准确性时,这些方法对于非监督任务来说是没有竞争力的。同样,许多时间序列分类方法也涉及到特征提取的操作。我们建议读者参考[9],以便对这些方法进行大量的调查和评估。不幸的是,对于非监督设置,这种方法没有竞争力,这在基于shapelet的聚类方法中得到了证明[92]。

       其他学习特征表示的方法依赖于深度学习方法[132,15,14,13,41,12]。这些方法的一个优点是,它们可以学习多层特性表示。最近的一种深度学习方法,即编码器[110],已经取得了与最先进的COTE分类器类似的运算性能。不幸的是,当我们限制表示的大小(以匹配GRAIL的大小)时,这种方法就不再具有竞争力了。使用神经网络学习表示有许多不同的体系结构。我们建议读者参考[66]以获得彻底的回顾。最近,人们提出了许多与我们的方法相关的方法来学习时间序列的表示。SIDL[134]试图在时间序列的不同位置捕获信息丰富的本地模式,并依赖于稀疏编码来学习表示。与我们的方法类似,spirn[68]通过保留时间序列的DTW距离来学习时间序列的表示。最后,RWS[125,124]以第2节中描述的RFF内核方法为基础来学习表示。

8.结论

       在本文中,我们解决了有效学习数据感知表示的问题。首先,我们开发了一个比较移位不变量下时间序列的快速核函数SINK。利用有效的时间序列聚类方法构造了地标时间序列,提出了一种估计核函数参数和提高表示紧度的方法。然后,我们通过使用内核方法的近似来学习使用GRAIL的表示。最后,我们展示了GRAIL表示如何加速5个主要时间序列挖掘任务的内核方法。我们通过使用严格的统计分析对128个数据集进行广泛的实验评估来评估我们的想法。此外,我们在Apache Spark上实现了GRAIL来分析真实的物联网数据。我们的研究结果表明,通过使用SINK和GRAIL,我们可以在时间序列的查询、分类、聚类、采样和可视化方面显著优于现有的最先进的方法。GRAIL作为一种能够统一时间序列方法设计的新原语出现了。