资讯详情

【时序】TFT:具有可解释性的时间序列多步直接预测 Transformers

论文名称:Temporal Fusion Transformers for interpretable multi-horizon time series forecasting 论文下载:https://www.sciencedirect.com/science/article/pii/S0169207021000637 论文年份:2021 93(2022/05/01) 论文代码:https://github.com/greatwhiz/tft_tf2

Abstract

often contains a complex mix of inputs – including static (i.e. time-invariant) covariates, known future inputs, and other – without any prior information on how they interact with the target. Several deep learning methods have been proposed, but they are typically ‘black-box’ models that do not shed light on how they use the full range of inputs present in practical scenarios. In this paper, we introduce the Temporal Fusion Transformer (TFT) – a novel attention-based architecture that combines high-performance multi-horizon forecasting with interpretable insights into temporal dynamics. To learn temporal relationships at different scales, TFT uses recurrent layers for local processing and interpretable self-attention layers for long-term dependencies. TFT utilizes specialized components to select relevant features and a series of gating layers to suppress unnecessary components, enabling high performance in a wide range of scenarios. On a variety of real-world datasets, we demonstrate significant performance improvements over existing benchmarks, and highlight three practical interpretability use cases of TFT.

多范围预测(Multi-horizon forecasting)通常包括复杂的输入组合-包括以及——。已经提出了几种深度学习方法,但它们通常是黑盒子模型,没有澄清它们如何使用实际场景中的所有输入。在本文中,我们介绍了它——基于注意力的新颖结构。学习不同尺度的时间关系,TFT 局部处理采用循环层,长期依赖可解释的自注意层。 。在各种现实世界的数据集上,我们展示了比现有基准测试显着的性能改进,并强调了 TFT 三个实际可解释用例。

1. Introduction

,即,它是时间序列机器学习中的一个关键问题。与一步一步的预测相比,(比如零售商在即将到来的季节优化库存,或者临床医生优化病人的治疗计划)。零售预测范围广(B?se et al., 2017; Courty & Li, 1999),医疗保健(Lim, Alaa, & van der Schaar, 2018; Zhang & Nawata, 2018)和经济学(Capistran, Constandse, & RamosFrancia, 2010)-对现有方法的性能改进具有重要价值。 在这里插入图片描述 实际的多范围预测应用程序通常是,如图 1 所示,包括

  • (比如即将到来的假期日)
  • (exogenous time series,例如,历史客户流量)
  • (static metadata,例如,商店的位置)

研究中存在的问题

深度神经网络 (DNN) 与传统时间序列模型相比,越来越多地用于多范围预测,表现出强大的性能改进(Alaa & van der Schaar, 2019; Makridakis, Spiliotis, & Assimakopoulos, 2020; Rangapuram et al., 2018)。尽管许多架构都专注于循环神经网络 (RNN) 架构的变体(Rangapuram et al., 2018; Salinas, Flunkert, Gasthaus, & Januschowski, 2019; Wen et al., 2017),但最近的改进也被使用了(Fan et al., 2019年-基于Transformer的模型(Li et al., 2019年)。然而,这些通常是(Li et al., 2019; Rangapuram et al., 2018; Salinas et al., 2018年)-自回归模型的常见问题-或 (Wen et al., 2017)——它们。最近时间序列模型的许多改进来自于架构与独特数据特征的一致性(Koutník, Greff, Gomez, & Schmidhuber, 2014; Neil et al., 2016)。我们论证和证明,

除了不考虑常见的多范围预测此外,目前大多数架构都是,预测由许多参数之间复杂的非线性相互控制。这使得很难解释模型是如何得出预测结果的,反过来又使用户难以信任模型的输出和模型构建者对其进行调试。不幸的是,DNN 常用的可解释性方法不适用于时间序列。。这种方法会导致解释质量差,因为。另一方面,提出了一些建议,它们,例如 Transformer 结构。应用它们的基本警告是,。这些们的传统形式中,这些架构可以提供对多范围预测相关时间步长的洞察,但它们

  • 1)编码器用于网络其他部分的向量
  • 2)
  • 3)
  • 4)

使用这些专门的组件也有助于解释性;特别是,我们展示了 TFT 支持三个有价值的可解释性用例:帮助用户识别 (i) 预测问题的全局重要变量,(ii) 持久的时间模式,以及 (iii) 重要事件。在各种现实世界的数据集上,我们展示了如何实际应用 TFT,以及它提供的见解和好处。

标签: du电力变送器80du电力变送器du20电力变送器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台