A Survey on Concept Drift Adaptation
Abstract
当输入数据与目标变量的关系随时间变化时,概念漂移主要是指在线监控学习场景。 假设本文具有监督学习的一般知识,我们将描述自适应学习过程的特点。 分类处理概念漂移的现有策略; 概述最具代表性、独特和流行的技术和算法; 讨论自适应算法的评价方法; 并展示了一组解释性应用程序。 这项调查全面地涵盖了概念漂移的不同方面,以反思现有的分散状态。 因此,它旨在全面介绍研究人员、行业分析师和从业者的概念漂移适应性。
Introduction
但数据往往以流的形式出现。 在机器的主内存中容纳大量流量数据是不现实的,通常是不可行的。 因此,仅在线处理是合适的。 在这种情况下,可以通过连续更新或重新训练最新的数据来增量训练预测模型。 然而,计算效率并不是监督数据流学习的唯一问题。
在动态变化和不稳定的环境中,数据分布会随时间而变化,导致概念漂移[Schlimmer and Granger 1986; Widmer and Kubat 1996]。 实际概念漂移1是指输出(即目标变量)在给定输入(输入元素)的情况下有条件分布的变化,输入分布可能保持不变。 真实概念漂移的一个典型例子是关注用户兴趣在线新闻流的变化。 虽然传入新闻文档的分发通常保持不变,但用户感兴趣(因此不感兴趣)的新闻文档的条件分发会发生变化。 自适应学习是指在预测模型运行过程中在线更新,以响应概念漂移。
通过调查自适应学习方法,介绍评价方法,讨论解释性应用,提供了处理概念漂移的综合视图。 当输入元素与目标变量的关系随时间变化时,它专注于在线监督学习。
Adaptive Learning Algorithms
学习算法通常需要在意想不到的动态环境中运行。 这些算法的理想特征之一是合并新数据的能力。 如果数据生成过程没有严格固定(适用于大多数实际应用程序),那么我们正在预测的基本概念(例如用户阅读新闻的兴趣)可能会随着时间而改变。 适应这种概念漂移的能力可以看作是增量学习系统的自然扩展[Giraud-Carrier 2000],该系统通过示例来学习预测模型。 自适应学习算法可以看作是高级增量学习算法,能够随着时间的推移适应数据生成过程的发展。
Setting and Definitions
相反,在线算法按顺序处理数据。 他们生成了一个模型并将其投入运行,而一开始没有完整的训练数据集。 随着更多训练数据的到来,该模型会在操作过程中不断更新。
与在线算法相比,限制性更强的算法是增量算法,该算法逐个处理输入示例(或逐批处理),并在收到每个示例后更新决策模型。 增量算法可以随机访问先前的示例或代表性/精选示例。 在这种情况下,这些算法称为带有部分内存的增量算法[Maloof和Michalski 2004]。 通常,在增量算法中,对于任何新的数据表示形式,模型的更新操作均基于前一个模型。
因为预计数据会随着时间的推移而发展,尤其是在动态变化的环境(通常是非平稳性)中,所以其基本分布会随着时间动态变化。 概念漂移设置中的一般假设是,更改会意外发生且不可预测,尽管在某些特定的实际情况下,可以与特定环境事件的发生相关地提前知道更改。 但是,针对一般漂移的解决方案需要针对特定情况的解决方案。 而且,改变可以采取不同的形式(即,输入数据特性或输入数据与目标变量之间的关系可以改变)。
Formally, concept drift between time point t0 and time point t1 can be defined as
where denotes the joint distribution at time t0 between the set of input variables X and the target variable y. Changes in data can be characterized as changes in the components of this relation [Kelly et al. 1999; Gao et al. 2007]. In other terms:
—the prior probabilities of classes p(y) may change, —the class conditional probabilities p(X|y) may change, and —as a result, the posterior probabilities of classes p(y|X) may change, affecting the
prediction.
We are interested to know two implications of these changes: (i) whether the data distribution p(y|X) changes and affects the predictive decision and (ii) whether the changes are visible from the data distribution without knowing the true labels (i.e., p( X) changes). From a predictive perspective, only the changes that affect the prediction decision require adaptation.
We can distinguish two types of drifts:
(1) Real concept drift refers to changes in p(y|X). Such changes can happen either with or without change in p(X). Real concept drift has been referred to as concept shift in Salganicoff [1997] and conditional change in Gao et al. [2007].
(2) Virtual drift happens if the distribution of the incoming data changes (i.e., p(X) changes) without affecting p(y|X) [Delany et al. 2005; Tsymbal 2004; Widmer and Kubat 1993]. However, virtual drift has had different interpretations in the literature:
—Originally, a virtual drift was defined [Widmer and Kubat 1993] to occur due to incomplete data representation rather than change in concepts in reality.
—Virtual drift corresponds to change in data distribution that leads to changes in the decision boundary [Tsymbal 2004].
—Virtual drift is a drift that does not affect the target concept [Delany et al. 2005].
形式上,时间点t0和时间点t1之间的概念漂移可以定义为∃X:pt0(X,y)̸= pt1(X,y),(2)其中pt0表示在时间t0时,一组之间的联合分布。 输入变量X和目标变量y。 数据的变化可以被描述为这种关系的组成部分的变化[Kelly等。 1999年; 高等。 2007]。 换句话说:-类p(y)的先验概率可能会发生变化;-类条件条件概率p(X | y)可能会发生变化;以及-结果,类p(y | X)的后验概率可能会发生变化 ,影响预测。 我们有兴趣知道这些变化的两个含义:(i)数据分布p(y | X)是否发生变化并影响预测决策;(ii)在不知道真实标签的情况下,数据更改是否可见于数据分布(即 ,p(X)变化)。 从预测的角度来看,只有影响预测决策的更改才需要调整。 我们可以区分两种类型的漂移:(1)实际概念漂移是指p(y | X)的变化。 无论p(X)有无变化,这种变化都可能发生。 实际的概念漂移在Salganicoff [1997]中被称为概念漂移,在Gao等人中被称为条件变化。 [2007]。 (2)如果传入数据的分布发生变化(即p(X)发生变化)而又不影响p(y | X),则会发生虚拟漂移[Delany等。 2005; Tsymbal 2004; Widmer and Kubat 1993]。 但是,虚拟漂移在文献中有不同的解释:—最初,虚拟漂移被定义为[Widmer and Kubat 1993]是由于数据表示不完整而不是实际概念的改变而发生的。 -虚拟漂移对应于导致决策边界发生变化的数据分布变化[Tsymbal 2004]。 虚拟漂移是一种不影响目标概念的漂移[Delany等。 2005]。
该调查主要集中于处理实际概念漂移,这在输入数据分布中是不可见的。 在许多情况下,处理实际概念漂移的技术还可以处理在输入数据分布中表现出来的漂移,但反之则不行。 处理真实概念漂移的技术通常依赖于有关预测性能的反馈,而用于跟踪变化的先验概率的技术和用于处理虚拟漂移或新颖性检测的技术通常可以在没有此类反馈的情况下运行。 本文没有涵盖可以从传入数据分布(P(X))中检测到的漂移。 有兴趣追踪漂移先验概率的读者请参见Zhang和Zhou [2010],新颖性检测请参见Markou和Singh [2003]和Masud等。 [2011],以及在使用基于聚类的半监督学习技术处理虚拟漂移时,请参考Aggarwal [2005],Bouchachia等。 [2010],以及Bouchachia和Vanaret [2013]。
Changes in Data Over Time
Changes in data distribution over time may manifest in different forms, as illustrated in Figure 2 on a toy one-dimensional data. In this data, changes happen in the data mean. A drift may happen suddenly/abruptly, by switching from one concept to another (e.g., replacement of a sensor with another sensor that has a different calibration in a chemical plant), or incrementally, consisting of many intermediate concepts in between(e.g., a sensor slowly wears off and becomes less accurate). Drift may happen suddenly (e.g., the topics of interest that one is surveying as a credit analyst may suddenly switch from, for instance, meat prices to public transportation) or gradually (e.g., relevant news topics change from dwelling to holiday homes, while the user does not switch abruptly, but rather keeps going back to the previous interest for some time). One of the challenges for concept drift handling algorithms is not to mix the true drift with an outlier or noise, which refers to a once-off random deviation or anomaly (see Chandola et al. [2009] for outlier detection). No adaptivity is needed in the latter case. Finally, drifts may introduce new concepts that were not seen before, or previously seen concepts may reoccur after some time (e.g., in fashion). Changes can be further characterized by severity, predictability, and frequency [Minku et al. 2010; Kosina et al. 2010].
Most of the adaptive learning techniques implicitly or explicitly assume and spe- cialize in some subset of concept drifts. Many of them assume sudden nonreoccurring drifts. But in reality, often mixtures of many types can be observed.
数据分布随时间的变化可能以不同的形式体现出来,如图2所示的玩具一维数据。 在此数据中,数据均值发生变化。 漂移可能会突然/突然发生,方法是从一个概念切换到另一个概念(例如,用化工厂中标定不同的另一个传感器替换传感器),也可能是渐进式的,包括介于两者之间的许多中间概念(例如,传感器缓慢磨损并变得不那么精确)。 漂移可能突然发生(例如,作为信用分析员正在调查的感兴趣的主题可能突然从例如肉类价格转变为公共交通)或逐渐发生(例如,相关新闻主题从住宅变为度假屋,而 用户不会突然切换,而是会在一段时间内回到先前的兴趣)。 概念漂移处理算法的挑战之一是不要将真正的漂移与离群值或噪声混合在一起,后者是指一次性的随机偏差或异常(离群值检测请参见Chandola等人[2009])。 在后一种情况下,不需要适应性。 最后,漂移可能会引入以前未见过的新概念,或者一段时间后(例如,以时尚的形式)可能会再次出现以前见过的概念。 变化可以通过严重性,可预测性和频率来进一步表征[Minku et al。 2010; Kosina等。 2010]。 大多数适应性学习技术都隐含或显式地假定并特定化了概念漂移的某些子集。 他们中的许多人都假设突然发生了不可重复的漂移。 但实际上,通常可以观察到多种类型的混合物。
- Sudden / abrupt: 指的是迅速同时又不可逆的改变, 强调的是发生迅速
- Incremental:增量改变,强调的是改变发生缓慢, 强调的是值随时间发生改变
- gradual:循序渐进改变,强调的是数据分布的改变
- reccuring:是一种temporary(临时性)的改变,在一段时间内会回复之前的状态。所以也有些研究者将其称为,它不具有周期性,是在不规则的时间间隔内反复转换。
- outlier:离群值,是一种随机变化
Requirements for Predictive Models in Changing Environments(不断变化的环境对预测模型的要求)
Predictive models that operate in these settings need to have mechanisms to detect and adapt to evolving data over time; otherwise, their accuracy will degrade. As time passes, the decision model may need to be updated taking into account the new data or be completely replaced to meet the changed situation. Predictive models are required to:
-
detect concept drift (and adapt if needed) as soon as possible;
-
distinguish drifts from noise and be adaptive to changes, but robust to noise; and
-
operate in less than example arrival time and use not more than a fixed amount of memory for any storage.
在这些情况下运行的预测模型需要具有机制,可以随着时间的推移检测和适应不断发展的数据。 否则,它们的准确性将会降低。 随着时间的流逝,可能需要考虑新数据来更新决策模型,或者完全替换决策模型以满足变化的情况。 需要预测模型以:(1)尽快检测概念漂移(并在需要时进行调整); (2)区分漂移和噪声,并能适应变化,但对噪声具有鲁棒性; (3)在少于示例到达时间的情况下运行,并且任何存储使用不超过固定数量的内存。
Online Adaptive Learning Procedure(在线适应算法程序)
在线自适应学习的正式定义如下。 决策模型是将输入变量映射到目标的函数L:y = L(X)。 学习算法指定了如何从一组数据实例构建模型。 在线自适应学习程序如下:(1)预测。 当新的示例X到达时,使用当前tt(2)诊断做出预测yˆ。 一段时间后,我们会收到真实的标签yt,并且可以估算损失模型Lt. a s f(yˆ,y)。 tt(3)更新。 我们可以使用示例(Xt,yt)进行模型更新以获得Lt + 1。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F9nXLbIm-1607226885465)(/Users/liyan/Library/Application Support/typora-user-images/image-20201130160952655.png)]
取决于计算资源,使用模型的最新版本Lt + 1 = train((Xt,yt),Lt)处理后,可能需要丢弃数据。 或者,某些过去的数据可能仍可访问Lt + 1 = train((Xi,yi),…,(Xt,yt),Lt)。 有多种在线处理数据的方式(例如,部分内存:一些示例在培训中定期存储和使用;基于窗口的数据以块的形式显示;基于实例的示例在到达时进行处理)。
Figure 3 depicts a generic schema for an online adaptive learning algorithm. In a nutshell, the memory module defines how and which data is presented to the learning algorithm (learning module). The loss estimation module tracks the performance of the learning algorithm and sends information to the change detection module to update the model if necessary. Section 3 will discuss the four modules of the system (memory, learning, change detection, loss estimation) in detail.
This setting has variations where, for instance, the true values for the target vari- able (feedback) come with a delay or are not available at all. Moreover, new examples for prediction may arrive before we get feedback for the data that has already been processed. In such a case, model update would be delayed, but the principles of oper- ation remain the same. Finally, in some settings, we may need to process examples in batches rather than one by one.
图3描绘了在线自适应学习算法的通用架构。 简而言之,存储模块定义了如何将数据以及哪些数据呈现给学习算法(学习模块)。 损失估计模块跟踪学习算法的性能,并在必要时将信息发送到更改检测模块以更新模型。 第三部分将详细讨论系统的四个模块(内存,学习,更改检测,损失估计)。 此设置有一些变化,例如,目标变量(反馈)的真实值会延迟或根本不可用。 此外,在我们获得对已处理数据的反馈之前,可能会出现新的预测示例。 在这种情况下,模型更新将被延迟,但是操作原理保持不变。 最后,在某些情况下,我们可能需要分批处理示例,而不是一个接一个地处理示例。
TAXONOMY OF METHODS FOR CONCEPT DRIFT ADAPTATION
Memory
概念漂移下的学习不仅需要用新的信息更新预测模型,而且需要遗忘旧的信息。我们考虑两种类型的内存:以数据表示的短期内存和作为数据模型泛化的长期内存。在本小节中,我们从两个维度分析短期内存,如图5所示:(i)数据管理指定用于学习的数据,以及(ii)遗忘机制指定以何种方式丢弃旧数据。长期记忆的问题将在3.3节.
Data Management
数据管理学习最新的数据,并且最新的数据量对当前的预测影响最大
Single Examples
大多数在线学习者维持一个单一的假设(可能来自一个复杂的预测模型),模型更新是错误驱动的。当一个新的例子出现时,根据当前的假设做出一个预测。当收到真实的目标值时,计算损失,必要时更新当前假设。这类算法的一个例子是winnow[Littlestone 1987],这是一个使用乘法权重更新方案的线性分类器系统。它的关键特征是对无关特征的鲁棒性。
在线学习算法可以被视为自然地适应不断变化的分布,主要是因为它们的学习机制不断地用最新的例子更新模型。然而,在线学习系统没有明确的预测机制。只有当旧概念因新的输入数据而被稀释时,才会发生适应。像winnow[Littlestone 1987]和vfdt[Domingos and hulten 2000]这样的系统可以适应随着时间的推移而缓慢的变化。主要的局限性是它们对突变的适应能力慢,这取决于用新的例子进行模型更新的合理性。设置这些参数需要在稳定性和灵敏度之间进行权衡【Carpenter等人,1991b】。明确处理概念漂移的代表性单实例记忆系统项目包括Tagger[Schlimmer and Granger1986]、DWM[Kolter and Maloof 2003,2007]、SVM[Syed et al.1999]、IFCS[Bouchachia2011a]和GT2FC[Bouchachia and Vanaret 2013]
Multiple Examples
数据管理的另一种方法是维护一个预测模型,该模型与最近的一组示例保持一致。familyFLORA算法[Widmer and Kubat 1996]是第一个针对进化数据的有监督增量学习系统之一。原始floral算法使用固定长度的滑动窗口,将最新的示例存储在先进先出(FIFO)数据中结构。At每一个时间步,学习算法都会使用训练窗口中的例子建立一个新的模型。模型的更新有两个过程:学习过程(基于新数据更新模型)和遗忘过程(丢弃窗口外的数据)。关键的挑战是选择合适的窗口大小。短窗口更准确地反映了当前的分布,因此,它不能保证在概念变化的时间内快速适应,但在稳定时期,过短窗口会使系统的性能恶化。一个大窗口在稳定时期会有更好的表现,但它对概念变化的反应更大慢慢地。进来一般来说,训练窗口的大小可以随时间变化.
固定式滑动窗大小。存储内存中固定数量的最新实例。每当一个新的例子出现时,它被保存到内存中,旧的语句被丢弃。这种简单的自适应学习方法经常被用作评估新的算法。
根据变化检测器的指示,在窗口超时时改变示例的数量。一种直接的方法是在每次选中一个更改时缩小窗口,这样trainingdata就可以反映最新的概念,否则就扩大窗口。
最早使用自适应窗口大小的算法之一是flora2[Widmerand Kubat 1996]。传入的示例将添加到窗口中,最旧的示例将被删除。添加和删除保持窗口(和预测模型)与当前概念一致。该算法的进一步版本处理重复概念(FLORA3)和噪声数据(FLORA4)。后来的一项研究[Klingenberg和Joachims2000]提出了一种理论支持的方法,用支持向量机(SVM)识别和处理概念变化。此方法在训练示例上维护一个适当大小的窗口。其核心思想是根据泛化误差的估计来调整窗口大小。在每一个时间步, 该算法利用不同的窗口大小建立多个支持向量机模型,并选择使漏检误差估计最小的窗口大小作为训练窗口.
可变长度的学习窗口出现在Maloof和Michalski[1995]、Klingenberg[2004]、Gama等人[2004]和Kuncheva和Zliobaite[2009]。依赖窗口化的原因在于数据的最近性与相关性和重要性相关。不幸的是,这种假设可能并非在所有情况下都是正确的。例如,当数据嘈杂或概念再次出现时,数据的最近性并不意味着相关性。此外,如果慢变化持续的时间超过窗口大小,则窗口也可能失败。
Forgetting Mechanism
处理由具有未知动态的进程生成的演化数据的最常见方法是忘记过时的观察结果。遗忘机制的选择取决于我们对数据分布变化的期望值,以及系统对噪声的反应性和鲁棒性之间的权衡。遗忘越突然,反应越快,但捕捉噪音的风险也越高。
Abrupt Forgetting
滑动窗口的两种基本类型是[Babcock等人,2002年](i)基于序列,其中窗口的大小由观察的数量表征;和(ii)基于时间戳,其中窗口的大小由持续时间定义。
**There are two models for sequence-based windows:sliding windowsof sizejandlandmark windows. A sliding window stores only the most recent examples in thefirst-in-first-out (FIFO)data structure, while a landmark window stores all the examplesafter a given timsetamp, which is called a landmark. A landmark window is a windowof variable size. A timestamp-based window of sizetincludes all the elements thatarrived within the time fromtunits of time back until now. Learning systems that useabrupt forgetting were discussed in the previous section.One of the alternatives to overcome windowing, especially fixed windowing, is sam-pling. The goal is to summarize the underlying characteristics of a data stream overlong periods of time such that every included sample is drawn uniformly from thestream. One well-known algorithm is the reservoir sampling [Vitter 1985]. The goal ofthe reservoir sampling is to obtain a representative sample for the observed stream.It operates as follows. When theithitem arrives, it is stored in the reservoir withthe probabilityp=k/i, wherekis the size of the reservoir, and discarded with theprobability 1−p. If positive, then a randomly chosen sample is discarded from thereservoir to free space for the new sample. A number of sampling techniques have beeninvestigated, like in Al-Kateb et al. [2007], Efraimidis and Spirakis [2006], Aggarwal[2006], and Rusu and Dobra [2009]. Reservoir sampling has been discussed in somestudies related to drift and change detection and as an alternative to windowing in Ngand Dash [2008], Yao et al. [2012], and Zhao et al. **
有两种基于序列的模型窗:滑动窗SizeHandlandMark窗口。滑动窗口只在先进先出(FIFO)数据结构中存储最近的示例,而landmark窗口存储给定timsetamp后的所有示例,称为landmark。地标窗口是可变大小的窗口。一个基于时间戳的size窗口包含了从过去几年到现在的所有元素。前文讨论了使用突然遗忘的学习系统第一节克服窗口化,特别是固定窗口的替代方法是抽样。其目的是总结数据流在较长时间段内的基本特征,以便从流中均匀地提取每个包含的样本。一个著名的算法是储层取样[Vitter 1985]。储层取样的目的是为观测获得一个具有代表性的样品溪流。它操作如下。当样品到达时,它以概率p=k/i(k/i)储存在储液罐中,其中k为储液罐的尺寸,并以概率1−p丢弃。如果为正值,则从储液罐中丢弃随机选择的样本,以释放新样本的空间。已经研究了许多取样技术,如Al-Kateb等人[2007],Efraimidis and Spirakis[2006],Aggarwal[2006],Rusu和Dobra[2009]。Yao和Dash等人在《2008年关于储层变化的研究》中讨论了与储层变化相关的取样方法。
Gradual Forgetting
逐步遗忘是一种完全记忆的方法,它意味着没有任何例子被完全从记忆中丢弃。记忆中的例子与反映年龄的权重相关联。示例权重是基于一个简单的假设,即在训练集中,一个例子的重要性应该随着年龄的增长而降低。假设在时间i,存储的足够的统计信息是i−1,我们观察到一个示例xi。假设一个聚合函数g(X,S),则新的充分统计信息计算出asSi=G(Xi,αSi−1),其中α∈(0,1)是衰落因子;这样最老的信息变得最少重要。线性衰减技术可以在Koychev[2000,2002]中找到,而指数衰减技术在Klingenberg[2004]中提出。后一种技术使用指数老化函数wλ(X)=exp(−λj)根据其年龄进行加权取样,其中示例为djtime步前。参数λ控制权重减少的速度。对于较大的λ值,较低的权重分配给旧的示例,因为它们被认为对当前预测信息较少。如果λ=0,则所有示例的权重相同
Change Detection
变更检测组件指的是用于明确区分和变更检测的技术和机制。它通过识别变化点或发生变化的小时间间隔来表征和量化概念漂移【Basseville和Nikiforov 1993年】。我们考虑以下维度,如图6所示:(i)基于序列分析的方法,(ii)基于控制图的方法,(iii)基于两个分布之间差异的方法,以及(iv)启发式方法.
**We already pointed out that online learning systems, without any explicit changedetection mechanism, can adapt to evolving data. The advantage of explicit changedetection is providing information about the dynamics of the process generating data. **
我们已经指出,在线学习系统,没有任何明确的变化检测机制,可以适应不断变化的数据。显式变更检测的优点是提供有关生成数据的进程的动态信息
典型的部门策略监控绩效指标(Widmer and Kubat 1996;Zeira et al.2004)或原始数据的演变,并将其与固定基线进行统计比较。flora算法家族是自适应学习中一项具有开创性的工作,它具有监控性能指标。Flora2Algorithm[Widmerand Kubat 1996]包括一个基于规则的窗口调整启发式算法分类器。到检测概念变化,监控当前模型的精度和覆盖范围,并相应调整窗口大小。在信息过滤的背景下,已经提出了监控三个绩效指标准确性、召回率和精确度的值[Klingenberg和Renz 1998]。将每个指示器的后验值与移动平均值的标准样本误差进行比较
Detectors Based on Sequential Analysis
T w n = l o g P ( x w . . . x n ∣ P 1 ) P ( x w . . . x n ∣ P 0 ) = ∑ i = w n l o g P 1 [ x i ] P 0 [ x i ] = T w n − 1 + l o g P 1 [ x n ] P 0 [ x n ] T_{w}^{n} = log\frac{P(x_{w}...x_{n}|P1)}{P(x_{w}...x_{n}|P0)} = \sum_{i = w}^{n}log\frac{P1[x_i]}{P0[x_i]} = T_{w}^{n - 1} + log\frac{P1[x_n]}{P0[x_n]} Twn=logP(xw...xn∣P0)P(xw...xn∣P1)=i=w∑nlogP0[xi]P1[xi]=Twn−1+logP0[xn]P1[xn]
序列概率比检验(SPRT)[Wald 1947]是几种变化检测算法的基础。让xn1bea示例序列,其中示例xw1,1<w<n的子集是从未知分布p0生成的,而子集xnw是从另一个未知的分布p1生成的。当潜在分布在W点从p0变为1时,观察某些子序列的概率将显著高于0。显著性意味着这两个概率之比不小于一个阈值。假设观测是独立的,检验一个变化点发生在某个时间的假设的统计量,并不是假设在某个时间没有变化的完全假设
累加和(CUSUM)是一种序列分析技术,其来源于使用SPRT原理的Page[1954]。它通常用于变化检测。当输入数据的平均值明显偏离零时,测试输出analarm。测试的输入是任何预测器的残差,例如,来自aKalman滤波器的预测误差。CUSUM测试由gt=max(0,gt−1+(xt−δ))(g0=0)给出,判定规则是fgt>λ,然后发出警报信号,然后设置gt=0。其中X代表当前观测值,δ对应于允许的变化幅度,是当前时间,λ是用户定义的阈值。由于该规则只检测正向变化,当需要发现负变化时,应使用mins而不是max。在这种情况下,当小于(负)阈值λ时,会发出变化信号。CUSUM检验是无记忆的,其精度取决于参数δ和λ的选择。这两个参数都控制着早期检测真实变化和允许更多假警报之间的权衡。较低的δ值允许快速检测,但会增加假警报的数量。例如,Muthukrishnan等人[2007]已经将CUSUM应用于河道内采矿.