文章目录
- 摘要
- 1 - 引言
- 2 - 提出的框架(SeizureNet)
- 2.1 显著编码频谱图
-
- 2.2 学习多谱特征
- 2.3 提出的集合结构(SeizureNet)
- 2.4 训练和实施
- 3 实验和结论
-
- 3.1 SeizureNet用于知识蒸馏
- 3.2 显示编码谱的意义
- 3.3 学习多谱特征的意义
- 4 - 结论及未来工作
摘要
癫痫发作类型在脑电图数据中自动分类,可以更准确地诊断和有效地管理疾病。这项任务具有挑战性,。为了克服这些挑战,我们在本文中提出了一个名字SeizureNet深度学习框架采用综合框架学习多谱特征的嵌入,用于患者之间发作类型的分类。我们使用最近发布的TUH脑电图攻击语料库(V1.4.0和V1.5.2)来评估SeizureNet的性能。实验表明,对基于头皮脑电图的多类癫痫发作类型进行分类,癫痫发作交叉验证加权F1 Score可达0.94患者交叉验证加权F1 Score可达0.59。我们还表明,低内存约束应用的知识蒸馏是由SeizureNet嵌入学习的高级特征显著提高了较小网络的准确性。
1 - 引言
癫痫是一种影响世界1%人口的神经系统疾病。它会导致突然和不可预见的癫痫发作,导致患者严重受伤甚至死亡。三分之一的癫痫患者得不到适当的治疗。由于癫痫发作的症状患者,治疗的选择和质量是不同的,因为癫痫的症状对每个癫痫患者都是不同的。医生通过脑电图(EEG)分析脑活动异常是诊断癫痫的重要技术。这项任务耗时,受观察者差异的影响。随着物联网数据收集的进展,开发了基于机器学习的系统,以捕捉癫痫发作期间脑电图数据中的异常模式[10、21、4]。在此背景下,[23、3、11]由于任务的复杂性和临床数据集缺乏标记攻击类型,攻击类型分类的任务在很大程度上并不完善。然而,识别不同类型的发作(如局灶性或综合性发作)的能力有潜力改善患者的长期护理,使药物调整和远程监测能够及时进行临床试验[6]。最近,美国天普大学发布了癫痫研究TUH脑电图癫痫发作语料(TUH - EEGSC)[18]使其成为世界上最大的癫痫类型分类公开数据集。[16]的工作通过对各种标准机器学习算法的搜索空间探索,提出了TUH-EEGSC[18]癫痫类型分类的基线结果。其它方法,如[20,17],使用所选癫痫发作类型数据的子样本进行癫痫发作分析。。本文的主要贡献如下:
-
。实验表明,我们的多谱特征学习在集成中增加了多样性,减少了癫痫类型最终分类预测的方差。
-
。实验表明,我们的显著编码频谱图得到了改进TUH-EEGSC[18]癫痫发作分类的准确性。
-
,并给出了TUH-EEGSC[18]癫痫发作类型分类的基准结果。
2 - 提出的框架(SeizureNet)
图1-A该框架显示了我们框架的整体结构,并使用深度CNN模型的集合产生了癫痫类型分类的预测。下面,我们将详细描述框架的各个组成部分。
2.1 显著编码频谱图
显著编码频谱图的灵感来自于[7]在这种方法中,我们。显著编码频谱图包括三个特征图,如图1所示-D所示。
- ( F T FT FT),它对脑电图信号进行编码;
- ( S 1 S1 S1),通过计算FT特征图的提取显著性;
- (S2),它利用FT特征图的特征多尺度捕获谱显著性[13,9]。
从数学上讲,给出一个时间来源 t t t参数通道 c c c的时间序列EEG序列 X ( c , t ) X(c, t) X(c,t),我们计算了这个序列的快速傅里叶变换( F \mathcal{F} F)为: F ( X ) = ∫ − ∞ ∞ X ( c , t ) e − 2 π i t d t \mathcal{F}(X) = ∫_{−∞}^{∞}X(c, t)e^{−2πit}dt F(X)=∫−∞∞X(c,t)e−2πitdt。我们计算 F \mathcal{F} F并对傅里叶变换的幅度取对数。输出被重构为 R p × 20 \mathbb{R}^{p×20} Rp×20-维特征映射( F T FT FT),其中 p p p表示脑电图序列的数据点数。
在数学上, F T FT FT可以写成: F T = l o g ( A m p l i t u d e e ( F ( X ) ) ) FT = log(Amplitudee(\mathcal{F}(X))) FT=log(Amplitudee(F(X)))。
在数学上, S 1 S_1 S1可以写成: S 1 = G ∗ F − 1 ( e x p ( F T − H ∗ F T ) + P ) 2 S_1 = \mathcal{G} * F^{−1}(exp(FT−H * FT)+P)^2 S1=G∗F−1(exp(FT−H∗FT)+P)2,其中 F − 1 F^{−1} F−1表示傅里叶反变换, H H H代表 F T FT FT的平均谱,通过一个3 × 3的局部平均滤波器对 F T FT FT的特征图进行卷积逼近。 G \mathcal{G} G是一个高斯核,平滑特征值。术语 P P P表示特征图 F T FT FT的相位谱。
S 2 S_2 S2通过计算多个尺度上的中心-环绕差异来捕捉特征图 F T FT FT中与其周围数据点的显著性。设 F T i FT_i FTi表示位置 i i i的一个特征值, Ω Ω Ω表示位置 i i i周围的一个尺度为 ρ ρ ρ的圆形邻域。在数学上,位置 i i i的显著性计算可以写成: S 2 ( i ) = ∑ ρ ∈ [ 2 , 3 , 4 ] ( F T i − m i n ( [ F T k , ρ ] ) ) ∀ k ∈ Ω S_2(i)=\sum_{ρ∈[2,3,4]}(FT_i-min([FT_{k,ρ}])) \quad \forall k ∈\Omega S2(i)=∑ρ∈[2,3,4](FTi−min([FTk,ρ]))∀k∈Ω。 [ F T k , ρ ] [FT_{k,ρ}] [FTk,ρ]表示本地邻域的特征值Ω。最后,我们将三个特征 F T 、 S 1 FT、S1 FT、S1和 S 2 S2 S2连接到一个类似RGB的数据结构( D \mathcal{D} D),该数据结构在0和255范围内标准化,如图1-D所示。
2.2 多谱特征学习
深度神经网络往往是过度参数化的,需要足够的训练数据来有效地学习特征,从而可以推广到测试数据。当面对有限的训练数据时(这是健康信息学[2]中的一个常见问题),深度架构往往会遭遇收敛性差或着过拟合等得问题。为了克服这些挑战,我们,一种新的方法,。
图1-E显示了我们的MSFS方法的概述。假设有一个 M M M维训练数据集 D \mathcal{D} D = { ( D i , y i ) ∣ 0 ≤ i ≤ N d (\mathcal{D_i}, y_i)|0≤i≤N_d (Di,yi)∣0≤i≤Nd},由 N d N_d Nd个样本组成,其中 D i \mathcal{D}_i Di是一个训练样本,对应的类标签为 y i ∈ y y_i∈y yi∈y,在训练过程中,MSFS生成一个特征子空间 D m \mathcal{D^m} Dm = { ( D i m , y i ) ∣ 0 ≤ i ≤ N d (\mathcal{D_i^m}, y_i)|0≤i≤N_d (Dim,yi)∣0≤i≤Nd}包含随机选取采样频率 f ∈ F f∈F f∈F(Hz)、窗长参数 w ∈ W w∈W w∈W (seconds)、窗步长参数 o ∈ O † o∈\mathcal{O^†} o∈O†生成的谱图。这个过程重复 N e = 3 N_e = 3 Ne=3次,得到随机子空间{ D 1 m , … , D N e m D^m_1,…, D^m_{N_e} D1m,…,DNem},其中 N e N_e Ne为集合的大小。
2.3 提出的集合结构(SeizureNet)
SeizureNet由 N e N_e Ne个深度卷积神经网络(DCNs)组成。图1-A展示了三个子网络的SeizureNet架构。DCN的基本构建块是一个Dense块,它由多个bottleneck(瓶颈)卷积组成,通过Dense连接[8]互连。
具体来说,每个DCN模型以7 × 7卷积开始,然后是批归一化(BN)、修正线性单元(ReLU)和3 × 3平均池化操作。接下来,有四个Dense块,其中每个密集块由 N l N_l Nl个称为Dense层的层组成,这些层共享来自通过fuse连接到当前层的所有前面层的信息。图1-B显示了 N l = 6 N_l = 6 Nl=6个Dense层的Dense块的结构。每个Dense层由1 × 1和3 × 3卷积组成,然后是BN、ReLU和dropout block,如图1- c所示。在数学上,Dense块中第 l l l个Dense层的输出可以写成: X l = [ X 0 , … , X l − 1 ] \mathcal{X}_l = [\mathcal{X}_0,…, \mathcal{X}_{l−1}] Xl=[X0,…,Xl−1],其中[···]表示第 0 , . . . , l − 1 0,...,l-1 0,...,l−1产生的特征的拼接。最终的Dense块产生 Y d e n s e ∈ R k × R × 7 × 7 Y_{dense}∈\mathbb{R}^{k×R×7×7} Ydense∈Rk×R×7×7−维特征,这些特征通过平均操作被压缩到 k × R k×R k×R维,然后被馈送到一个线性层 f c ∈ R K f_c∈\mathbb{R}^K fc∈RK,它学习关于 k k