检测记录脑电图(EEG)癫痫发作活动段对癫痫的分类是至关重要的。手动识别是一个耗时和费力的过程,神经学家们沉重的负担,因此,癫痫的自动识别已成为一个重要的问题。传统脑电图识别模型很大程度上依赖于人工经验和泛化能力的薄弱。突破这些限制,我们提出一个新颖的一维深神经网络鲁棒检测癫痫,组成的三个卷积模块和三个完全连接层。其中,每个卷积块包括五种类型的层:卷积层,批量标准化层,非线性激活层,辍学层,max-pooling层。波恩大学的模型性能评估数据集,它的准确性达到97.63%∼99.52%两分类问题,96.73%∼98.06%三级脑电图分类问题,分类和93.55%的复杂five-class问题。
脑电图(EEG)是一种无创、有效的技术用于临床研究解码大脑的电活动。脑电图是一种大脑的关键技术来识别异常,如检测癫痫发作。癫痫是瞬态的神经功能障碍引起的大脑神经元异常和过度supersynchronized排放。脑电图对癫痫检测的目视检查专家神经学家是一个耗时和费力的过程,和诊断可能并不准确,因为大量的脑电图数据和有差异的临床判断的标准不同的神经学家
在文献中提出了许多算法自动检测癫痫发作。这些方法大致可以分为两类:传统的方法和基于深度学习——(DL)的方法。其中,大多数传统的方法使用hand-engineered技术从脑电图信号特征提取,然后用分类器识别结合的。波恩大学脑电图数据库的广泛应用,这是公开的,贴上,B, C, D, e .数据集的细节在后面一节中描述。有多发表使用波恩癫痫检测的数据集。他们关注的三个主要分类问题:两种癫痫检测问题侧重于nonseizures之间的分类和癫痫发作;三级癫痫分类问题集中在三个不同的脑电图的分组类别(正常,发作,发作的);和five-class识别问题集中在五个不同类型的分类(A, B, C, D, E)。
2009年,Ocak [
这些传统方法检测癫痫使用hand-engineered技术从EEG信号中提取特征。和许多的这些传统方法显示良好的精度问题,但不能在执行准确地为他人(
2018年,Acharya et al。
尽管鼓励癫痫检测结果使用上面提到的CNN模型,获得了一些改进仍然可以实现。首先,一些CNN模型相对单一的模型结构。第二个问题是可用的小数量的样品,这是不够的训练神经网络模型。因此,我们觉得动力去开发一个CNN模型与原始的脑电图检测癫痫有效信号。要解决这些问题,首先,我们BN层和辍学层添加到传统的卷积模块学习的特性,这可能有助于有效地检测癫痫。第二,部分原料脑电图被分成许多不重叠的块增加样本的数量进行训练和测试,这可能有助于在使用少量的可用数据充分训练模型。研究结果表明,提出的方法是有利的检测癫痫脑电图信号。
我们的发作识别实验使用广泛使用和公开的脑电图进行数据库由波恩大学(
在这项研究中样本脑电图信号。
深CNN模型(
提出的一维卷积神经网络架构。
第三卷积块,年底将被夷为平地的映射到一维特征向量,与FC层集成特性。前两个FC层采用ReLU激活函数,其次是一个辍学层。第三个FC层应用softmax的激活函数将输出向量对应于每个类别的概率。选择更好的模型参数,我们探索了八款车型有不同的规格。细节描述的实验结果和讨论部分。在这项研究中,我们选择M7模型。表
CNN的细节结构用于这项研究。
| 块 | 类型 | 数量的神经元 | 内核大小为每个 | 步 |
|---|---|---|---|---|
| (输出层) | 输出特性图 | |||
| Conv 1 | 卷积 | 139×20 | 40 | 1 |
| BN | 139×20 | - - - - - - | - - - - - - | |
| 线性整流函数(Rectified Linear Unit) | 139×20 | - - - - - - | - - - - - - | |
| 辍学 | 139×20 | - - - - - - | - - - - - - | |
| Max-pooling | 70×20 | 2 | 2 | |
|
|
||||
| Conv 2 | 卷积 | 51×40 | 20. | 1 |
| BN | 51×40 | - - - - - - | - - - - - - | |
| 线性整流函数(Rectified Linear Unit) | 51×40 | - - - - - - | - - - - - - | |
| 辍学 | 51×40 | - - - - - - | - - - - - - | |
| Max-pooling | 26日×40 | 2 | 2 | |
|
|
||||
| Conv 3 | 卷积 | 17×80 | 10 | 1 |
| BN | 17×80 | - - - - - - | - - - - - - | |
| 线性整流函数(Rectified Linear Unit) | 17×80 | - - - - - - | - - - - - - | |
| 辍学 | 17×80 | - - - - - - | - - - - - - | |
| Max-pooling | 9×80 | 2 | 2 | |
|
|
||||
| FC - 1 | 足球俱乐部 | 64年 | - - - - - - | - - - - - - |
| 线性整流函数(Rectified Linear Unit) | 64年 | - - - - - - | - - - - - - | |
| 辍学 | 64年 | - - - - - - | - - - - - - | |
|
|
||||
| FC 2 | 足球俱乐部 | 32 | - - - - - - | - - - - - - |
| 线性整流函数(Rectified Linear Unit) | 32 | - - - - - - | - - - - - - | |
| 辍学 | 32 | - - - - - - | - - - - - - | |
| FC 3 | 足球俱乐部 | 2或3或5 | - - - - - - | - - - - - - |
卷积神经网络(CNN)是一种神经网络与类似的网络结构设计来处理数据。图像可以被看作是一个二维像素网格。同样的,可以视为一维时间序列数据网格由定期采样时间轴。传统的美国有线电视新闻网的卷积块包括三层:卷积,激活功能,池。一维的脑电图数据使用本文卷积操作如下:
卷积网络稀疏交互的特点。所以,这意味着更少的参数需要存储,这不仅降低了模型的存储需求,也简化了计算。同时,由卷积内核共享的参数确保我们只需要学习许多数量级较小的参数。卷积是一种特殊的线性操作,激活函数到网络带来的非线性特征。修正的线性单元(ReLU)函数是最常用的激活函数在CNN,这克服了梯度消失问题,允许模型快速学习和表现的更好。方程(
池函数可以减少空间的大小表示减少参数的数量和计算网络中。它取代系统的输出在一个特定的位置。例如,max-pooling最大值在几个街区。池也可以帮助使表示大约不变的小翻译的输入。
在这项研究中,BN层和辍学层添加到传统的卷积模块。深层神经网络训练时,每一层的参数是密切相关的。层的分布的不一致性的输入会导致一个问题,叫做内部协变量的转变。和内部不同的转变使我们很难选择合适的学习速率。为了解决这个问题,约飞和Szegedy
在培训期间,BN的样本均值和标准偏差计算mini-batch响应H在反向传播
BN也是非常有用的培训阶段和加速收敛的防止过度拟合。技术已成为一个惯例,和细节中可以找到
深神经网络需要学习大量的参数,可能会导致过度拟合的一个小数据集。为了解决这个问题,作者(
最后的输出卷积块代表EEG信号的高级特性。完全连接层通常学习这些特性的非线性组合的方式。所有的神经元在过去max-pooling层与第一个足球俱乐部的所有神经元层。我们使用三个FC层。神经元的数量在最后FC层(一个FC3)文件依赖于检测问题,例如,两舱,三级,five-class癫痫分类问题,神经元的数量在一个FC3是2,文件3和5,分别。
将softmax激活函数是一个泛化的二进制形式的逻辑回归。通常应用于最后一层构成的深层神经网络分类获得的概率分布类标签和每个输入元素属于一个标签。将softmax函数,用
重量训练该模型需要从脑电图数据参数。学习这些参数,我们采用传统的反向传播算法与叉损失函数。,我们使用了随机梯度下降法与亚当优化器基于一阶和二阶自适应估计的时刻。亚当的hyperparameters算法如下:学习速率(0.0005),beta1(0.9),和beta2 (0.999)。Keras实现的模型,一个强大的深度学习图书馆TensorFlow之上运行。100年批大小选择在这工作,这是用于每个培训更新。比较性能测量,我们训练模型,存在300年这项工作与时代。
评价,我们采用了著名的性能指标,如精度(Acc),精密(前),灵敏度(Sen)和特异性(Spe), F1。其中,准确性是最常用的指标之一,在文献中,它被定义为一个比例之间的正确分类样本的样本总数。这些性能指标的定义如下:
为了减少测试误差估计的统计不确定性引起的小规模的测试数据集,我们采用了10倍交叉验证进行评估。每个类别的2300 EEG信号是随机分为十个不重叠的褶皱。在
数据集被分组为探索不同组合一般分类模型,这是分为两类(nonseizures和癫痫发作),三类(正常,发作,发作的),和五类(a, B, C, D, E),选择更好的模型参数,我们认为八款车型有不同的配置。
我们探索了模型与不同的参数,包括接受域的大小,神经元的数量,和FC层的辍学概率的比较。five-class分类问题,例如,使用10倍交叉验证实验结果如表所示
配置的模型使用10倍交叉验证A与B、C、D和E。
| 块 | 参数 | M1 | 平方米 | M3 | M4 | M5 | M6 | M7 | M8 |
|---|---|---|---|---|---|---|---|---|---|
| Conv 1 | 内核的数量 | 20. | 20. | 20. | 20. | 20. | 20. | 20. | 20. |
| 接受域的大小 | 5 | 5 | 5 | 5 | 40 | 40 | 40 | 40 | |
| 辍学率 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | |
|
|
|||||||||
| Conv 2 | 内核的数量 | 40 | 40 | 40 | 40 | 40 | 40 | 40 | 40 |
| 接受域的大小 | 3 | 3 | 3 | 3 | 20. | 20. | 20. | 20. | |
| 辍学率 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | |
|
|
|||||||||
| Conv 3 | 内核的数量 | 80年 | 80年 | 80年 | 80年 | 80年 | 80年 | 80年 | 80年 |
| 接受域的大小 | 3 | 3 | 3 | 3 | 10 | 10 | 10 | 10 | |
| 辍学率 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | 0.2 | |
|
|
|||||||||
| FC - 1 | 数量的神经元 | 32 | 32 | 64年 | 64年 | 32 | 32 | 64年 | 64年 |
| 辍学率 | 0.2 | 0.5 | 0.2 | 0.5 | 0.2 | 0.5 | 0.2 | 0.5 | |
|
|
|||||||||
| FC 2 | 数量的神经元 | 16 | 16 | 32 | 32 | 16 | 16 | 32 | 32 |
| 辍学率 | 0.2 | 0.5 | 0.2 | 0.5 | 0.2 | 0.5 | 0.2 | 0.5 | |
|
|
|||||||||
| A与B、C、D和E之间的关系 | Acc | 90.47 | 88.61 | 91.89 | 91.20 | 93.37 | 91.62 |
|
92.92 |
| 森 | 75.98 | 70.86 | 79.66 | 77.79 | 83.33 | 78.85 | 83.73 | 82.30 | |
| Spe | 94.00 | 92.72 | 94.92 | 94.45 | 95.83 | 94.71 | 95.93 | 95.57 | |
实验参数,实验表明,在一个更大的接受域的大小和更多的神经元在俱乐部层使识别更加有效。FC层的辍学概率20%比50%的速度更有效。因此,模型的参数M7的最佳性能用于实验和各种组合两级和三级分类。
多分类问题可以分解为多个二元分类问题。每个分类的结果可以列为混淆矩阵,反映了原始和预测每个类别的标签。表
混淆矩阵三级问题(B和D和e)的10倍。
| 预测 | Acc | 森 | Spe | 精准医疗 | F1 | ||||
|---|---|---|---|---|---|---|---|---|---|
| 正常的 | Preictal | 癫痫发作 | |||||||
| 原始 | 正常的 | 2263年 | 36 | 1 | 98.32 | 98.39 | 98.28 | 96.63 | 97.50 |
| Preictal | 49 | 2220年 | 31日 | 97.54 | 96.52 | 98.04 | 96.10 | 96.31 | |
| 癫痫发作 | 30. | 54 | 2216年 | 98.32 | 96.35 | 99.30 | 98.58 | 97.45 | |
| 整体 | - - - - - - | - - - - - - |
|
- - - - - - | 98.06 | 97.09 | 98.54 | 97.10 | 97.09 |
检查模型的鲁棒性,我们测试了20个组合。的细节10倍交叉验证结果如表所示
精度(%)的10倍交叉验证M7使用模型。
| 数据集的组合 | K1 | K2 | K3 | K4 | K5 | 转K6 | K7 | 美丽 | K9 | K10 | 的意思是 |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 与E | One hundred. | 99.57 | 99.57 | 99.35 | 99.35 | 99.57 | 99.13 | 99.57 | 99.35 | 99.78 | 99.52 |
| B和E | 99.78 | 99.13 | 99.57 | 98.91 | 99.13 | 99.35 | 98.70 | 98.70 | 98.70 | 99.13 | 99.11 |
| C和E | 99.35 | 98.04 | 98.04 | 96.96 | 98.26 | 97.39 | 97.39 | 97.83 | 98.48 | 98.48 | 98.02 |
| D和E | 97.61 | 98.04 | 98.26 | 98.04 | 97.17 | 98.04 | 96.52 | 97.17 | 96.52 | 98.91 | 97.63 |
| AB和E | 99.57 | 99.13 | 99.57 | 99.57 | 99.57 | 99.13 | 99.57 | 99.13 | 99.57 | 98.99 | 99.38 |
| 交流与E | 99.28 | 98.70 | 99.13 | 98.84 | 99.13 | 98.70 | 98.99 | 99.57 | 99.42 | 98.55 | 99.03 |
| 广告与E | 98.12 | 97.83 | 98.41 | 98.70 | 98.41 | 98.41 | 98.55 | 98.55 | 99.13 | 98.84 | 98.50 |
| BC和E | 98.70 | 98.41 | 97.68 | 98.55 | 98.55 | 98.99 | 98.84 | 99.28 | 99.57 | 98.26 | 98.68 |
| BD和E | 97.39 | 97.10 | 97.54 | 98.84 | 98.26 | 97.54 | 98.41 | 97.97 | 97.83 | 97.39 | 97.83 |
| CD和E | 97.68 | 97.54 | 98.41 | 97.83 | 98.41 | 97.25 | 98.84 | 98.41 | 97.97 | 97.97 | 98.03 |
| 美国广播公司(ABC)和E | 99.24 | 98.26 | 99.24 | 98.91 | 98.80 | 99.02 | 98.91 | 99.24 | 98.91 | 98.37 | 98.89 |
| ABD和E | 98.80 | 98.37 | 98.80 | 98.26 | 98.80 | 99.35 | 98.48 | 97.93 | 98.15 | 98.26 | 98.52 |
| BCD和E | 98.26 | 97.61 | 98.59 | 98.26 | 98.59 | 99.24 | 98.04 | 98.70 | 97.93 | 98.37 | 98.36 |
| ABCD和E | 98.96 | 99.22 | 98.70 | 98.52 | 98.35 | 99.22 | 98.78 | 98.61 | 99.13 | 98.09 | 98.76 |
| 与C和E | 96.04 | 97.05 | 97.00 | 97.39 | 94.98 | 97.58 | 97.00 | 96.09 | 96.81 | 97.39 | 96.73 |
| 与D和E | 97.63 | 97.10 | 97.54 | 95.94 | 97.00 | 96.67 | 97.39 | 97.87 | 96.81 | 96.43 | 97.04 |
| B和C和E | 97.63 | 97.97 | 98.12 | 97.68 | 98.36 | 97.20 | 97.87 | 99.03 | 97.68 | 97.58 | 97.91 |
| B和D和E | 98.35 | 98.30 | 98.07 | 97.49 | 98.26 | 97.97 | 97.20 | 98.45 | 98.45 | 98.06 | 98.06 |
| AB和CD和E | 96.70 | 97.10 | 97.74 | 96.43 | 96.72 | 97.97 | 94.96 | 97.91 | 96.96 | 97.25 | 96.97 |
| A与B、C、D和E之间的关系 | 92.99 | 94.37 | 94.00 | 93.41 | 93.36 | 92.73 | 93.74 | 93.25 | 93.74 | 93.91 | 93.55 |
许多方法已经提出了在文献中自动检测数据库使用波恩脑电图的癫痫发作。表
比较该方法与其他方法使用相同的数据集。
| 数据集的组合 | 方法 | 研究 | Acc (%) | 我们的Acc (%) |
|---|---|---|---|---|
| 与E | 组织+安 | Tzallas et al。 |
One hundred. | 99.52 |
| DWT + Kmeans + MLPNN | Orhan et al。 |
One hundred. | ||
| 1-D-LBP +英尺/ BN | 岩石等。 |
99.50 | ||
| DWT + NB /资讯 | Sharmila和Geethanjali |
One hundred. | ||
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
One hundred. | ||
| LMD + GA-SVM | 张,陈 |
One hundred. | ||
| CNN + mv | Ullah et al。 |
One hundred. | ||
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
99.50 | ||
|
|
||||
| B和E | DWT + NB /资讯 | Sharmila和Geethanjali |
99.25 | 99.11 |
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
One hundred. | ||
| CNN + mv | Ullah et al。 |
99.6 | ||
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
99.50 | ||
|
|
||||
| C和E | DWT + NB /资讯 | Sharmila和Geethanjali |
99.62 | 98.02 |
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
99.50 | ||
| CNN + mv | Ullah et al。 |
99.1 | ||
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
98.50 | ||
|
|
||||
| D和E | 1-D-LBP +英尺/ BN | 岩石等。 |
95.50 | 97.63 |
| DWT + NB /资讯 | Sharmila和Geethanjali |
95.62 | ||
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
98年 | ||
| LMD + GA-SVM | 张,陈 |
98.10 | ||
| CNN + mv | Ullah et al。 |
99.4 | ||
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
98.50 | ||
|
|
||||
| AB和E | DWT + NB /资讯 | Sharmila和Geethanjali |
99.16 | 99.38 |
| CNN + mv | Ullah et al。 |
99.8 | ||
|
|
||||
| CD和E | 1-D-LBP +英尺/ BN | 岩石等。 |
97.00 | 98.03 |
| DWT + NB /资讯 | Sharmila和Geethanjali |
98.75 | ||
| CNN + mv | Ullah et al。 |
99.7 | ||
|
|
||||
| ABCD和E | DWT + Kmeans + MLPNN | Orhan et al。 |
99.60 | 98.76 |
| DWT + NB /资讯 | Sharmila和Geethanjali |
97.1 | ||
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
99年 | ||
| LMD + GA-SVM | 张,陈 |
98.87 | ||
| CNN + mv | Ullah et al。 |
99.7 | ||
|
|
||||
| B和D和E | 美国有线电视新闻网 | Acharya et al。 |
88.7 | 98.06 |
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
98.00 | ||
|
|
||||
| AB和CD和E | DWT + Kmeans + MLPNN | Orhan et al。 |
95.60 | 96.97 |
| TQWT + KNNE + SVM | Bhattacharyya et al。 |
98.60 | ||
| LMD + GA-SVM | 张,陈 |
98.40 | ||
| CNN + mv | Ullah et al。 |
99.1 | ||
|
|
||||
| A与B、C、D和E之间的关系 | 组织+安 | Tzallas et al。 |
89年 | 93.55 |
| MEMD +安 | Zahra et al。 |
87.2 | ||
| CWT +有线电视新闻网 | 土耳其和Ozerdem |
93.60 | ||
三级分类问题进一步细分脑电图记录区分正常,发作,发作的脑电图。我们比较两种类型的三级问题(B和D和E和AB和CD和E)。该模型也取得了良好的性能。特别是在B和D和E的情况下,其性能达到最好的准确性为98.06%,这显然是比另一个模型(
five-class分类问题更加复杂和难以比两级和三级问题分类。它需要识别脑电图之间的分化时期属于同一个类(例如,集A和B,这都是正常的;集C和D,发作)。因此,在文献中,相对提出了一些方法来解决这三种类型的问题在同一时间。拟议的CNN模型实现了93.55%的精度,这是非常接近的结果土耳其和Ozerdem
实现的实验仍然需要减少学习速率和增加数量的时代,这无疑会增加癫痫识别的准确性,但与此同时,将花费更多的时间进行训练。训练样本的数量有限,我们也可以尝试提高数据集,这可能是有用的模型的泛化能力。例如,我们可以23.6秒脑电图数据分割成许多重叠块进一步增加样本的数量。
小说提出了健壮的检测癫痫模型,处理两种,三级,five-class分类问题。该方法开发了基于一维卷积神经网络模型,将原始的脑电图信号作为输入。改善模型的学习能力,BN和辍学层引入了传统的卷积。解决这个问题的小数据集,EEG被分为很多不重叠的块进行训练和测试。实验结果表明,该模型在不同的脑电图表现良好在波恩数据集分类问题。
使用的数据来支持本研究的发现可以从相应的作者。
作者宣称没有利益冲突。
这项工作是支持的教育和科研项目为中青年教师福建省(JAT191153和JT180872),国家自然科学基金委的上海,中国(19 zr1455200),以及中国的国家自然科学基金(11601339)。