应用计算智能和软计算

PDF
应用计算智能和软计算/2009/文章

研究文章|开放访问

体积 2009 |文章的ID 129761 | https://doi.org/10.1155/2009/129761

卡莱,杜杜尔 基于聚焦时滞递归神经网络的肌电信号智能噪声去除",应用计算智能和软计算 卷。2009 文章的ID129761 12. 页面 2009 https://doi.org/10.1155/2009/129761

基于聚焦时滞递归神经网络的肌电信号智能噪声去除

学术编辑器:志岗曾
收到了 2008年11月05
修改后的 2009年2月6日
接受 2009年3月30
发表 07年6月2009年

摘要

肌电图(EMG)信号可用于临床/生物医学应用和现代人机交互。肌电信号在通过组织时获得噪声,电子设备中的固有噪声,环境噪声,等等。研究了神经网络方法在肌电信号降噪中的应用。本文研究表明,聚焦时滞递归神经网络(Focused time lag Recurrent Neural Network, FTLRNN)能够很好地解决肌电信号噪声的抑制问题。经过严格的计算机仿真,作者开发了一个最优的FTLRNN模型,该模型去除了肌电信号中的噪声。结果表明,在测试数据集上验证所提出的最优FTLRNN模型对噪声信号和肌电信号的MSE (Mean Square Error)分别低至0.000067和0.000048,相关系数分别高至0.99950和0.99939。我们还注意到,估计的FTLRNN模型的输出与真实模型的输出非常接近。这个网络确实是鲁棒的,因为EMG信号容忍的噪声方差从0.1到0.4为均匀噪声和0.30为高斯噪声。很明显,网络的训练与数据集的具体划分无关。可以看出,所提出的FTLRNN模型的性能明显优于最优的多层感知器(MLP)和径向基函数神经网络(RBF)模型。 The simple NN model such as the FTLRNN with single-hidden layer can be employed to remove noise from EMG signal.

1.介绍

生物医学信号是指从代表感兴趣的物理变量的任何器官获得的集体电信号。这个信号通常是时间的函数,用它的振幅、频率和相位来描述。肌电图信号是一种生物医学信号,测量肌肉收缩时产生的电流,代表神经肌肉活动。神经系统总是控制肌肉活动(收缩/放松)。因此,肌电信号是一种复杂的信号,受神经系统控制,依赖于肌肉的解剖和生理特性。肌电信号在不同的组织中传播时会产生噪声。此外,肌电图检测器,特别是在皮肤表面,在同一时间从不同的运动单元收集信号,可能产生不同信号的交互作用。以强大而先进的方法检测肌电信号已成为生物医学工程的重要要求。肌电信号分析在临床诊断和生物医学方面的应用是引起人们兴趣的主要原因。到目前为止,已经在这一领域进行了广泛的研究和努力,开发更好的算法,升级现有的方法,并改进检测技术,以减少噪声,获取准确的肌电信号[1].带噪肌电信号的去噪是一个滤波问题。本文训练神经网络模型从肌电信号中分离已知噪声。

文献调查2- - - - - -5的结果表明,神经网络已被有效地用于非线性多变量函数的逼近。但是,仍然有足够的余地选择合适的NN模型,使性能指标优化到均方误差(MSE)和相关系数(r),分别。在函数近似中,目标是找到输入和期望响应对的最佳线性近似的参数。在非线性系统辨识中,传统的最小二乘方法、偏最小二乘回归、主成分回归、普通最小二乘回归、回归树、Levenberg Marquardt算法、而多元自适应回归样条算法一般在潜在问题过于复杂时不能合理工作[6- - - - - -8].因此,神经网络方法在解决系统识别问题时值得考虑[9].本文研究了肌电信号中一个典型的噪声去除问题。肌电信号去除噪声的基准数据摘自神经网络书籍的配套光盘[10.].数据包括从电源中提取的肌电信号和干扰(60赫兹)噪声。这两个文件分别是“带噪音的肌电图”和“只有噪音的肌电图”。目的是利用自适应滤波技术获取肌电图。将训练文件用于训练神经网络,从肌电信号中去除噪声。

开发出最佳聚焦时间滞后性神经网络(FTLRNN)以从EMG信号中有效地去除噪声。还可以比较诸如多层Perceptron神经网络(MLP NN)和径向基函数(RBF)的其他类别的NN配置,以进行这种噪声去除问题。

本文研究了基于ftlrnn模型的肌电信号噪声智能去除方法。

2. EMG和噪音源

EMG是肌电图的缩写。这是对信号的研究。肌电图有时被称为肌电活动。肌肉组织传导电势的方式与神经类似,这些电信号的名称是肌肉动作电位。表面肌电图是记录这些肌肉动作电位信息的一种方法。在检测和记录肌电信号时,有两个主要的问题影响信号的保真度。第一个是信噪比。即肌电信号中的能量与噪声信号中的能量之比。一般来说,噪声被定义为不属于所需肌电信号的电信号。另一个问题是信号的失真,这意味着肌电信号中任何频率成分的相对贡献都不应该被改变。 There are many applications for the use of EMG. EMG is used clinically for the diagnosis of neurological and neuromuscular problems. It is used diagnostically by gait laboratories and by clinicians trained in the use of biofeedback or ergonomic assessment. EMG is also used in many types of research laboratories, including those involved in biomechanics, motor control, neuromuscular physiology, movement disorders, postural control, and physical therapy.

电噪声和影响肌电信号的因素
EMG信号放大前的幅度范围为0-10 mV(+5 ~−5)。肌电信号在不同的组织中传播时会产生噪声。了解电噪声的特性是很重要的。电噪声会影响肌电信号,可分为以下几种类型。

(1)电子设备固有噪声
所有的电子设备都会产生噪音。这种噪音无法消除;使用高质量的电子元件只能减少这种情况。

(2)环境噪音
电磁辐射是这种噪声的来源。我们的身体表面经常被电磁辐射淹没,几乎不可能避免暴露在地球表面。环境噪声的振幅可能比肌电图信号的振幅大一到三个数量级。

(3)运动工件
运动伪影导致数据的不规则性。运动伪影主要有两个来源:(1)电极接口和(2)电极电缆。运动伪影可以通过适当的电子电路设计和设置来减少。

(4)信号的固有不稳定性
肌电图的振幅本质上是随机的。肌电信号受运动单元的发射频率影响,在大多数情况下,在0到20赫兹的频率区域内发射。这种噪声被认为是不需要的,而消除这种噪声是很重要的。

3.性能的措施

评估各种神经网络的性能是通过视觉检查肌电图和噪声信号,以及从均方误差(MSE)的最佳值,和r(相关系数)。

均方误差(MSE)
均方误差的公式为
在哪里P=输出处理元素的数量,N=数据集中示例的数量, =网络输出的范例在处理元素j, 范例所需的输出在处理元素j

相关系数(
根据定义,网络输出之间的相关系数x和期望的输出d
在哪里
相关系数限定在范围内[ ].当r= 1时,两者完全线性正相关xd,也就是说,他们的科罗拉里意味着它们的数量不同。

4.计算机模拟

本文选取了一个可以用于去除肌电信号噪声的数据集。有2000种培训模式。神经网络的训练应该独立于数据集。因此,不同的排列和组合的数据集产生许多独立的数据集被用来训练和测试神经网络。

表格1描绘了培训神经网络的各种数据集。一旦数据随机化,总样品分为三个部分,即训练,交叉验证和测试样本。如果样本分为训练序列,交叉验证和测试,则是正向标记。另一方面,测试序列,交叉验证,然后培训被称为反向标记。培训和测试样品的百分比变化,并且交叉验证样本保持恒定,如表所示1(a).数据集的正向标记和反向标记共给出16个不同的数据集来评估估计的网络模型的性能。这个数据集也进行了多重差异学习测试。对数据集进行神经网络的多重微分学习,即将总样本分为四组,每组500个样本,如表所示1(b)各组样本编号见表1(b).使用所有可能的组合来训练神经网络,并通过测试来评估性能。差异学习总共形成34个数据集,如表所示1(b)。为了评估神经网络的性能,持怀疑态度,使用总共50个不同的数据集。这是必要的,因为估计的NN模型应该一致地在不同的数据集上工作。这也可以确保所提出的NN模型从数据集中真正学习了有意义的信息,并且没有偏见。

(一种)基于正向和反向标签和百分比变化的数据集

S.N. 数据集 标记 %的变化
(Train-CV-test)

1 Dataset1 前进(培训、交叉验证和测试) 10 - 15 - 75%
2 Dataset2 20-15-65%
3. Dataset3 30 - 15 - 55%
4 Dataset4 40 - 15 - 45%
5 Dataset5 50 - 15 - 35%
6 Dataset6 60-15-25%
7 Dataset7 70 - 15 - 15%
8 Dataset8 80 - 15 - 05%

9 Dataset9 反向(测试、交叉验证和培训) 10 - 15 - 75%
10. Dataset10 20-15-65%
11. Dataset11 30 - 15 - 55%
12. Dataset12 40 - 15 - 45%
13. Dataset13 50 - 15 - 35%
14. Dataset14 60-15-25%
15. Dataset15 70 - 15 - 15%
16. Dataset16 80 - 15 - 05%

(b)基于多重差分学习的数据集。组I:(1-500个样本),组II:(501-1000个样本),组III:(1001-1500个样本),组IV:(1501-2000个样本)

数据集 火车在组 对组进行测试 数据集 火车在组 对组进行测试

Dataset1 2 Dataset18 我+ 3 2 + 4
Dataset2 3 数据集19. 我+四世 2
Dataset3 4 数据集20. 我+四世 3
Dataset4 2 3 dataset21. 我+四世 2 + 3
Dataset5 2 4 dataset22. 2 + 3
Dataset6 2 dataset23. 2 + 3 4
Dataset7 3 4 dataset24. 2 + 3 我+四世
Dataset8 3 数据集25. 2 + 4
Dataset9 3 2 数据集26. 2 + 4 3
Dataset10 4 dataset27. 2 + 4 我+ 3
Dataset11 4 2 dataset28. 3 + 4
Dataset12 4 3 数据集29. 3 + 4 2
Dataset13 我+二世 3 DataSet30. 3 + 4 我+二世
Dataset14 我+二世 4 dataset31. I + II + III 4
Dataset15 我+二世 3 + 4 dataset32. Ii + iii + iv
Dataset16 我+ 3 2 dataset33. Iii + iv + I 2
Dataset17 我+ 3 4 数据集34. Iv + I + ii 3

评估神经网络是由一个标准的方法在统计称为独立验证其中,可用数据被划分为训练集、交叉验证(CV)集和测试集。通常首先对整个数据集进行随机化。训练数据用于更新网络中的权值。然后用测试数据来评估网络的泛化程度。基于MSE、相关系数等性能指标对估计的神经网络模型的学习和泛化能力进行评价r,目视检查所需的和实际的肌电信号图。

为了避免局部极小,网络从不同的随机初始权值开始至少训练了5次。Neurodimension NeuroSolutions(版本5)专门用于获得结果。系统使用512 MB RAM, 40gb硬盘,2mb缓存,1.6 GHz时钟来进行模拟。

采用不同的神经网络进行性能比较,其中FTLRNN在去除肌电信号噪声方面效果最好。

4.1.MLP神经网络

本研究采用基于mlp的神经网络模型,因为它有坚实的理论基础[11.].MLPs是用标准的反向传播算法训练的前馈神经网络[12.].它们是监督网络,因此他们需要培训期望的响应。数字1显示MLP NN的体系结构。

为确定MLP神经网络模型的最优配置,进行了详尽细致的实验研究。仿真研究了隐层数、每个隐层的处理元素数、输出层的不同传递函数和不同的监督学习规则等可能的变化。

表格2显示了MLP神经网络模型的各种参数,这些参数的变化是为了获得最优参数。


S.N. 参数 典型的范围 最优参数

1 隐藏层 1到4 2
2 体育 H I-1至20 H II-1至10 H III-10 H IV-10 隐层I -15.隐藏层2 -10.

3. 学习规则 动量(Mom),共轭梯度(CG), Levenberg Marquardt (LM),快速传播(QP),步长,Delta bar Delta 动力
4 输出层中的传输函数 线性、Lineartanh双曲正切 双曲正切

监督学习epoch = 1000,错误阈值= 0.01,隐层传递函数= tanh,输入层PEs数= 1,输出层PEs数= 2。

隐藏层的数量从1到4不等,MLP神经网络模型的性能指标对两个隐藏层比较好,如表所示3..随着隐藏层数量的增加,网络的性能并没有明显的提高。


S.N. 不。隐藏层 相关系数
噪音 肌电图

1 1 0.76966 0.56711
2 2 0.77212 0.57113
3. 3. 0.77107 0.56936.
4 4 0.76574 0.56861

这是从图中找到的23.在第二隐藏层中的第15个神经元在第二隐藏层中获得的型号的最佳性能是在第二隐藏层中的最小值中获得的,r相关系数。数据23.分别描绘了相对于第一和第二隐藏层中PEs数量的平均MSE。

数据45描述了MLP NN在测试数据集上的建模能力,描述了MLP NN在测试数据集上的期望输出和实际输出。可以看出,实际输出的肌电信号和噪声信号并没有与期望输出密切相关。神经网络的输出与期望输出之间存在很大的偏差。

对数据集进行了5次训练。性能测量,如MSE和r训练数据集和测试数据集。当整个数据集的80%用于训练,15%用于交叉验证,5%用于测试时,可以获得最佳性能。的相关系数在测试数据集上发现高达0.78113MSE =0.02501用于肌电信号和噪声信号r0.5843和MSE =0.02485

4.2.聚焦时滞递归神经网络

时滞递归网络(tlrn)是利用短期记忆结构扩展的mlp。大多数真实世界的数据都包含时间结构的信息,也就是说,数据是如何随时间变化的。tlrn是非线性时间序列预测、系统识别和时间模式分类的最新技术。

递归网络是具有一个或多个反馈回路的神经网络。TDNN存储结构只是理想延迟的级联(一个样本的延迟)。伽马存储器是由泄漏的积分器组成的级联。拉盖尔存储器比伽玛存储器稍微复杂一点,因为它使存储器空间正交。这在使用大内存内核时非常有用[10.].

MLP的输入PE用TAP延迟线替换。它被称为聚焦的时间延迟神经网络(TDNN)。拓扑被称为聚焦,因为存储器仅在输入层[13.].

聚焦TDNN的延迟线存储输入的过去样本。抽头延迟线和连接抽头到第一个隐藏层的PEs的权重的组合是简单的线性组合,后面是一个静态非线性。因此,聚焦TDNN的第一层是一个滤波层,其自适应滤波器与第一隐藏层中的pe一样多。

聚焦TDNN拓扑结构已成功地应用于非线性系统识别、时间序列预测和时间模式识别。数字6展示了FTLRNN的结构。图的焦点拓扑6是经常性的神经网络,复发性是PE的局部。局部复发性神经网络的优点之一是通过限制本地反馈参数的值来判断系统的稳定性,使得本地PE是稳定的。如果强制执行本地稳定性,全局系统将是稳定的。

为确定FTLRNN模型的最优参数,进行了深入的实验研究。这里隐藏层的数量从1到2不等,FTLRNN模型的性能指标对于单个隐藏层更好,如表所示4.随着隐藏层数量的增加,网络的性能并没有明显的改善。


S.N. 不。隐藏层 相关系数
噪音 肌电图

1 1 0.99533 0.99471
2 2 0.98993 0.99302

数字7描述相对于第一隐藏层的pe数量的平均MSE。选择27个神经元以获得最佳性能。

表格5显示了FTLRNN模型的各种参数,这些参数的变化是为了获得最优参数。对于动量学习规则,结果是最优的。的动力为梯度下降提供一些惯性,以便它倾向于沿着一个方向移动,即向下的平均估计。惯性的大小(即过去的平均值)是由动量参数决定的,ρ.动量越高,梯度估计就越平滑,梯度的单个变化对权重变化的影响就越小。线性传递函数具有最优结果。


S.N. 参数 典型的范围 最优值

1 学习规则 动量,共轭梯度,Levenberg Marquardt(LM),快速传播(QP),步骤,Delta Bar Delta(DBD) 动力
2 输出层中的传输函数 线性、lineartanh双曲正切 线性
3. 内存结构 Laguarre TDNNAxonγ Laguarre
4 深度样本中 2到12 4
5 轨迹的长度 10到60 50

监督学习epoch = 1000,错误阈值= 0.01,隐含层传递函数= tanh,输入层pe数= 1,隐含层1 pe数= 27,输出层pe数= 2。

针对不同的数据集,使用不同的随机初始化连接权值对FTLRNN模型进行了5次训练。性能度量如MSE和r在训练数据集时,获得交叉验证数据集和测试数据集。获得最佳性能,用于培训80%,交叉验证15%和5%测试。用于噪声信号和EMG的测试数据集的相关系数分别为0.9984和0.9973。获得EMG信号和噪声的MSE为0.0002。

表格6描述了Laguarre内存结构导致最佳性能。拉瓜尔是一种局部循环记忆结构。它具有具有可适应权值的内部反馈回路。拉盖尔存储器比伽玛存储器稍微复杂一点,因为它使存储器空间正交。这在使用大内存内核时非常有用。拉瓜尔记忆是基于拉瓜尔函数的。拉瓜尔函数是由低通滤波器和所有通函数级联而成的正交函数集。


S.N. 内存结构 均方误差 相关系数
噪音 肌电图 噪音 肌电图

1 TDNNAxon 0.000455 0.000308 0.99719 0.996754
2 γ 0.000301 0.000281 0.99827 0.997204
3. Laguarre 0.0002624 0.000280 0.998427 0.997305

样本深度参数(D),用以计算点击次数(T)包含在网络的内存结构中。最佳价值D4是否如表所示7


S.N. 深度 均方误差 相关系数
样品 噪音 肌电图 噪音 肌电图

1 2 0.02982 0.02982 0.7709 0.5628
2 4 0.00024 0.00024 0.9985 0.9975
3. 6 0.00037 0.00031 0.9977 0.9969
4 8 0.00031 0.00036 0.99806 0.9962
5 12. 0.00047 0.00028 0.9972 0.9971

轨迹长度对应于动态控制器内的采样设置。它指定在反向传播发生之前要读取多少样例。表格8显示为最佳性能选择的轨迹长度为50。


S.N. 的长度 均方误差 相关系数
轨迹 噪音 肌电图 噪音 肌电图

1 05. 0.00023 0.000228 0.9986 0.9974
2 10. 0.00024 0.000236 0.9985 0.9976
3. 20. 0.00024 0.00025 0.9985 0.9974
4 30. 0.00024 0.00025 0.9985 0.9975
5 40 0.00023 0.00022 0.9985 0.9975
6 50 0.00023 0.00024 0.9985 0.9976
7 60 0.00024 0.00025 0.9984 0.9974

数据89显示FTLRNN的建模能力,显示了EMG和噪声的测试数据集上的期望输出和实际输出。可以看出,NN的输出非常紧密地遵循所需的输出。

数据10.11.显示FTLRNN的建模能力,分别显示信号和噪声训练数据集上FTLRNN的期望输出和实际输出。可见,实际产量与期望产量密切相关。

4.3。径向基函数(RBF)

RBF首次被引入到求解实多元插值问题中[14.15.].RBF网络最基本的结构包括三层。输入层由连接网络和环境的源节点(感觉单元)组成。第二层是网络中唯一的隐层,它应用了一个从输入空间到隐空间的非线性变换。输出层是线性的,提供网络对应用于输入层的激活模式(信号)的响应[16.].RBF神经网络模型结构如图所示12.

为确定RBF神经网络模型的最佳性能,进行了严格的实验研究。RBF神经网络的可变参数列于表中9


S.N. 参数 典型的范围 最优参数

1 聚类中心 5到100 5
2 无监督学习规则 Conscience-full,标准 Conscience-full
3. 监督学习规则 动量,共轭梯度,利文伯格马夸特,快速传播,步长,三角杆三角 Levenberg马夸特
4 度规 欧几里得,点积,箱式汽车 欧几里得
5 输出层中的传输函数 线性、lineartanh双曲正切 线性

从图13.,得到5个簇中心时性能最优。

桌子10.11.描述了RBF神经网络的最佳性能。良心全无监督学习规则和欧几里得竞争学习度量被选择为最优性能。


S.N. 无监督学习规则 均方误差 相关系数
噪音 肌电图 噪音 肌电图

1 良心全 0.02484 0.024993 0.7827 0.5825
2 标准的全 0.02954 0.02950 0.77338 0.5698


S.N. 度规 均方误差 相关系数
噪音 肌电图 噪音 肌电图

1 欧几里得 0.02484 0.024993 0.7827 0.5825
2 点积 0.02985 0.02967 0.7713 0.5664
3. 箱式车 0.02955 0.029496 0.77329 0.56994

数据14.15.给出了RBF神经网络的建模能力,显示了RBF神经网络在肌电信号测试数据集上的期望输出和实际输出。可以看出,实际输出与期望输出相差甚远。

5.结果和比较

表格12.描述了测试数据集上MLP NN、FTLRNN和RBFNN学习规则变化的性能参数。从表12.结果表明,聚焦时滞递归神经网络对线性传递函数具有最优性能。


S.N. 神经网络 信号 传递函数
双曲正切 线性双曲正切 线性
均方误差 r 均方误差 r 均方误差 r

1 中长期规划 N 0.02501 0.78114 0.02557 0.77557 0.02521 0.7792
肌电图 0.02485 0.58433 0.0251 0.5779 0.02513 0.5781
2 FTLRNN N 0.00027 0.99797 0.00015 0.99882. 0.000067 0.99843
肌电图 0.00023 0.99695 0.00013 0.9981 0.000048 0.99731
3. RBF N 0.2473 0.78385 0.02482 0.78297 0.02477 0.7839
肌电图 0.02481 0.5852 0.02481 0.5851 0.02480 0.5854

表格13.描述了为每个神经网络的最优性能选择学习规则。在FTLRNN中,动量学习规则的选择性能最好。


S.N. 神经网络 信号 学习规则
动力 共轭梯度 Levenberg马夸特 快速传播 一步 δδ——酒吧

1 中长期规划 噪音 0.7786 0.76672 0.77414 0.77388 0.77365 0.76857
肌电图 0.5840 0.57205 0.57182 0.56866 0.57026 0.57125
2 FTLRNN 噪音 0.99843 0.99617 0.99781 0.99806 0.99842 0.99792
肌电图 0.99731 0.99572 0.99684 0.99756. 0.99695 0.99787
3. RBF 噪音 0.77314 0.7737 0.77382 0.77335 0.77335 0.7724
肌电图 0.57059 0.5712 0.57186 0.5718 0.57184 0.5711

桌子14.15.显示了神经网络模型的回归性能。它显示了性能参数,MSE和rMLP NN、FTLRNN和RBF NN对噪声和肌电信号的训练、交叉验证和测试数据集。由观察可知,FTLRNN模型的MSE最低,相关系数最高。FTLRNN是去除肌电信号噪声的最佳神经网络。


S.N. 神经网络模型 绩效措施
训练数据集 简历数据集 测试数据集
均方误差 r 均方误差 r 均方误差 r

1 中长期规划 0.02688 0.77322 0.03070 0.77021 0.02501 0.78114
2 FTLRNN 0.000254 0.99809 0.00201 0.98701 0.000067 0.99950
3. RBF 0.02664 0.77544 0.03036. 0.77309 0.024704 0.784138


S.N. 神经网络模型 绩效措施
训练数据集 简历数据集 测试数据集
均方误差 r 均方误差 r 均方误差 r

1 中长期规划 0.026537 0.57309 0.03041 0.56829 0.02485 0.58433
2 FTLRNN 0.00024 0.99692 0.00216 0.97584 0.000048 0.99939
3. RBF 0.02654 0.57122 0.03037 0.56915 0.024817 0.585088

表格16.显示了MLP NN、FTLRNN和RBF NN的比较。对于所有的三个nn,纪元的数目保持1000。FTLRNN模型的MSE比MLP和RBF NN模型的MSE低0.0027倍。FTLRNN的相关系数比MLP和RBF NN模型高1.71倍。FTLRNN的误差百分比是最小的。它比MLP和RBF NN分别小0.04倍和0.034倍。FTLRNN和RBF NN分别是MLP和RBF NN的0.73倍和1.67倍。与RBF神经网络相比,FTLRNN模型需要更多的训练时间,但从MSE和r,通过对建模特性的目视检验,FTLRNN模型明显优于其他两种神经网络。


神经网络模型 传递函数 学习规则 均方误差MSE 相关系数r 时代 经过的时间/ epoch/以微秒为单位 %的错误

延时(1-15-10-2) 双曲正切 动力 0.02501(噪音)0.02482 (EMG) 0.78114(噪音)0.58433(肌电图) 1000 19.16 253.
FTLRNN (1-27-2) 线性 动力 0.000067(噪音)0.000048(肌电图) 0.99950(噪音)0.99939(肌电图) 1000 14. 10.
RBF (CC-05) 线性 LM 0.02470(噪音)0.02482(肌电图) 0.78414(噪音)0.58509(肌电图) 1000 8.3 293

噪声对肌电信号的影响
通过在神经网络的输入和输出中加入均匀和高斯噪声,对估计的MLP神经网络、FTLRNN和RBF神经网络进行鲁棒性检验。数字16.描述了具有均匀噪声和高斯噪声的神经网络的性能。噪声方差在0.01到0.4之间变化。在FTLRNN中,EMG信号的均匀噪声容忍度为0.4-噪声方差,而当引入高斯噪声时,噪声方差为0.3。在MLP神经网络和RBF神经网络中,随着噪声方差的增加,性能参数降低到很低的值。

FTLRNN在不同数据分区上的学习能力
对不依赖数据集的神经网络模型的学习进行了测试。MLP、FTLRNN、RBF NN模型在不同的数据集上进行训练,如表所示1(a)(正向标记和反向标记)。数字17.显示了这些神经网络模型对滤波后的肌电信号的性能。与MLP和RBF神经网络模型相比,基于ftlrnn的模型在所有数据集上的性能几乎相同。

多种的学习差
总样本分为四组,每组500个样本,如表所示1(b) FTLRNN、MLP NN、RBF NN模型的性能如图所示18..观察到,基于ftlrnn的模型性能是一致的。在所有数据集上,FTLRNN的相关系数最高。

6.结论

肌电图信号携带有关神经系统的有价值的信息。本文研究了神经网络对肌电信号噪声的去除。作者证明,基于ftlrnn的滤波器可以优雅地去除肌电信号中的噪声。紧凑的FTLRNN只有一个具有结构(1-27-2)的隐藏层,能够以合理的精度去除噪声。当对数据集仔细检查MLP和RBF神经网络模型的性能时,基于FTLRNN的模型在MSE和RBF神经网络等性能指标方面明显优于MLP神经网络和RBF神经网络r以及对滤波后的肌电信号实际输出和期望输出的图形进行目视检查。基于ftlrnn的EMG信号的滤波相关系数高达0.99939,MSE低至0.000048。噪声信号的相关系数和MSE分别为0.99950和0.000067。而且,估计的FTLRNN模型的实际输出比其他神经网络模型更接近于期望输出。在基于ftlrnn的模型学习能力的情况下,性能参数是一致的,因此学习几乎与数据集的具体划分无关。我们还可以看到,对于基于ftlrnn的模型来说,训练网络所需的每个纪元每个样本所花费的时间相当低。在测试数据集上得到了最小的误差为10%的FTLRNN。同时观察到,当在肌电信号中引入均匀噪声和高斯噪声时,网络保持了合理的噪声水平。对于均匀噪声,观察到100%的容忍,对于高斯噪声,它是75%。这证实了所提出的基于ftlrnn的模型的抗噪性。 The estimated FTLRNN is a robust network developed to detect EMG signal from noisy EMG signal.

提出的基于ftlrnn的Laguarre记忆模型能够从受噪声污染的典型肌电信号中滤除噪声。

参考文献

  1. M. B. I. Reaz, M. S. Hussain,和F. Mohd-Yasin,“肌电信号分析技术:检测、处理、分类和应用”,生物过程在线,第8卷,第2期1,pp。11-35,2006。视图:出版商网站|谷歌学者
  2. 机票的。郑华,“基于递归神经网络的股票指数预测”,出版IASTED国际人工智能及应用会议论文集(AIA '06),奥地利因斯布鲁克,2006年2月。视图:谷歌学者
  3. R. D. de Veaux,J. Schumi,J.Schweinsberg和L. H. Ungar,“通过非线性回归的神经网络预测间隔”技术计量学,第40卷,第5期。4,第273-282页,1998。视图:出版商网站|谷歌学者
  4. R. Barman, B. Prasad Kumar, P. C. Pandey,和S. K. Dube,“利用神经网络预测海啸旅行时间”,《地球物理研究快报第33卷第3期16、文章编号L16612, 6页,2006。视图:出版商网站|谷歌学者
  5. S. M. Sadat-Hashemi, a . Kazemnejad, C. Lucas和K. Badie,“使用人工神经网络和多项逻辑回归预测怀孕类型:一项比较研究,”神经计算与应用第14卷第2期3,页198-202,2005。视图:出版商网站|谷歌学者
  6. 弗雷德里克和科斯坦尼克,科学与工程的神经计算原理2000年,印度新德里,塔塔麦格劳希尔出版。
  7. P. T. Boggs, R. H. Byrd,和R. B. Schnabel,“非线性正交距离回归的稳定和有效算法”,SIAM科学计算杂志,第8卷,第2期6,第1052-1078页,1987。视图:出版商网站|谷歌学者
  8. P. A. Lewis和J. G. Stevens,“使用多元自适应回归样条(MARS)的时间序列非线性建模”,国防技术信息中心,Fort Belvoir, Va, USA, 1990。视图:谷歌学者
  9. 微积分,神经网络:一个全面的基础,培生教育,德里,印度,1999。
  10. 普林西比、尤利亚诺和列斐伏尔,神经和自适应系统:通过模拟基础, John Wiley & Sons, New York, NY, USA, 2000,降噪数据集。
  11. H. Demuth和M. Bealle,神经网络工具箱:用户指南,版本3.0, MathWorks, Natick,马萨诸塞州,美国,1998。
  12. G. Cybenko, " s型函数的叠加近似",控制,信号和系统的数学,第2卷,第2期4,第303-314页,1989。视图:出版商网站|谷歌学者|Zentralblatt数学|MathSciNet
  13. S.-Z。秦海涛,“基于神经网络学习的动态系统识别方法的比较研究”,神经网络学报,卷。3,不。1,pp。122-130,1992。视图:出版商网站|谷歌学者
  14. “多变量插值的径向基函数:综述”,刊于关于函数和数据近似算法的IMA会议记录, 143-167页,英国,Shrivenham, 1985年7月。视图:谷歌学者
  15. W. Light,“脊函数,s形函数和神经网络”近似理论七世,E. W. Cheney,C.K.Chui和L.L.L.Schumaker,EDS。,PP。163-206,学术出版社,波士顿,大众,美国,1992年。视图:谷歌学者
  16. 封面,“线性不等式系统的几何和统计性质及其在模式识别中的应用”,IEEE电子计算机汇刊第14卷第2期3,第326-334页,1965。视图:出版商网站|谷歌学者

版权所有©2009 s.n. Kale和s.v. Dudul。这是一篇发布在知识共享署名许可协议,允许在任何媒介上不受限制地使用、传播和复制,但必须正确引用原作。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点4560
下载1133
引用

相关文章

年度文章奖:由主编评选的2020年杰出研究贡献。阅读获奖物品