科学的规划

PDF
科学的规划/2020年/文章
特殊的问题

对智能世界2020年科学规划

把这个特殊的问题

研究文章|开放获取

体积 2020年 |文章的ID 3291426 | https://doi.org/10.1155/2020/3291426

Xianwei江、胡Bo Suresh钱德拉Satapathy Shui-Hua Wang Yu-Dong张, 手语识别通过AlexNet-Based转移为中国手语学习和亚当优化器”,科学的规划, 卷。2020年, 文章的ID3291426, 13 页面, 2020年 https://doi.org/10.1155/2020/3291426

手语识别通过AlexNet-Based转移为中国手语学习和亚当优化器

学术编辑器:至岑溪黄
收到了 2020年2月12日
接受 2020年3月28日
发表 2020年5月19日

文摘

通用符号语言的一个重要组成部分和其他符号语言学习的基础上,手指手语具有十分重要的意义。提出了一种新颖的手语识别方法对中国通过AlexNet-based转移学习手语和亚当优化器,测试了四种不同配置的转移学习。除此之外,在这个实验中,亚当算法相比,随机梯度下降法与动量(个)和均方根传播(RMSProp)算法,并比较使用数据的增加(DA)对不使用DA被处决追求更高的性能。最后,最好的准确性为91.48%,平均89.48±1.16%的精度被配置了M1(取代过去FCL8)和亚当算法和使用181 x哒,这表明我们的方法可以有效地识别中国手指手语和稳定。与此同时,该方法优于其他五个最先进的方法。

1。介绍

如今,听力受损的人占了很多,特别是在中国,大约有2790万聋人1]。他们的生活、学习和交流都遇到了前所未有的挑战。手语(SL)是他们的表达方式。但手语包含一系列内容和元素如手形状、运动、姿势,和情感,这是一个相对复杂的系统,不容易学习和掌握。手语翻译和手语识别是两个重要的上述挑战的解决方案。然而,这位前需要提前安排人员,是昂贵的,而后者正受到越来越多的关注由于智能技术的快速发展。

中国手语(CSL)是专门为中国聋人和听力受损的组织(2]。它有明显的特征,即丰富的语义,在区域广泛,各种表情。作为它的一个重要组成部分,中国的手指手语具有十分重要的意义。首先,它很简单,容易学习,由26个单音节的字母(A - Z)和4双音节字母(SH, CH, NG)。内容是明确的,独特的,容易记住。其次,拼音函数映射,可以作为手势符号语言学习的基础。中国手语的手语字母表达的是不同的美国手语(ASL)。美国手语的手语有利于单词或意义的直接表达,而中国手指手语代表拼音组成的元素的大部分时间。几个手指标志语言构成一个完整的意思,不容易产生歧义。此外,中国手指手语优势代表抽象的概念和术语。

手语识别(SLR)是指利用计算机技术将手语翻译成文字,图片,音频,视频,和自然语言理解和接受。一般来说,它可以分为两种类型:一是基于传感器,另一个是基于计算机视觉。特别是,基于计算机视觉的识别技术3- - - - - -6)是一种流行趋势,操作灵活,易于实现,低成本和可靠的技术。许多研究人员造成了这些地区通过提供优越的分类和识别算法及其变体。使用四种不同的支持向量机内核,手语识别系统关注泰国手语手语的平均精度达到91.20%,86.40%,80.00%,和54.67%,分别为(7]。但是它只有375个字符图片完全。嗯,基于k - means,李和蚁群算法等。8]承认台湾手语的准确性为91.3%。然而,他们的数据库包括11特别台湾手语词汇。提出了动态时间规整(DTW)由Lichtenauer et al。9),获得了92.3%的识别率。他们评估分类标志在一组荷兰手语120多元的迹象。此外,分层条件随机场(HCRF)方法提出了杨和李10]。Rao et al。11安)训练分类器匹配的单词。Kumar et al。12)使用隐马尔科夫模型(HMM)方法。李等人。13结合支持向量机和嗯。

一些其他的手语识别研究介绍了利用深度学习在14- - - - - -17]。江(18应用灰度共生矩阵建立]采用灰度共生矩阵()和Parameter-Optimized介质高斯支持向量机(MGSVM)方法来识别孤立中国的手语。6-layer卷积神经网络与漏水的解决线性单元(LReLU)技术对中国手语手语识别提出了江(19]。

尽管这些技术和方法取得了良好的结果,他们仍然有自己的问题和缺陷。例如,嗯,DTW需要建立有效的模板,不适合实时系统。对于SVM特征提取非常重要,这将消耗大量的资源。HCRF可以得到巨大的改善潜力的准确性。相比之下,有较强的自学能力和组织能力,神经网络带来新的曙光。特别是,转移学习是推动这些成熟和高效的神经网络。

在本文中,我们提出了一个AlexNet-based转移学习方法配备数据扩充和亚当优化器的手语识别中国手语和获得一个稳定的平均89.48±1.16%的精度,可被视为有效的和重要的。

我们的贡献如下。(我)AlexNet-based转移学习介绍,其中包括一些先进技术,如纠正线性单元函数(ReLU),当地的反应正常化(LRN)和辍学。(2)优化算法亚当被用来加快学习速度,提高性能。(iii)数据增加(DA)被用来提供足够的训练数据集,这强烈缓解过度拟合,提高了准确性。(iv)我们的研究提供了一种新的方法来平滑之间的沟通障碍听力受损的人,健康的人。

2。数据集

自建数据集中国手指建立了基于计算机视觉的符号语言,包括1320年的图像。数据集可以在电子邮件请求。根据通用符号语言标准发布的状态,中国的手指手语完全包含30个手语字母,26个的单字母(A - Z)和4双音节字母(SH, CH, NG)。图1演示了三十种中国手指手语拦截从样本图片。这些样本预处理和标准化的256×256 background-optimized图像。我们的实验被执行死刑的私人数据集包括1320张图片。其中,1050图像被用于培训,其余的用于测试。手语数据用于支持本研究的发现可以从相应的作者。

3所示。方法

3.1。转移学习

学习抓重点转移的一个重要原因是,传统的机器学习应用程序需要大量的标记数据,但这些数据可能分布差异和训练数据过期等问题(20.]。幸运的是,转移学习可以解决这些问题。它可以充分利用前面带安全标签的数据时,可以保证模型的准确性对新任务,这使得它得到越来越多的关注。

转移学习被定义为系统识别的能力和应用知识和技能在以前的域/任务新域/任务。转移可以分为基于实例的迁移学习,基于功能的转移和共享基于参数传递。学习转移的关键是找出不同域之间共享知识可以移动,设计适当的算法来提取和传输常识,并避免负迁移(21]。有两种一般战略转移的应用在深度学习学习。一个是微调,包括使用pretrained网络基础数据集和训练目标数据集的所有层;例如,另一个是冻结和取代冻结所有层(权重不更新)除了最后一层和培训最后一层或冻结N层之前(即冻结层选择了自定义)和培训剩下最后几层。图2显示了应用程序的微调转移学习的想法。可以看出,从一个大数据集映射到一个目标较小的数据可以快速通过合理的微调,和一个新的从pretrained模型建立合适的模型(22]。

在图像处理领域,pretraining ImageNet经常选择及其模型初始化。在这项研究中,我们最初训练一个pretrained模型的一个子集ImageNet 1000类别,然后以前学到的知识转移到30类别的中国手语识别基于少量的私人数据,这是一个相对简单的任务。整个结构的神经网络培训。因此,AlexNet-based转移学习手语识别带来优势的中国手语。

3.2。AlexNet:结构和层次

AlexNet由于引起了人们广泛的关注,远远领先于第二个冠军在2012年ImageNet大规模视觉识别的挑战(ilsvrc - 2012),这震惊了当时的学术和工业研究人员。它可以被认为LeNet的更深入和更广泛的版本。LeNet包含卷积神经网络的基本模块,提供其他深度学习模型的基础23]。从整体的角度来看,AlexNet保留最初的想法但ReLU等引入了更多的技巧,LRN,辍学。等技术的迅速发展,使用gpu和分辨率的数据样本限制为AlexNet提供了一个机会。

层与可学的权重,AlexNet由一共有八层,包括5个卷积层和三个完全连接层(24]。AlexNet的结构如图3

尽管AlexNet类似传统的神经网络,它有自己的特点。的主要方面先进的技术可以概括如下:(一)N可学的过滤器是包含在卷积层,每个过滤器可以生成一个特征映射。因此,最后的大小 将获得激活地图,实现特征提取的功能。假设我们有一个3 d输入的大小 和一个过滤器 ; 表示输出激活图的大小。的价值 可以通过以下公式计算: 过滤器的数量被定义为在哪里N,年代表明步幅的大小P表示填充的大小。整个过程的卷积图所示4从输入开始的一系列的过滤器,最后输出一个激活地图。(b)代替传统的乙状结肠函数修正线性单元函数(ReLU)是AlexNet成功实用的策略之一。因为它本质上是一种半波整流,大大加快了训练过程,防止过度拟合。相比之下,乙状结肠函数容易梯度消失。已经证明ReLU作为激活函数的收敛速度在深层神经网络是传统的激活函数的7倍。的公式表达如下: (c)AlexNet的另一个优越的实用策略是当地反应正常化(LRN)提出了Krizhevsky et al。25促进融合。基于可计算的神经元 与应用程序的内核 和非线性ReLU response-normalized神经元 可以计算为 其中, 在哪里n表示连续的内核数量的地图,窗口大小的通道,N代表总数的内核层。根据惯例,参数设置如下: (d)应该考虑辍学AlexNet重大创新,已成为必备的神经网络结构。引入辍学,主要是为了防止过度拟合。实现过程如下:对于某一层的神经元,它们与一个概率设置为0P。一般来说, 在这种情况下,辍学随机生成网络结构。这些零集神经元不参与向前和向后传播,就像冷冻或丢弃。但与此同时,输入和输出层神经元的数量保持不变,和参数更新根据神经网络学习方法。这个过程是反复迭代,直到最后的训练。这样,整个神经网络在规模和流线型的减少。它也可以被视为一种组合模型,结合多个模型每次通过生成不同的网络结构。因此,它可以有效地减少过度拟合。图5代表一个普通神经网络;在这里,我们使用灰色虚线圆圈表示辍学神经元和使用蓝色实心圆圈来表示保留神经元。(e)完全连接层(FC)可以线性变换的一个特征空间到另一个,也就是说,学习了“分布式特性表征”映射到样本标签空间。本质上,它实现了“分类器”功能。FC结束时往往会出现体重前面设计的特性。后输入乘以相应的重量和添加一个偏移量,他们可以获得。

将softmax层(SL),也称为将softmax函数,通常是跟在后面最后一个完全连接层。SL的作品在一个多输入多输出模式。将softmax函数将值转换为一个概率,概率最高的节点将被选择作为预测目标。将softmax函数定义如下:

3.3。转移设置

在这项研究中,只有一个GPU用于实现AlexNet因为可接受的数据集。表1提供的参数可学的AlexNet重量和偏见。完全,重量和偏见AlexNet 60965224 (60954656 + 10568)。在Matlab中,单浮点类型选择存储所有的变量。每个变量占用4个字节,总分配233 MB的空间。


的名字 权重 偏见

CL1 11 11∗∗∗96 = 34848 1∗∗96 = 96
这有点难度 5∗5∗∗48 256 = 307200 1∗∗256 = 256
CL3 256年3∗∗∗384 = 884736 1∗∗384 = 384
CL4 192年3∗∗∗384 = 663552 1∗∗384 = 384
CL5 192年3∗∗∗256 = 442368 1∗∗256 = 256
FCL6 4096∗9216 = 37748736 4096∗1 = 4096
FCL7 4096∗4096 = 16777216 4096∗1 = 4096
FCL8 1000∗4096 = 4096000 1000∗1 = 1000
60954656年 10568年

神经网络结构需要修改,特别是去年完全连接的所有层。1000年最初的完全连接输出设计分类和不适合我们的分类主题。因此,我们重新设计了有关层通过微调。如表所示2,一个完全连接层初始化随机包含30个神经元,softmax层和一层分类器可以实现30分类利用。层23日,24日和25层索引在Matlab深层神经网络模型中,也算ReLU层和汇聚层,这里的索引大于从Python模型索引。


原始 修改后的

23 FCL(1000)与pretrained重量和偏见 FCL(30)与随机初始化
24 Softmax层 Softmax层
25 分类层(1000类) 分类层(30类)

培训的选项设置的实践。基于原则的培训时代转移学习是相对较小的,培训时代被选为10。全球学习速率设置为10−4。考虑到新图层被随机初始化权重和偏见而pretrained传输层,定义的新层学习速率,传输层的10倍。

不同的转移学习设置都试过了。如图6,设置表示层之后和其他层保留传输层替换。传输层保持学习速率为1×10−4而取代层初始化10×10的学习速率−4。我们将测试四种不同转移学习配置:M1去年FCL8 Mn-M1取代了;M2取代FCL7和8;M3取代FCL6-8;M4取代CL5 FCL6-8。

3.4。在训练集数据增大

自深神经网络模型有很多参数,该模型需要包含相当数量的样本图像达到最优性能。数据增加(DA)可以扩展数据集,这有助于提高性能的深入学习和提高分类识别的准确性。对于每个选定的原始图像,我们应用以下六大技术:PCA颜色增加,仿射变换,噪声注入,缩放、随机变化,伽马校正。

把“j”的形象作为一个例子,在第四列和行图表示1。为每个方法产生30个新图像,我们获得了完全180个增强”j“图像,可以看到在图7

每个DA技术的参数设置如下:PCA颜色增加了最原始图像的颜色值。仿射变换对变形保存图像和直线。0.01零均值方差高斯噪声来每一个手语图像产生30个新噪声图像。图像缩放比例因子从0.7到1.3的步骤0.02。然后,手势图像随机转移30倍的随机转移[15]−15日之内像素。伽马校正因子改变的范围与增加0.04 [0.4,1.6]。

如表所示3,表示数量的图像在三分区:培训,增强培训和测试,每一个原始图像生成新的训练集181倍。实验重复了十倍的数据分割随机重置。


分区 数量的图片

培训 1050年
增强培训 190050年
测试 270年

3.5。训练算法

深度学习通常需要大量的时间和计算机资源培训,所以优化算法被广泛关注。亚当(自适应动量)算法占用更少的资源,使该模型收敛速度快(26],它可以加快学习速度,提高效果。亚当是一个一阶优化算法,可以取代传统的随机梯度下降的过程。它连接的一阶二次矩估计的基础上势头Adadelta时刻估计和添加一个。每个参数的学习速率动态调整是通过使用第一和第二时刻的梯度估计。偏差纠正也增加了,这使得参数相对稳定。

迭代公式如下: 在哪里 计算梯度, 显示第一个梯度的时刻 ,这也是梯度的期望 , 表示第二个梯度的时刻 , 代表了一阶衰减系数, 代表第二个时刻衰减系数, 代表的参数需要解决(或更新) 表明偏移修正 ,分别。

另外两个流行的训练算法随机梯度下降法与动量(个)和均方根传播(RMSProp)。在这项研究中,我们使用这两个算法作为比较基础。

个,他的全名是随机梯度下降势头,介绍一阶动量SGD的基础上。一阶动量表示梯度方向的指数移动平均在每一刻,约等于平均梯度向量的和最新的 的时刻。计算 上面所示的公式; 可以表示如下:

换句话说,在下行方向t不仅取决于当前点的梯度方向也由下行方向积累。的经验值 是0.9,这意味着下降的方向主要是以前积累的下降的方向。

另一方面,RMSProp(均方根传播)是一个在Coursera杰弗里·e·辛顿提出的优化算法。为了进一步优化问题的更新的损失函数过度摇摆,进一步加快收敛的功能,RMSProp差的平方加权平均算法用于重量的梯度 和偏见b。因此,它使更大的进步在参数空间的方向是温和的。历史的平方和梯度较小,因为温和的方向,从而导致一个更小的学习下降。假设在迭代的过程中t,每个公式推导如下: 在哪里 梯度和梯度动量上一次迭代期间积累的损失函数t1和向量 是一个指数梯度的积累。为了避免分母变成0, 将是一个非常小的数字。

RMSProp有助于消除大的方向摇摆,用于正确的摇摆,摇摆在每个维度是较小的。另一方面,这也使得网络函数收敛更快。RMSProp非常类似于动量梯度下降法,因为它消除了抖动,包括minibatch梯度下降法,允许使用一个更高的学习速率一个加快学习的算法。

4所示。实验结果和讨论

我们跑这个实验平台的个人计算机的主要部件包括2.5 ghz酷睿i7处理器,16 GB的内存和2 GB AMD Radeon图形处理器,Win10的操作系统。不同设置转移学习试图获得最佳hyperparameters,然后我们进行10使用最后的模型在测试集上运行。

平均精度(AA)是用来评价实验结果。AA的平均正确分类类别的研究目标,它反映了平均每个类别的准确性。表4提供了10分的平均精度测试集。在每次运行,270图像被随机选择整个数据集构建测试集。


运行 AA

1 91.48
2 89.26
3 89.26
4 87.78
5 89.26
6 90.00
7 89.26
8 87.78
9 90.00
10 90.74
意味着+ SD 89.48±1.16

4.1。统计结果

我们可以看到在桌子上410分,结果表明,平均精度最高的91.48%,AA的最小值是87.78%。我们最高的AA大胆。此外,可以看出AA的值超过90%的4倍。最后,平均值和标准偏差的值达到89.48±1.16%,可以认为是有效的。

4.2。训练算法比较

在这个实验中,我们比较亚当算法和个RMSProp算法。比较图所示8

从表可以看出5个的平均值和标准偏差,RMSProp,和亚当是88.33±2.03%,89.04±0.93%,分别和89.48±1.16%。我们可以发现亚当算法优于个RMSProp。在一方面,亚当比个优秀的稳定性。我们发现个的平均精度达到92.22%,而最高的AA的最低价值下降到84.81%。两者之间有一个巨大的振幅,这意味着梯度平滑的个不足以实现平稳过渡,也就是个的惯性不是维持足以容纳一个不稳定的目标函数。另一方面,亚当比RMSProp高的准确性。显然,总共10分,结果RMSProp已超过亚当只有三次。


运行 RMSProp 亚当(我们的)

1 87.04 89.63 91.48
2 88.15 88.15 89.26
3 87.04 90.37 89.26
4 84.81 89.26 87.78
5 87.41 88.15 89.26
6 89.63 89.63 90.00
7 92.22 87.41 89.26
8 89.63 88.89 87.78
9 87.78 88.89 90.00
10 89.63 90.00 90.74
平均数±标准差 88.33±2.03 89.04±0.93 89.48±1.16

4.3。设置转移学习的比较

四个不同的转移学习设置(配置M1、M2、M3、M4)是在测试集上运行。表6和图9结果显示不同的设置;可以看出的平均值和标准偏差值配置M1, M2, M3, M4和89.48±1.16%,88.93±0.75%,88.59±0.90%,分别和86.85±0.94%。很明显,最大的性能是通过配置M1(取代过去FCL8)在所有四个措施。总的来说,性能下降时,置换层数量的增加。配置M4(取代CL5和FCL6-8)平均数±标准差值86.85±0.94%的最低的四个配置。这种情况表明,使用传输层大部分从pretrained模型更为有效和实用。此外,数据增加扩大了我们的数据集足够的训练集,可以强烈避免过度拟合,提高准确性。


运行 配置
M1(我们的) 平方米 M3 M4

1 91.48 88.52 87.78 86.67
2 89.26 88.89 88.89 86.30
3 89.26 88.52 89.63 86.67
4 87.78 88.89 89.26 85.56
5 89.26 88.15 89.63 86.67
6 90.00 90.37 88.15 88.89
7 89.26 89.26 87.41 87.41
8 87.78 87.78 87.78 86.30
9 90.00 89.26 89.63 86.30
10 90.74 89.63 87.78 87.78
平均数±标准差 89.48±1.16 88.93±0.75 88.59±0.90 86.85±0.94

4.4。影响数据的增加

在这个实验中,我们比较了使用数据的表现增加对不使用DA (DA)。实验的设置都是一样的4.1在训练集,只有消除了DA。结果如表所示7。我们测试了四种不同的增强因子。首先,我们为每个方法生成10个新图像的六个DAs。因此,我们获得的60个新图像;与原始图像,我们总共61 x增加训练集。第二,我们增强因子设置为121 x。之后,我们还检查181 x 241 x的性能增强。


运行 不使用哒 使用达61倍 使用达121倍 使用达181倍 使用达241倍

1 85.19 87.78 88.15 91.48 90.37
2 85.19 85.19 89.63 89.26 89.26
3 85.93 86.30 87.78 89.26 88.89
4 82.22 86.30 85.93 87.78 89.63
5 82.59 87.41 87.41 89.26 89.63
6 84.44 86.67 88.89 90.00 89.63
7 85.56 87.04 88.89 89.26 88.52
8 83.70 85.56 90.00 87.78 88.52
9 84.07 88.15 88.52 90.00 87.78
10 83.70 87.04 88.52 90.74 90.00
意味着+ SD 84.26±1.24 86.74±0.94 88.37±1.16 89.48±1.16 89.22±0.79

从图可以看出10,没有使用效果比使用DA DA显然是贫穷。当使用DA,性能增加而增大系数的提高。然而,241 x增加带来平均精度的下降,同时也需要最大的计算资源。因此,设置增加181 x因素,也就是说,紫色的酒吧在图中,获得最佳的性能。

4.5。比较先进的方法

其他五个最先进的方法:HCRF [10,嗯12],SVM-HMM [13],GLCM-MGSVM [18],6-layer CNN-LReLU [19),是寻求与这个实验方法。的平均精度HCRF,嗯,SVM-HMM, GLCM-MGSVM,和6-layer CNN-LReLU是78.00%,83.77%,85.14%,85.3%和88.10±1.48%,分别显示在图11。它可以观察到,我们的方法优于所有的比较。三个属性是有用的提高性能的方法。(我)和微调,成熟pretrained模型可以快速转移之前的任务对我们的任务,这是相对简单的。因此,我们的方法的准确性是接近的水平AlexNet模型。(2)亚当算法可以提高再培训AlexNet模型,加快学习速度,提高了效果。(iii)数据扩充扩展数据集和提高分类识别的准确性。因此,我们的方法取得了令人满意的结果。

我们的方法的缺点是AlexNet需要大量的计算资源。在未来,我们可能试图移动云计算算法(27,28和移动边界计算29日,30.)地区。

5。结论

在这项研究中,一个AlexNet-based转移提出了学习方法,配备数据扩充和亚当优化器。我们的方法应用于手语识别为中国手语。实验结果表明,我们的方法达到了平均89.48±1.16%的精度,这是优秀的中六个最先进的方法。我们比较三个训练算法:亚当,RMSProp,和个算法,发现亚当算法更为显著和稳定。我们测试了四种不同的转移学习设置,发现配置M1(取代过去FCL8)获得最大的性能。此外,这种策略是非常实用,它可以减少网络的大量的培训和充分利用现有模型。我们也注意到,使用哒比不使用更有效哒,设置不同的增强因素导致不同的性能,在181 x增加达到最好的平均精度。

在未来,我们将尝试验证不同的转移学习模型,如ResNet GoogleNet, SqueezeNet。我们需要解决的问题设置合适的学习速率因子在单独的层。数据还需要进一步扩大获得更高的精度。我们将尝试这种方法转移到其他适用的领域和测试其他可行的方法。

数据可用性

手语数据用于支持本研究的发现可以从相应的作者。

的利益冲突

作者宣称没有利益冲突。

确认

本研究江苏海外访问学者项目支持的中国大学杰出青年和中年教师和校长,自然科学基金中国江苏高等教育机构(19 kja310002),河南省重点研发项目(182102310629),中国自然科学基金(61602250),江苏青年自然科学基金(BK20180727),广西重点实验室的可信软件(kx201901),皇家学会国际交流成本分享奖、英国(RP202G0230),医学研究理事会的信心概念(MRC CIC)奖,英国(MC_PC_17171),希望癌症研究基金会、英国(RM60G0680)和英国心脏基金会加速器奖,英国。

引用

  1. 李x汉语手语识别研究基于神经网络的中小词汇量中国科学技术大学,合肥,中国,2017。
  2. m·胡贝尔和c·哈瓦斯”限制在噪声和语音识别听力受损的儿童和青少年的生活质量和耳蜗植入设备,需要研究解决这一主题与儿童生活质量的有效工具,”心理学领域,10卷,不。2085年,p . 2019。视图:出版商的网站|谷歌学术搜索
  3. l . n .吴”,通过相模式识别和tsallis熵”,传感器,8卷,第7529 - 7518页,2008年。视图:谷歌学术搜索
  4. l .吴”水果使用计算机视觉和多类分类支持向量机,”传感器》12卷,第12505 - 12489页,2012年。视图:谷歌学术搜索
  5. g .魏”,基于HVS的彩色图像增强和相中国科学信息科学53卷,第1976 - 1963页,2010年。视图:谷歌学术搜索
  6. l . n .吴“改进的基于SPCNN图像过滤,”科学在中国系列F-Information科学,51卷,第2125 - 2115页,2008年。视图:出版商的网站|谷歌学术搜索
  7. p s Thongpan Pariwat,”泰国手语手语识别使用局部和全局特征和支持向量机,”学报》第九届国际会议上知识和智能技术(自主)春武里,页116 - 120年,泰国,2017年2月。视图:谷歌学术搜索
  8. 郭宏源。s . Li M.-C。花王,林志信。郭:“使用entropy-based home-service-related手语,识别系统”IEEE系统,人,和控制论:系统,46卷,不。1,第162 - 150页,2016。视图:出版商的网站|谷歌学术搜索
  9. j . f . Lichtenauer、e·a·亨德里克•m . j . t . Reinders”手语识别结合统计DTW和独立的分类,“IEEE模式分析与机器智能,30卷,第2046 - 2040页,2008年。视图:出版商的网站|谷歌学术搜索
  10. 》。杨和S.-W。李,“健壮的手语识别与分级条件随机域,”20国际会议的程序模式识别,页2202 - 2205,伊斯坦布尔,土耳其,2010年8月。视图:谷歌学术搜索
  11. g . a . Rao p基肖尔,d·a·库马尔和a . Sastry”连续手语识别神经网络分类器与视频有问题,“远东电子和通讯》杂志上,17卷,p。49岁,2017年。视图:出版商的网站|谷歌学术搜索
  12. p·p·罗伊·库马尔·r·赛,和d·p·多格拉人”的位置和旋转不变的手语识别框架使用Kinect (SLR),“多媒体工具和应用程序卷,77年,第8846 - 8823页,2018年。视图:出版商的网站|谷歌学术搜索
  13. g·c·李,f .叶和y萧,“kinect台湾手语识别系统”Multimed工具应用卷,75年,第279 - 261页,2016年。视图:出版商的网站|谷歌学术搜索
  14. l . p . Di吴和P.-J。kinderman,“深度动态神经网络对多通道的手势分割和识别,”IEEE模式分析与机器智能,38卷,第1597 - 1583页,2016年。视图:出版商的网站|谷歌学术搜索
  15. 江x, m .陆工程学系。王”,培育出卷积神经网络与随机池、批量标准化和辍学的手语识别中国手语,”多媒体工具和应用程序,78卷,2019年。视图:出版商的网站|谷歌学术搜索
  16. 崔r·h . Liu, c .张“反复连续手语识别卷积神经网络进行了优化,”《IEEE计算机视觉与模式识别会议火奴鲁鲁,页1610 - 1618年,美国,2017年7月,你好。视图:出版商的网站|谷歌学术搜索
  17. w z J黄、h·李和w·李,“关注基于3 d-cnns词汇量手语识别,”IEEE电路和系统视频技术卷,29号9日,1 - 10,2018页。视图:出版商的网站|谷歌学术搜索
  18. 江x”,孤立中国的手语识别使用灰度共生矩阵和parameter-optimized中高斯支持向量机”智能计算前沿:理论和应用程序施普林格,页182 - 193年,柏林,德国,2020年。视图:谷歌学术搜索
  19. x江,“中国手语手语识别通过six-layer卷积神经网络与漏水的解决线性单位治疗和康复,”医学成像和卫生信息学杂志》上9卷,第2038 - 2031页,2019年。视图:出版商的网站|谷歌学术搜索
  20. m . Byra m·加尔佩林h . Ojeda-Fournier et al .,“乳腺癌超声质量分类转移学习使用深卷积神经网络和颜色转换,“医学物理学,46卷,第755 - 746页,2019年。视图:出版商的网站|谷歌学术搜索
  21. c .黄“多发性硬化症14-layer鉴定与批处理规范化卷积神经网络,辍学,和随机池、”神经科学前沿,12卷,p。818年,2018年。视图:谷歌学术搜索
  22. s . j .锅和杨问:“调查转移学习”,IEEE工程知识和数据,22卷,不。10日,1345 - 1359年,2010页。视图:出版商的网站|谷歌学术搜索
  23. t .尚和r . s . Sabeenian”修改Alexnet糖尿病视网膜病变图像分类架构,”计算机与电气工程卷。76年,56 - 64,2019页。视图:出版商的网站|谷歌学术搜索
  24. 刘贤的儿子,m . e . Yildirim j . s .公园和j·k歌,“洪水检测通过使用FCN-AlexNet,”第11届国际会议上机器视觉学报》上贝灵汉,页248 - 255年,德国,2019年11月。视图:谷歌学术搜索
  25. a . Krizhevsky i Sutskever, g·e·辛顿“ImageNet分类与深卷积神经网络,”ACM的通信,60卷,第90 - 84页,2017年。视图:出版商的网站|谷歌学术搜索
  26. a . Yaguchi铃木t . w .浅野s Nitta y坂田,和a . Tanizawa“亚当诱发隐体重稀疏整流器神经网络,”学报17 IEEE国际会议上机器学习和应用程序,页318 - 325,纽约,纽约,美国,2018年。视图:谷歌学术搜索
  27. 郑x h . t . Wang Ke, a . k . Sangaiah k . Wang和a .刘”大数据基于移动边缘计算工业sensor-cloud清洁,”IEEE工业信息》16卷,第1329 - 1321页,2019年。视图:谷歌学术搜索
  28. d . t . Wang赵,Cai, w•贾和a .刘”双向预测基于水下数据收集协议end-edge-cloud策划体系,“IEEE工业信息,16卷,不。7,4791 - 4799年,2020页。视图:出版商的网站|谷歌学术搜索
  29. h . y . Wu黄、吴问:A . Liu和t·王,“基于微观状态预测的风险防御方法与社交网络,部分信息观察”杂志的并行和分布式计算卷,131年,第199 - 189页,2019年。视图:出版商的网站|谷歌学术搜索
  30. h . t . Wang罗、郑x和m .谢,“众包信任评估机制基于智能移动边缘计算年度"特别关注国","ACM智能交易系统和技术(TIST)卷,10 - 2019页。视图:出版商的网站|谷歌学术搜索

版权©2020 Xianwei江等。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点417年
下载271年
引用

相关文章