MISY 移动信息系统 1875 - 905 x 1574 - 017 x Hindawi 10.1155 / 2020/7602384 7602384 研究文章 小说通过Dense-MobileNet模型图像分类方法 https://orcid.org/0000 - 0002 - 2298 - 3429 1 https://orcid.org/0000 - 0002 - 3428 - 4262 余涛 1 https://orcid.org/0000 - 0001 - 7124 - 3470 2 https://orcid.org/0000 - 0003 - 2386 - 5405 1 https://orcid.org/0000 - 0001 - 8784 - 2320 Jieyu 3 https://orcid.org/0000 - 0002 - 5947 - 0651 竞争 3 马利克贾汗 1 计算机与通信工程学院 长沙科技大学 长沙410114 中国 csust.edu.cn 2 益阳分公司 中国电信有限公司 有限公司 益阳413000 中国 chinatelecom-h.com 3 湖南省儿童医院 长沙410000 中国 hnetyy.net 2020年 6 1 2020年 2020年 01 09年 2019年 12 12 2019年 6 1 2020年 2020年 版权©2020魏王等。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

作为一个轻量级的深层神经网络,MobileNet较少的参数和更高的分类精度。为了进一步减少网络参数的数量,提高分类精度,提出了致密块在DenseNets引入MobileNet。Dense-MobileNet模型中,卷积层大小相同的输入特征图谱MobileNet模型作为密集的街区,和密集的连接中进行密集的街区。新网络结构可以充分利用先前生成的输出特征图卷积层致密块,从而产生大量的特征图谱用更少的卷积核,反复使用特性。通过设置一个小的增长速度,进一步减少了网络参数和计算成本。两个Dense-MobileNet模型,Dense1-MobileNet和Dense2-MobileNet设计。实验表明,比MobileNet Dense2-MobileNet可以达到较高的识别精度,而只有用更少的参数和计算成本。

中国国防预研的基础 7301506 中国国家自然科学基金 61070040 湖南省教育 17 c0043 湖南省自然科学基金 2019年jj80105
1。介绍

计算机图像分类是分析和分类图像为某些类别取代人工目视判读。它是计算机视觉领域的热点之一。因为分类特性是非常重要的,大部分的研究图像分类集中在图像特征提取和分类算法。传统的图像特征,如手动筛选和猪的设计。卷积神经网络自学习的能力,自适应、自组织;因此,它可以自动提取功能通过使用已知类别的先验知识,并避免复杂的特征提取过程在传统图像分类方法。同时,提取的特征具有高度表现力和高效。

深卷积神经网络(CNN)取得了重大成功在计算机视觉领域,如图像分类( 1,目标跟踪 2),目标检测( 3),和语义图像分割( 4, 5]。例如,2012年ImageNet大规模视觉识别的挑战(ILSVRC2012) Krizhevsky等人赢得冠军的AlexNet [ 1)约6000万参数模型和八层。此外,VGG [ 6与16层),GoogleNet [ 7以《盗梦空间》为基本结构,ResNet [ 8残块,可以缓解这个问题的梯度消失也取得了极大的成功。然而,深卷积神经网络本身是一个密集的计算模型。大量的参数,重计算负荷,和大量的内存访问导致巨大的能耗,这使得它很难将模型应用于便携式移动设备有限的硬件资源。

为了深卷积神经网络模型应用于实时应用程序和内存便携设备上,一个可行的解决办法是压缩和加快深卷积神经网络减少参数,计算成本和功耗。Denil et al。 9]证明了深卷积神经网络的参数有很多冗余,这些冗余参数对分类精度没有影响。丹顿et al。 10)找到一个适当的低秩矩阵估计的信息参数通过奇异值分解深度cnn。方法需要高计算成本和更多的培训来达到收敛。汉et al。 11]在pretrained网络删除不重要的连接参数修剪,修剪和量子化的其余参数,然后由霍夫曼编码编码量化参数进一步减少压缩率。然而,该方法需要手动调整superparameters。陈等人。 12)用低成本的哈希函数组两个相邻层之间的权值为哈希桶重量共享,减少额外的存储位置和实现参数共享。辛顿et al。 13由知识蒸馏)压缩网络模型,提取有用的信息。有用的信息迁移到一个小的、简单的网络,这使得简单的网络和复杂网络也有类似的表现。

此外,许多相关研究改进网络模型压缩网络。例如,SqueezeNet [ 14)是一种基于火灾网络模型模块,MobileNets [ 15)是一种网络模型基于切除可分离的过滤器,和ShuffleNet 16)提高剩余结构的基础上,通过引入组织点态卷积和通道洗牌操作。

与VGG-16网络相比,MobileNet是一个轻量级的网络,它使用切除分离卷积深化网络,并减少参数和计算。同时,MobileNet ImageNet数据集的分类精度只减少了1%。然而,为了成为更好的应用于移动设备内存有限,MobileNet模型的参数和计算复杂性需要进一步降低。因此,我们使用密集块为基本单位的网络层MobileNet。通过设置一个小的增长速度,模型参数较少和较低的计算成本。新模型,即Dense-MobileNets,也可以达到较高的分类精度。

2。基础理论 2.1。MobileNet

MobileNet是精简架构,使用切除可分离旋转构建轻量级深卷积神经网络,为移动和嵌入式视觉应用程序提供了一个有效的模型( 15]。MobileNet的结构是基于切除可分离的过滤器,如图 1

MobileNet的体系结构。

切除分离卷积过滤器是由切除卷积过滤器和卷积过滤器。切除卷积过滤器每个输入通道上执行一个卷积,卷积和点的输出滤波器结合切除卷积线性卷积∗1,如图 2

标准卷积过滤器和切除可分离的过滤器。(一)标准卷积过滤器,(b)切除卷积过滤器,和(c)指出卷积过滤器。

2.2。密集的连接

DenseNet [ 17)提出了一个新的连接模式,连接每一个当前层的网络与以前的网络层,因此,当前层可以前一层的输出特征图作为输入功能。在某种程度上,这种联系可以减轻梯度消失的问题。由于每一层是与之前的所有层,前面的特性可以反复用于生成多特征图谱与少卷积核。

DenseNet以密集的街区为基本单元模块,如图 3。在图 3、致密的块结构由4人口增长率的连接层。这个结构中每一层需要前一层的输出特征图作为输入特征图。不同于剩余单位ResNet [ 8)相结合的特征图的和前一层一层,致密的块传输特性映射到所有后续层,添加特征图的尺寸,而不是添加特征图的像素值。

DenseNet结构。

在图 4,致密块只描特征图之前的卷积层和特征图的数量增加。因此,只有的大小 x l x l + 1 需要平等,和特征图的数量不需要是相同的。DenseNet使用hyperparameter增长率控制特性映射的数量在网络渠道。增长率 k 表明,输出每个网络层功能的地图 k 。每个卷积层,下一层的输入特征图将会增加 k 频道。

两层致密连接模块。

3所示。Dense-MobileNet

Dense-MobileNet向MobileNet引入了密集的街区的想法。卷积层具有相同大小的输入特征图谱在MobileNet模型取代密集的街区,和密集的连接内进行密集的街区。密集的街区可以充分利用前面的输出特征图卷积层,产生更多的特征图谱与更少的卷积核,并实现重复使用的功能。通过设置一个小的增长速度,MobileNet的参数和计算模型是进一步降低,因此,该模型可以更好地应用于移动设备与低内存。

在本文中,我们设计两个不同的Dense-MobileNet结构:Dense1-MobileNet Dense2-MobileNet。

3.1。Dense1-MobileNet

MobileNet模型是一个网络模型使用切除可分离卷积的基本单位。其切除卷积可分两层:切除卷积,卷积。Dense1-MobileNet卷积模型认为切除层和卷积层作为两个单独的卷积层,即。,the input feature maps of each depthwise convolution layer in the dense block are the superposition of the output feature maps in the previous convolution layer, and so is the input feature maps of each deep convolution layer, as shown in Figure 5。因为切除卷积是一种单通道卷积,输出的数量特征的地图中间切除卷积层是一样的输入特性的地图,这是和前一层的输出特征图。

Dense1-MobileNet模型的示意图。

DenseNet包含两个连续密集的街区之间的过渡层。过渡层减少了输入的数量特征图谱通过使用1∗卷积内核和部分输入的数量特征图谱通过使用2∗2平均池层。上面的两个操作可以缓解网络的计算负载。DenseNet不同,之间没有过渡层两个连续密集的街区在Dense1-MobileNet模型中,原因如下:(1)在MobileNet批规范化卷积进行在每层和最后一层的致密块1∗1点卷积层,可减少特征图;(2)此外,MobileNet减少了特征映射的大小通过使用卷积层而不是池层,也就是说,它直接混淆前面点的输出特性图卷积层2步减少特征图的大小。

3.2。Dense2-MobileNet

Dense2-MobileNet需要切除分离卷积作为一个整体,称为密度(切除分离卷积)块,其中包含两个点卷积层和切除脑回的层。切除的输入特征图谱分离卷积层生成的输出特征图谱的积累点分布在所有前切除卷积分离层,而点的输入特性图卷积层只是切除卷积生成的输出特性映射的致密块,不叠加前一层的输出特征图。所以,致密的块结构在这个模型中只有一个密集的连接,如图 6

Dense2-MobileNet模型的图。

在Dense2-MobileNet模型中,只有一个输入特征映射需要覆盖点的输出特性图上切除卷积分离卷积层。因为累积次数少的结构性特征图,输出的数量特征图的所有层致密块也更少的累积;所以,没有必要减少特征图的通道1∗卷积。叠加后产生的输出特征图前可分离旋转特性图的大小可以减少切除卷积2步;所以,Dense2-MobileNet模型不添加其他的过渡层。MobileNet模型最后汇集全球和直接连接到输出层。实验表明,全球平均的分类精度prepooling切除分离卷积密集连接高于全球平均池前两层切除分离卷积没有密集的连接。因此,切除分离卷积层之前,全球平均池也紧密相连。

3.3。Dense-MobileNet性能分析

Dense-MobileNet模型通过添加MobileNet密集的连接。通过设置一个小hyperparameter增长率,达到参数少,计算复杂度比MobileNet模型。MobileNet模型中,每2切除分离卷积层需要减少维度特征映射的深度卷积2步。由于输入特征图的大小相同的致密块需要相同的,只有2切除可分离卷积层包括在密集的街区。增长率至少在Dense-MobileNet设置通过使用不同数量的输入特征图的每一层在Dense-MobileNet MobileNets,。事实上,其他最优增长率可以选择基于平衡模型的压缩率和准确率。

摘要Dense1-MobileNet模型分解切除分离卷积成2层分离,并使用4旋转一个密集的街区。密集的街区的增长率在Dense1-MobileNet {32, 64, 64, 128, 128, 128, 256}。当Dense1-MobileNet的参数模型减少1/2 MobileNet,其计算减少MobileNet的5/11。

Dense2-MobileNet模型需要切除整个分离卷积和卷积4层致密的块,但只有一个密集的连接使用。Dense2-MobileNet模型的增长率{32,64,128,256,256,256,512}密集的街区。当模型参数下降1/3 MobileNet,其计算减少MobileNet的5/13。每个模型的参数和计算如表所示 1

每个模型的参数和计算。

网络模型 计算(百万) 参数数量(百万)
DenseNet121 1364.7 1.78
MobileNet 568年 3.21
Dense1-MobileNet 258年 1.51
Dense2-MobileNet 217年 1.12

DenseNet121模型在表 1包含121个回旋的层。与16增长率,过渡层的压缩比设置为0.5。所有输出特征图谱,在前面的致密块在过渡层用作输入特征图,和输出特征图的数量在这一层是输入特征图的数量的一半。从表可以看出 1,DenseNet121模型是影响致密连接,参数较少,但大量的计算。与此同时,两个改进Dense-MobileNets模型的参数和计算不到MobileNet模型。

4所示。实验和结果分析

为了证明D-MobileNet模型的有效性,我们进行分类实验在加州理工学院- 101 ( 18)和Uebingen动物属性,和比较实验结果与MobileNet模型和DenseNet121模型。

加州理工学院102年- 101数据集包含9145图像类,其中包括101名对象类和一个背景类。图像的数量在每个类范围从40到800。图 7显示了一些样品在加州理工学院- 101数据集。在实验中,数据集的图像首先标记,然后完全炒。1500图片是随机选择的测试图片,其余的照片被用作训练图像。

加州理工学院- 101年的样本数据集。

Uebingen动物属性数据库30475年50动物图片类。因为图片数量不一样在不同的类,21类最大的动物选择小样本数据的差异作为我们的数据集。有22742个数据集内的照片。这张照片数字在每个类范围从850年到1600年。图 8显示了样本在训练前Uebingen动物数据集。网络,图片数据集的标签,其中2000名随机选择的测试集,其余的照片作为训练数据集。

Uebingen动物样本(21)数据集。

实验使用Python语言TensorFlow框架下。模型上实现一个服务器配备泰坦NVIDIA GPU。RMSprop优化算法初始学习速率为0.1用于优化实验。根据训练样本的数量,我们设置不同时代数字减少学习速率。重初始化采用Xavier初始化方法,它可以确定参数的随机初始化分布范围根据输入和输出的数量在每个级别。它是一个均匀分布的初始偏差为零。共50000批次的训练,每一批的64个样本。ReLU用作激活函数。

2显示了四种分类方法的分类精度在加州理工学院- 101数据集,从表 230000次迭代后,我们可以看到,4分类模型的精度已经达到了一个平衡,和我们的2改进结构的准确性高于DenseNet121。与标准MobileNet模型的准确性相比,Dense1-MobileNets模型的准确性是低于标准MobileNet模型,而Dense2-MobileNets模型的准确性高于标准MobileNet模型。当迭代的数量是50000,Dense1-MobileNet模型的准确性降低0.13%,并减少更少的参数和结构计算。当迭代的数量是50000,Dense2-MobileNet模型的准确性提高了1.2%,和它的参数和计算相对减少。

分类精度(%)在加州理工学院- 101数据集。

的迭代次数 30000年 35000年 40000年 45000年 50000年
DenseNet 72.07 72.27 72.07 72年 71.9
MobileNets 76.73 76.6 76.6 76.8 76.6
Dense1_MobileNet 76.6 76.53 76.47 76.4 76.47
Dense2_MobileNet 77.6 77.67 77.87 77.8 77.8

3显示4分类方法的分类精度Uebingen动物从表数据集。 330000次迭代后,我们可以看到,4分类模型的精度也达到一个平衡,和我们的2改进结构的准确性高于DenseNet121。与标准MobileNet模型的准确性相比,Dense1-MobileNets模型的准确性是低于标准MobileNet模型,而Dense2-MobileNets模型的准确性高于标准MobileNet模型。当迭代的数量是5000,Dense1-MobileNet模型的准确性下降了0.1%,而Dense2-MobileNet模型的准确性增加1.2%。

分类精度(%)Uebingen动物数据集(21类)。

的迭代次数 30000年 35000年 40000年 45000年 50000年
DenseNet 91.85 92.15 91.95 92年 92年
MobileNets 91.6 91.6 91.6 91.55 91.6
Dense1_MobileNet 90.65 90.6 90.6 90.6 90.65
Dense2_MobileNet 92.1 92.05 92.1 92.05 92.05

上述两个实验hyperparameter相同条件下进行。当迭代的数量是5000,密集网络的分类精度Uebingen动物数据集是MobileNet模型的高出0.4%,但它是4.7%低于MobileNet模型的加州理工学院- 101数据集。从上面的两个实验,可以看出Dense1-MobileNet致密连接模型的分类精度损失约1%在两种数据集,在改善Dense2-MobileNet模式。主要原因是切除卷积,卷积切除分离卷积实现空间相关和通道相关标准的卷积,分别。然而,Dense1-MobileNet使用切除卷积,卷积作为单独的卷积层将会摧毁通道相关性,降低分类精度。输入特征的地图叠加平均Dense2-MobileNet池层是前面的输出特征图2深可分离旋转。它充分利用前面的特征图,减少了参数和计算,提高了分类精度。

为了进一步说明我们的方法的性能,我们测试了不同方法在真实数据和其他实验环境。在实验的比较,我们添加了DenseNet161与MobileNetV2 ( 19),和实验设置如表所示 4。数据集是我们自己的孩子的结肠镜息肉数据集。有两种类型的样本。一个包括样品息肉,另包括样品没有息肉。如图 9,上面的行与息肉的样品,样品没有息肉和较低的行。

实验设置对儿童的结肠镜息肉数据集。

属性 配置信息
操作系统 Ubuntu 14.04.5 LTS
CPU 英特尔®Xeon®CPU e5 - 2670 v3 @ 2.30 GHz
GPU Nvidia GeForce GTX泰坦X
CuDNN CuDNN 6.0.21
CUDA CUDA 18.0.61
框架 PyTorch

样品在孩子的结肠镜息肉数据集。

扩大后的训练集包含31450个样本,包括4005年息肉样本。测试集包含了4005个样本,其中包括1005息肉样本。每个样本的大小是260∗260。测试集的批处理大小设置为10,和最初的学习速率是0.1。每个网络列车200时代,和学习速率降低一半的前50时代然后衰变一半每20时代。过去的100时代的平均识别精度是作为最终的识别结果,如表所示 5

分类精度(%)对儿童的结肠镜息肉数据集。

网络 精度
DenseNet121 96.35
DenseNet161 96.57
MobileNet 96.45
MobileNetV2 96.46
Dense1_MobileNet 96.42
Dense2_MobileNet 96.48

因为只有两种类型的测试数据集,所有方法的分类精度相对较高,所有这些都超过96%。从表可以看出 5的准确性Dense2_MobileNet(使用完整的连接层)是一个小比DenseNet121, MobileNet, MobileNetV2,略低于DenseNet161。然而,DenseNet161更深层次的网络使用大量的参数和计算。在我们的实验中,参数和计算DenseNet161约26.48米和10360.23米,分别和参数MobileNetV2约2.23米和479.28米,分别。虽然MobileNetV2让网络更轻,它的参数和计算量仍Dense_MobileNets的两倍多。因此,Dense_MobileNets仍有一定的优势的综合评价分类的准确性,参数的个数,计算的数量。

5。结论

内存密集型和高度计算密集的特性,在深入学习限制在便携式设备中的应用。压缩和加速网络模型将降低分类精度。

本文介绍了Dense-MobileNet密集块图像分类模型。密集的街区作为基本结构改善MobileNet的结构,并提出了两个改进的模型。这两个模型可以减少参数和计算通过设置hyperparameter增长率。同时,实验表明,Dense2-MobileNet还可以提高分类的准确性。与MobileNet模型相比,尽管Dense1-MobileNet的分类精度降低,它减少了参数的数量和至少一半的计算量的近一半。一般来说,本文提出的模型可以更好地应用于移动设备。

数据可用性

所有数据集公共数据集,可以在线下载。

的利益冲突

作者宣称没有利益冲突。

确认

这项工作得到了国防预研基金(7301506)、国家自然科学基金(61070040),湖南省教育(17 c0043)和湖南省自然科学基金(2019 jj80105)。

Krizhevsky 一个。 Sutskever 我。 辛顿 g . E。 Imagenet与深卷积神经网络分类 先进的神经信息处理系统 2012年 25 美国剑桥,马 麻省理工学院出版社 1097年 1105年 N。 d . Y。 学习一门深紧凑的视觉跟踪的图像表示 先进的神经信息处理系统 2013年 美国剑桥,马 麻省理工学院出版社 809年 817年 W。 C。 X。 Y。 Y。 J。 通过深度图像目标识别特征自适应联合稀疏表示 计算智能和神经科学 2019年 2019年 9 8258275 10.1155 / 2019/8258275 W。 Y。 X。 W。 J。 卷积神经网络的发展及其在图像分类中的应用:一项调查 光学工程 2019年 58 4 040901年 10.1117/1. oe.58.4.040901 2 - s2.0 - 85065484828 F。 C。 X。 Y。 年代。 伤口的复合模型分割基于传统方法和神经网络 计算智能和神经科学 2018年 2018年 1 4967290 10.1155 / 2018/4967290 2 - s2.0 - 85053860775 Simonyan K。 Zisserman 一个。 很深的卷积网络大规模图像识别 美国学习国际会议上表示 2015年5月 圣地亚哥,加州,美国 Szegedy C。 W。 Y。 与旋转会更深 《IEEE计算机视觉与模式识别会议 2015年6月 波士顿,美国 1 9 10.1109 / cvpr.2015.7298594 2 - s2.0 - 84937522268 K。 X。 年代。 太阳 J。 深层残留图像识别的学习 《IEEE计算机视觉与模式识别会议 2016年6月 美国内华达州拉斯维加斯 770年 778年 10.1109 / cvpr.2016.90 2 - s2.0 - 84986274465 Denil M。 Shakibi B。 Dinh l Ranzato m·A。 De Freitas N。 在深入学习预测参数 诉讼进展的神经信息处理系统 2013年12月 太浩湖,NV,美国 2148年 2156年 丹顿 e . L。 W。 米菲 J。 勒存 Y。 费格斯 R。 利用线性结构在卷积网络有效的评估 先进的神经信息处理系统 2014年 美国剑桥,马 麻省理工学院出版社 1269年 1277年 年代。 H。 轻率地对待 w·J。 深度压缩:压缩与修剪深层神经网络,训练有素的量化和霍夫曼编码 2015年 https://arxiv.org/abs/1510.00149 W。 威尔逊 J。 年代。 温伯格 K。 Y。 压缩神经网络与散列方法 机器学习的国际会议 2015年7月 法国里尔 2285年 2294年 辛顿 G。 Vinyals O。 迪安 J。 蒸馏在神经网络的知识 2015年 https://arxiv.org/abs/1503.02531 Iandola f . N。 年代。 Moskewicz m·W。 阿什拉夫 K。 轻率地对待 w·J。 Keutzer K。 SqueezeNet: AlexNet-level准确性少50 x < 0.5 MB的模型参数和尺寸 2016年 https://arxiv.org/abs/1602.07360 霍华德 a·G。 M。 B。 Mobilenets:高效的移动视觉应用卷积神经网络 2017年 https://arxiv.org/abs/1704.04861 X。 X。 M。 太阳 J。 Shufflenet:一个非常高效的卷积神经网络移动设备 《IEEE计算机视觉与模式识别会议 2018年6月 美国犹他盐湖城 6848年 6856年 10.1109 / cvpr.2018.00716 2 - s2.0 - 85061081999 G。 Z。 Van Der Maaten l 温伯格 k问。 人口卷积网络连接 《IEEE计算机视觉与模式识别会议 2017年7月 美国檀香山,嗨 4700年 4708年 10.1109 / cvpr.2017.243 2 - s2.0 - 85035343801 F。 费格斯 R。 Perona一起 P。 从一些训练的例子学习生成可视化模型:101年增量贝叶斯方法测试对象类别 学报2004年计算机视觉与模式识别会议研讨会 2004年6月 美国华盛顿特区 178年 10.1109 / cvpr.2004.383 2 - s2.0 - 84932617705 桑德勒 M。 霍华德 一个。 M。 Zhmoginov 一个。 l Mobilenetv2:倒残差和线性瓶颈 《IEEE计算机视觉与模式识别会议 2018年6月 美国犹他盐湖城 4510年 4520年 10.1109 / cvpr.2018.00474 2 - s2.0 - 85062799511