作为一个轻量级的深层神经网络,MobileNet较少的参数和更高的分类精度。为了进一步减少网络参数的数量,提高分类精度,提出了致密块在DenseNets引入MobileNet。Dense-MobileNet模型中,卷积层大小相同的输入特征图谱MobileNet模型作为密集的街区,和密集的连接中进行密集的街区。新网络结构可以充分利用先前生成的输出特征图卷积层致密块,从而产生大量的特征图谱用更少的卷积核,反复使用特性。通过设置一个小的增长速度,进一步减少了网络参数和计算成本。两个Dense-MobileNet模型,Dense1-MobileNet和Dense2-MobileNet设计。实验表明,比MobileNet Dense2-MobileNet可以达到较高的识别精度,而只有用更少的参数和计算成本。
计算机图像分类是分析和分类图像为某些类别取代人工目视判读。它是计算机视觉领域的热点之一。因为分类特性是非常重要的,大部分的研究图像分类集中在图像特征提取和分类算法。传统的图像特征,如手动筛选和猪的设计。卷积神经网络自学习的能力,自适应、自组织;因此,它可以自动提取功能通过使用已知类别的先验知识,并避免复杂的特征提取过程在传统图像分类方法。同时,提取的特征具有高度表现力和高效。
深卷积神经网络(CNN)取得了重大成功在计算机视觉领域,如图像分类(
为了深卷积神经网络模型应用于实时应用程序和内存便携设备上,一个可行的解决办法是压缩和加快深卷积神经网络减少参数,计算成本和功耗。Denil et al。
此外,许多相关研究改进网络模型压缩网络。例如,SqueezeNet [
与VGG-16网络相比,MobileNet是一个轻量级的网络,它使用切除分离卷积深化网络,并减少参数和计算。同时,MobileNet ImageNet数据集的分类精度只减少了1%。然而,为了成为更好的应用于移动设备内存有限,MobileNet模型的参数和计算复杂性需要进一步降低。因此,我们使用密集块为基本单位的网络层MobileNet。通过设置一个小的增长速度,模型参数较少和较低的计算成本。新模型,即Dense-MobileNets,也可以达到较高的分类精度。
MobileNet是精简架构,使用切除可分离旋转构建轻量级深卷积神经网络,为移动和嵌入式视觉应用程序提供了一个有效的模型(
MobileNet的体系结构。
切除分离卷积过滤器是由切除卷积过滤器和卷积过滤器。切除卷积过滤器每个输入通道上执行一个卷积,卷积和点的输出滤波器结合切除卷积线性卷积∗1,如图
标准卷积过滤器和切除可分离的过滤器。(一)标准卷积过滤器,(b)切除卷积过滤器,和(c)指出卷积过滤器。
DenseNet [
DenseNet以密集的街区为基本单元模块,如图
DenseNet结构。
在图
两层致密连接模块。
Dense-MobileNet向MobileNet引入了密集的街区的想法。卷积层具有相同大小的输入特征图谱在MobileNet模型取代密集的街区,和密集的连接内进行密集的街区。密集的街区可以充分利用前面的输出特征图卷积层,产生更多的特征图谱与更少的卷积核,并实现重复使用的功能。通过设置一个小的增长速度,MobileNet的参数和计算模型是进一步降低,因此,该模型可以更好地应用于移动设备与低内存。
在本文中,我们设计两个不同的Dense-MobileNet结构:Dense1-MobileNet Dense2-MobileNet。
MobileNet模型是一个网络模型使用切除可分离卷积的基本单位。其切除卷积可分两层:切除卷积,卷积。Dense1-MobileNet卷积模型认为切除层和卷积层作为两个单独的卷积层,即。,the input feature maps of each depthwise convolution layer in the dense block are the superposition of the output feature maps in the previous convolution layer, and so is the input feature maps of each deep convolution layer, as shown in Figure
Dense1-MobileNet模型的示意图。
DenseNet包含两个连续密集的街区之间的过渡层。过渡层减少了输入的数量特征图谱通过使用1∗卷积内核和部分输入的数量特征图谱通过使用2∗2平均池层。上面的两个操作可以缓解网络的计算负载。DenseNet不同,之间没有过渡层两个连续密集的街区在Dense1-MobileNet模型中,原因如下:(1)在MobileNet批规范化卷积进行在每层和最后一层的致密块1∗1点卷积层,可减少特征图;(2)此外,MobileNet减少了特征映射的大小通过使用卷积层而不是池层,也就是说,它直接混淆前面点的输出特性图卷积层2步减少特征图的大小。
Dense2-MobileNet需要切除分离卷积作为一个整体,称为密度(切除分离卷积)块,其中包含两个点卷积层和切除脑回的层。切除的输入特征图谱分离卷积层生成的输出特征图谱的积累点分布在所有前切除卷积分离层,而点的输入特性图卷积层只是切除卷积生成的输出特性映射的致密块,不叠加前一层的输出特征图。所以,致密的块结构在这个模型中只有一个密集的连接,如图
Dense2-MobileNet模型的图。
在Dense2-MobileNet模型中,只有一个输入特征映射需要覆盖点的输出特性图上切除卷积分离卷积层。因为累积次数少的结构性特征图,输出的数量特征图的所有层致密块也更少的累积;所以,没有必要减少特征图的通道1∗卷积。叠加后产生的输出特征图前可分离旋转特性图的大小可以减少切除卷积2步;所以,Dense2-MobileNet模型不添加其他的过渡层。MobileNet模型最后汇集全球和直接连接到输出层。实验表明,全球平均的分类精度prepooling切除分离卷积密集连接高于全球平均池前两层切除分离卷积没有密集的连接。因此,切除分离卷积层之前,全球平均池也紧密相连。
Dense-MobileNet模型通过添加MobileNet密集的连接。通过设置一个小hyperparameter增长率,达到参数少,计算复杂度比MobileNet模型。MobileNet模型中,每2切除分离卷积层需要减少维度特征映射的深度卷积2步。由于输入特征图的大小相同的致密块需要相同的,只有2切除可分离卷积层包括在密集的街区。增长率至少在Dense-MobileNet设置通过使用不同数量的输入特征图的每一层在Dense-MobileNet MobileNets,。事实上,其他最优增长率可以选择基于平衡模型的压缩率和准确率。
摘要Dense1-MobileNet模型分解切除分离卷积成2层分离,并使用4旋转一个密集的街区。密集的街区的增长率在Dense1-MobileNet {32, 64, 64, 128, 128, 128, 256}。当Dense1-MobileNet的参数模型减少1/2 MobileNet,其计算减少MobileNet的5/11。
Dense2-MobileNet模型需要切除整个分离卷积和卷积4层致密的块,但只有一个密集的连接使用。Dense2-MobileNet模型的增长率{32,64,128,256,256,256,512}密集的街区。当模型参数下降1/3 MobileNet,其计算减少MobileNet的5/13。每个模型的参数和计算如表所示
每个模型的参数和计算。
| 网络模型 | 计算(百万) | 参数数量(百万) |
|---|---|---|
| DenseNet121 | 1364.7 | 1.78 |
| MobileNet | 568年 | 3.21 |
| Dense1-MobileNet | 258年 | 1.51 |
| Dense2-MobileNet | 217年 | 1.12 |
DenseNet121模型在表
为了证明D-MobileNet模型的有效性,我们进行分类实验在加州理工学院- 101 (
加州理工学院102年- 101数据集包含9145图像类,其中包括101名对象类和一个背景类。图像的数量在每个类范围从40到800。图
加州理工学院- 101年的样本数据集。
Uebingen动物属性数据库30475年50动物图片类。因为图片数量不一样在不同的类,21类最大的动物选择小样本数据的差异作为我们的数据集。有22742个数据集内的照片。这张照片数字在每个类范围从850年到1600年。图
Uebingen动物样本(21)数据集。
实验使用Python语言TensorFlow框架下。模型上实现一个服务器配备泰坦NVIDIA GPU。RMSprop优化算法初始学习速率为0.1用于优化实验。根据训练样本的数量,我们设置不同时代数字减少学习速率。重初始化采用Xavier初始化方法,它可以确定参数的随机初始化分布范围根据输入和输出的数量在每个级别。它是一个均匀分布的初始偏差为零。共50000批次的训练,每一批的64个样本。ReLU用作激活函数。
表
分类精度(%)在加州理工学院- 101数据集。
| 的迭代次数 | 30000年 | 35000年 | 40000年 | 45000年 | 50000年 |
|---|---|---|---|---|---|
| DenseNet | 72.07 | 72.27 | 72.07 | 72年 | 71.9 |
| MobileNets | 76.73 | 76.6 | 76.6 | 76.8 | 76.6 |
| Dense1_MobileNet | 76.6 | 76.53 | 76.47 | 76.4 | 76.47 |
| Dense2_MobileNet |
|
|
|
|
|
表
分类精度(%)Uebingen动物数据集(21类)。
| 的迭代次数 | 30000年 | 35000年 | 40000年 | 45000年 | 50000年 |
|---|---|---|---|---|---|
| DenseNet | 91.85 |
|
91.95 | 92年 | 92年 |
| MobileNets | 91.6 | 91.6 | 91.6 | 91.55 | 91.6 |
| Dense1_MobileNet | 90.65 | 90.6 | 90.6 | 90.6 | 90.65 |
| Dense2_MobileNet |
|
92.05 |
|
|
|
上述两个实验hyperparameter相同条件下进行。当迭代的数量是5000,密集网络的分类精度Uebingen动物数据集是MobileNet模型的高出0.4%,但它是4.7%低于MobileNet模型的加州理工学院- 101数据集。从上面的两个实验,可以看出Dense1-MobileNet致密连接模型的分类精度损失约1%在两种数据集,在改善Dense2-MobileNet模式。主要原因是切除卷积,卷积切除分离卷积实现空间相关和通道相关标准的卷积,分别。然而,Dense1-MobileNet使用切除卷积,卷积作为单独的卷积层将会摧毁通道相关性,降低分类精度。输入特征的地图叠加平均Dense2-MobileNet池层是前面的输出特征图2深可分离旋转。它充分利用前面的特征图,减少了参数和计算,提高了分类精度。
为了进一步说明我们的方法的性能,我们测试了不同方法在真实数据和其他实验环境。在实验的比较,我们添加了DenseNet161与MobileNetV2 (
实验设置对儿童的结肠镜息肉数据集。
| 属性 | 配置信息 |
|---|---|
| 操作系统 | Ubuntu 14.04.5 LTS |
| CPU | 英特尔®Xeon®CPU e5 - 2670 v3 @ 2.30 GHz |
| GPU | Nvidia GeForce GTX泰坦X |
| CuDNN | CuDNN 6.0.21 |
| CUDA | CUDA 18.0.61 |
| 框架 | PyTorch |
样品在孩子的结肠镜息肉数据集。
扩大后的训练集包含31450个样本,包括4005年息肉样本。测试集包含了4005个样本,其中包括1005息肉样本。每个样本的大小是260∗260。测试集的批处理大小设置为10,和最初的学习速率是0.1。每个网络列车200时代,和学习速率降低一半的前50时代然后衰变一半每20时代。过去的100时代的平均识别精度是作为最终的识别结果,如表所示
分类精度(%)对儿童的结肠镜息肉数据集。
| 网络 | 精度 |
|---|---|
| DenseNet121 | 96.35 |
| DenseNet161 | 96.57 |
| MobileNet | 96.45 |
| MobileNetV2 | 96.46 |
| Dense1_MobileNet | 96.42 |
| Dense2_MobileNet | 96.48 |
因为只有两种类型的测试数据集,所有方法的分类精度相对较高,所有这些都超过96%。从表可以看出
内存密集型和高度计算密集的特性,在深入学习限制在便携式设备中的应用。压缩和加速网络模型将降低分类精度。
本文介绍了Dense-MobileNet密集块图像分类模型。密集的街区作为基本结构改善MobileNet的结构,并提出了两个改进的模型。这两个模型可以减少参数和计算通过设置hyperparameter增长率。同时,实验表明,Dense2-MobileNet还可以提高分类的准确性。与MobileNet模型相比,尽管Dense1-MobileNet的分类精度降低,它减少了参数的数量和至少一半的计算量的近一半。一般来说,本文提出的模型可以更好地应用于移动设备。
所有数据集公共数据集,可以在线下载。
作者宣称没有利益冲突。
这项工作得到了国防预研基金(7301506)、国家自然科学基金(61070040),湖南省教育(17 c0043)和湖南省自然科学基金(2019 jj80105)。