2.1。人口卷积神经网络连接的图解流DCNN图所示
1。
假设一个隐藏/正常的形象<我nl我ne-formula>
一个米米l:mi>
0米米l:mn>
,这是分配给CNN。模型<我nl我ne-formula>
N米米l:mi>
层,利用非线性变换<我nl我ne-formula>
我米米l:mi>
n米米l:mi>
·米米l:mi>
这样<我nl我ne-formula>
n米米l:mi>
显示层的索引(
20.]。<我nl我ne-formula>
我米米l:mi>
n米米l:mi>
·米米l:mi>
显示一组运营商像池、纠正线性单元(ReLU)卷积(Conv)和批处理规范化(BN)。<我nl我ne-formula>
一个米米l:mi>
ℓ米米l:mi>
显示的结果<我nl我ne-formula>
n米米l:mi>
th米米l:mtext>
层。然而,现有的CNN连接的结果<我nl我ne-formula>
n米米l:mi>
th米米l:mtext>
层作为输入<我nl我ne-formula>
n米米l:mi>
+米米l:mo>
1米米l:mn>
th米米l:mtext>
层。它实现了层过渡<我nl我ne-formula>
一个米米l:mi>
n米米l:mi>
=米米l:mo>
我米米l:mi>
n米米l:mi>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
。跳过加入ResNets利用,避免了非线性转换利用身份符等
(1)米米l:mtext>
一个米米l:mi>
n米米l:mi>
=米米l:mo>
我米米l:mi>
n米米l:mi>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
+米米l:mo>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
。米米l:mo>
ResNets取得更好的梯度流相比,CNN。然而,身份的求和算子的输出<我nl我ne-formula>
我米米l:mi>
n米米l:mi>
可能会阻碍模型中的数据流。
因此,为了提高数据流,DenseNet设计。它包含从一个给定的直接链接层隔层。的<我nl我ne-formula>
n米米l:mi>
th米米l:mtext>
层需要所有先前层的特征图谱,<我nl我ne-formula>
一个米米l:mi>
0米米l:mn>
,米米l:mo>
…米米l:mo>
,米米l:mo>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
作为输入:
(2)米米l:mtext>
一个米米l:mi>
n米米l:mi>
=米米l:mo>
我米米l:mi>
n米米l:mi>
一个米米l:mi>
0米米l:mn>
,米米l:mo>
一个米米l:mi>
1米米l:mn>
,米米l:mo>
…米米l:mo>
,米米l:mo>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
,米米l:mo>
在这里,<我nl我ne-formula>
一个米米l:mi>
0米米l:mn>
,米米l:mo>
一个米米l:mi>
1米米l:mn>
,米米l:mo>
…米米l:mo>
,米米l:mo>
一个米米l:mi>
n米米l:mi>
−米米l:mo>
1米米l:mn>
显示功能的集成地图获得层<我nl我ne-formula>
0米米l:mn>
,米米l:mo>
…米米l:mo>
,米米l:mo>
n米米l:mi>
−米米l:mo>
1米米l:mn>
。
我米米l:mi>
n米米l:mi>
·米米l:mi>
被定义为一组操作符。它包含BN, ReLU,<我nl我ne-formula>
3米米l:mn>
×米米l:mo>
3米米l:mn>
Conv。
集成运营商利用方程(
2)是不可持续的,如果有一些特征图的大小的变化。CNN的downsampling层随特征图的大小。为了实现将采样,模型分为各种人口密集的街区连接。层块中表示为过渡层。在本文中,过渡层利用BN和1<我nl我ne-formula>
×米米l:mo>
1 Conv后跟一个2<我nl我ne-formula>
×米米l:mo>
2平均池层。没有链接在密集的街区除了过渡层。
如果每个<我nl我ne-formula>
我米米l:mi>
n米米l:mi>
生成<我nl我ne-formula>
k米米l:mi>
特征图,它认为<我nl我ne-formula>
n米米l:mi>
th米米l:mtext>
层与<我nl我ne-formula>
J米米l:mi>
0米米l:mn>
+米米l:mo>
J米米l:mi>
×米米l:mo>
n米米l:mi>
−米米l:mo>
1米米l:mn>
输入特征图。<我nl我ne-formula>
J米米l:mi>
0米米l:mn>
定义输入层的通道。DenseNet在CNN的主要意义是封闭层,例如,<我nl我ne-formula>
J米米l:mi>
=米米l:mo>
12米米l:mn>
。<我nl我ne-formula>
J米米l:mi>
代表DenseNet的增长率。每一层的合并<我nl我ne-formula>
J米米l:mi>
特征图。增长速度调节的细节层的贡献全球的每一个州。全球国家全球定义;因此,它不需要重新定义在每一层。
每层将计算<我nl我ne-formula>
J米米l:mi>
特征图,但它可能有更多的输入。1<我nl我ne-formula>
×米米l:mo>
1 Conv利用瓶颈层每3之前<我nl我ne-formula>
×米米l:mo>
3 Conv最小化特征图的大小,提高了算法的计算速度。DenseNet这个模型是有效的,DenseNet瓶颈层可以被定义为BN-ReLU-Conv (1<我nl我ne-formula>
×米米l:mo>
1)-BN-ReLU-Conv (3<我nl我ne-formula>
×米米l:mo>
3)版本的<我nl我ne-formula>
我米米l:mi>
n米米l:mi>
,如DenseNet-B。在本文中,1<我nl我ne-formula>
×米米l:mo>
1 Conv提供<我nl我ne-formula>
4米米l:mn>
J米米l:mi>
特征图。
提高密度模型,特征图谱最小化的过渡层。如果一个密集的街区<我nl我ne-formula>
c米米l:mi>
特征图,然后计算的过渡层<我nl我ne-formula>
⌊米米l:mo>
θ米米l:mi>
c米米l:mi>
⌋米米l:mo>
输出特征图。<我nl我ne-formula>
0米米l:mn>
<米米l:mo>
θ米米l:mi>
≤米米l:mo>
1米米l:mn>
被表示为一个压缩因子。如果<我nl我ne-formula>
θ米米l:mi>
=米米l:mo>
1米米l:mn>
,然后通过过渡层特征图的大小保持不变。
DenseNet包含四个密集的街区。每个密集块包含一个相同数量的层。最初,Conv 16输出通道实现对输入图像。Conv层有内核大小3<我nl我ne-formula>
×米米l:mo>
3,四面八方的输入是在保持固定大小的特性映射。1<我nl我ne-formula>
×米米l:mo>
1 Conv紧随其后的是2<我nl我ne-formula>
×米米l:mo>
2之间的平均池两个连接密集的街区。最后,全球平均池实现,softmax激活函数。特征地图大小在浓密的块的大小是32<我nl我ne-formula>
×米米l:mo>
32岁,16<我nl我ne-formula>
×米米l:mo>
16日和8<我nl我ne-formula>
×米米l:mo>
分别为8。DenseNet与配置<我nl我ne-formula>
N米米l:mi>
=米米l:mo>
40米米l:mn>
,米米l:mo>
J米米l:mi>
=米米l:mo>
12米米l:mn>
,<我nl我ne-formula>
N米米l:mi>
=米米l:mo>
One hundred.米米l:mn>
,米米l:mo>
J米米l:mi>
=米米l:mo>
12米米l:mn>
,<我nl我ne-formula>
N米米l:mi>
=米米l:mo>
One hundred.米米l:mn>
,米米l:mo>
J米米l:mi>
=米米l:mo>
24米米l:mn>
计算。输入图像的大小是256<我nl我ne-formula>
×米米l:mo>
256年。Conv层<我nl我ne-formula>
2米米l:mn>
J米米l:mi>
卷积有大小5<我nl我ne-formula>
×米米l:mo>
5和2的步伐。
的网络配置和其他hyperparameters DenseNet调整使用<我nl我ne-formula>
θ米米l:mi>
−米米l:mo>
NSGA米米l:mtext>
−米米l:mo>
三世米米l:mtext>
。