1。介绍gydF4y2Ba
准确地细分前列腺癌的磁共振成像(MRI)提供了非常有用的信息等临床应用计算机辅助诊断和图像引导干预措施(gydF4y2Ba
1gydF4y2Ba]。然而,这是一个非常具有挑战性的任务由于缺乏明确的边界定义和重大变化的形状和纹理图像不同患者(gydF4y2Ba
2gydF4y2Ba)如图gydF4y2Ba
1gydF4y2Ba。gydF4y2Ba
挑战分段前列腺先生图像。(一)成像膀胱内的工件。(b)弱边界。(c)复杂的强度分布。gydF4y2Ba
根据模型用于指导信息,我们可以将现有的前列腺癌MRI分割方法分为四类:基于区域,基于形状之前,基于轮廓和分类方法(gydF4y2Ba
3gydF4y2Ba- - - - - -gydF4y2Ba
5gydF4y2Ba]。托斯等。gydF4y2Ba
6gydF4y2Ba]提供了一个主动形状模型(ASM)初始化方案前列腺分割,利用多通道的信息来初始化ASM。Samiee et al。gydF4y2Ba
7gydF4y2Ba使用形状)提出了一个模型之前完善前列腺前列腺癌边界;克莱恩(gydF4y2Ba
8gydF4y2Ba)提出了一个自动分割模型,该模型是基于手动匹配分割地图图像。gydF4y2Ba
在过去的几年里,深度学习的基础技术,特别是完全卷积神经网络(FCNs),已被证明非常有效的图像分割(gydF4y2Ba
9gydF4y2Ba- - - - - -gydF4y2Ba
11gydF4y2Ba),包括生物医学图像分割。朱et al。gydF4y2Ba
12gydF4y2Ba)提出了一个深深的监督CNN,利用剩余信息准确地细分前列腺癌MRI。包和涌gydF4y2Ba
13gydF4y2Ba]引入了多尺度结构FCN模型脑MRI分割通过捕获歧视特征从输入补丁。深度学习引入生物医学图像分割的其他的例子可以发现在gydF4y2Ba
14gydF4y2Ba- - - - - -gydF4y2Ba
17gydF4y2Ba]。gydF4y2Ba
然而,一个简单的扩展的二维图像分割方法3 d可能并不会带来令人满意的性能,由于许多医学成像模式的各向异性性质。为了解决这个问题,陈等人。gydF4y2Ba
18gydF4y2Ba)提出了一个方法来把完全卷积神经网络与扩展的卷积长短期记忆(C-LSTM),改进的三维医学图像分割性能的同时利用FCNs和RNNs的抽象能力。然而,他们的模型依赖于所谓U-Net [gydF4y2Ba
18gydF4y2Ba)提取图像特征。下面的双向卷积LSTMs (BDC-LSTMs)只提取的特征。因此,协助图像分割可能会丢失有用的信息。gydF4y2Ba
前列腺细分任务,一个不可逾越的挑战是具体形象片在先端和基部总是失去了清晰的界限和必要的信息。这种现象使前列腺分割的主要困难。然而,形状之前是一个有效的方法来解决这一挑战。例如,秦et al。gydF4y2Ba
19gydF4y2Ba)提出了一种自适应形状之前限制定向水平集模型(ASPDLS)部分膀胱壁的内部和外部的界限,实现了准确的分割结果。出于收购的MRI图像通常intraslice分辨率和高之间存在空间相关性高片相同的病人,我们利用interslice指南之前作为形状特征提取的过程,探索从interslice必要信息以缓解信息丢失,如图gydF4y2Ba
2gydF4y2Ba。除了RNNs具有优越性能的架构建模序列数据(gydF4y2Ba
17gydF4y2Ba,gydF4y2Ba
20.gydF4y2Ba,gydF4y2Ba
21gydF4y2Ba]。提高前列腺分割的性能,在本文中,我们提出一个网络,称为UR-Net,可治疗前列腺切片数据序列,利用intraslice协助分割背景和特性。gydF4y2Ba
Interslice指南之前作为形状特征提取的过程。gydF4y2Ba
本文的贡献主要有两种。首先,我们对待前列腺切片数据序列,利用interslice指南之前作为形状特征提取的过程,探索从interslice必要信息。第二,我们探索的力量RNNs而不是传统的cnn提取图像特征。实验结果表明,使用RNNs可以大大提高前列腺分割的性能。gydF4y2Ba
剩下的纸是组织如下。递归神经网络的体系结构,提出了网络体系结构的细节描述的部分gydF4y2Ba
2gydF4y2Ba。部分gydF4y2Ba
3gydF4y2Ba给出了实验结果和性能评估。中提供的结论部分gydF4y2Ba
4gydF4y2Ba。gydF4y2Ba
2。UR-NetgydF4y2Ba
在本节中,我们首先回顾经典的递归神经网络(RNNs),然后继续描述RNNs长短期记忆的扩展(LSTM) [gydF4y2Ba
22gydF4y2Ba)和卷积长期短期记忆(CLSTM) [gydF4y2Ba
18gydF4y2Ba特定的复发性神经网络)。之后,该UR-Net详细提出。gydF4y2Ba
2.1。递归神经网络(RNNs)gydF4y2Ba
递归神经网络(RNN)历史悠久的人工神经网络社区设计模型时间序列。典型的架构RNNs图所示gydF4y2Ba
3gydF4y2Ba。这个模型已经显示出巨大的希望在许多任务,例如NLP (gydF4y2Ba
23gydF4y2Ba)、non-Markovian控制和文本任务(gydF4y2Ba
24gydF4y2Ba]。RNNs背后的思想是利用顺序信息的输出是依赖于先前的计算。RNNs记忆,能记住的信息是目前计算。在理论gydF4y2Ba
25gydF4y2Ba],RNNs记得任意长度的信息序列,利用前面的计算,但在实践中它们仅限于回首只有几步远,因为梯度消失的问题。gydF4y2Ba
架构的复发性神经网络和递归神经网络展开成一个完整的网络。gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
在时间步是输入吗gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
在时间步是隐藏的状态吗gydF4y2Ba
tgydF4y2Ba
,这是网络的“记忆”。gydF4y2Ba
ygydF4y2Ba
tgydF4y2Ba
在时间步是输出吗gydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
在每个时间步gydF4y2Ba
tgydF4y2Ba
,RNNs利用输入数据gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
和前一个隐藏的状态gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
计算下一个隐藏的状态gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
和输出gydF4y2Ba
ygydF4y2Ba
tgydF4y2Ba
通过应用下面的递归操作:gydF4y2Ba
(1)gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
fgydF4y2Ba
hgydF4y2Ba
WgydF4y2Ba
hgydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
hgydF4y2Ba
,gydF4y2Ba
ygydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
fgydF4y2Ba
ogydF4y2Ba
WgydF4y2Ba
ogydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ogydF4y2Ba
,gydF4y2Ba
在哪里gydF4y2Ba
fgydF4y2Ba
以聪明元素非线性函数;gydF4y2Ba
WgydF4y2Ba
hgydF4y2Ba
,gydF4y2Ba
UgydF4y2Ba
,gydF4y2Ba
bgydF4y2Ba
hgydF4y2Ba
的参数是隐藏状态;gydF4y2Ba
WgydF4y2Ba
ogydF4y2Ba
和gydF4y2Ba
bgydF4y2Ba
ogydF4y2Ba
输出参数。gydF4y2Ba
在过去的十年中,已经探索了几种方法训练RNNs,如反向传播通过时间(BPTT) [gydF4y2Ba
26gydF4y2Ba),实时周期性学习(RTRL) [gydF4y2Ba
27gydF4y2Ba,基于扩展卡尔曼滤波(EKF)技术(gydF4y2Ba
28gydF4y2Ba]。虽然这些训练方法可以帮助我们训练RNNs,他们遭受消失梯度问题。gydF4y2Ba
2.2。长短期记忆(LSTM)gydF4y2Ba
解决的问题消失梯度和长期依赖驻留在RNNs [gydF4y2Ba
29日gydF4y2BaRNN的),一个特殊的实现,长期短期记忆(LSTM),介绍了[的Hochreiter和。施密德胡贝尔表示gydF4y2Ba
22gydF4y2Ba]。LSTM如图的架构gydF4y2Ba
4gydF4y2Ba。gydF4y2Ba
体系结构的短期记忆。gydF4y2Ba
一个LSTM单元由一个输入通道(gydF4y2Ba
我gydF4y2Ba
),一个忘记门(gydF4y2Ba
fgydF4y2Ba
),一个输出门(gydF4y2Ba
ogydF4y2Ba
),和一个存储单元(gydF4y2Ba
cgydF4y2Ba
),拥有的能力记住或遗忘的信息可能很长一段时间。输入通道和控制了细胞输入数据到内存中。忘记门决定什么样的信息我们要扔掉形成记忆细胞。门的输出决定哪些部分的数据存储单元的输出,同时控制输出数据流进其他的网络。gydF4y2Ba
LSTM的步骤可以描述如下:gydF4y2Ba
(gydF4y2Ba
1gydF4y2Ba
)gydF4y2Ba
的第一步LSTM模型对应于(gydF4y2Ba
2gydF4y2Ba),是决定哪些信息应该从输入数据被丢弃。这个决定是由忘记门;忘记门的体系结构如图gydF4y2Ba
5gydF4y2Ba。忘记门具有遗忘层由一个s形的函数。获取数据时从之前的阶段gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
和输入数据gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
,乙状结肠函数输出一个数字0或1的每个数据单元的状态gydF4y2Ba
CgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
,0代表完全把它扔掉,而1代表存储它。gydF4y2Ba
(2)gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
fgydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
fgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
fgydF4y2Ba
。gydF4y2Ba
架构LSTM忘记门的。gydF4y2Ba
(gydF4y2Ba
2gydF4y2Ba
)gydF4y2Ba
第二步是决定什么新的信息我们应该存储单元中。输入门由一个s形的函数和双曲正切函数,如图gydF4y2Ba
6gydF4y2Ba。当输入门收到一个新的数据时,乙状结肠函数决定什么样的价值观将被更新和双曲正切函数创建一个候选人值gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
,这些操作对应于(gydF4y2Ba
3gydF4y2Ba)。最后,输入门控制候选人值更新细胞状态。gydF4y2Ba
(3)gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
我gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
我gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
WgydF4y2Ba
ggydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ggydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ggydF4y2Ba
。gydF4y2Ba
在LSTM架构输入的门。gydF4y2Ba
(gydF4y2Ba
3gydF4y2Ba
)gydF4y2Ba
当我们得到信息来自忘记门和输入门,我们可以利用(gydF4y2Ba
4gydF4y2Ba)更新细胞状态。这个操作可以下降一些无用的信息。gydF4y2Ba
(4)gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
(gydF4y2Ba
4gydF4y2Ba
)gydF4y2Ba
第四步是决定我们应该输出什么信息是基于细胞状态。最终结果由两部分组成,第一部分来自细胞状态选择一个双曲正切函数。第二部分将来自输入数据选择一个s形的函数。门图所示的输出gydF4y2Ba
7gydF4y2Ba和计算方法gydF4y2Ba
(5)gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
ogydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ogydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ogydF4y2Ba
,gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
建筑在LSTM输出的门。gydF4y2Ba
把这些放在一起,盖茨在离散时间gydF4y2Ba
tgydF4y2Ba
(gydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
1、2gydF4y2Ba
,gydF4y2Ba
…gydF4y2Ba
)gydF4y2Ba
计算如下:gydF4y2Ba
(6)gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
我gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
我gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
fgydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
fgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
fgydF4y2Ba
,gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
ogydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ogydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ogydF4y2Ba
,gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
WgydF4y2Ba
ggydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ggydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ggydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
+gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
,gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
=gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
。gydF4y2Ba
标准LSTM架构只是为一维数据而设计的。它不能直接应用于2 d图像数据。应用LSTM在前列腺图像,在我们的模型中,我们应用卷积LSTM (CLSTM)卷积层。这可以通过使用一个卷积算子替换矩阵乘法。核心CLSTM方程给出gydF4y2Ba
(7)gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
我gydF4y2Ba
dgydF4y2Ba
∗gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
我gydF4y2Ba
dgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
我gydF4y2Ba
dgydF4y2Ba
,gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
fgydF4y2Ba
dgydF4y2Ba
∗gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
fgydF4y2Ba
dgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
fgydF4y2Ba
dgydF4y2Ba
,gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
σgydF4y2Ba
WgydF4y2Ba
ogydF4y2Ba
dgydF4y2Ba
∗gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ogydF4y2Ba
dgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ogydF4y2Ba
dgydF4y2Ba
,gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
WgydF4y2Ba
ggydF4y2Ba
dgydF4y2Ba
∗gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
UgydF4y2Ba
ggydF4y2Ba
dgydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
bgydF4y2Ba
ggydF4y2Ba
dgydF4y2Ba
,gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
fgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
∘gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
dgydF4y2Ba
+gydF4y2Ba
我gydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
∘gydF4y2Ba
ggydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
,gydF4y2Ba
hgydF4y2Ba
tgydF4y2Ba
dgydF4y2Ba
=gydF4y2Ba
ogydF4y2Ba
tgydF4y2Ba
∘gydF4y2Ba
双曲正切gydF4y2Ba
gydF4y2Ba
cgydF4y2Ba
tgydF4y2Ba
,gydF4y2Ba
在哪里gydF4y2Ba
(gydF4y2Ba
∗gydF4y2Ba
)gydF4y2Ba
表示卷积算子和gydF4y2Ba
hgydF4y2Ba
是输出层;gydF4y2Ba
dgydF4y2Ba
表示这一事实CLSTM作品在某些方向一片一片。gydF4y2Ba
2.3。提出的网络体系结构gydF4y2Ba
为了有效地利用interslice信息,我们引入一个双向卷积LSTM (BDC-LSTM)层深度学习网络。BDC-LSTM层由两套CLSTMs提取功能如图gydF4y2Ba
8gydF4y2Ba。两个CLSTM流工作在两个相反的方向。而不是每个前列腺映像序列化成连续的补丁,然后利用双向LSTM段每个补丁,在我们的方法中,我们把每个图像作为一个整体和三个相邻图像片组成一个序列。gydF4y2Ba
BDC-LSTM的架构。一个BDC-LSTM层包含两层CLSTM工作在两个相反的方向。一个来自gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
1gydF4y2Ba
来gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
和其他的gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
来gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
1gydF4y2Ba
。结果两个CLSTM层连接在一起作为输入的下一层。gydF4y2Ba
当我们把一个图像序列用gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
,gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
,gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
1gydF4y2Ba
到BDC-LSTM层如图gydF4y2Ba
8gydF4y2Ba层将利用interslice和intraslice信息提取前列腺功能。首先,第一片层提取的gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
特性。然后的结果gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
和gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
之前将被视为一个形状结合后片吗gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
和gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
1gydF4y2Ba
作为输入来指导依次细分的过程。同时每个片层将提取的特征从相反的方向gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
+gydF4y2Ba
1gydF4y2Ba
来gydF4y2Ba
xgydF4y2Ba
tgydF4y2Ba
- - - - - -gydF4y2Ba
1gydF4y2Ba
,最后将两种不同特性的地图联系在一起作为输入的下一层。gydF4y2Ba
我们提出了网络体系结构如图gydF4y2Ba
10gydF4y2Ba。我们的方法遵循的主要框架的架构U-Net [gydF4y2Ba
30.gydF4y2Ba),因为U-Net可以成功地提取图像特征与一个合理的网络深度细分。事实上,U-Net取得先进的性能在许多生物医学图像处理任务。例如,Milletari et al。gydF4y2Ba
31日gydF4y2Ba)提出了体积完全卷积神经网络医学图像分割,称为V-Net。该模型利用U-Net处理核磁共振的力量卷。U-Net如图的架构gydF4y2Ba
9gydF4y2Ba。gydF4y2Ba
U-Net的体系结构。gydF4y2Ba
提出了网络的体系结构。gydF4y2Ba
提出的网络体系结构由承包路径在左边,右边的路径,和分类路径在下面。承包路径和广阔的路径具有四个阶段,每个阶段由一个BDC-LSTM层。网络一个年底softmax层是补充道。在缔约阶段,gydF4y2Ba
2gydF4y2Ba
×gydF4y2Ba
2gydF4y2Ba
马克斯池操作2是附加的步伐将采样和渠道的数量特性是每个阶段后翻了一倍。在对面,在广阔的舞台上,第一步是upsampling,使得每次特征图的宽度和高度翻倍,直到他们达到原始图像的大小。同时,upsampling也半通道的数量特征。在卷积来减少信息损失,连接从左承包路径右广阔的道路。连接可以提供特性提取从早期到晚期,也可以加快网络的收敛。为了避免过度拟合,辍学操作已经添加在每个阶段的结束。gydF4y2Ba
2.4。网络目标函数gydF4y2Ba
前列腺图像,解剖学的兴趣通常占据了一个非常小的一个图像的一部分。这带来的问题,网络总是忽略分割部分,成为偏向于背景。这经常导致学习过程陷入局部最小值。为了克服这个问题,我们运用骰子系数作为目标函数。骰子系数函数可以更多关注细分部分的影响。骰子系数(DSC) [gydF4y2Ba
19gydF4y2Ba)函数可以写成两个图像gydF4y2Ba
(8)gydF4y2Ba
DSCgydF4y2Ba
年代gydF4y2Ba
一个gydF4y2Ba
,gydF4y2Ba
年代gydF4y2Ba
米gydF4y2Ba
=gydF4y2Ba
2gydF4y2Ba
年代gydF4y2Ba
一个gydF4y2Ba
∩gydF4y2Ba
年代gydF4y2Ba
米gydF4y2Ba
年代gydF4y2Ba
一个gydF4y2Ba
+gydF4y2Ba
年代gydF4y2Ba
米gydF4y2Ba
,gydF4y2Ba
在哪里gydF4y2Ba
年代gydF4y2Ba
一个gydF4y2Ba
表示自动分割的结果gydF4y2Ba
年代gydF4y2Ba
米gydF4y2Ba
表示手动分割的结果。gydF4y2Ba
在我们的工作中,地面真理和分割的结果是二进制图像,所以骰子系数DSC可以写成两个二进制图像gydF4y2Ba
(9)gydF4y2Ba
DSCgydF4y2Ba
=gydF4y2Ba
2gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
+gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
,gydF4y2Ba
NgydF4y2Ba
表示图像中像素的总数,和gydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
,gydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
分别表示像素从地面真理和分割。gydF4y2Ba
这种配方的骰子可以分化产生梯度:gydF4y2Ba
(10)gydF4y2Ba
∂gydF4y2Ba
DgydF4y2Ba
∂gydF4y2Ba
pgydF4y2Ba
jgydF4y2Ba
=gydF4y2Ba
2gydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
+gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
- - - - - -gydF4y2Ba
2gydF4y2Ba
pgydF4y2Ba
jgydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
pgydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
+gydF4y2Ba
∑gydF4y2Ba
我gydF4y2Ba
NgydF4y2Ba
问gydF4y2Ba
我gydF4y2Ba
2gydF4y2Ba
2gydF4y2Ba
。gydF4y2Ba
此外,Milletari et al。gydF4y2Ba
31日gydF4y2Ba)已经证明DSC比相同网络训练与物流克服局部最小值的网络陷阱的损失。gydF4y2Ba