文摘
大脑网络提供基本见解的诊断脑功能障碍,如阿尔茨海默病(AD)。许多机器学习方法应用到学习欧几里得空间的脑图像或网络。然而,它仍然是具有挑战性的学习复杂的网络结构和大脑区域在非欧几里得的空间的连通性。为了解决这个问题,在本文中,我们利用大脑网络分类的研究从图形的角度学习。我们提出一个聚合器基于极端学习机(ELM)增强图像卷积的聚合能力和效率没有迭代优化。然后,我们设计一个图形命名GNEA神经网络(图与榆树聚合器神经网络)图像分类任务。广泛的实验是通过一个真实广告检测数据集进行评估和比较图GNEA和先进的图学习方法的学习表演。结果表明,GNEA达到优秀的学习性能最好的图形表示的大脑网络分类应用程序的能力。
1。介绍
近年来,研究人员已经生成的脑功能网络从静息状态功能磁共振成像(rs-fMRI)数据(1]。大脑网络给了研究者的可能性分析大脑区域和它们之间的连接。然而,大多数脑网络分析方法(2,3]从手动提取浅特性或深在欧几里得空间特性。仍然有一个紧急的需求将图学习方法纳入大脑分析和疾病检测。利用图形结构和大脑区域之间的连接完全可以显著提高大脑的全面性和深度分析。因此,在本文中,我们利用图学习方法来研究大脑网络分类问题为阿尔茨海默病的检测。
图神经网络(GNN)已成为最流行的一种图形表示和学习方法。Sperduti和Starita首先应用神经网络图(4),动力初始轮廓(5和详细描述6GNN]。但是这些早期的网络是基于递归神经网络(RNNs) [7计算昂贵的)。然后,研究了卷积图数据的概念。布鲁纳等人首次开发基于谱图理论的图像卷积(8),其次是应用的改进和扩展,例如,ChebNet [9和政府通讯10]。一般而言,谱方法由于eigendecomposition[面临较高的计算成本11]。另一方面,首次研究了空间卷积(12),直接NN4G网络对邻居进行聚合和信息。在后续工作中,GraphSAGE [13采取抽样策略来提高卷积效率,手枪(14)采用一种注意力机制学习边,和CGMM15基于NN4G]研究了概率可解释性。
虽然最近的一些作品应用卫星系统来进行大脑相关问题,仍有许多剩余的开放问题。Ktena et al。16)研究学习对大脑网络的相似性度量,但大脑网络的分类性能没有探索。Rajchl et al。17意识到谱系障碍的预测和广告网络上一个病人通过运行节点分类,每个节点表示一个病人。然而,这项工作集中在疾病预测患者中,每个病人的大脑连通性并没有研究。李和黄(18]应用GCN研究大脑的连接体,但由于未知的精确结构的图,图学习过程依赖于迭代图生成和因此非常耗时。
摘要提高图学习的效率,我们提出一个图学习神经网络命名GNEA与榆树聚合器神经网络(图)图像分类问题。图学习GNEA呈现在图的程序1。聚合性能得益于一个聚合器基于极端学习机(ELM) [19,20.]。极快的训练速度和良好的泛化性能的榆树已被证明在各种应用程序中,例如,学习时间序列(21- - - - - -23),文本挖掘(24,25),生物医学数据分析(26- - - - - -29日),图分类(29日,30.),和游戏策略31日]。榆树聚合器学习更复杂的聚合函数比其他聚合器,它提供了一个极快的学习速度和一个强大的聚合能力。
本文的贡献总结如下:(1)提出ELM-based聚合器,实现了高聚合能力和训练效率。(2)图学习神经网络名为GNEA设计,具有强大的学习能力图分类任务。(3)我们GNEA应用到一个真实的大脑网络分类问题来验证其能力学习和分类图表示。
本文的其余部分组织如下。第二节介绍了大脑网络。后的GNEA框架概述第三节,第四节介绍了图的卷积GNEA,包括传播基于基于榆树correlation-biased抽样和聚合。第五节介绍了绩效评估的结果、比较和讨论。第六节本文总结道。
2。脑功能网络
脑功能网络表示为图,每个节点代表一个大脑区域和每条边表示两个脑区之间的功能连接(32]。
一个四维的功能磁共振成像大脑图像序列的三维模型,这本身是大脑的二维序列图像片。第四维是时间维度。大脑的大脑区域三维模型映射使用阿特拉斯。例如,自动化的解剖标记(AAL)地图集地图116 rs-fMRI大脑区域的图像。提取的大脑区域,根据相关系数在第四维度,每一对的连接大脑区域可以被估计。皮尔森相关系数是最受欢迎的统计测量两个正态分布变量之间的线性相关(33]。两个大脑区域的皮尔森相关系数x和y是计算 在哪里和有相同的长度n, 共变的和 , 和的标准偏差吗和 ,和和的平均值吗和 。
之间的相关系数计算每一对大脑区域显示的重量这些大脑网络中两个节点之间的边。由于大脑网络理论上稀疏图与密集的地方连接(34),体重阈值设置为删除无关的完全图的边缘大脑网络。重量低于阈值的边缘被认为是不活跃的大脑区域之间的连接。
rs-fMRI和相应的脑功能网络的一个例子是呈现在图2。在subfigure图2(一个),原rs-fMRI图像提出了削减在三个,也就是说,额,轴向和横向削减。图2 (b)礼物的三个削减AAL地图,地图116大脑区域rs-fMRI图像。图2 (c)从AAL-mapped图矩阵生成的大脑区域,并计算相关系数。图2 (d)礼物最后生成的大脑网络根据图矩阵的权重阈值决定的。
(一)
(b)
(c)
(d)
3所示。框架的概述GNEA
促进大脑网络分类性能的卫星系统,进行我们改善图学习能力通过设计一个名为GNEA的图学习模式,学习与图像卷积图嵌入基于榆树聚合器。大脑网络反映在图形格式,每个节点代表一个大脑区域和每条边表示两个脑区之间有着紧密联系。边缘的重量表示相关系数。大脑网络包括三个矩阵,即邻接矩阵一个,节点嵌入矩阵X,相关系数矩阵C。榆树的训练数据和目标聚合生成的图表。训练有素的聚合器,三层图卷积应用更新节点嵌入到传播基于图的结构和聚合。学会了嵌入的节点和图表,全层和连接Softmax输出输入的分类结果图。GNEA呈现在图的结构3。
GNEA接受三个graph-formatted矩阵作为输入。的邻接矩阵代表大脑网络的连通性,元素一个ij= 1表示相应的之间的联系我th和jth节点,而元素一个ij= 0表示断开。嵌入矩阵X连接所有的节点嵌入的行。相关系数矩阵C保持所有边的权值。在大脑的网络中,每个重量Cij之间的皮尔逊相关系数计算吗我th和jth大脑区域。注意,我们保持一个和C而不是一个加权邻接矩阵,这样所有的原始大脑区域之间的相关系数可以存储。
三层图像进行卷积顺序学习语义和结构特征嵌入。为每个节点 ,图像卷积收集信息从邻居节点集和不同的采样节点集 。然后收集到的信息是pretrained榆树聚合的聚合器。
每个卷积的复杂节点嵌入层ReLU被激活的激活函数。以减少节点嵌入图的大小池。从节点嵌入生成的图嵌入读出操作简化成一个向量和分类完全连接层。然后,激活函数Softmax应用于神经分布输出转换成一组最后的类标签的输入图像。
4所示。图卷积
图像卷积,作为GNEA学习嵌入的关键模块,包含两个主要操作,即传播和聚合。在本节中,我们提出sampling-based传播方法和榆树聚合器,下面的概述图GNEA卷积。
4.1。空间卷积
被定义为一个图 ,在哪里V表示节点集 表示边集。在一个无向图,如大脑网络条件 敌我识别 成立。图通常是由邻接矩阵表示 。
光谱卷积解,标准化图拉普拉斯算子l被定义为 在哪里D对角矩阵和程度我是单位矩阵。表示 (l+)th层与C输入通道和F过滤器可以计算 在哪里 是一个矩阵滤波器的参数。然而,这种光谱卷积需要一个稳定和完整的矩阵一个,并计算成本 。
不同聚合信息从光谱的角度来看,空间卷积的过程包括聚合节点的信息与空间信息的邻居。增加层数的空间分布结果的传播更多的信息从进一步的邻居节点。用于学习的空间卷积算法描述的节点表示1。
|
||||||||||||||||||||
给定一个图G,图卷积算法首先生成邻接矩阵一个、节点嵌入矩阵X,相关系数矩阵C。取样操作的数量米和图卷积层K也接受为hyperparameters。输入嵌入X作为初始化嵌入H0(1号线)。
迭代通过聚合器(第2行)可以被视为传播通过层的空间分布。在每一层,为每个节点 (第3行),函数 返回顶部。米节点的邻居根据邻接矩阵一个和相关系数C(4号线)。
聚合函数在th空间卷积层聚集所有采样邻居嵌入的嵌入。然后,它生成一个聚合的邻居嵌入(第5行),然后嵌入的节点和聚合的邻居嵌入连接 。降维是通过计算elementwise连接嵌入的平均值(第6行)。这张图卷积算法最终的回报HK,包括连接嵌入Kth层的每个节点(第8行)。
下面我们介绍两个主要操作GNEA图像卷积,sampling-based传播方法,和榆树聚合器。
4.2。基于Correlation-Biased抽样的传播
之前的图学习方法聚合节点嵌入整个图。在我们sampling-based传播方法,维持稳定的传播,我们的样本米从每个节点的邻居节点。由于取样是一个操作有偏见的相关系数,我们样品米邻居相关性最高的根据相关系数矩阵C。抽样函数(4号线算法1)被描述为 在哪里是嵌入更新当前节点米样品数量,一个是获取当前图的邻接矩阵的邻居信息,然后呢C相关系数矩阵的抽样偏差标准。这个抽样函数检索米节点 的邻居的节点 ,保证节点之间的相关系数而这些邻居们——顶部米最相关的邻居节点 。
注意,如果小于相邻节点的数量 ,在收集节点嵌入。然后,GNEA网络音乐权重矩阵对所有的聚合器通过使用随机梯度下降法和其他可训练的参数。
4.3。基于榆树的聚合
4.3.1。对称聚合器
因为你的邻居节点的节点没有订购非欧几里得的空间中,聚合函数空间卷积的过程应该是对称的保持不变性排列的输入向量的表示,例如,意思是聚合器和pooling聚合器在GraphSAGE [13]。
(1)意味着聚合器。以elementwise意味着嵌入的张量几乎相当于卷积传播规则用于卷积转换光谱(13]。意思是聚合器平均算子适用于连接两节点的嵌入和邻居嵌入的传播,和 。因此,kth意思是聚合器函数被编写为
(2)池聚合器。池聚合器的图像卷积网络的平均或最大元素的嵌入。它被发现在13]max-pooling之间没有显著差异,mean-pooling在实践中。因此,我们仅适用于max-pooling策略实现池聚合器我们竞争对手的方法。通过执行max-pooling操作的激活和加权特性,聚合器能够捕捉你的邻居节点的不同方面。的kth池聚合函数被描述为
4.3.2。榆树聚合器
对称的可训练的参数聚合器是通过反向传播学习迭代按照全损。聚合器必须调整和其他可训练的神经网络参数图。然而,对于神经网络的聚合器,可以执行的加权映射嵌入的网络中通过输入映射。
因此,提高学习效率和聚合器的性能,我们提出一个聚合器基于极端学习机(19,20.]。榆树聚合器强大的聚合能力和有效的训练,因为它避免了迭代优化权重全损。在每个图卷积层,榆树聚合器学习从邻近的嵌入空间映射到一个榆树特性的聚合嵌入空间中央节点。
榆树聚合器呈现在图4。鉴于任意样本 ,榆树特性映射矩阵是计算 在哪里l隐层节点的数量,是输入权向量从输入节点我th隐藏的节点,b我的偏见我th隐藏的节点。 生成映射神经元激活函数,它可以是任何非线性分段连续函数。
榆树旨在最小化训练误差和标准输出的权重。因此,输出权重矩阵β可以计算为 在哪里的Moore-Penrose倒数吗和T培训目标。榆树的培训过程提出了算法2。
|
||||||||||||||
在前馈阶段,榆树聚合器的聚合结果计算
4.3.3。监督学习的榆树聚合器
榆树聚合器与监督学习训练。目标T前应该指定的培训过程。然而,只有目标标签下游任务的,也就是说,图像分类的标签,是承认的。因此,我们获得T根据GNEA的全损,使用分类熵损失计算。
榆树目标矩阵T首先是随机初始化。在每一行T表示一个节点的目标嵌入。那么相应的示例图更新的目标按全损。全损对的偏导数T得到了更新和计算的吗 在哪里更新的目标吗kth层,是更新率, 下游任务的总损失,计算的是哪一个 在哪里y是目标标签,是输出标签,米类的数量,N是样品的数量。
5。实验
在本节中,我们首先介绍我们的大脑产生网络数据集和实验装置。然后,GNEA的性能评估和比较与先进的神经网络图。
5.1。数据集
大脑网络在我们的数据集使用静息状态功能磁共振成像数据生成的阿尔茨海默病的神经影像学(ADNI) LONI图像和数据归档(IDA)。三个病人类型都包含在我们的数据集,这是阿尔茨海默病(AD)患者轻度认知障碍(MCI)患者和患者正常控制(数控)。我们选择118每个病人的样本类型从安迪的所有四个项目阶段,导致共354个样本数据集。所有不同的病人的样本类型有相似的年龄和性别的分布,这些分布呈现在图5。
(一)
(b)
(c)
所有rs-fMRI图像处理使用工具箱Nilearn2和DPABI(脑成像数据处理与分析)(35]。AAL阿特拉斯(36)应用于大脑映射到116的大脑区域。然后,大脑网络生成,每一个都是一个116×116平方矩阵的形式。
数据集分为训练数据和测试数据的比率4:1。绩效评估和比较了利用测试样本。
5.2。实验装置
我们使用AUC(曲线下的面积),95%可信区间(置信区间)评估的分类性能。计算95%置信区间 在哪里n交叉验证折叠的数量,的意思是结果吗n倍交叉验证过程中, 是t以及一个n1自由度,年代d标准偏差,计算的是哪一个
我们评估测试性能在三个二元分类问题,即NC-AD NC-MCI, AD-MCI。此外,我们也评估三级分类问题,在macroaverage策略被应用于AUC计算。
所有的实验都是在PC 3.7 GHz Intel CPU核心,NVIDIA GeForce RTX 2080 Ti图形卡,2400 MHz DDR4 32 GB的内存,500 GB固态磁盘驱动器。该方法实现了使用MATLAB R2018a和Python 3.6。深入学习框架TensorFlowGPU 1.8和2.2 Keras。
5.3。结果
我们第一次评估GNEA的性能与不同hyperparameter设置,即图像卷积层和分类层次。然后,我们比较GNEA的总体性能与一些先进的方法。
5.3.1。评价图像卷积层
图卷积层的数量可以看作是信息传播的距离。换句话说,k层图卷积收集信息k跳邻居。附近的样本大小决定 ,这是抽样从邻居节点的数目的节点 。因此,我们评估AUC图6(一)和运行时在图6 (b)不同层数和样本大小。
(一)
(b)
(1)图卷积层的数量。关于我们的数据集,虽然更多的图形旋转导致更长的运行时,网络与图像卷积三层AUC最高性能。我们相信,三层以上的图卷积可能导致oversmoothing图的嵌入,这减少了歧视的大脑网络中不同的类标签。
(2)附近的样本大小。多个样本节点导致更高的矩阵计算成本。矩阵运算的增量非线性是由于信息传播和聚合过程。尽管运行时继续增加非线性,AUC性能的增长停滞不前的时候邻居样本量增加到20。由于抽样是有偏见的相关系数,当邻居的数量大于设定阈值,从邻居们额外的信息的节点嵌入提供一点贡献的节点 。
(3)榆树聚合器。我们评估auc和运行时间得到不同的隐藏的榆树聚合器的数量,以及各种数字卷积的层。它可以找到从评价结果呈现在图7运行时继续增加榆树聚合器的隐藏节点的数量增加。然而,AUC性能开始下降当榆树隐藏节点的数量比400年大。给定一个固定的输入空间维度,额外隐藏节点不会导致一个更强大的学习能力。
(一)
(b)
5.3.2。评估分类层
完全连接层与GNEA提供对大脑网络的表示形式进行分类。我们评估auc图8(一个)和运行时在图8 (b)用不同的数字完全连接层和完全连接节点在每一层。大量的节点和层导致更长时间的运行时。自主要计算成本在于图卷积操作,运行时之间的差异完全连接层的各种设置很低。关于AUC的性能,一个完全连接层能够实现一个强大的分类性能优良的品质由GNEA生成图的表示。具体来说,AUC性能达到最大时的节点数量增加到约100,之后开始下降。更多的层或节点可能会导致过度拟合和糟糕的测试性能。
(一)
(b)
5.3.3。性能比较
比较图的分类性能通过GNEA和最先进的方法,即一个卷积神经网络(CNN) (37),多空词记忆(LSTM) [38)网络图卷积网络(GCN) (10],GraphSAGE [13)和三个聚合器,表示GS-mean, GS-pool, GS-LSTM,分别给出了表1。
在这些竞争对手的方法中,CNN和LSTM深层神经网络在欧几里得空间。之下,GraphSAGE, GNEA图卷积网络的组织形式,其中政府通讯应用卷积谱,而GraphSAGE GNEA执行空间卷积。
彻底衡量广告的性能检测,我们原来的三级分类问题分解为三个二元分类问题。NC-AD任务是区分正常对照组和阿尔茨海默氏症患者。NC-MCI任务是区分正常对照组和轻度认知障碍患者。MCI-AD任务区分轻度认知损害患者和阿尔茨海默氏症患者。
表中给出的比较结果1表明,(1)图形学习神经网络实现更高的性能比深层神经网络在欧几里得空间,包括CNN和LSTM;(2)图的组内神经网络,空间卷积优于卷积谱;(3)为广大三级问题,我们提出了GNEA最好的AUC性能;(4)相比,他们的表演在其他二进制分类任务,所有的方法在NC-AD任务AUC有更高的分数,因为MCI的区别和其他类是微不足道的,明确的;(5)NC-AD问题,GraphSAGE和GNEA表现出令人满意的学习能力由于相对明确的区分nc和AD患者的大脑网络;(6)MCI-AD问题最含蓄的区别,GNEA获得主导地位由于榆树聚合器的强大的表现能力。
6。结论
图解决学习问题对大脑网络的分类,我们建议图卷积聚合器基于极限学习机。榆树聚合器展览一个有效和强大的聚合能力。然后,我们设计一个图形命名GNEA神经网络,实现高性能的图形嵌入和图形分类。大量实验的结果在一个真实的阿尔茨海默病检测任务表明我们提出GNEA优于竞争对手的方法最先进的大脑网络分类的应用。
数据可用性
使用的数据来支持本研究的结果包括在本文中。
的利益冲突
作者宣称没有利益冲突有关的出版。
确认
这部分工作是支持下由中国国家重点研发项目批准号2016 yfc1401902和中国的国家自然科学基金资助下61702086,61672145,61572121,61972077。