复杂

复杂/2020./文章

研究文章|开放获取

体积 2020. |文章的ID 5801870 | https://doi.org/10.1155/2020/5801870

穆罕默德MATEEN,君豪文,纳斯鲁拉纳斯鲁拉,宋孙肖卡特哈亚特 使用普拉维拉卷积神经网络渗出对糖尿病视网膜病变的渗出物检测",复杂 卷。2020. 文章的ID5801870 11 页面 2020. https://doi.org/10.1155/2020/5801870

使用普拉维拉卷积神经网络渗出对糖尿病视网膜病变的渗出物检测

学术编辑:马蒂尔德桑托斯
已收到 2019年11月11日
修改后的 2020年2月25日
接受 2020年3月13日
发表 10月10日

摘要

在眼科领域,糖尿病视网膜病变(DR)是失明的主要原因。DR基于视网膜病变,包括渗出物。被发现渗出物是标志和严重的异常之一,因此应立即进行正确检测这些病变和治疗,以防止失去视力。在本文中,已经提出了基于预制的卷积神经网络 - (CNN-)的框架,用于检测渗出物。最近,单独应用深度CNN以解决具体问题。但是,具有转移学习的预押卡网模型可以利用以前的知识来解决其他相关问题。在所提出的方法中,初始数据预处理是针对渗出物斑块的标准化进行的。此外,利益区域(ROI)定位用于本地化渗出物的特征,然后使用掠夺的CNN模型(Inception-V3,残差网络-50和视觉几何组网络-19)对特征提取来执行转移学习。此外,从完全连接(Fc)层的熔融特征被馈送到软MAX分类器中以进行渗出物分类。已经使用两个众所周知的公知数据库(如E-Ophtha和DiaRetdB1)分析了拟议框架的表现。 The experimental results demonstrate that the proposed pretrained CNN-based framework outperforms the existing techniques for the detection of exudates.

1.介绍

在眼科领域,深度学习在诊断糖尿病视网膜病变(DR)等严重疾病方面发挥着重要作用。DR是世界性的一种严重的常见病。糖尿病视网膜病变是糖尿病患者中普遍存在的疾病。世界卫生组织(世卫组织)宣布,到2030年,糖尿病将成为世界上最严重和第七大致死疾病[1].从这个角度来看,最重要的是防止人类生命受到糖尿病的影响。在糖尿病视网膜病变的情况下,视网膜会产生包括病变在内的一些异常,从而导致不可逆转的失明和视力损害。但早期发现和治疗这些病变可显著降低致盲率。DR视网膜异常还包括出血、棉毛斑、微动脉瘤(MA)、视网膜新生血管和渗出物,如图所示1.软的渗出物(棉絮点)表现为浅黄色或白色区域,边缘分散,而硬的渗出物则表现为视网膜上的黄色蜡样斑块。视网膜眼底照片渗出物的存在是糖尿病视网膜病变最严重的原因之一[3.].人工识别硬渗出液是基于分析人员,这是一项耗时的任务。而自动渗出识别技术则可以及时、准确地检测出硬渗出。处理这些因素也是一项艰巨的任务,包括形状、纹理、颜色、大小和渗出物对比度差。

在糖尿病视网膜病变的诊断中,图像处理技术,包括视盘定位、自适应阈值、图像边界跟踪和形态学预处理,被广泛应用于视网膜眼底图像的特征提取。根据(4[Retina中渗出物的早期检测可以帮助眼科医生进行及时治疗受影响的人。基于U-Net的技术用于分割和检测107视网膜图像的渗出物。报告的网络由昂贵和收缩的流组成,其中缩小具有类似的结构与CNNS相似。无监督的分割技术可以在蚁群优化的基础上检测硬渗出物。将实验结果与名为Kirsch滤波器的传统分割技术进行了比较,发现无监督的方法比传统方法更好[5].

深度卷积神经网络在使用数字基底图像的分割和检测中也在进行了重要作用。Tan等人。[6]开发了卷积神经网络,以自动区分和分段微瘤,出血和渗出物。所报道的方法描述,使用具有适当精度的大量视网膜数据集,只有一个CNN可用于视网膜特征的分割。此外,García等人。[7[调查了三个分类器:多层的Perceptron(MLP),径向基函数(RBF),以及支持向量机(SVM),以检测硬渗出物。在本报告中,117个视网膜眼底图像与不同的变量一起使用,包括质量,亮度和颜色。肖等人。在大规模评估相关公开的文章的基础上介绍了糖尿病视网膜病变渗出物检测的综述。在报告的论文中,作者集中于近期和新兴技术,包括深入学习,以检测和分类视网膜眼底图像中的糖尿病视网膜病变[8].

在渗出物的分割和检测中,需要对指定的特征进行定位。本文报道了利用数字眼底图像进行渗出物分割的位置分割方法[9由噪声去除、眼底图像硬渗出物定位、糖尿病视网膜病变硬渗出物分割三个步骤组成。采用匹配滤波器去除噪声进行血管分割,基于显著性技术进行视盘分割。此外,利用随机森林分类器识别渗出物的位置,将斑块分为渗出物和非渗出物两类。最后,识别局部对比区域和渗出区域进行渗出分割,并将其分为渗出斑块和非渗出斑块。Asiri [10综述了近年来糖尿病视网膜病变的研究进展。糖尿病视网膜病变和黄斑变性的自动检测已成为近年来基于深度学习的研究工作的热点之一。

此外,已经完成了巨大的工作,以基于其特征自动识别出渗出物,包括纹理,形状和尺寸。众所周知的渗出物检测技术可以分为4种基本类型:(1)基于机器学习的技术;(2)基于阈值的技术;(3)数学形态学技术;(4)地区生长的方法。

基于机器学习的算法包含受监督和无人监督的学习方法。A. R. Chowdhury等。[11[应用随机森林分类器,用于检测视网膜异常。该技术是基于的k-表示眼底照片分割和基于统计和低级特征的机器学习方法进行预处理。此外,Perdomo等人提出了一种新的方法[12使用机器学习技术的渗出物位置的基于渗出物的位置检测糖尿病黄斑水肿。此外,Carson Lam等人。[13]应用掠夺模型,即亚历谢和Googlenet,用于检测糖尿病视网膜病变。据报道的文章使用卷积神经网络公认了糖尿病视网膜病变的不同阶段。作者突出了多项分类模型,并讨论了关于疾病错误分类和文章中的任何问题的问题。

阈值技术利用不同图像区域间颜色强度的变化。在此背景下,提出了基于粒子群和萤火虫群优化的迭代阈值技术来诊断渗出物和出血[14].阈值技术包括预处理技术的图像增强和基于Top-hat和Gabor变换的血管分割。出血的检测是基于线性回归和支持向量机分类器。此外,考尔和米塔尔[15报道了利用渗液分割技术帮助眼科专家进行有效的规划和及时的治疗。采用动态决策阈值法对硬渗出物进行模糊边缘和明亮边缘的提取,有效分割硬渗出物,并对眼底图像进行动态阈值提取。此外,Das和Puhan [16]提出了tallis熵阈值技术,以提高糖尿病视网膜病变渗出物的可见性。通过稀疏字典学习和分类,进一步过滤得到的渗出物特征,去除假阳性值。基于DIARETDB1和E-Ophtha公共数据集对Tsallis技术进行了分析,获得了较好的准确率结果,准确率达到95%。

使用数学形态学方法检测眼底图像的异常来检测大量贡献。形态学技术利用具有不同元素结构的几个数学运算符。Jaafar等人。[17]报道了一种自动识别眼底照片渗出物的技术。在这项工作中,纯粹的眼底彩色图像分割的新方法被应用,在第一阶段,细分流程的基础上进行变化的计算在眼底图像像素,然后形态学技术应用于过滤自适应的阈值结果的基础上细分的结果。此外,采用随机森林技术对给定眼底图像中的硬渗出物进行检测。在糖尿病视网膜病变中,集成分类器用于硬渗出物的多类分割和定位[18].利用Gabor滤波和形态学重构分别从粗粒和细粒两种层次提取渗出物特征。在集成分类器上训练候选区域,对渗出和非渗出边界进行分类。使用Messidor、HEI-MED、e-Ophtha Ex和DIARETDB1这四种公开可用的数据集进行实验。Harangi和Hajdu [19[]也提出了一种新的渗出物检测方法,该方法分三步进行,即采用灰度形态学方法提取候选样本,采用基于轮廓的方法精确分割边界,采用基于区域的分类器进行渗出物分类。Harangi等人[20.]提出了一种利用灰度形态学和活动轮廓技术分别识别潜在渗出状态和提取准确边界的渗出检测方法。

地区生长方法观察开始位置的邻居,并决定它们是否可以是特定区域的成员。Lim等人。[21介绍了一种改进了以前研究工作的技术。在提取渗出液的帮助下进行糖尿病和正常黄斑水肿的分类。根据标记的黄斑区域进行渗出物检测,以区分糖尿病视网膜病变和视网膜眼底图像。在轮廓识别的基础上,Harangi和Hajdu [22]介绍了渗出物检测技术,另外,区域明智分类。在该技术中,应用了形态学方法,包括灰度形态,以通过马尔可夫分割系统提取渗出物特征和适当的形状。Giancardo等人开发了一种用于检测糖尿病性黄斑水肿的新方法。[23]基于特征,包括渗出物分割,小波分解和颜色。实验在公共可用数据集上进行,并获得88至94%的精度取决于不同的数据集。

在这项研究工作中,提出的技术的目标是使用迁移学习检测糖尿病视网膜病变的渗出物。本文的主要贡献是将迁移学习概念应用于特征提取,使用预先训练好的深度卷积神经网络,包括incept -v3、ResNet-50和vgg19。此外,对提取的特征进行融合,并通过softmax进行分类,最终做出决策。

物品的其余部分组织如下:提出的方法在一节中解释2;实验结果和讨论部分介绍3..最后,本节总结了研究结果4

2.提出的技术

在本部分中,提出了基于预训练卷积神经网络架构的眼底图像视网膜渗出物检测和分类框架。在该框架中,将三种公认的网络体系结构结合在一起进行特征融合,因为不同的体系结构可以捕获不同的特征;如果只采用单一体系结构而不是组合多个体系结构,那么很可能会错过一些有用的特性,最终可能会影响所提议框架的性能。

首先对两个数据集进行数据预处理,对渗出斑块进行标准化,然后利用高斯混合技术对候选渗出进行定位,然后进行特征提取。该新框架有助于3个公认的预训练卷积神经网络体系结构(Inception-v3、VGG-19和ResNet-50)分别进行低层次特征提取。此外,将集合特征作为全连接(FC)层的输入进行进一步的操作,包括通过softmax对视网膜渗出和非渗出斑块进行分类,如图所示2

2.1。数据集

数据收集是分析所提出技术的实验中必不可少的一部分。在这种方法中,两个公开可用的视网膜数据集用于实验:(i) e-Ophtha和(ii) DIARETDB1。E-Ophtha数据集包含47张视网膜眼底图像,由四名眼科专家检查,用于手动标注渗出物[24].视网膜图像的分辨率从1400 × 960到2544 ×1 696像素不等。DIARETDB1数据集包含89张视网膜眼底照片,分辨率为1500 ×1 152 [25].通过具有50度视场的数字指定的眼底图像相机捕获所有视网膜图像。手动进行糖尿病视网膜病变中渗出物的检查,并通过五个授权的眼科医生评估。柔软和硬渗出物用“渗出物”标记为单级。总图像调整为具有1500×1152像素的分辨率的DiaRetdB1图像的标准尺寸,并且基于视网膜光盘的标准尺寸来确定估计的图像比例尺寸。包括E-Ophtha和DiaRetdB1的受影响和健康视网膜图像的样品如图所示3.

2.2。数据预处理

在这一阶段,由于视网膜渗出物大小的变化,输入数据准备进行标准化。数字4显示所有提取的视网膜渗出斑块大小的区别。提取的斑块的长度和宽度对应于XY分别轴。这也决定了在不考虑异常值的情况下,视网膜渗出块的收集大小从25 × 25到286 × 487分辨率不等。在这种情况下,视网膜图像的分析需要贴片的标准尺寸,以便更好地理解数据标签。对于这个解决方案,专家选择最小的patch尺寸来识别病理征[26].

在该模型中,使用彩色斑块图像的25 × 25块大小,分为非渗出和渗出两类。手工提取渗出液patch,分别从e-Ophtha和DIARETDB1数据集中提取出36500和75600份渗出液。同样,对于balance数据集,分别提取35000和60000非渗出斑块,分别由e-Ophtha和DIARETDB1数据库区域获得。在视网膜非渗出斑块组中,存在多种视网膜疾病,包括视神经头、背景组织、视网膜血管等。在本技术中,所有的斑块都是没有任何重叠的获得和提取,在图中可以看到非渗出斑块和渗出斑块类5(a)5(b),分别。

2.3。利息本地化

渗出物可以被描述为明亮的病变,突出显示为糖尿病视网膜病变中的鲜斑块和斑点,在颜色眼底图像的黄色平面中充满对比。使用利益区域(ROI)定位在应用特征提取之前应用渗出物分割。在该步骤中,进行渗出物分割以将ROI检测到视网膜眼底图像中。在这种情况下,已经使用了许多方法,包括神经网络,模糊模型,基于边缘的分割和基于ROI的分段。在所提出的技术中,高斯混合方法用于渗出物定位。Stauffer和Grimson [27]使用高斯分类来获得背景减法技术。在本文中,在适应性学习率(ALR)的基础上,应用了Hysian混合模型(GMM)的混合技术,以实现候选渗出物检测形式的显着结果。感兴趣的区域(ROI)是从混合方法获得的,如图所示6.ROI被馈送到预训练的卷积神经网络模型中,用于特征提取以获得紧凑的特征向量。

下式采用高斯混合模型计算感兴趣区域ROI: 在哪里 表示为权重因子和 表示平均值的标准化形式 对自适应学习率进行了修正 经常应用概率约束 识别一个像素是…的一部分 高斯分布与否。

2.4.特征提取的预训练深度卷积神经网络模型

在一开始,应用各个深度卷积神经网络模型来提取特征,后来采用的型号与FC层相结合以进行基底图像的分类。在这种特征组合的场景中,可以有多种类型的特征,包括由单个形状描述符提取的紧凑性,圆度和圆形度。在提出的技术中,三个最新和最近的深度卷积神经网络架构,包括Inception-V3 [28,剩余网络(ResNet)-50 [29]和视觉几何组网络(VGGNET)-19 [30.],用于特征提取,用于进一步分类渗出物和非抑制糖尿病视网膜病变。上面的CNN模型已经培训,对于由微小图像的显着提取特征监测的许多标准图像描述符,基于转移学习[31].在以下小节中,简要定义了采用的深度卷积神经网络架构。

2.4.1。Inception-V3架构

Inception-V3架构是基于卷积层的卷积网络,包括池层,整流的线性操作层和完全连接的层。Inception-V3架构专为图像识别和分类而设计。该模型也是基于先启-V3架构,游泳池几个不同大小的卷积过滤器对创新的单个过滤器。此外,创新滤波器不仅降低了计算复杂性,而且还减少了参数的数量。创建以来-V3也达到具有异构尺寸的过滤器和低维的嵌入的组合更好的精度。Inception-V3的基本架构如图所示7

2.4.2。ResNet-50架构

残差网络-50是一个深度卷积神经网络,可以在想象成数据库的分类中实现显着的结果[32].ResNet-50由许多大小的卷积滤波器组成,以减少训练时间,并管理由于深层结构而发生的退化问题。在这个工作中,使用了ResNet-50,它已经在标准ImageNet数据库中训练过了[33]除了与此模型相关联的完全连接的Softmax层。Reset-50的基本架构如图所示8

2.4.3。VGG-19架构

视觉几何群网络模型是基于多层操作的,称为深度神经网络模型。除了额外的卷积层之外,它可以与AlexNet模型相媲美。VGGNet架构的扩展是基于将内核大小的滤波器替换为窗口大小为3 × 3的滤波器,并连续替换为2 × 2池层。一般的VGG-19架构包含3 × 3卷积层、批准层、池化层和3个完全连接层,共包含4096个神经元[30.].由于其简单性,VGGNet-19神经网络的性能优于AlexNet架构。VGG-19的基本架构如图所示9

2.5。转移学习和特色融合

在机器学习领域,迁移学习是公认的最有效的方法,其学习用于解决一个问题,并把它应用到新的相关问题的语境知识。主要是,转移学习方法网络在相关数据集上培训特定作业,之后,通过目标数据集接受到目标作业的转移[34].在这项工作中,提出的技术的目标是在迁移学习背景和特征级融合中对已知的CCN模型进行视网膜渗出物分类的实验,并在e-Ophtha和DIARETDB1视网膜数据集上验证所取得的结果。该融合方法结合了三种不同的dcnn从全连接层提取的特征。将三个dcnn的特征合并到一个特征向量中。假设有三种不同的CNN架构,其FC层分别表示为 方程(2)表示三个CNN模型和等式(3.)示出了许多FC层。因此,提取的特征在特征向量空间中组合 有尺寸“ “,可以描述为

基于迁移学习的技术是使用ImageNet预先训练的incept -v3、ResNet-50和VGGNet-19架构实现的。将连续神经网络模块作为不同数据集的固定特征提取器来跟踪迁移学习设置。迁移学习通常保留预先训练的主要原型权值,并通过结论网络层提取基于图像的特征。大多数情况下,训练卷积神经网络需要大量的数据;很难组织大量的相关问题数据库。与最终情况相反,在大多数真实应用程序的情况下,实现类似的培训和测试数据是一项困难的工作,或者很少发生这种情况。在这种情况下,迁移学习方法被提出,并被证明是一种富有成效的技术。迁移学习方法主要有两个步骤:首先,选择预先训练的体系结构;其次,问题的相似性及其大小。在选择阶段,预训练结构的选择是基于与客观问题相关联的相关问题。 In the case of similarity and size of the dataset, if the amount of the target database is lesser (for example, smaller than one thousand images) and also relevant to the source database (for example, vehicles dataset, hand-written character dataset, and medical datasets), then there will be more chances of data over fitting. In another case, if the amount of the target database is sufficient and relevant to the source training database, then there will be a little chance of over fitting and it just needs fine tuning of the pretrained architecture. The deep convolutional neural network (DCNN) models including Inception-v3, ResNet-50, and VGG-19 are applied in the proposed framework to utilize their features on fine-tuning and transfer learning. In the beginning, the training of the selective convolutional neural network models is performed using sample images taken by the standard publicly available “ImageNet” database; moreover, the idea of transfer learning for fused feature extraction has been implemented. In this case, the proposed technique assists the architecture to learn the common features from the new dataset without any requirement of other training. The independently extracted features of all the selective convolutional neural network models are joined into the FC layer for further action including the classification of nonexudate and exudate patch classes performed by softmax.

3。结果与讨论

使用图形处理单元(GPU)对“谷歌COLAB”进行实验。对于性能评估,选择两个可公开的标准数据集进行实验。培训阶段分为2个会议,每次会议需要6个小时才能完成实验任务。所提出的技术的设计的框架被训练在3种类型的卷积神经网络体系结构,包括启-V3,RESNET-50,和VGG-19单独的,并且之后,执行迁移学习到知识数据传输到融合提取的特征.比较来自各个卷积神经网络的达到的实验结果,并通过各种现有方法的融合特征进行了分析。应用10倍交叉验证方法用于性能评估。交叉验证是用于评估有限数据样本上的机器学习模型的重采样过程。该过程称为单个参数k这是指给定的数据样本将被分割成的组的数量。因此,这个过程通常被称为k折交叉验证。当一个特定的值k被选中时,它可以用来代替k在对模型的引用中,例如k= 10变成10倍交叉验证[35].输入数据被划分为不同比例的训练和测试数据集,用于本文方法的实验。分裂数据采用三种不同的方式进行,分别为训练70%、测试30%、训练80%、测试20%、训练90%、测试10%。表格1在使用e-Ophtha数据集进行数据分割的基础上,对三个独立的CNN架构进行了对比分析。


CNN模型 数据分割
培训(%) 测试(%) F1的分数 回忆 精确 分类精度(%)

Inception-V3. 70 30. 0.95 0.98 0.92 92.50%
80 20. 0.93 0.94 0.92 92.90%
90 10 0.94 0.92 0.96 93.67%

resnet-50. 70 30. 0.94 0.98 0.91 90.67%
80 20. 0.94 0.98 0.90 95.70%
90 10 0.98 0.97 0.99 97.80%

vgg-19. 70 30. 0.94 0.99 0.90 92.33%
80 20. 0.94 0.93 0.95 95.80%
90 10 0.94 0.90 0.89 93.50%

拟议的模型 70 30. 0.96 0.96 0.97 97.98%
80 20. 0.96 0.97 0.95 98.43%
90 10 0.95 0.96 0.95 97.90%

同样的,表2说明了使用DIARETDB1数据集在分类精度方面的个人体系结构和提出的技术结果。


CNN模型 数据分割
培训(%) 测试(%) F1的分数 回忆 精确 分类精度(%)

Inception-V3. 70 30. 0.95 0.98 0.93 93.10
80 20. 0.93 0.94 0.92 93.30
90 10 0.95 0.94 0.97 93.57

resnet-50. 70 30. 0.95 0.99 0.92 90.57
80 20. 0.94 0.98 0.90 96.10
90 10 0.98 0.98 0.98 97.90

vgg-19. 70 30. 0.94 0.98 0.90 93.12
80 20. 0.93 0.92 0.95 95.50
90 10 0.91 0.93 0.90 93.76

拟议的模型 70 30. 0.96 0.97 0.96 98.72
80 20. 0.95 0.96 0.95 98.91
90 10 0.96 0.96 0.96 97.92

在分类绩效的背景下,一个真正的积极是一个模型正确预测积极类别的结果。类似地,真正的负类是模型正确预测负类的结果。而假阴性(FN)和假阳性(FP)代表样本,它们被模型误分类。以下公式可以应用于绩效评估。

准确性:它是一种用于评估模型有效性来识别正确的类标签的措施,可以通过以下等式计算:

F-measure:对范围在0到1之间的分类器的精度和召回率进行平均。最佳和最差得分分别用“0”和“1”表示,计算方法如下:

表格1还将输出说明为渗出补丁,其中包含各自的F1分数、召回率、精度值和准确度。利用数据分裂方法,实现了单个CNN体系结构和所提出技术的最高分类精度。综上所述,本文提出的方法在视网膜渗出物检测方面取得了显著的分类精度,优于单独的CNN架构。使用e-Ophtha数据集1结果表明,在包括incept -v3、ResNet-50和VGG-19在内的单个CNN体系结构中,分类准确率最高,分别为93.67%、97.80%和95.80%,而本文方法的分类准确率达到了98.43%。使用DIARETDB1数据集,Table2图示,包括Incepion-V3,Reset-50和VGG-19,包括Incepion-V3,Reset-50和VGG-19的最高分类准确性分别为93.57%,97.90%和95.50%,但提出的方法达到了98.91%的分类准确性。

为了更好地理解分类精度结果,图10和图11使用E-OPHTHA和DiaRetdB1数据集显示拟议模型对各个模型的比较分类精度。

此外,表3.展示了通过提出的框架获得的比较结果和检测视网膜渗出物的现有熟悉方法。表格3.说明[的分类准确性18]为87%,[36]为92%,[37]为97.60%和98.20%。但是,所提出的框架可以使用E-Ophtha和DiaRetdB1数据集实现比上述技术更高的准确性。


一年 方法 数据库 精度(%)

2017年 fraz等。[18 DiaRetdB1 87.00
2018年 Mo等人[36 e-Ophtha 92.00
2019年 Khojasteh等人。[37 e-Ophtha 97.60
DiaRetdB1 98.20
提出了框架 e-Ophtha 98.43
DiaRetdB1 98.91

拟议架构的分类表现与[37[所提出的框架实现的提取特征是否可以支持最终结果,并且在临床实践中具体是非常有意义的。的比较分析表明,所提出的预训练基于CNN转移学习技术优于在对两个数据集用于检测视网膜分泌物的准确性方面的现有的个别方法。

4.结论

在本文中,提出了一种基于覆盖的卷积神经网络 - (CNN-)用于使用转移学习检测眼底图像中视网膜渗出物的框架。在所提出的框架,预先训练模型,即Inception-V3,残差网络-50(Reset-50)和视觉几何组网络-19(VGG-19)中,用于基于传输提取来自眼底图像的功能学习提高分类准确性。最后,将所提出的模型的分类精度分别与各种DCNN型号进行比较,以及与现有技术相比。已经评估了基于转移学习的框架,并获得了准确性的突出结果,而不是从头开始训练。因此,所提出的方法的准确性优于检测视网膜渗出物的其他现有技术。在未来的工作中,可以修改建议的框架以区分硬质和软渗出物。此外,还可以扩展所提出的框架,以诊断出血和微肿瘤,用于糖尿病视网膜病变。

数据可用性

在实验中,用于支持所提出的框架的调查结果的数据http://www.adcis.net/en/download- tird-party/e1ophtha.html.http://www.it.lut.fi/project/imageret/diaretdb1/index.html

的利益冲突

作者声明不存在利益冲突。

致谢

作者感谢染色体Sana博士(MBBS),他提供了关于糖尿病视网膜病变的知识。国家重点研发计划项目(no . 2018YFF0214700)资助

参考文献

  1. https://www.who.int/news-room/fact-sheets/detail/diabetes.
  2. M. Mateen,J. Wen,Nasrullah,S.歌曲和Z. Huang,“使用VGG-19架构与PCA和SVD的眼底分类”,对称,卷。11,不。1,2019。查看在:谷歌学术
  3. ww . Hsu, P. m.d. S. Pallawala, M. L. Lee, K. G. A. Eong,“领域知识在视网膜硬渗出物检测中的作用”,在2001年电脑视觉和模式识别上的IEEE计算机协会会议的诉讼程序。CVPR., IEEE,考艾,HI,美国,2001年12月。查看在:谷歌学术
  4. F. Zabihollahy,A. Lochbihihler和E. Ukywatta,“基于深度学习的方法,用于完全自动化检测和远离视网膜图像的硬渗出,”2019医学成像学报:分子、结构和功能成像的生物医学应用,Springer,圣地亚哥,加州,美国,2019年1月。查看在:谷歌学术
  5. C. Pereira,L.Gonçalves和M.Ferreira,“使用蚂蚁殖民地优化方法的眼底图像进行渗出物细分”,“信息科学,卷。296,pp。14-24,2015。查看在:出版商的网站|谷歌学术
  6. J. H. Tan,H.Fjita,S. Sivaprasad等,“使用单一卷积神经网络的渗出物,出血,微瘤的自动分割”,信息科学,卷。420,pp。66-76,2017。查看在:出版商的网站|谷歌学术
  7. M. García, C. I. Sánchez, M. I. López, D. Abásolo,和R. Hornero,“基于神经网络的视网膜图像硬渗出物检测”,Biomedicine中的计算机方法和程序,卷。93,没有。1,pp。9-19,2009。查看在:出版商的网站|谷歌学术
  8. D.肖,A. Bhuiyan,S. Frost,J.Vignarajan,M.L.T.Kearney和Y.Kanagasingam,“主要的自动糖尿病视网膜病筛查系统和相关核心算法:审查”机器视觉及其应用,第30卷,第2期3,第423-446页,2019。查看在:谷歌学术
  9. Q.刘,B.Zou,J. Chen等,“彩色视网膜眼底图像中自动渗出分割的位置到分割策略”,计算机化的医学成像和图形,第55卷,第78-86页,2017。查看在:出版商的网站|谷歌学术
  10. N. Asiri,“基于深度学习的糖尿病视网膜病变计算机辅助诊断系统:一项调查”,2018,arXiv预印本arXiv:1811.01238。查看在:谷歌学术
  11. A. R.Chowdhury,T. Chatterjee和S. Banerjee,“一种基于随机的森林分类器的方法在检测视网膜异常”中,“医学与生物工程与计算机,卷。57,没有。1,pp。193-203,2019。查看在:出版商的网站|谷歌学术
  12. O.Perdomo,S. Otalora,F.Rodríguez,J.Anvalo和F.A.González“,一种基于渗出物定位的新型机器学习模型,以检测糖尿病黄斑水肿”眼科医学图像分析第三届国际研讨会论文集,雅典,希腊,2016年10月。查看在:谷歌学术
  13. D. Y. Carson Lam,“使用深度学习自动检测糖尿病视网膜病变”AMIA关于翻译科学诉讼的峰会, 2018年,147页。查看在:谷歌学术
  14. K. Adem,M.Hekiëm和S.Demi̇r,使用线性分类器和基于萤火虫和粒子群优化算法的迭代阈值方法检测视网膜图像中的出血,“土耳其电气工程与计算机科学杂志第27卷第2期1,页499-515,2019。查看在:出版商的网站|谷歌学术
  15. J. Kaur和D. Mittal,“一种从病理视网膜眼底图像分割出渗出物的广义方法”生物恐慌与生物医学工程第38卷第2期1, pp. 27-53, 2018。查看在:出版商的网站|谷歌学术
  16. V. Das和N. B. Puhan,“Tsallis熵和稀疏重建字典学习在糖尿病视网膜病变渗出物检测中的应用”,医学影像杂志,卷。4,第024002,2017年。查看在:出版商的网站|谷歌学术
  17. H. F. Jaafar, a . K. Nandi,和W. a . Nuaimy,“使用纯分裂技术检测视网膜图像中的渗出物”2010年IEEE医学与生物学工程国际年会,页6745-6748,IEEE,布宜诺斯艾利斯,阿根廷,2010年9月。查看在:谷歌学术
  18. M. M. Fraz,W. Jahangir,S. Zahid,M. M.M. Hamayun和S. A. Barman,“使用上下文提示和集合分类的视网膜图像中的渗出物的多尺度分割”生物医学信号处理与控制,卷。35,pp。50-62,2017。查看在:出版商的网站|谷歌学术
  19. B. Harangi和A. Hajdu,“通过融合多个活动轮廓和域的分类,自动渗出物检测”生物与医学计算机,卷。54,pp。156-171,2014。查看在:出版商的网站|谷歌学术
  20. B. Harangi, I. Lazar,和A. Hajdu,“利用活动轮廓模型和区域分类的自动渗出检测”,发表于2012年IEEE医学与生物学工程国际年会,pp.5951-5954,IEEE,圣地亚哥,加利福尼亚州,2012年8月。查看在:谷歌学术
  21. S.林,W. M. D. W.扎基,A.侯赛因,S.L.林和S. Kusalavan,“在数字眼底图像糖尿病性黄斑水肿的自动分类,”在2011 IEEE人文、科学与工程学术研讨会, pp. 265-269, IEEE,槟城,马来西亚,2011年12月。查看在:谷歌学术
  22. B. Harangi和a . Hajdu,“使用马尔可夫分割模型检测眼底图像中的渗出物”,发表于2014第36届IEEE医学与生物学工程国际年会,pp.130-133,IEEE,芝加哥,IL,2014年11月。查看在:谷歌学术
  23. L. Giancardo, F. Meriaudeau, T. P. Karnowski等人,“使用公开数据集在眼底图像中基于渗出的糖尿病黄斑水肿检测”,医学图像分析,第16卷,第5期。1, pp. 216 - 226,2012。查看在:出版商的网站|谷歌学术
  24. E. Decencière, G. Cazuguel, X. Zhang等,“远程眼科学的机器学习和图像处理方法”,Irbm第34卷第3期2, pp. 196-203, 2013。查看在:出版商的网站|谷歌学术
  25. T. Kauppi, V. Kalesnykiene和j - k。diaretdb1糖尿病视网膜病变数据库和评估方案,刊于2007年英国机器视觉会议程序,第1-10页,英国机器视觉协会,华威大学,英国,2007年9月。查看在:谷歌学术
  26. W.Cao,“使用小型图像补丁和机器学习方法的眼底图像中的MicroNeuRySm检测”2017年IEEE生物信息学与生物医学(BIBM)国际会议, pp. 325-331, IEEE, Kansas, MO, USA, 2017年11月。查看在:谷歌学术
  27. C. Stauffer和W. E. L. Grimson,“实时跟踪的自适应背景混合模型”,出版1999年IEEE计算机学会计算机视觉与模式识别会议论文集, pp. 246-252, IEEE, Collins, Colorado, June 1999。查看在:谷歌学术
  28. C.塞格迪(C. Szegedy)、W.刘亦菲(W. Liu)和贾颖(Y. Jia)的《更深的回旋》(Going deeper with convolutions)计算机视觉与模式识别会议论文集,pp.1-9,IEEE,波士顿,马,美国,2015年6月。查看在:谷歌学术
  29. 何凯,张昕,任舜,“基于深度残差学习的图像识别”计算机视觉与模式识别会议论文集,pp.770-778,IEEE,拉斯维加斯,NV,美国,2016年6月。查看在:谷歌学术
  30. 3 .张志强,“基于卷积神经网络的图像识别”,2014,arXiv预印本,arXiv: 149.1556。查看在:谷歌学术
  31. J. Yosinski,“深度神经网络中的特征可转移性有多大?”神经信息处理系统的进步, pp. 3320-3328, 2014。查看在:谷歌学术
  32. Yu Y.,“基于多深度卷积神经网络的医学图像模态分类”,计算机信息系统学报,卷。11,pp。5403-5413,2015。查看在:谷歌学术
  33. O. Russakovsky,J. Deng,H. Su等,“Imagenet大规模视觉识别挑战”国际计算机视觉杂志第115卷第1期3, pp. 211-252, 2015。查看在:出版商的网站|谷歌学术
  34. 杨磊,“迁移学习理论在主动学习中的应用”,《教育科学》,第1期。机器学习,第90卷,第5期。2,页161-189,2013。查看在:出版商的网站|谷歌学术
  35. J.Brownlee,“温和介绍K-Fold交叉验证”,Vol。7,p。2018年,2018年。查看在:谷歌学术
  36. J. Mo,L. Zhang和Y. Feng,“基于渗透的糖尿病黄斑水肿,使用级联的深度剩余网络在视网膜图像中识别”Neurocomputing, 2018年,第290卷,161-171页。查看在:出版商的网站|谷歌学术
  37. P. Khojasteh, l.a. Passos Júnior, T. Carvalho等,“使用深度学习特征检测眼底图像中的渗出物”,生物与医学计算机,卷。104,pp。62-69,2019。查看在:出版商的网站|谷歌学术

版权所有©2020 Muhammad Mateen等人。这是一篇发布在知识共享署名许可协议如果正确引用了原始工作,则允许在任何媒体中的不受限制使用,分发和再现。


更多相关文章

PDF. 下载引用 引文
下载其他格式更多的
订单打印副本订单
的观点1655
下载514.
引用

相关文章