研究文章|开放获取
实时手机使用CNN模型濒危鹦鹉的分类基于传递学习中的应用
抽象
在众多深的学习方法,卷积神经网络(CNN)模型在图像识别出色的表现。研究鉴定和使用CNN分类图像数据组正在进行。动物识别和分类与CNN预计将用于各种应用很有帮助。然而,复杂的特征识别是分类准种具有类似的功能,如具有高色彩相似鹦鹉的准种是必不可少的。这项研究的目的是开发一种基于视觉的移动应用程序使用基于迁移学习先进的CNN模型(有些鹦鹉有相当类似的颜色和形状)濒危鹦鹉分类。我们所获得的图像有两种方式:直接从首尔大公园动物园收集它们并使用谷歌搜索抓取他们。随后,我们已经建立了先进的CNN模型与转让的学习和使用数据来训练他们。接下来,我们转换的充分培训的车型之一到在移动设备上执行的文件,并创建Android包文件。准确度为每个八个CNN模型的测量。用于移动设备的相机的整体准确度为94.125%。 For certain species, the accuracy of recognition was 100%, with the required time of only 455 ms. Our approach helps to recognize the species in real time using the camera of the mobile device. Applications will be helpful for the prevention of smuggling of endangered species in the customs clearance area.
1.简介
随着信息技术的发展,基于深度学习的图像处理与分类在各个领域得到了广泛的应用[1个]。特别是,对于图像分类的需求不断增加[2个]。深基于学习的分类器,诸如卷积神经网络(CNN),增加对各种对象的分类性能[2个]。在图像处理中的一个常见的任务是确定相似类型的对象与机器学习方法进行分类和簇的动物[三]。系统能够自动识别和分类动物物种已变得至关重要,尤其是对濒危物种的研究[4个]. 在动植物通关过程中,人类可以直接对物种进行检查,以确定单个物种,但这在时间和成本上可能效率低下。为了提高效率,可以在移动设备上进行物种的自动分类。然而,这需要解决用相似的颜色和形状来分类物种的问题。因此,需要自定义机器学习模型来对濒危物种进行分类,并解决特定应用中动物图像的复杂特征。
尽管各种机器学习模型可以划分不同的动物的图像,它仍然是区分动物物种是一个挑战。这是因为有一些物种具有高色彩相似。这是一个复杂的过程,需要专业知识,甚至人类。CNN的模型是高效的现代化识别方法。不同于传统的图像分类方法[5个]卷积神经网络利用多层卷积来自动提取和组合特征。这些算法被设计成独立执行,并被训练来解决特定的任务。此外,一旦特征空间分布发生变化,神经网络模型就必须进行重构。为了克服这些缺点,本研究采用转移学习方法对濒危鹦鹉类种进行分类。转移学习是一种机器学习技术,在这种技术中,为一个任务训练的模型被重新用于另一个相关的任务[6个]。在众多的方法部署在生产深学习模式,最简单的方法之一是将其部署到移动设备上。优点是,移动设备很受欢迎,易于使用。用户可以在几笔得到答案。此外,深度学习模型可以接收大量实时得益于移动设备的摄像头数据。当部署一个移动设备上的深度学习模型,两个方面应该考虑:模型的文件大小和处理速度。如果尺寸太大,不可能部署在移动设备上的模型。如果这个过程是缓慢的,这将导致用户的不便。
在本研究中,我们开发了一个实时移动应用程序,使用基于转移学习的CNN模型对濒危鹦鹉类物种进行分类。为了阐明本研究的目的,我们提出以下假设:(一世)设计的基于cnn的转移学习模型可以对颜色相似度高的濒危鹦鹉准种进行分类(ⅱ)该开发的应用程序可以嵌入设计了基于CNN培训
本文的其余部分安排如下。第2节相关的迁移学习工作与CNN模型礼物。第3节说明我们的实时移动应用程序。第4节礼物濒危鹦鹉的设计,移动应用程序的分类的实验结果。第5节讨论所设计的移动应用程序的贡献和分类结果。最后,第5节总结本研究。
2.相关工作
2.1。CNN模型和动物图像分类
许多著名的CNN模型架构的各种应用存在。在2016年,微软研究院提出了以快捷的连接建立深模型[问题的解决方案7个]。Zoph和乐还向自动的方法找到基于在ICLR 2017 [称为神经结构搜索策略梯度的新的,优化的模型架构八]。Szegedy等。已经赢得了ILSVRC 2014年的6.7%,与建立在概念模型前5的测试误差“在网络中的网络。”该模型的思想是使用维数降低,以减少计算成本,通过堆叠卷积运算,使用各种尺寸的过滤器,再后来将它们组合构成网络[9个]。通过Szegedy等人创建的另一个模型。被启-RESNET,它结合了剩余的连接呈现由微软研究院[10]。
许多相关的研究都是为了保护物种的多样性。为了获得这些研究所需的数据,安装了无人摄像机来获取这些生物的图像。然而,人力资源浪费在处理获得的数据。由于人的判断是主观的,准确性必然会下降。因此,创建一个自动处理和分类动物图像的系统是至关重要的。Norouzzadeh等人在“塞伦盖蒂快照项目”中说,人类对动物图像数据集的信息处理是耗时的;因此,许多数据仍未处理。他们提出了一个系统,在这个系统中,一台机器可以确定图像属于哪里,并检查图像中实体的数量和它们的行为[三]。Nguyen等。还创造了CNN模型三个在澳大利亚维多利亚州最常见的动物物种的分类,并表现出真实的测试结果[11]。庄等。引进了深刻的学习模式,自动注释海洋生物的图像数据,而不依赖于人类专家。他们尝试用自己的数据模型从SeaCLEF2017 [12]。在这项研究中,我们也提出了一个系统来使用移动设备的摄像头实时获取分类的图像数据。
2.2。迁移学习
迁移学习是国家的最先进的技术,深度学习研究。这种技术出现之前,人们必须创造并从头训练模式。这是很难创造性能卓越的模型在一个特定的任务,因为缺乏计算基础设施。此外,这是不可能收集到训练模型所需的足够的有意义的数据,尽管许多研究人员试图收集它们。然而,各种转移学习方法已经提出了用于在功能,即时的权重,参数或数据样本之间的关系信息的上下文中的域转移的知识[13–16]。
数字1个展示了使用迁移学习创建完整模型的四个步骤。首先,我们构建模型的体系结构,并在大型代表性数据集上对其进行培训。其次,我们删除最后一层(称为“损耗输出”)。第三,我们用另一个层替换它,它的工作是完成特定的任务。第四,我们用一个相对较小的数据集来训练一个新的模型。迁移学习实际上是将从数据中提取特征的工作转移到预先训练的模型中。例如,在ImageNet数据集上预先训练的模型可以检测鸟类图像上的低级特征(如曲线、轮廓和直线),因为这些低级特征在其他动物图像中几乎是相同的。剩下的任务是调优特性提取器的高级层和对bird进行分类的最后一层(这个过程称为微调)。一些研究已经应用了迁移学习[17,18]。迁移学习有望弥补缺乏数据,时间和计算的。
3.实时移动应用进行分类濒危鹦鹉准种的实现
3.1。移动设备中的系统设计和图像分类
系统分为四个部分,如图所示2个.首先,我们预处理数据为深度学习做准备。其次,我们来创建和经过预处理的数据训练一个分类。第三,我们生成的模型转换成可在移动设备上部署的文件。最后,我们部署模型。在本节中,我们描述了数据预处理以及创建和训练深度学习模型的过程。
在我们的研究中,我们使用Python (Anaconda)作为第三步,使用Android Studio作为最后一步。数据使用名为" imgaug "的Python库进行预处理[19],其提供图像预处理方法(“ImageTransformation”,“AdditiveGaussianNoise”,“CoarseDropout”,“BilateralBlur”等)。我们导入了“imgaug”库到我们的蟒蛇Jupyter笔记本环境的项目和原始图像进行数据增强。所获得的图像保存在文件夹与原始图像一起。
来开发应用程序,TensorFlow精简版提供了一种方法,其将所生成的模型成TensorFlow精简版FlatBuffer格式文件(.tflite),其可以在移动设备上进行部署。据官方TensorFlow精简版网站,FlatBuffer是一个开源的跨平台的序列化库,高效的数据序列化。TensorFlow精简版支持的文件由TensorFlow,具体功能,和Keras [创建的转化20.]。我们将这个转换后的文件插入到TensorFlow Lite提供的演示项目中,然后构建这个项目。在这一步之后,我们创建了一个Android包文件(APK),并在设备上安装了该应用程序。数字三显示了整个过程。Li等人。开发了用于使用其还原模块群卷积的自注意模块的移动设备,和优化的建模技术。他们声称,与其他模型[相比,该模型是有效的移动应用21]。随后,我们解释了如何通过部署精简版TensorFlow在移动设备上创建了一个模型CNN。
我们使用Keras库创建和培养深度学习模型。Keras是一个高层次的开放源码的神经网络API Python编写的。它被开发为开放性神经电子智能机器人操作系统(ONEIROS)项目的一部分。通过Keras产生的模型是使用基于TensorFlow,CNTK和Theano [快速和直观的界面建22]. 在计算机视觉领域,一些能够有效分类图像的模型体系结构已经被引入,Keras将其作为开源代码提供[23]。在这项研究中,我们提出了一个方法来定制这些模型,训练他们,并验证其性能。
3.2。数据扩张
一个在深学习模式发展的最大限制是它需要一个大的数据集。十万,几百万,甚至更多的数据样本需要创建一个可靠的深度学习模式。这些限制可通过操纵和变换数据的一个小量来克服。这就是所谓的数据增强。数据增强技术已经在许多研究[被使用24,25]。这些技术包括随机剪切,水平翻转,亮度修改,和对比度修改。如在图中所示4个我们通过水平和垂直翻转扩展数据集。数字4个显示了四个鹦鹉物种数据扩充后的扩展数据集。对于这个任务,我们导入了“imgaug”Python库(如第3.1)。它包含了“顺序”的方法,和操作技术可以被设置为这个方法的参数[19]。在这项研究中,因为我们只希望通过水平和垂直翻转来增强图像,以检查模型能够以较高的颜色相似鹦鹉的准种分类,我们插入“Fliplr”和“Flipud”对象。最后14000个图像包括原始数据的收集(详见第详情3.5)。
3.3。特征提取和CNN型号
Nguyen等人。在Lite AlexNet、VGG-16和ResNet50的模型架构上设置两个实验场景来分类野生动物图像[11]。第一种方案是模型从头开始训练,而第二个是使用一种称为“特征提取”,若把在ImageNet被预训练的大图像进口权的技术。为了监测和分类巨大动物的图像数据,需要进行一些训练前技术以提取新的图像局部特征熟悉的模式。特征提取解决了这个问题。它定制的模型(完全连接层)的顶层,并让预训练CNN提取图像的特征。在我们的研究中,我们使用的特征提取技术;我们通过与以随机初始化的权重模型比较验证其性能。与在ImageNet预训练的权重产生的第一款车型。我们的目的是验证该模型可以捕捉这是非常相似的,如两个物种的地方差异“Cacatua galerita”和‘Cacatua goffiniana’。
根据Lin等人的说法,传统CNN模型中常用的全连接层可能会过度匹配,尽管使用了dropout。他们提出了一种全局平均池(GAP)技术,将每个特征映射的平均值插入到一个向量中,并将其直接链接到SoftMax层的输入,而不是完全连接的层[26]:
式(1个)呈现在他们的研究中提出的办法。GAP是特征图的平均值的从最后卷积层的载体。间隙我表示向量的元素。这里,米是行的在特征图的数量和n个是特征映射中的列数。左项的含义是将feature map中的所有值相加,然后除以它们米乘以n个.的目的是为了获得特征映射的平均值。GAP计算特征映射是卷积过程的结果的平均值(图5个)。接着,它创建一个由平均值的向量。
根据他们的建议,GAP在完全连接层具有以下优点。首先,可以通过降低由人(超参数)进行处理的参数的数量可以减少计算成本。其次,一些模型参数可以被消除,以减少过度拟合。因此,没有必要靠辍学。在这项研究中,我们将使用GAP代替传统的完全连接层采取这种技术的优势。
我们进口ResNet50,NASNetMobile,InceptionResNetV2和InceptionV3车型从Keras库进行特征提取。在进口车型中使用与已预先训练上ImageNet权初始化卷积层。全局平均池层,并用使用SoftMax的致密层被卷积层之后加入(图6个)。实验比较了两种初始化类型:ImageNet的权值和随机值。此外,我们使用一个名为“Hyperas”的超参数搜索库来优化超参数(比如优化器和学习率),而无需研究人员的努力。
3.4。迁移学习
正如解释第2节,我们可以应用预训练模型的卷积层到另一个分类。因为图像由像素构成,图像的局部特征是几乎相同的其他图像。卷积层可以捕捉使用预训练权重这些模式。在这一点上,模型的执行局部上的抽象能力影响模型的性能。据Krizhesky等,对于转移模型中的测试结果显示,学习他们的前5精度比在其他情况下,[高27]。迁移学习不训练卷积层,但只允许他们提取特征,然后通过提取的特征以分类层。而且,有一种先进的技术,以改善模型(称为微调),该列车卷积层的高级别层和分类层在一起。在我们的研究中,我们尝试用节描述的模型3.3通过使用ImageNet的重量转移学习(ResNet50,NASNetMobile,InceptionResNetV2和InceptionV3)训练(图7个)。
3.5。实验
由于走私等社会问题,鹦鹉是韩国最常见的濒危物种之一。此外,《濒危野生动植物种国际贸易公约》(CITES)亦将鹦鹉列为最濒危物种(见下表)1个)。之前我们已经研究了不同颜色的鹦鹉,并与传统的CNN模型[形状28]。然而,在这项研究中,我们假设在CNN机型迁移学习可以,尽管类似的颜色和图案的准种分类好。本实验采用14420个鹦鹉图像。鹦鹉是一个四个种类,而我们使用的每个物种3605倍的图像。如表1个,四个鹦鹉物种Cacatua goffiniana,Cacatua galerita,阿拉chloroptera和Psittacus鸲. 在这些物种中,Cacatua goffiniana和Cacatua galerita有很高的颜色相似度。形态学信息对于利用CNN对鹦鹉图像进行分类是非常重要的。各物种的形态特征如表所示1个[29]。鹦鹉图像被划分为三个子集:训练,验证和测试集。他们从谷歌和YouTube进行抓取。有每个物种980个图像原本,但我们这些划分成两个组,只使用875的训练,因为信息泄漏。3500个图像通过数据扩充生产。2800对图像进行培训和700幅图像进行了验证。测试组具有420倍的图像,其中包括100个抓取的图像和由所述首尔大公园每每个物种提供5个图像。因为我们专注于两种颜色相似,我们没有做影响图像的色彩任何数据增强。因此2800个图像的训练集,700张图片验证集被提供给模型每个物种。测试组并没有经过数据增强的过程,因为它不是有效的使用增强数据未影响进行实际测试的颜色。 The testing is divided into two steps. After the training, we carried out the test of each model’s performance by comparing the confusion matrix and F1-score values for 420 test samples. Next, we converted the file into a FlatBuffer format, deployed it on a mobile device, and then verified the results by using the video data obtained from the Seoul Grand Park.
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||
数字八描述了整个实验过程。原始数据使用“imgaug”文库扩增,如在部分所述3.2.分类器使用TensorFlow的Keras API创建的映像,一个强大的工具来构建一个深刻的学习模式。我们专注于为迁移学习预训练模型;因此,我们引入的模型如图7个. 例如tensorflow.keras.应用.resnet.ResNet50号“可以设置权重初始化类型[30.]。我们可以通过关键字参数“权重”设置以获得期望的结果“imagenet。”该模型与堆叠GAP层和致密层完成。一旦模型的培训完成后,我们评估其性能使用测试数据t型“scikit学习” Python库[31,32]。接下来,我们将它转换成“FlatBuffer”文件被部署在移动设备上[33]。最后,我们可以看到在装置上的结果,如在图中所示9个.
四。结果
4.1。实验结果
数字10表演训练精度的学习曲线八款车型:ResNet50,NASNetMobile,InceptionResNetV2和InceptionV3有两种初始化:预训练ImageNet权重或随机数(如上节所述)。横轴表示对完整训练数据集训练迭代次数。垂直轴示出了训练精度(0.5手段模型正确地分类的数据的一半,1所表示完美的分类)。如图所描绘的10,该机型的性能第一的时代之后是穷人,但额外的迭代提高精度。后约20时期,每个模型的精度收敛于1,随着后来没有明显的改善。值得注意的是,这被初始化为ImageNet权重和有nontrainable卷积层跑赢其他的模型(我们可以检查出曲线位于更高)。此外,其准确性融合得更快。数字11说明了模型的验证精度的学习曲线。模特们在每个时间段之后的验证数据进行评估。因此,测量精度为预测的验证数据的质量。与现有的人相比,曲线看起来相对不均匀。这是因为这些模型从未见过这些数据。该机型利用学到的训练图像鹦鹉的一些特点,我们测试的是什么,他们使用的验证数据获悉。该机型多次经历了一些失败。然而,它们的精度收敛到最小误差的一个点。同样,ImageNet初始化模型的精度通常优于其他人。随着时间的推移(看两个图经过二十时期)两个图表没有显示出任何明显的下降。 Thus, overfitting did not occur. Overfitting refers to the models that perform well on the training set but not on the validation set.
之所以时期号为三十是因为我们检查发现它是没用的,超过三十。我们设置了一些回调函数,当我们呼吁在我们的实验中“model.fit()”,“EarlyStopping()”和“ReduceLROnPlateau()。”请将验证准确性尚未期间进行了5个时期提高已经停止。我们看到,在训练时期从未超过25,所以我们设置历元数到三十。学习率0.001开始,如果验证准确性尚未在三个时期,直到训练结束提高了0.03逐渐下降。当我们所谓的“model.compile(),”我们定损等于“categorical_crossentory,”指标等同于“ACC”,以及优化等于“亚当”。
表2个显示所有车型混淆矩阵。混淆矩阵是一种评价方法,用于检查所有标签的分类器的性能。在这项研究中的每个模型包括在内,每行显示根据标签上的模型的性能。例如,在第一行装置九十二分之百该正确预测的数目是分别由ImageNet权重和随机权,初始化的模型100和92。测试图像的每个种类的数目是105,如前面提到的。因此,ResNet50与ImageNet权重正确分类100出来的105个样本。混淆矩阵是每个模型的真实表现的一个重要措施。因为模型上以前看不到的数据进行评估,我们可以验证他们是否可以识别物种的一般特征。结果表明,该模型可以在训练和验证集图像进行分类准确(学习培训和验证曲线)的90%以上,但似乎并不适用于随机数初始化模式的混淆矩阵(右侧的混淆矩阵的值)。因此,用于验证一些信息在训练过程中泄露出来; hence, the models memorized the features of validation instead of general features of species. According to our results, the models with ImageNet weights classify the images better than the other methods, even though the images are completely new. For example, the results are 98/66 and 88/55 for ResNet50 in Table2个. 这一发现不仅适用于ResNet50,也适用于其他型号。每个模型的正确预测数分别为100/105、98/105和94/105Cacatua galerita;88选自105,89选自105,95个105,和97总分105Cacatua goffiniana,分别是。
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
图12–15显示模式的F1分数。F1-得分是量化混淆矩阵的结果的方式。F1-分数是使用精确度和召回的计算方法
精密反映出许多人预测的项目如何是正确的。召回反映了许多正确的项目是如何预测。精度可以通过积极的预测数除以真阳性的数量来计算。例如,与ResNet50归类ImageNet 105倍的图像作为阿拉chloroptera在测试集。真阳性的数量是100。因此,ResNet50的精度为100出105召回可通过的真实病例的数量除以真阳性的数量来计算。对于ResNet50,真正的情况下,总数为105;因此,该模型的召回是100出来的105.我们可以计算出的结果的替代的F1-得分:
数字12节目的F1-得分阿拉chloroptera.当我们衡量,因为它考虑了数据分布(不像精度)模型性能的F1-得分比简单的精度更有效。让我们假设我们有第一个标签90个图像和与第二标签十张图片。如果我们将其归类所有图像为“第一个标签.. F1得分避免了这个问题,我们可以得到90%的准确性。总体而言,我们得出这样的结论基于ImageNet的模型优于鹦鹉的准种随机数初始化模式。
4.2。移动应用
在本研究中开发的实时移动应用程序的图形用户界面被显示在图9个.与权重ImageNet模型NASNetMobile被转换成一个FlatBuffer文件(.tflite)和添加到应用程序。随后,我们用Android Studio中编辑代码,并添加视觉元素。首先,我们检查了Android Studio中,SDK版本和依赖关系,用TensorFlow精简版兼容。在FlatBuffer文件中的模型位于项目后,我们建立它,然后一个APK已创建。最后,应用程序被安装在设备上。
鹦鹉图像由移动设备的相机捕捉。接下来,训练模型分类的图像。最后,应用表明该模型的结果。我们可以在屏幕底部的检查结果,如图可见9个.图的第一图像9个显示鹦鹉图像的预览:文本行的礼物,这鹦鹉“阿拉chloroptera”为百分之百。“345 ms” is seen at the lowest part of the image: it means that it took 345 ms to classify this image. The average turnaround time was 460 ms, the minimum time was 229 ms, and the maximum time was 671 ms for 50 iterations. According to our findings, the application processed jobs under 1 second.
5.讨论
在本文中,我们提出了濒危鹦鹉分类。该模型提取鹦鹉出场的特点在卷积层,已预先训练了大量的数据,然后我们在最后一层的图像进行分类。我们所提出的模型需要一个相对较短的时间进行自己的工作。他们比模特从头开始的训练,特别是对于那些具有相似颜色的品种更准确。这是因为预训练的机型已经可以提取新的图像的低级别的功能。通过迁移学习训练模式的另一个优点是,该模型并不需要绘制边框训练的最后一层。这种方法将通过消除手动流程大大降低了对人类的不便。我们预计,如果施加微调精度会有所增加。最后,基于Tf.keras模型可以方便的部署使用由TensorFlow精简版提供的FlatBuffer文件转换器Android移动设备上。为了澄清这项研究的关键点,我们建议如下亮点:(一世)CNN机型迁移学习可以不需要任何特殊的困难进行培训(ⅱ)所设计的先进机型CNN不需要任何人工的预处理(如标签或在图像上绘制边界框)(三)CNN的模型可以很容易地转换成一个文件,以便在使用TensorFlow精简版框架的移动应用程序部署(ⅳ)移动应用程序可以实时分类颜色相似度高的濒危准种鹦鹉
6.总结和未来工作
在我们提出的系统中,移动应用从分类实时设备摄像头采集的图像。综上所述,我们的系统的工作原理如下。我们用两种方法来创建与原始数据的少量高品质的模型。首先,我们使用数据扩张通过操纵的原始数据,以增加数据的量。其次,我们所用的传送学习顺利提取图像的特征。具体地,我们使用预训练上的大量的数据的卷积的层。接下来,我们使用TensorFlow精简版提供的FlatBuffer文件转换器来部署移动设备上的这种模式。鹦鹉的准种的分类模型与迁移学习的精度比从头训练模式的高20%左右。
在此研究的基础上,我们也希望对高级主题的进一步研究可以探索如下。首先,可以在添加微调过程时改进结果,如本节所述5个.其次,除了四个品种在本研究鹦鹉的分类,就可以开展鹦鹉准确分类的十余种。
数据可用性
用于支持本研究的结果的图像数据可从根据请求相应的作者。但是,仅仅是因为这项研究是环境部,韩国在一些可用的样本数据。
利益冲突
作者宣称,他们没有利益冲突。
致谢
这项研究是由环境部,大韩民国(2018000210004)的支持。
参考
- Y.薛,陈实,J.秦,刘Y.,黄B.和H.陈,“深度学习的癌症分子图像自动分析中的应用:一项调查显示,”造影剂与分子成像, 2017卷,文章ID 9512370, 10页,2017。查看在:出版商的网站|谷歌学术
- Z.解和C.籍,“单和使用更快R-CNN日冕暗和冠状波的多波长检测,”天文学进展卷。2019年,文章编号7821025,9页,2019。查看在:出版商的网站|谷歌学术
- M. S. Norouzzadeh,A.阮,M. Kosmala等人,“自动识别,计数和描述与深学习相机阱图像野生动物,”国家科学学院院刊卷。115,没有。25,第E5716-E5725,2018。查看在:出版商的网站|谷歌学术
- B、 Mridula和P.Bonde,“利用深度学习的力量拯救动物”国际计算机应用卷。179,没有。2,2017年。查看在:出版商的网站|谷歌学术
- A、 萨多拉,Y.Raj Pandeya,Y.Shah,D.K.Pant和R.Kadariya,尼泊尔保护区濒危动物种群监测研究,英特肖本,伦敦,英国,2019年。
- Z、 黄,潘,雷,“用深卷积神经网络进行有限标记数据的合成孔径雷达目标分类的传递学习”遥感,第9卷,第9期,第907页,2017年。查看在:出版商的网站|谷歌学术
- K.他,十张,S.仁和J.太阳,“深残留学习图像识别”,在2016年IEEE会议计算机视觉与模式识别(CVPR)论文集,拉斯维加斯,内华达州,美国,2016年6月。查看在:出版商的网站|谷歌学术
- B. Zoph和Q五乐,“神经架构搜寻有强化学习,”在国际学习陈述会议记录,法国土伦,2017年4月。查看在:谷歌学术
- C. Szegedy,W.刘,贾Y.等人,在“走出去与回旋更深,”2015年的IEEE会议计算机视觉与模式识别(CVPR)论文集,波士顿,MA,USA,2015年6月。查看在:出版商的网站|谷歌学术
- C. Szegedy,S.约飞,五文森特和A.亚历山大,incepepv4, incepepepresnet和剩余连接对学习的影响,AAAI出版社,旧金山,CA,USA,2017年。
- H.阮,S. J. Maclagan,T. D. Nguyen等人,“动物识别和鉴定对自动化野生动植物监测深卷积神经网络”,在在数据科学和高级分析的2017年IEEE国际会议论文集(DSAA)2017年10月,日本东京。查看在:出版商的网站|谷歌学术
- P、 庄立兴刘耀国、郭树桥,“海洋动物的探测与识别与先进的深度学习模式”,年2017年谱号会议记录都柏林,爱尔兰,2017年9月。查看在:谷歌学术
- S. J.潘和Q.杨,“关于转让学习的调查,”IEEE交易对知识与数据工程卷。22,没有。10,第1345至1359年,2010。查看在:出版商的网站|谷歌学术
- L.托里J. Shavlik公司,“转让学习,”在研究机器学习应用手册和趋势:算法,方法和技巧,E. S.奥利瓦斯,J.D. M.格雷罗,M. Martinez的-清醒,J.R。马格达莱纳-Benedito,和A. J. S.洛佩兹编,第242-264,IGI全球,好时,PA,USA,2010。查看在:谷歌学术
- R.库马尔Sanodiya和J.马修,“一种新的无监督整体性-局部保留在转印学习预测,”图像与视觉计算卷。90,2019。查看在:出版商的网站|谷歌学术
- J.马,J. P. C.郑,林C.,Y.谭,张J.和J.张,“使用深度学习和转让学习技术提高在较大的时间分辨率空气质量预报的准确性,”大气环境卷。214,文章ID 116885,2019。查看在:出版商的网站|谷歌学术
- H、 伊斯梅尔Fawaz,G.Forestier,J.Weber,L.Idoumghar和P.-A.Muller,“时间序列分类的转移学习”,in大数据的IEEE国际会议论文集,第1367-1376页,西雅图,华盛顿州,美国,2018年12月。查看在:出版商的网站|谷歌学术
- M. Sabatelli的,M. Kestemont,D.沃尔特,和P. Geurts,“艺术分类问题深迁移学习”,在欧洲计算机视觉会议(ECCV)研讨会纪要,德国慕尼黑,2018年9月。查看在:谷歌学术
- J.亚历山大,“imgaug,” 2019年,https://github.com/aleju/imgaug.查看在:谷歌学术
- TensorFlow,“TensorFlow lite converter”,2019,https://www.tensorflow.org/lite/convert.查看在:谷歌学术
- 十,李,R.龙,闫J.,K金,和J.李,“TANet:一个微小的浮游生物分类网络的移动设备,”移动信息系统卷。2019年,文章编号6536925,8页,2019。查看在:出版商的网站|谷歌学术
- Keras,“Python的深度学习图书馆”,2019年,https://keras.io.查看在:谷歌学术
- D.荣,谢L.和Y颖,“计算机视觉检测使用深度学习核桃异物,”农业中的计算机和电子卷。162,第1001-1010,2019。查看在:出版商的网站|谷歌学术
- A. Lin, J. Wu,和X. Yang,“训练全卷积网络用于左心室分割的数据增强方法”,磁共振成像,第66卷,第152-164页,2019年。查看在:出版商的网站|谷歌学术
- D、 Zhao,G.Yu,P.Xu和M.Luo,“辍学和数据扩充的等价性:数学检验”神经网络卷。115,第82-89,2019。查看在:出版商的网站|谷歌学术
- M.林,陈问:和S.严,“网网”,2013年,https://arxiv.org/abs/1312.4400.查看在:谷歌学术
- A. Krizhevsky,一Sutskever和G. E.韩丁,“ImageNet分类深卷积神经网络”ACM的通信卷。60,没有。6,第84-90,2017年。查看在:出版商的网站|谷歌学术
- D. G. CHEO,E.彩,E.C。Lee和K.董,在“基于视觉的对象检测使用CNN深模型濒危物种鹦鹉的分类的移动应用程序,”2018年美洲医学影像和临床研究会议(AMICR 2018),巴拿马,2018年12月。查看在:谷歌学术
- J. M.福肖,世界的鹦鹉,普林斯顿大学出版社,普林斯顿,NJ,USA,2010。
- Keras,“应用程序”,2019年,https://keras.io/applications/.查看在:谷歌学术
- Scikit-了解,“sklearn.metrics.Confusion_matrix,” 2019年,https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html.查看在:谷歌学术
- Scikit-了解,“sklearn.metrics.Classification_report,” 2019年,https://scikit-learn.org/stable/modules/generated/sklearn.metrics.classification_report.html.查看在:谷歌学术
- Tensorflow,“Tensorflow / tensorflow,” 2019年,https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/python/tflite_convert.py.查看在:谷歌学术
版权
版权所有©2020 Daegyu Choe等。这是下发布的开放式访问文章知识共享署名许可协议,其允许在任何介质无限制地使用,分发和再现时,所提供的原始工作正确的引用。