ACISCgydF4y2Ba 应用计算智能和软计算gydF4y2Ba 1687 - 9732gydF4y2Ba 1687 - 9724gydF4y2Ba HindawigydF4y2Ba 10.1155 / 2020/3738108gydF4y2Ba 3738108gydF4y2Ba 研究文章gydF4y2Ba 鱼检测使用深度学习gydF4y2Ba https://orcid.org/0000 - 0003 - 1152 - 3272gydF4y2Ba 崔gydF4y2Ba SuxiagydF4y2Ba 1gydF4y2Ba 周gydF4y2Ba 余gydF4y2Ba 1gydF4y2Ba 王gydF4y2Ba YonghuigydF4y2Ba 2gydF4y2Ba 翟gydF4y2Ba LujungydF4y2Ba 1gydF4y2Ba MinutologydF4y2Ba AniellogydF4y2Ba 1gydF4y2Ba 电子与计算机工程系gydF4y2Ba 草原视图农工大学gydF4y2Ba 草原,TX 77446gydF4y2Ba 美国gydF4y2Ba pvamu.edugydF4y2Ba 2gydF4y2Ba 计算机科学部门gydF4y2Ba 草原视图农工大学gydF4y2Ba 草原,TX 77446gydF4y2Ba 美国gydF4y2Ba pvamu.edugydF4y2Ba 2020年gydF4y2Ba 23gydF4y2Ba 1gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 10gydF4y2Ba 07年gydF4y2Ba 2019年gydF4y2Ba 25gydF4y2Ba 09年gydF4y2Ba 2019年gydF4y2Ba 4gydF4y2Ba 11gydF4y2Ba 2019年gydF4y2Ba 23gydF4y2Ba 1gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 版权©2020崔Suxia et al。gydF4y2Ba 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。gydF4y2Ba

最近,人类的好奇心已经扩展从土地到天空和大海。除了派人去探索海洋和太空,机器人被设计为一些任务危险的生物。海洋勘探为例。有许多项目或比赛在自主水下航行器(AUV)的设计吸引了许多利益。本文的作者学会了平台升级的必要性从先前的水下机器人设计项目,并希望分享一个任务的经验扩展检测领域的鱼。因为大多数嵌入式系统提高了快速增长的计算和传感技术,这使得他们可以将更多的和更复杂的算法。在一个水下机器人,从传感器获取周围的信息后,如何更好地感知和分析相应的信息判断的一个挑战。处理程序可以模拟人类的学习例程。一个先进的系统有更多的计算能力可以促进深度学习的特性,利用许多模拟人类大脑神经网络算法。本文基于卷积神经网络(CNN)的鱼提出了检测方法。 The training data set was collected from the Gulf of Mexico by a digital camera. To fit into this unique need, three optimization approaches were applied to the CNN: data augmentation, network simplification, and training process speed up. Data augmentation transformation provided more learning samples; the network was simplified to accommodate the artificial neural network; the training process speed up is introduced to make the training process more time efficient. Experimental results showed that the proposed model is promising, and has the potential to be extended to other underwear objects.

国家科学基金会gydF4y2Ba # 1332566gydF4y2Ba # 1827243gydF4y2Ba # 1411260gydF4y2Ba
1。介绍gydF4y2Ba

大海充满了神秘和水下勘探一直是一个令人兴奋的主题。如今,机器人已经广泛采用为我们的日常生活。水下机器人是一种类型的机器人,这是获得越来越多的关注gydF4y2Ba 1gydF4y2Ba,gydF4y2Ba 2gydF4y2Ba]。必须配备一个诡辩机载计算机、惯性测量单元(IMU),和其他传感器能够支持预排程序的导航系统(gydF4y2Ba 1gydF4y2Ba]。作者有经验在一个水下机器人的设计和功能gydF4y2Ba 3gydF4y2Ba,gydF4y2Ba 4gydF4y2Ba)比赛。AUV,如图gydF4y2Ba 1gydF4y2Ba,与i7-based特色工业主板+ ARM微控制器。详细的硬件布局和机械平衡方案介绍了(gydF4y2Ba 3gydF4y2Ba,gydF4y2Ba 4gydF4y2Ba]。它通过了十一个决赛的资格,成为一个在2017年IEEE新加坡AUV挑战[gydF4y2Ba 5gydF4y2Ba]。这种竞争是清水的驻留在一个游泳池。任务不需要一个高分辨率的相机,所以主要的高性能处理器并没有选择。这AUV退出比赛后,作者意识到是时候修改系统征服现实生活任务。到目前为止,大部分的机器人控制平台转向Systems-On-Chip (SOC) (gydF4y2Ba 6gydF4y2Ba,gydF4y2Ba 7gydF4y2Ba]。前进AUV和添加更多的功能,目标之一就是从一个清晰的游泳池环境转换到一个真正的海水条件。因此,硬件需要升级到高分辨率数码相机还有一个强大的机载计算机,如NVIDIA杰森AGX XAVIER开发板。所以,在升级整个系统与集成视觉,研究计算机视觉的离线仿真模块。鱼的多种被选择为对象建立训练和测试数据集。海水条件因地方而异。在墨西哥湾的作者所在,水明显不如东部或西部海岸的美国。因此,如何识别从模糊的海水鱼是最具挑战性的研究。其中一个解决方案是采用超声波技术(gydF4y2Ba 8gydF4y2Ba,gydF4y2Ba 9gydF4y2Ba]。在某种程度上,它被证明是有效的行业,一个粗略的数量的鱼是不够充分的。然而,由于低分辨率,很难区分对象在一个复杂的环境,混合鱼,海龟等。本研究的目的是调查对象检测方案下真正的海水通过一个水下机器人内置数码相机。研究人员已经成功地采用了数码相机作为一种工具来捕获图像从海洋提高水下机器人视觉gydF4y2Ba 10gydF4y2Ba),但车辆遥控(ROV)而不是一个水下机器人。gydF4y2Ba

AUV和竞争环境。gydF4y2Ba

2。文献综述gydF4y2Ba

本研究的主要贡献是引入深度学习方法完成海水鱼识别模糊。结果,改进的计算机视觉的方法到一个水下机器人系统通过一个适用的神经网络。gydF4y2Ba

2.1。计算机视觉gydF4y2Ba

计算机视觉与成像传感器使用电脑模仿人类的视觉功能,从获得的数据集,提取特征分析和分类他们协助决策。它通常涉及许多领域的知识如高级计算机编程、图像处理、人工智能(AI),等等。例如,制造行业用它来检查变节或改善从大量的产品质量gydF4y2Ba 11gydF4y2Ba,gydF4y2Ba 12gydF4y2Ba]。有成熟的应用于人脸检测和情感观察在机场和其他安全检查分(gydF4y2Ba 13gydF4y2Ba- - - - - -gydF4y2Ba 15gydF4y2Ba]。医生使用某些诊断软件协助识别肿瘤和其他异常组织从医学成像gydF4y2Ba 16gydF4y2Ba]。农业行业采用计算机视觉预测领域的产量决策系统(gydF4y2Ba 17gydF4y2Ba]。谷歌正在设计自己的无人驾驶汽车的视觉范围约328英尺,汽车可以识别交通标志,避免行人(gydF4y2Ba 18gydF4y2Ba]。许多先进的例子表明,计算机视觉是改变我们的日常生活。提高性能,除了传统的图像处理能力,深入学习算法广泛采用的模仿我们的大脑。gydF4y2Ba

2.2。深度学习gydF4y2Ba

深度学习和神经网络的概念出现了几十年前。它最初由勒存研究员等人(1998年gydF4y2Ba 19gydF4y2Ba]。他设计了一个五层分类器命名LeNet5使用卷积神经网络(CNN)。由于大幅提高计算能力和大数据的爆炸,深度学习能够取得巨大的成就在过去的几年里。深度学习是基于大数据收集在一个特定的领域。从大规模的数据是非常重要的学习资源。深意味着层的神经网络有很多模仿我们的大脑。随着高性能GPU, ASIC加速器,云存储,和强大的计算工具,现在可以收集、管理和分析大数据集。因为只有足够大的数据集,可以在深度学习过度拟合问题得到解决。和增强计算能力可以加快速度耗时的训练过程。gydF4y2Ba

深基础倾斜的方法越来越多地应用在许多领域,和显著优于传统算法在计算机视觉和目标检测。许多机器人系统的性能提高了将深度学习。以谷歌AlphaGo为例,研究了人类的学习行为,回报与著名的球员(gydF4y2Ba 20.gydF4y2Ba]。gydF4y2Ba

能够促进深度学习在计算机视觉中,事先从图片收集足够的例子是至关重要的。ImageNet就是一个很好的例子(gydF4y2Ba 21gydF4y2Ba]。本研究包括开发一个数据库的一个贡献的鱼在海水来支持培训和测试。然而,学习算法是很重要的。传统的计算机视觉和图像处理方法特征提取的准确性,而深学习方法可以利用通过神经网络来提高技术。gydF4y2Ba

2.3。神经网络gydF4y2Ba

在过去的几年中,神经网络在深度学习是越来越受欢迎的。2012年,研究员Krizhevsky等人采用CNN来完成图像的分类ImageNet大规模视觉识别的挑战[gydF4y2Ba 22gydF4y2Ba,gydF4y2Ba 23gydF4y2Ba),测试精度明显高于传统算法。由于这一成就,深度学习的兴趣与神经网络提高了(gydF4y2Ba 24gydF4y2Ba]。2014年,罗斯等人提出了一个快速算法称为R-CNN旨在物体识别转化成一个回归的问题(gydF4y2Ba 25gydF4y2Ba]。均值的平均精度提高了近30%相比ImageNet最好成绩53.3%在2012年大规模视觉识别的挑战。计算的数量是巨大的,因为功能从不同大小的成千上万的提案将在每一个图像中提取。因为快R-CNN极大地减少了计算负担,它最近被广泛采用在计算机视觉,包括目标检测、图像分类、目标识别。YOLO提出Facebook的意思也是一个里程碑为相应的研究(gydF4y2Ba 26gydF4y2Ba,gydF4y2Ba 27gydF4y2Ba]。gydF4y2Ba

3所示。材料和方法gydF4y2Ba

本文介绍了CNN模型与图像分割在模糊的海水鱼检测。特定的数据集是支持本研究开发的。采用数据增加转换方案获得更多的学习资源,因为原始图像在特定环境中不能满足训练的目的。解决过度拟合问题,辍学的算法。因为我们的目标是这个系统合并到一个水下机器人需要实时应用程序,讨论了一些取舍,以减少处理时间。在本节中,详细系统设计与优化的方法解决。gydF4y2Ba

3.1。CNN架构gydF4y2Ba

CNN模型通常由许多层,如一个输入层,卷积与非线性单元层,和完全连接层(gydF4y2Ba 28gydF4y2Ba,gydF4y2Ba 29日gydF4y2Ba]。CNN的一个例子是显示在图gydF4y2Ba 2gydF4y2Ba。第一层是输入层接收图像信息作为学习资源与外界的联系。卷积层,以下层负责从图像中提取特征。卷积操作是一种常见的数学运算。显示了两个离散函数的卷积公式方程(gydF4y2Ba 1gydF4y2Ba):gydF4y2Ba (1)gydF4y2Ba fgydF4y2Ba ∗gydF4y2Ba ggydF4y2Ba ngydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 米gydF4y2Ba =gydF4y2Ba −gydF4y2Ba ∞gydF4y2Ba ∞gydF4y2Ba fgydF4y2Ba 米gydF4y2Ba ggydF4y2Ba ngydF4y2Ba −gydF4y2Ba 米gydF4y2Ba 。gydF4y2Ba

在RGB彩色图像卷积操作(gydF4y2Ba 30.gydF4y2Ba]。gydF4y2Ba

数据集由RGB彩色图像的256年水平。3×3矩阵,W0下面,被称为内核或一个过滤器。在实践中,卷积操作上执行的R, G, B通道分别,然后结果总结获得每个元素的功能映射,如图gydF4y2Ba 2gydF4y2Ba。gydF4y2Ba

为了更准确地提取对象的特点,大量的过滤器是用于每个卷积层。例如,提取特征,如边缘、纹理,等等,相应的过滤器是可用的,如图gydF4y2Ba 3gydF4y2Ba。gydF4y2Ba

卷积运算应用在图像特征苛捐杂税(gydF4y2Ba 31日gydF4y2Ba]。gydF4y2Ba

当执行卷积操作,功能图的大小正在考虑之中。有三个主要的因素影响其大小:深度、步幅和填充。图gydF4y2Ba 4gydF4y2Ba说明了特征映射,深度是3,步幅是1,和补零。gydF4y2Ba

特征提取器使用卷积操作。gydF4y2Ba

对于一个复杂的神经网络,通常有两种类型的两个相邻层之间的连接。他们是完全连接层和局部神经连接层分别如图gydF4y2Ba 5gydF4y2Ba。为一个完全连接的神经网络,输入层中的所有像素与隐层中的每个神经元如图gydF4y2Ba 5(一个)gydF4y2Ba。是很常见的,最后在CNN完全连接层两层。分别将softmax和输出层。因为大量的参数会增加计算量和延迟处理。本地连接的神经网络,只有部分的像素在输入层与下面的神经元隐层如图gydF4y2Ba 5 (b)gydF4y2Ba。这种类型的连接将减少,加快系统的连接数量。gydF4y2Ba

完全连接神经网络和本地连接神经网络(gydF4y2Ba 32gydF4y2Ba]。gydF4y2Ba

CNN中的卷积层使用本地连接,如图gydF4y2Ba 6gydF4y2Ba。例如,功能映射中的值" 8只与一个3×3矩阵(0,0,0;0 1 1;0,1,2)从输入图像和无关的剩余部分输入图像像素。gydF4y2Ba

卷积操作使用本地连接。gydF4y2Ba

参数完全或本地连接的所有层CNN表中列出gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

CNN模型中参数与图像分割。gydF4y2Ba

层gydF4y2Ba 输入的大小gydF4y2Ba 过滤器的大小gydF4y2Ba 步gydF4y2Ba 输出的大小gydF4y2Ba
Conv。1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 448年gydF4y2Ba ×gydF4y2Ba 448年gydF4y2Ba ×gydF4y2Ba 3gydF4y2Ba (7×7×3×64)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 224年gydF4y2Ba ×gydF4y2Ba 224年gydF4y2Ba ×gydF4y2Ba 64年gydF4y2Ba
Maxpool 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 224年gydF4y2Ba ×gydF4y2Ba 224年gydF4y2Ba ×gydF4y2Ba 64年gydF4y2Ba (2×2)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 32gydF4y2Ba
Conv。2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 32gydF4y2Ba (3×3×32×192)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 192年gydF4y2Ba
Maxpool 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 112年gydF4y2Ba ×gydF4y2Ba 192年gydF4y2Ba (2×2)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 96年gydF4y2Ba
Conv。3gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 96年gydF4y2Ba (3×3×128×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。4gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 128年gydF4y2Ba (3×3×128×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。5gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (1×1×256×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。6gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (3×3×256×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Maxpool 3gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 56gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (2×2)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。7gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (1×1×256×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。8gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (1×1×256×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。9gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (1×1×256×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv 10。gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (1×1×256×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv。11gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (3×3×256×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv。12gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv。13gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv 14。gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv。15gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (1×1×512×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv。16gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
Maxpool 4gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 28gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (2×2)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv 17。gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (1×1×512×256)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba
Conv 18。gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 256年gydF4y2Ba (3×3×256×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
Conv。19gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (1×1×1024×512)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv。20gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba
Conv 21。gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 512年gydF4y2Ba (3×3×512×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
Conv。22gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 14gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (3×3×1024×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
Conv。23gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (3×3×1024×1024)gydF4y2Ba 2gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
Conv。24gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (3×3×1024×1024)gydF4y2Ba 1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba
完全conn.1gydF4y2Ba NgydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 7gydF4y2Ba ×gydF4y2Ba 1024年gydF4y2Ba (1024×4)gydF4y2Ba 多gydF4y2Ba (1×4096)gydF4y2Ba
完全康涅狄格州。2gydF4y2Ba (1×4096)gydF4y2Ba (4096×7×7×30)gydF4y2Ba 多gydF4y2Ba (7×7×30)gydF4y2Ba

系统可以通过简化图可视化gydF4y2Ba 7gydF4y2Ba。gydF4y2Ba

CNN架构对象标识(gydF4y2Ba 26gydF4y2Ba]gydF4y2Ba

3.2。系统验证使用ImageNET数据集gydF4y2Ba

应用此系统前向海洋鱼本研究开发的数据集,作者从著名的下载图片ImageNet ILSVRC [gydF4y2Ba 21gydF4y2Ba做系统验证测试通过对象分类。20类有500张图片从鱼类、珊瑚、海龟,青蛙,船等等。这里所有的RGB图像新448×448。地面实况图像获得LabelImg软件手动操作。每个图像分为7×7细胞的网格。每个单元格将预测两个边界框的位置信息和类信息由1×1×30向量。这个向量由对象的中心坐标gydF4y2Ba XgydF4y2Ba ,gydF4y2Ba YgydF4y2Ba ,宽度gydF4y2Ba ωgydF4y2Ba ,高度gydF4y2Ba hgydF4y2Ba 边界框的信心得分,并预测概率的鱼,如图gydF4y2Ba 8gydF4y2Ba。gydF4y2Ba

使用ImageNET CNN模型的输出。gydF4y2Ba

预测一个图像的目标位置,目标是显示在一个边界框。总是有错误在地面实况和预测。损失函数是测量错误包括三个部分:开发协调错误,(十字路口在联盟)借据错误,和类的错误。方程(gydF4y2Ba 2gydF4y2Ba)给出了损失函数的数学形式。gydF4y2Ba (2)gydF4y2Ba lgydF4y2Ba ogydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba +gydF4y2Ba 我gydF4y2Ba ogydF4y2Ba UgydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba +gydF4y2Ba cgydF4y2Ba lgydF4y2Ba 一个gydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba 。gydF4y2Ba

在这里,借据是用来测量位置精度,如图gydF4y2Ba 9gydF4y2Ba。gydF4y2Ba

十字路口在联盟。gydF4y2Ba

每个网格单元在一个图像将预测gydF4y2Ba KgydF4y2Ba 边界框,包含一个对象来预测对象定位和类。此外,有信心每一个边界框。信心得分无关的类对象。它只描述了如何确定它是预测框实际上包含真正的对象。gydF4y2Ba (3)gydF4y2Ba CgydF4y2Ba ogydF4y2Ba ngydF4y2Ba fgydF4y2Ba 我gydF4y2Ba dgydF4y2Ba egydF4y2Ba ngydF4y2Ba cgydF4y2Ba egydF4y2Ba =gydF4y2Ba 公关gydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba egydF4y2Ba cgydF4y2Ba tgydF4y2Ba ×gydF4y2Ba 我gydF4y2Ba ogydF4y2Ba UgydF4y2Ba ,gydF4y2Ba

公关(对象)的概率表示感兴趣的对象。如果有一个物体在网格单元,公关(对象)是1;否则,它是0。gydF4y2Ba

通常,损失函数的平方之和的形式错误如下所示(gydF4y2Ba 33gydF4y2Ba]。它由三部分组成,定位错误,错误,信心和概率错误。gydF4y2Ba (4)gydF4y2Ba lgydF4y2Ba ogydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba xgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba xgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba −gydF4y2Ba ygydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba wgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba wgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba hgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba hgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba CgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba CgydF4y2Ba ̂gydF4y2Ba 我gydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba CgydF4y2Ba ∈gydF4y2Ba cgydF4y2Ba lgydF4y2Ba 一个gydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba cgydF4y2Ba −gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba cgydF4y2Ba ̂gydF4y2Ba 2gydF4y2Ba ,gydF4y2Ba

在哪里gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba 物体中心的地面实况坐标;gydF4y2Ba wgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba hgydF4y2Ba 我gydF4y2Ba 的宽度和高度是地面真理边界框;gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ̂gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba ̂gydF4y2Ba 预测对象的坐标中心;gydF4y2Ba wgydF4y2Ba 我gydF4y2Ba ̂gydF4y2Ba ,gydF4y2Ba hgydF4y2Ba 我gydF4y2Ba ̂gydF4y2Ba 是预测边界框的宽度和高度。上面的图gydF4y2Ba 10gydF4y2Ba满怀信心地显示一组输出值不同的类。gydF4y2Ba

对象分类结果ImageNET数据集。gydF4y2Ba

3.3。地面实况准备真实的海洋环境gydF4y2Ba

与完美的图像测试CNN系统后没有噪音。下一步是构建我们自己的数据集海洋中的鱼。因为它是很难获得图像从其他类型的对象如海龟、珊瑚等。这部分的研究中,鱼是唯一反对被探测到。410年收集的图片,他们中的许多人有多个鱼在一个图像,检测是具有挑战性的。选择相同的方法来创建地面实况图像。之前介绍过的参数保持不变,只有类信息是由1×1×18向量而不是1×1×30因为减少的类。图gydF4y2Ba 11gydF4y2Ba说明了一个标记图像的例子。很明显,这个数据集从ImageNET理想的图像完全不同。gydF4y2Ba

贴上地面真理。gydF4y2Ba

4所示。数据增加gydF4y2Ba

由于深度学习是基于大系统学习和训练数据集建立识别知识,必须作为学习资源提供足够的数据来提取对象特征(gydF4y2Ba 34gydF4y2Ba]。数据的缺乏会带来过度拟合问题。收集图像在现实从墨西哥湾水下环境,是用来吸引对象特性。然而,原始图像的数量收集从一个特定的环境不够大训练系统。因此,数据增加转换进行几何,它改变了图像的像素位置而特性保持不变,如图gydF4y2Ba 12gydF4y2Ba。四种类型的数据增加转换采用,原始图像的数量翻了一番让足够的训练数据集。gydF4y2Ba

通过随机角度旋转,旋转的图像;gydF4y2Ba

规模:图像缩放根据规模大小不同因素集;gydF4y2Ba

作物:作物的图像;gydF4y2Ba

镜面对称:水平或垂直翻转原始图像。gydF4y2Ba

数据增加转换。gydF4y2Ba

4.1。辍学的算法gydF4y2Ba

深度学习的常见问题之一是过度拟合,是指测试的精度远低于训练精度。在这种情况下,一个模型与高性能特性是使用真实世界的训练数据构建。如果事实证明过度拟合问题,模型的鲁棒性是值得考虑。除了学习数据的缺乏,这也将导致过度拟合问题,大量的参数在一个神经网络会导致过度拟合问题。因此,辍学算法(gydF4y2Ba 35gydF4y2Ba)被引入系统简化模型,如图gydF4y2Ba 5gydF4y2Ba。gydF4y2Ba

辍学意味着我们删除某些节点暂时从网络根据概率设置的过程中学习。在实践中,一些功能可以提取只有当存在一些隐藏的关系,减少深度学习模型的鲁棒性。另一方面,辍学删除一个隐藏的固定节点之间的关系,可以提高抗干扰能力,在一定程度上可以解决过度拟合问题。L1和L2正则化是通过修改成本函数,而辍学是通过修改神经网络实现的本身,这是一个技术训练网络时使用。在每个迭代中训练的过程中,作者随机下降的一些神经元,并设置消除节点的概率神经网络的每一层的网络。例如,值设置为0.5,如图gydF4y2Ba 13gydF4y2Ba在左边。神经元被丢弃,那么连接节点的删除,最后用更少的网络节点和小尺度。网络结构在这个培训将简化为如图gydF4y2Ba 13gydF4y2Ba在右边。gydF4y2Ba

一个标准的神经网络模型(A)和一个网络模型与辍学(b) (gydF4y2Ba 35gydF4y2Ba]。gydF4y2Ba

4.2。精炼损失函数gydF4y2Ba

YOLO改进意思损失函数从方程(gydF4y2Ba 4gydF4y2Ba)和(gydF4y2Ba 5gydF4y2Ba),(gydF4y2Ba 26gydF4y2Ba]。三个系数被放置在误差项的贡献比例的损失。如方程所示(gydF4y2Ba 5gydF4y2Ba),前两个方面协调相关识别对象gydF4y2Ba xgydF4y2Ba 和gydF4y2Ba ygydF4y2Ba 表示物体的位置,gydF4y2Ba wgydF4y2Ba 和gydF4y2Ba hgydF4y2Ba 请参阅边界框的宽度和高度。为了有更多的重量在前两个方面,gydF4y2Ba γgydF4y2Ba cgydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba 被分配的最大数量,值为5。因此,本地化的重量误差得到了增强。借据的误差计算,当物体中心落在这个细胞,借据的重量误差应该增加为了预测位置准确。的价值gydF4y2Ba γgydF4y2Ba ngydF4y2Ba ogydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba 将0.5提炼借据的错误。同样的错误值,大对象的影响误差的检测应小于小对象错误检测的影响。这是因为同样的偏见大对象的比例占的比例远小于相同的偏差小对象。因此,它应该增加对损失的贡献更大的对象借据错误。根被选出的宽度和高度取代原来的形式。相同偏压值的平方根误差的大盒子小于小的一个。gydF4y2Ba (5)gydF4y2Ba lgydF4y2Ba ogydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba =gydF4y2Ba λgydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba xgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba xgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba −gydF4y2Ba ygydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba λgydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba wgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba wgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba hgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba hgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba CgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba CgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba λgydF4y2Ba ngydF4y2Ba ogydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ngydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba CgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba CgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba CgydF4y2Ba ∈gydF4y2Ba cgydF4y2Ba lgydF4y2Ba 一个gydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba cgydF4y2Ba −gydF4y2Ba PgydF4y2Ba lgydF4y2Ba cgydF4y2Ba ̂gydF4y2Ba 2gydF4y2Ba 。gydF4y2Ba

在这篇文章中,作者精炼损失函数适合多个鱼应用程序。提出了损失函数正规化,以减少小数据集和过度拟合问题,L2正规化是添加一个正则化函数后,成本函数中列出方程(gydF4y2Ba 6gydF4y2Ba)和(gydF4y2Ba 7gydF4y2Ba)。gydF4y2Ba (6)gydF4y2Ba lgydF4y2Ba ogydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba +gydF4y2Ba 我gydF4y2Ba ogydF4y2Ba UgydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba +gydF4y2Ba cgydF4y2Ba lgydF4y2Ba 一个gydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba EgydF4y2Ba rgydF4y2Ba rgydF4y2Ba ogydF4y2Ba rgydF4y2Ba +gydF4y2Ba L2gydF4y2Ba 正规化,gydF4y2Ba (7)gydF4y2Ba lgydF4y2Ba ogydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba =gydF4y2Ba λgydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba xgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba xgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba −gydF4y2Ba ygydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba λgydF4y2Ba cgydF4y2Ba ogydF4y2Ba ogydF4y2Ba rgydF4y2Ba dgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba wgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba wgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba hgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba hgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba CgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba CgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba λgydF4y2Ba ngydF4y2Ba ogydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba BgydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ngydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba CgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba CgydF4y2Ba ̂gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba 年代gydF4y2Ba 2gydF4y2Ba 1gydF4y2Ba 我gydF4y2Ba jgydF4y2Ba ogydF4y2Ba bgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba CgydF4y2Ba ∈gydF4y2Ba cgydF4y2Ba lgydF4y2Ba 一个gydF4y2Ba 年代gydF4y2Ba 年代gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba cgydF4y2Ba −gydF4y2Ba PgydF4y2Ba lgydF4y2Ba cgydF4y2Ba ̂gydF4y2Ba 2gydF4y2Ba +gydF4y2Ba λgydF4y2Ba 2gydF4y2Ba ngydF4y2Ba ∑gydF4y2Ba wgydF4y2Ba wgydF4y2Ba 2gydF4y2Ba 。gydF4y2Ba

最后一项是L2正则化项,这是所有参数的平方的总和gydF4y2Ba wgydF4y2Ba ,除以样本大小gydF4y2Ba ngydF4y2Ba 训练集。gydF4y2Ba λgydF4y2Ba 是正则项系数,它重正则项的比例和其他条件。还有一个系数1/2,1/2是经常看到的,主要是为方便后者的结果,后者会产生2乘以1/2围捕。L2减少过度拟合的原理和过程是在文献[gydF4y2Ba 31日gydF4y2Ba]。gydF4y2Ba

5。结果与讨论gydF4y2Ba

实验的实现是基于公开Tensorflow工具箱和Python语言编程。硬件平台是建立在一个GeForce GTX 745 GPU 4 g内存。实验是由上述三个标准,性能,培训损失和测试损失分别进行比较。gydF4y2Ba

5.1。实验结果从数据增大gydF4y2Ba

图像的数量翻了一番通过数据增加转换方法,这意味着这种方法可以更准确地帮助学习功能的机器。我们使用的测试数据集来评估我们的模型。原来的数据增加,机器可以识别感兴趣的对象更准确地比结果没有数据,实验结果显然是如图gydF4y2Ba 14gydF4y2Ba。gydF4y2Ba

提高识别精度的数据扩充。gydF4y2Ba

从图gydF4y2Ba 14gydF4y2Ba鱼,很明显,在图像识别准确;信心的平均是0.568,0.65和0.59分别为三个示例图像。gydF4y2Ba

从图gydF4y2Ba 15gydF4y2Ba,观察的最后训练损失0.35使用原始数据提出的神经网络模型,最后培训使用数据增加0.46损失。这清楚地表明,数据增加转换有助于减少训练的损失。gydF4y2Ba

比较训练的损失。gydF4y2Ba

图gydF4y2Ba 16gydF4y2Ba说明了培训损失增加迭代的数量。设置迭代次数从0到600。训练和测试损失减少损失的区别分别从1.6到0.46和0.35。很大程度上解决了过度拟合问题。gydF4y2Ba

数据增加过度拟合的效果。gydF4y2Ba

5.2。实验结果从辍学gydF4y2Ba

在该测试中,隐藏层神经元被随机选择从这个网络。在这种谨慎,一个简化的深层神经网络。图gydF4y2Ba 17gydF4y2Ba显示了每个样本图像的平均信心大大提高;辍学鉴定方法的有效性增强。gydF4y2Ba

提高识别精度与辍学。gydF4y2Ba

培训辍学如图的损失gydF4y2Ba 18gydF4y2Ba。我们可以看到,最后培训损失与辍学是0.28,和0.35。辍学算法可以降低培训的损失。在这个特定的应用程序,辍学是0.85,培训时间(图是最小的所有损失gydF4y2Ba 18gydF4y2Ba)。gydF4y2Ba

辍学对训练的影响损失。gydF4y2Ba

进行了辍学的方法后,我们可以看到从图gydF4y2Ba 19gydF4y2Ba,训练和测试损失损失的区别从0.03下降到0.004。只有培训损失之间的细微差别和测试与辍学损失。过度拟合问题在很大程度上得到解决。因此,我们建立的模型是适用的。gydF4y2Ba

辍学的影响过度拟合。gydF4y2Ba

5.3。实验结果从损失函数Om算法性能gydF4y2Ba

作者使用了CNN模型与图像分割和back-propagated精炼损失函数的梯度和更新网络中的参数。损失函数的优化,预测更准确清楚地显示在图gydF4y2Ba 20.gydF4y2Ba。gydF4y2Ba

提高识别精度损失函数的改进。gydF4y2Ba

如图gydF4y2Ba 21gydF4y2Ba575年,当迭代时间,是收敛的。最后培训损失是0.18。然而,随着和平方损失函数,收敛点迭代时0.27倍是650卡路里。gydF4y2Ba

损失函数对训练的影响损失。gydF4y2Ba

5.4。讨论gydF4y2Ba

设计和选择的优化,基于深度学习鱼检测模块的设计和模拟。提高精度和减少处理时间,是很有前途的采用该方法为实现一个水下机器人。Tensorflow工具箱和Python编程接口兼容当前先进的单片机平台。gydF4y2Ba

6。结论gydF4y2Ba

在本文中,作者建立了一个神经网络模型来实现鱼检测。支持培训过程有足够的数据集,数据扩增方法。辍学选择算法来解决过度拟合的问题。此外,损失函数是精制更新网络内的参数。通过这些方法,训练时间和训练损失显著降低。总结本文的贡献:(1)建立数据集,包括真正的模糊海水条件;(2)修改损失函数和其他参数在CNN探索一种适用的解决方案鱼检测;(3)对AUV系统是针对嵌入式系统设计与所有可能的优化。gydF4y2Ba

数据可用性gydF4y2Ba

程序和图像数据用于支持本研究的发现可以从相应的作者。gydF4y2Ba

的利益冲突gydF4y2Ba

作者宣称他们没有利益冲突有关的出版。gydF4y2Ba

确认gydF4y2Ba

这项工作是由美国国家科学基金会资助# 1332566,# 1827243,# 1411260。gydF4y2Ba

永利gydF4y2Ba r B。gydF4y2Ba HuvennegydF4y2Ba 诉我。gydF4y2Ba Le BasgydF4y2Ba t P。gydF4y2Ba 莫顿gydF4y2Ba b . J。gydF4y2Ba 康纳利gydF4y2Ba d . P。gydF4y2Ba BettgydF4y2Ba b . J。gydF4y2Ba 鲁尔gydF4y2Ba h·A。gydF4y2Ba 莫里斯gydF4y2Ba k·J。gydF4y2Ba PeakallgydF4y2Ba J。gydF4y2Ba 帕森斯gydF4y2Ba d·R。gydF4y2Ba 萨姆纳gydF4y2Ba e . J。gydF4y2Ba 达比gydF4y2Ba s E。gydF4y2Ba 多雷尔gydF4y2Ba r·M。gydF4y2Ba 亨特gydF4y2Ba j·E。gydF4y2Ba 智能水下机器人(auv:他们的过去、现在和未来的海洋地球科学的发展gydF4y2Ba 海洋地质gydF4y2Ba 2014年gydF4y2Ba 352年gydF4y2Ba 451年gydF4y2Ba 468年gydF4y2Ba 10.1016 / j.margeo.2014.03.012gydF4y2Ba 2 - s2.0 - 84901619723gydF4y2Ba DincgydF4y2Ba M。gydF4y2Ba 哈吉耶夫gydF4y2Ba C。gydF4y2Ba 集成智能水下机器人的导航系统gydF4y2Ba 海洋工程与技术》杂志上gydF4y2Ba 2015年gydF4y2Ba 14gydF4y2Ba 1gydF4y2Ba 32gydF4y2Ba 43gydF4y2Ba 10.1080 / 20464177.2015.1022382gydF4y2Ba 2 - s2.0 - 84988289898gydF4y2Ba 周gydF4y2Ba Y。gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 人工智能gydF4y2Ba C。gydF4y2Ba 设计自主水下航行器(AUV)控制单元gydF4y2Ba 2015年ASEE Gulf-Southwest一年一度会议gydF4y2Ba 2015年gydF4y2Ba 圣安东尼奥,德克萨斯州gydF4y2Ba ASEE Gulf-SouthgydF4y2Ba 25gydF4y2Ba 27gydF4y2Ba 周gydF4y2Ba Y。gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 翟gydF4y2Ba lgydF4y2Ba 精制的态度基于IMU AUV算法gydF4y2Ba 15日科学计算国际会议(CSC的17)gydF4y2Ba 2017年gydF4y2Ba 内华达州拉斯维加斯gydF4y2Ba CSREA新闻©gydF4y2Ba 16gydF4y2Ba 22gydF4y2Ba 1-60132-452-9gydF4y2Ba SAUVCgydF4y2Ba https://sauvc.org/竞争gydF4y2Ba CadenagydF4y2Ba 一个。gydF4y2Ba 特朗红葡萄酒gydF4y2Ba P。gydF4y2Ba 雷耶斯gydF4y2Ba G。gydF4y2Ba 利诺gydF4y2Ba J。gydF4y2Ba YaselgagydF4y2Ba V。gydF4y2Ba 维拉gydF4y2Ba 年代。gydF4y2Ba 发展混合动力自主水下航行器benthis监控gydF4y2Ba 学报》2018年第四届国际会议控制、自动化和机器人(ICCAR)gydF4y2Ba 2018年gydF4y2Ba 奥克兰,新西兰gydF4y2Ba IEEEgydF4y2Ba 20.gydF4y2Ba 23gydF4y2Ba 10.1109 / ICCAR.2018.8384715gydF4y2Ba 2 - s2.0 - 85049896975gydF4y2Ba 伊奇霍恩说gydF4y2Ba M。gydF4y2Ba WoithegydF4y2Ba h . C。gydF4y2Ba 克雷默gydF4y2Ba U。gydF4y2Ba 平行的水下机器人路径规划算法的概念,机会,和程序——技术实现gydF4y2Ba 2012年海洋-丽水gydF4y2Ba 2012年gydF4y2Ba 韩国丽水gydF4y2Ba MTS / IEEEgydF4y2Ba 10.1109 / OCEANS-Yeosu.2012.6263557gydF4y2Ba 2 - s2.0 - 84866710401gydF4y2Ba 魏gydF4y2Ba H。gydF4y2Ba 佐佐木gydF4y2Ba T。gydF4y2Ba 和田gydF4y2Ba M。gydF4y2Ba 支持系统fishry资源管理利用卷积神经网络gydF4y2Ba 20 Woreless个人多媒体通信国际研讨会(WPMC)gydF4y2Ba 2017年gydF4y2Ba 印尼巴厘岛gydF4y2Ba IEEEgydF4y2Ba 442年gydF4y2Ba 447年gydF4y2Ba 10.1109 / WPMC.2017.8301853gydF4y2Ba 2 - s2.0 - 85045954703gydF4y2Ba 金gydF4y2Ba J。gydF4y2Ba 赵gydF4y2Ba H。gydF4y2Ba 巴西gydF4y2Ba J。gydF4y2Ba 金gydF4y2Ba B Yu S-CgydF4y2Ba 基于卷积神经网络代理车辆检测使用前瞻性的声纳图像gydF4y2Ba 海洋2016 MTS / IEEE蒙特利gydF4y2Ba 2016年gydF4y2Ba 美国CAgydF4y2Ba IEEEgydF4y2Ba 10.1109 / OCEANS.2016.7761209gydF4y2Ba 2 - s2.0 - 85006922891gydF4y2Ba 徐gydF4y2Ba F。gydF4y2Ba 丁gydF4y2Ba X。gydF4y2Ba 彭gydF4y2Ba J。gydF4y2Ba 元gydF4y2Ba G。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 张gydF4y2Ba JgydF4y2Ba 傅gydF4y2Ba X。gydF4y2Ba 实时检测海洋水下机器人视觉的小对象的方法gydF4y2Ba 2018年海洋- MTS / IEEE科比Techno-Oceans (OTO)gydF4y2Ba 2018年gydF4y2Ba 神户,日本gydF4y2Ba IEEEgydF4y2Ba 10.1109 / OCEANSKOBE.2018.8558804gydF4y2Ba 2 - s2.0 - 85060274261gydF4y2Ba 简gydF4y2Ba 张炳扬。gydF4y2Ba 陈gydF4y2Ba Y.-J。gydF4y2Ba 汉gydF4y2Ba Y.-T。gydF4y2Ba 谢长廷gydF4y2Ba M.-K。gydF4y2Ba 李gydF4y2Ba C.-M。gydF4y2Ba 施gydF4y2Ba TgydF4y2Ba 吴gydF4y2Ba M.-Y。gydF4y2Ba 杨gydF4y2Ba 裴伟伟。gydF4y2Ba AI和大数据分析晶圆工厂节能和冷却器优化赋予智能制造gydF4y2Ba 学报2018年e-Manufacturing &设计合作研讨会(eMDC)gydF4y2Ba 2018年gydF4y2Ba 台湾新竹gydF4y2Ba IEEEgydF4y2Ba 1gydF4y2Ba 4gydF4y2Ba 贾gydF4y2Ba J。gydF4y2Ba 机器视觉应用程序工业装配检查gydF4y2Ba 学报2009年第二次国际会议上机器视觉gydF4y2Ba 2009年gydF4y2Ba 迪拜,阿联酋gydF4y2Ba IEEEgydF4y2Ba 172年gydF4y2Ba 176年gydF4y2Ba 10.1109 / ICMV.2009.51gydF4y2Ba 2 - s2.0 - 77949835377gydF4y2Ba BiswasgydF4y2Ba 年代。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba 手术改变人脸检测使用log-gabor小波gydF4y2Ba 第12届国际计算机学报》会议上小波活跃的媒体技术和信息处理(ICCWAMTIP)gydF4y2Ba 2015年gydF4y2Ba 成都,中国gydF4y2Ba IEEEgydF4y2Ba 154年gydF4y2Ba 157年gydF4y2Ba 10.1109 / ICCWAMTIP.2015.7493965gydF4y2Ba 2 - s2.0 - 84978910305gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba EkwonnahgydF4y2Ba O。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 情感在击键力学的分析gydF4y2Ba 2018年国际会议信息,电子与通信工程(IECE2018)gydF4y2Ba 2018年gydF4y2Ba 中国,北京gydF4y2Ba DEStech出版物gydF4y2Ba 28gydF4y2Ba 29日gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba EkwonnahgydF4y2Ba O。gydF4y2Ba 击键力学用户身份验证gydF4y2Ba 第四届国际会议上控制论(CYBCONF)gydF4y2Ba 2019年gydF4y2Ba 中国,北京gydF4y2Ba 5gydF4y2Ba 7gydF4y2Ba Abdel-MaksoudgydF4y2Ba 埃曼gydF4y2Ba ElmogygydF4y2Ba 默罕默德gydF4y2Ba Al-AwadigydF4y2Ba 拉希德gydF4y2Ba 脑部肿瘤分割基于混合聚类技术gydF4y2Ba 埃及信息学杂志gydF4y2Ba 2015年gydF4y2Ba 16gydF4y2Ba 1gydF4y2Ba 开罗大学gydF4y2Ba 71年gydF4y2Ba 81年gydF4y2Ba 10.1016 / j.eij.2015.01.003gydF4y2Ba 2 - s2.0 - 84922570626gydF4y2Ba 王gydF4y2Ba Y。gydF4y2Ba 局域网gydF4y2Ba Y。gydF4y2Ba 郑gydF4y2Ba Y。gydF4y2Ba 李gydF4y2Ba K。gydF4y2Ba 崔gydF4y2Ba 年代。gydF4y2Ba 丽安gydF4y2Ba J。gydF4y2Ba UGV-based激光扫描仪系统测量树的几何特征gydF4y2Ba 8905年gydF4y2Ba 学报2013年学报国际研讨会上光电探测和成像gydF4y2Ba 2013年gydF4y2Ba 中国北京gydF4y2Ba 学报gydF4y2Ba 10.1117/12.2042341gydF4y2Ba 2 - s2.0 - 84888167122gydF4y2Ba 马尔gydF4y2Ba B。gydF4y2Ba 关键里程碑Waymo——谷歌的无人驾驶汽车gydF4y2Ba 3831年https://www.forbes.com/sites/bernardmarr/2018/09/21/key-milestones-of-waymo-googles-self-driving-cars/ b2965369gydF4y2Ba 勒存gydF4y2Ba Y。gydF4y2Ba BottougydF4y2Ba lgydF4y2Ba BengiogydF4y2Ba Y。gydF4y2Ba HaffnergydF4y2Ba P。gydF4y2Ba Gradient-based学习应用于文档识别gydF4y2Ba IEEE学报》gydF4y2Ba 1998年gydF4y2Ba 86年gydF4y2Ba 11gydF4y2Ba 2278年gydF4y2Ba 2324年gydF4y2Ba BBC新闻gydF4y2Ba 人工智能:谷歌AlphaGo拍去李Se-dol大师gydF4y2Ba 2016年gydF4y2Ba 关于ImageNetgydF4y2Ba http://image-net.org/about-overviewgydF4y2Ba KrizhevskygydF4y2Ba 一个。gydF4y2Ba SutskevergydF4y2Ba 我。gydF4y2Ba 辛顿gydF4y2Ba g . E。gydF4y2Ba ImageNet与深卷积神经网络分类gydF4y2Ba 先进的神经信息处理系统gydF4y2Ba 2012年gydF4y2Ba 25gydF4y2Ba 1106年gydF4y2Ba 1114年gydF4y2Ba 邓gydF4y2Ba J。gydF4y2Ba 伯格gydF4y2Ba 一个。gydF4y2Ba SatheeshgydF4y2Ba 年代。gydF4y2Ba 苏gydF4y2Ba H。gydF4y2Ba 科斯拉gydF4y2Ba 一个。gydF4y2Ba 李gydF4y2Ba F。gydF4y2Ba ImageNet大规模视觉识别竞争2012 (ILSVRC2012)gydF4y2Ba http://www.imagenet.org/challenges/LSVRC/2012/gydF4y2Ba 赵gydF4y2Ba Z.-Q。gydF4y2Ba 郑gydF4y2Ba P。gydF4y2Ba 徐gydF4y2Ba S.-T。gydF4y2Ba 吴gydF4y2Ba X。gydF4y2Ba 对象检测与深度学习:一个回顾gydF4y2Ba IEEE神经网络和学习系统gydF4y2Ba 2019年gydF4y2Ba 30.gydF4y2Ba 11gydF4y2Ba 3212年gydF4y2Ba 3232年gydF4y2Ba 10.1109 / TNNLS.2018.2876865gydF4y2Ba 2 - s2.0 - 85060944960gydF4y2Ba GirshickgydF4y2Ba R。gydF4y2Ba 快R-CNNgydF4y2Ba 2015年IEEE计算机视觉国际会议(ICCV)gydF4y2Ba 2015年gydF4y2Ba 圣地亚哥,智利gydF4y2Ba IEEEgydF4y2Ba 1440年gydF4y2Ba 1448年gydF4y2Ba 10.1109 / ICCV.2015.169gydF4y2Ba 2 - s2.0 - 84964588182gydF4y2Ba RedmongydF4y2Ba J。gydF4y2Ba DivvalagydF4y2Ba 年代。gydF4y2Ba GirshickgydF4y2Ba R。gydF4y2Ba 哈蒂gydF4y2Ba 一个。gydF4y2Ba 你只看一次:统一、实时检测gydF4y2Ba 学报2016年IEEE计算机视觉与模式识别会议(CVPR)gydF4y2Ba 2016年gydF4y2Ba 美国内华达州拉斯维加斯gydF4y2Ba IEEEgydF4y2Ba 779年gydF4y2Ba 788年gydF4y2Ba 10.1109 / CVPR.2016.91gydF4y2Ba 2 - s2.0 - 84986308404gydF4y2Ba 彭gydF4y2Ba Q。gydF4y2Ba 罗gydF4y2Ba W。gydF4y2Ba 冯gydF4y2Ba G。gydF4y2Ba 夏gydF4y2Ba Y。gydF4y2Ba 余gydF4y2Ba lgydF4y2Ba 郝gydF4y2Ba X。gydF4y2Ba 王gydF4y2Ba X。gydF4y2Ba 李gydF4y2Ba M。gydF4y2Ba 行人检测基于高斯混合模型的变电站和YOLO。意思gydF4y2Ba 2016第八届国际智能人机系统会议和控制论(IHMSC)gydF4y2Ba 2016年gydF4y2Ba 杭州,中国gydF4y2Ba IEEEgydF4y2Ba 562年gydF4y2Ba 565年gydF4y2Ba 10.1109 / IHMSC.2016.130gydF4y2Ba 2 - s2.0 - 85010409228gydF4y2Ba HassairigydF4y2Ba 年代。gydF4y2Ba EjbaligydF4y2Ba R。gydF4y2Ba 扎伊gydF4y2Ba M。gydF4y2Ba 深卷积神经小波网络监督阿拉伯语字母图像分类gydF4y2Ba 2015年15日智能系统设计与应用国际会议(ISDA)gydF4y2Ba 2015年gydF4y2Ba 摩洛哥马拉喀什gydF4y2Ba IEEEgydF4y2Ba 207年gydF4y2Ba 212年gydF4y2Ba 10.1109 / ISDA.2015.7489226gydF4y2Ba 2 - s2.0 - 84978429619gydF4y2Ba 张gydF4y2Ba D。gydF4y2Ba KopanasgydF4y2Ba G。gydF4y2Ba 德赛gydF4y2Ba C。gydF4y2Ba 柴gydF4y2Ba 年代。gydF4y2Ba PiacentinogydF4y2Ba M。gydF4y2Ba 无人监督的水下鱼检测融合流和客观性gydF4y2Ba 2016年冬季IEEE计算机视觉的应用研讨会(WACVW)gydF4y2Ba 2016年gydF4y2Ba 普莱西德湖,纽约,美国gydF4y2Ba IEEEgydF4y2Ba 1gydF4y2Ba 7gydF4y2Ba 10.1109 / WACVW.2016.7470121gydF4y2Ba 2 - s2.0 - 84977645429gydF4y2Ba 卷积神经网络识别gydF4y2Ba https://en.wikipedia.org/wiki/Kernel_ (image_processing)gydF4y2Ba 内核(图像处理)gydF4y2Ba https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/gydF4y2Ba 深入学习和机器学习gydF4y2Ba https://ireneli.eu/2016/02/03/deep-learning-05-talk-about-convolutional-neural-networkgydF4y2Ba 胡gydF4y2Ba M。gydF4y2Ba 杨gydF4y2Ba Y。gydF4y2Ba 沈gydF4y2Ba F。gydF4y2Ba 张gydF4y2Ba lgydF4y2Ba 沈gydF4y2Ba H。gydF4y2Ba 李gydF4y2Ba X。gydF4y2Ba 通过探索multi-facet健壮的web图像注释和结构性知识gydF4y2Ba IEEE图像处理gydF4y2Ba 2017年gydF4y2Ba 26gydF4y2Ba 10gydF4y2Ba 4871年gydF4y2Ba 4884年gydF4y2Ba 10.1109 / tip.2017.2717185gydF4y2Ba 2 - s2.0 - 85021827948gydF4y2Ba 盖亚gydF4y2Ba J。gydF4y2Ba GoncalvesgydF4y2Ba l . T。gydF4y2Ba 杜阿尔特gydF4y2Ba 一个。gydF4y2Ba ZanchettagydF4y2Ba B。gydF4y2Ba 德鲁斯gydF4y2Ba P。gydF4y2Ba BotelhogydF4y2Ba 年代。gydF4y2Ba 使用深度学习建立避障gydF4y2Ba 2016年十三拉丁美洲机器人技术研讨会和IV巴西机器人技术研讨会(LARS / SBR)gydF4y2Ba 2016年gydF4y2Ba 巴西累西腓gydF4y2Ba IEEEgydF4y2Ba 7gydF4y2Ba 12gydF4y2Ba 10.1109 / LARS-SBR.2016.9gydF4y2Ba 2 - s2.0 - 85010460589gydF4y2Ba 斯利瓦斯塔瓦gydF4y2Ba N。gydF4y2Ba 辛顿gydF4y2Ba G。gydF4y2Ba KrizhevskygydF4y2Ba 一个。gydF4y2Ba SutskevergydF4y2Ba 我。gydF4y2Ba SalakhutdinovgydF4y2Ba R。gydF4y2Ba 辍学:一个简单的方法来防止神经网络过度拟合gydF4y2Ba 机器学习研究杂志》上gydF4y2Ba 2014年gydF4y2Ba 15gydF4y2Ba 1929年gydF4y2Ba 1958年gydF4y2Ba