研究文章|开放获取
李Meiman Wenfu谢, ”行人运动路径基于深度学习和前景检测的检测方法”,复杂性, 卷。2021年, 文章的ID5596135, 11 页面, 2021年。 https://doi.org/10.1155/2021/5596135
行人运动路径基于深度学习和前景检测的检测方法
文摘
监控视频图像捕获的单眼相机,本文提出一种方法结合前景检测和深度学习检测行人移动,充分利用视频图像的不变的背景。首先,运动区域提取帧间差分和背景差分的方法。然后,规范化运动区域提取特征向量的基础上改进YOLOv3小网络。最后,训练有素的线性支持向量机用于行人检测、和鱼子酱融合检测算法的性能数据集,这证明了该融合检测算法的有效性。实验结果表明,该方法不仅提高了行人rerecognition的实际应用,还降低了检测范围,计算复杂度,错误检测率与滑动窗口的方法。
1。介绍
行人检测是计算机视觉的一个重要研究问题。近年来,随着机器学习的发展,行人检测已经取得了很大的进步。行人检测的主要内容是图像中行人快速、准确地检测和定位。这项技术已经广泛应用在汽车领域的援助、人机交互、机器视觉等(1]。在视频监控领域,大多数的行人检测方法仍然是基于手动检测。这种方式需要沉重的工作负载和低效率。随着大数据的时代,大量的视频数据需要处理。人工方式已经无法满足当前的需要。此外,智能和快速行人检测视频图像不仅可以估计人流密度还进一步分析人类行为和警告危险的场景2,3]。与手动检测相比,自动行人检测不仅可以提高效率,而且可以提高准确性。但对于不同的人,他们的外表、姿势和服装有一个伟大的对检测的影响。因为人们非刚性的对象,他们的姿态不断将改变当他们走4]。结合复杂环境和拍摄角度,这些都会增加检测的困难。有许多pedestrian-like对象在现实生活中,这可能导致错误的检测。行人在图像的大小是由行人和相机之间的距离。在整个图像多尺度行人检测会带来复杂的计算,而且一旦受到恶劣天气和光线变化的影响,检测率将下降。此外,移动行人会出现阻塞;这些都是检测的困难(5,6]。
目前,常用的行人检测方法可分为两类:行人检测在视频图像的静态图像和行人检测。行人检测方法在静态图像经常使用滑动窗口进行多尺度窗口选择,然后把相应的特征和分类器检测(7]。基于检测模板匹配模型的方法是先建立一个人类目标模板,然后使用模板匹配的相似图像中可能的目标区域,以确定是否一个行人目标(8]。一般来说,这个方法是快,但它需要手动获取大量的模板。一些行人姿势不能精确匹配,所以很难检测到行人目标在复杂条件下。统计学习是应用最广泛的方法,它主要由特征提取和分类器训练。特征提取主要是指图像中行人特征的提取和选择适当的特征组合通过机器学习知识9,10]。分类器训练指的是学习的特征数据模型,该模型可以区分行人。该方法简单、高效和健壮,成为主流的行人检测方法。
尽管有许多特征提取方法,但是太多的候选人windows严重影响检测的速度。此外,对视频图像,它有一些独特的运动信息,可以用来提高检测效果。为了应对视频监控数据的大规模增长,应该改进行人检测的速度。通过行人检测的开发过程,虽然深学习方法已经完全超越了传统的方法,成为了行人检测的主要手段来解决这个问题,我们不能忽视传统方法的重要基础性作用在行人检测技术。它仍然有一个很好的灵感行人检测。另一方面,虽然深度学习了行人检测领域的一个突破,它仍然有巨大的潜力可以利用,如网络结构优化、网络参数优化和训练样本的缺乏。因此,该方法基于深度学习仍有很大改进的余地在解决行人检测问题。本文基于前景的行人检测系统检测和深度学习。该方法具有实时和准确的优点。
2。运动行人检测算法基于深度学习和前景融合
2.1。融合检测算法流程
通过上述分析,可以看出,基于背景差分法运动目标检测算法可以有效地检测出运动目标并消除假警报的目标。现有的问题是检测区域并不准确,很难提供目标类型的判断,并极大地影响照明,闭塞,重叠,和其他因素11- - - - - -14]。行人检测算法基于改进YOLOv3小网络可以调整精度和召回率阈值通过设置不同的信心。同时,它可以判断目标的类别,并得到一个更精确的单个行人检测框架。现有的问题是它非常依赖于人工设定阈值的信心,因此很难实现之间的平衡精度和召回。
本文提出的融合算法结合了检测边界框架通过上述两种检测算法,并使用深度学习方法来描述行人的外观对象准确和全面,而矿业行人的运动信息对象(15- - - - - -18]。运动信息是用来消除虚警目标可能产生的深度学习方法,最后,融合检测结果。融合检测算法的过程如下:首先,基于改进的行人检测的参数模型YOLOv3小网络训练通过使用数据集,和一个框架包含背景视频中作为背景。然后,原始图像输入背景差分运动检测模型和改进YOLOv3微型网络行人检测模型分别获得两种检测结果。最后,这两个算法的检测结果融合和输出。算法流程如图1。
2.2。融合过程分析
这两种检测算法将检测结果的边界框的坐标,和融合检测将处理这些边界框的位置和大小信息的融合结果。通过大量的实验测试,两种边界框的三种可能的情况进行了总结。
本文认为巧合的两个检测边界框架应该尽可能高。然而,通过大量的实验和理论分析,可以看出,由于背景差分法需要扩展二进制图像,处理较低程度的扩张可能会导致不完整的步行街,和高度的处理往往导致外矩形框架是大于实际的步行街(19- - - - - -22]。首先,坐标、宽度和高度的两种边框比较。如果边界框的左上角是接近,它是确定两种边界框可能属于同一目标。然后,它的宽度和高度是否确定两种边界框关闭。如果他们接近,它是确定改进的边界框YOLOv3小网络包含真正的行人移动目标。
当行人被遮挡、重叠或阴影,它是基于背景差分法运动行人很难区分多个行人。然而,行人检测框架的改进YOLOv3小网络可以分为检测帧的背景差分法,因为它的高和低分散和部分重叠。改进的中心点是否YOLOv3小网络检测边界框分为中心背景差分检测框计算的范围。如果它落在中心范围内,可以认为改善YOLOv3小网络检测盒包含正确的行人目标移动。
断开连接的域时由于阴影和其他原因,检测帧的背景差分法将是不完整的。只有一个类似的横坐标和纵坐标左上角的边界框的图,和改进的中心点YOLOv3小网络检测盒不落入中心范围内的背景差分检测盒(23- - - - - -27]。这时,十字路口的比例的两种计算边界框在各自的领域。如果比例大于某个阈值,就可以确定检测盒改进YOLOv3小网络包含真正的行人移动目标。
通过上述分析,可以发现有一定关系两种类型的边界框的坐标,边长度和面积。为了减少时间消耗的融合检测算法尽可能的原则更多的加法和减法和乘法和除法跟着融合了边界框。第i个目标在行人检测结果,和目标的边界框的行人检测算法检测到的基于改进YOLOv3小网络 。移动物体检测算法基于背景差分法检测对象的边界框 ,左上角的坐标和边界框的宽度和高度,分别。集成的具体过程如下:(1)如方程所示,当边界的左上角的坐标和宽度和高度之间的差异在一定阈值 ,它直接决定目标是一个真正的目标。当至少有一个或者最多三四个差异达到阈值,它仍然认为可能会有一个真正的目标,它进入下一步; (2)如方程所示2)的中心点是否行人检测边界框 基于改进YOLOv3小网络是在一定高度范围内的移动物体检测边界框基于背景差分法来判断,这是由 。如果是在这个范围内,它将被判断为一个真正的目标;否则,它将进入下一步; (3)见公式(3),行人检测算法基于改进YOLOv3小网络和移动物体检测算法基于背景差分法得到的区域边界框IC、ID。如果IA大于某个阈值,这个边界框被认为是一个真正的目标。如果小于阈值,它将继续判断IB大于阈值 。如果大于阈值 ,它会认为这个边界框是一个真正的目标;否则,它将被视为一场虚惊目标或一个错误的目标。
通过上述实验,它可以发现行人检测算法基于改进的YOLOv3小网络可以实现高召回率低时信心阈值设置,这意味着大多数的行人目标可以明显。与此同时,一些假警报目标和重复检测盒也包含在检测结果。融合检测算法用于融合两种结果下阈值较低的信心。
最重要的两个指标来评估性能的目标检测算法精度和召回。目前,计算机视觉领域的专家和技术人员迫切希望提高目标探测的精度不降低召回率。大部分研究侧重于优化深卷积神经网络及其相关技术。融合检测算法提出了在本文中提供了一个新的想法来改善这两个指标在同一时间。基于背景差分法运动目标检测算法用于选择和修改行人检测算法的检测结果基于改进YOLOv3小网络在低阈值的信心。融合检测算法不依赖于人工信心阈值,可以有效地提高检测精度和召回率在同一时间。
3所示。行人运动路径检测系统的设计
3.1。网络结构
图2显示了一个端到端的行人检测与识别系统的网络结构提出了。相机的网络接受完整的场景图像作为输入,和两个分支用于提取图像特征。一个分支是通过卷积神经网络提取深度特征,和其他分支是提取的四个特征Retinex行人图像处理算法。接下来,两个特性被发送到行人检测网络,分别通过一个完整的融合在行人检测网络连接层。这种融合特性的基础上,行人检测和预测的边界框的旅行者通过使用YOLO目标意思算法进行回归(28- - - - - -30.]。这个行人检测方法第三章基于特征融合的行人检测方法。在得到行人边界框,即图像中行人的坐标,他们被发送到ROI池层。ROI池的操作可以精确的行人行人检测得到的坐标映射到深度特性映射后得到的一系列特征提取操作和具有里程碑意义的深度特征。然后,我们继续为行人识别,使用此功能,实现端到端效应。网络包括两个分支。一个是基于卷积神经网络特征提取,另一种是基于传统的手工设计四个特征提取。类似于行人检测功能融合的策略,我们使用融合层融合这两个特性来构建一个健壮的行人特性。在训练阶段,为了培养行人reidentification网络监督,我们使用随机抽样Softmax损失函数训练行人reidentification网络。在测试阶段,我们把每个行人的ID作为一个类别,然后multiclassify提取和融合行人特性验证每个检测到行人,也就是说,分配一个ID。
行人rerecognition技术通常用于处理视频监控的问题。面对大量的视频处理,是非常重要的,以确保系统的实时性能。因此,我们设计基于ResNet-50行人检测与识别系统网络结构。卷积ResNet-50网络层的第一层,7×7的卷积核,称为conv1。其余的网络结构分为四层。包含三个残块,第一层第二层包含四个残块,第三层包含六个残块,最后一层包含三个残块。我们使用conv1 conv2_ x, conv3_ x, conv4_ 1, xconv4_2, conv4_ 3,这些层深度特征提取网络。后输入行人图像经过深度特征提取网络,1024频道卷积生成特征图谱,这些特征图谱的解析是原始图像的1/16。与此同时,我们也提取传统手工设计的四个特点通过四个方法。为了得到准确的行人边界框,我们使用YOLO算法建立意思行人检测网络。 In the pedestrian detection network, the full connection layer is used to map the 1024 channel depth feature map to a 4096-dimension feature vector. A robust pedestrian feature is constructed by fusing the same 4096-dimension LOMO feature vector. The full connection layer is used as the feature fusion strategy, and the back propagation mechanism of the network can be used for feature fusion adaptively. According to the YOLO target algorithm, we generate 9 anchors on each feature graph and obtain the fusion features in each anchor and use the obtained features to train the classifier and linear regression for the network. The classifier is used to predict whether each anchor is a pedestrian, and the linear regression is to adjust its boundary box. In order to reduce the redundancy of the target frame, we first optimize the generated anchor with NMS and then classify and regress the rest of the anchor. Finally, accurate pedestrian detection results are obtained.
为了解决行人reidentification基于行人检测的问题,我们使用ROI池操作结合行人reidentification网络和行人检测网络设计成一个端到端的行人检测和reidentification系统。获得的图像目标的坐标位置的人在行人检测网络。我们建立一个行人识别rerecognition网络,进一步提取行人特性把CNN的特征和传统手工制作的四个特性,并利用这些特性火车行人识别分类网络,最后实现行人识别分类的影响。首先,我们使用ROI池层提取14×14×1024从每个行人帧特征图。然后,提取的特征地图发送到行人识别网络生成2048维的特征向量。最后,2048 d的特征向量是减少到256 d L2正常化,和行人特性用于训练和测试。在训练阶段,我们使用随机抽样Softmax (RSS)损失函数训练行人reidentification网络。这个损失函数可以有效地分类大量行人有相似的目标。
3.2。ROI池
ROI池是池的变异操作,这是池中感兴趣的区域,得到感兴趣的固定大小的区域特征映射在不同规模特征图。这个想法是应用于快速普查,它使用的RPN生成区域建议然后继续设计目标探测网络完成目标检测任务,所以很难训练网络的端到端。为了解决这个问题,本文采用ROI池操作实现端到端行人检测系统。该操作不仅可以实现端到端网络的训练也加快网络训练和提高检测精度。受这种思想的启发,本文介绍了ROI池为端到端行人检测和识别任务。行人图像坐标后,感兴趣的区域(ROI),由行人检测网络,获得深度特征映射的行人池操作获得的图像地图上深度特征作为输入的行人识别rerecognition网络。
ROI池的具体操作如下:(1)根据输入图像,ROI特征映射的映射到相应的位置;(2)映射的区域划分为大小相同的区域,和部分的数量是一样的输出尺寸;(3)马克斯池操作执行的每个部分。ROI池的具体操作如图3。
3.3。随机抽样Softmax
培训行人识别网络的关键问题之一是采用适当的分类损失函数。我们的训练集有5532的身份,所以分类目标在这个任务中非常密集。其次,由于高成本的计算在大图片,每一个小批量的训练集只包含两个场景图像,通常包含不超过十个不同训练身份。因此,小批量标签图像和数据集的标签分布明显不匹配,和训练数据集缺乏多样性。这两个问题使传统Softmax很难解决这样一个大规模的行人识别分类问题。在实践中,我们发现,如果我们使用的ResNet-50模型ImageNet pretraining直接传输网络,它不仅可以加快网络收敛,还降低了训练的损失。我们使用随机抽样Softmax (RSS)取代传统的Softmax损失函数。由于传统Softmax的损失,它可能只支持几类出现在小批量,严重抑制其他类。RSS损失函数解决了这个问题通过随机选择的一个子集Softmax神经元的每个输入样本计算损失和梯度。我们假设被列为目标C+ 1,有C类行人的身份。C+ 1是行人的背景,{x,年代}是用来表示每个数据样本,所以传统Softmax损失函数可以表示为
RSS损失函数选择K(k<C)分类计算损失和梯度的函数。如果所选分类表示为 ,则表示为数据样本 ;然后,RSS损失函数可以表示为
为了优化这个问题,我们需要树立一个良好的随机抽样的起点Softmax分类器。具体来说,我们将真正的边界盒为每个教练和随机提取相同数量的背景框。然后,我们调整行人帧224×224,然后分类行人与批处理大小为256帧ResNet-50模型。由于标签在每一个小批量的多样性,这种网络处理过程非常灵活,获得模型用作培训整个框架的起点。
4所示。实验和分析
4.1。绩效评估的融合检测算法
为了测试该方法的有效性在去除假警报信息,低分辨率的场景,强弱照度,重叠的闭塞,和假警报目标选择进行测试。实验数据来自鱼子酱项目。测试集提供26组监控视频和相应的标签信息,如行人购物、会议,进出商店,携带的行李在一个购物中心。视频分辨率为384×288,6 MB和12 MB之间视频大小,帧速率是每秒25帧,36222帧。
使用数据集分类的基本思想,训练集和测试集划分的比例不少于95%:5%。由于在每组的视频中行人运动的差异,有必要确保行人检测算法基于改进的YOLOv3小网络可以学习的最大程度上数据集的特性。因此,一定数量的图片是视频帧的每组随机抽取,和30000图片作为训练数据集提取。剩下的6222张图片作为测试数据集。行人检测算法的性能和融合检测算法基于改进YOLOv3小网络进行了分析,分别。下面是一个比较分析的准确性,回忆,和F1指标修改输出层和改善网络的基于鱼子酱数据集,如图4。
(一)
(b)
改进后的网络输出层与网络。从图可以看出4(一)在信心阈值越低,这个网络的精度优势很明显,和召回率略有提高。结果表明,两种方法检测到的目标的数量接近,但是正确的数量目标网络在本文中检测到的更多。在信心门槛高,召回率这个网络的优点是显而易见的,而且准确率略有改善。这表明正确的目标检测的比例由两个类似于所有检测到的目标,但网络本文可以发现更多的目标。从图可以看出4 (b)网络的整体性能,本文时明显改善信心门槛很低,仍有一定的改善,当阈值高的信心。总之,与YOLOv3小网络相比,修改输出层和由鱼子酱训练数据集,该网络具有一定的精度,改善召回,F1的分数。
公关曲线画来说明全面检测性能,如图5。
从图可以看出5,改善网络公关曲线下的面积较大,和两条曲线更接近时,召回率低于0.8。召回率大于0.8时,两者之间的差距也在不断增加。这表明该网络还可以提高检测性能的鱼子酱数据集在某种程度上。模型的性能在不同的信心阈值如表所示1。
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
从上述分析可以看出,行人检测算法基于改进YOLOv3小网络可以用高召回率检测更现实的目标,但它会带来一些假警报的目标检测结果。融合检测算法可以利用运动信息来过滤掉虚假报警信息的一部分,以提高检测的准确性。表2显示融合检测算法的性能在几组低阈值的信心。
|
||||||||||||||||||||||||||||||||||||
从数据可以看出6和7融合检测算法提高了检测结果的行人检测算法基于改进YOLOv3小网络。在同样的信心阈值,融合检测算法可以有效地提高检测精度为代价的失去召回的一小部分。随着信心的提高阈值,精度的改善效果略有减少,但F1指数仍然保持一个高分。这表明融合检测算法可以提高准确率和召回率的同时在一定程度上。
4.2。实验结果分析
摘要3000图像的目标区域和背景区域将出现INRIA和加州理工学院的测试数据集的数据集,分别包括1500份阳性样本像素大小为96×160年和1500年负样本测试样本组。数据8和9显示几个算法的实验结果。本文比较的性能Dagnet凯尔姆经常算法和Dagnet-SVM, CNN算法,传统和经典算法HOG-SVM INRIA的数据集和加州理工学院的数据集。本文在INRIA数据集的阳性检出率为97.9%,比传统CNN算法(95.8%)和经典的猪+ SVM算法(92.5%)。3000年理工学院的数据集的图像测试,实验结果显示在图中,这个算法的阳性检出率为94.7%,高于其他三种算法。
为了提高检测速度,在检测阶段,本文首先使用训练有素的DAG网络获取特性测试的第一阶段地图融合图像。线性融合方法用于熔断器每个通道的特点,然后获得的图像是原始图像的大小和比例输入GBVS凸起检测算法得到相应的显著图。原始图像和融合特征图像输入GBVS凸起检测算法,和卓越的图像比较,如图9。可以看出融合特征图像的检测效果更明显比原始图像。
多尺度滑动窗口只需要扫描的图像面积显著区域,减少了一代许多候选人windows和提高了检测的速度。每个窗口依次幻灯片20像素。当使用多尺度滑动窗口检测行人时,可能会有一个行人,多个窗口。的比例合并的原则是,如果两个重叠的检测窗口的交集区域较小的两个窗口大于一个阈值,本文阈值设置为0.6,然后窗口选择输出更高的分数。
本文实验主要是模拟在加州理工学院7.5 x和TUD-Brussels数据集,深层网络模型的训练与咖啡深度学习框架。因为INRIA的数据集包含少量的行人样本,它不适合深层网络培训。本文仍然采用美元公开评价算法,并使用日志小姐(先生)和年平均增长率平均每图像假阳性(FPPI) ROC曲线检测性能品质进行综合评价。
为了证明深度网络的有效性和回归判别算法提出了,我们评估他们在加州理工学院7.5 x数据集。添加回归判别算法之后,平均对数小姐检测率下降了0.93%,反映了该算法的有效性。卷积后更换信道特性与微调功能,深度平均对数小姐检出率从14.84%下降到13.20%,下降了1.64%,这充分显示了伟大的深度网络特征提取(图的优点10)。
5。结论
本文主要分析了运动目标检测算法的优点和缺点基于背景差分法和行人检测算法基于改进YOLOv3小网络。基于这些优点和缺点,融合的可行性分析两种算法的检测结果,以及融合检测算法的整体流程和具体实现。首先,两种可能的位置检测边界框在融合过程进行了分析,并筛选和融合的过程中介绍了两种边界框。然后,它介绍了鱼子酱的过程数据集和训练过程的行人检测算法基于改进YOLOv3小网络,给行人检测算法的性能基于改进YOLOv3小网络鱼子酱数据集。使用ROI池操作、行人检测网络和行人reidentification网络组合成一个端到端的系统网络。最后,鱼子酱的融合检测算法的性能数据集,这证明了该融合检测算法的有效性。实验结果表明,我们建议的端到端行人检测和识别网络基于特征融合不仅提高了行人识别在实际应用的适用性也提高了行人识别的识别率。
数据可用性
没有生成数据集或者在当前的研究分析。
同意
所有作者批准出版的论文。
的利益冲突
作者宣称没有利益冲突。
确认
这项工作得到了2020年广东省普通高校特色创新项目:图像识别算法的研究和实现基于人工智能技术,项目没有。2020 ktscx399。
引用
- 张y”,行人检测方法的纹理特征和深层学习,”辽宁Gongcheng Jishu大学学报(Ziran《禁令)/辽宁科技大学学报(自然科学版),35卷,不。2、206 - 210年,2016页。视图:谷歌学术搜索
- z, t . Wang j·邓et al .,“基于运动信息的快速行人检测,”计算信息系统杂志》上,11卷,不。6,2303 - 2313年,2015页。视图:谷歌学术搜索
- w·周s金子。m .桥本佐藤晴y和d .梁”前景检测基于同现的背景与假设模型退化修改在动态场景,”信号处理卷,160年,第79 - 66页,2019年。视图:出版商的网站|谷歌学术搜索
- h . m .秦y Lu Di, w·黄”背景的基础上选取前景检测方法”,IEEE多媒体,18卷,不。7,1283 - 1296年,2016页。视图:出版商的网站|谷歌学术搜索
- j . Chavat s Nesmachnow a . Tchernykh诉舍甫列夫,“主动安全系统为城市环境检测有害使用计算智能行人运动模式,”应用科学,10卷,不。24日,第9042 - 9021页,2020年。视图:出版商的网站|谷歌学术搜索
- 标本缓急l·杨,“强劲的前景检测使用基于块RPCA,”Optik: Zeitschrift皮毛发亮-和Elektronenoptik:另Electronoptic =》杂志上,卷126,不。23日,第4590 - 4586页,2015年。视图:谷歌学术搜索
- 戴y元,f、l、d .阴,y, y燕,“基于深度学习疲劳检测方法,研究”国际会议上人工生命和机器人学报》上25卷,第647 - 644页,2020年。视图:出版商的网站|谷歌学术搜索
- Gui和l . j .问:为核心”,行人检测的基础上修改动态背景使用高斯混合模型和HOG-SVM检测”国际期刊创新计算的信息和控制,14卷,不。1,第295 - 279页,2018。视图:谷歌学术搜索
- 陆秦和y”,前景检测方法基于cross-covariance子空间估计,“北京Ligong北京理工大学学报/事务,38卷,不。1,第95 - 91页,2018。视图:谷歌学术搜索
- j .窦j·李,问:秦,z,“移动物体检测基于增量学习和空间约束低秩表示,“Neurocomputing卷,168年,第400 - 382页,2015年。视图:出版商的网站|谷歌学术搜索
- m . b .桥、g . Stavroulaki和l . Marcus”发展的城市类型基于网络中心,建立密度及其对行人运动的影响,“环境与规划,46卷,不。8,1549 - 1564年,2019页。视图:谷歌学术搜索
- 美国同、p·米勒和h .周”提出混合高斯模型的建模的前景检测在动态场景,”模式识别,48卷,不。11日,第3503 - 3488页,2015年。视图:出版商的网站|谷歌学术搜索
- A . Garcia-Garcia Orts-Escolano,电脑,诉Villena-Martinez, p . Martinez-Gonzalez和j . Garcia-Rodriguez”调查深度学习图像和视频的语义分割的技术,”应用软计算,卷70,41 - 65,2018页。视图:出版商的网站|谷歌学术搜索
- w·魏问:Ke, j·诺瓦克,m . Korytkowski r·谢勒和m . Woźniak“准确、快捷的URL钓鱼检测器:卷积神经网络的方法,”计算机网络文章ID 107275卷,178年,2020年。视图:出版商的网站|谷歌学术搜索
- h . Yousif j .元,r·凯斯和z,他“对象检测来自联合快速背景建模和动态场景使用深度学习分类,“杂志的视觉传达和图像表示,55卷,第815 - 802页,2018年。视图:出版商的网站|谷歌学术搜索
- s . y . Wang Pierard, s . z苏et al .,“改善行人检测使用motion-guided过滤,”模式识别的字母,卷96,不。1,第112 - 106页,2016。视图:谷歌学术搜索
- b . Ashqar和s . s . Abu-Naser”映像的番茄叶片疾病检测使用深度学习,”国际工程研究杂志》上,卷2,不。12日,10到16,2019页。视图:谷歌学术搜索
- 诉,s·h·艾哈迈德·h·c·德·阿尔布开克,和w·魏,“客人编辑:特殊部分先进的工业物联网,深入学习算法”IEEE工业信息,17卷,不。4、2764 - 2766年,2021页。视图:出版商的网站|谷歌学术搜索
- j .李x史,j . Wang和m .严”自适应道路检测方法结合车道线和障碍物边界,”专业图像处理,14卷,不。10日,2216 - 2226年,2020页。视图:出版商的网站|谷歌学术搜索
- 问:吴y,周、吴x g .梁y Ou,和t .太阳,“实时检测系统运行基于光流的无人机图像和深度卷积网络,”专业智能运输系统,14卷,不。5,278 - 287年,2020页。视图:出版商的网站|谷歌学术搜索
- 黄永发。w·魏,吴l . Zhang et al .,“高血压的风险评估基于LVQ钢铁工人和Fisher-SVM深基坑,”IEEE访问7卷,第23119 - 23109页,2019年。视图:出版商的网站|谷歌学术搜索
- j .窦问:秦、z涂”背景减法基于深卷积神经网络特性,”多媒体工具和应用程序,卷78,不。11日,第14571 - 14549页,2019年。视图:出版商的网站|谷歌学术搜索
- l .杨·g·胡,y的歌,g . Li和l .谢“智能视频分析:一个行人轨迹提取方法对整个室内空间没有盲目的地区,”计算机视觉和图像理解文章ID 102968卷,196年,2020年。视图:出版商的网站|谷歌学术搜索
- 美国。普拉卡什”,建立检测、跟踪和分类的车辆,“IEIE事务在智能处理和计算,9卷,不。6,427 - 434年,2020页。视图:谷歌学术搜索
- 杨,j .曹:王,刘x,“异常行为检测移动人群基于加权卷积autoencoder-long短期记忆网络,”IEEE认知和发展系统,11卷,不。4、473 - 482年,2019页。视图:出版商的网站|谷歌学术搜索
- Hyung-Hoon J.-R。金”,实现有效的自动运动前景检测使用颜色信息,“计算机和信息的韩国社会杂志》上,22卷,不。6,131 - 140年,2017页。视图:谷歌学术搜索
- h . Hu b . Tang x锣,w·魏和h·王,“智能故障诊断的高速列车大数据基于深层神经网络,”IEEE工业信息,13卷,不。4、2106 - 2116年,2017页。视图:出版商的网站|谷歌学术搜索
- f·l·桑切斯Hupont, s . Tabik et al .,“回顾人群通过深度学习行为分析:分类,异常检测、人群情绪,数据集,机遇和前景,”信息融合卷,64年,第335 - 318页,2020年。视图:出版商的网站|谷歌学术搜索
- 赵w . Wang x, z锣,z . Chen n . Zhang和w·魏”一种引起深度学习框架旅行目的地预测分享的自行车,”IEEE智能交通系统卷,99年,页1 - 10,2020。视图:出版商的网站|谷歌学术搜索
- s . k .朋友a . Pramanik j . Maiti et al .,“深度学习在多目标检测和跟踪:艺术,”应用智能,10卷,外墙面,2021页。视图:谷歌学术搜索
版权
版权©2021 Meiman李和Wenfu谢。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。