复杂性

PDF
复杂性/2021年/文章
特殊的问题

认知计算解决方案在计算社会系统复杂性问题

把这个特殊的问题

研究文章|开放获取

体积 2021年 |文章的ID 5548476 | https://doi.org/10.1155/2021/5548476

9周,氮化镓, 研究快速行人检测算法基于Autoencoding神经网络和演算法”,复杂性, 卷。2021年, 文章的ID5548476, 17 页面, 2021年 https://doi.org/10.1155/2021/5548476

研究快速行人检测算法基于Autoencoding神经网络和演算法

学术编辑器:魏王
收到了 2021年1月06
修改后的 2021年3月04
接受 2021年3月17日
发表 2021年3月27日

文摘

为了解决行人检测精度低的问题实际交通摄像机和小目标行人错过检出率高,本文结合autoencoding神经网络和演算法构建一个快速的行人检测算法。针对单个高层输出特性映射的问题有足够的能力来表达行人特性和现有的方法不能有效地选择合适的多层次特征,本文改进了传统演算法结构,也就是说,样本权重更新公式和强分类器输出公式是重置,和两个输入AdaBoost-DBN分类算法。此外,在对该问题的看法,融合视频并不顺利,本文认为视频对象的运动信息,执行像素运动补偿内插,和恢复重建原始视频的帧率的下降帧间图像。通过实验研究,我们可以看出本文算法构造有一定的效果。

1。介绍

行人检测是计算机视觉领域的一个持久的研究方向,它是一个非常实用的大问题的子问题的目标检测。它的一些应用程序对我们的日常生活有很大的影响,可以直接应用于室内和室外移动机器人,自驾汽车、安全监测、和其他场景1]。

前面的行人检测技术可以检测行人车辆,采取相应的措施,使这项技术vehicle-assisted驾驶技术的一个重要的研究内容。目前,通过结合其他技术,自动汽车驾驶技术已经实现了。这种技术不仅保证交通安全,还救人从开车的工作。汽车驾驶技术的研究受到越来越多的青睐的研究机构、大学和企业,已成为国内外在工业和学术界共同关心的焦点2]。

行人检测技术使智能机器人查看周围的人,分析他们的行为,和应对人类的指令,以便更好地服务人类。行人检测技术不仅应用于智能监控、vehicle-assisted开车,和智能机器人,但作为人类继续研究和探索情报,它可以应用于任何领域,人们出现和需要提供服务。特别是近年来,互联网和其他媒体迅速从文本图像转换为视频,已迅速增加了视频信息的数量。最关心的视频序列的一部分,行人视频序列中检测也成为不可或缺的和重要的任务在机器视觉领域的研究,为后续的目标跟踪具有举足轻重的地位和行为分析3]。

行人检测技术作为计算机视觉领域的研究热点和焦点,吸引了国内外许多研究机构的注意。通过研究,国内外研究人员已经提出了大量的优秀的行人检测算法,取得了很好的研究成果。文献[4]使用模板匹配方法建立分层检测人体目标的模板,然后比较和匹配每个区域图像的检测,和法官是否需要检测的目标根据其最终匹配的相似性。然而,该算法的实现过程是复杂的计算,很容易受到外部环境等因素的影响,所以它没有被极大地发展和应用。文献[5)结合冷雾特性和支持向量机分类器实现行人检测。文献[6)提出了一个划时代的面向图像直方图的梯度(猪)。该方法检测行人通过猪的结合特性的图像和一个支持向量机分类器,具有良好的检测效果。文献[7)提出了行人检测算法基于猪特性和基于边缘对称特性。该方法首先过滤掉可能行人区域图像中基于对称特征的行人的垂直边缘图像,然后用猪+支持向量机的方法来检测行人在这一领域,这在一定程度上提高了检测率。文献[8)使用图像的多级本地二进制(LBP)和多级梯度方向特征(猪)特性集检测图像中人体的头和肩膀减少多级特性集的维数,实现准确的统计数据在复杂场景的人数。与深度学习和其他相关理论的快速发展,人工神网络等方法已逐渐被应用于行人检测。文献[9)取代了滑动窗口检测方法在传统算法与神经网络方法和准确的分类图像特性检测,从而确定该地区被发现。目前广泛使用的行人检测方法大致可以概括为三种类型:基于运动分析的方法、基于模板匹配的方法,和在乐此不疲的学习方法(10]。基于运动分析的方法主要是使用图像的不同信息的移动对象在不同的帧图像和执行微分操作在相邻帧图像对应像素的视频序列。之后,比较不同的结果与预设的阈值,得到视频序列中的运动信息根据最后的比较结果,然后使用运动区域的特征信息,进一步检测对象是否一个行人11]。基于模板匹配的方法是定义一个层次化的人体模板行人目标的检测,然后进行比较和匹配图像与模板的每个区域被发现,最后确定被检测到的目标是一个行人基于其匹配相似度(12]。

基于统计学习的方法是指获得代表行人分类器训练图像样本数据,然后利用分类器来判断和检测到的图像进行分类13]。在乐此不疲的方法可分为支持向量机(SVM),演算法,根据他们的分类器和神经网络方法。基于支持向量机的分类器使用方法的支持向量机。支持向量机是基于风险最小化的原则。的主要思想是确定一个线性函数,通过该新样本数据可以正确地分离的最大间隔超平面(14]。演算法是一种迭代算法。实现行人检测时该算法的主要思想是将不同的弱分类器训练从相同的示例数据集形成一个最终的强分类器,然后使用强分类器来检测和搜索的输入图像检测,以确定是否有行人在图像(15]。神经网络是机器视觉领域的研究热点,并被广泛使用。在行人检测领域中的应用主要是通过提取图像中高纬度地区的形象特征和分类和识别图像中的行人特性。随着计算机硬件的不断发展,结合行人检测理论的相关研究成果,在实际的开发和应用过程中,国内外研究人员和机构提出了一系列设计方案(16]。文献[17)算法,如使用混合高斯背景建模和移动目标检测和跟踪。此外,它使用CCS编译器优化,软件管道优化算法代码优化,TI-related函数库和其他优化方法来实现一个完整的视频目标跟踪系统DM6437硬件平台。文献[18)设计一个有效的行人检测系统在DM6437-embedded DSP平台上通过分析相关模块的操作周期,结合硬件平台的特点。文献[19)使用DM8168硬件平台提出一个行人分类和检测算法相结合的前景与中间派的算子,增强检测算法实现有效检测行人的检测算法在DSP平台上。文献[20.)设计了一种检测系统对行人等待过马路和发展和实现TMS320C40平台。实验结果证明,它有一个良好的检出率。根据文献[TMS3206455平台,21)提出了一个基于小波金字塔分解算法,结合隧道滤波算法实现多目标检测的汽车,行人,自行车在复杂的场景。文献[22)设计了一个基于DM6437行人检测硬件平台和研究了DSP car-assisted驾驶行人自动检测系统可以检测行人和发出警告,具有检测效率高。

3所示。纹理特征提取的基本理论

图像的纹理特征描述的现象是重复或更改在空间和反映了图像的均匀性。这是一个符合人类的视觉感知系统功能描述。纹理特征可以描述的详细信息和改变图像的局部区域的趋势,因此有效地用于图像分类领域。

局部二值模式(LBP)主要用于纹理分类。因为它的简单的计算,进一步用于目标跟踪、面部表情识别、医学成像和图像分类。该方法考虑了矩形广场形象和编码中心像素和强度不同N邻域像素的圆半径R在二进制格式。然后,它分配一个二进制值(0或1)每个相邻像素基于强度的区别,最后执行加权求和获得的枸杞多糖价值中心像素。同样,图像中每个像素的值被替换为一个枸杞多糖值。枸杞多糖的计算公式如下:

在上面的公式中,RN代表半径和邻近像素的数量,分别。 代表中心像素, 代表了邻域像素。枸杞多糖的一个例子计算如图1,在那里

相邻的像素 中心的像素 ,LNDP模式计算值根据以下流程:

相邻的两个像素和相邻的像素之间的差异 ,和每个相邻的像素都被分配一个二进制值F基于这两个差值:

像素为中心 ,下面的二进制值可以用来计算LNDP模式值:

2显示的计算过程LNDP模式和窗口。数据2(一)和2(b)显示的数量和像素的相邻像素的强度,和窗口 代表了计算LNDP模式为每个相邻的像素。其中,窗口(f)意味着像素 计算像素之间的区别 和像素 和像素 通过公式(2),不同的是“1”和“5”。自从两个差值都是正数,“1”像素分配 由公式(3)。同样,对于其他像素,模式价值获得和图所示窗口2(c)。图所示的窗口2(d),模式的价值乘以重量,和LNDP求和得到的值是在窗口图模式值2(e)。

传统的枸杞多糖模式比较相邻像素的中心像素的图像来生成一个二进制模式的价值。这种模式只考虑像素之间的大小关系,不是像素之间的区别。图3显示了两个完全不同的部分结构模式和枸杞多糖编码后得到相同的二进制代码。它表明,局部结构模式由LBP失去大量的本地信息,编码和枸杞多糖也忽视了相邻像素的影响在其二进制编码。

当地社区增强模式计算LNIP模式值,如图4。图中显示附近(像素)相邻(像素)关系每个中心的8邻域像素的像素 , 有4个相邻像素。当 , 有两个相邻的像素。其数学定义如下:

LNIP的符号模式,我们首先计算相对偏差的象征 相邻像素之间 中心的像素及其对应的相邻像素 位模式可以获得是元素的数量,见公式(6)。同样,相对不同的象征 中央像素之间 及其对应的相邻像素 计算,如以下公式所示:

通过执行按位异或操作 ,计算结构变化的位模式。当计算位XOR,一些模式值可以通过公式(7)。符号 代表1的二进制数的数量 ,和公式(7)最终决定了最终的二进制值 窗口。其中,当是一个奇数, ,是一个偶数, LNIP的象征模式价值可以得到以下公式:

当计算的振幅模式 窗口中,统计色散的概念考虑在内。计算色散,某个特定像素的绝对平均偏差被认为并与中心像素的平均偏差。具体来说,平均偏差 邻近的像素 和相应的邻近像素 和平均偏差 邻近的像素 相对于中心像素 计算。然后,平均偏差 与阈值比较 确定相邻像素的二进制比特值 窗口。计算公式如下:

3显示了两个迥然不同的 像素块通过一个例子,同样的枸杞多糖代码是通过枸杞多糖模式。

在图4,数据4(一)和4(b)代表的分布中心像素和相邻的像素。数据4(c) -4(j)代表符号模式的计算过程和振幅模式当地社区的增强模式。

4所示。学习演算法

在学习演算法过程中,原始数据集是第一次初始化,也就是说,每个样本加权平均分配相应的权重,并用来计算每个样本的重量下一个迭代算法。如果一个样本分类错误分类,样本的重量将会增加;否则,体重会减少。通过这种机制,学习演算法将专注于解决difficult-to-classify样本。图5是学习演算法的原理图。首先,初始化训练集和权重,和弱学习者1是训练有素的,样品的重量更新根据弱学习者1的分类错误。也就是说,正确分类样本的重量减少,和不正确分类样本的重量增加。通过这种方式,分类错误的样本在后继的迭代中得到更多的关注。之后,它是根据同样的方法依次进行,直到最后的迭代,和弱学习者综合形成一个强有力的学习者。

算法的核心思想是线性体重几个均匀分类器形成一个强分类器,所以该算法主要用于计算每个分类器的重量。一个弱分类器后,最初的数据集是第一次安装弱分类器,分类器的重量是根据拟合结果,获得样本数据集的重量是调整。

学习演算法过程如下:(1)训练样本重量:在初始训练样本的情况下没有任何先验知识,每个样品的重量N训练样本是 , 代表了体重组: (2)计算分类器错误:分类器的重量计算,每个分类的准确性。分类精度越高,分类器的重量就越大。在接下来的公式, 代表样本的分类类别 tth迭代, 代表真正的标签样本 : (3)分类器的重量计算:根据获得的分类误差在步骤(20)中,比例系数的弱分类器在最后的强分类器确定如下: (4)更新样本权重:调整样品的重量根据分类结果在以下公式,步骤(2)。 代表的重量th的样本 迭代: (5)输出强分类器:分类器的重量和相应的分类精度是线性叠加形成一个强分类器,如以下公式所示:

为改进提高算法,学习演算法有很高的集成能力。对于各种均匀分类器,该算法可以建立一个良好的和强大的分类模型,和重复后的算法不会过度拟合训练。

提高算法的代表,演算法已广泛应用。因为学习演算法有太严格的要求基本分类器的分类精度,算法没有普遍适用性。本节提高了算法基于这个缺点。此外,结合基分类器DBN算法,学习演算法的强分类器公式输出复位。

针对学习演算法的问题太严格的弱分类器的分类精度,朱镕基等人提出了SAMME算法。分类器的重量的计算方法 在这个算法不同,如以下公式所示:

分类器的重量增加了一个积极的词 在原来的基础上,代表类别的总数。这个项目的增加带来了巨大的改善算法的性能。最初学习演算法需要弱分类器的准确率大于 ,但一般分类器很难达到这个要求。改进分类器的重量表明只有分类错误 的分类器是必需的,也就是说,随着迭代次数的增加,分类器的精度要求越来越低。同时,根据样本权重的更新规则,SAMME算法将获得更大的权重分类错误的样本,样本权重更新。当 ,SAMME算法是一样的演算法。

从上面的分析可以看出,正则项 添加到分类器的重量的计算公式 大大增加学习演算法的通用性。然而,这个正则项不是任意给定的,而是从前锋叠加模型,获得多种类型的指数损失函数。两种指数损失函数的表达式如下:

在上面的公式中, ,h分类器的分类标签。

上述公式是扩展到多类指数损失函数的表达式,如下:

在上面的公式中,的价值

的公式, 的输出值是th类别确定分类器在数据集分类的总数。这里的条件k需要被限制,约束条件 根据上面的公式添加。在这种情况下,当 ,海尔集团指数损失函数变成一个两级指数损失函数。

整体的设计使用DBN模型分类器作为基分类器。据DBN的意义结构输出分类结果,输出强分类器的公式 改进,如以下公式所示:

原来的公式是

原公式分解和分析:该算法的象征 可以解释为,当逻辑表达式一个是真的, ;否则, 因此,输出形式的公式 是一个矩阵由0和1组成的。1意味着分类正确,0表示分类是错误的。最后,使用argmax函数,获得每一行的最大价值为每个样本的类别。本文改进了 在哪里 代表了每个样本的比例在每个类别DBN输出,它通常是一个小数。这时,分类器的重量重量的原始数据,可以更好地反映每个分类的结果。

DBN网络结构由四部分组成:输入层节点的数量,输出层节点的数目,隐藏层的数量,和隐层节点的数量。本文使用以下经验公式来确定网络参数:

其中,年代隐层节点的数量,输入层节点的数量,n输出层节点的数目,k1到10之间是一个常数。从这个经验公式,隐层节点数的值,最后一个隐层的节点数可以通过实验确定。自n众所周知,隐层节点的数量年代可以确定的价值k。根据上面的公式,p值第一层节点的数目 在隐藏层:

当隐藏节点的数量确定在第一层,它作为输入层,以确定在第二个隐层节点的数目。根据上面的公式, 类型的值:

同样,隐层节点的数量可以确定下一层隐层节点的数量在第二层。通过培训结果,调整隐层节点的数量和最优值是最终决定。

自从DBN网络第一次列车遏制层,然后执行错误反馈训练BP层,遏制层和英国石油层的网络参数需要另行规定。自最初的网络在训练过程中需要调整的参数值,DBN训练过程也是一批培训过程:

的最大数量的周期也是一个因素影响DBN的分类效果。这个参数也需要调整的周期。与此同时,学习速率和动量因子也影响网络效应的重要参数。

5。快速行人检测算法基于Autoencoding神经网络和演算法

autoencoding的框架和解码网络如图6。从图可以看出,类似于autoencoding网络和网络包括两个过程:编码和解码。

编解码器深网络结构如图7。从图可以看出,其网络结构不同于autoencoding网络。网络的编码过程是由多个非线性映射层(h1,h2,h3]。三维非线性映射层压缩特性的一层一层地进行网络编码过程尽可能删除冗余特性,以便保留人脸姿态变化后的功能删除。

卷积autoencoder是一个无监督算法模型。然而,卷积autoencoders不再使用完整连接在编码和解码,而是使用卷积操作。卷积autoencoder也保护输入层、隐藏层和输出层,及其训练步骤还包括编码、解码和参数学习。编码器使用卷积操作来获取一个隐藏层从输入层。这个过程称为卷积编码。解码器使用反褶积运算重建隐藏层获取一个输出层与相同的维数作为输入层,叫做卷积解码。最后,输入层和输出层之间的误差计算,和几个迭代执行最小化误差和获得卷积autoencoder参数。图8是一个原理图卷积autoencoder的操作。

基于块匹配的运动估计算法简单,容易实现。基本原理是找到最小的块匹配误差与当前块在搜索范围内通过一定的匹配准则的参考系。每个当前块之间的相对位移和搜索匹配块的运动向量MV,物体的运动轨迹,如图9

常用的分类算法中,朴素贝叶斯分类算法的实现过程相对简单,但它不能满足独立分布的数据在实际应用的条件。的K最近的邻居是简单而有效的分类算法,但数据处理更加复杂。多层神经网络实现高分类精度为代价的设置大量的初始参数。支持向量机算法(SVM)专注于小样本和最简单的分类算法在线性分类问题。因此,支持向量机分类器是最适合这两种类型的问题在本文中只需要检测行人和nonpedestrians。行人分类的流程图如图10

目标探测网络用于检测行人在夜视的某些帧的视频序列,然后,KCF跟踪模型是用来跟踪几帧的目标,形成一个detection-tracking交替模式。同时,通过间歇循环触发,前面的检测完成后2秒,系统用于探测和跟踪后续再次视频,和循环会一直持续下去,直到结束或终止视频。其中,检测的原因在一个2秒的时间间隔是整个过程的目标行人从出现到被人类眼睛离开视野需要至少2秒。因此,它是最适合把它每两秒检测一次达到减少检测帧的数量的影响,同时避免了检测领域的新目标的观点。多目标快速detection-tracking检测循环系统图所示11

多目标跟踪的想法是在同一时间执行多个追踪对象。由于本文是应用于公路车在哪里晚上开车,行人并不多,跟踪算法仍然是非常有效的。多目标跟踪过程如图12

6。算法性能验证

接下来,快速行人检测算法的性能验证基于autoencoding神经网络和演算法构造的摘要。为了验证框架选择融合的效率和适应性分区融合提出本文本文比较直接融合和评估它从视频的角度融合速度。视频融合的速度以每秒的帧数(FPS)。在相同的测试视频,本文使用两种融合算法平均融合一帧所需的时间,间接反映了融合速度。为了避免三个因素的干扰等场景,光环,和车辆速度的融合速度,实验分为以下四组的情况下,和第三个变量的影响融合统一两个研究的速度。四组实验:(1)行人开车在城市主要道路的正常速度,但光环面积小;(2)行人开车在城市主要道路的正常速度,但光环面积大;(3)郊区的光环面积很小,但开车的速度是正常的;(4)郊区的光环面积很小,但行驶速度更快。每组的平均融合时间一帧的视频记录和直接融合处理速度表所示1和图13,选中的隔断融合处理速度表所示2和图14


不。 实验1 实验2 实验3 实验4 不。 实验1 实验2 实验3 实验4

1 1.00 0.94 1.22 0.91 51 0.98 0.96 1.20 0.91
2 0.99 0.94 1.20 0.89 52 0.99 0.95 1.21 0.92
3 0.98 0.95 1.20 0.92 53 1.01 0.94 1.20 0.90
4 1.01 0.95 1.20 0.88 54 0.99 0.94 1.21 0.88
5 1.01 0.95 1.19 0.91 55 1.01 0.95 1.20 0.90
6 1.01 0.95 1.22 0.92 56 0.98 0.95 1.22 0.89
7 1.00 0.96 1.20 0.89 57 1.00 0.95 1.19 0.92
8 1.00 0.95 1.20 0.89 58 1.02 0.95 1.19 0.90
9 0.99 0.96 1.19 0.90 59 1.01 0.95 1.19 0.88
10 0.98 0.95 1.20 0.88 60 1.01 0.96 1.21 0.89
11 1.02 0.96 1.21 0.91 61年 1.00 0.95 1.20 0.89
12 0.98 0.96 1.20 0.90 62年 0.99 0.96 1.22 0.88
13 0.98 0.94 1.20 0.91 63年 1.00 0.95 1.22 0.89
14 1.01 0.96 1.20 0.89 64年 0.99 0.95 1.22 0.92
15 1.02 0.96 1.20 0.91 65年 1.00 0.96 1.22 0.91
16 1.02 0.95 1.21 0.91 66年 0.98 0.95 1.20 0.90
17 1.01 0.94 1.19 0.92 67年 1.00 0.95 1.19 0.88
18 1.01 0.95 1.21 0.88 68年 0.99 0.94 1.19 0.90
19 1.01 0.96 1.21 0.91 69年 0.99 0.96 1.20 0.91
20. 1.00 0.94 1.20 0.91 70年 1.00 0.95 1.21 0.91
21 1.00 0.95 1.22 0.89 71年 1.01 0.94 1.19 0.90
22 0.99 0.95 1.22 0.90 72年 1.00 0.95 1.23 0.92
23 1.00 0.95 1.23 0.91 73年 1.01 0.95 1.21 0.90
24 1.00 0.95 1.22 0.89 74年 1.00 0.95 1.21 0.91
25 1.02 0.96 1.22 0.89 75年 1.01 0.96 1.20 0.88
26 0.99 0.95 1.21 0.91 76年 1.02 0.95 1.21 0.90
27 1.01 0.95 1.22 0.90 77年 1.01 0.95 1.21 0.89
28 0.98 0.94 1.22 0.90 78年 0.99 0.95 1.21 0.89
29日 0.98 0.94 1.23 0.88 79年 1.00 0.95 1.23 0.91
30. 0.99 0.96 1.22 0.92 80年 1.00 0.94 1.22 0.90
31日 1.02 0.94 1.20 0.90 81年 0.98 0.94 1.23 0.91
32 0.99 0.94 1.20 0.89 82年 1.00 0.94 1.22 0.89
33 1.02 0.96 1.21 0.90 83年 0.98 0.95 1.22 0.88
34 1.02 0.94 1.19 0.91 84年 0.98 0.95 1.21 0.90
35 0.98 0.94 1.20 0.90 85年 0.98 0.95 1.20 0.89
36 1.00 0.96 1.20 0.88 86年 0.98 0.95 1.20 0.91
37 1.00 0.96 1.20 0.91 87年 1.01 0.96 1.22 0.89
38 1.02 0.95 1.19 0.88 88年 1.02 0.95 1.22 0.89
39 1.01 0.95 1.20 0.90 89年 1.01 0.94 1.21 0.90
40 1.01 0.96 1.19 0.88 90年 1.01 0.95 1.20 0.89
41 0.98 0.96 1.22 0.92 91年 0.99 0.94 1.19 0.90
42 0.98 0.96 1.20 0.89 92年 1.00 0.95 1.21 0.92
43 1.00 0.95 1.21 0.90 93年 1.00 0.95 1.20 0.89
44 1.00 0.95 1.20 0.92 94年 1.01 0.95 1.23 0.89
45 1.00 0.94 1.22 0.91 95年 0.99 0.94 1.20 0.89
46 1.02 0.95 1.20 0.88 96年 1.01 0.94 1.22 0.91
47 1.00 0.96 1.20 0.90 97年 0.99 0.96 1.19 0.92
48 1.01 0.96 1.22 0.90 98年 0.98 0.95 1.22 0.90
49 0.99 0.95 1.20 0.90 99年 1.00 0.95 1.20 0.90
50 1.01 0.95 1.21 0.92 One hundred. 0.99 0.95 1.19 0.89


不。 实验1 实验2 实验3 实验4 不。 实验1 实验2 实验3 实验4

1 6.42 5.22 6.81 5.79 51 6.38 5.34 6.71 5.87
2 6.31 5.21 6.78 5.67 52 6.33 5.20 6.87 6.00
3 6.38 5.33 6.88 5.88 53 6.53 5.32 6.88 5.78
4 6.51 5.48 6.75 5.98 54 6.65 5.36 6.78 5.61
5 6.41 5.17 6.75 5.99 55 6.39 5.41 6.81 5.90
6 6.61 5.28 6.86 5.90 56 6.60 5.12 6.78 5.82
7 6.48 5.33 6.74 5.66 57 6.42 5.26 6.82 5.86
8 6.36 5.31 6.82 5.87 58 6.35 5.18 6.74 5.95
9 6.62 5.13 6.87 5.96 59 6.65 5.18 6.87 5.98
10 6.64 5.27 6.88 5.68 60 6.69 5.21 6.84 5.80
11 6.66 5.24 6.78 5.74 61年 6.66 5.39 6.81 5.83
12 6.66 5.16 6.89 5.63 62年 6.51 5.26 6.80 5.70
13 6.44 5.28 6.88 5.89 63年 6.69 5.40 6.89 5.87
14 6.33 5.46 6.81 5.74 64年 6.50 5.18 6.79 5.65
15 6.45 5.33 6.82 5.99 65年 6.55 5.25 6.77 5.60
16 6.65 5.17 6.71 6.00 66年 6.67 5.45 6.89 5.98
17 6.40 5.40 6.82 5.81 67年 6.66 5.51 6.82 5.83
18 6.31 5.29 6.76 5.64 68年 6.48 5.24 6.81 5.95
19 6.48 5.43 6.85 5.74 69年 6.51 5.49 6.84 5.91
20. 6.55 5.26 6.81 5.75 70年 6.48 5.31 6.81 5.86
21 6.56 5.38 6.90 5.63 71年 6.46 5.32 6.82 5.98
22 6.30 5.26 6.83 5.75 72年 6.52 5.48 6.90 5.91
23 6.63 5.29 6.79 5.94 73年 6.37 5.28 6.70 5.81
24 6.51 5.31 6.85 5.96 74年 6.49 5.38 6.85 5.67
25 6.66 5.35 6.90 5.87 75年 6.54 5.13 6.71 5.61
26 6.37 5.37 6.73 5.61 76年 6.68 5.15 6.74 5.94
27 6.60 5.45 6.72 5.70 77年 6.56 5.29 6.73 5.87
28 6.37 5.20 6.75 5.81 78年 6.34 5.37 6.84 5.97
29日 6.61 5.29 6.75 5.72 79年 6.65 5.20 6.80 5.78
30. 6.61 5.25 6.87 5.84 80年 6.53 5.35 6.75 5.61
31日 6.32 5.29 6.70 5.89 81年 6.37 5.28 6.85 5.90
32 6.59 5.19 6.86 5.79 82年 6.62 5.34 6.76 5.72
33 6.30 5.34 6.89 5.90 83年 6.32 5.26 6.79 5.66
34 6.43 5.39 6.71 5.66 84年 6.62 5.38 6.71 5.96
35 6.45 5.21 6.79 5.73 85年 6.45 5.47 6.73 5.97
36 6.46 5.28 6.78 5.99 86年 6.66 5.12 6.70 5.86
37 6.36 5.40 6.89 5.87 87年 6.45 5.23 6.84 5.89
38 6.63 5.49 6.76 5.92 88年 6.34 5.24 6.76 5.87
39 6.32 5.34 6.83 5.83 89年 6.31 5.19 6.72 6.00
40 6.49 5.41 6.71 5.94 90年 6.51 5.41 6.71 5.62
41 6.41 5.48 6.80 5.70 91年 6.46 5.38 6.82 5.71
42 6.34 5.49 6.87 5.67 92年 6.37 5.34 6.76 5.72
43 6.34 5.35 6.75 5.66 93年 6.46 5.13 6.74 5.68
44 6.33 5.15 6.77 5.90 94年 6.37 5.38 6.79 5.80
45 6.64 5.51 6.77 5.99 95年 6.44 5.38 6.88 5.88
46 6.64 5.24 6.88 5.69 96年 6.35 5.19 6.73 5.90
47 6.48 5.43 6.76 5.66 97年 6.66 5.48 6.77 5.88
48 6.32 5.16 6.75 5.89 98年 6.54 5.26 6.76 5.84
49 6.31 5.14 6.80 5.86 99年 6.51 5.16 6.76 5.93
50 6.50 5.45 6.71 5.99 One hundred. 6.67 5.34 6.75 5.99

总之,它可以从主观和客观评价结果的融合视频摘要算法有最好的视频融合效果,及其视频是光滑的,内容是同步的,视频融合的速度也显著提高。

接下来,本文分析了行人检测算法的准确率构造。共有90套行人视频设置。该算法用于检测和计数的检测结果。结果如表所示3和图15


不。 精度(%) 不。 精度(%) 不。 精度(%) 不。 精度(%)

1 99年 24 97年 47 98年 69年 98年
2 97年 25 99年 48 98年 70年 97年
3 98年 26 98年 49 99年 71年 98年
4 98年 27 98年 50 99年 72年 98年
5 97年 28 97年 51 97年 73年 97年
6 97年 29日 99年 52 98年 74年 97年
7 98年 30. 99年 53 99年 75年 98年
8 97年 31日 98年 54 97年 76年 97年
9 99年 32 98年 55 98年 77年 98年
10 98年 33 99年 56 97年 78年 97年
11 99年 34 98年 57 99年 79年 98年
12 99年 35 99年 58 98年 80年 98年
13 99年 36 97年 59 97年 81年 99年
14 98年 37 98年 60 98年 82年 98年
15 99年 38 97年 61年 98年 83年 98年
16 97年 39 97年 62年 97年 84年 98年
17 97年 40 97年 63年 97年 85年 98年
18 98年 41 98年 64年 99年 86年 98年
19 97年 42 98年 65年 99年 87年 99年
20. 98年 43 99年 66年 97年 88年 99年
21 98年 44 99年 67年 99年 89年 99年
22 97年 45 99年 68年 99年 90年 98年
23 98年 46 98年 - - - - - - - - - - - - - - - - - - - - - - - -

从上面的结果可以看出,本文算法构造具有很高的准确率在行人检测过程中,因此,本文算法可以应用于实践。

7所示。结论

为了解决行人检测精度低的问题,真正的交通摄像头和行人的小目标漏检率高,提高行人检测的速度和准确性,本文研究行人检测技术。通过分析分类器的分类性能,本文结合了演算法整体思想的DBN autoencoding神经网络分类器,提出了一种分类算法和AdaBoost-DBN。针对学习演算法的问题太严格的弱分类器的分类精度,本文改进分类器的重量的计算公式,从而有效地减少弱分类器的精度要求。此外,本文改进了传统演算法结构,也就是说,重置样本权重更新公式和强分类器输出公式,提出了一种两个输入AdaBoost-DBN分类算法。此外,解决这个问题的不平滑的融合视频的回放,本文认为视频对象的运动信息,执行像素插值与运动补偿,恢复原始视频的帧率重建了帧间图像。最后,本文设计实验来验证本文提出的算法的性能。结果表明,研究的结果达到预期目标的算法结构。

数据可用性

使用的数据来支持本研究的发现可以从相应的作者。

的利益冲突

作者宣称没有利益冲突有关的出版。

确认

阜阳师范大学科学研究和创新团队(kytd202004),优秀的人才发展计划信息工程学院、阜阳师范大学(2018 fxjt02),安徽省教育部门的优秀青年人才支持计划(gxyqZD2020054) Industry-University-Research创新基金项目(2018 a01010),和安徽省教育部门的优秀青年人才支持计划(没有。gxyq2017159)。

引用

  1. r . Giannetti彼得雷拉,j·巴赫,a·k·西尔弗曼·m·a . Saenz-Nuno, n . Perez-Mallada。”在活的有机体内骨位置使用高频超声测量与三维光学运动捕捉系统验证:可行性研究”,医学和生物工程杂志》上,37卷,不。7日,1 - 8,2017页。视图:出版商的网站|谷歌学术搜索
  2. j.p. Ngel-Lopez和n . a . De la Peńa“运动学分析使用动作捕捉技术,”IFMBE诉讼卷,49号6,257 - 260年,2015页。视图:谷歌学术搜索
  3. m·a·汗,“动作捕捉数据的多分辨率编码实时多媒体应用,”多媒体工具和应用程序,卷76,不。15日,第16698 - 16683页,2017年。视图:出版商的网站|谷歌学术搜索
  4. o . m . Khudolii o . v . Ivashchenko s . s . Iermakov o·g·伦巴,“计算机模拟少年体操运动员的训练过程,”体操科学杂志,8卷,不。3、215 - 228年,2016页。视图:谷歌学术搜索
  5. M.-K。金、t . y . Kim和j . Lyou”明显的性能改善动作捕捉”,协会杂志》上的控制,机器人技术和系统,21卷,不。12日,第1172 - 1167页,2015年。视图:出版商的网站|谷歌学术搜索
  6. y李和h .柳”,低成本的3 d动作捕捉系统使用被动光学标记和单眼视觉,”Optik国际期刊《光与电子光学,卷130,不。2、1397 - 1407年,2017页。视图:出版商的网站|谷歌学术搜索
  7. t三浦,t . Kaiga t .柴田k .日本田岛和h . Tamamoto“低维特征向量提取动作捕捉数据的相平面分析,“《信息处理,25卷,不。6,884 - 887年,2017页。视图:出版商的网站|谷歌学术搜索
  8. d·穆里根k . r . Lohse n·j·霍奇斯,“action-incongruent次要任务调节预测精度在经验丰富的演员:电动机仿真的证据,”心理学研究,卷80,不。4、496 - 509年,2016页。视图:出版商的网站|谷歌学术搜索
  9. h·s·s·w·公园公园,j·h·金和h·埃德里,“三维位移测量模型结构健康监测的使用动作捕捉系统,”测量卷,59号5,352 - 362年,2015页。视图:出版商的网站|谷歌学术搜索
  10. a . Puupponen t Wainio、b .汉堡和t . Jantunen”头部动作在芬兰的手语动作捕捉数据的基础上,“符号语言和语言学,18卷,不。1,41 - 89,2015页。视图:出版商的网站|谷歌学术搜索
  11. m·m·拉赫曼”分析钢琴家的手指动作使用磁六维运动捕捉系统位置传感器,”日本的虚拟现实社会的交易,15卷,不。3、243 - 250年,2017页。视图:谷歌学术搜索
  12. k . r . Ridderinkhof和m .黄铜动觉运动图像是如何工作的:predictive-processing可视化理论在体育和运动专家,”Physiology-Paris杂志,卷109,不。1 - 3,53 - 63年,2015页。视图:出版商的网站|谷歌学术搜索
  13. h . s . k . Wang谢,胡,”研究保护财产经营运动服装面料基于三维动作捕捉系统,”纺织和轻工科技,3卷,不。2,页57 - 62,2014。视图:出版商的网站|谷歌学术搜索
  14. 张h . l . Wang楚,陈,h·孟和g·刘,“光学运动捕捉技术应用在电力安全实体的仿真培训系统,”光学与光子学》杂志》第六卷,没有。8,155 - 163年,2016页。视图:出版商的网站|谷歌学术搜索
  15. Z.-M。周和z。陈,“动作捕捉数据的调查获得高维时间序列,”国际多媒体和无处不在的工程杂志》上,10卷,不。9日,相当于17 - 30,2015页。视图:出版商的网站|谷歌学术搜索
  16. k . tiven d . s .戴手套,“高保真的影响心肺复苏(CPR)模拟训练学生知识、信心,情绪,和经验,“体育训练教育杂志,10卷,不。2、103 - 112年,2015页。视图:出版商的网站|谷歌学术搜索
  17. o . v . Ivashchenko和o . o . Kapkan仿真过程的14 - 15岁的女孩的训练光的运动和体操练习,”教育学、心理学、Medical-Biological体能训练和运动的问题,19卷,不。8日,32-39,2015页。视图:出版商的网站|谷歌学术搜索
  18. p·d·欧文和n .王”在体育联盟竞争平衡措施:季节长度变化的影响,”经济调查,53卷,不。1,第744 - 731页,2015。视图:出版商的网站|谷歌学术搜索
  19. j·杨,“模拟乒乓球在运动的过程中,“加勒比科学杂志》,52卷,不。4、1561 - 1564年,2019页。视图:谷歌学术搜索
  20. m . Bulat: Korkmaz, y z亚斯兰,和w·赫尔佐格,“肌肉骨骼仿真工具对理解机制的下肢运动伤害,”当前的运动医学报告,18卷,不。6,210 - 216年,2019页。视图:出版商的网站|谷歌学术搜索
  21. 大肠学术界。林”,研究3 d运动基于kinect,数据库管理和查询系统”课堂讲稿电气工程,卷329,不。1,29-35,2015页。视图:出版商的网站|谷歌学术搜索
  22. h·山和y . Liu”功能识别身体的舞蹈运动在体育舞蹈”冶金和采矿行业,7卷,不。7,290 - 297年,2015页。视图:谷歌学术搜索

版权©2021宏志周和氮化镓。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点127年
下载229年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读