MISYgydF4y2Ba 移动信息系统gydF4y2Ba 1875 - 905 xgydF4y2Ba 1574 - 017 xgydF4y2Ba HindawigydF4y2Ba 10.1155 / 2020/4835198gydF4y2Ba 4835198gydF4y2Ba 研究文章gydF4y2Ba 研究基于多个描述符融合室内场景分类机制gydF4y2Ba 霁gydF4y2Ba 平gydF4y2Ba https://orcid.org/0000 - 0001 - 5829 - 6121gydF4y2Ba 秦gydF4y2Ba 丹阳gydF4y2Ba 冯gydF4y2Ba 锅gydF4y2Ba 局域网gydF4y2Ba 婷婷gydF4y2Ba 太阳gydF4y2Ba 冠宇gydF4y2Ba 汗gydF4y2Ba 马利克贾汗gydF4y2Ba 电子和通信工程的重点实验室gydF4y2Ba 黑龙江大学gydF4y2Ba 哈尔滨gydF4y2Ba 中国gydF4y2Ba hlju.edu.cngydF4y2Ba 2020年gydF4y2Ba 16gydF4y2Ba 3gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 25gydF4y2Ba 08年gydF4y2Ba 2019年gydF4y2Ba 22gydF4y2Ba 01gydF4y2Ba 2020年gydF4y2Ba 16gydF4y2Ba 3gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 版权©2020平霁et al。gydF4y2Ba 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。gydF4y2Ba

本研究旨在造成的巨大的局限性non-ROI利益(地区)信息干扰在传统场景分类算法,包括多尺度的变化或不同的视觉角度和高类之间的相似性和其他因素。一个有效的室内场景分类机制提出了基于融合多个描述符,它介绍了深度图像描述符效率的提高。贪婪的描述符(GDFA)的过滤算法来获取有价值的描述符,和多个描述符组合方法也给进一步提高描述符性能。性能分析和仿真结果表明,多个描述符融合不仅可以获得更高的分类精度比主成分分析(PCA)与介质条件和大尺寸的描述符也可以提高分类精度比其他现有的有效算法。gydF4y2Ba

中国国家自然科学基金gydF4y2Ba 61771186gydF4y2Ba 黑龙江省博士后研究项目gydF4y2Ba LBH-Q15121gydF4y2Ba 大学护理程序为年轻学者与黑龙江省创新型人才gydF4y2Ba unpysct - 2017125gydF4y2Ba 黑龙江大学gydF4y2Ba yjscx2019 - 166 hljugydF4y2Ba
1。介绍gydF4y2Ba

与互联网的快速发展和增加对基于位置感知的应用程序的需求,基于位置的服务越来越广泛的关注。大多数人不能没有位置服务和基于GPS(全球定位系统)导航系统在他们的日常生活。显然,室外定位技术已经相对成熟,许多移动设备也指室外定位技术(gydF4y2Ba 1gydF4y2Ba,gydF4y2Ba 2gydF4y2Ba,gydF4y2Ba 3gydF4y2Ba,gydF4y2Ba 4gydF4y2Ba]。由于室内环境的特殊性,GPS信号不能直接满足室内定位的需求服务。目前,有许多室内定位方法(gydF4y2Ba 4gydF4y2Ba- - - - - -gydF4y2Ba 6gydF4y2Ba),主要包括WiFi、RFID、蓝牙、Ultrawide乐队,等等。如今,视觉室内定位系统(gydF4y2Ba 7gydF4y2Ba- - - - - -gydF4y2Ba 9gydF4y2Ba]正吸引着越来越多的关注世界各地的研究人员由于部署成本低的优势,强大的自主权,定位精度高。gydF4y2Ba

一大视觉数据库,即视觉地图,偶尔被建立在离线阶段实现精确的室内视觉定位。可视映射可能包含大量的图像或图像的特性不同的场景和相应的位置信息,这是视觉室内定位的基础。当用户执行一个位置在线查询,检索到的图像将在视觉地图。传统的图像检索算法依赖于像素点匹配(gydF4y2Ba 10gydF4y2Ba,gydF4y2Ba 11gydF4y2Ba),这只会给图像匹配的结果但不包含视觉图像的位置信息。此外,现有的图像检索算法经常开展全球遍历搜索,导致过度的时间开销和不利于实时定位的移动用户。因此,一个有效的室内场景分类机制提出了基于多个描述符融合。可视映射的图像将被分类根据场景,以减少视觉图像检索在在线阶段的时间开销,提高室内场景分类的效率和准确性。在本文中,视觉信息和深度信息的图像融合。视觉形象主要包含颜色信息,深度图像上的每个点对应的视觉形象,包含位置信息。两种类型的图像被微软Kinect 2.0。gydF4y2Ba

在室内场景分类机制,最初的描述符集包含两种类型的图像描述符将生成的现有空间金字塔模型(SPM) (gydF4y2Ba 12gydF4y2Ba,gydF4y2Ba 13gydF4y2Ba]。然后,贪婪的描述符滤波算法(GDFA)将提出找出有价值的描述符。融合多个描述符将由同源和nonhomologous组合进一步提高有效性的描述符。最后,将采用支持向量机(SVM)分类。室内场景分类机制的总体框架如图gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

室内场景分类机制。gydF4y2Ba

剩下的论文安排如下:部分gydF4y2Ba 2gydF4y2Ba回顾了场景分类技术的研究进展及其应用在室内场景。部分gydF4y2Ba 3gydF4y2Ba描述了初始描述符集的生成和详细描述符过滤。部分gydF4y2Ba 4gydF4y2Ba介绍了本文的实验数据库和评价结果显示描述符。节gydF4y2Ba 5gydF4y2Ba,两个同源的组合和nonhomologous会意识到和组合的结果将被评估。部分gydF4y2Ba 6gydF4y2Ba对整篇文章进行总结。gydF4y2Ba

2。动机gydF4y2Ba

在现场了解2006年在麻省理工学院举办的研讨会,很重要的一点是首次明确表示,即场景图像分类是一种新的有前途的研究方向的理解。虽然现有分类方法宣称能够解决任何场景分类问题(gydF4y2Ba 14gydF4y2Ba,gydF4y2Ba 15gydF4y2Ba),实验结果表明,只有户外场景分类可以有效地解决这些方法,虽然室内场景分类问题可能仍然是一个具有挑战性的任务。此外,(gydF4y2Ba 16gydF4y2Ba)表明,室内场景的分类精度远低于室外场景采用相同的特征提取和分类识别方法。因此,重要的是提高分类精度的室内场景。gydF4y2Ba

在早期的研究中,低层特征提取的图像通常是对场景进行分类,如颜色、纹理和形状gydF4y2Ba 17gydF4y2Ba- - - - - -gydF4y2Ba 19gydF4y2Ba]。然而,这些方法基于底层特征没有领域的一个热门话题场景分类由于其不满意的分类效果。为了克服这些问题,提出了基于中层特征图像的方法。采用全球功能要点和改进(gydF4y2Ba 20.gydF4y2Ba]。良好的识别能力的尺度不变特征变换(筛选)使它的地方特色,往往采用最高优先级在许多场景识别算法(gydF4y2Ba 21gydF4y2Ba]。施等。gydF4y2Ba 22gydF4y2Ba)提出了一个基于增强室内场景分类算法的视觉敏感区域的信息。全球和地方特性和功能集成的视觉敏感区域的信息。gydF4y2Ba

Kinect的崛起,场景分类算法基于深度信息(gydF4y2Ba 24gydF4y2Ba,gydF4y2Ba 25gydF4y2Ba已经收到了越来越多的关注。面向梯度直方图(猪)算法(gydF4y2Ba 26gydF4y2Ba)采用分类深度图像和视觉图像,分别为(gydF4y2Ba 28gydF4y2Ba]。筛选采用深度图像和彩色图像中提取特征,并采用SPM编码分类特征融合后图像(gydF4y2Ba 29日gydF4y2Ba]。筛选的视觉图像和加速健壮的特性(冲浪)gydF4y2Ba 27gydF4y2Ba深度图像融合分类的图像(gydF4y2Ba 30.gydF4y2Ba]。5深的核心特征提取算法的设计(gydF4y2Ba 31日gydF4y2Ba)提取大小、边缘和形状信息的视觉图像,分别为分类和提取的信息融合。gydF4y2Ba

随着研究的继续,基于卷积神经网络(CNN)模型(gydF4y2Ba 16gydF4y2Ba,gydF4y2Ba 23gydF4y2Ba吸引了研究人员。然而,需要大量的训练集在CNN,这可能导致训练时间相对较长。此外,CNN通常具有较高的计算需求的平台,因此很难实现室内场景分类平台有限的计算资源。gydF4y2Ba

3所示。多个图像描述符生成和过滤gydF4y2Ba

灵感来自[gydF4y2Ba 28gydF4y2Ba- - - - - -gydF4y2Ba 31日gydF4y2Ba),将融合视觉信息和深度信息。精度高的室内场景分类效果会通过空间三维深度图像中包含的信息,这是对光线不敏感,反映了对象之间的位置关系。原始图像提取的特征D-SIFT(密集的筛选)gydF4y2Ba 32gydF4y2Ba),和类似的特性将集群形成弓(Bag-of-Words) [gydF4y2Ba 33gydF4y2Ba- - - - - -gydF4y2Ba 35gydF4y2Ba由k - means []gydF4y2Ba 36gydF4y2Ba,gydF4y2Ba 37gydF4y2Ba]。基于弓,初始描述符集包括视觉图像描述符和深度图像描述符将生成与SPM的建设。的确,最初的描述符的数量大,质量参差不齐。此外,结合直接与过滤初始描述符会导致爆炸的结果。因此,一个简单而有效的描述符滤波算法应该提出获得这些宝贵的描述符。gydF4y2Ba

3.1。最初的描述符生成gydF4y2Ba

描述符生成表达式可以来自下列程序。让gydF4y2Ba 我gydF4y2Ba任何输入图像gydF4y2Ba xgydF4y2Ba是一个描述符生成的图像。gydF4y2Ba lgydF4y2Ba 是一组预定义的类标签,gydF4y2Ba lgydF4y2Ba就是其中之一。生成描述符的功能gydF4y2Ba xgydF4y2Ba从图像gydF4y2Ba 我gydF4y2Ba可以表示为gydF4y2Ba ggydF4y2Ba 我gydF4y2Ba =gydF4y2Ba xgydF4y2Ba ,成功的概率匹配的描述符gydF4y2Ba xgydF4y2Ba类标签gydF4y2Ba lgydF4y2Ba是gydF4y2Ba PgydF4y2Ba lgydF4y2Ba xgydF4y2Ba 。因此,最合适的类标签的表达gydF4y2Ba lgydF4y2Ba ˜gydF4y2Ba 将gydF4y2Ba (1)gydF4y2Ba lgydF4y2Ba ˜gydF4y2Ba =gydF4y2Ba 参数gydF4y2Ba 马克斯gydF4y2Ba lgydF4y2Ba ∈gydF4y2Ba lgydF4y2Ba PgydF4y2Ba lgydF4y2Ba |gydF4y2Ba ggydF4y2Ba 我gydF4y2Ba 。gydF4y2Ba

研究的关键是将最初的描述符与分类精度高价值的描述符。为了找到这样的描述符,方程(gydF4y2Ba 1gydF4y2Ba)将进一步优化。在最好的描述符的前提下筛选和组合方法,正确的类标签分配到输入图像gydF4y2Ba 我gydF4y2Ba将gydF4y2Ba lgydF4y2Ba ^gydF4y2Ba (gydF4y2Ba lgydF4y2Ba ˜gydF4y2Ba ≠gydF4y2Ba lgydF4y2Ba ^gydF4y2Ba ),gydF4y2Ba XgydF4y2Ba 采用多个图像描述符来表达一组。然后,将优化描述符生成表达式gydF4y2Ba (2)gydF4y2Ba ggydF4y2Ba ˜gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 参数gydF4y2Ba 马克斯gydF4y2Ba ggydF4y2Ba 我gydF4y2Ba ∈gydF4y2Ba XgydF4y2Ba PgydF4y2Ba lgydF4y2Ba ^gydF4y2Ba ggydF4y2Ba 我gydF4y2Ba 。gydF4y2Ba

根据方程(gydF4y2Ba 2gydF4y2Ba),最初的描述符生成的输入图像只能通过筛选和组合达到理想的分类效果。最初的描述符数量大,质量差,而描述符过滤可以抛弃无用的描述符和描述符组合可以提高描述符的有效性。描述符生成过程基于SPM将描述如下。gydF4y2Ba

3.2。空间金字塔模型gydF4y2Ba

近年来,船头模型已经广泛采用计算机视觉。它以图像特征为视觉单词和分类图像通过计算每个图像视觉单词的数量。然而,传统的弓缺乏空间位置信息(gydF4y2Ba 29日gydF4y2Ba]。将建立在这个研究中,SPM图像切成规模的细胞,然后视觉单词的数量将在每个单元数和直方图可以画。最后,在所有尺度直方图特性将连接在一起形成一个特征向量。我们假设视觉单词的一部分已被选为基本特征。的步骤描述符生成基于SPM详细描述如下:gydF4y2Ba

提取D-SIFT特性。gydF4y2Ba

每个功能点映射到相应的视觉单词。gydF4y2Ba

削减形象和构建空间金字塔层次结构(三种切割方法,如垂直切割方法,横向切割方法,和网格切割方法,本文采用如图gydF4y2Ba 2(一个)gydF4y2Ba- - - - - -gydF4y2Ba 2 (c)gydF4y2Ba分别)。gydF4y2Ba

计算视觉单词的数量在每一个细胞,每个细胞绘制直方图。gydF4y2Ba

连接所有直方图组成的特征向量作为图像描述符。gydF4y2Ba

建设SPM和一代的初始描述符集。(a)垂直切割。(b)水平降低。(c)网格切割。gydF4y2Ba

SPM-based描述符生成过程如图gydF4y2Ba 2(一个)gydF4y2Ba- - - - - -gydF4y2Ba 2 (c)gydF4y2Ba,每个切削类型将分为三个列清楚解释。如图gydF4y2Ba 2(一个)gydF4y2Ba,第一列显示切割类型的初始图像,第二列表示视觉单词的统计结果为每个细胞,和最初的描述符由连接第二列直方图第三列所示。图像包含5个视觉单词;三个金字塔层次结构;和垂直、水平和电网,三种切割方法。描述符生成基于SPM主要取决于三个重要参数:弓大小(gydF4y2Ba 年代gydF4y2Ba)、金字塔层次结构(gydF4y2Ba HgydF4y2Ba),切割方法(gydF4y2Ba CgydF4y2Ba)。gydF4y2Ba HgydF4y2Ba= 0代表第一层次,减少图像0次。gydF4y2Ba HgydF4y2Ba= 1代表第二个层次,减少图像1次;gydF4y2Ba HgydF4y2Ba= 2代表第三层次结构,图像是降低2倍。因此,切割的数量取决于gydF4y2Ba HgydF4y2Ba。换句话说,当gydF4y2Ba HgydF4y2Ba=gydF4y2Ba hgydF4y2Ba,图像将会被削减gydF4y2Ba hgydF4y2Ba次,切割后生成的细胞的数量gydF4y2Ba 2gydF4y2Ba HCgydF4y2Ba 。最后,得到了七种不同的描述符在图gydF4y2Ba 2gydF4y2Ba,其大小的数量呈指数增长gydF4y2Ba HgydF4y2Ba和gydF4y2Ba CgydF4y2Ba并与字典的大小有一个线性关系gydF4y2Ba 年代gydF4y2Ba。描述符的大小的计算公式gydF4y2Ba ηgydF4y2Ba 如下:gydF4y2Ba (3)gydF4y2Ba ηgydF4y2Ba =gydF4y2Ba 年代gydF4y2Ba ⋅gydF4y2Ba 2gydF4y2Ba HCgydF4y2Ba 。gydF4y2Ba

正如我们所知,图像描述符包含场景的语义和空间分布信息。gydF4y2Ba 年代gydF4y2Ba将确定的语义描述符,而gydF4y2Ba HgydF4y2Ba和gydF4y2Ba CgydF4y2Ba重点描述符的空间分布,确保可以提供更详细的信息。更大的gydF4y2Ba 年代gydF4y2Ba将提供更详细的语义信息,使功能更加明显和更具代表性。但是,如果有很多视觉单词,直方图将变得更长,这将影响到图像检索和匹配过程,随后。类似地,一个更高的金字塔层次结构包含更多的细节,而较低的层次结构是更普遍。gydF4y2Ba

我们可以看到从gydF4y2Ba 12gydF4y2Ba,gydF4y2Ba 13gydF4y2Ba,gydF4y2Ba 38gydF4y2Ba),标准三个参数的值gydF4y2Ba 年代gydF4y2Ba= 20、50、100;gydF4y2Ba HgydF4y2Ba= 0、1和2;和gydF4y2Ba CgydF4y2Ba= 1(水平和垂直分割)和2(网格细分),分别。21个不同的视觉图像描述符和21深度描述符可以通过结合这些标准的价值观。描述符的数量是21的原因而不是27 (gydF4y2Ba 3gydF4y2Ba 3gydF4y2Ba ),gydF4y2Ba HgydF4y2Ba= 0的金字塔模型并不减少形象,确实没有要求组合。换句话说,对于任何gydF4y2Ba 年代gydF4y2Ba,第一个金字塔层次结构将只处理一个描述符,而第二个和第三个金字塔层次结构将处理三个描述符。gydF4y2Ba

3.3。描述符的过滤gydF4y2Ba

在本节中,贪婪的描述符滤波算法(GDFA)将提出在最初找到最有价值的描述符描述符集。gydF4y2Ba ηgydF4y2Ba 主要聚集在最初的描述符gydF4y2Ba 0400年gydF4y2Ba (如图gydF4y2Ba 3gydF4y2Ba),gydF4y2Ba ηgydF4y2Ba 分为三个连续间隔gydF4y2Ba 0150年gydF4y2Ba ,gydF4y2Ba 150350年gydF4y2Ba ,gydF4y2Ba 350年gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba 为方便描述符过滤。我们假设大型、中型和小型的间隔与小,适合我们的数据采集平台媒介,分别和高计算能力配置。描述符的重量gydF4y2Ba αgydF4y2Ba 相关描述符分类精度gydF4y2Ba ζgydF4y2Ba 和描述符大小gydF4y2Ba ηgydF4y2Ba 。为了获得描述符和较小的尺寸和精度高,重量的计算公式gydF4y2Ba αgydF4y2Ba 可以定义如下:gydF4y2Ba (4)gydF4y2Ba αgydF4y2Ba =gydF4y2Ba ζgydF4y2Ba 日志gydF4y2Ba ηgydF4y2Ba 。gydF4y2Ba

贪婪的描述符滤波算法和主成分分析。gydF4y2Ba

贪婪的描述符滤波算法(GDFA)流算法gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

<大胆>算法1:< /大胆>贪婪的描述符滤波算法。gydF4y2Ba

输入:gydF4y2Ba描述符列表——ℒgydF4y2Ba

描述符分类精度——列表gydF4y2Ba ζgydF4y2Ba

描述符列表- - -大小gydF4y2Ba ηgydF4y2Ba

为gydF4y2Ba jgydF4y2Ba ∈gydF4y2Ba ⌈gydF4y2Ba 0gydF4y2Ba ,gydF4y2Ba 大小gydF4y2Ba ℒgydF4y2Ba ⌉gydF4y2Ba 做gydF4y2Ba

αgydF4y2Ba jgydF4y2Ba ⟵gydF4y2Ba ζgydF4y2Ba jgydF4y2Ba /gydF4y2Ba 日志gydF4y2Ba ηgydF4y2Ba jgydF4y2Ba

结束gydF4y2Ba

描述符的大小划分为gydF4y2Ba 0150年gydF4y2Ba ,gydF4y2Ba 150350年gydF4y2Ba ,gydF4y2Ba 350年gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba 三个连续的间隔gydF4y2Ba

为gydF4y2Ba 我gydF4y2Ba ∈gydF4y2Ba ⌈gydF4y2Ba 1、2、3gydF4y2Ba ⌉gydF4y2Ba 做gydF4y2Ba

ℒ划分为新列表gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba

类的描述符gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba 为了从最大到最小的重量值gydF4y2Ba

为gydF4y2Ba jgydF4y2Ba ∈gydF4y2Ba 0gydF4y2Ba ,gydF4y2Ba lengydF4y2Ba NgydF4y2Ba 我gydF4y2Ba 做gydF4y2Ba

筛选描述符gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba最大的重量)gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba 并添加gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba]ΦgydF4y2Ba 我gydF4y2Ba

如果gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba jgydF4y2Ba−1]是过滤和gydF4y2Ba

αgydF4y2Ba jgydF4y2Ba >gydF4y2Ba 0.95gydF4y2Ba ∗gydF4y2Ba αgydF4y2Ba jgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba 然后gydF4y2Ba

添加gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba jgydF4y2Ba)gydF4y2Ba αgydF4y2Ba 我gydF4y2Ba

其他的gydF4y2Ba

结束gydF4y2Ba

结束gydF4y2Ba

结束gydF4y2Ba

输出:gydF4y2Ba推荐- - - - - -筛选描述符列表gydF4y2Ba αgydF4y2Ba

首先,所有的重量计算描述符根据方程(gydF4y2Ba 4gydF4y2Ba)。接下来,描述符的大小分为gydF4y2Ba 0150年gydF4y2Ba ,gydF4y2Ba 150350年gydF4y2Ba ,gydF4y2Ba 350年gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba 三个连续的区间,然后描述符的顺序排序从最大到最小的重量值。描述符的最大重量gydF4y2Ba NgydF4y2Ba 我gydF4y2Ba 过滤和添加到第一个位置gydF4y2Ba FgydF4y2Ba。如果描述符的重量大于先前选定的描述符的重量的95%,也就是说,gydF4y2Ba αgydF4y2Ba 我gydF4y2Ba >gydF4y2Ba 0.95gydF4y2Ba αgydF4y2Ba 我gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba ,描述符是过滤掉;否则,接下来的描述符将被比较。GDFA不仅能找到最有价值的描述符在每一个时间间隔,但也能过滤掉描述符与类似的权重。gydF4y2Ba

4所示。描述符的评估gydF4y2Ba 4.1。实验数据库gydF4y2Ba

为了研究室内场景分类机制,如图gydF4y2Ba 4gydF4y2Ba(a),室内图像数据采集平台与微软Kinect 2.0,独立开发的实验室,将采用进行图像数据采集在黑龙江大学物理实验室建设。数据库包含的视觉和深度图像捕捉到9不同照明条件下的室内场景。举一些例子,图gydF4y2Ba 4gydF4y2Ba(b)显示数据库映像的一部分。gydF4y2Ba

室内图像数据采集平台(a)和数据库(b)的一部分。gydF4y2Ba

数据库将随机分为5序列图像,即训练1,2,3和测试1和2。图像数字9场景5序列是列在表中gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

5 9场景的图像序列的数量。gydF4y2Ba

场景gydF4y2Ba 框架gydF4y2Ba
培训1gydF4y2Ba 培训2gydF4y2Ba 培训3gydF4y2Ba 测试1gydF4y2Ba 测试2gydF4y2Ba
1gydF4y2Ba 438年gydF4y2Ba 498年gydF4y2Ba 444年gydF4y2Ba 511年gydF4y2Ba 319年gydF4y2Ba
2gydF4y2Ba 140年gydF4y2Ba 152年gydF4y2Ba 84年gydF4y2Ba 95年gydF4y2Ba 147年gydF4y2Ba
3gydF4y2Ba 119年gydF4y2Ba 80年gydF4y2Ba 65年gydF4y2Ba 109年gydF4y2Ba 229年gydF4y2Ba
4gydF4y2Ba 421年gydF4y2Ba 452年gydF4y2Ba 376年gydF4y2Ba 392年gydF4y2Ba 442年gydF4y2Ba
5gydF4y2Ba 408年gydF4y2Ba 336年gydF4y2Ba 247年gydF4y2Ba 307年gydF4y2Ba 942年gydF4y2Ba
6gydF4y2Ba 664年gydF4y2Ba 599年gydF4y2Ba 388年gydF4y2Ba 692年gydF4y2Ba 1287年gydF4y2Ba
7gydF4y2Ba 126年gydF4y2Ba 79年gydF4y2Ba 60gydF4y2Ba 95年gydF4y2Ba 223年gydF4y2Ba
8gydF4y2Ba 153年gydF4y2Ba 96年gydF4y2Ba 118年gydF4y2Ba 140年gydF4y2Ba 193年gydF4y2Ba
9gydF4y2Ba 198年gydF4y2Ba 240年gydF4y2Ba 131年gydF4y2Ba 104年gydF4y2Ba 241年gydF4y2Ba
所有gydF4y2Ba 2267年gydF4y2Ba 2532年gydF4y2Ba 1913年gydF4y2Ba 2445年gydF4y2Ba 4023年gydF4y2Ba
4.2。评价结果与分析gydF4y2Ba

K-fold交叉验证可能是一个常见的精度测试方法,可有效避免过度学习和under-learning。10-CV(10倍交叉验证)将被用来评估分类器模型在这一节中。为了确保每个交叉验证图像相似,连续30个图像的一个子集将被随机分配到Fold1-Fold10(代表10 30图像)的子集,这有效地阻止了任何偏差造成的时间连续性数据集。图gydF4y2Ba 5gydF4y2Ba显示数据集内的每个场景的分布在每一个褶皱10-CV和全球分布。值得注意的是,场景的数据集在Fold1-Fold10不均匀分布。gydF4y2Ba

Fold1-Fold10和全球的每一个场景都分配数据集。gydF4y2Ba

表gydF4y2Ba 2gydF4y2Ba显示初始的分类精度42的视觉图像描述符描述符和深度图像描述符后10倍交叉验证。在SPM,当gydF4y2Ba HgydF4y2Ba= 0,对于任何类型的细分类型,没有图像切割和生成的描述符是相同的,因此,评价结果是相同的。通过比较图像视觉图像和深度的结果,我们可以发现,深度图像的分类精度明显低于视觉图像。原因可能是视觉编码技术(视觉编码数据和视觉之间的映射结果)的深度图像获取细粒度的数据不够准确。gydF4y2Ba

评价结果的初步描述符。gydF4y2Ba

CgydF4y2Ba HgydF4y2Ba 视觉gydF4y2Ba 深度gydF4y2Ba
年代gydF4y2Ba= 20 (%)gydF4y2Ba 年代gydF4y2Ba= 50 (%)gydF4y2Ba 年代gydF4y2Ba= 100 (%)gydF4y2Ba 年代gydF4y2Ba= 20 (%)gydF4y2Ba 年代gydF4y2Ba= 50 (%)gydF4y2Ba 年代gydF4y2Ba= 100 (%)gydF4y2Ba
垂直gydF4y2Ba 0gydF4y2Ba 48.13gydF4y2Ba 58.75gydF4y2Ba 66.20gydF4y2Ba 37.07gydF4y2Ba 42.49gydF4y2Ba 50.06gydF4y2Ba
1gydF4y2Ba 51.84gydF4y2Ba 63.36gydF4y2Ba 69.53gydF4y2Ba 37.23gydF4y2Ba 48.83gydF4y2Ba 52.55gydF4y2Ba
2gydF4y2Ba 56.38gydF4y2Ba 65.88gydF4y2Ba 72.09gydF4y2Ba 41.03gydF4y2Ba 50.51gydF4y2Ba 55.44gydF4y2Ba

水平gydF4y2Ba 0gydF4y2Ba
1gydF4y2Ba 52.51gydF4y2Ba 64.68gydF4y2Ba 72.01gydF4y2Ba 40.93gydF4y2Ba 47.53gydF4y2Ba 51.78gydF4y2Ba
2gydF4y2Ba 60.73gydF4y2Ba 72.36gydF4y2Ba 77.81gydF4y2Ba 47.39gydF4y2Ba 53.65gydF4y2Ba 59.40gydF4y2Ba

网格gydF4y2Ba 0gydF4y2Ba
1gydF4y2Ba 56.25gydF4y2Ba 69.02gydF4y2Ba 74.34gydF4y2Ba 41.82gydF4y2Ba 52.95gydF4y2Ba 57.07gydF4y2Ba
2gydF4y2Ba 67.53gydF4y2Ba 75.26gydF4y2Ba 77.24gydF4y2Ba 52.76gydF4y2Ba 58.37gydF4y2Ba 60.86gydF4y2Ba

GDFA能找到有价值的描述符从最初的描述符集,这将促进描述符组合在部分工作gydF4y2Ba 5gydF4y2Ba。表gydF4y2Ba 3gydF4y2Ba显示了内部参数和分类精度4视觉图像描述符和7的深度图像描述符由GDFA过滤,类似地,从10-CV评价数据。换句话说,42最初描述符表中给出gydF4y2Ba 2gydF4y2Ba通过过滤GDFA减少到11。这些描述符可能最高的重量gydF4y2Ba 0150年gydF4y2Ba ,gydF4y2Ba 150350年gydF4y2Ba ,gydF4y2Ba 350年gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba 间隔。gydF4y2Ba

过滤GDFA的结果。gydF4y2Ba

图像类型gydF4y2Ba 参数gydF4y2Ba 过滤条件gydF4y2Ba
年代gydF4y2Ba HgydF4y2Ba CgydF4y2Ba ζgydF4y2Ba (%)gydF4y2Ba ηgydF4y2Ba (间隔)gydF4y2Ba
V1gydF4y2Ba 20.gydF4y2Ba 0gydF4y2Ba - - - - - -gydF4y2Ba 48.13gydF4y2Ba 20 (1)gydF4y2Ba
V2gydF4y2Ba 50gydF4y2Ba 2gydF4y2Ba 水平gydF4y2Ba 72.36gydF4y2Ba 200 (2)gydF4y2Ba
V3gydF4y2Ba One hundred.gydF4y2Ba 1gydF4y2Ba 水平gydF4y2Ba 72.01gydF4y2Ba 200 (2)gydF4y2Ba
V4gydF4y2Ba One hundred.gydF4y2Ba 2gydF4y2Ba 水平gydF4y2Ba 77.81gydF4y2Ba 400 (3)gydF4y2Ba

D1gydF4y2Ba 20.gydF4y2Ba 0gydF4y2Ba - - - - - -gydF4y2Ba 37.07gydF4y2Ba 20 (1)gydF4y2Ba
D2gydF4y2Ba 50gydF4y2Ba 2gydF4y2Ba 水平gydF4y2Ba 53.65gydF4y2Ba 200 (2)gydF4y2Ba
D3gydF4y2Ba 50gydF4y2Ba 1gydF4y2Ba 网格gydF4y2Ba 52.95gydF4y2Ba 200 (2)gydF4y2Ba
D4gydF4y2Ba One hundred.gydF4y2Ba 1gydF4y2Ba 垂直gydF4y2Ba 52.55gydF4y2Ba 200 (2)gydF4y2Ba
D5gydF4y2Ba One hundred.gydF4y2Ba 1gydF4y2Ba 水平gydF4y2Ba 51.78gydF4y2Ba 200 (2)gydF4y2Ba
D6gydF4y2Ba 50gydF4y2Ba 2gydF4y2Ba 垂直gydF4y2Ba 50.51gydF4y2Ba 200 (2)gydF4y2Ba
D7gydF4y2Ba One hundred.gydF4y2Ba 2gydF4y2Ba 水平gydF4y2Ba 59.40gydF4y2Ba 400 (3)gydF4y2Ba

主成分分析是一种古典和广泛的算法在当前的数据预处理算法。与PCA降维可以保留最重要的功能在高维数据和去除噪声和无用的功能,这可以提高数据质量和数据处理速度。图gydF4y2Ba 3gydF4y2Ba显示了比较的过滤结果GDFA和主成分分析的降维结果(固体点图gydF4y2Ba 3gydF4y2Ba描述符GDFA获得的,虚线分隔三间隔)。观察到,当描述符的大小gydF4y2Ba 0150年gydF4y2Ba 描述符,PCA优于视觉描述符和深度。但是,当描述符的大小gydF4y2Ba 150350年gydF4y2Ba 和gydF4y2Ba 350年gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba PCA的性能开始下降,这可能表明GDFA执行比PCA,尤其是当描述符大小中型或大型。gydF4y2Ba

5。描述符的组合gydF4y2Ba

GDFA最有价值的描述符被选择的部分gydF4y2Ba 4gydF4y2Ba。为了进一步获得优质、高效最后的描述符,此部分将提出多个描述符组合算法(本节只结合两个描述符)虽然这一步可能增加场景分类的运行时间。将会有两个描述符组合的水平,如图gydF4y2Ba 6gydF4y2Ba。一个是描述符(DL)水平,可以输入描述符后SVM1 Image1描述符和Image2连接成一个组合,如图gydF4y2Ba 6(一)gydF4y2Ba。另一个是分类器级别(CL)、重量Image1后不同的反应结果,Image2 SVM1和SVM2分开输入,如图gydF4y2Ba 6 (b)gydF4y2Ba。另外,本节将讨论同源组合(gydF4y2Ba VgydF4y2Ba+gydF4y2Ba VgydF4y2Ba或gydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba)和nonhomologous组合(gydF4y2Ba VgydF4y2Ba+gydF4y2Ba DgydF4y2Ba)。gydF4y2Ba

描述符的组合。(一)DL。(b) CL。gydF4y2Ba

合并后的训练序列1、2和3中给出的表格gydF4y2Ba 1gydF4y2Ba将被用作训练集,而测试1和测试2将被用作测试集。这5个序列有相同的场景。但它指出,光线的变化在测试的测试1比2。gydF4y2Ba

5.1。同源的组合gydF4y2Ba

本节将结合两个描述符提取相同的图像类型,即V + V或gydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba,这被称为同源的组合。结合将在DL和CL,分别。支持向量机的测试集可以由两组序列有明显的差异,分别测试1和测试2。gydF4y2Ba

5.1.1。<斜体> V < /斜体> <斜体> + V < /斜体> <斜体> < /斜体>gydF4y2Ba

有6种不同组合的深度图像描述符V1, V2, V3和V4中给定表gydF4y2Ba 3gydF4y2Ba将应用DL和CL,分别。测试1和测试2的分类精度获得数据所示gydF4y2Ba 7(一)gydF4y2Ba和gydF4y2Ba 7 (b)gydF4y2Ba,分别。gydF4y2Ba

VgydF4y2Ba+gydF4y2Ba VgydF4y2Ba结合评价结果。(一)测试1。测试2 (b)。gydF4y2Ba

5.1.2中。<斜体> < /斜体> + <斜体> D < /斜体>gydF4y2Ba

有21个不同的组合7深度图像描述符D1, D2、D3,…, D7的表gydF4y2Ba 3gydF4y2Ba将应用DL和CL,分别。测试1和测试2的分类精度获得数据所示gydF4y2Ba 8(一个)gydF4y2Ba和gydF4y2Ba 8 (b)gydF4y2Ba,分别。gydF4y2Ba

比较图gydF4y2Ba 7gydF4y2Ba与图gydF4y2Ba 8gydF4y2Ba,我们发现分类的准确性gydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba通常是低于V + V。最高的分类精度测试1和测试2通过最好的深度图像描述符D7是48.79%和65.45%,分别为(在最高的分类精度测试1和测试2通过最好的视觉图像描述符V4是74.76%和85.78%,分别)。当初始描述符D7充当家长最好的描述符,分类精度最高的DL在测试1 56.07%,虽然在测试2 71.86%。显然,测试2中的分类精度仍高于测试1gydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba。gydF4y2Ba

DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba结合评价结果。(一)测试1。测试2 (b)。gydF4y2Ba

类似于V + V, DL总是优于CLgydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba。描述符组合的分类精度DL总是高于父母的描述符42(39),而只有少数组合描述符有更高的分类精度比父母的描述符的CL 42 (16)。D7的内部参数gydF4y2Ba 年代gydF4y2Ba= 100,gydF4y2Ba HgydF4y2Ba= 2,gydF4y2Ba CgydF4y2Ba=水平。gydF4y2Ba DgydF4y2Ba5 + D7(56.07%)达到了良好的效果,和D5的内部参数gydF4y2Ba 年代gydF4y2Ba= 100,gydF4y2Ba HgydF4y2Ba= 1,gydF4y2Ba CgydF4y2Ba=水平。gydF4y2Ba DgydF4y2Ba2 + D7(71.86%)也取得了良好的效果,和D2的内部参数gydF4y2Ba 年代gydF4y2Ba= 50,gydF4y2Ba HgydF4y2Ba= 2,gydF4y2Ba CgydF4y2Ba=水平。最优组合的相似性gydF4y2Ba CgydF4y2Ba=水平,验证的部分gydF4y2Ba 4gydF4y2Ba。此外,V4的内部参数和D7gydF4y2Ba 年代gydF4y2Ba= 100,gydF4y2Ba HgydF4y2Ba= 2,gydF4y2Ba CgydF4y2Ba=水平。因此,我们可以推测,高分类精度可以通过描述符与这样一群内部参数,将在部分验证gydF4y2Ba 6gydF4y2Ba。gydF4y2Ba

5.2。Nonhomologous组合gydF4y2Ba

本节将结合两个描述符提取不同图像类型,即V +gydF4y2Ba DgydF4y2Ba,称为nonhomologous组合。有28个不同的组合V1、V2、V3,和V4和D1、D2、D3,…, D7表gydF4y2Ba 3gydF4y2Ba将应用DL和CL,分别。具体评估过程是一样的同源组合,以及评价结果如图gydF4y2Ba 9gydF4y2Ba。gydF4y2Ba

DgydF4y2Ba+ V组合评价结果。(一)测试1。测试2 (b)。gydF4y2Ba

在测试2,CL和DL的分类精度最高达到80.36%和92.64%,分别在测试1,它达到72.84%和81.76%。这是符合我们发现之前,测试2的分类精度总是高于测试1,和DL总是优于CL。gydF4y2Ba

在CL,结合分类精度最高gydF4y2Ba DgydF4y2Ba5 + V4(72.84%)在测试1。同时,V4的分类精度,而父母描述符,是74.76%。最高的组合分类精度gydF4y2Ba DgydF4y2Ba7 + V4(80.36%)在测试2。V4的分类精度,它充当一个家长描述符,是85.78%。如数据所示gydF4y2Ba 9(一个)gydF4y2Ba和gydF4y2Ba 9 (b)gydF4y2Ba描述符,只有少数组合分类精度高于父母描述符在CL 56(18),在同源组合一样。这表明CL不是令人满意的结果。gydF4y2Ba

在DL,结合分类精度最高gydF4y2Ba DgydF4y2Ba7 + V4(81.76%)在测试1。同时,V4的分类精度,它充当一个家长描述符,是74.76%。最高的组合分类精度gydF4y2Ba DgydF4y2Ba7 + V4(92.64%)在测试2。V4的分类精度,它充当一个家长描述符,是85.78%。如数据所示gydF4y2Ba 9(一个)gydF4y2Ba和gydF4y2Ba 9 (b)gydF4y2Ba组合的分类精度描述符在DL总是高于父母的描述符(56的56)。gydF4y2Ba

我们可以得出结论,DL优于CL nonhomologous组合,因为大多数组合在DL胜过父母描述符描述符,而组合描述符在CL可能难以实现。此外,无论在哪个层面上,描述符的组合具有优良的性能和较差的描述符性能优于其他组合。引用一些,gydF4y2Ba DgydF4y2Ba1 + V4之前gydF4y2Ba DgydF4y2Ba1 + V1,gydF4y2Ba DgydF4y2Ba1 + V2gydF4y2Ba DgydF4y2Ba在图1 + V3gydF4y2Ba 9 (b)gydF4y2Ba。gydF4y2Ba

结合数据gydF4y2Ba 7gydF4y2Ba- - - - - -gydF4y2Ba 9gydF4y2Ba,我们可以得出这样的结论:V + V的整体效果gydF4y2Ba DgydF4y2Ba+ V优于gydF4y2Ba DgydF4y2Ba+gydF4y2Ba DgydF4y2Ba。有时V + V优于gydF4y2Ba DgydF4y2Ba+ V虽然nonhomologous组合包含更全面的信息。DL结合描述符之前进入一个分类器,完全保留的特征描述符。这可能是DL总是比CL的原因。所以,我们只比较V + V的评价结果和V +gydF4y2Ba DgydF4y2Ba在DL。gydF4y2Ba

表gydF4y2Ba 4gydF4y2Ba列出了同源和nonhomologous DL的最佳组合,以及最高的分类精度(大胆的数据)获得在测试1和测试2。最好的组合是V3 + V4在测试1,和最好的组合gydF4y2Ba DgydF4y2Ba2 + V4测试2。我们回想一下,光线的变化在测试的测试1比2。所以V + V可以最好的测试1,gydF4y2Ba DgydF4y2Ba+ V可以测试2中是最好的。gydF4y2Ba

最好的组合。gydF4y2Ba

V +gydF4y2Ba ζgydF4y2Ba (%)gydF4y2Ba DgydF4y2Ba+ VgydF4y2Ba ζgydF4y2Ba (%)gydF4y2Ba
测试1gydF4y2Ba V3gydF4y2Ba +gydF4y2Ba V4gydF4y2Ba 82.09gydF4y2Ba DgydF4y2Ba7 + V4gydF4y2Ba 81.76gydF4y2Ba
测试2gydF4y2Ba V2 V4 +gydF4y2Ba 91.60gydF4y2Ba D2gydF4y2Ba +gydF4y2Ba V4gydF4y2Ba 92.64gydF4y2Ba

如表所示gydF4y2Ba 3gydF4y2Ba,描述符的大小有8可能的值(包括单描述符或组合描述符),分别为:20、40岁,200年,220年,400年,420年、600年和800年。每个描述符的大小值对应的最大分类精度与主成分分析结果相比较。图gydF4y2Ba 10gydF4y2Ba显示了分类精度和描述符大小之间的关系在测试1和测试2。我们可以看到,多个描述符融合机制的分类精度可以明显改善描述符的大小从小型到中间。此外,分类精度逐渐趋于稳定的描述符从中间到大型规模。在测试1,当描述符大小等于400(大),V2 + V3(80.94%)被分类精度最高。在测试2,当描述符大小等于600(大)gydF4y2Ba DgydF4y2Ba2 + V4(92.64%)被分类精度最高。PCA实现分类精度高的条件与小描述符的大小。多个描述符融合机制的优越性是显而易见的,增加描述符的大小。gydF4y2Ba

描述符的大小和分类准确性和主成分分析。(一)测试1。测试2 (b)。gydF4y2Ba

5.3。执行时间gydF4y2Ba

室内场景分类分为两个阶段:离线训练和在线测试。假设建设弓和分类器训练在离线阶段已经完成。因此,什么是影响网络的运行时间阶段的生成和分类描述符,包括4个步骤,如表所示gydF4y2Ba 5gydF4y2Ba。gydF4y2Ba

室内场景分类执行时间。gydF4y2Ba

一步gydF4y2Ba 参数gydF4y2Ba 时间(年代)gydF4y2Ba
描述符生成gydF4y2Ba 提取D-SIFT特性gydF4y2Ba 图象尺寸= 640∗480gydF4y2Ba 0.0840gydF4y2Ba
映射特征点gydF4y2Ba 年代gydF4y2Ba= 20gydF4y2Ba 0.0096gydF4y2Ba
年代gydF4y2Ba= 50gydF4y2Ba 0.0140gydF4y2Ba
年代gydF4y2Ba= 100gydF4y2Ba 0.0218gydF4y2Ba
计算直方图gydF4y2Ba HgydF4y2Ba= 0gydF4y2Ba 0.0006gydF4y2Ba
HgydF4y2Ba= 1,gydF4y2Ba CgydF4y2Ba= 1gydF4y2Ba 0.0004gydF4y2Ba
HgydF4y2Ba= 2,gydF4y2Ba CgydF4y2Ba= 1或gydF4y2Ba HgydF4y2Ba= 1,gydF4y2Ba CgydF4y2Ba= 2gydF4y2Ba 0.0003gydF4y2Ba
HgydF4y2Ba= 2,gydF4y2Ba CgydF4y2Ba= 2gydF4y2Ba 0.0002gydF4y2Ba

描述符的分类gydF4y2Ba 分类的输入描述符gydF4y2Ba ηgydF4y2Ba =gydF4y2Ba 20.gydF4y2Ba 0.0010gydF4y2Ba
ηgydF4y2Ba =gydF4y2Ba 50gydF4y2Ba 0.0016gydF4y2Ba
ηgydF4y2Ba =gydF4y2Ba One hundred.gydF4y2Ba 0.0029gydF4y2Ba
ηgydF4y2Ba =gydF4y2Ba 200年gydF4y2Ba 0.0062gydF4y2Ba
ηgydF4y2Ba =gydF4y2Ba 400年gydF4y2Ba 0.0131gydF4y2Ba
ηgydF4y2Ba =gydF4y2Ba 800年gydF4y2Ba 0.0291gydF4y2Ba

值得注意的是,第一步采用图象尺寸= 640∗480。第二步与弓大小(gydF4y2Ba 年代gydF4y2Ba),所以gydF4y2Ba 年代gydF4y2Ba= 20、50、100年进行了研究,分别。步骤3取决于图像细胞的大小和数量,这是有关金字塔层次结构(gydF4y2Ba HgydF4y2Ba)和切割方法(gydF4y2Ba CgydF4y2Ba)。第四步是由gydF4y2Ba ηgydF4y2Ba 。gydF4y2Ba

5.4。算法分析和比较gydF4y2Ba

在相同的数据库,分类精度得到我们的机制将与其他融合方法相比,如表所示gydF4y2Ba 6gydF4y2Ba。分类精度与单一特征融合算法获得的gydF4y2Ba 28gydF4y2Ba- - - - - -gydF4y2Ba 30.gydF4y2Ba)往往是低的室内场景,很大程度上是因为这些算法不筛选描述符。所以似乎与单一特征融合算法适用于室内场景分类。更高的分类精度和多特征融合算法获得的(gydF4y2Ba 31日gydF4y2Ba),这五个不同的内核描述符从图像中提取。集成后,他们是由线性支持向量机训练和分类,内核支持向量机,和随机森林,分别获得89.6%,90.0%,在这个实验中90.1%的准确率。92.6%的准确率是通过我们的分类机制,2.5%更高的价值比(gydF4y2Ba 31日gydF4y2Ba]。最重要的是,多个描述符在室内场景分类融合机制具有良好的性能。gydF4y2Ba

分类精度的比较。gydF4y2Ba

分类算法gydF4y2Ba ζgydF4y2Ba (%)gydF4y2Ba
猪+支持向量机(gydF4y2Ba 28gydF4y2Ba]gydF4y2Ba 77.2gydF4y2Ba
筛选+ SPM (gydF4y2Ba 29日gydF4y2Ba]gydF4y2Ba 84.2gydF4y2Ba
筛选+冲浪(gydF4y2Ba 30.gydF4y2Ba]gydF4y2Ba 85.7gydF4y2Ba
内核描述符+线性支持向量机(gydF4y2Ba 31日gydF4y2Ba]gydF4y2Ba 89.6gydF4y2Ba
内核描述符+内核支持向量机(gydF4y2Ba 31日gydF4y2Ba]gydF4y2Ba 90.0gydF4y2Ba
内核描述符+随机森林(gydF4y2Ba 31日gydF4y2Ba]gydF4y2Ba 90.1gydF4y2Ba
融合多个描述符gydF4y2Ba 92.6gydF4y2Ba
6。结论gydF4y2Ba

针对室内定位应用的实际需求,建立了多个描述符融合模型和一个图像分类策略,提出了提高描述符的质量和效率,实现更好的室内场景分类的效果。首先,形成最初的描述符集的基础上,建立了SPM。然后,贪婪的描述符采用滤波算法来选择每个描述符描述符与高体重大小间隔和有价值的描述符集。最后,多个描述符组合算法获得高质量和高效的多个描述符通过同源和nonhomologous DL和CL图像,分别。gydF4y2Ba

的生成、过滤和组合多个描述符在本研究提出改善分类器的性能。评价结果反映多个描述符融合机制提出了研究优于著名的PCA降维技术,特别是对于中型或大型的状态描述符的大小。这种策略不仅会取得更好的结果比其他特征融合算法,而且还解决了限制现有的场景分类算法应用于室内场景。gydF4y2Ba

未来的研究将集中在改善图像的特征提取算法和构造视觉单词的效率通过聚类特性的视觉弓模型由其他聚类算法。将更多的关注提高描述符在描述图像信息的有效性。同时,深度图像的质量的提高将会考虑,可以更有效地使用数据描述符的过程中过滤和深度描述符的组合。此外,一个更完整的数据集可以被采纳。gydF4y2Ba

数据可用性gydF4y2Ba

数据结果提出了用于支持本研究的发现。gydF4y2Ba

的利益冲突gydF4y2Ba

作者宣称没有利益冲突有关的出版。gydF4y2Ba

确认gydF4y2Ba

这项工作是支持中国的国家高技术研究发展计划(2012 aa120802),中国国家自然科学基金(61771186),黑龙江省博士后研究项目(LBH-Q15121),大学护理程序为年轻学者与黑龙江省创新型人才(unpysct - 2017125),和黑龙江大学的研究生创新研究项目(yjscx2019 - 166 hlju)。gydF4y2Ba

尼科gydF4y2Ba P。gydF4y2Ba 大卫gydF4y2Ba P。gydF4y2Ba 延斯gydF4y2Ba T。gydF4y2Ba TDoA-based户外公共罗拉网络定位与跟踪算法gydF4y2Ba 无线通信和移动计算gydF4y2Ba 2018年gydF4y2Ba 2018年gydF4y2Ba 9gydF4y2Ba 10.1155 / 2018/1864209gydF4y2Ba 2 - s2.0 - 85048122473gydF4y2Ba 林gydF4y2Ba k . H。gydF4y2Ba 张gydF4y2Ba C . C。gydF4y2Ba 李gydF4y2Ba w . C。gydF4y2Ba 新RSSI-based罗拉定位算法非常嘈杂的室外环境gydF4y2Ba 《IEEE会议第42届计算机软件和应用程序gydF4y2Ba 2018年7月gydF4y2Ba 日本东京gydF4y2Ba 794年gydF4y2Ba 799年gydF4y2Ba 张gydF4y2Ba K。gydF4y2Ba 庄gydF4y2Ba 年代。gydF4y2Ba 周gydF4y2Ba Q。gydF4y2Ba 王gydF4y2Ba H。gydF4y2Ba 高gydF4y2Ba Q。gydF4y2Ba 陈gydF4y2Ba Y。gydF4y2Ba GPS超宽频和玛格定位算法混合室内和室外的场景gydF4y2Ba 集群计算gydF4y2Ba 2019年gydF4y2Ba 22gydF4y2Ba S3gydF4y2Ba 5965年gydF4y2Ba 5974年gydF4y2Ba 10.1007 / s10586 - 018 - 1735 - 9gydF4y2Ba 2 - s2.0 - 85040768605gydF4y2Ba 他gydF4y2Ba X。gydF4y2Ba 马恩岛的gydF4y2Ba W。gydF4y2Ba 彭gydF4y2Ba lgydF4y2Ba 一个RFID基于支持向量回归的室内定位算法gydF4y2Ba 传感器gydF4y2Ba 2018年gydF4y2Ba 18gydF4y2Ba 5gydF4y2Ba 1504年gydF4y2Ba 1519年gydF4y2Ba 10.3390 / s18051504gydF4y2Ba 2 - s2.0 - 85046819073gydF4y2Ba 元gydF4y2Ba X。gydF4y2Ba ShmaliygydF4y2Ba y S。gydF4y2Ba 李gydF4y2Ba Y。gydF4y2Ba UWB-based室内使用EFIR人类本地化时滞数据过滤gydF4y2Ba IEEE访问gydF4y2Ba 2017年gydF4y2Ba 5gydF4y2Ba 16676年gydF4y2Ba 16683年gydF4y2Ba 10.1109 / access.2017.2743213gydF4y2Ba 2 - s2.0 - 85028518697gydF4y2Ba 德gydF4y2Ba b G。gydF4y2Ba Quesada-ArencibiagydF4y2Ba 一个。gydF4y2Ba 加西亚gydF4y2Ba c·R。gydF4y2Ba 罗德里格斯gydF4y2Ba j . C。gydF4y2Ba 迪亚兹gydF4y2Ba r·M。gydF4y2Ba protocol-channelbased室内定位性能研究蓝牙低能量gydF4y2Ba IEEE访问gydF4y2Ba 2018年gydF4y2Ba 6gydF4y2Ba 33440年gydF4y2Ba 33450年gydF4y2Ba 10.1109 / access.2018.2837497gydF4y2Ba 2 - s2.0 - 85047014411gydF4y2Ba 香gydF4y2Ba G。gydF4y2Ba 道gydF4y2Ba Z。gydF4y2Ba 无监督学习检测循环使用visual大满贯深层神经网络系统gydF4y2Ba 自主机器人gydF4y2Ba 2017年gydF4y2Ba 41gydF4y2Ba 1gydF4y2Ba 1gydF4y2Ba 18gydF4y2Ba YujingydF4y2Ba C。gydF4y2Ba 瑞智gydF4y2Ba C。gydF4y2Ba MengyungydF4y2Ba lgydF4y2Ba 肖gydF4y2Ba 一个。gydF4y2Ba 吴gydF4y2Ba D。gydF4y2Ba 赵gydF4y2Ba 年代。gydF4y2Ba 室内视觉定位得益于CNN-based图像检索:教练免费,3 d modeling-freegydF4y2Ba 传感器gydF4y2Ba 2018年gydF4y2Ba 18gydF4y2Ba 8gydF4y2Ba 2692年gydF4y2Ba 2712年gydF4y2Ba 10.3390 / s18082692gydF4y2Ba 2 - s2.0 - 85052140321gydF4y2Ba AorangydF4y2Ba X。gydF4y2Ba 瑞智gydF4y2Ba C。gydF4y2Ba DerengydF4y2Ba lgydF4y2Ba 陈gydF4y2Ba Y。gydF4y2Ba 吴gydF4y2Ba D。gydF4y2Ba 室内定位系统基于静态对象通过使用智能手机的摄像头在大型室内场景gydF4y2Ba 传感器gydF4y2Ba 2018年gydF4y2Ba 18gydF4y2Ba 7gydF4y2Ba 2229年gydF4y2Ba 2246年gydF4y2Ba 10.3390 / s18072229gydF4y2Ba 2 - s2.0 - 85050136120gydF4y2Ba AlsmadigydF4y2Ba m·K。gydF4y2Ba 一个高效的相似性度量算法基于内容的图像检索使用迷因gydF4y2Ba 埃及的基础和应用科学杂志》上gydF4y2Ba 2017年gydF4y2Ba 4gydF4y2Ba 2gydF4y2Ba 112年gydF4y2Ba 122年gydF4y2Ba 10.1016 / j.ejbas.2017.02.004gydF4y2Ba 阿齐兹gydF4y2Ba m·a·E。gydF4y2Ba 母羊gydF4y2Ba 答:一个。gydF4y2Ba HassaniengydF4y2Ba 答:E。gydF4y2Ba 鲸鱼多目标优化算法对基于内容的图像检索gydF4y2Ba 多媒体工具和应用程序gydF4y2Ba 2018年gydF4y2Ba 77年gydF4y2Ba 19gydF4y2Ba 26135年gydF4y2Ba 26172年gydF4y2Ba 10.1007 / s11042 - 018 - 5840 - 9gydF4y2Ba 2 - s2.0 - 85044075463gydF4y2Ba 谢gydF4y2Ba lgydF4y2Ba 李gydF4y2Ba F。gydF4y2Ba 刘gydF4y2Ba lgydF4y2Ba 改进的空间金字塔匹配场景识别gydF4y2Ba 模式识别gydF4y2Ba 2018年gydF4y2Ba 82年gydF4y2Ba 118年gydF4y2Ba 129年gydF4y2Ba 10.1016 / j.patcog.2018.04.025gydF4y2Ba 2 - s2.0 - 85048716940gydF4y2Ba 赵gydF4y2Ba W。gydF4y2Ba 罗gydF4y2Ba H。gydF4y2Ba 彭gydF4y2Ba J。gydF4y2Ba 风扇gydF4y2Ba J。gydF4y2Ba 空间金字塔深处散列大规模图像检索gydF4y2Ba NeurocomputinggydF4y2Ba 2017年gydF4y2Ba 243年gydF4y2Ba 166年gydF4y2Ba 173年gydF4y2Ba 10.1016 / j.neucom.2017.03.021gydF4y2Ba 2 - s2.0 - 85015991163gydF4y2Ba 古普塔gydF4y2Ba lgydF4y2Ba PathangaygydF4y2Ba V。gydF4y2Ba 智利的gydF4y2Ba 一个。gydF4y2Ba 室内和室外场景使用概率神经网络分类gydF4y2Ba Eurasip应用信号处理》杂志上gydF4y2Ba 2007年gydF4y2Ba 2007年gydF4y2Ba 1gydF4y2Ba 123年gydF4y2Ba 094298年gydF4y2Ba 道gydF4y2Ba L . t . L。gydF4y2Ba 金gydF4y2Ba y . H。gydF4y2Ba 金gydF4y2Ba y . T。gydF4y2Ba 一个高效的基于神经网络的室内外场景分类算法gydF4y2Ba 国际会议消费电子学报》(ICCE)gydF4y2Ba 2010年2月gydF4y2Ba 美国内华达州拉斯维加斯gydF4y2Ba 10.1109 / ICCE.2010.5418764gydF4y2Ba 2 - s2.0 - 77950167148gydF4y2Ba 王gydF4y2Ba lgydF4y2Ba 郭gydF4y2Ba 年代。gydF4y2Ba 黄gydF4y2Ba W。gydF4y2Ba 熊gydF4y2Ba Y。gydF4y2Ba 乔gydF4y2Ba Y。gydF4y2Ba 知识引导消歧和多分辨率cnn大规模场景分类gydF4y2Ba IEEE图像处理gydF4y2Ba 2017年gydF4y2Ba 26gydF4y2Ba 4gydF4y2Ba 2055年gydF4y2Ba 2068年gydF4y2Ba 10.1109 / tip.2017.2675339gydF4y2Ba 2 - s2.0 - 85018517137gydF4y2Ba KebapcigydF4y2Ba H。gydF4y2Ba YanikoglugydF4y2Ba B。gydF4y2Ba UnalgydF4y2Ba G。gydF4y2Ba 植物图像检索使用颜色、形状和纹理特征gydF4y2Ba 电脑杂志gydF4y2Ba 2011年gydF4y2Ba 54gydF4y2Ba 9gydF4y2Ba 1475年gydF4y2Ba 1490年gydF4y2Ba 10.1093 / comjnl / bxq037gydF4y2Ba 2 - s2.0 - 80052575312gydF4y2Ba 帕蒂尔gydF4y2Ba j·K。gydF4y2Ba 库马尔gydF4y2Ba R。gydF4y2Ba 植物叶子上疾病的分析,基于内容的图像检索使用颜色、形状和纹理特征gydF4y2Ba 工程在农业、环境和食物gydF4y2Ba 2017年gydF4y2Ba 10gydF4y2Ba 2gydF4y2Ba 69年gydF4y2Ba 78年gydF4y2Ba 10.1016 / j.eaef.2016.11.004gydF4y2Ba 2 - s2.0 - 85008245683gydF4y2Ba 拉扎。gydF4y2Ba 一个。gydF4y2Ba 纳瓦兹gydF4y2Ba T。gydF4y2Ba DawoodgydF4y2Ba H。gydF4y2Ba DawoodgydF4y2Ba H。gydF4y2Ba 广场texton直方图特征进行图像检索gydF4y2Ba 多媒体工具和应用程序gydF4y2Ba 2019年gydF4y2Ba 78年gydF4y2Ba 3gydF4y2Ba 2719年gydF4y2Ba 2746年gydF4y2Ba 10.1007 / s11042 - 018 - 5795 - xgydF4y2Ba 2 - s2.0 - 85061287991gydF4y2Ba TahirgydF4y2Ba W。gydF4y2Ba 马吉德gydF4y2Ba 一个。gydF4y2Ba 拉赫曼gydF4y2Ba T。gydF4y2Ba 室内/室外图像分类使用依据图像特性和神经网络分类器gydF4y2Ba 学报》国际会议高容量光纤网络和启用/新兴技术(HONET)gydF4y2Ba 2015年12月gydF4y2Ba 巴基斯坦,伊斯兰堡gydF4y2Ba 居gydF4y2Ba lgydF4y2Ba 谢gydF4y2Ba K。gydF4y2Ba 郑gydF4y2Ba H。gydF4y2Ba 张gydF4y2Ba B。gydF4y2Ba 杨gydF4y2Ba W。gydF4y2Ba GPCA-SIFT:一个新的场景图像分类局部特征描述符gydF4y2Ba 通信在计算机和信息科学gydF4y2Ba 2016年gydF4y2Ba 663年gydF4y2Ba 4gydF4y2Ba 286年gydF4y2Ba 295年gydF4y2Ba 10.1007 / 978 - 981 - 10 - 3005 - 5 -大于gydF4y2Ba 2 - s2.0 - 84994888499gydF4y2Ba 史gydF4y2Ba J。gydF4y2Ba 朱gydF4y2Ba H。gydF4y2Ba 王gydF4y2Ba J。gydF4y2Ba 室内场景分类算法基于信息增强视觉敏感区域gydF4y2Ba 苎麻Shibie Yu Rengong智能/模式识别和人工智能gydF4y2Ba 2017年gydF4y2Ba 30.gydF4y2Ba 6gydF4y2Ba 520年gydF4y2Ba 529年gydF4y2Ba 林gydF4y2Ba D。gydF4y2Ba 费德勒gydF4y2Ba 年代。gydF4y2Ba UrtasungydF4y2Ba R。gydF4y2Ba 整体场景理解3 d对象检测与RGBD相机gydF4y2Ba 2013年《IEEE计算机视觉国际会议(ICCV)gydF4y2Ba 2014年3月gydF4y2Ba 澳大利亚悉尼gydF4y2Ba 1417年gydF4y2Ba 1424年gydF4y2Ba 10.1109 / ICCV.2013.179gydF4y2Ba 2 - s2.0 - 84898782715gydF4y2Ba 郑gydF4y2Ba Y。gydF4y2Ba 聚氨酯gydF4y2Ba J。gydF4y2Ba 王gydF4y2Ba H。gydF4y2Ba 室内场景分类,通过融合预测深度描述符gydF4y2Ba 环太平洋地区的多媒体会议上gydF4y2Ba 2018年5月gydF4y2Ba 10736年gydF4y2Ba 13gydF4y2Ba 23gydF4y2Ba BisotgydF4y2Ba V。gydF4y2Ba EssidgydF4y2Ba 年代。gydF4y2Ba 理查德。gydF4y2Ba G。gydF4y2Ba 猪和部分波段配电声场景图像特征分类gydF4y2Ba 第23届欧洲信号处理研讨会论文集(EUSIPCO)gydF4y2Ba 2015年12月gydF4y2Ba 不错,法国gydF4y2Ba 719年gydF4y2Ba 723年gydF4y2Ba 10.1109 / EUSIPCO.2015.7362477gydF4y2Ba 2 - s2.0 - 84963957188gydF4y2Ba JanochgydF4y2Ba 一个。gydF4y2Ba KarayevgydF4y2Ba 年代。gydF4y2Ba 贾gydF4y2Ba Y。gydF4y2Ba category-level 3 d对象数据集:将KinectgydF4y2Ba 《IEEE计算机视觉国际会议研讨会(ICCV研讨会)gydF4y2Ba 2011年11月gydF4y2Ba 西班牙巴塞罗那gydF4y2Ba 1168年gydF4y2Ba 1174年gydF4y2Ba SilbermangydF4y2Ba N。gydF4y2Ba HoiemgydF4y2Ba D。gydF4y2Ba 克里gydF4y2Ba P。gydF4y2Ba 室内推理从RGBD图像分割和支持gydF4y2Ba 第12届欧洲计算机视觉学报》(大会)gydF4y2Ba 2012年10月gydF4y2Ba 柏林,德国gydF4y2Ba 施普林格gydF4y2Ba 746年gydF4y2Ba 760年gydF4y2Ba 金gydF4y2Ba lgydF4y2Ba 全gydF4y2Ba lgydF4y2Ba 菁gydF4y2Ba 一个。gydF4y2Ba 研究基于融合的图像分类浏览和全球功能gydF4y2Ba 计算机工程与应用gydF4y2Ba 2012年gydF4y2Ba 49gydF4y2Ba 17gydF4y2Ba 174年gydF4y2Ba 177年gydF4y2Ba 王妃gydF4y2Ba R。gydF4y2Ba Kumar Grewal编写gydF4y2Ba 年代。gydF4y2Ba PanwargydF4y2Ba K。gydF4y2Ba 对象识别:绩效评估使用筛选和冲浪gydF4y2Ba 国际期刊的计算机应用程序gydF4y2Ba 2013年gydF4y2Ba 75年gydF4y2Ba 3gydF4y2Ba 39gydF4y2Ba 47gydF4y2Ba 10.5120 / 13094 - 0375gydF4y2Ba 薄gydF4y2Ba lgydF4y2Ba 任gydF4y2Ba X。gydF4y2Ba 福克斯gydF4y2Ba D。gydF4y2Ba 深度内核对象识别的描述符gydF4y2Ba 《IEEE / RSJ智能机器人与系统国际会议gydF4y2Ba 2011年12月gydF4y2Ba 旧金山,加州,美国gydF4y2Ba 821年gydF4y2Ba 826年gydF4y2Ba BregargydF4y2Ba K。gydF4y2Ba MohorcicgydF4y2Ba M。gydF4y2Ba 杨gydF4y2Ba Y。gydF4y2Ba 提高室内定位使用卷积神经网络计算设备的限制gydF4y2Ba IEEE访问gydF4y2Ba 2018年gydF4y2Ba 6gydF4y2Ba 17429年gydF4y2Ba 17441年gydF4y2Ba 10.1109 / access.2018.2817800gydF4y2Ba 2 - s2.0 - 85044315440gydF4y2Ba 周gydF4y2Ba Y。gydF4y2Ba 周gydF4y2Ba Y。gydF4y2Ba 刘gydF4y2Ba Q。gydF4y2Ba 研究mosaicking DSIFT算法适用于图像gydF4y2Ba 西安交通大学学报gydF4y2Ba 2015年gydF4y2Ba 49gydF4y2Ba 9gydF4y2Ba 84年gydF4y2Ba 90年gydF4y2Ba 刘gydF4y2Ba lgydF4y2Ba 陈gydF4y2Ba J。gydF4y2Ba FieguthgydF4y2Ba P。gydF4y2Ba 赵gydF4y2Ba G。gydF4y2Ba ChellappagydF4y2Ba R。gydF4y2Ba PietikainengydF4y2Ba M。gydF4y2Ba 从船首到CNN:二十年的纹理表示纹理分类gydF4y2Ba 国际计算机视觉杂志》上gydF4y2Ba 2019年gydF4y2Ba 127年gydF4y2Ba 1gydF4y2Ba 74年gydF4y2Ba 109年gydF4y2Ba 10.1007 / s11263 - 018 - 1125 - zgydF4y2Ba 2 - s2.0 - 85056330864gydF4y2Ba 总裁gydF4y2Ba lgydF4y2Ba 杨ydF4y2Ba M。gydF4y2Ba 襄汾县归gydF4y2Ba Z。gydF4y2Ba 张gydF4y2Ba Y。gydF4y2Ba 李gydF4y2Ba 年代。gydF4y2Ba 高有识别力的筛选功能和特性对选择改善视觉词袋模型gydF4y2Ba 专业图像处理gydF4y2Ba 2017年gydF4y2Ba 11gydF4y2Ba 11gydF4y2Ba 994年gydF4y2Ba 1001年gydF4y2Ba 10.1049 / iet-ipr.2017.0062gydF4y2Ba 2 - s2.0 - 85034603020gydF4y2Ba 朱gydF4y2Ba Q。gydF4y2Ba 钟gydF4y2Ba Y。gydF4y2Ba 赵gydF4y2Ba B。gydF4y2Ba 夏gydF4y2Ba G.-S。gydF4y2Ba 张gydF4y2Ba lgydF4y2Ba Bag-of-visual-words场景分类器与当地和全球对高空间分辨率遥感图像的特性gydF4y2Ba IEEE地球科学和遥感信gydF4y2Ba 2016年gydF4y2Ba 13gydF4y2Ba 6gydF4y2Ba 747年gydF4y2Ba 751年gydF4y2Ba 10.1109 / lgrs.2015.2513443gydF4y2Ba 2 - s2.0 - 84966587897gydF4y2Ba KhanmohammadigydF4y2Ba 年代。gydF4y2Ba AdibeiggydF4y2Ba N。gydF4y2Ba ShanehbandygydF4y2Ba 年代。gydF4y2Ba 一种改进的k -均值聚类算法重叠医疗应用程序gydF4y2Ba 专家系统与应用程序gydF4y2Ba 2017年gydF4y2Ba 67年gydF4y2Ba 12gydF4y2Ba 18gydF4y2Ba 10.1016 / j.eswa.2016.09.025gydF4y2Ba 2 - s2.0 - 84988517541gydF4y2Ba 李gydF4y2Ba E。gydF4y2Ba 施密特gydF4y2Ba M。gydF4y2Ba 莱特gydF4y2Ba J。gydF4y2Ba 改善和简化为k - means inapproximabilitygydF4y2Ba 信息处理信件gydF4y2Ba 2017年gydF4y2Ba 120年gydF4y2Ba 40gydF4y2Ba 43gydF4y2Ba 10.1016 / j.ipl.2016.11.009gydF4y2Ba 2 - s2.0 - 85007369745gydF4y2Ba LazebnikgydF4y2Ba 年代。gydF4y2Ba 施密德gydF4y2Ba C。gydF4y2Ba 男妓gydF4y2Ba J。gydF4y2Ba 外袋特征:空间金字塔匹配识别自然场景分类gydF4y2Ba 《IEEE计算机学会学报计算机视觉与模式识别会议(CVPR 06年)gydF4y2Ba 2006年10月gydF4y2Ba 纽约,纽约,美国gydF4y2Ba