本研究旨在造成的巨大的局限性non-ROI利益(地区)信息干扰在传统场景分类算法,包括多尺度的变化或不同的视觉角度和高类之间的相似性和其他因素。一个有效的室内场景分类机制提出了基于融合多个描述符,它介绍了深度图像描述符效率的提高。贪婪的描述符(GDFA)的过滤算法来获取有价值的描述符,和多个描述符组合方法也给进一步提高描述符性能。性能分析和仿真结果表明,多个描述符融合不仅可以获得更高的分类精度比主成分分析(PCA)与介质条件和大尺寸的描述符也可以提高分类精度比其他现有的有效算法。gydF4y2Ba
与互联网的快速发展和增加对基于位置感知的应用程序的需求,基于位置的服务越来越广泛的关注。大多数人不能没有位置服务和基于GPS(全球定位系统)导航系统在他们的日常生活。显然,室外定位技术已经相对成熟,许多移动设备也指室外定位技术(gydF4y2Ba
一大视觉数据库,即视觉地图,偶尔被建立在离线阶段实现精确的室内视觉定位。可视映射可能包含大量的图像或图像的特性不同的场景和相应的位置信息,这是视觉室内定位的基础。当用户执行一个位置在线查询,检索到的图像将在视觉地图。传统的图像检索算法依赖于像素点匹配(gydF4y2Ba
在室内场景分类机制,最初的描述符集包含两种类型的图像描述符将生成的现有空间金字塔模型(SPM) (gydF4y2Ba
室内场景分类机制。gydF4y2Ba
剩下的论文安排如下:部分gydF4y2Ba
在现场了解2006年在麻省理工学院举办的研讨会,很重要的一点是首次明确表示,即场景图像分类是一种新的有前途的研究方向的理解。虽然现有分类方法宣称能够解决任何场景分类问题(gydF4y2Ba
在早期的研究中,低层特征提取的图像通常是对场景进行分类,如颜色、纹理和形状gydF4y2Ba
Kinect的崛起,场景分类算法基于深度信息(gydF4y2Ba
随着研究的继续,基于卷积神经网络(CNN)模型(gydF4y2Ba
灵感来自[gydF4y2Ba
描述符生成表达式可以来自下列程序。让gydF4y2Ba
研究的关键是将最初的描述符与分类精度高价值的描述符。为了找到这样的描述符,方程(gydF4y2Ba
根据方程(gydF4y2Ba
近年来,船头模型已经广泛采用计算机视觉。它以图像特征为视觉单词和分类图像通过计算每个图像视觉单词的数量。然而,传统的弓缺乏空间位置信息(gydF4y2Ba
提取D-SIFT特性。gydF4y2Ba
每个功能点映射到相应的视觉单词。gydF4y2Ba
削减形象和构建空间金字塔层次结构(三种切割方法,如垂直切割方法,横向切割方法,和网格切割方法,本文采用如图gydF4y2Ba
计算视觉单词的数量在每一个细胞,每个细胞绘制直方图。gydF4y2Ba
连接所有直方图组成的特征向量作为图像描述符。gydF4y2Ba
建设SPM和一代的初始描述符集。(a)垂直切割。(b)水平降低。(c)网格切割。gydF4y2Ba
SPM-based描述符生成过程如图gydF4y2Ba
正如我们所知,图像描述符包含场景的语义和空间分布信息。gydF4y2Ba
我们可以看到从gydF4y2Ba
在本节中,贪婪的描述符滤波算法(GDFA)将提出在最初找到最有价值的描述符描述符集。gydF4y2Ba
贪婪的描述符滤波算法和主成分分析。gydF4y2Ba
贪婪的描述符滤波算法(GDFA)流算法gydF4y2Ba
描述符分类精度——列表gydF4y2Ba
描述符列表- - -大小gydF4y2Ba
描述符的大小划分为gydF4y2Ba
ℒ划分为新列表gydF4y2Ba
类的描述符gydF4y2Ba
筛选描述符gydF4y2Ba
添加gydF4y2Ba
首先,所有的重量计算描述符根据方程(gydF4y2Ba
为了研究室内场景分类机制,如图gydF4y2Ba
室内图像数据采集平台(a)和数据库(b)的一部分。gydF4y2Ba
数据库将随机分为5序列图像,即训练1,2,3和测试1和2。图像数字9场景5序列是列在表中gydF4y2Ba
5 9场景的图像序列的数量。gydF4y2Ba
| 场景gydF4y2Ba | 框架gydF4y2Ba | ||||
|---|---|---|---|---|---|
| 培训1gydF4y2Ba | 培训2gydF4y2Ba | 培训3gydF4y2Ba | 测试1gydF4y2Ba | 测试2gydF4y2Ba | |
| 1gydF4y2Ba | 438年gydF4y2Ba | 498年gydF4y2Ba | 444年gydF4y2Ba | 511年gydF4y2Ba | 319年gydF4y2Ba |
| 2gydF4y2Ba | 140年gydF4y2Ba | 152年gydF4y2Ba | 84年gydF4y2Ba | 95年gydF4y2Ba | 147年gydF4y2Ba |
| 3gydF4y2Ba | 119年gydF4y2Ba | 80年gydF4y2Ba | 65年gydF4y2Ba | 109年gydF4y2Ba | 229年gydF4y2Ba |
| 4gydF4y2Ba | 421年gydF4y2Ba | 452年gydF4y2Ba | 376年gydF4y2Ba | 392年gydF4y2Ba | 442年gydF4y2Ba |
| 5gydF4y2Ba | 408年gydF4y2Ba | 336年gydF4y2Ba | 247年gydF4y2Ba | 307年gydF4y2Ba | 942年gydF4y2Ba |
| 6gydF4y2Ba | 664年gydF4y2Ba | 599年gydF4y2Ba | 388年gydF4y2Ba | 692年gydF4y2Ba | 1287年gydF4y2Ba |
| 7gydF4y2Ba | 126年gydF4y2Ba | 79年gydF4y2Ba | 60gydF4y2Ba | 95年gydF4y2Ba | 223年gydF4y2Ba |
| 8gydF4y2Ba | 153年gydF4y2Ba | 96年gydF4y2Ba | 118年gydF4y2Ba | 140年gydF4y2Ba | 193年gydF4y2Ba |
| 9gydF4y2Ba | 198年gydF4y2Ba | 240年gydF4y2Ba | 131年gydF4y2Ba | 104年gydF4y2Ba | 241年gydF4y2Ba |
| 所有gydF4y2Ba | 2267年gydF4y2Ba | 2532年gydF4y2Ba | 1913年gydF4y2Ba | 2445年gydF4y2Ba | 4023年gydF4y2Ba |
K-fold交叉验证可能是一个常见的精度测试方法,可有效避免过度学习和under-learning。10-CV(10倍交叉验证)将被用来评估分类器模型在这一节中。为了确保每个交叉验证图像相似,连续30个图像的一个子集将被随机分配到Fold1-Fold10(代表10 30图像)的子集,这有效地阻止了任何偏差造成的时间连续性数据集。图gydF4y2Ba
Fold1-Fold10和全球的每一个场景都分配数据集。gydF4y2Ba
表gydF4y2Ba
评价结果的初步描述符。gydF4y2Ba
|
|
|
视觉gydF4y2Ba | 深度gydF4y2Ba | ||||
|---|---|---|---|---|---|---|---|
|
|
|
|
|
|
|
||
| 垂直gydF4y2Ba | 0gydF4y2Ba | 48.13gydF4y2Ba | 58.75gydF4y2Ba | 66.20gydF4y2Ba | 37.07gydF4y2Ba | 42.49gydF4y2Ba | 50.06gydF4y2Ba |
| 1gydF4y2Ba | 51.84gydF4y2Ba | 63.36gydF4y2Ba | 69.53gydF4y2Ba | 37.23gydF4y2Ba | 48.83gydF4y2Ba | 52.55gydF4y2Ba | |
| 2gydF4y2Ba | 56.38gydF4y2Ba | 65.88gydF4y2Ba | 72.09gydF4y2Ba | 41.03gydF4y2Ba | 50.51gydF4y2Ba | 55.44gydF4y2Ba | |
|
|
|||||||
| 水平gydF4y2Ba | 0gydF4y2Ba | ||||||
| 1gydF4y2Ba | 52.51gydF4y2Ba | 64.68gydF4y2Ba | 72.01gydF4y2Ba | 40.93gydF4y2Ba | 47.53gydF4y2Ba | 51.78gydF4y2Ba | |
| 2gydF4y2Ba | 60.73gydF4y2Ba | 72.36gydF4y2Ba | 77.81gydF4y2Ba | 47.39gydF4y2Ba | 53.65gydF4y2Ba | 59.40gydF4y2Ba | |
|
|
|||||||
| 网格gydF4y2Ba | 0gydF4y2Ba | ||||||
| 1gydF4y2Ba | 56.25gydF4y2Ba | 69.02gydF4y2Ba | 74.34gydF4y2Ba | 41.82gydF4y2Ba | 52.95gydF4y2Ba | 57.07gydF4y2Ba | |
| 2gydF4y2Ba | 67.53gydF4y2Ba | 75.26gydF4y2Ba | 77.24gydF4y2Ba | 52.76gydF4y2Ba | 58.37gydF4y2Ba | 60.86gydF4y2Ba | |
GDFA能找到有价值的描述符从最初的描述符集,这将促进描述符组合在部分工作gydF4y2Ba
过滤GDFA的结果。gydF4y2Ba
| 图像类型gydF4y2Ba | 参数gydF4y2Ba | 过滤条件gydF4y2Ba | |||
|---|---|---|---|---|---|
|
|
|
|
|
|
|
| V1gydF4y2Ba | 20.gydF4y2Ba | 0gydF4y2Ba | - - - - - -gydF4y2Ba | 48.13gydF4y2Ba | 20 (1)gydF4y2Ba |
| V2gydF4y2Ba | 50gydF4y2Ba | 2gydF4y2Ba | 水平gydF4y2Ba | 72.36gydF4y2Ba | 200 (2)gydF4y2Ba |
| V3gydF4y2Ba | One hundred.gydF4y2Ba | 1gydF4y2Ba | 水平gydF4y2Ba | 72.01gydF4y2Ba | 200 (2)gydF4y2Ba |
| V4gydF4y2Ba | One hundred.gydF4y2Ba | 2gydF4y2Ba | 水平gydF4y2Ba | 77.81gydF4y2Ba | 400 (3)gydF4y2Ba |
|
|
|||||
| D1gydF4y2Ba | 20.gydF4y2Ba | 0gydF4y2Ba | - - - - - -gydF4y2Ba | 37.07gydF4y2Ba | 20 (1)gydF4y2Ba |
| D2gydF4y2Ba | 50gydF4y2Ba | 2gydF4y2Ba | 水平gydF4y2Ba | 53.65gydF4y2Ba | 200 (2)gydF4y2Ba |
| D3gydF4y2Ba | 50gydF4y2Ba | 1gydF4y2Ba | 网格gydF4y2Ba | 52.95gydF4y2Ba | 200 (2)gydF4y2Ba |
| D4gydF4y2Ba | One hundred.gydF4y2Ba | 1gydF4y2Ba | 垂直gydF4y2Ba | 52.55gydF4y2Ba | 200 (2)gydF4y2Ba |
| D5gydF4y2Ba | One hundred.gydF4y2Ba | 1gydF4y2Ba | 水平gydF4y2Ba | 51.78gydF4y2Ba | 200 (2)gydF4y2Ba |
| D6gydF4y2Ba | 50gydF4y2Ba | 2gydF4y2Ba | 垂直gydF4y2Ba | 50.51gydF4y2Ba | 200 (2)gydF4y2Ba |
| D7gydF4y2Ba | One hundred.gydF4y2Ba | 2gydF4y2Ba | 水平gydF4y2Ba | 59.40gydF4y2Ba | 400 (3)gydF4y2Ba |
主成分分析是一种古典和广泛的算法在当前的数据预处理算法。与PCA降维可以保留最重要的功能在高维数据和去除噪声和无用的功能,这可以提高数据质量和数据处理速度。图gydF4y2Ba
GDFA最有价值的描述符被选择的部分gydF4y2Ba
描述符的组合。(一)DL。(b) CL。gydF4y2Ba
合并后的训练序列1、2和3中给出的表格gydF4y2Ba
本节将结合两个描述符提取相同的图像类型,即V + V或gydF4y2Ba
有6种不同组合的深度图像描述符V1, V2, V3和V4中给定表gydF4y2Ba
有21个不同的组合7深度图像描述符D1, D2、D3,…, D7的表gydF4y2Ba
比较图gydF4y2Ba
类似于V + V, DL总是优于CLgydF4y2Ba
本节将结合两个描述符提取不同图像类型,即V +gydF4y2Ba
在测试2,CL和DL的分类精度最高达到80.36%和92.64%,分别在测试1,它达到72.84%和81.76%。这是符合我们发现之前,测试2的分类精度总是高于测试1,和DL总是优于CL。gydF4y2Ba
在CL,结合分类精度最高gydF4y2Ba
在DL,结合分类精度最高gydF4y2Ba
我们可以得出结论,DL优于CL nonhomologous组合,因为大多数组合在DL胜过父母描述符描述符,而组合描述符在CL可能难以实现。此外,无论在哪个层面上,描述符的组合具有优良的性能和较差的描述符性能优于其他组合。引用一些,gydF4y2Ba
结合数据gydF4y2Ba
表gydF4y2Ba
最好的组合。gydF4y2Ba
| V +gydF4y2Ba |
|
|
|
|
|---|---|---|---|---|
| 测试1gydF4y2Ba |
|
|
|
81.76gydF4y2Ba |
| 测试2gydF4y2Ba | V2 V4 +gydF4y2Ba | 91.60gydF4y2Ba |
|
|
如表所示gydF4y2Ba
描述符的大小和分类准确性和主成分分析。(一)测试1。测试2 (b)。gydF4y2Ba
室内场景分类分为两个阶段:离线训练和在线测试。假设建设弓和分类器训练在离线阶段已经完成。因此,什么是影响网络的运行时间阶段的生成和分类描述符,包括4个步骤,如表所示gydF4y2Ba
室内场景分类执行时间。gydF4y2Ba
| 一步gydF4y2Ba | 参数gydF4y2Ba | 时间(年代)gydF4y2Ba | |
|---|---|---|---|
| 描述符生成gydF4y2Ba | 提取D-SIFT特性gydF4y2Ba | 图象尺寸= 640∗480gydF4y2Ba | 0.0840gydF4y2Ba |
| 映射特征点gydF4y2Ba |
|
0.0096gydF4y2Ba | |
|
|
0.0140gydF4y2Ba | ||
|
|
0.0218gydF4y2Ba | ||
| 计算直方图gydF4y2Ba |
|
0.0006gydF4y2Ba | |
|
|
0.0004gydF4y2Ba | ||
|
|
0.0003gydF4y2Ba | ||
|
|
0.0002gydF4y2Ba | ||
|
|
|||
| 描述符的分类gydF4y2Ba | 分类的输入描述符gydF4y2Ba |
|
0.0010gydF4y2Ba |
|
|
0.0016gydF4y2Ba | ||
|
|
0.0029gydF4y2Ba | ||
|
|
0.0062gydF4y2Ba | ||
|
|
0.0131gydF4y2Ba | ||
|
|
0.0291gydF4y2Ba | ||
值得注意的是,第一步采用图象尺寸= 640∗480。第二步与弓大小(gydF4y2Ba
在相同的数据库,分类精度得到我们的机制将与其他融合方法相比,如表所示gydF4y2Ba
分类精度的比较。gydF4y2Ba
| 分类算法gydF4y2Ba |
|
|---|---|
| 猪+支持向量机(gydF4y2Ba |
77.2gydF4y2Ba |
| 筛选+ SPM (gydF4y2Ba |
84.2gydF4y2Ba |
| 筛选+冲浪(gydF4y2Ba |
85.7gydF4y2Ba |
| 内核描述符+线性支持向量机(gydF4y2Ba |
89.6gydF4y2Ba |
| 内核描述符+内核支持向量机(gydF4y2Ba |
90.0gydF4y2Ba |
| 内核描述符+随机森林(gydF4y2Ba |
90.1gydF4y2Ba |
| 融合多个描述符gydF4y2Ba |
|
针对室内定位应用的实际需求,建立了多个描述符融合模型和一个图像分类策略,提出了提高描述符的质量和效率,实现更好的室内场景分类的效果。首先,形成最初的描述符集的基础上,建立了SPM。然后,贪婪的描述符采用滤波算法来选择每个描述符描述符与高体重大小间隔和有价值的描述符集。最后,多个描述符组合算法获得高质量和高效的多个描述符通过同源和nonhomologous DL和CL图像,分别。gydF4y2Ba
的生成、过滤和组合多个描述符在本研究提出改善分类器的性能。评价结果反映多个描述符融合机制提出了研究优于著名的PCA降维技术,特别是对于中型或大型的状态描述符的大小。这种策略不仅会取得更好的结果比其他特征融合算法,而且还解决了限制现有的场景分类算法应用于室内场景。gydF4y2Ba
未来的研究将集中在改善图像的特征提取算法和构造视觉单词的效率通过聚类特性的视觉弓模型由其他聚类算法。将更多的关注提高描述符在描述图像信息的有效性。同时,深度图像的质量的提高将会考虑,可以更有效地使用数据描述符的过程中过滤和深度描述符的组合。此外,一个更完整的数据集可以被采纳。gydF4y2Ba
数据结果提出了用于支持本研究的发现。gydF4y2Ba
作者宣称没有利益冲突有关的出版。gydF4y2Ba
这项工作是支持中国的国家高技术研究发展计划(2012 aa120802),中国国家自然科学基金(61771186),黑龙江省博士后研究项目(LBH-Q15121),大学护理程序为年轻学者与黑龙江省创新型人才(unpysct - 2017125),和黑龙江大学的研究生创新研究项目(yjscx2019 - 166 hlju)。gydF4y2Ba