研究文章|开放获取
曹Chongben道,金,冯,Zufeng张Chunguang Li Hanwen高, ”3 d的语义VSLAM基于得分RCNN面具的室内环境”,离散动力学性质和社会, 卷。2020年, 文章的ID5916205, 14 页面, 2020年。 https://doi.org/10.1155/2020/5916205
3 d的语义VSLAM基于得分RCNN面具的室内环境
文摘
针对现有视觉大满贯(VSLAM)算法构建语义的室内环境地图,有问题时精度低和标签分类精度低特征点是稀疏的。提出了一种3 d语义VSLAM算法称为BMASK-RCNN基于得分RCNN面具。首先,图像提取的特征点二进制健壮的不变的可伸缩的要点(快)算法。其次,预计的参考点关键帧映射到当前帧的特征匹配和姿势估计,和一个逆滤波器用于深度估计场景创建关键帧来获取深度相机带来的变化。为了实现对象检测和静态对象和动态对象的语义分割在室内环境中,然后构建密度3 d与VSLAM语义映射算法,一个面具得分RCNN用于调整其结构部分,转移学习TUM RGB-D大满贯数据集在哪里工作。语义信息的独立目标场景提供了语义信息包括类别,这不仅提供了高精度的定位,而且实现语义估计的概率更新标记可移动的物体,从而减少实时移动对象映射的影响。通过仿真和实际实验与其他三种算法进行比较,结果表明该算法具有更好的健壮性和语义信息用于3 d语义映射可以准确地获得。
1。介绍
同步定位和映射(大满贯)是一种技术,使机器人或无人机实现自主定位在一个未知的环境和自主的映射。机器人通过传感器可以得到丰富的信息,给人们带来更多的便利本地化和映射的来解决这个问题。因此,大满贯机器人自主技术无疑是一个优先事项。与传统的大满贯基于激光传感器相比,大满贯基于摄像机视觉可以充分利用丰富的纹理信息对拍照的相机,它提供了一个巨大的优势在搬迁和分类的场景语义信息。近年来,智能机器人已经广泛应用于各种行业,特别是对快速发展的视觉大满贯(VSLAM)。图像特征提取方法由深度学习技术在VSLAM出现。同时,深度学习也将图像与语义和结合VSLAM方法建立语义映射和语义知识库的环境。萨利希et al。1)集中在单眼视觉大满贯和GPS数据的实时融合,混合法约束BA /位置地图上的什么地方获得的态度提出评估和重建的城市规模和地理参数。刘等人。2)提出了一个基于YOLO和更快的RCNN意思SSD算法,添加多个不同尺度的卷积层维护的准确性RCNN更快,而更快的速度比YOLO。意思Zhang et al。3)用点共线关系优化现有VSLAM算法基于点,和一个实际线匹配算法,在补偿计算直梁的帮助下利用和零序电压保护的不足算法改进的观点。该方法评估室内序列不同的数据集的范围TUM也与积分和基于行的方法。设计的结果表明,该算法具有更快的计算速度与VSLAM相比系统基于点线。高et al。4)提出了一种改进的基于VSLAM增强现实登记方法解决不稳定的注册和登记的准确性低的问题没有任何标记的增强现实的标准对应的矩阵。VSLAM算法生成一个3 d场景地图的过程中动态摄像机跟踪,然后基于“增大化现实”技术的基于VSLAM使用的3 d地图场景重建计算虚拟对象的位置,这使得基于“增大化现实”技术的登记和增强了稳定性和准确性。
最近,VSLAM技术的鲁棒性和可用性增强,往往是成熟的5]。然而,稀疏的图像特性可以提供有限的环境语义信息在处理动态目标运动,缺乏纹理,纹理或单一的环境。对于这些问题,分层图像特征提取方法由深度学习领域的出现VSLAM近年来,为解决此类问题提供思想。建模边界框的最具代表性的一级探测器YOLOv3按照高斯参数和重新设计损失函数,崔et al。6)提出了一个方法来提高检测精度和支持实时操作。李等人。7]提出一种多目标检测集成RCNN和DPM框架,可以准确地检测图像中的每一个对象在所有对象。尤其是更好的性能相互接近时显示对象。Cai和塞·伐斯冈萨雷斯(他8)开发了一种多级目标探测结构,即级联RCNN,其中包括一系列探测器通过增加训练借据阈值,和更高的选择性接近得到错误信息。任等。9)提出了一种改进的锚定方案,高分辨率特征映射的小目标,改善其使用性能。艾格特et al。10]介绍了一种改进的方案生成锚提出建议和修改RCNN更快,利用高分辨率小型对象的特征图谱。一种新的多尺度位置感知内核表示(MLKP)方法,提出了王等。11)获得深度的高阶统计特性,并结合歧视高阶统计成表示对象的建议有效的检测对象。注意,此方法可以应用于目标检测灵活。李等人。12]提出了SOR更快RCNN算法,用来搜索同一目标在不同场景训练样本较少。健壮的更快RCNN方法是由周et al。(13multitag)来检测目标图像。与快速RCNN,这种设计方法具有较强的鲁棒性。道等。14)提出了一个基于掩码3 d环境的语义映射方法RCNN算法。输入图像序列被ORB-SLAM关键帧,然后过滤图像语义分割结合大满贯技术建立一个3 d环境的语义映射。Schorghuber et al。15]融合一个健壮的静态权重策略基于相应的深度距离边缘强度辅助ICP,因此提出了一种实时RGB-D视觉测距方法。Laidlo和Leutenegger16)提出了一种三维重建系统叫做DeepFusion利用卷积神经网络(CNN)的输出在DeepLab-v2 [17)为关键帧生成完全稠密深度图,包括规模指标。DeepFusion保险丝的输出semidense多视图立体算法与CNN的深度和梯度预测概率的方式,使用学到的不确定性产生的网络。McCormac et al。18)提出了一种改进的弹性融合大满贯(19)方法基于卷积神经网络建立一个密集的3 d语义地图,依靠弹性融合SLAM算法提供估计帧间构成的室内RGB-D视频,使用卷积神经网络预测类和标签进行像素级的对象,最后结合贝叶斯升级策略和条件随机场模型实现升级的概率预测CNN价值从不同的角度,以生成一个密集的3 d语义地图。Mur-Artal et al。20.,21)提出了一个ORB-SLAM2方法,使用深度信息合成一个三维坐标,并可以准确地提取图像的信息。后端使用英航重建算法来建立一个全球稀疏的地图。因此,这种方法更轻,可用于语义映射(22]。然而,这些提到的方法有一些缺点在分类正确性的稀疏特征点。
出于上述存在的问题,提出了一个巧妙的语义VSLAM算法结合的功能(23]VSLAM算法基于面具得分RCNN [24]。语义信息的独立目标场景提供了语义信息包括类别。与此同时,移动对象在语义映射的影响是减少语义估计的概率更新标记活动对象。
2。三维地图生成
2.1。系统概述
算法的总体架构包括前端处理和后端处理有两个部分。在前端快速算法处理来提取特征以及要点。面具得分RCNN方法用于后端处理包括分割、语义协会和语义映射,如图1。
2.2。密集的SLAM算法基于快速特征提取
二进制健壮的不变的可伸缩的要点(快)算法类似于筛选(尺度不变特征变换),冲浪(日后健壮的特性),ORB(面向快速旋转简短)23),这是一个特征点匹配算法,但计算速度快于其他两种算法。快步金字塔算法构造图像多尺度表达,因此有很好的旋转不变性、尺度不变性,鲁棒性好,等等。特别是,轻快的算法执行最好的大模糊的图像配准。BRSIK算法由两部分组成:检测的重点和关键点的描述。
快速的检测要点是基于尺度空间图像金字塔组成。快是用来检测候选人关键点在所有层的金字塔图像,和候选键点抑制由nonmaximum作为最后的关键点。毕竟得到图像的关键点,关键点需要描述。不同于描述符由冲浪、筛选和其他算法,快速算法适用于二进制字符串来描述要点,利用汉明距离计算匹配度和使它比欧氏距离计算速度更快。社区的模式样本中轻快的描述功能。该算法构造多个Bresenham同心圆以关键点为中心和需要N点均匀分布来计算功能方向和二进制文件描述符,分别按照其长途采样点和短的距离采样点。最后,汉明距离是用来匹配上面二进制特征描述,以获得图像的全局运动估计。
为了避免稀疏点云的问题地图由严格的筛选策略,以避免严重错误,提出了一种三维映射的逆方法深度过滤基于视觉大满贯。逆滤波器用于深度估计的任务场景深度创建关键帧,只有构建匹配成本深度范围内,大大减少了立体匹配的时间(25]。基于相邻像素之间的相似度,深度的原则获得初始深度图之后,intraframe平滑,消除外点进行,增加深度图的密度和消除可能的孤立的匹配点。,并为每个候选人逆高斯融合进行深度假设通过一个逆深度融合的多键的方法框架优化当前关键帧的深度值。具体算法步骤如下:步骤1:测量场景深度。每个地图点观察到关键帧在任何时间预计为关键帧图像的深度值计算关键帧的映射点坐标系统。最大深度和最小深度选择inverse-depth搜索范围的场景。 在哪里是均匀的3 d地图的坐标点在世界坐标系中;是造成相机坐标系和世界坐标系之间的变换在时间吗k; 是齐次的3 d地图的坐标点在摄像机坐标系的时间吗k;和N是映射点的数量,可以观察到在关键帧的时间吗k。步骤2:立体匹配。像素深度计算通过使用总可变重量成本的立体匹配算法26]。基于层成本体积有限的立体匹配的场景深度值计算在步骤1中,只有在对面的视差范围搜索逆深度 以减少计算量。后处理步骤立体匹配是消除视差删除的同时,只保留逆深度相同的像素视差的左右一致性匹配。第三步:消除孤立的外点。假设获得的视差立体匹配是方差为1的高斯分布,即: : 在哪里由立体匹配的视差值计算,是相机的焦距,基线,深度值的像素,是逆深度。转换后的逆深度分布如下: 逆深度地图获得的立体匹配阶段是消除异常值填充和孤立。具体步骤如下:(1)与逆深度分布,每个像素的像素数量满足逆的深度分布χ分布计算小于5.99。见公式(6深度),逆淘汰的数量小于2。数大于2时,公式(7)用于融合的逆深度满足要求χ分布。融合后,逆像素的深度 ,而方差是逆的最小方差深度融合。
在哪里x和y在当前像素周围8个像素,n是一个满足的数量吗χ分布。(2)为每个像素没有逆深度分布,检查是否周围8个像素之间的逆深度分布符合卡方分布。当满足数量χ大于2,分布公式(2)用于逆深度融合和同态方差的最小方差逆深度融合。步骤4:逆深度融合。位置和姿势后,计算了关键帧跟踪线程,当前关键帧的深度信息是通过以下六个逆优化深度地图的关键帧。具体步骤如下:(1)项目地图点对应于逆深度地图的当前关键帧相邻关键帧和阅读的深度点和逆投影深度的方差 。(2)地图上的点逆深度 , 和在当前帧相邻帧,反向的深度 ,和是保留。(3)构建候选逆的深度融合,假设 。(4)循环上述步骤获得6候选假设融合逆深度和选择逆深度融合利用假说χ分布小于5.99。融合后,逆深度和方差是在哪里代表当前帧的像素n代表数量的逆深度融合。第五步:re-elimination孤立的外点。基于假设深度场景类似,邻近地区的逆深度映射通过逆深度融合平滑在坐标系和删除从外点,以提高输出精度地图点和点云密度增加。具体步骤反向深度在步骤2中填充和删除。第六步:得到浊点地图。加工深度图中所有点转化为全球坐标系统,和点云获取地图构建当前环境地图。然而,如果点云数据的每一帧都集成到地图,很多计算资源将被占用,从而减少系统的实时性能。因此,本文使用基于关键帧的点云地图构建密集环境地图通过整个地图划分成几个子映射与特定关键帧,以减少内存消耗。提取的关键帧进行了优化并保存到全球地图,和密集的全球地图是最终的输出,如图2。对于一个关键帧,RGB-D相机提供彩色图像和深度图像。三维点云的公式按照相机内部参数如下: 在哪里 是相机的内部参数;(u, )图像坐标;(x,y,z)是图像坐标系统;像素点的距离测量的深度相机,与单位毫米;和年代是实际距离和测量距离的尺度系数d。在这种方法中,点云的优点之一是,它可以直接从RGB-D生成图像有效地没有额外的处理,过滤(算法非常直观的操作1)。
(一)
(b)
|
3所示。语义信息采集
目标检测的任务包括分类和定位,这不仅给对象的类别信息被发现,也决定了位置和对象在一个图像的大小和用最小包围矩形框架。目标探测的主要步骤包括输入图像的预处理和过滤的候选区域由一个滑动窗口形象。然后,一种特征提取算法包括筛选、猪,或DPM提取特征候选区域,最后一个分类算法对提取的特征进行分类。然而,一些缺陷等不稳定的匹配,抗噪声能力较差,检测速度慢,可怜的萃取效果的模糊和平滑的边缘共存的传统目标检测模型。与传统的目标检测模型相比,基于深度学习的对象检测模型具有更强大的功能表达能力,较强的泛化能力,和良好的鲁棒性。
BMASK-RCNN网络设计本文指面具得分RCNN基于深层神经网络。从面具RCNN面具得分RCNN演化,其网络框架如图3。传统的面具RCNN由两个阶段组成。第一阶段实现的RPN的卷积。不管对象的类别,将提出候选对象的边界框。第二阶段被称为RCNN阶段,它使用RoIAlign提取特征为每个候选人,使用双线性插值来完成进行像素级对齐,最后生成候选分类、边界框回归,面具的预测。
损失函数的面具RCNN由三部分组成,即分类错误,发现错误,分割错误。表达式如下: 在哪里lcls和l盒子与快RCNN是相同的;面具分支维度公里2对于每一个ROI,这表明解决方案k二进制面具的解决方案米×米;K为每个像素代表的类别,进行乙状结肠;和被定义为平均熵损失二进制十字架。 在哪里yij是细胞的标签(我,j在地区内真实的面具米×米和是同一单元的预测价值k学习地面真值类的面具。
然而,分数检测实例(分割)假说是由当前最大的元素在其分类评分面具RCNN框架。由于杂波背景,闭塞,和其他问题,分类可能很高,但面具质量分数很低。为了克服这个问题,面具得分RCNN普遍性的前提下,MaskIoU头模块添加到使改进的面具掩盖RCNN获得更高的分数。
MaskIoU头用于回归预测之间的借据面具,面具它真正的标签。为了这个目的,功能连接和预测的面具RoIAlign MaskIoU头层作为输入。的最大池层与内核大小2和2是用于制造的步长预测面具具有相同的空间大小的RoI特征,只有选择MaskIoU回到真正的标签类。MaskIoU头由四个卷起一层和三个完全连接层。四层卷起遵循面具头和设置内核大小和过滤的所有卷积层3和256年,分别。三个完全连接(FC)层遵循RCNN头和前两个FC的输出层设置为1024,最后FC输出类的数量。
表1女士是一个比较的结果RCNN算法和其他算法可可测试集,这表明女士RCNN算法明显优于其他算法。
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
4所示。3 d语义映射方法
语义映射的过程中,不仅VSLAM获得几何信息环境中也承认独立的个人和获得语义信息,比如他们的立场的姿势,和功能属性。语义VSLAM的关键是准确地识别环境中的对象。提取的特征从目标帧对应存储目标对象和地图数据,分别,然后图像数据之间的映射关系,建立了目标对象。本文的核心思想可以表达如下:语义信息提取关键帧的过程中三维映射,然后是语义信息融合到构造3 d地图创建一个新的3 d语义地图。的流程图如图3 d语义映射4。
首先,面具得分RCNN用于火车语义数据库,然后确定当前帧是一个关键帧。确定关键帧后,对象中包含的语义数据库在帧检测和分割,然后2 d图像语义标签在当前关键帧。最后,点包含语义信息在2 d图像映射到三维点云。它被认为是相同的对象是否有相同的语义信息。
为一个系统,系统资源会极大地消耗如果所有的相机获得的图像帧的处理,所以图像关键帧通常是选择处理,和前端跟踪模块的SLAM算法决定是否选择当前图像帧作为关键帧。关键帧选择规则如下:(1)必须有一个序列当前帧的时间间隔和前一个关键帧(2)当地的地图是空闲的线程(3)当前帧与前一个关键帧构建区域低于一定的范围(4)当前帧有足够的特征点匹配,如算法所示2
对于每一个关键帧,语义信息 可以通过实例分割算法的面具得分RCNN获取语义信息吗 ,在哪里 ; 代表类别的实例对象;代表实例对象的轮廓;和代表信心水平的实例对象。语义习得一个关键帧的结果如图5。
|
语义映射的流程图如图4。选择一个关键帧,关键帧后将由两个线程同时进行处理:一是VSLAM算法,根据原始VSLAM系统运行;另一种是主要对象语义的关联和融合的过程。获得的语义信息处理在两个方面:一个方面,特征点动态类别标记为不可用减少的映射对象运动的影响。从另一个方面,2 d图像语义注释信息的关键帧映射到三维点云,找到地图点通过寻找特征点之间的映射关系对象框架和语义信息。算法3用于数据融合。
|
5。实验和分析
5.1。介绍实验平台
这个实验使用自建实验平台,如图6,这是配备微软Kinect 3.0深度相机。主体由主控制单元、支架、驱动轮和底盘。操作系统采用活性氧(机器人操作系统)30.]。ROS是robot-oriented开源操作系统,它提供了服务,包括硬件抽象底层设备控制,一般函数的实现,进程间的消息传递和包管理。操作框架是一个处理架构,ROS通信模块用于实现模块间的松散耦合的网络连接。它执行各种类型的通信,包括服务的同步RPC(远程过程调用)的交流,基于主题的通信数据流和数据存储参数服务器上。本文设计的自主移动机器人是一个综合实验平台集环境感知、动态决策与规划、行为控制和执行。深度学习和培训在Ubuntu 18.04系统环境中进行,与英特尔处理器模型19 - 9900 k和64 GB的内存。为了得到更高的训练和测试速度,本文使用GTX 2080 ti显卡加速训练。
5.2。验证实验
为了防止不相关的语义信息干扰地图建设、面具得分RCNN调整的网络结构。这个实验使用TUM RGB-D大满贯数据集,选择24类型的对象,如表所示2。
|
||||||||||||||||||||||||||||||||||||||||||
因为机器人的机载计算机不是配备了GPU处理器,完成本文的目标检测算法的图形工作站使用TensorFlow作为框架。ROS是用于工作站和机器人之间的通信。图形工作站配有GTX2080Ti显卡计算加速度。检测到关键帧后,可获得目标点云的语义信息根据坐标对应关系。图像的目标检测和识别效果和语义地图密集的点云在图所示7。
(一)
(b)
损失的比较迭代曲线如图4算法8。图中的红线8代表的损失价值提出BMASK-RCNN方法,及其损失值总是小于RCNN快速RCNN和更快。虽然0.5×10之间4迭代和1.5×104迭代,损失价值BMASK-RCNN面具RCNN相提并论,但15000次迭代后,BMASK-RCNN稳定RCNN面具下面的曲线。后1.5×104迭代,可以看出该BMASK-RCNN方法比三种方法更准确。
比较precision-recall曲线的四个算法如图9,其中纵坐标值表示检测精度的测量目标。横坐标代表召回率的值,即正确检测到目标的总数除以总数量的目标。显然,当曲线下的面积较大,算法更好的性能,检测效果更加准确、完整。从图可以看出9精确的记忆曲线下的面积的算法明显大于其他三种方法。仿真结果表明,该BMASK-RCNN方法比其他三种方法具有较高的精度。
数据10和11显示误差分析图表使用空的数据集生成freiburg2_large_with_Loop和freiburg1_XYZ运行提出VSLAM算法。freiburg1_xyz TUM数据集的数据集是一种常见的小场景,并从TUM freiburg2_large_with_loop是一个大型的场景数据集。从数据可以看出10和11VSLAM演算法的总体效果优于RGB-D大满贯。在小环境中,两个系统有更好的稳定性;然而,与RGB-D大满贯相比,红线代表绝对的轨迹误差图中的错误VSLAM算法明显减少了。在大场景封闭循环,在复杂环境的影响下,RGB-D大满贯错误相对较高,容易漂移。然而,通过场景中的语义信息,VSLAM算法可以提高地图和定位的准确性,因此蓝色虚线的峰值相对姿态误差很小。在同一时间,断了线的峰值保持在0.3米,虽然RGB-D大满贯线的峰值可以达到0.8米。的态度提出VSLAM算法误差接近相同的范围内,和相对较低的错误。在大场景中,提出VSLAM算法的性能明显优于RGB-D大满贯。
(一)
(b)
(一)
(b)
为了获得更精确的实验结果,使用TUM RGB-D大满贯数据集提供30 Hz RGB-D图像的帧率,分辨率为640×480,如图12的操作效果。
前端的部分算法大满贯姿势估计和同步定位模块,执行目标探测任务在同一时间。然后,关键帧照片以及所有关键帧图像的有用的数据,包括相应的映射点,语义信息和位置信息保存。最后,数据传输到服务器进行数据融合计算。此外,语义地图是建在机器人实时如图13。
6。结论
本文首先使用的算法来提取特征点,然后面具得分RCNN算法是用来探测目标和获取关键目标环境的语义信息,和目标之间的相对位置关系建立了检测结果。然后,目标匹配,关键帧之间的相似度计算。最后,面具得分RCNN算法完成分割的目标,和一个密集的3 d语义构造机器人周围的地图。本文提出的方法取得了良好的效果在TUM RGB-D大满贯数据集,验证应用程序的可行性视觉大满贯语义信息的映射。此次研究中仍有改进的余地。例如,线之间的关系和表面特征的目标检测框架和相应的类别对象可以实现更强的鲁棒性和结构语义VSLAM建立系统更好的性能。
数据可用性
使用的数据来支持本研究的结果包括在本文中。
的利益冲突
作者宣称没有利益冲突有关的出版。
确认
本研究支持部分由中国国家自然科学基金(批准号61801323),苏州的科技项目基金(批准号。SYG201708和SS2019029),和建筑系统江苏省科学技术基金(批准号2017 zd066)。
引用
- A·萨利希诉Gay-bellile,美国资产阶级和f .穿“混合包调整/ pose-graph VSLAM / GPS方法融合平台容量小,”学报2017年IEEE智能车辆研讨会(IV)洛杉矶,页1728 - 1735,美国2017年6月。视图:谷歌学术搜索
- d . w . Liu Anguelov, d . Erhan et al .,“SSD:单身multibox探测器拍摄,”学报2016年欧洲计算机视觉荷兰,阿姆斯特丹,2016年。视图:谷歌学术搜索
- f·张,t·鲁伊·c·杨,j .施“Lap-slam: line-assisted积分单眼vslam,”电子产品,8卷,不。2,p。243年,2019年。视图:出版商的网站|谷歌学术搜索
- 问:h .高,t·r·Wan w . Tang l . Chen和k·b·张,“一种改进的基于视觉的大满贯,增强现实登记方法”电子学习和游戏卷。10345年,11-19,2017页。视图:出版商的网站|谷歌学术搜索
- b . Bescos j . m . Facil j . Civera和j . Neira”DynaSLAM:跟踪、映射和修复在动态场景,”IEEE机器人与自动化信件,3卷,不。4、4076 - 4083年,2018页。视图:出版商的网站|谷歌学术搜索
- 崔j . d . Chun h . Kim et al .,”高斯yolov3:准确、快捷使用自动驾驶的定位不确定性对象探测器,”学报2019年IEEE计算机视觉国际会议,页502 - 511,首尔,韩国,2019年11月。视图:谷歌学术搜索
- j . Li H.-C。Wong S.-L。Lo和y鑫”,多个对象检测的可变形的部分原因模型和一个R-CNN,”IEEE信号处理信件,25卷,不。2、288 - 292年,2018页。视图:出版商的网站|谷歌学术搜索
- z Cai和n .塞·伐斯冈萨雷斯,他的“级联RCNN:深入研究高质量的目标检测,”学报2018年IEEE计算机视觉与模式识别会议,页6154 - 6162,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
- 任,k .他r . Girshick et al .,“快RCNN:对与地区建议网络实时目标检测,”先进的神经信息处理系统39卷,第99 - 91页,2015年。视图:谷歌学术搜索
- c·艾格特d . Zecha s Brehm et al .,“改善小对象公司标志检测,建议”学报2017 ACM国际会议多媒体检索,页167 - 174,布加勒斯特,罗马尼亚,2017年6月。视图:谷歌学术搜索
- 问:h . Wang Wang m高et al .,“多尺度位置感知的内核对象检测表示,”《IEEE计算机视觉与模式识别会议,页1248 - 1257,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
- h·李、黄y和z张”为同一对象检索改进更快R-CNN,”IEEE访问5卷,第13676 - 13665页,2017年。视图:出版商的网站|谷歌学术搜索
- t .周、z李和张,“提高识别能力与健壮的更快R-CNN遮挡和小对象,“国际期刊的机器学习和控制论,10卷,不。11日,第3166 - 3155页,2019年。视图:出版商的网站|谷歌学术搜索
- 道,z高,j .严c·李和g .崔”室内3 d语义机器人VSLAM基于掩码区域卷积神经网络”IEEE访问,8卷,第52916 - 52906页,2020年。视图:出版商的网站|谷歌学术搜索
- m . Schorghuber d。施,y Cabon et al .,“改善VSLAM SLAMANTIC-leveraging语义在动态环境中,”《IEEE计算机视觉国际会议研讨会,页3759 - 3768,首尔,韩国,2019年10月。视图:谷歌学术搜索
- t . Laidlo和c . s . Leutenegger DeepFusion:密度实时3 d重建使用单一视图深度和梯度预测,单眼大满贯”机器人和自动化学报2019年国际会议上)举行(“国际机器人与自动化会议”,第1240 - 1231页,2019年。视图:谷歌学术搜索
- 李和d·李,“RGB-D大满贯在动态环境中使用静态点权重,“IEEE机器人与自动化信件,卷2,不。4、2263 - 2270年,2017页。视图:出版商的网站|谷歌学术搜索
- j . McCormac a手中,a·戴维森et al .,“Semanticfusion:密集的3 d语义映射与卷积神经网络,”学报2017年IEEE机器人与自动化国际会议上)举行(“国际机器人与自动化会议”,新加坡,2017年。视图:谷歌学术搜索
- t·惠兰r·f·Salas-Moreno b·格洛克et al .,“ElasticFusion:实时估计密集的大满贯和光源,”国际机器人研究杂志》上,35卷,不。14日,第1716 - 1697页,2019年。视图:谷歌学术搜索
- r . Mur-Artal j·m·m·蒙特埃尔和j . d .缓慢地“ORB-SLAM:一个多才多艺的和准确的单眼大满贯系统”IEEE机器人没有,卷。31日。5,1147 - 1163年,2015页。视图:出版商的网站|谷歌学术搜索
- r . Mur-Artal和j . d .缓慢地,“Orb-slam2:单眼的开源大满贯系统,音响,和rgb-d相机,“IEEE机器人,33卷,不。5,1255 - 1262年,2017页。视图:出版商的网站|谷歌学术搜索
- z l . Li Liu U。Ozginer et al .,”密集的3 d语义大满贯基于立体视觉的交通环境,”学报2018年IEEE智能车辆研讨会(IV)迪尔伯恩,页965 - 970年,MI,美国,2018年。视图:谷歌学术搜索
- s . Leutenegger m . Chli, r . y . Siegwart“快:二进制健壮的不变的可伸缩的要点,”2011年国际会议上计算机视觉学报》上西班牙巴塞罗那,页2548 - 2555,,2011年11月。视图:谷歌学术搜索
- 黄黄z l . y .龚et al .,“面具得分RCNN”学报2019年IEEE计算机视觉与模式识别会议美国长滩,CA, 2019。视图:谷歌学术搜索
- c·福斯特,z, m . Gassner et al .,“动宾:半直接为单眼视觉里程计和多个摄像机系统,”IEEE机器人,33卷,不。2、249 - 265年,2016页。视图:谷歌学术搜索
- p . Jianjian和b . Ruilin可变重量成本聚合算法基于水平树结构的立体匹配,”视神经节学报,38卷,不。1,第125 - 115页,2018。视图:谷歌学术搜索
- 戴j . k .,他和j .太阳“Instance-aware语义分割通过多任务网络级联”学报2016年IEEE计算机视觉与模式识别会议拉斯维加斯,页3150 - 3158年,NV,美国,2016年6月。视图:谷歌学术搜索
- 戴h . y . Li气,j . et al .,“完全卷积instance-aware语义分割”学报2017年IEEE计算机视觉与模式识别会议火奴鲁鲁,页2359 - 2367年,美国,2017年7月,你好。视图:谷歌学术搜索
- l·c·陈,a .何曼思g·帕潘德里欧et al .,“Masklab:实例分割通过精炼与语义对象检测和方向特性,”学报2018年IEEE计算机视觉与模式识别会议,页4013 - 4022,盐湖城犹他,美国,2018年6月。视图:谷歌学术搜索
- m·奎格利k .康利b Gerkey et al .,“ROS:开源机器人操作系统”,ICRA研讨会开源软件,3卷,不。2、1 - 5,2009页。视图:谷歌学术搜索
版权
版权©2020 Chongben陶等。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。