机器人杂志

PDF<我mg alt="" class="sc-EHOje jOLhQl sc-dRaagA iKHBgz" title="" role="presentation" src="data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0iMS4wIiBlbmNvZGluZz0iVVRGLTgiPz4KPHN2ZyB3aWR0aD0iMjBweCIgaGVpZ2h0PSIyMnB4IiB2aWV3Qm94PSIwIDAgMjAgMjIiIHZlcnNpb249IjEuMSIgeG1sbnM9Imh0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnIiB4bWxuczp4bGluaz0iaHR0cDovL3d3dy53My5vcmcvMTk5OS94bGluayI+CiAgICA8IS0tIEdlbmVyYXRvcjogU2tldGNoIDUzLjIgKDcyNjQzKSAtIGh0dHBzOi8vc2tldGNoYXBwLmNvbSAtLT4KICAgIDx0aXRsZT5JY29ucy9BcnJvdyBSaWdodCBXaGl0ZTwvdGl0bGU+CiAgICA8ZGVzYz5DcmVhdGVkIHdpdGggU2tldGNoLjwvZGVzYz4KICAgIDxkZWZzPgogICAgICAgIDxwYXRoIGQ9Ik0xMSwxMy41ODU3ODY0IEwxMSwyIEMxMSwxLjQ0NzcxNTI1IDExLjQ0NzcxNTMsMSAxMiwxIEMxMi41NTIyODQ3LDEgMTMsMS40NDc3MTUyNSAxMywyIEwxMywxMy41ODU3ODY0IEwxNS4yOTI4OTMyLDExLjI5Mjg5MzIgQzE1LjY4MzQxNzUsMTAuOTAyMzY4OSAxNi4zMTY1ODI1LDEwLjkwMjM2ODkgMTYuNzA3MTA2OCwxMS4yOTI4OTMyIEMxNy4wOTc2MzExLDExLjY4MzQxNzUgMTcuMDk3NjMxMSwxMi4zMTY1ODI1IDE2LjcwNzEwNjgsMTIuNzA3MTA2OCBMMTIuNzA3MTA2OCwxNi43MDcxMDY4IEMxMi4zMTY1ODI1LDE3LjA5NzYzMTEgMTEuNjgzNDE3NSwxNy4wOTc2MzExIDExLjI5Mjg5MzIsMTYuNzA3MTA2OCBMNy4yOTI4OTMyMiwxMi43MDcxMDY4IEM2LjkwMjM2ODkzLDEyLjMxNjU4MjUgNi45MDIzNjg5MywxMS42ODM0MTc1IDcuMjkyODkzMjIsMTEuMjkyODkzMiBDNy42ODM0MTc1MSwxMC45MDIzNjg5IDguMzE2NTgyNDksMTAuOTAyMzY4OSA4LjcwNzEwNjc4LDExLjI5Mjg5MzIgTDExLDEzLjU4NTc4NjQgWiBNMiwxNyBDMiwxNi40NDc3MTUzIDIuNDQ3NzE1MjUsMTYgMywxNiBDMy41NTIyODQ3NSwxNiA0LDE2LjQ0NzcxNTMgNCwxNyBMNCwyMCBDNCwyMC41NTIyODQ3IDQuNDQ3NzE1MjUsMjEgNSwyMSBMMTksMjEgQzE5LjU1MjI4NDcsMjEgMjAsMjAuNTUyMjg0NyAyMCwyMCBMMjAsMTcgQzIwLDE2LjQ0NzcxNTMgMjAuNDQ3NzE1MywxNiAyMSwxNiBDMjEuNTUyMjg0NywxNiAyMiwxNi40NDc3MTUzIDIyLDE3IEwyMiwyMCBDMjIsMjEuNjU2ODU0MiAyMC42NTY4NTQyLDIzIDE5LDIzIEw1LDIzIEMzLjM0MzE0NTc1LDIzIDIsMjEuNjU2ODU0MiAyLDIwIEwyLDE3IFoiIGlkPSJwYXRoLTEiPjwvcGF0aD4KICAgIDwvZGVmcz4KICAgIDxnIGlkPSJTeW1ib2xzIiBzdHJva2U9Im5vbmUiIHN0cm9rZS13aWR0aD0iMSIgZmlsbD0ibm9uZSIgZmlsbC1ydWxlPSJldmVub2RkIj4KICAgICAgICA8ZyBpZD0iU2lkZWJhcnMvRGVza3RvcC9BcnRpY2xlLVNpZGViYXIiIHRyYW5zZm9ybT0idHJhbnNsYXRlKC0yOTEuMDAwMDAwLCAtNzEuMDAwMDAwKSI+CiAgICAgICAgICAgIDxnIGlkPSJTdWJtaXQiIHRyYW5zZm9ybT0idHJhbnNsYXRlKDAuMDAwMDAwLCA0OS4wMDAwMDApIj4KICAgICAgICAgICAgICAgIDxnIGlkPSJUeXBlLWFuZC1pY29ucyIgdHJhbnNmb3JtPSJ0cmFuc2xhdGUoMjAuMDAwMDAwLCAxOC4wMDAwMDApIj4KICAgICAgICAgICAgICAgICAgICA8ZyBpZD0iSWNvbnMvRG93bmxvYWQtV2hpdGUiIHRyYW5zZm9ybT0idHJhbnNsYXRlKDI2Ni4wMDAwMDAsIDAuMDAwMDAwKSI+CiAgICAgICAgICAgICAgICAgICAgICAgIDxnIGlkPSJkb3dubG9hZCIgdHJhbnNmb3JtPSJ0cmFuc2xhdGUoMy4wMDAwMDAsIDMuMDAwMDAwKSI+CiAgICAgICAgICAgICAgICAgICAgICAgICAgICA8bWFzayBpZD0ibWFzay0yIiBmaWxsPSJ3aGl0ZSI+CiAgICAgICAgICAgICAgICAgICAgICAgICAgICAgICAgPHVzZSB4bGluazpocmVmPSIjcGF0aC0xIj48L3VzZT4KICAgICAgICAgICAgICAgICAgICAgICAgICAgIDwvbWFzaz4KICAgICAgICAgICAgICAgICAgICAgICAgICAgIDx1c2UgaWQ9IkNvbWJpbmVkLVNoYXBlIiBmaWxsPSIjMDAwMDAwIiBmaWxsLXJ1bGU9Im5vbnplcm8iIHhsaW5rOmhyZWY9IiNwYXRoLTEiPjwvdXNlPgogICAgICAgICAgICAgICAgICAgICAgICAgICAgPGcgaWQ9IkNPTE9SLy13aGl0ZSIgbWFzaz0idXJsKCNtYXNrLTIpIiBmaWxsPSIjRkZGRkZGIiBmaWxsLXJ1bGU9ImV2ZW5vZGQiPgogICAgICAgICAgICAgICAgICAgICAgICAgICAgICAgIDxyZWN0IGlkPSJSZWN0YW5nbGUiIHg9IjAiIHk9IjAiIHdpZHRoPSIyNCIgaGVpZ2h0PSIyNCI+PC9yZWN0PgogICAgICAgICAgICAgICAgICAgICAgICAgICAgPC9nPgogICAgICAgICAgICAgICAgICAgICAgICA8L2c+CiAgICAgICAgICAgICAgICAgICAgPC9nPgogICAgICAgICAgICAgICAgPC9nPgogICAgICAgICAgICA8L2c+CiAgICAgICAgPC9nPgogICAgPC9nPgo8L3N2Zz4=" height="24">
机器人杂志/2012年/<年代pan class="sc-nrwXf drSekm">文章

研究文章|开放获取

体积 2012年 |文章的ID 797063年 | https://doi.org/10.1155/2012/797063

大卫·卡洛斯·加西亚洛伦佐费尔南德斯红色的,阿图罗吉尔Aparicio,路易斯•柏Castello奥斯卡雷诺索设计的加西亚, ”<年代pan class="adjust-article-svg-size">视觉里程计通过外貌和全向图像和基于特征的方法”,机器人杂志, 卷。2012年, 文章的ID797063年, 13 页面, 2012年 https://doi.org/10.1155/2012/797063

视觉里程计通过外貌和全向图像和基于特征的方法

学术编辑器:Bojan Nemec
收到了 2012年3月30
修改后的 2012年7月16日
接受 2012年7月31日
发表 06年9月2012年

文摘

在移动领域的自主机器人,视觉测程法需要检索两个连续之间的运动变换姿势的机器人通过相机传感器只。视觉测程法提供了一个重要信息的轨迹估计问题,如本地化和大满贯(同步定位和映射)。在这个工作我们提出一个基于一个全向运动估计相机。我们利用最大化的水平视野提供相机,它允许我们将大型场景信息编码到同一幅图像。两个姿势之间的运动变换的估计是增量计算,因为只有两个连续的全向图像的处理是必需的。特别是,我们利用全向图像收集的信息的多功能性来执行一个外貌和基于特征的方法来获取视觉测距结果。我们进行了一系列的实验在实际室内环境测试两种方法的有效性和适用性。实验中使用的数据由一个大型的全向图像捕获以及机器人的轨迹在三个不同的真实场景。实验结果表明估计的准确性和两种方法在实时工作的能力。

1。介绍

机器人定位和大满贯的问题(同步定位和映射)是至关重要的领域的移动自主机器人,因为环境的模型通常需要导航的目的。到现在的天,估计机器人的运动通过环境已经大感兴趣的任务,因为它提供了一个有用的工具,它缺乏任何先前的知识环境。正常情况下,这种运动计算增量每一步该机器人的轨迹。这一目标,几种类型的传感器,如GPS、IMS,三维激光数据,轮编码器(机器人测程法)用于获取有效信息来计算估计。然而,视觉传感器出现作为一个新兴的趋势等目的他们提供许多好处比如低功耗、低重量、相对成本低,它们提供丰富的信息环境。同样的,视觉测程法的术语包括机器人的当前姿态测定和路径被检索图像之间的运动变换,捕获每个姿势遍历的机器人。这个过程是增量的方式来进行连续处理图像。运动影响的估计推断出了明显的变化。图1建立了相对运动参数,<年代vg height="10.7375" id="M1" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="13.425" id="M2" style="vertical-align:-2.29482pt;width:10.2px;" version="1.1" viewbox="0 0 10.2 13.425" width="10.2" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="9.875" id="M3" style="vertical-align:-2.29482pt;width:7.9749999px;" version="1.1" viewbox="0 0 7.9749999 9.875" width="7.9749999" xmlns="http://www.w3.org/2000/svg"> ,在两个连续的姿势。

部分将详细介绍2,不同类型的视觉传感器可以用来估计视觉测距。我们的方法是基于一个全向相机。由于其能力代表现场最大的视野,我们预计这个传感器产生的强劲表示环境,为我们提供更多的信息比其他普通相机传感器在大规模场景的变化。因此,有害的不稳定影响,出现在凹凸不平的场景,可能会减少利用全向图像的好处。例如,在存在遮挡或大照明变化,透视图像的外观可能会大幅修改,而这种影响是减少在一个全向图像以来的观点是更广泛的领域。在这个意义上全向图像实现本地化时获得成功的结果在长途运行机器人。而且我们利用全向图像处理信息的多功能性与外貌和基于特征的方法。一组实验与真实数据进行了通过使用一个室内机器人配备了一个全向相机。实验结果揭示了这两种方法的有效性。两个方案的可行性分析的准确性和计算成本实时应用程序以证明其有效性。

本文组织如下。部分2介绍了视觉测程法领域的相关工作。接下来,部分34分别描述外貌和基于特征的方法。部分5介绍了收集的实验结果与实际数据进行。最后,部分6州一个简短的讨论来分析获得的结果。

视觉测距方法可分为根据类型的数据传感器用于估计机器人的轨迹。例如,立体相机被广泛用于估计视觉测距。在[1]介绍了一个定向传感器连同一对立体优于先前视觉测距结果(2)通过利用这次的工作(3]。在[4)成立的一个先例实时和错误删除工作。然而,单一的相机,表示因为单眼视觉传感器,也取得成功的结果尽管他们只能恢复一个2 d相对运动。存在两个针孔摄像机的应用(5,6)和全向相机(7,8]。首先,单镜头引入了一个例子<年代vg height="10.75" id="M4" style="vertical-align:-0.15048pt;width:69.300003px;" version="1.1" viewbox="0 0 69.300003 10.75" width="69.300003" xmlns="http://www.w3.org/2000/svg"> 离群值算法去除,而最后一个全向相机例子更进一步通过获得汽车的轨迹沿着大场景。

一些区别也可以定义根据图像处理模型。主要分类是指外貌的方法和基于特征的方法。外貌的方法着重从像素强度的信息。例如在[9]Fourier-Mellin变换应用到全向图像为了获得一种视觉为视觉测距应用程序描述符。以同样的方式,10)实现傅里叶签名(11),目的是获取视觉测程法与全景图像。另一个例子是(12),基于方向直方图出现方法实现的ego-motion自主车辆。

对基于特征的方法,这些方法试图检测独特的和健壮的连续图像之间的点或区域。在[13]单眼特征点检测结合光流来检索一个视觉测距。在[14),搜索的可重复的点设置相同的目标。在[15]提取一些健壮点也获得一个相对运动变换用于应用程序。后的语句16),提出了一个高效的算法对离群值去除,大部分地区的基于功能的方法是持续修改,如[中提出的方法7]。

在下一节中,我们提出我们的外表和基于功能的测程法的方法。

3所示。外貌的视觉里程计

在本节中,我们面临着视觉测距问题作为一个相对相机pose-recovering外貌的问题,使用的整个外观全景图像,没有任何特征提取过程。我们描述一个实时算法计算一个外貌的地图通过视觉和机器人测距。

3.1。全球外观描述符

当我们必须建立在一个外表描述符,这一定是健壮的环境照明条件的变化。必须建立以增量的方式让我们获得视觉测程法,而机器人正在经历环境。此外,计算成本来获取描述符必须低,允许实时工作。我们构建描述符使用傅里叶签名在一组之前过滤全向图像,因为它提供了所有这些特性(11,17]。

3.1.1。傅里叶签名

到目前为止,不同的描述方法的上下文中使用全向机器人视觉。傅里叶特征的优点是它的简单性,计算成本,它利用使用全景图像更好地与地平面旋转不变性。这个转换由扩张的每一行的全景图像<年代vg height="18.825001" id="M5" style="vertical-align:-6.47697pt;width:164.3125px;" version="1.1" viewbox="0 0 164.3125 18.825001" width="164.3125" xmlns="http://www.w3.org/2000/svg"> { } = { 0 , 1 , , 1 } 利用离散傅里叶变换成复数序列<年代vg height="18.825001" id="M6" style="vertical-align:-6.47697pt;width:177.75px;" version="1.1" viewbox="0 0 177.75 18.825001" width="177.75" xmlns="http://www.w3.org/2000/svg"> { } = { 0 , 1 , , 1 } 。通过这种变换,最相关的信息都集中在每一行的低频成分,所以它可以工作的信息<年代vg height="10.7375" id="M7" style="vertical-align:-0.13794pt;width:8.6000004px;" version="1.1" viewbox="0 0 8.6000004 10.7375" width="8.6000004" xmlns="http://www.w3.org/2000/svg"> 第一列的傅里叶变换。此外,该特性提出了旋转不变性在处理全景图像。如果原始全景图像的每一行代表的是复数序列<年代vg height="14.75" id="M8" style="vertical-align:-3.20526pt;width:29.0375px;" version="1.1" viewbox="0 0 29.0375 14.75" width="29.0375" xmlns="http://www.w3.org/2000/svg"> { } 和旋转图像的每一行<年代vg height="16.6625" id="M9" style="vertical-align:-4.74141pt;width:41.974998px;" version="1.1" viewbox="0 0 41.974998 16.6625" width="41.974998" xmlns="http://www.w3.org/2000/svg"> { } (被<年代vg height="9.875" id="M10" style="vertical-align:-2.29482pt;width:7.9124999px;" version="1.1" viewbox="0 0 7.9124999 9.875" width="7.9124999" xmlns="http://www.w3.org/2000/svg"> 转移的数量),可以证明,当转移序列的傅里叶变换计算,得到相同的振幅<年代vg height="14.575" id="M11" style="vertical-align:-3.2316pt;width:17.887501px;" version="1.1" viewbox="0 0 17.887501 14.575" width="17.887501" xmlns="http://www.w3.org/2000/svg"> 比nonshifted顺序,只有一个阶段的变化,与转移的数量成正比<年代vg height="9.875" id="M12" style="vertical-align:-2.29482pt;width:7.9124999px;" version="1.1" viewbox="0 0 7.9124999 9.875" width="7.9124999" xmlns="http://www.w3.org/2000/svg"> = e x p 2 ; = 0 , , 1 ( 1 )

利用这个性质,我们可以计算出机器人定位只使用傅里叶相位信息的签名。

3.1.2。同态滤波

当我们工作在实际环境中,可以预期,小的外观环境发生的变化。这些变化主要是由于照明条件和一些对象的位置的变化。这种方式,描述符必须健壮的对这些小环境的变化。

在以前的工作(18),我们展示如何可以提高机器人的定位精度在以前创建的地图应用同态滤波技术在全景图像捕获。在这项工作中,我们已经使用这种技术来过滤图像预处理步骤之前提取傅里叶签名。

这种过滤技术允许我们单独过滤图像的亮度和反射组件(19]。因此,它可以控制图像上的每个组件外观的影响。从图像上的自然对数运算符,同态操作符分隔的组件亮度和反射:<年代pan class="equation" id="EEq2"> ( , ) = ( , ) × ( , ) , ( , ) = l n ( ( , ) ) , ( , ) = l n ( ( , ) ) + l n ( ( , ) ) , ( 2 ) 在全景图像<年代vg height="13.55" id="M15" style="vertical-align:-2.29482pt;width:40.900002px;" version="1.1" viewbox="0 0 40.900002 13.55" width="40.900002" xmlns="http://www.w3.org/2000/svg"> ( , ) 被表示为一个乘法的亮度<年代vg height="13.55" id="M16" style="vertical-align:-2.29482pt;width:38.362499px;" version="1.1" viewbox="0 0 38.362499 13.55" width="38.362499" xmlns="http://www.w3.org/2000/svg"> ( , ) 和反射组件<年代vg height="13.55" id="M17" style="vertical-align:-2.29482pt;width:39.775002px;" version="1.1" viewbox="0 0 39.775002 13.55" width="39.775002" xmlns="http://www.w3.org/2000/svg"> ( , ) 的形象。一旦组件被分离,应用二维离散傅里叶变换的全景图像,我们应用一个过滤器在频域图像:<年代pan class="equation" id="EEq3"> ( ] ( ] ( ] , { ( , ) } = { l n ( ( , ) ) } + { l n ( ( , ) ) } ( ] ( , ) = { ( , ) } ( , ) , ( 3 ) 滤波器的传递函数在频域是由<年代vg height="13.45" id="M19" style="vertical-align:-2.21957pt;width:46px;" version="1.1" viewbox="0 0 46 13.45" width="46" xmlns="http://www.w3.org/2000/svg"> ( , ) 。由于低频分量与图像的照明和高频的反射,我们应用巴特沃斯高通滤波器由一个低通滤波器来减少照明场景的变化的影响(19]。

3.2。视觉测程法估计

相对相机的姿势恢复,我们需要建立一些存储构成之间的关系。它可以证明,当我们有两个全景图像的傅里叶签名已经捕捉到两个点几何环境中,可以计算它们的相对取向使用位移定理(1)。

考虑到傅里叶签名是地平面旋转不变,我们可以建立一个关系阶段的全景图像的傅里叶签名捕获在一个位置和另一个全景图像的傅里叶签名的阶段捕获在同一点但有不同的取向。我们可以扩展这个属性近似旋转<年代vg height="16.7125" id="M20" style="vertical-align:-2.29482pt;width:33.375px;" version="1.1" viewbox="0 0 33.375 16.7125" width="33.375" xmlns="http://www.w3.org/2000/svg"> + 1 , 两个全景拍摄的图像之间,在两个连续的姿势。我们获得这个角,旋卷的阶段的全景图像的傅里叶签名两种姿势。这个操作意味着比较第一图像和旋转的第二个版本。旋转的数量等于图像的行大小。一旦我们的欧几里得距离比较,我们保留图像的最小距离和角度计算使用旋转图像的像素数量。

一旦我们表明两个连续图像之间的相对旋转计算,我们必须建立的方法用来建立一个视觉机器人的轨迹的测程法。我们构建一个poses-based图,当一个新的图像捕获,一个新的姿势被添加到图,与之前的姿势和拓扑关系计算使用全球出现的场景信息。在线与我们的程序,这个计算是由机器人正在经历环境,在一个简单的和健壮的方法。

在这种情况下,我们认为机器人遍历的轨迹是由一组构成<年代vg height="16.6875" id="M21" style="vertical-align:-2.26974pt;width:122.3px;" version="1.1" viewbox="0 0 122.3 16.6875" width="122.3" xmlns="http://www.w3.org/2000/svg"> = { 1 , 2 , , } ,每个姿势<年代vg height="13.3625" id="M22" style="vertical-align:-0.1254pt;width:10.9375px;" version="1.1" viewbox="0 0 10.9375 13.3625" width="10.9375" xmlns="http://www.w3.org/2000/svg"> 是由一个全向图像<年代vg height="14.5875" id="M23" style="vertical-align:-0.33858pt;width:79.012497px;" version="1.1" viewbox="0 0 79.012497 14.5875" width="79.012497" xmlns="http://www.w3.org/2000/svg"> , 和傅里叶描述符由一个模块矩阵<年代vg height="14.75" id="M24" style="vertical-align:-0.33858pt;width:76.012497px;" version="1.1" viewbox="0 0 76.012497 14.75" width="76.012497" xmlns="http://www.w3.org/2000/svg"> , 1 和一个阶段矩阵<年代vg height="17.1875" id="M25" style="vertical-align:-2.29482pt;width:74.400002px;" version="1.1" viewbox="0 0 74.400002 17.1875" width="74.400002" xmlns="http://www.w3.org/2000/svg"> , 2 。因此,使用的算法,我们可以得到这个职位<年代vg height="19.85" id="M26" style="vertical-align:-4.2647pt;width:39.674999px;" version="1.1" viewbox="0 0 39.674999 19.85" width="39.674999" xmlns="http://www.w3.org/2000/svg"> ( , ) 和方向<年代vg height="22.35" id="M27" style="vertical-align:-6.26607pt;width:12.775px;" version="1.1" viewbox="0 0 12.775 22.35" width="12.775" xmlns="http://www.w3.org/2000/svg"> 轨迹的每个姿势对上一个;因此<年代vg height="22.35" id="M28" style="vertical-align:-6.26607pt;width:165.9875px;" version="1.1" viewbox="0 0 165.9875 22.35" width="165.9875" xmlns="http://www.w3.org/2000/svg"> = { ( , , ) , , , }

机器人抓住了新形象<年代vg height="11.325" id="M29" style="vertical-align:-0.51414pt;width:30.487499px;" version="1.1" viewbox="0 0 30.487499 11.325" width="30.487499" xmlns="http://www.w3.org/2000/svg"> + 1 ,然后,傅里叶描述符<年代vg height="14.05" id="M30" style="vertical-align:-0.15048pt;width:26.387501px;" version="1.1" viewbox="0 0 26.387501 14.05" width="26.387501" xmlns="http://www.w3.org/2000/svg"> + 1 和<年代vg height="16.637501" id="M31" style="vertical-align:-2.29482pt;width:24.775px;" version="1.1" viewbox="0 0 24.775 16.637501" width="24.775" xmlns="http://www.w3.org/2000/svg"> + 1 计算。比较<年代vg height="16.637501" id="M32" style="vertical-align:-2.29482pt;width:24.775px;" version="1.1" viewbox="0 0 24.775 16.637501" width="24.775" xmlns="http://www.w3.org/2000/svg"> + 1 的描述符之前捕获的图像<年代vg height="15.4375" id="M33" style="vertical-align:-2.29482pt;width:11.8125px;" version="1.1" viewbox="0 0 11.8125 15.4375" width="11.8125" xmlns="http://www.w3.org/2000/svg"> 之间的相对位置,我们可以发现这两种姿势。我们获得欧氏距离<年代vg height="13.775" id="M34" style="vertical-align:-0.0pt;width:35.875px;" version="1.1" viewbox="0 0 35.875 13.775" width="35.875" xmlns="http://www.w3.org/2000/svg"> + 1 , 连续两个姿势之间使用数据提供的机器人的内部测程法,表示<年代vg height="16.5875" id="M35" style="vertical-align:-3.21404pt;width:30.2125px;" version="1.1" viewbox="0 0 30.2125 16.5875" width="30.2125" xmlns="http://www.w3.org/2000/svg"> o d o 和<年代vg height="18.487499" id="M36" style="vertical-align:-4.74141pt;width:29.612499px;" version="1.1" viewbox="0 0 29.612499 18.487499" width="29.612499" xmlns="http://www.w3.org/2000/svg"> o d o 他指的是<年代vg height="7.1624999" id="M37" style="vertical-align:-0.11285pt;width:8.7250004px;" version="1.1" viewbox="0 0 8.7250004 7.1624999" width="8.7250004" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="9.8625002" id="M38" style="vertical-align:-2.29482pt;width:7.875px;" version="1.1" viewbox="0 0 7.875 9.8625002" width="7.875" xmlns="http://www.w3.org/2000/svg"> 在即时笛卡尔坐标<年代vg height="9.125" id="M39" style="vertical-align:-0.11285pt;width:5.0124998px;" version="1.1" viewbox="0 0 5.0124998 9.125" width="5.0124998" xmlns="http://www.w3.org/2000/svg"> 。另一方面,由于视觉罗盘实现,我们可以估计图像之间的相对取向。在这个过程中,当前的位置从上一个计算<年代pan class="equation" id="EEq4"> + 1 = + + 1 , c o 年代 + 1 , , + 1 = + + 1 , 年代 n + 1 , , + 1 = + + 1 , , + 1 , = o d o + 1 o d o 2 + o d o + 1 o d o 2 ( 4 )

这些关系如图2

4所示。基于视觉里程计

本节的目标是呈现过程获得视觉测程法通过使用特定的从全向图像中提取特征点。正如前面提到的,全向摄像机的水平视野是最大,这样图像提供一个大的信息捕获当前的场景。这个事实让我们获得一组有意义的像素点在图像平面上对应于一组物理3 d点。这些点料显示高凸起,视觉在图像相关性概念,措施,以及它的使用除了将其分类为兴趣点是否满足特定的度量应用于周围的像素和当地。这种视觉的重要性每个有趣的点编码到一个视觉描述符;因此可以建立比较晚些时候当寻找图像之间的对应点。

4.1。检测感兴趣的点

传统上,有一些跟踪的方法找到对应点(1之间存在一个短的规模),提供连续的姿势从图像。另一方面,当前的方法(4)使用全局搜索整个图像相似性描述符一起测试为了找到对应。稍后我们采用了一个修改方案,因为我们的目的在计算运动在大规模场景中,在图像的外观可能相差很大从一个图像到另一个地方。在这种背景下,不同组合的特征点探测器和描述符常用,如哈里斯角落探测器(20.),筛选功能(21),以及最近浏览功能(22]。在[23],冲浪特性优于其他检测方法和描述编码的不变性和健壮性的探测点和他们的描述符。此外,上网功能已经成功执行(24与全向图像)。因此,这些事实表明我们冲浪的使用特性来探测点和描述他们的视觉外观。特别是我们全向图像转换成一个全景,以增加有效的匹配图像之间的数量由于较低的外观变化得到这一观点。

4.2。视觉测程法估计

一旦发现一组利益点和匹配的两个图片,有必要计算机器人的相对运动。如图1,这个运动是由一个旋转和一个翻译,由两个相对的角度说<年代vg height="10.7375" id="M41" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="13.425" id="M42" style="vertical-align:-2.29482pt;width:10.2px;" version="1.1" viewbox="0 0 10.2 13.425" width="10.2" xmlns="http://www.w3.org/2000/svg"> 和一个比例因子<年代vg height="9.875" id="M43" style="vertical-align:-2.29482pt;width:7.9749999px;" version="1.1" viewbox="0 0 7.9749999 9.875" width="7.9749999" xmlns="http://www.w3.org/2000/svg"> 。相同的关系可以表示为图像平面上,观察到在图3一些通讯表示。检索一个特定的相机旋转和翻译相对运动已经恢复通常由纵向约束应用到解决6自由度问题,如(16,25,26),而在我们的案例中,根据XY平面上的平面运动,我们简化了估计一个3自由度的问题。

同一点在两幅图像中发现可以表示为<年代vg height="16.375" id="M44" style="vertical-align:-2.29482pt;width:83.125px;" version="1.1" viewbox="0 0 83.125 16.375" width="83.125" xmlns="http://www.w3.org/2000/svg"> = ( , , ] 和<年代vg height="16.375" id="M45" style="vertical-align:-2.29482pt;width:100.5px;" version="1.1" viewbox="0 0 100.5 16.375" width="100.5" xmlns="http://www.w3.org/2000/svg"> = ( , , ] 分别在第一和第二相机参考系统。然后,纵向条件建立了两个3 d点之间的关系<年代vg height="9.875" id="M46" style="vertical-align:-2.29482pt;width:7.7624998px;" version="1.1" viewbox="0 0 7.7624998 9.875" width="7.7624998" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="15.4125" id="M47" style="vertical-align:-2.29482pt;width:12.1125px;" version="1.1" viewbox="0 0 12.1125 15.4125" width="12.1125" xmlns="http://www.w3.org/2000/svg"> 从不同的姿势:<年代pan class="equation" id="EEq8"> = 0 , ( 5 ) 在矩阵<年代vg height="10.325" id="M49" style="vertical-align:-0.0pt;width:12.225px;" version="1.1" viewbox="0 0 12.225 10.325" width="12.225" xmlns="http://www.w3.org/2000/svg"> 和基本矩阵表示。请注意,<年代vg height="10.325" id="M50" style="vertical-align:-0.0pt;width:12.225px;" version="1.1" viewbox="0 0 12.225 10.325" width="12.225" xmlns="http://www.w3.org/2000/svg"> 是由一个特定的旋转<年代vg height="10.325" id="M51" style="vertical-align:-0.0pt;width:11.6875px;" version="1.1" viewbox="0 0 11.6875 10.325" width="11.6875" xmlns="http://www.w3.org/2000/svg"> 和一个翻译<年代vg height="10.325" id="M52" style="vertical-align:-0.0pt;width:11.225px;" version="1.1" viewbox="0 0 11.225 10.325" width="11.225" xmlns="http://www.w3.org/2000/svg"> (一个比例因子)相关的图片<年代vg height="14.3375" id="M53" style="vertical-align:-3.21404pt;width:68.887497px;" version="1.1" viewbox="0 0 68.887497 14.3375" width="68.887497" xmlns="http://www.w3.org/2000/svg"> = 。因此,根据<年代vg height="10.325" id="M54" style="vertical-align:-0.0pt;width:11.6875px;" version="1.1" viewbox="0 0 11.6875 10.325" width="11.6875" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="10.325" id="M55" style="vertical-align:-0.0pt;width:11.225px;" version="1.1" viewbox="0 0 11.225 10.325" width="11.225" xmlns="http://www.w3.org/2000/svg"> 基本矩阵提出了以下结构:<年代pan class="equation" id="EEq9"> = c o 年代 ( ) 年代 n ( ) 0 年代 n ( ) c o 年代 ( ) 0 0 0 1 , ( 6 ) = 0 0 年代 n ( ) 0 0 c o 年代 ( ) 年代 n ( ) c o 年代 ( ) 0 , ( 7 ) = c o 年代 ( ) 年代 n ( ) 0 ( 8 )

被<年代vg height="13.425" id="M57" style="vertical-align:-2.29482pt;width:10.2px;" version="1.1" viewbox="0 0 10.2 13.425" width="10.2" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="10.7375" id="M58" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> 之间的相对角度,定义一个运动变换两种不同姿势图所示13

矩阵<年代vg height="10.325" id="M59" style="vertical-align:-0.0pt;width:12.225px;" version="1.1" viewbox="0 0 12.225 10.325" width="12.225" xmlns="http://www.w3.org/2000/svg"> 可以直接计算应用纵向条件<年代vg height="10.325" id="M60" style="vertical-align:-0.0pt;width:14.8375px;" version="1.1" viewbox="0 0 14.8375 10.325" width="14.8375" xmlns="http://www.w3.org/2000/svg"> 发现点以下的方式:<年代pan class="equation" id="EEq12"> 1 2 1 1 1 2 1 3 2 1 2 2 2 3 3 1 3 2 3 3 1 2 = 0 ( 9 )

最后这个方程会导致一个共同N-linear方程系统:<年代pan class="equation" id="EEq13"> = 0 ( 1 0 ) 被<年代vg height="24.3125" id="M63" style="vertical-align:-3.25793pt;width:137.5625px;" version="1.1" viewbox="0 0 137.5625 24.3125" width="137.5625" xmlns="http://www.w3.org/2000/svg"> = { 1 3 , 2 3 , 3 1 , 3 2 } 和<年代vg height="10.325" id="M64" style="vertical-align:-0.0pt;width:12.7px;" version="1.1" viewbox="0 0 12.7 10.325" width="12.7" xmlns="http://www.w3.org/2000/svg"> 系数矩阵。请注意简化由于平面运动特性,因为只有4变量必须解决(10)。因此,我们面对过定的系统(10)只使用<年代vg height="10.6875" id="M65" style="vertical-align:-0.0pt;width:40.625px;" version="1.1" viewbox="0 0 40.625 10.6875" width="40.625" xmlns="http://www.w3.org/2000/svg"> = 4 对应点足以解决问题;但是我们使用大量的通讯,以获得一个可靠的解决方案在异常值的存在。一个奇异值分解)已经解决了(10)。然后,后27,28很容易检索<年代vg height="10.325" id="M66" style="vertical-align:-0.0pt;width:11.6875px;" version="1.1" viewbox="0 0 11.6875 10.325" width="11.6875" xmlns="http://www.w3.org/2000/svg"> 和<年代vg height="10.325" id="M67" style="vertical-align:-0.0pt;width:11.225px;" version="1.1" viewbox="0 0 11.225 10.325" width="11.225" xmlns="http://www.w3.org/2000/svg"> 。下分段处理的错误点注意事项和介绍我们的方法,以避免异常值。

4.3。误差传播和离群值删除

在建议的框架中,找到图像之间的通讯是麻烦的问题。一个误差传播的术语总是关联到每个运动变换。这个错误不仅是检测特征点时引入的传感器偏差。此外,异常值的存在视为错误点偏离正确匹配点估计解决方案,而且目前的不确定性机器人的构成腐败估计。只要机器人移动,每个相对运动转换(从现在开始,表示<年代vg height="16.2875" id="M68" style="vertical-align:-4.77652pt;width:21.362499px;" version="1.1" viewbox="0 0 21.362499 16.2875" width="21.362499" xmlns="http://www.w3.org/2000/svg"> )引入了一个误差项偏离累计使用机器人的姿态,这样带来的不确定性增加。在这种情况下,方法<年代vg height="10.75" id="M69" style="vertical-align:-0.15048pt;width:69.300003px;" version="1.1" viewbox="0 0 69.300003 10.75" width="69.300003" xmlns="http://www.w3.org/2000/svg"> (8),<我>直方图投票(14),或<我>纵向匹配(29日)已经使用应对不确定性。在这种方法中,我们也建议使用高斯分布建模误差和传播的计算<年代vg height="16.2875" id="M70" style="vertical-align:-4.77652pt;width:21.362499px;" version="1.1" viewbox="0 0 21.362499 16.2875" width="21.362499" xmlns="http://www.w3.org/2000/svg"> 在一个更现实的方式。此外,这种传播成为一个有用的工具,以限制搜索有效的通讯。

在一个理想的情况下,纵向限制(5)可能等于一个固定的阈值,这意味着图像之间的纵向曲线始终提供一个静态偏差。一个现实的方法我们应该考虑这个阈值取决于现有的不确定性的姿势。要做到这一点,我们假设机器人的测程法,它允许预测运动变换<年代vg height="21.4" id="M71" style="vertical-align:-4.77652pt;width:22.775px;" version="1.1" viewbox="0 0 22.775 21.4" width="22.775" xmlns="http://www.w3.org/2000/svg"> 。最终变成纵向条件<年代pan class="equation" id="EEq14"> < , ( 1 1 ) 在哪里<年代vg height="21.4" id="M73" style="vertical-align:-4.77652pt;width:41.037498px;" version="1.1" viewbox="0 0 41.037498 21.4" width="41.037498" xmlns="http://www.w3.org/2000/svg"> ( ) 表达不确定性带来的机器人,因为它是直接与预测转换<年代vg height="21.4" id="M74" style="vertical-align:-4.77652pt;width:22.775px;" version="1.1" viewbox="0 0 22.775 21.4" width="22.775" xmlns="http://www.w3.org/2000/svg">

这种方法可以减少搜索图像之间的对应点。图4描述了过程。一个探测点<年代vg height="13.55" id="M75" style="vertical-align:-2.29482pt;width:56.987499px;" version="1.1" viewbox="0 0 56.987499 13.55" width="56.987499" xmlns="http://www.w3.org/2000/svg"> ( , , ) 表示在第一图像参考系统的归一化向量<年代vg height="25.5" id="M76" style="vertical-align:-3.13504pt;width:20px;" version="1.1" viewbox="0 0 20 25.5" width="20" xmlns="http://www.w3.org/2000/svg"> 1 由于未知的规模。应对如此规模的歧义,我们建议一代一个高斯点分布得到一组多尺度分<年代vg height="25.625" id="M77" style="vertical-align:-3.2316pt;width:32.474998px;" version="1.1" viewbox="0 0 32.474998 25.625" width="32.474998" xmlns="http://www.w3.org/2000/svg"> 1 为<年代vg height="25.5" id="M78" style="vertical-align:-3.13504pt;width:20px;" version="1.1" viewbox="0 0 20 25.5" width="20" xmlns="http://www.w3.org/2000/svg"> 1 。请注意,目前的不确定性造成的机器人必须在传播过程。接下来,因为我们得到一个预测运动变换<年代vg height="21.4" id="M79" style="vertical-align:-4.77652pt;width:22.775px;" version="1.1" viewbox="0 0 22.775 21.4" width="22.775" xmlns="http://www.w3.org/2000/svg"> ,我们可以变换分布<年代vg height="25.625" id="M80" style="vertical-align:-3.2316pt;width:32.474998px;" version="1.1" viewbox="0 0 32.474998 25.625" width="32.474998" xmlns="http://www.w3.org/2000/svg"> 1 进入第二图像参考系统,获取<年代vg height="29.975" id="M81" style="vertical-align:-3.7982pt;width:13.9px;" version="1.1" viewbox="0 0 13.9 29.975" width="13.9" xmlns="http://www.w3.org/2000/svg"> 。我们传播的不确定性对重新定义运动转换通过正态分布<年代vg height="21.4" id="M82" style="vertical-align:-4.77652pt;width:22.775px;" version="1.1" viewbox="0 0 22.775 21.4" width="22.775" xmlns="http://www.w3.org/2000/svg"> ~<我>N(<年代vg height="21.424999" id="M83" style="vertical-align:-4.74141pt;width:68.75px;" version="1.1" viewbox="0 0 68.75 21.424999" width="68.75" xmlns="http://www.w3.org/2000/svg"> ̂ , , , ),从而暗示<年代vg height="29.975" id="M84" style="vertical-align:-3.7982pt;width:13.9px;" version="1.1" viewbox="0 0 13.9 29.975" width="13.9" xmlns="http://www.w3.org/2000/svg"> 是一个高斯分布与当前带来的不确定性。一次<年代vg height="29.975" id="M85" style="vertical-align:-3.7982pt;width:13.9px;" version="1.1" viewbox="0 0 13.9 29.975" width="13.9" xmlns="http://www.w3.org/2000/svg"> 得到,它们投射到图像平面的第二图像,表示为十字架在图吗5。这个投影的多尺度分布定义了一个预测区全向图像中与连续弯曲的线条画。这一地区建立了特定的图像像素的对应关系<年代vg height="25.5" id="M86" style="vertical-align:-3.13504pt;width:20px;" version="1.1" viewbox="0 0 20 25.5" width="20" xmlns="http://www.w3.org/2000/svg"> 1 必须寻找。这个区域的形状取决于预测的误差,这是直接与目前的不确定性构成的机器人。虚线代表可能的候选点位于预测区。因此,匹配的问题是找到正确的对应点<年代vg height="25.5" id="M87" style="vertical-align:-3.13504pt;width:20px;" version="1.1" viewbox="0 0 20 25.5" width="20" xmlns="http://www.w3.org/2000/svg"> 1 从这些候选人预测区域内通过比较他们的视觉描述符,而不是寻找他们在整个图像。注意,使用这种技术,假通讯的数量减少了因为我们通过这个限制匹配过程,避免它们局限于一个特定的图像区域如前所述。

5。实验设置

5.1。环境的描述

为了获得必要的实验数据,我们使用一个先锋P3-AT移动机器人,配有DMK 21 bf04全向相机,一个内部里程表,和生病的lms - 200激光(图1)。机器人执行三个不同的轨迹在三个不同的室内环境中,获取一个新的全向图像,测程法和激光数据时它遍历一个距离等于0.1米。三个路径遍历的机器人的特点如表所示1。机器人的路径跟踪和全景图像的一些例子每组数据所示6,7,8,分别。


环境 的名字 数字图像 图像分辨率 距离遍历 环境的大小

实验室1 数据集1 858年 720×720像素 85.8米 1.8×1.7米
实验室2 数据集2 267年 720×720像素 26.7米 3.7×5.4米
走廊 数据集3 416年 720×720像素 41.6米 1.4×7.1米

5.2。实验结果

测试的性能和比较我们的外貌和基于功能的视觉测距方法,我们进行了一系列的仿真实验使用在前面的小节描述的图像。为了演示程序我们计算的可行性<年代vg height="10.725" id="M95" style="vertical-align:-0.1254pt;width:38.650002px;" version="1.1" viewbox="0 0 38.650002 10.725" width="38.650002" xmlns="http://www.w3.org/2000/svg"> (根均方)错误沿着轨迹,在机器人的位置误差<年代vg height="7.1624999" id="M96" style="vertical-align:-0.11285pt;width:8.7250004px;" version="1.1" viewbox="0 0 8.7250004 7.1624999" width="8.7250004" xmlns="http://www.w3.org/2000/svg"> 的错误<年代vg height="9.8625002" id="M97" style="vertical-align:-2.29482pt;width:7.875px;" version="1.1" viewbox="0 0 7.875 9.8625002" width="7.875" xmlns="http://www.w3.org/2000/svg"> 和错误<年代vg height="10.7375" id="M98" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> 每一步的过程,所需的计算时间计算机器人的每个姿势。在每种情况下,我们测试的主要参数的影响所使用的描述符。

的<年代vg height="10.725" id="M99" style="vertical-align:-0.1254pt;width:38.650002px;" version="1.1" viewbox="0 0 38.650002 10.725" width="38.650002" xmlns="http://www.w3.org/2000/svg"> 错误已获得作为参考的路径(数据9(一个),10 (),(11日)。真正的道路,我们使用一个生病的LMS测距仪以计算地面实况使用方法(30.]。我们必须考虑机器人的均方根误差量距数据比较与地面真理是0.665米<我>数据集1,0.768 m<我>数据集2和1.112米<我>数据集3所示。

数据9(一个),10 (),(11日)展示一个例子的视觉里程计(黑点)计算,地面事实(蓝圈),代表真正的路径,和机器人测程法(红十字会),第一,第二,第三组图片,分别。这种视觉测程法已建成使用外貌的方法和一些傅里叶分量为每一行的傅里叶签名等于<年代vg height="11.0375" id="M115" style="vertical-align:-0.17555pt;width:15.75px;" version="1.1" viewbox="0 0 15.75 11.0375" width="15.75" xmlns="http://www.w3.org/2000/svg"> 6 4 三个案例。获得优于机器人视觉测距测程法对于所有场景,选择任意数量的傅里叶组件。数据9 (b),10 (b),11 (b)显示整个实验的平均误差比较真实的路径在使用第一组图片和添加一个新的所需计算时间对视觉测距。作为三个场景中,我们可以看到,这个数字给我们信息的数量允许超越机器人测程法和傅里叶组件在一个实时工作。值得注意的是,普遍存在一个最佳傅里叶分量的均方根误差。傅里叶组件的数量增加不涉及更好的均方根误差结果由于高频组件的傅里叶描述符可能会引入噪声,可以观察到的数据10 (b)11 (b)。然而,在图9 (b)得到不同的结果由于机器人沿圆周运动的环境,周围的机器人遍历这亲密的姿势,使均方根误差不增加戏剧性的方式。在数据9 (c),10 (c),11 (c),我们的阴谋<年代vg height="10.325" id="M116" style="vertical-align:-0.0pt;width:13.4125px;" version="1.1" viewbox="0 0 13.4125 10.325" width="13.4125" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="10.325" id="M117" style="vertical-align:-0.0pt;width:11.6125px;" version="1.1" viewbox="0 0 11.6125 10.325" width="11.6125" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="10.7375" id="M118" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> 误差对机器人测程法(红色虚线)和视觉测程法(蓝线)过程的每一步进行的实验。一般来说,数据显示,我们的方法优于机器人测程法每一步的三个数据集。用这种方法可以获得视觉测距数据的平均误差与地面0.485米的真理<我>数据集1,0.575 m<我>数据集2,0.705的<我>数据集3计算时间,让我们在实际工作时间(0.594秒<我>数据集1,0.533年代<我>数据集2,0.549年代<我>数据集3)当我们使用<年代vg height="11.0375" id="M119" style="vertical-align:-0.17555pt;width:15.75px;" version="1.1" viewbox="0 0 15.75 11.0375" width="15.75" xmlns="http://www.w3.org/2000/svg"> 6 4 傅里叶组件。

另一方面,我们有进行了相同的实验,但在这种情况下,视觉测程法已建成使用基于功能特性的方法。数据12(一个),(13日),(14日)展示一个例子的视觉里程计(黑点)计算,地面事实(蓝圈),代表真正的路径和机器人测程法(红十字会),三组的图像,连续。这种视觉测程法已建成使用数量的匹配点等于<年代vg height="10.9125" id="M120" style="vertical-align:-0.17555pt;width:15.75px;" version="1.1" viewbox="0 0 15.75 10.9125" width="15.75" xmlns="http://www.w3.org/2000/svg"> 4 0 三个案例。数据显示,选择匹配点的数量,获得优于机器人视觉测距测程法对所有场景。数据12 (b),13 (b),14 (b)显示整个实验的平均误差比较真实的路径在使用第一组图片和添加一个新的所需计算时间对视觉测距。我们可以看到在这三个场景中,我们可以使用一个数量的匹配点,让我们清楚地表现机器人实时测程法和工作。特别是,看着数字12 (b),13 (b),14 (b)我们可以观察到的增加数量的匹配点认为并不是一个引人注目的事实为实时操作。值得注意的是,主要的计算负载是由特征点检测,这总是有两个图像之间进行。一旦我们整个组特征点提取、匹配和SVD-solving流程优化的计算成本,所以它显示低依赖特征点的数量和时间增加。在数据12 (c),13 (c),14 (c),我们将展示一个实验,我们画出的一个例子<年代vg height="10.325" id="M121" style="vertical-align:-0.0pt;width:13.4125px;" version="1.1" viewbox="0 0 13.4125 10.325" width="13.4125" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="10.325" id="M122" style="vertical-align:-0.0pt;width:11.6125px;" version="1.1" viewbox="0 0 11.6125 10.325" width="11.6125" xmlns="http://www.w3.org/2000/svg"> ,<年代vg height="10.7375" id="M123" style="vertical-align:-0.13794pt;width:8.3125px;" version="1.1" viewbox="0 0 8.3125 10.7375" width="8.3125" xmlns="http://www.w3.org/2000/svg"> 误差对机器人测程法(红色虚线)和视觉测程法(蓝线)的每一步过程。一般来说,数据显示,我们的方法优于机器人测程法每一步的三个数据集。用这种方法可以获得视觉测距数据的平均误差与地面0.239米的真理<我>数据集1,0.494 m<我>数据集2,0.340的<我>数据集3计算时间,让我们在实际的工作时间(0.512秒<我>数据集1,0.551年代<我>数据集2<我>,和0.527的年代<我>数据集3)当我们使用大量的匹配点等于<年代vg height="10.9125" id="M124" style="vertical-align:-0.17555pt;width:15.75px;" version="1.1" viewbox="0 0 15.75 10.9125" width="15.75" xmlns="http://www.w3.org/2000/svg"> 4 0

最后,我们必须强调这一事实与外貌的方法在我们工作的情况下,我们只代表实验的平均误差和标准差。这是由于这样的事实,这是一个确定性的方法。相比之下,使用基于特征的方法时,有必要代表标准偏差错误,因为它是不确定的。

6。结论

在本文中,我们提出了两种视觉测距的方法与全向图像,这可能是用于定位和大满贯应用在移动环境中自主机器人。我们建议利用全向图像提供的好处,因为大场景的信息被封装在一个单一的形象。因此我们提取连续评估之间的相对运动转换姿势,这是计算两个连续处理的全向图像通过外貌和基于特征的方法,分别。这估计是完全以增量的方式获得。一组实验进行与实际数据获得一个室内机器人已经提出为了验证这两种方法的可靠性。结果从三个不同的场景表明,准确的估计可以实现机器人的运动。进一步分析这些结果提出了一个特定的设置参数的确定对于外貌和基于特征的方法生成一个最优解的精度。此外,解决方案实现的实时需求。这个事实是许多应用程序在移动机器人强烈推荐。

引用

  1. c·f·奥尔森l . h . Matthies m . Schoppers和m . w . Maimone“健壮的音响ego-motion长途航行,”<我>《IEEE计算机视觉与模式识别会议(CVPR ' 00)2000年6月,页453 - 458。<年代pan class="reflinks">视图:谷歌学术搜索
  2. l . Matthies<我>动态立体视觉[博士。论文)卡内基梅隆大学,1989。<年代pan class="reflinks">
  3. h .这次<我>避障和导航在现实世界中看到机器人探测器(博士。论文),斯坦福大学,1980年。<年代pan class="reflinks">
  4. 卑尔根和j . d . nist o . Naroditsky“视觉测程法”<我>《IEEE计算机学会学报计算机视觉与模式识别会议(CVPR ' 04)2004年7月,页I652-I659,。<年代pan class="reflinks">视图:谷歌学术搜索
  5. d . nist,“先发制人的RANSAC生活结构和运动估计,“<我>机器视觉和应用程序,16卷,不。5,321 - 329年,2005页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  6. 卑尔根和j . d . nist o . Naroditsky“视觉量距地面车辆应用程序”<我>《机器人技术领域,23卷,不。1,3,2006页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  7. j . p . Tardif y Pavlidis, k . Daniilidis“单眼视觉测程法在城市环境中使用一个全向相机,”<我>《IEEE / RSJ智能机器人和系统国际会议(——08年)2008年9月,页2531 - 2538。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  8. d . Scaramuzza f . Fraundorfer, r . Siegwart“实时单眼视觉测程法为行车车辆1点RANSAC,”<我>诉讼的IEEE机器人与自动化国际会议上' 09)举行(“国际机器人与自动化会议”,2009年。<年代pan class="reflinks">视图:谷歌学术搜索
  9. r . Goecke a就是为了:佩特森,l . Petersson”视觉车辆使用Fourier-Mellin egomotion估计变换,”<我>《IEEE智能车辆研讨会(IV ' 07)2007年6月,页450 - 455。<年代pan class="reflinks">视图:谷歌学术搜索
  10. Paya l·费尔南德斯·l·o·雷诺索设计的,和f . Amoros外貌的视觉测程法与全向图像。在一个实际的应用程序拓扑映射。<我>国际会议信息的程序控制,自动化和机器人(ICINCO 11),2011年。<年代pan class="reflinks">视图:谷歌学术搜索
  11. Maeda e .我t h .石黑浩,“基于图像的记忆机器人导航使用全向图像的性质,“<我>机器人和自治系统卷,47号4、251 - 267年,2004页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  12. d . Scaramuzza和r . Siegwart Appearance-guided单眼全向视觉量距室外地面车辆,”<我>IEEE机器人,24卷,不。5,1015 - 1026年,2008页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  13. p .刘纪麟d Strelow, s·辛格,“行星探测器的全向视觉测程法,”<我>《IEEE / RSJ智能机器人和系统国际会议(——“04)2004年10月,页4007 - 4012。<年代pan class="reflinks">视图:谷歌学术搜索
  14. d . Scaramuzza“绩效评估1点RANSAC视觉测程法,“<我>《机器人技术领域,28卷,不。5,792 - 811年,2011页。<年代pan class="reflinks">视图:谷歌学术搜索
  15. a·吉尔·d·卡洛斯o .雷诺索设计的l·费尔南德斯和j·m·马林”与一个全向相机,建立视觉地图”<我>国际会议信息的程序控制,自动化和机器人(ICINCO 11),2011年。<年代pan class="reflinks">视图:谷歌学术搜索
  16. d . nist,”一个有效解决五点相对构成问题,”<我>《IEEE计算机学会学报计算机视觉与模式识别会议(CVPR ' 03)2003年6月,页195 - 202。<年代pan class="reflinks">视图:谷歌学术搜索
  17. Paya l·l·费尔南德斯o .雷诺索设计的a·吉尔和d . Ubeda”外貌的密集的地图创建:比较与全景图像压缩技术,”<我>学报第六届国际会议信息控制,自动化和机器人(ICINCO ' 09)2009年7月,页250 - 255。<年代pan class="reflinks">视图:谷歌学术搜索
  18. Paya l, l·f·罗霍o .雷诺索设计的a·吉尔和m .茱莉亚,“健壮的改变照明条件下机器人定位方法:比较不同的过滤技术,”<我>第二届国际会议上代理和人工智能(ICAART 10),1卷,页223 - 228,瓦伦西亚,西班牙,2010年1月。<年代pan class="reflinks">视图:谷歌学术搜索
  19. r·冈萨雷斯和r·伍兹<我>数字图像处理美国,addison - wesley朗文,波士顿,质量,第二版,1992年版。<年代pan class="reflinks">
  20. c·g·哈里斯和m . Stephens,”角落和边缘检测器相结合”<我>学报阿尔维愿景会议,1988年。<年代pan class="reflinks">视图:谷歌学术搜索
  21. d·g·劳”独特的形象特征尺度不变的要点,<我>国际计算机视觉杂志》上,60卷,不。2、91 - 110年,2004页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  22. a . h .湾Ess、t . Tuytelaars和l . Van干傻事,“冲浪:加快健壮的特性,”<我>学报》第九届欧洲计算机视觉大会06年),2006年。<年代pan class="reflinks">视图:谷歌学术搜索
  23. A·吉尔·o·m·Mozos m . Ballesta o·雷诺索设计的,”比较感兴趣的评价点探测器和局部描述符为视觉大满贯”<我>机器视觉和应用程序,21卷,不。6,905 - 920年,2010页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  24. a·c·Murillo j·j·格雷罗州,c . Sagues“冲浪功能高效的机器人定位与全向图像”<我>诉讼的IEEE机器人与自动化国际会议上07年举行(“国际机器人与自动化会议”)2007年4月,页3901 - 3907。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  25. r . Kawanishi a山下式,t .金子”的建设从全方位图像序列三维环境模型,”<我>《亚洲机电一体化国际研讨会,2008年。<年代pan class="reflinks">视图:谷歌学术搜索
  26. h . Stewenius c .恩格斯,d . nist“直系亲属方向最近的事态”<我>ISPRS《摄影测量与遥感,60卷,不。4、284 - 294年,2006页。<年代pan class="reflinks">视图:出版商的网站|谷歌学术搜索
  27. r . Bunschoten b .悄无声息,“视觉测程法从一个全向视觉系统”<我>诉讼的IEEE机器人与自动化国际会议上2003年9月,页577 - 583。<年代pan class="reflinks">视图:谷歌学术搜索
  28. r·哈特利,a . Zisserman<我>计算机视觉中的多视图几何》,剑桥大学出版社,2004年。<年代pan class="reflinks">
  29. a·j·戴维森”,实时同步定位和映射只有一个相机,”<我>《计算机视觉国际会议(ICCV ' 03)2003年10月,页1403 - 1410。<年代pan class="reflinks">视图:谷歌学术搜索
  30. c . Stachniss g . Grisetti d Hahnel, w . Burgard”改善rao-blackwellized loop-closure映射的自适应采样和活跃,”<我>程序适应性行为的自组织研讨会(甜蜜的“04),2004年1 - 15页。<年代pan class="reflinks">视图:谷歌学术搜索

版权©2012大卫·卡洛斯加西亚等。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
ePub 订单打印副本订单
的观点<年代pan>3536年
下载<年代pan>1683年
引用

相关文章