机器人学杂志

PDF
机器人学杂志/2020./文章

研究文章|开放获取

体积 2020. |物品ID 9080642 | 16 页面 | https://doi.org/10.1155/2020/9080642.

输液架患者跟随机器人的设计

学术编辑:Gordon R. Pennock.
已收到 2019年10月16日
修改 2020年1月29日
认可的 2020年2月3日
出版 2020年3月9日

抽象的

机器人之后的人是服务机器人的应用,主要侧重于人机互动,例如,在安全和医疗保健中。本文探讨了患者追随者机器人的一些设计和发展挑战。我们的动机源于与持有和拉动医疗滴水架的患者相关的常见流动性挑战。与机器人之后的其他人的其他设计不同,拟议的设计目标需要保持在医院环境中的耐心隐私和经营挑战。我们将单个相机放在接近地面,这可能导致较窄的视野来保护患者隐私。通过独特的人工标记设计,在各种医院服装上放置,我们已经显示了视觉跟踪算法如何确定患者的空间位置相对于机器人。机器人控制算法在三个部分中实现:(a)患者检测;(b)距离估计;和(c)轨迹控制器。对于患者检测,所提出的算法利用两个用于目标检测的互补工具,即模板匹配和颜色直方图比较。 We applied a pinhole camera model for the estimation of distance from the robot to the patient. We proposed a novel movement trajectory planner to maintain the dynamic tipping stability of the robot by adjusting the peak acceleration. The paper further demonstrates the practicality of the proposed design through several experimental case studies.

1.介绍

服务机器人的一种常见类型是人跟随机器人,它已经在安全、监控和老年人监控等领域得到了应用[1.,2.]. 护士跟随机器人可以有效地减少护士和医疗服务系统的工作量[3.].在[4.]. 护士可能会花费多达30%的时间远离患者,让患者参与诸如获取各种药物或报告等任务。使用机器人执行这些任务,从而减少或消除时间,可以为患者和医疗服务系统带来重大好处。类似地,建议设计的自动滴水架患者跟随机器人可以提供更方便的工具,方便患者在医院移动期间的移动和支撑。

目前,患者需要手动拉动滴滴立体,以容纳其动作模式。患者通常持有它们侧面的支架,并确保进料管中足够松弛。通过研究各种概念以更好地设计患者互动系统,本文提出了一种机器人系统的新颖设计。该系统可以自主地从后面遵循患者,并确保滴水支架和患者之间存在适当的距离,用于输液管中的给定允许松弛。在所提出的设计中,我们将标准的离上RGB相机包括为传感器处理单元的一部分。我们将传感器靠近地面,以便通过约束视角来更好地保护患者的隐私。基于深度感测的附加感测模态仅用于通过RGB相机获得的计算模型进行性能比较研究。患者的常规医院服装与人工标志纠正,用于稳健距离估计,从而实现了易于医院部署。

自主滴水架的整体性能要求与机器人之后的人员类似。我们设计了目标跟踪和运动计划,以维持机器人和目标之间的允许距离。我们在输入图像的指定部分中定义和处理了各种功能,我们通过板载相机或深度传感器获得。这些特征可用于确定对象相对于传感器帧及其相关速度的位置。例如,在[5.],基于图像的颜色属性实现目标检测器。他们使用颜色直方图和均值移位跟踪器来寻找与在初始帧定义的存储模板局部相似的区域。[中的跟踪算法6.]通过空间颜色特征提高了经典平均转变,以定义新的相似度量。Bhattacharya系数用于计算先前选择的目标和潜在目标之间的相似性。用于跟踪对象的另一种方法是通过使用RGB-D传感器与其他感测模式相结合,例如激光和热敏。RGB-D传感器在实时数据流中捕获RGB图像以及每个像素深度信息,以帮助参加场景分段和检测[7.].在[8.]基于激光传感器、热传感器和深度传感器,将腿部和背心检测与热传感相结合。在这里,激光传感器可以定位移动的水滴以提取腿部的位置。同时,RGB-D图像用于在作战任务期间和通过背心检测跟踪目标并估计目标的位置。

我们的论文组织如下。部分2.介绍了我们使用的视觉跟踪方法的基础知识。第3节摘要介绍了液滴-立式病人跟随机器人的增强型轨迹控制器。部分4.最后对基于摄像头的患者跟随机器人进行了详细的实验评价和比较5.呈现一些结论备忘录。

2.视觉跟踪

通过对机载RGB摄像机获取的视频图像进行处理,实现对患者的跟踪。我们还探索了其他传感方式,如深度传感,并将结果与通过RGB相机获得的跟踪信息进行了比较。首先,我们专注于利用我们通过这些标准的RGB相机获得的图像。这些摄像机的尺寸小,成本低,便于与病人跟踪机器人的最终设计集成。这些摄像头的放置对于保护病人的隐私也至关重要。我们还发现,在医院环境中,任何视频图像的处理都面临着与颜色分布一致相关的进一步挑战。身穿医院服装的病人的周围背景和前景图像的颜色分布都是一致的。数字1.显示典型医院环境的示例。

2.1. 人工标记的设计

对于建议的患者跟踪机器人,我们选择了一个已知大小和颜色的人工标记。我们把这个地标放在医院给病人穿的衣服上。之前,我们在外科环境中跟踪工具时采用了类似的视觉跟踪方法[9].我们指定占据公共区域的每位患者的颜色识别补丁。可以分配滴水机器机器人以遵循与特定患者相关联的分配颜色。数字2.显示了一个图像处理结果示例,其中系统可以识别红色色块并进一步确定其宽度。针孔相机模型可以使用这些信息来估计标记到机器人的距离。图中黄色标记的出现展示了一个示例,我们调整了算法,只分割指定的红色[10].

给定标记点的分割图像和它在投影平面上的宽度的相关估计,现在可以估计标记点到机器人的距离。我们用相似三角形的几何来计算距离。例如,针孔相机的几何形状如图所示3(a). 通过图中所示的类似三角形3(b),我们可以确定沿 轴。捕获的图像平面位于距离F从原点向负方向移动。相机光圈位于 位于连接到患者的物理标记上的点,测量距离为 观点Q是在图像平面上的标记的分段图像的投影,测量距离 实际图像与投影图像之间的相似关系可以表示为 在哪里F为相机的焦距,可通过各种标定方法得到。对于本文的实验设置,确定了校准参数为 相机的自动对焦功能已关闭,以确保计算更准确。我们进一步校准,将物理大小与像素大小关联起来。上述关系用于计算标记在图形中的距离大小 投影平面上。我们得到了一个相似的关系 平面,其结果是确定代表点的坐标 关于相机框架。

在这项研究中,我们考虑将标记物放置在患者身上的两个主要类别,这取决于他们可能穿的衣服类型。第一类适用于患者未穿特殊服装或穿着医院裤子或袜子的情况。数字4(一)4 (c))描述此类别的示例图像。对于这三种情况,我们都使用了已知大小的彩色标记条。标记物附着的第二类适用于患者穿着医院长袍的情况。与第一类不同,附着标记的形状可能会发生较大变形。图形4(d)显示在患者的礼服上附着这种类型的标记的一个例子。

2.2。刚性目标识别的初始化

标记检测和跟踪算法研究了在初始定义的感兴趣区域内的目标的模板匹配和颜色直方图的利用。ROI对应于病人的初始状态,点滴站机器人控制器需要使用该状态来启动跟踪阶段。为第一类标记设计及其放置(图)4(一)4 (c)),根据第一个分割标记的大小定义ROI的初始化。我们通过实验确定模板区域略大于标记区域。较大尺寸可减轻腿部初始位置及其运动造成的冲击。机器人还启动围绕其轴的自旋转校准策略,使最初检测到的标记更靠近框架中心。这将导致标记的中心位于所需范围内。然后,机器人可以根据患者的位置自动导航。

2.2.1。模板匹配

在当前帧上确定ROI方向的最直接方法是对应初始帧中定义的模板定义。有许多方法可以执行模板匹配[10].在这里,我们选择了基于相关系数的方法,我们定义为

表示模板之间的相似性(T)和图像中所选补丁().通常,也可以通过其他方法定义相似度测量,例如平方差异,标准化的平方差,互相关和其归一化版本,其计算广泛允许范围内的数字,例如, 但是,发现确定这些匹配算法的可靠性有挑战性。另一方面,基于相关系数的方法在标称实际范围内提供相似性度量,即, ,这可以在决策过程的上下文中很容易地实现。

由于患者的运动,我们预计标记物的大小也会发生变化。我们定义了一种保持ROI内标记物比率一致的关系。例如,当患者离开机器人时,标记会比最初捕获的模板小。在这种情况下,对于大小一致的模板,ROI中的匹配区域将包括一些周围的背景。结果,即使匹配的ROI包含标记,它也不在可用于进一步处理的合适区域内。为了提高准确度,我们通过实验确定将模板大小减少10%,这将导致相似度匹配度量大于0.5。图形5.显示所提出的模板匹配算法的整体流程图。

2.2.2。Bhattacharyya距离

类似于模板匹配算法,Bhattacharyya距离评估了两个所选图像补丁之间的差异。颜色直方图是一种耗时的方法,用于实时跟踪目标,其也可以覆盖整个框架(特别是当帧的尺寸和模板很大)。在这项工作中,我们使用了与Bhattacharyya距离计算结合的平均移位算法。对于每个颜色直方图,颜色系数的数量和范围必须等同于给定相同尺寸的图像。与平均换档调整结合的Bhattacharyya距离计算的流程图如图所示6(一).该流程图总结了在均值移位算法选择的区域内的单个像素上的操作。对于每个区域,参照不同大小的目标模型,总共计算多次Bhattacharyya距离(情况3)。这一步是必要的,因为这是选择目标模型大小的准备工作,目标模型的颜色直方图与当前帧的感兴趣区域之间有显著的相似性。

2.2.3。关于模板匹配和直方图比较的决策

模板匹配和颜色直方图比较是用于基于初始状态定义的区域估计ROI的两种算法。两种方法都具有一些优缺点,可以作为决策策略的一部分。所提出的模板匹配算法允许通过使用相似度量分析其有效性来估计整个帧中的ROI。模板匹配是像素到像素的比较,它具有良好的性能来识别刚性目标。虽然ROI是在包含与人工标记的设计相关的最常见信息的补丁上定义的,但ROI内的信息仍然可以失真,导致非重力ROI。我们还实现了一种颜色直方图比较。比较是正确的方法,因为它增加了模板匹配的可靠性。由于颜色直方图的计算及时是指数级的,因此我们还应用了平均移位算法来估计当前帧的定位ROI的概率。我们认为与整个框架相比,ROI的位移并不大。数字6 (b)总结了拟议的决策过程。

2.2.4。跟踪可变形标记

前一节介绍了一种在不穿医院礼服的患者上跟踪人工标记的算法。连接到可变形物体的跟踪标记,例如医院礼服在设计视觉跟踪算法时介绍了额外的复杂性。与第一类标记放置相比,这里,目标模型更可变形(图4(d)).我们无法使用这样的标记作为基于针孔摄像机模型的有效距离估计。我们向图中的标记显示了我们的设计4(d)作为具有一系列红色网格的条带。该条带允许增加检测有效标记的概率,这可以被识别并用作刚性的标记。使用类似的策略如以前,所有红色标记网格,其中心点在当前时间帧的ROI内出现的所有红色标记网格被分段。进一步分析和搜索分段图像,以便识别具有相对不变的形状的单个网格,其可用于进一步跟踪。在我们的情况下,对于不变的形状,宽度与高度的比率是( ).类似于我们之前的分析,分段网格通过可旋转的边界盒粘合在一起。这里的高度是左上角和左下角之间的距离,长度是左上角和右上角之间的距离。

数字7.显示未经ROI初始化的检测标记的示例。数字7(一)显示一些检测到的标记周围的边界区域。图形7(b)显示分段标记的阈值图像。我们标记了这些网格上的估计轮廓。只要分段区域足够大即可被识别为网格,我们通过绿色边界识别并标记为它。然后,跟踪算法分析所有识别的绿色边界区域以计算和将其与参考标记的相似度进行排序。图中的蓝色边界区域是所选择的参考标记的示例,我们用于进一步距离计算。

对于一些极端变形的案例来说,确定礼服和相机之间的准确距离是一项挑战。例如,图中左边的三个网格8.最可能有相似的深度信息,比右四格距相机更远。当两个网格重叠时,它们将被合并并视为单个网格(黄色边框)。

当病人不穿病号服时,我们不能放置标记物。在这里,机器人的导航命令依赖于分割标记相对于机器人的位置。例如,在初始帧,选择一个ROI。我们得到当前帧的感兴趣区域的位置和标记点的运动情况,然后估计患者相对于机器人的运动方向。由于应用于病号服上的标记具有独特的模式结构,与第一类相关的导航命令不能直接应用于上述第二类,因为标记由几个分段网格组成。在那里,我们的目的是识别病号服,以作出更准确的检测。当标记点的位置在相机的视场内时,复杂性就出现了。通常情况下,医院病人的长袍是蓝色或白色的,这是非常接近医院环境的整体颜色。这里的目标是通过模板匹配对定义的ROI内的所有网格进行分割。我们用质心沿帧缓冲区方向最小的网格和质心最大的网格的平均坐标值来表示患者的当前位置。 This information is further used by the trajectory controller of the robot. For example, Figure9(a)黑色表示ROI的整体包围框,包含所有分割的网格。标记为栅格2的蓝色框是网格,它被分配为基于针孔相机模型的距离估计的参考网格。然后,病人的体位被指定为的平均值x我们确定为网格1和网格3的两个网格的值(图9(b)).

3.轨迹跟踪控制

前几节重点介绍了作为患者定位图像处理一部分使用的一些关键组件。本节介绍了机器人导航算法,该算法可根据检测到的标记位置信息跟踪患者。

设一个标记点相对于机器人的代表性位置信息定义为 (为方便起见,该坐标帧在相机的图像平面中定义)。这里, 是分割标记在图像缓冲区中的估计位置及其位置Z通过针孔相机模型获得坐标。图形10展示了一个跟踪信息的例子,这是我们为一个佩戴足带的病人获得的。

在提出的机器人轨迹控制中,标记的图像保持在当前帧的中心附近。在任何连续帧中,角度偏差θ与机器人的直线距离变化∆D可计算(图10 (b)).然后我们将这些增量变化映射到车轮的角速度上。

梯形速度剖面是大多数工业机器人应用程序所利用的实用剖面之一[1113]. 剖面可分为三段,分别对应于加速、恒速和减速阶段。为了达到所需的位置,机器人首先加速,然后保持恒定的速度,最后减速以达到增量目标。例如,轮廓下的面积是机器人的总位移,与标记当前位置定义的线性偏差有关。此配置文件的一个关键优点是,我们可以为滴水架患者跟随机器人调整它。例如,我们可以将其调整为平滑的加速和减速阶段,以避免滴水架的倾斜动作(图11).

我们提出了一种机器人控制器的设计,用于确定机器人何时跟随线性平移或旋转运动。一般来说,对于梯形轮廓的给定定义和患者运动的增量变化,控制器处于轨迹的加速或减速阶段,但未达到恒定速度阶段。为了缓解这种情况,我们为机器人的线性和角度运动提出了一种改进的轨迹轮廓(图12). 例如,平移速度剖面定义为 在哪里D是患者相对于机器人的期望增量距离(图10 (b)).类似的描述可以定义为角速度剖面如图所示12(b). 例如,在我们的研究中对轮廓的描述中,x为标记点在图像帧中的期望水平位移,根据相机的特性和中心像素位置确定320为偏置值。

4.实验评估

我们在实验室环境中进行了一系列的实验来检验本文提出的概念的证明。环境布局由三条相连的走廊组成,主体可以在走廊上行走。为了模拟一个典型的环境,我们在该区域放置了标准家具。我们当时只使用了一个对象,也就是说,在视场中看不到其他对象。实验装置由配备RGB相机和深度传感器的移动平台组成。摄像头和深度传感器都安装在离地面更近的机器人上。在实验环境中还放置了摄像机,可以俯瞰并记录实验过程。我们录制了一段外部视频,展示了监控区域内机器人和患者的整体动作。我们使用深度传感器作为腋窝传感方式,比较和验证通过RGB传感器计算的距离,在没有任何地面真相。我们通过一个中央服务器将机器人连接到一个无线网络。 The central server is in the laboratory environment, which minimizes any delay in communication. We transmitted onboard information from the RGB camera and the depth sensors from the robot to the local host computer. We computed the required patient localization, and the desired robot movements based on the trajectory profiles are transmitted back to the robot.

我们进行了三组实验,如下节所述,实验对象穿着(a)隐形的医院服装;(b)医院的裤子;(c)医院袜子;(d)病号服。由于患者穿医院袜的结果与第一个案例相似,我们在这里不展示相关的实验结果。实验中,被试首先走到机器人前面,启动跟踪。机器人的病人跟随动作通过前面描述的图像处理和轨迹控制轮廓来完成。图中定义的最大值和最小值12根据患者的预期速度手动修改。

4.1。滴滴涕患者跟随机器人的第一类医院服装

对于第一类,当患者佩戴标记带、医院裤子或医院袜子时(如图所示)4(一)4 (c)),滴立从动机器人也有类似的性能。在这里,我们提出了一个典型的结果,当患者没有穿医院服(带标记带)和医院裤子。

数字13显示跟踪算法的初始化。在踝关节上方佩戴标记带的患者站在机器人前面,并保持一定距离(如图)(13日)).对标记进行分割,计算其到机器人的距离(图)13 (b)).数字13 (c)显示通过飞行时间深度传感器获得的深度图的分割点云。我们使用这种辅助测量方法来测量患者到机器人的距离,以便与通过针孔摄像机模型获得的距离进行比较。

数字14显示实验研究的样本框架。如图所示,图中显示了患者和机器人在测试区域移动的图像、分割标记和相关的深度图。

为了验证使用针孔相机模型的距离估计算法的准确性,我们将结果与通过深度传感器获得的实际距离测量结果进行了比较。我们在图1的曲线图中显示了这两个数据集15.我们发现两种方法都有相似和一致的测量值。例如,假设深度传感器测量的数据是精确的,那么针孔相机模型就可以正确地测量深度信息。大多数表示测量误差的点都在这个范围内聚集 (图15(b)).从收集的数据中,我们发现与针孔相机模型相比,当机器人移动时,深度测量对轻微距离变化更敏感。然而,当机器人没有线性或角度调节时(即,观察场景中的照明条件的变化),所测量的和计算的数据围绕理想距离更稳定。这两种方法之间的最大差异(如图中所示为红色点)为2.4厘米。

数字15(a)显示人佩戴标记带和针孔相机模型和深度传感器测量的情况下机器人与患者之间的距离估计结果。我们将机器人与患者的预期距离设置为40厘米。最大误差发生在机器人对角位移进行补偿时。在该实验中,我们还验证了我们可以通过调整轨迹轮廓中定义的机器人最大和最小速度来补偿,当患者以更高的速度行走时。

我们进一步评估了机器人的性能。我们从机器人的运动命令和受试者的估计位置计算了一组轨迹。我们可以从图中的情节中看到16总的来说,机器人准确跟随人。但是,当机器人接收到进行角度调整的命令时,它并不总是留在主题后面。机器人在人们开始沿着它的路径转动时开始旋转。绘图中的绿点显示了发生这种角度调整的位置。两个红点指示沿轨迹的位置,其中图像传输中存在意外延迟。延迟是由连接的速度或长图像处理时间引起的。具体而言,对于该实例,当人员开始转弯时,程序的图像缓冲器可以是后面的一帧。因此,机器人将在短时间内前进(〜0.125秒)。但是,我们发现,一旦处理时间小于0.125秒,我们就可以恢复这种延迟。我们通过下一个帧调整来补偿,其中位置偏差发生,从蓝点开始。 The robot trajectory deviates from the person trajectory due to the tolerance of the angular deviation.

数字17显示主题戴医院裤时跟踪算法的初始化。患者在远处站在机器人面前(图17(a)).对附着在医院喘气上的标记进行分割,计算标记到机器人的距离(图)17(b)).数字17 (c)显示通过飞行时间深度传感器获得的深度图的分割点云。我们使用这个辅助测量与通过针孔相机模型获得的距离进行比较。

数字18显示在测试区域中移动的主题的样本帧。类似于前一个图,它显示了患者的图像和在测试区域,分段标记和相关深度图中移动的机器人。

数字19显示了在人穿医院裤子的情况下机器人与人之间的距离估计结果。我们将机器人与患者的预期距离设置为40厘米。最大误差发生在机器人对角位移进行补偿时。在这个实验中,我们还研究了如何通过调整机器人在轨迹剖面中定义的最大和最小速度来补偿病人更快的行走速度。此外,在某些情况下,由于腿部的步态模式,裤子会起皱,这可能会导致两种标记检测方法之间的不一致。在这些情况下,检测到的标记不接近矩形形状。因此,被检测到的区域将比实际制造者更大。在整个跟踪过程中,这种情况发生了很多次。

数字20.显示从起点到患者通过门离开实验室时的整体运动轨迹。在这里,我们可以看到机器人令人满意地执行它的任务。两个红色标记表示图像传输出现延迟的时间。在同一图中,蓝色标记表示患者与图像中心部分的角度偏差在可接受范围内的情况。

4.2.医院第二类服装滴立式病人跟随机器人的性能

当患者站在机器人面前时,初始化过程被触发。作为初始化的一部分,还定义了机器人与患者之间的计算距离(图21).在每一帧,我们通过参考代表患者实际位置的两个侧网格来估计患者的位置。

我们在图中展示了对不同样本帧的图像处理结果22.对于医院礼服,使用冗余标记网格获得了更好地估计了机器人。

总的来说,我们发现距离测量的性能与图中所示的其他类别标记一致4..但是,我们可以期望距离误差是所有其他类型的标记中最大的。深度图像处理检索套礼服上分段轮廓上的像素距离的平均值,这大约是由图中所示的绿点突出显示的位置23.RGB图像处理只选择不受织物起皱影响而变形的网格。在这种情况下,参考网格可以是离相机最近的,也可以是离相机最远的。在这两种情况下,结果都与深度传感器测量的结果不一致。在图23,两种测量方法之间的差异是由 ,我们称为基于针孔摄像机模型的方法的测量误差。

数字(24日)显示医院礼服案例的Drip-Stand患者扣轮机器人的整体性能结果。与其他三种情况相比,我们观察到距离小于所需值的频率更高,并且最大测量误差也是最大的。这种偏差通​​常发生在患者转弯时发生,并且机器人将移动过于患者,然后移回以增加距离。此外,不同的步态图案可以改变礼服的形状。在这种情况下,首先选择的网格作为针孔摄像机模型的参考网格相对处于所有分段网格中的最远距离(例如,参见图中的样品框架118).因此,机器人控制器继续为机器人设置参考命令,即使它离病人太近。当网格更接近相机作为参考网格时,我们观察到最差的性能。机器人控制器现在为机器人定义一个新的参考设定点来增加它的距离。

数字25显示了这种情况下滴水架患者跟随机器人的整体性能。

5.结论

本文提出了一种输液支架病人跟踪机器人的设计。该设计包括一个移动平台,该平台上有一个连接的支撑杆,用于支撑静脉注射药物。在我们的设计中,我们整合了一个标准的RGB相机,位于接近地面的水平。由于视野的限制和输液架的邻近,我们可以进一步保护病人的隐私。通过对放置在医院服装上的人工标记物进行视觉处理,获得跟踪信息。提出了在不同类型的医院服装上放置这种位置的各种设计,并对滴管式病人跟踪机器人的性能进行了实验评估。为避免病人跟随机器人的倾翻行为,提出了一种改进的移动平台轨迹轮廓。这种增强限制了速度命令和相关的最大加速度和减速幅度。

提出的新设计允许机器人从后面跟随病人。机器人总是与病人保持指定的距离,这是由静脉药物管引入的允许松弛定义的。我们还可以修改设计,让机器人从侧面跟随病人。其他研究人员提出了类似的设计目标。例如,[14通过仅将连接到机器人的系绳拉动患者跟随患者之后的机器人。据我们所知,我们的拟议设计是其类型之一,我们可以进一步加强探索其广泛普遍的验收。

数据可用性

可根据要求提供实验评估期间产生并用于当前研究的数据。

的利益冲突

作者声明他们没有任何利益冲突。

参考文献

  1. M.纳吉布和M.法赫米,《人跟随机器人的技术研究》,国际计算机应用杂志,第125卷,第5期13, pp. 27-30, 2015。视图:出版商的网站|谷歌学者
  2. B. X. Chen,R. Sahdev和J. Tsotsos,在机器人使用选定的在线ADA-Boosting与立体声相机,“第14届计算机和机器人愿景会议的诉讼程序,pp.48-55,加拿大埃德蒙顿,2017年5月。视图:出版商的网站|谷歌学者
  3. B伊利亚斯,S。A.阿卜杜勒·舒科尔,S。雅科布,A。H阿多姆和M。HMohd Razali,“带高速kinect传感器的护士跟踪机器人,”工程与应用科学学报,第9卷,第5期。12, pp. 2454-2459, 2014。视图:谷歌学者
  4. Aethon automation intrallogistics, TUG智能自主移动机器人,2020,http://www.aethon.com/tug
  5. B. D. Lucas和T. Kanade,“一种迭代图像配准技术在立体视觉中的应用”第七届国际人工智能联席会议的诉讼程序,第二卷,第674-679页,加拿大温哥华,1981年。视图:谷歌学者
  6. L沈,X。黄,Y。严和S。Bai,“一种改进的具有空间颜色特征和新相似性度量的均值漂移跟踪算法”,年IEEE多媒体技术国际会议论文集,页184-188,中国杭州,2011年7月。视图:出版商的网站|谷歌学者
  7. L. Susperregi,J.M.Martínez-otzeta,A.Ansuategui,A.Ibarguren和B. Sierra,“RGB-D,激光和热传感器融合在移动机器人中的人员”,“国际先进机器人系统杂志,卷。10,不。6,p。2013年9日。视图:出版商的网站|谷歌学者
  8. W. Choi, C. Pantofaru,和S. Savarese,“通过多探测器融合使用RGB-D摄像机检测和跟踪人”IEEE计算机视觉研讨会国际会议记录,pp.1076-1083,巴塞罗那,西班牙,2011年11月。视图:出版商的网站|谷歌学者
  9. S. Payandeh,常规微创手术中的视觉跟踪, CRC出版社,博卡拉顿,美国,2016。
  10. S. Tanimoto,图像处理的跨学科介绍,麻省理工学院新闻,剑桥,马,美国,2012年。
  11. 三南运动控制,2020,https://www.trinamic.com/fileadmin/assets/Support/Appnotes/AN013Motion_control_profile_parametrization.pdf
  12. 帕克运动控制,2020,https://www.parkermotion.com/manuals/a-ax/AX_Chp4p1.pdf
  13. 美国宝德公司运动产品,http://www.multiprojekt.pl/ftp/abb_serwonapedy/archiwum%20baldor/application_note/an00118-000_motion_profiles_en.pdf.
  14. G.NENO,B. Allan,Y.Lemura等,“移动跟随机器人作为家用氧气治疗评估系列控制算法的辅助装置”ROBOMECH杂志,第二卷,第1期,2015年。视图:出版商的网站|谷歌学者

版权所有©2020 Zewen Wu和Shahram Payandeh。这是分布下的开放式访问文章知识共享署名许可协议,允许在任何媒介上不受限制地使用、传播和复制,但必须正确引用原作。


更多相关文章

263 意见 | 239 下载 | 0 引用
PDF 下载引用 引用
下载其他格式更多
订购印刷品命令

相关文章

我们致力于尽快、安全地分享与COVID-19有关的调查结果。任何提交COVID-19论文的作者应通过以下方式通知我们help@hindawi.com为确保他们的研究快速跟踪并尽快在预印刷服务器上提供。我们将为与Covid-19相关的接受文章提供无限的出版费豁免。在这里注册作为审阅者,帮助快速跟踪新提交的内容。