机器人杂志 1687 - 9619 1687 - 9600 Hindawi 10.1155 / 2020/9080642 9080642 研究文章 向Drip-Stand病人追随者机器人的设计 Zewen https://orcid.org/0000 - 0001 - 6846 - 7289 Payandeh Shahram Pennock 戈登·R。 网络机器人技术和遥感实验室 工程科学学院 西蒙弗雷泽大学 本拿比 不列颠哥伦比亚省V5A 1 s6 加拿大 sfu.ca 2020年 9 3 2020年 2020年 16 10 2019年 29日 01 2020年 03 02 2020年 9 3 2020年 2020年 版权©2020吴Zewen Shahram Payandeh。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

一个人后,机器人是一个应用程序的服务机器人,主要着重于人机交互,例如,在安全和卫生保健。本文探讨的一些设计和开发挑战病人追随者机器人。我们的动力源于共同流动挑战与病人坚持和医疗滴站。与其他设计人机器人后,提出的设计目标需要保护病人隐私和业务挑战在医院环境。我们放置一个相机接近地面,这会导致一个狭窄的视野来保护病人隐私。通过一个独特的设计的人工标记放置在不同医院的衣服,我们展示了视觉跟踪算法如何确定病人的空间位置对机器人。机器人控制算法实现三个部分:(一)患者检测;(b)距离估计;和(c)轨迹控制器。患者检测,该算法利用两个互补的目标探测的工具,也就是说,模板匹配和颜色直方图的比较。 We applied a pinhole camera model for the estimation of distance from the robot to the patient. We proposed a novel movement trajectory planner to maintain the dynamic tipping stability of the robot by adjusting the peak acceleration. The paper further demonstrates the practicality of the proposed design through several experimental case studies.

1。介绍

一个常见类型的服务机器人是一个人的机器人后,已发现应用程序在多个领域如安全性、监测、和老人监控( 1, 2]。护士后,机器人可以有效地减少护士的工作量和医疗输送系统( 3]。自主移动机器人的设计和开发运输和交通医院供应和提高医院的效率提出了在 4]。护士可能会花30%的时间远离病人参与任务,如抓取各种药物或报告。使用机器人来执行这些任务,从而减少或消除,可以为病人和健康有重大利益输送系统。同样,提出设计一个自治drip-stand病人追随者机器人可以提供更便捷的工具,方便病人流动和支持在他们的运动在医院。

目前,患者需要手动拉滴站来容纳它连同他们的运动模式。病人通常是站在他们一边,确保有足够的松弛鼻饲管。通过研究各种观念更好的病人交互系统的设计,本文提出了一种新颖的机器人系统的设计。系统可以自动按照病人从后面并确保存在一个适当的滴站间距离和患者对于一个给定的容许注入管松弛。在提议的设计中,我们包含了一个标准的,现成的RGB摄像头作为传感器处理单元的一部分。我们把传感器接近地面,以更好地保护患者的隐私通过约束视角。额外的传感方式只使用基于深度传感性能比较研究与计算模型通过RGB相机。医院病人的常规服装是健壮的距离估计具有人工标记的纠正,从而使医院容易部署。

一个自治的总体性能要求滴站后类似于人的机器人。我们设计了目标跟踪和运动计划维护一个容许机器人和目标之间的距离。我们定义和处理各种功能在指定的输入图像的一部分,我们通过机载相机或深度传感器。这些特性可以用来确定物体的位置对传感器坐标系及其相关的速度。例如,在[ 5),一个目标检测器实现基于图像的色彩属性。他们用颜色直方图和均值漂移跟踪找到本地的区域类似于存储模板定义初始框架。在提出的跟踪算法 6)提高了经典均值漂移与spatial-colour特性来定义一个新的相似性度量。Bhattacharyya系数是用来计算相似性前面选择的目标和潜在目标。跟踪对象的使用另一种方法是使用一个RGB-D传感器结合其他传感激光和热传感等形式。RGB-D传感器捕捉RGB图像和单像素深度信息的实时数据流,以协助场景分割和检测( 7]。介绍的人跟踪系统( 8)是基于激光传感器,温度传感器,一个深度传感器结合腿和背心与热传感检测。这里,激光传感器可以本地化blob提取腿的位置移动。同时,RGB-D图像是用来跟踪目标和目标的位置估计和通过背心检测操作任务。

我们组织了摘要如下。部分 2礼物我们利用的视觉跟踪方法的基础知识。 第三节概述了提高轨迹控制器drip-stand病人追随者机器人。部分 4提出了一种基于摄像头的详细实验评价和比较病人追随者机器人,最后一节 5提出了一些结论。

2。视觉跟踪

跟踪病人通过从船上获得处理视频图像RGB相机。我们也探讨其他传感模式,如深度传感、和我们相比结果跟踪信息通过RGB相机。主要是,我们专注于利用图像通过这些标准RGB相机。这些相机的小尺寸和低成本允许轻松集成的最终设计drip-stand病人追随者机器人。这些相机的位置也基本在保护病人的隐私。我们还发现,视频图像的处理面临着进一步的挑战与存在的统一颜色分布在医院环境。周围的背景和前景图像包含病人穿着医院有统一的颜色分布。图 1显示了典型的医院环境的例子。

两个典型的视图从医院环境,展示颜色均匀性的存在。

2.1。设计人工标记

对病人提出的机器人后,我们选择一个人工标记与已知的大小和颜色。我们把这个具有里程碑意义的医院对病人的衣服。以前,我们遵循了类似的手术环境中视觉跟踪方法跟踪工具( 9]。我们指定为每个病人占据一块颜色识别共同的地方。drip-stand机器人只能分配遵循指定的颜色与特定的病人。图 2图像处理结果的显示了一个示例,系统可以识别红色补丁,进一步确定它的宽度。针孔相机模型可以使用这些信息估计的距离标记的机器人。黄色标记的存在图演示了一个示例,我们调整了分配算法只段红色( 10]。

结果图像处理识别一个红色标记和其在投影图像的宽度。处理可以调整为每个病人识别不同的颜色标识。(一)输入样本图像包含两个不同的颜色。(b)分割的红色和进一步的阈值。(c)边缘检测的图像分割。(d)计算投影图像的宽度,可以进一步使用针孔摄像机模型。

给定的分割图像标记和相关评估它的宽度在投影平面上,现在可以估算机器人标志的距离。我们使用相似三角形的几何计算的距离。例如,针孔相机的几何图所示 3(一个)。通过相似三角形如图 3 (b),我们可以确定沿的距离 x 3 轴。捕获的图像平面位于距离 f从原点负方向。相机光圈位于 x 1 , x 2 , x 3 。让 P 是一个点位于一个物理标记附着在病人测量的距离 x 1 2 + x 2 2 。点在分割图像的投影屏上的标记与测量距离的 y 1 2 + y 2 2 。实际的图像之间的相似关系和投影图像可以写成 (1) y 1 y 2 = f x 3 x 1 x 2 , 在哪里 f是相机的焦距,可以通过各种校准方法。本文的实验装置,校准参数决定 f = 15.42 。相机的自动对焦功能被关闭,以确保更好的计算精度。我们进一步校准将像素大小的物理尺寸。上面的关系是用于计算距离的大小的标志 x 2 , x 3 投影平面上。我们得到一个类似的三角关系 x 1 , x 3 平面,从而确定代表点的坐标 P 对摄像机坐标系。

(一)针孔相机模型表示和(b)一个关联的投影平面显示相似三角形。

在这项研究中,我们正在考虑两个主要类别标记的位置的病人,这是依赖于类型的衣服穿。第一类是病人的情况是没有穿特殊的衣服或当他们穿着医院的裤子或袜子。数据 4(一)- - - - - - 4 (c))描述这一类的示例图像。为所有三个案例中,我们使用一个已知大小的彩色标记。第二类为标记附件医院当病人穿着礼服。不同于第一类,附加标志的形状可以进行大变形。图 4 (d)显示了一个示例附件的这种类型的标记在病人的礼服。

人工彩色标记的附件第一和第二医院类别的服装。(一)医院病人情况不穿衣服。(b)当穿医院的裤子。(c)时穿医院的袜子。(d)当礼服穿医院。

2.2。初始化刚性目标识别

标记检测和跟踪算法探讨了利用模板匹配和颜色直方图中对象的最初定义感兴趣的区域(ROI)。ROI对应于病人的初始状态,这滴站机器人控制器需要使用启动跟踪阶段。第一节课的标志设计和它的位置(数字 4(一)- - - - - - 4 (c)),初始化定义ROI的大小取决于第一个分段标记。我们定义模板的区域通过我们的实验要比标记。大减轻影响引起的初始位置的腿,他们的动作。机器人还发起一个self-rotational校准策略对其轴的最初检测标记接近中心的框架。这导致的中心标记所需的范围内。机器人可以self-navigate后病人的位置。

2.2.1。模板匹配

东方ROI的最直接的方式在当前帧是由相应的定义一个模板中定义的初始框架。存在大量的方法用于执行模板匹配( 10]。在这里,我们选择了基于相关系数的方法,我们已经定义为 (2) R x , y = x , y T x , y x + x , y + y , 在哪里 T x , y = T x , y 1 / w h x , y T x , y x + x , y + y = x + x , y + y 1 / w h x , y x + x , y + y

R x , y 表示模板(之间的相似性 T)和图像中选择补丁()。在一般情况下,也可以通过其他方法定义的相似性度量方法,如广场不同,规范化平方差异,互相关,及其归一化版本,计算一个数字在广泛的容许范围内,例如, R x , y 0 , + 。然而,它被发现是一个挑战来确定这些匹配算法的可靠性。另一方面,基于相关系数的方法提供了一种相似性测量在一个名义上的实用范围,也就是说, R x , y 0 1 上下文中,可以容易实现的决策过程。

由于病人的运动,我们预期的大小标记也可以改变。我们定义了一个关系,维护ROI内的标志的比例一致。例如,当病人远离机器人,捕获的标记会小于初始模板。在这种情况下,对于一个一直大小的模板,匹配区域ROI内将包括周围的一些背景。结果,即使匹配的ROI包含标记,它不是在合适的区域,可以用于进一步的处理。提高准确性,我们实验确定模板的大小减少10%从而导致大于0.5的相似匹配测度。图 5显示了提出的总体流程图模板匹配算法。

修改后的模板匹配算法的流程图。

2.2.2。Bhattacharyya距离

类似于模板匹配算法,Bhattacharyya距离评估两者的区别选择图像补丁。颜色直方图的一代将是一个耗时的过程的实时跟踪目标,也可能覆盖整个帧的大小(特别是大框架和模板)。在这项工作中,我们采用均值漂移算法结合Bhattacharyya距离计算。对于每个颜色直方图,颜色的数量和范围必须等效系数对于一个给定的大小相同的形象。Bhattacharyya距离计算的流程图结合意味着转变调整如图 6(一)。流程图总结操作在一个像素在选择的区域均值漂移算法。对于每个区域,Bhattacharyya距离计算多次(例3)总的来说,指目标模型在不同的大小。这一步是至关重要的,因为它是准备选择目标模型的大小导致显著的相似性目标的颜色直方图模型和当前帧的ROI。

(一)直方图比较算法的流程图应用Bhattacharyya距离和(b)决策考虑模板匹配和直方图比较算法的结果。

2.2.3。决策模板匹配和直方图的比较

模板匹配和颜色直方图估计ROI比较两种算法基于初始状态定义的区域。这两种方法都有一些优点和缺点,从而可以集成作为一个决策策略的一部分。模板匹配的算法允许ROI估计整个框架通过分析其有效性使用相似度度量。模板匹配是一个pixel-to-pixel比较,它具有良好的刚性目标的识别的性能。尽管ROI是定义在补丁包含最一致的信息与人工标志的设计有关,ROI内信息仍然可以被扭曲,导致非刚性的ROI。我们还实现了一个颜色直方图的比较。比较正确的做法,因为它增加了模板匹配的可靠性。因为颜色直方图的计算是指数随着时间的推移,我们也应用均值漂移算法来估计在当前帧的概率定位ROI。我们假定位移ROI的整个框架相比并不大。图 6 (b)总结提出的决策过程。

2.2.4。跟踪变形标志

前一节中介绍的算法跟踪人工标记病人医院不穿礼服。跟踪标记连接到可变形物体如医院礼服设计视觉跟踪算法引入了额外的复杂性。相比于第一节课的标记位置,在这里,目标模型变形(图 4 (d))。我们不能使用这种标志作为一个有效的基于针孔相机模型的距离估计。我们将展示我们的设计标记在图 4 (d)作为一条红色网格序列。这条允许增加检测的概率的一个有效的标记,它可以识别和作为一个刚性。使用类似的策略,所有的红色标记网格中心点出现在当前时间分段ROI。分割的图像进一步分析和搜索以确定单个网格相对不变的形状,可用于进一步跟踪。在我们的例子中,一个不变的形状、宽度,高度的比例是( 5 / 4.6 )。类似于我们之前的分析,划分网格可旋转限位框粘合在一起。这里的高度是左上角和左下角角之间的距离和长度之间的距离左上角和右上角。

7显示了一个示例的检测标记没有初始化的ROI。图 7(一)显示了边界周边地区发现的一些标记。图 7 (b)显示的阈值图像分割标记。我们的估计对这些网格的图像轮廓。只要分割区域足够大,被公认为一个网格,我们识别和标记绿色的边界。绿色标识的跟踪算法分析所有边界区域计算和排名参考标记的相似之处。蓝色的边界区域图中选定的参考标记的一个例子,我们用于进一步的距离计算。

图像处理的结果应用参考选择算法时变形标志。(一)网格识别和选择的网格的结果,我们用蓝色突出显示的边界。(b)阈值的结果。

在某些情况下,极端的可变形性,变得具有挑战性的决定准确的礼服和相机之间的距离。例如,左边三个网格图 8最有可能有类似的深度信息,远离相机比右四个网格。两个网格重叠时,要结合起来,视为一个网格(黄边界框)。

两个网格重叠的情况。

当病人不穿医院的礼服,我们不能标记的地方。这里的机器人导航的指令依赖分割标记的位置对机器人。例如,在初始帧,选择一个ROI。我们获得ROI的位置和标记在当前帧的运动,然后我们估计病人的方向运动的机器人。由于独特的模式结构标记应用于医院的礼服,与第一类相关的导航命令并不直接适用于上述第二类自标记由几种划分网格。我们旨在识别医院礼服做出更准确的检测。复杂性出现时标记的位置是在相机的视野。通常,医院病人礼服是蓝色或白色的色彩,这是非常接近的整体色彩的医院环境。在这里,目标是段内所有网格通过模板匹配定义的ROI。我们使用的平均价值坐标网格的重心沿方向的最小值的帧缓冲和网格的重心有最高价值代表病人的当前位置。 This information is further used by the trajectory controller of the robot. For example, Figure 9(一个)显示了整个边界框所示的ROI黑色其中包含所有分割网格。蓝盒子贴上电网2是分配网格的参考网格距离估计基于针孔相机模型。病人的位置的平均分配 x两个网格的值,我们确定为网格1和网格3(图 9 (b))。

描述水平位移的标记带附加到医院礼服:(a)初始网格整体边界框和(b)标记位置和目标定义。

3所示。控制轨迹后

前面强调的一些关键部件被用作图像处理的一部分病人定位。本节介绍了机器人导航算法后病人的检测位置信息标记。

让代表的位置信息对机器人被定义为标志 P x , P y , P z (为了方便起见,这个坐标系定义在图像平面上的相机)。在这里, P x , P y 估计位置的图像缓冲区及其分段标记 z协调是通过针孔相机模型。图 10显示了一个示例的跟踪信息,我们获得了一个病人戴着脚乐队。

病人的位置对机器人坐标系。(一)投影图像中检测到的位置标记( x - y飞机)。(b)位置的标记 x z飞机。

提出了机器人的轨迹控制,标志的形象维持当前帧的中心。在任何连续帧,角度偏差 θ在线性距离机器人∆和改变 D可以计算(图 10 (b))。然后我们这些增量的变化映射到车轮的角速度。

梯形速度剖面是一个实际的概要,大多数工业类型的机器人应用程序利用( 11- - - - - - 13]。这个概要文件可以分为三个部分对应于加速度,速度恒定,减速阶段。为了达到所需的位置,起初机器人正在加速,然后仍然保持在一个恒定的速度,最后减慢对增量的目标。例如,配置文件下的面积是机器人的总位移,这是有关线性偏差定义为当前位置的标记。这个概要文件的一个关键的优点是我们可以调整它的drip-stand病人追随者机器人。例如,我们可以调整它光滑的加速和减速阶段避免引爆滴站(图的行动 11)。

机器人设计的原型后病人的滴站。

我们提出一个设计一个机器人的控制器来确定机器人时遵循线性平移或旋转动作。一般来说,对于一个给定的定义梯形剖面和增量的变化运动的病人,控制器是在加速或减速阶段的轨迹没有达到恒定速度阶段。缓解这个问题,我们提出了一个修正的线性和角运动轨迹剖面机器人(图 12)。例如,定义为平移速度剖面 (3) v = v 马克斯 , z d + e 1 , v 最小值 + v 马克斯 v 最小值 e 1 e 0 z e 0 + d , d + e 0 z < d + e 1 , 0 , d e 0 < z < d + e 0 , v 最小值 + v 马克斯 v 最小值 e 1 e 0 z d e 0 , d e 1 < z d e 0 , v 马克斯 , z d e 1 , 在哪里 d是病人的预期增量距离对机器人(图 10 (b))。类似的描述可以为角速度概要文件定义如图 12 (b)。例如,在概要的描述在我们的研究中, x是所需的水平位移的标记图像帧,和320年确定为偏置值基于相机的属性和中央像素位置。

的修改速度剖面drip-stand病人后机器人。(一)线性平移速度剖面。(b)角速度概要文件。

4所示。实验评价

我们进行了一系列的实验在实验室环境中检查概念在本文提出的证据。环境布局包括三个连接走廊,受试者可以走的地方。模拟一个典型的环境中,我们把标准的家具。我们使用一个主题,即。,no additional subject was visible in the field of view. The experimental setup consists of a mobile platform equipped with an RGB camera and a depth sensor. Both the camera and the depth sensors are mounted on the robot closer to the ground level. There is also a camera placed in the experimental environment overlooking and recording the experiments. We recorded an external video to show the overall movements of the robot and the patient in the monitoring area. We used a depth sensor as an axillary sensing modality to compare and verify the distance computed through an RGB sensor, in the absence of any ground truth. We connected the robot to a wireless network through a central server. The central server is in the laboratory environment, which minimizes any delay in communication. We transmitted onboard information from the RGB camera and the depth sensors from the robot to the local host computer. We computed the required patient localization, and the desired robot movements based on the trajectory profiles are transmitted back to the robot.

我们进行了三组实验,我们在下一节中描述的主题穿着(a)掉看不到医院;(b)医院的裤子;(c)医院袜子;和(d)医院长袍。由于医院病人穿袜子的结果类似于第一种情况,我们这里不会显示相关的实验结果。受试者在实验中首次介入前的机器人启动跟踪。病人在行动之前所描述的机器人是通过图像处理和轨迹控制配置文件。在图中定义的最大和最小值 12手动修改基于病人的预期速度。

4.1。性能Drip-Stand病人后机器人的第一类医院服装

第一类,当病人穿着标志带,医院医院裤子或袜子(如图 4(一)- - - - - - 4 (c)),类似的表现观察drip-stand追随者机器人。在这里,我们提出一个具有代表性的结果的情况下医院病人没有穿衣服裤子(穿标记带)和医院。

13显示了跟踪算法的初始化。病人穿脚踝上方的标记乐队站在机器人的前面不远处(图 (13日))。标记分段,并计算其与机器人之间的距离(图 13 (b))。图 13 (c)显示一个分段点云的深度图通过飞行时间深度传感器获得的。我们使用此辅助测量距离的病人进行比较的机器人通过针孔照相机的距离模型。

病人的初始化跟踪算法。(一)病人站在机器人的前面一个代表性的距离。(b)的检测标记使用RGB相机和计算所需的最初机器人之间的距离和病人。(c)的点云表示深度地图扫描平面内的脚。

14显示了实验研究样本帧。如前面的图,图中显示了一个病人的图像和机器人移动的测试区域,分割标记,和相关的深度地图。

跟踪帧drip-stand病人的例子追随者机器人的情况下病人穿着nonhospital(只有戴着乐队标志)。每个病人的视图显示了一个示例列和机器人,分段标记为病人的实际距离计算机器人,并使用深度传感器距离计算的结果与RGB共存传感器。(一)样本第一帧。(b)样本第二帧。(c)样本帧3。(d)样本帧4。(e)样本帧5。

验证的准确性距离估计算法使用针孔摄像机模型,测量结果与实际距离相比我们有通过深度传感器获得的。我们将展示这两个数据集的情节人物 15。我们发现这两种方法都有类似的和一致的测量。举个例子,如果我们假设深度传感器测量的数据是一个精确的测量,针孔相机模型可以正确测量的深度信息。大多数的点,这代表了测量误差,总体的范围 0,0.99 (图 15 (b))。从收集到的数据,我们发现针孔相机模型相比,深度测量更敏感的小当机器人移动的距离变化。然而,当机器人没有(即线性或角调整。,no changes in illumination condition in the viewing scene), the measured and computed data were more stable around the ideal distance. The maximum difference between these two methods (shown as a red point in the figure) is 2.4 cm.

drip-stand追随者机器人的跟踪性能的情况下病人穿着nonhospital衣服和带一个标志。(一)比较针孔相机模型估计和深度传感器测量。(b)在跟踪阶段收集的测量误差在步行周期之间的针孔相机模型和深度测量。

(15日)显示了机器人之间的距离估计结果和病人情况的人穿着标志带,针孔摄像机模型和深度传感器测量。我们设定所需的机器人之间的距离和病人40厘米。最大的错误时发生的机器人是角位移补偿。在这个实验中,我们还验证,我们可以通过调整补偿机器人的最大和最小速度轨迹配置文件中定义为当病人走在更高的速度。

我们进一步评估机器人的性能。我们计算一组轨迹的运动命令机器人和的估计位置。我们可以看到从图的情节 16,总而言之,机器人是准确的人。然而,当机器人收到一个命令进行角度调整,它并不总是留下来。机器人开始旋转的时候人开始把。绿点等情节显示的位置角发生调整。两个红色点表示的地方沿着轨迹有一个意想不到的图像传输延迟。延迟是由于连接的速度或图像处理时间长。具体而言,当人开始为实例,程序处理的图像缓冲区可能是背后的一个框架。因此,机器人将前进在短时间内(∼0.125秒)。然而,我们发现,我们可以恢复延迟一旦处理时间小于0.125秒。我们通过下一帧补偿调整,位置偏差发生,从蓝色的点。 The robot trajectory deviates from the person trajectory due to the tolerance of the angular deviation.

轨迹的病人和drip-stand机器人nonhospital情况下病人的衣服和戴着乐队的标志。

17显示了跟踪算法的初始化时,主题是穿医院的裤子。病人站在机器人的前面不远处(图 (17日))。标记是附加到医院喘气分割和标记的距离计算机器人(图 17 (b))。图 17 (c)显示了深度图的分割点云通过飞行时间深度传感器获得的。我们使用此辅助措施与通过针孔照相机的距离模型。

病人的初始化跟踪算法。(一)病人站在机器人的前面一个代表性的距离。(b)检测的标记用RGB的相机和计算最初要求机器人之间的距离和病人。(c)的点云表示深度地图扫描平面内的脚。

18显示样本帧的测试区域移动。类似于前面的图,它显示了一个病人的形象和机器人移动的测试区域,分割标记,和相关的深度地图。

的例子drip-stand病人追随者机器人的跟踪框架的情况下医院的裤子。每个病人的视图显示了一个示例列和机器人,分段标记为病人的实际距离计算机器人,并使用深度传感器距离计算的结果与RGB共存传感器。(一)样本第一帧。(b)样本第二帧。(c)样本帧3。(d)样本帧4。

19显示了机器人之间的距离估计结果的人当人穿医院的裤子。我们设定所需的机器人之间的距离和病人40厘米。最大的错误时发生的机器人是角位移补偿。在这个实验中,我们还研究了如何弥补病人的行走速度更快通过调整机器人的最大和最小速度轨迹中定义的概要文件。此外,在某些情况下,由于腿的步态模式,裤子变得皱巴巴的,这可能会导致两个标记检测方法之间的不一致。在这些情况下,检测到标记不是接近矩形。结果,发现地区会比实际的制造商。这种情况发生了很多次在整个跟踪。

病人的跟踪性能追随者drip-stand机器人的情况下,主题是穿医院的裤子。(一)对比针孔相机模型和深度传感器测量。(b)的测量误差在跟踪阶段之间的针孔相机模型和深度测量。

20.显示了整个运动轨迹的起点的时候病人退出实验房间的门。在这里,我们可以看到机器人执行任务圆满。两个红色标志指示的时候有一个延迟的传播图像。在同一个图,蓝色标志指示的情况下,病人的角偏差图像的中心部分是在可接受的范围之内的。

的病人和drip-stand病人追随者机器人轨迹时的情况医院病人穿的裤子。

4.2。性能Drip-Stand病人后机器人的第二类医院服装

当病人站在机器人的前面,被触发的初始化过程。作为一个初始化的一部分,机器人之间的距离计算,病人也定义(图 21)。在每一帧,我们估计病人的位置,指两侧网格表示的实际位置的人。

初始化阶段的drip-stand病人追随者机器人当礼服穿医院。(一)病人站在机器人的前面一个代表性的距离。(b)检测的标记用RGB的相机和计算最初要求机器人之间的距离和病人。(c)的点云表示深度地图扫描平面内的结婚礼服。

我们的结果显示图像处理各种样本帧图 22。医院长袍,使用冗余标记网格获得一个更好的估计的机器人。

的例子drip-stand病人追随者机器人的跟踪框架的情况下医院的礼服。每个病人的视图显示了一个示例列和机器人,分段标记为病人的实际距离计算机器人,并使用深度传感器距离计算的结果与RGB共存传感器。(一)样本第一帧。(b)样本第二帧。(c)样本帧3。(d)样本帧4。

总体上我们发现距离测量的性能是一致的与其他类别的标记如图 4。不过,我们可以期望的距离误差是最大的在所有其他类型的标记。深度图像处理检索的平均价值上的像素距离分割轮廓礼服,这大约是绿色所反映出的位置如图 23。RGB图像处理只选择一个网格不扭曲了布皱纹的效果。在这种情况下,参考网格可以是最近的一个镜头或最远的一个。在这两种情况下,结果是不一致的与深度测量的传感器。在图 23,这区别两个测量标识 Δ d ,我们称为测量误差的方法基于针孔相机模型。

的例子,计算相对误差的概略介绍RGB与测量距离的计算通过深度传感器获得的。

(24日)显示的总体性能结果drip-stand病人追随者机器人的情况下医院的礼服。相比其他三个情况下,我们观察到的频率的距离小于期望值更高,最大测量误差也最大。这种偏差通常发生在病人转时,机器人将太接近病人,然后回到增加距离。此外,不同的步态模式可以改变礼服的形状。在这种情况下,网格所选第一个针孔照相机的参考网格模型是相对最遥远的距离在所有分割网格(例如,见示例1的图 18)。因此,机器人控制器继续设置参考命令机器人,即使是太接近病人。网格,网格更接近相机作为参考,我们观察到的最糟糕的表现。机器人控制器现在是定义一个新的参考点为机器人增加距离。

病人的跟踪性能追随者机器人。(一)对比针孔相机模型和深度传感器测量。(b)在跟踪阶段测量误差的集合。

25显示drip-stand病人追随者机器人的整体性能。

病人的轨迹和drip-stand机器人当病人医院穿着礼服。

5。结论

提出了一种设计drip-stand病人后机器人。设计由一个移动平台与支撑杆连接,静脉注射的药物。我们集成一个标准RGB相机靠近地板在我们的设计水平。我们可以进一步保护病人的隐私由于受限的视野和滴站的距离。跟踪信息是通过视觉处理的人工标记放在医院的衣服。各种设计的位置在各种类型的医院服装,和性能的drip-stand病人后机器人实验评估。为了避免drip-stand病人追随者的引爆行动机器人,我们提出了一个移动平台修改轨迹剖面。此增强功能限制速度命令和相关的加速和减速的最大大小。

提出了新颖的设计允许机器人跟随病人从后面。机器人总是保持病人指定的距离,这被定义为允许引入的休闲裤静脉药物管。我们还可以修改设计允许机器人遵循病人从侧面。其他研究人员提出类似的设计目标。(例如,设计 14]表明机器人后,病人只需拉动绳索连接到机器人。提出我们所知,我们的设计是独一无二的,我们可以进一步加强探索其广泛接受。

数据可用性

生成的数据在当前的研究中使用的实验评价和可按照客户要求定制。

的利益冲突

作者宣称,他们没有任何的利益冲突。

纳吉布 M。 法赫米 M。 研究技术的人后,机器人 国际期刊的计算机应用程序 2015年 125年 13 27 30. 10.5120 / ijca2015906165 b . X。 Sahdev R。 Tsotsos J。 人后,机器人使用选择在线ada-boosting立体相机 程序的计算机和机器人视觉上14日会议 2017年5月 埃德蒙顿,加拿大 48 55 10.1109 / crv.2017.55 2 - s2.0 - 85031785444 伊利亚斯 B。 阿卜杜勒·舒科尔 美国一个。 Yaacob 年代。 Adom a . H。 穆罕默德Razali m . H。 后一个护士机器人高速kinect传感器 工程和应用科学杂志》上 2014年 9 12 2454年 2459年 Aethon自动化Intralogistics,拖船智能自主移动机器人,2020年, http://www.aethon.com/tug 卢卡斯 b D。 T。 一个迭代的图像配准技术应用立体视觉 2 学报》第七届国际联合会议上人工智能 1981年 加拿大温哥华 674年 679年 l X。 Y。 年代。 一种改进的均值漂移跟踪算法与spatial-colour特性和新的相似性度量 IEEE国际会议多媒体技术学报》上 2011年7月 杭州,中国 184年 188年 10.1109 / icmt.2011.6002083 2 - s2.0 - 80052953581 Susperregi l Martinez-Otzeta j . M。 Ansuategui 一个。 Ibarguren 一个。 塞拉 B。 RGB-D、激光和热传感器融合为人们在移动机器人 国际先进的机器人系统杂志》上 2013年 10 6 9 10.5772/56123 2 - s2.0 - 84879196855 W。 Pantofaru C。 Savarese 年代。 检测和跟踪的人使用一个RGB-D相机通过多个检测器融合 IEEE计算机视觉国际会议研讨会学报》上 2011年11月 西班牙巴塞罗那 1076年 1083年 10.1109 / iccvw.2011.6130370 2 - s2.0 - 84856630785 Payandeh 年代。 视觉跟踪在传统微创手术 2016年 美国佛罗里达州波卡拉顿的 CRC的新闻 Tanimoto 年代。 一个跨学科的介绍图像处理 2012年 美国剑桥,马 麻省理工学院出版社 2020年Trinamic运动控制, https://www.trinamic.com/fileadmin/assets/Support/Appnotes/AN013Motion_control_profile_parametrization.pdf 2020年帕克运动控制, https://www.parkermotion.com/manuals/a-ax/AX_Chp4p1.pdf 美国宝德公司运动产品, http://www.multiprojekt.pl/ftp/abb_serwonapedy/archiwum%20baldor/application_note/an00118 - 000 _motion_profiles_en.pdf Endo G。 艾伦 B。 Lemura Y。 移动从动件机器人作为家庭氧气治疗的辅助设备的评估范围控制算法 ROBOMECH杂志 2015年 2 1 10.1186 / s40648 - 014 - 0026 - 3 2 - s2.0 - 84966575235