研究文章|开放获取
一种用于马铃薯试管苗繁殖的自动机器视觉引导系统
抽象
在马铃薯试管苗人工繁殖中,通常是在子叶与茎之间的节点处抓切植株,很难定位,容易被夹持器破坏。采用农业智能机器人代替人工操作,将大大提高pttp的传播效率和质量。研制并测试了一种用于pttp传播的自动机器视觉引导系统。本文设计了视觉系统的工作流程,制作了图像采集装置。然后,将图像处理算法与图像采集装置集成,构建一个自动PTTP传播视觉系统。利用一种定位节点点的图像处理系统来确定茎上合适的操作点。采用双目立体视觉算法计算节点点的三维坐标。最后,建立三轴并联机器人的运动学方程,将节点的三维坐标转换为相应的参数X,Y,和Z机械手的三个驱动滑块中的一个。实验结果表明,该自动视觉系统的成功率为98.4%,每3株花的时间为0.68 s,定位苗中等扩张期(22天)的合适位置误差约为1 mm。
1.简介
马铃薯是世界上最重要的农作物之一。目前,马铃薯试管苗脱毒繁殖技术解决了因病毒感染而导致产量和品质下降的问题,使马铃薯产量提高了30%以上。马铃薯脱毒试管苗繁殖是马铃薯脱毒种薯繁育系统产量的基本环节。在马铃薯试管苗育种中,操作者将试管苗的茎段和叶片在母盘中切下,放入有培养基的传代培养皿中进行快速繁殖。经过几代繁殖,试管苗数量可以成倍增加,对马铃薯育种既省时又省钱[1]。脱毒马铃薯试管苗的繁殖是一个高科技bioapplication技术,这就需要在繁殖设施和设备投资,以及技术工人的生产培养基和疫苗接种的培训2]。然而,马铃薯试管苗的繁殖是劳动密集型技术,因之与成本。这些方面都鼓励能够提高生产力和生根的成功率,同时降低成本的自动化机器的发展。
国内外对试管苗自动化技术和设备进行了研究。第一种是试管苗繁殖机。例如,瞿等人开发了一个方法的剪切wild-mouth一瓶马铃薯植株,这是用来收集、剪切、和分散整个一瓶马铃薯植株的plantlet-fetching机制,但该方法将导致严重损伤的植株3.]。Li等人设计了一种马铃薯试管苗摘苗机械,根据马铃薯试管苗的特性和培养环境,一次可以摘全瓶且不损坏[4]。Kai等设计了一种基于负压吸附的采摘手,用于吸附条带组织培养苗的茎。力定位法能有效地减少对幼苗的损伤。该方法简化了小苗的采摘过程,提高了小苗的成活率[5]。第二种类型是试管苗移栽机器人,它具有比移栽机更好的灵活性和精确度,并享有一个更好的研究前景。基于机器视觉的组织培养系统是由日本东芝公司设计的。该系统定位并削减节点通过3轴垂直检测臂和一个移植臂具有高精度和良好的鲁棒性。但其缺点是切口和移植[效率低6]。日本的麒麟啤酒公司开发出了TOMOCA系统,将组织培养植物一簇簇分解成26片,每9片移植到新的培养瓶中,效率是人工的10倍[7]。杨等人。开发移植用于带形试管苗的机器人系统。该系统采用了嵌入式机器视觉技术,自主研发的5自由度关节式机器人手臂,以识别和定位苗节点,并得到,剪切和移植苗。系统执行井获取和剪切的小植株,但不是在运动定位精度[8]。由于其结构紧凑,高刚度 - 重量比,以及良好的动力学性能的优点,并联机构(PM)是正确的,需要的试管苗传播的[9]。谢等人设计了一种经济利己主义平行移植机器人精度高、可以自动拍照的育种锅并计算每个植株通过图像分析的中心位置,然后将预期的运动轨迹转化为广义驱动关节的位置坐标通过运动学分析和轨迹规划,最终实现计算机智能控制中的工作空间(10]。摘要为提高温室插秧的自动化和效率,利用气动机械手与二自由度并联平移机构,设计了一种高速插秧机器人。根据健康苗的坐标,由该机构驱动机械手按预定路径取苗[11]。
视觉控制的关键技术包括视觉信息获取策略、目标识别算法、眼手协调方法等[12]。为了实现自动移植,传播机器人需要对马铃薯苗进行准确的识别,并计算剪切点的空间坐标。Yang等人提出了一种根据苗木在培养瓶中的形态特征从苗木瓶底识别单株植株位置的方法,满足了移栽苗的精度要求[13]。研制并测试了一种用于蝴蝶兰组织培养苗的视觉导向抓取系统。为了模拟人工移植操作,本研究开发了一种基于双目立体视觉系统的图像处理算法,将PTCP图像分割成其组成部分的叶和根,并在PTCP本体上找到合适的抓取位置。将定位算法与机械手夹持器集成,构建蝴蝶兰植物自动抓取系统[14]。开发了一种结合光学立体视觉和热成像的新型多模态视觉系统。检测乳头和确定其三维位置的算法也得到发展[15]。摘要为了在自然环境下对荔枝进行有效的识别和定位,提出了一种基于双目立体视觉的快速、可靠的识别方法。摘要提出了一种基于K-means聚类的荔枝识别算法,将荔枝与叶、枝、背景进行分离。实验结果表明,该方法对不同光照的影响具有较强的鲁棒性,对荔枝的精确识别平均识别率最高[16]。HE等人提出了一种机器视觉算法,通过椭圆拟合恢复植株叶片,提取参数用于机器人的自动嫁接。实验表明,该算法能够解决叶片遮挡问题,幼苗识别定位成功率达97.5%,满足嫁接机器人自动操作的要求[17]。Yang等开发了一种高度实时的视觉系统,可以综合评价移栽苗的直线度和高度的适宜性,选择满足移栽要求的植株[18]。张某等人。提出了葫芦回吐的苗移栽用考虑自制机器人系统的实际工作状况的视觉系统。在该系统中,横截面直径尺寸的信息可以很快地从作物植株的彩色图像中提取,然后自动检测的增长点的空间位置[19]。Luo等人开发了一种基于双目立体视觉的葡萄集群空间信息获取方法。该方法包括标定双目摄像机,对图像进行校正;检测葡萄果实花梗和中心点上的切割点;提取步骤2中检测点的三维空间坐标;计算葡萄簇的边界体积。该开发方法的演示性能表明,它可以用于收获机器人[20.]。
用自制并联机器人系统的实际工作条件相结合,本文主要侧重于在试管苗用于端部执行器,并提出用于获取从空间信息的方法的干定位在切割点的空间坐标基于双目立体视觉的试管苗。基于双目立体视觉呈现,用于获取从所述试管苗空间信息的方法。该方法可确定在杆用于以这样的方式使得收获机器人能够顺利地把握小植株茎和切断杆端部执行器切割点的三维坐标。机器人视觉系统的研究对自动化和马铃薯试管苗繁殖的智慧具有十分重要的意义。
本研究的具体目标可以总结如下。部分2.1描述了在研究中使用的实验材料。部分2.2介绍了本文图像处理算法的测试平台。部分2.3介绍了自制扩展机器人视觉模块的硬件结构和工作流程。部分2.4介绍了在LabVIEW平台上开发的vison模块系统的软件。部分2.5和2.6显示图像识别和节点的位置的算法。部分2.7介绍转换由视觉系统采集到3-PUU并联机器人的运动参数的节点的空间坐标的方法。
2。材料和方法
2.1。材料试验
马铃薯试管苗由华中农业大学园艺与林业学院提供。将脱毒马铃薯幼苗置于培养箱中无菌培养,MS培养基置于培养箱底部。培养盒大小为80mm×80mm,每箱3排3列,每盒9株马铃薯苗。脱毒苗年龄20-25天,苗高7-10 cm,茎粗0.6-0.8 mm。当组培苗长出5 ~ 6片叶子时,将其切成小段,每段携带一片叶子和一个腋芽,放入培养基中培养成新的试管苗。
2.2。测试设备
本文算法开发和测试的硬件环境为通用计算机Intel Core i7-6700HQ 2.60 GHz/16G DDR3/120G SSD/NVIDA 960 m 2g、Windows 10 Professional、MATLAB R2017b、LabVIEW2018。图像采集模块使用STM32f103zet6单片机连接SYUE MS4101V1双目立体摄像模块(1920×1080 30 fps镜头,3mm焦距,130度广角无失真)。图像处理算法在Matlab2017b平台上实现。系统软件采用LabVIEW2018进行软硬件模块的连接、协调和控制。该模块使用LabVIEW的MATLAB脚本节点调用MATLAB图像处理程序。
2.3。视觉系统架构
数字1为一自制并联机器人系统中视觉系统的安装位置和结构示意图。视觉系统主要由双目立体摄像机、背景板和直线传送带组成。视觉系统使用自然光而不是特殊的照明。将培养盒通过横向直线输送机运送到指定位置后固定。通过数字伺服将背景板插入两排马铃薯苗之间,使双目立体摄像机能够拍摄到单排马铃薯苗的彩色图像对。
机器人视觉系统的工作流程示于图2并详细描述。
(一)系统初始化。系统控制水平直线输送机,将培养箱驱动到指定位置,使背景板正好插入两排马铃薯苗之间。(b)双目图像采集。控制的数字伺服驱动背景板的系统将被插入,然后将双目立体照相机获取的图像对。(c)运行中的图像处理算法。该视觉系统软件调用,其识别和定位的剪切点和马铃薯植株的抓握点的图像处理算法,并转换成它们的空间坐标,以便传输到端部执行器的控制器。(d)下一株马铃薯幼苗的图像采集与处理。在一排马铃薯苗展开后,当传送带移动一个固定的距离,背景板插入接下来的两排马铃薯苗之间,然后重复(b) ~ (c)的过程,直到所有马铃薯苗都被处理完。
2.4。VISON系统软件的集成开发
基于LabVIEW软件,设计了传播机器人视觉系统的上位机程序。LabVIEW与STM32开发板通过串口通信,发送命令控制各电气单元的协调运行。当马铃薯苗到达指定位置时,视觉系统软件控制双目立体摄像机获取图像对,并将图像参数发送到其调用的MATLAB程序中。MATLAB程序完成图像处理后,提取点坐标参数,发送到LabVIEW。当接收到坐标数据后,并联机器人和末端执行器将完成后续的马铃薯种子处理。设计了基于STM32开发板的从机。所述电动单元包括控制培养皿移动传送带的步进电机和步进电机驱动板、控制背景板运动的数字伺服器、并联机械臂(包括三台步进电机)和双目立体摄像机。12v稳压直流电源为每个单元供电。STM32开发板接收到运动参数后,通过输出相应的脉冲信号,控制电机旋转到一定角度,运行其他部件。
2.5。马铃薯幼苗节点图像识别
2.5.1。图像预处理和分割
数字3.介绍了马铃薯试管苗的图像分割过程。在成行马铃薯苗之间插入一个黑色背景板,可以弱化背景信息,提高马铃薯苗图像的分割效率和分割结果。马铃薯幼苗的分割包括三个部分。
子叶图像分割。在马铃薯植株图像,子叶的G分量比其他两个组件显著大。额外的绿色算法(EXG)与2G-R-B的特征值被用来分割图像由OTSU阈值,以获得子叶的二进制图像。
干细胞图像分割。由于茎本身颜色不均匀以及光线的反射,用extra green算法+ OTSU算法分割的结果并不理想,用extra green算法+ OTSU算法分割的结果也不理想。将马铃薯幼苗的彩色图像处理为灰度图像,利用15×15圆形结构算子对灰度图像进行形态学“开放”操作得到背景图像。最后,利用大津阈值对灰度图像减去背景图像的结果进行分割。这样,就可以得到茎的二值图像。
合并(a)和(b)的结果。子叶图像和干图像叠加,小连通区域中去除,且这些孔通过一个形态运算填充以获得小植株的马铃薯的完全分割结果。
2.5.2。节点点搜索
节点是连接所述子叶和马铃薯试管苗的杆的一部分。识别和节点的定位是在扩张机械手夹紧和切割操作的先决条件。数字4示出的节点标识原理示意图。节点搜索包括以下步骤。
(一)
(b)
细化马铃薯植株的二进制图像,以获得与单个像素的骨架图像宽度保持马铃薯植株的形状。
搜索为骨架的连接点和终点。如图4(一)中,骨架结点的8个邻域的像素值小于3并不以下,端点的8个邻域的像素值是1图像中的结点和终点被标记在数据方面。只有一些被发现的结点都是节点。
过滤掉从结点节点。根据马铃薯植株的形态特征,节点都对马铃薯植株主茎,节点可以在主茎的骨架在该功能的角度来选择。如图4(一),创建一个中心点为0,其他点的方向值为1 ~ 8的3×3矩形模板操作符。以骨架的端点为起点,以交点为端点,中间部分称为骨架分支。从起始点开始,算子与当前坐标的卷积结果可以显示8邻像素的值,也可以表示8邻像素点与中心点的相对方向,即移动算子的方向。每当操作符移动时,当前坐标中的像素被赋值为0。最后,除主干外,所有主干的值均为0,进而得到节点像素坐标,如图所示4 (b)。
2.6。交点三维坐标的推导
2.6.1。手眼标定
本文通过手-眼模型建立了机器人的视觉系统模型。这意味着相机被安装在一个固定的位置,并与机器人分开。首先,需要建立视觉系统和机器人系统之间的数学关系,即需要进行手眼标定。手眼校准程序的目的是确定由两个摄像机感知的二维图像和三维真实植物信息之间的转换。首先,利用Zhang提出的摄像机模型对摄像机内参数和外参数进行标定[21]。其次,手眼校准的以下方法被用于确定所述手眼关系。
手眼标定原理如图所示5。设臂的基坐标系为O基础xyz,让臂末端的坐标系为O工具-xyz,让坐标校准板的系统为O卡尔-xyz,让摄像机坐标系为O凸轮xyz。H was a 4 × 4 homogeneous transformation matrix of two coordinate systems, including a 3 × 3 rotation matrixR和a 3 × 1 translation matrixt。表示O的齐次变换矩阵工具-xyz相对于O基础-xyz,这可能通过机器人运动学来得到。表示O的齐次变换矩阵卡尔-xyz相对于O工具xyz。机器人已确定,安装后不会更换。表示O的齐次变换矩阵凸轮-xyz相对于O卡尔-xyz,外部摄像机参数,通过标定获得。表示O的齐次变换矩阵凸轮-xyz相对于O基础-xyz,即需要校准的矩阵。方程(1)表示的每个矩阵的转换关系:
在本文中,相机也没有用,因为用手触摸眼睛模型的机器人手臂移动,所以是固定的。在同时校准板的两个不同位置处的矩阵变换关系,得到
变换后,式(3.)中的溶液获得。
因此,可以通过解方程来获得(3.)。和可以通过公式来计算(1)。
2.6.2。节点三维坐标获取
利用左右摄像头组成的双目立体视觉系统确定抓取点的三维坐标。双目立体视觉是根据视差原理,同时拍摄多个视差角度的图像,获取物体三维信息的一种方法。点P (X,Y,Z)为任意空间点的世界坐标,(u, v)为点P在摄像机成像坐标系上投影的像素坐标点,DISP为视差值。O1- x1y1zl左边的坐标系是什么2- x2y2zr是正确的相机坐标系。Ol和Or分别为摄像机的光学中心。两个光轴之间的距离为基线B,和zl和zr是光学轴。根据双目立体视觉的定位原则上,如果在空间中的任何点可以在双目立体相机进行成像,所述三维坐标可以使用等式(计算4)。双目立体摄像机采集左右视图后,进行图像处理,得到左右视图的节点像素坐标,并匹配视图节点的坐标。通过上述标定,通过矩阵变换得到节点的空间三维坐标。本文中,张的标定方法[21]用于计算外部参数的在相机中的参与,然后使用手眼校准方法来确定手眼关系:
2.7。机器人控制传播任务
自主研制的并联机器人系统由一个运动平台、一个固定平台和三个独立的运动分支连接两个平台组成。数字6示出了3-PUU并联机器人的结构。该机制包括了A的1一个2一个3.移动平台,三对等长连杆,三个C型传动滑块1C2C3.还有底边。连杆通过球接头将运动平台与滑块连接成球对。驱动滑块与基座柱之间形成运动副。移动平台可通过改变三个驱动滑块的位置进行移动。由于空间平行连杆限制了运动平台的三个转动自由度,运动平台只能进行三维平移。固定坐标系O- xyz建立在基础(滑动器的起点)上,运动坐标系O ' -X ' y ' z建立在运动平台上。将坐标原点置于移动平台的几何中心,执行末端。设备被放置在移动的平台上。
在并联机构中,立柱上滑块的位移为 ,连杆长度为 ,杆与静态平台的夹角为θ我。滑块的塔上的位移为 。设A的运动平面的圆周半径1一个2一个3.是r和B的外接圆的半径1B2B3.平台R;那么三个滑块的绝对坐标分别为
在移动坐标系o ' -x ' y ' z下,A的坐标向量1一个2一个3.是
移动的矢量关系坐标系O'-X'Y'Z”相对于固定坐标系O-XYZ是
由于运动平台有三个平动自由度,没有转动自由度,因此该点的坐标向量固定坐标系中是
因此,并联机构的逆解可以表示为定长杆的约束方程:
根据上面的等式,可以得到:
如果空间点的在固定坐标系O-XYZ是已知的,该驱动滑块的相应偏移量s将由上述公式,这是运动学方程的逆解来计算坐标。
3.结果与讨论
3.1。摄像机标定结果
表1和2总结的CCD摄像机的外在和内在的参数,分别。照相机校准过程的准确性是通过在左和右照相机的图像平面的每个测试点的计算机图像坐标代入使用校准的外在和内在的参数,以获得理论3D世界坐标建立的相机模型中评价。重构的结果的精度。然后通过计算均方根误差(RMSE),其是0.18像素进行评价。
|
||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||
3.2。马铃薯苗图像分割
为了评价本文图像处理算法的性能,设计了实验对其进行测试。图像分割的结果是分为三个层次:Ι水平,水平ΙΙ,和水平ΙΙΙ。水平Ι代表完整的前景和背景的分割,和前台信息完好无损且没有明显的缺陷。水平ΙΙ代表完整的前景和背景的分割,但前台的信息显然是不足的。水平ΙΙΙ代表前景和背景的分割不完整或缺乏前景的信息。通过视觉系统对多种图像分割算法进行了测试,结果如图所示7。数字7(一)显示通过GrabCut算法获得分割的结果和它所属的级别III。数字7 (b)显示由所述区域生长方法获得的分割的结果。可以看出的是,前景分割与背景分割是完全的,但一些信息,如马铃薯脱毒试管苗子叶丢失了,它属于水平ΙΙ。数字图7(c)显示FCM聚类算法得到的分割结果。结果表明,一些子叶和茎并没有完全分割,它属于水平ΙΙ。数字图7(d)显示在本文中所使用的算法的结果。该算法进行了完整的分割,以及脱毒马铃薯试管苗的信息保持不变,这可能是包含在水平Ι。前三个算法是迭代算法,并且迭代的数量和图像的复杂性往往影响算法的准确性。此外,他们也非常耗时。在这项研究中所采用的算法可以表现最好的图像分割,这是省时省力。
(一)
(b)
(c)
(d)
3.3。节点图像识别
为了评价该算法的性能,从三个不同的生长时期幼苗20盒被用来测试的准确性和节点识别时。表3.示出了实验结果。初始膨胀期间(15天)被标记为P-1,内侧扩张期(22天,最佳传播期间)被标记为P-2,和过度生长扩张期(29天)被标记为P-3。数字8示出了一个组中的测试图像。马铃薯植株图像中的节点手动识别和标记,并且将结果标记为‘人工标记’。通过在这一研究中的算法自动识别节点的数量被标记为“算法标记。”错误是地面实况和鉴定结果的偏差率。的时间为处理每个图像的平均时间。该算法对P-2期的马铃薯植株的节点识别最佳的性能,误差率仅为1.6%。有导致错误的两个因素。第一个因素是,该算法没有认识到青年和严重堵塞子叶。第二个因素是,有在薯苗的顶部,这可能会被认定为节点的两个子叶。的P-1周期的识别性能是第二至P-2周期的性能,并且误差率为5.6%,比真值低。 The main reason was that the cotyledons of potato plantlets were not fully grown at this period, and some cotyledons were so tender that they were seriously occluded by the stem. The recognition performance of the P-3 period was the worst, and the error rate was 11.6%, which was higher than the real value. This error mainly resulted from the budding at the top of the potato seedlings at this period, and the points of intersection of these buds and stems were misidentified as nodes.
|
|||||||||||||||||||||||||||||||||||||
(一)
(b)
(c)
3.4。节点定位精度
为了评价手眼标定的精度,在机械臂的末端安装了一个边长为5 mm×5 mm的棋盘。控制臂到相应标定空间点的运动。通过双目立体摄像机定位标定板上关键点的坐标,通过手眼关系转换得到机器人坐标系中的坐标数据。重复7组试验,比较测量值与真实欧氏距离之间的毫米差。数字9给出了立体摄像机标定的棋盘式标定板和误差分析框图。摄像机标定结果表明,双目立体视觉定位的平均像素误差为0.18像素。根据表中的统计数据4,the positioning accuracy tested by the robot vision system was about 1 mm, which could be applied in practical engineering.
(一)
(b)
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
4。结论
摘要设计了一种马铃薯试管苗繁殖机器人视觉系统,并在自制的马铃薯试管苗繁殖机器人上进行了安装测试。这个系统可以自动收集的双目图像行马铃薯植株的培养箱,部分,识别、定位子叶的连接点和主要的干细胞,并将其转换为三维坐标可使用的并联机器人根据校准结果的手眼标定模型。本研究采用的视觉系统在马铃薯苗期(22天)表现最佳。该时间段节点数识别误差小于±5%,定位误差小于1 mm,一次性能时间小于1.5 s。该视觉系统定位精度高,实时性好。它能满足马铃薯种植机扩展机器人的性能要求。
数据可用性
支持本研究结果的数据可从通讯作者处获得。
的利益冲突
作者声明,他们没有利益冲突。
致谢
这项工作得到了国家现代农产产业技术研究体系专项基金(CARS-09-P08)和中央高校基础研究基金(计划编号:211)的资助。2019 bc005)。
参考文献
- W.柳,C.田,和J.柳,“脱毒马铃薯种子的引入和传播,”农业科技装备卷。6,第128-129,2010。视图:谷歌学术
- 问:谢,吴Y.,Y. Zhang等人,“研究无土mediaum脱毒苗的根尖扦插的文化,”中国马铃薯杂志,第3卷,第135-137页,2000。视图:谷歌学术
- 曲中,赖宏华,崔中特,“马铃薯全瓶组培苗剪切机理的设计与实验”,《中国农业机械学会学报》,第9卷,第39-46页,2015年。视图:谷歌学术
- 李阳H.赖D.张某等人,“设计和采摘马铃薯组培苗苗机械的实验,”《中国农业机械学会学报》第46卷,no。10,第24-30 +6页,2015。视图:谷歌学术
- 凯丽丽,顾圣,杨元洋等,“真空吸附手捆扎组织培养苗的设计与实验”,中国农业工程学会学报第31卷,no。02,第29-36页,2015。视图:谷歌学术
- 陶,曹,方,“植物组织培养技术研究进展”,长江大学学报(自然科学版)第15卷第2期18,第37-41页,2018。视图:谷歌学术
- 孙国强,郑文伟,乔歆等,“植物组织培养中微繁殖机器人的研究进展与展望”,北方园艺,第15卷,第45-49页,2010。视图:谷歌学术
- 杨丽义,张涛,“机器视觉在管状组织培养苗自动识别中的应用”,《中国农业机械学会学报》卷。26,没有。1,第87-91,2005。视图:谷歌学术
- 李平、华阳、李文、余中,“一种新颖的3-PUU并联机构及其运动学问题”,机器人技术和计算机集成制造第42卷,no。42,第86-102页,2016。视图:出版商的网站|谷歌学术
- 谢,殷,马,“一种基于多轴运动控制器的三自由度并联插秧机器人”,机械科学与技术航空航天工程第30卷,no。2,第336-339 +344页,2011。视图:谷歌学术
- “高速插拔秧苗移栽机器人的三维合成与运动学仿真”,胡建强,马建强,“高速插拔秧苗移栽机器人的三维合成与运动学仿真”,农业中的计算机和电子,第107卷,no。2014年,第107页64-72页。视图:出版商的网站|谷歌学术
- 赵元华,龚丽华,黄元华,刘志强,“基于视觉的收获机器人控制的关键技术综述”,农业中的计算机和电子第127卷第2期127, 2016年第311-323页。视图:出版商的网站|谷歌学术
- 李阳,张k,张t,“基于机器视觉的日本euonymus plantlets瓶中的位置识别方法”,《中国农业机械学会学报》,第10卷,第124-128页,2008年。视图:谷歌学术
- Y.-J。黄和之。“一个用于蝴蝶兰组织培养苗的自动机器视觉引导抓取系统。”农业中的计算机和电子卷。70,没有。1,第42-51,2010。视图:出版商的网站|谷歌学术
- A.本阿祖兹,H. Esmonde,B.科科伦和E.的O'Callaghan,“机器人挤奶奶嘴的感测系统的开发通过组合热成像和立体视觉的技术,”农业中的计算机和电子卷。110,没有。110,第162-170,2015。视图:出版商的网站|谷歌学术
- C.王,邹X.,Y.唐,罗L.和W锋“采用双目立体视觉在非结构化环境荔枝的本地化”生物系统工程第145卷第2期145,第39-51页,2016。视图:出版商的网站|谷歌学术
- L.他,L.蔡和吴C.,“基于视觉的参数提取苗嫁接机器人”中国农业工程学会学报第29卷,no。24, 190 - 195,2013。视图:谷歌学术
- 杨中,张文伟,魏丽义等,“单目视觉的盆栽移栽适应性信息获取方法”,中国农业工程学会学报第30卷,no。3,第112-119,2014。视图:谷歌学术
- 张良军,H. E.胡,和C.五“视觉方法测量蔬菜嫁接机器人的嫁接苗特性,”中国农业工程学会学报第31卷,no。9期,32-38页,2015年。视图:谷歌学术
- 罗、唐、邹、叶、冯、李,“基于视觉的葡萄集群空间信息提取与收获机器人”,生物系统工程卷。151,没有。151,第90-104,2016。视图:出版商的网站|谷歌学术
- 一种灵活的相机标定新技术,IEEE交易模式分析与机器智能,第22卷,第1330-1334页,2000。视图:出版商的网站|谷歌学术
版权
版权所有©2020许声勇等人。这是下发布的开放式访问文章知识共享署名许可,允许在任何媒体中不受限制地使用、发布和复制原创作品,只要原稿被正确引用。