计算机视觉的割草机器人作业控制思考

计算机视觉的割草机器人作业控制思考

摘要:以割草机器人作业过程为研究对象,分析了机器人作业的环境特点,建立特定的环境参数模型,并运用计算机视觉算法进行作业环境的自动化识别。试验结果表明:割草机器人视觉系统所包含的目标识别算法和边界特征导航算法,对割草机器人作业过程中的目标识别准确率达到95%以上,控制指令发出至作业过程的平均反应距离不大于20mm,能够实时准确地进行割草作业过程自动控制。

关键词:割草机器人;计算机视觉;图像采集;特征比对

0引言

目前,割草机器人朝向智能化发展,能够将环境信息的感知、机器人路径规划以及机器人动作控制集成一体,实现作业过程的智能化控制[1]。割草机器人机械结构组成、传感采集系统以及机器人路径规划算法等发展已经成熟,能够促进机器人自动化作业过程的发展[2-3]。割草机器人作业环境复杂,在作业过程中会遇到多种障碍物,草地边界位置会遇到形状不规则的边缘,在遇到不同的障碍物时割草机器人需要根据障碍物的类型及形状进行不同行走路线的规划,并根据环境信息进行自身姿态的调整。因此,割草机器人需要对障碍物信息进行正确的判断[45]。笔者将计算机视觉与割草自动化机器人进行结合,有效地促进割草机器人的智能化发展,使割草机器人能够在作业过程中根据环境障碍和作业路径进行行走及动作的自动化控制,不断适应复杂作业环境,确保割草机器人能够自主、可靠地进行割草作业。

1割草机器人视觉控制系统

割草机器人在工作过程中对周围环境不断进行图像拍摄,并以此判断割草作业环境。割草环境信息大致可以分为直线行走区域、草地边界区域以及草地界外区域[6]。在直线行走区域,割草机器人视觉系统拍摄到的图像主要为绿色草地,软件系统根据图像进行控制机器人直线行走,并进行割草作业[7]。在草地边界区域和界外区域结合处,计算机视觉采集系统所拍摄到的图像信息一半为草地、一半为非草地,割草机器人根据草地与非草地交界位置进行行走及割草动作控制,保持在草地内直线行走割草,到达交界位置时机器人后退并旋转角度,保证割草作业过程的行进安全[8-9]。基于计算机视觉建立的割草机器人,能够对环境参数信息进行图像实时数据采集。计算机视觉系统能够根据处理后的环境图像生成不同的控制指令,进行割草机器人行走过程及割草作业机构的控制[10]。割草机器人视觉导航系统结构组成如图1所示。割草机器人视觉系统硬件部分常用高清摄像头作为计算机视觉传感器,软件系统一般为嵌入式操作系统,并搭载计算机视觉算法处理软件,对割草机器人计算机视觉传感器采集到的图像进行分析处理;割草机器人控制系统根据计算机视觉处理结果进行控制指令的生成,并传输至执行机构[11]。

2割草目标识别算法

割草机器人视觉系统根据拍摄到的图像进行二值化处理,并对图像进行过滤运算,采取统计算法进行图像特征统计。图像分析识别过程中,将整幅图像划分为3×3的小格,并与判断识别标准进行对比,计算图像中绿色图像所占比例[12]。当9格中绿色图像信息所占比例小于20%时,判断当前位置为草地界外环境,割草机器人进行后退或旋转角度,重新进行图像采集。割草机器人视觉系统所采集的图像为f(x,y),图像模板为ω(x,y),则二者之间的相关度可表示为c(x,y)=∑s∑sω(x,t)f(x+s,y+t)图2为割草机器人视觉系统所采集的图像模板。其大小为m×n,图像中心位置为(x,y)。移动图像模板的中心,使模板ω(x,y)中心能够对图像f(x,y)中的每个像素进行访问,寻找最大相关度,找出图像最佳匹配特征。当出现多个最大值时,表明图像模板与目标图像之间存在多个匹配特征。割草机器人在进行目标图像识别过程中,需要对草地图像、图像特征、图像纹理以及图像灰度值进行相互匹配,匹配过程中可通过灰度值进行匹配,或通过图像特征值进行匹配。利用图像特征值进行目标图像匹配时,主要通过颜色、纹理、形状以及空间位置等不同角度进行匹配。匹配过程中,首先对图像进行预处理,提取图像的高阶特征,建立原始图像与对比图像之间的对应关系。特征匹配过程中所用到的算法主要包括矩阵运算、梯度求解、傅里叶变换以及泰勒公式等。割草机器人视觉系统进行特征匹配时,首先进行图像颜色特征匹配,将绿色特征判断为草地,将非绿色特征判断为障碍物或者非草地。通过颜色特征进行草地目标识别通常会出现误判断现象,因此通常在颜色特征匹配的基础上进一步进行形状特征匹配。

3草地边界区域导航算法

割草机器人在进行目标边界导航时,根据设定好的图像灰度阈值进行图像二值化处理,并进行图像特征滤波,滤波过程中保持在一个像素点的相邻域内进行绿色点寻找,从而得到二值化滤波处理后的边界图像信息。采用9格区域处理的方法进行图像信息比例识别(如绿色比例较大),则判定为草地内,非绿色区域判定为界外;当存在结合区域时,对图像进行边缘检测,得到图像特征,从而对割草机器人进行精确运动控制。图3为割草机器人边界导航算法流程。割草机器人完成边界区域导航后,导航模板与草地区域图像进行比对,根据比对结果生成系统导航控制指令;割草机器人计算机视觉软件系统将二值化图像进行滤波处理,寻找相邻区域内的红色点,同时利用中心线算法判断割草机器人位置,寻找相邻两个像素点之间的像素差,并与设定阈值进行比对,确定导航模板中心线与割草区域图像中心线之间的偏差,从而形成割草机器人的行走控制指令。图4为割草机器人行走控制过程流程图。

4系统测试

将所设计的计算机视觉运动控制算法应用于割草机器人,通过割草机器人的作业过程进行控制可靠性验证。为验证计算机视觉割草机器人控制算法的准确性,将普通割草机器人与计算机视觉控制系统割草机器人同时处于草地与路沿交界处,使割草机器人进行100次运动指令验证,记录指令验证成功次数,即表示割草机器人每100次实验准确率。为验证割草机器人控制指令的实时性,对普通割草机器人与计算机视觉控制系统割草机器人的作业过程反应距离同时进行验证,割草机器人在草地进行随机作业,当面对不同障碍及草地边界时能够进行运动及割草动作的控制,记录割草机器人控制指令发出至机器人动作时的距离,即为割草机器人作业过程反应距离。图5为割草机器人控制成功率统计曲线,图6为割草机器人反应距离统计结果曲线。

5结论

通过计算机视觉算法进行割草机器人作业运动过程控制,利用图像特征匹配的方式进行智能化控制,有效提高了割草机器人的智能化视觉功能,使割草机器人能够在不同环境条件中自主、可靠地完成割草任务。

作者:徐晨 单位:重庆工商职业学院