基于无线通信的移动机器人视觉镇定控制
Vision Stabilization Control of Mobile Robot Based on Wireless Communication
DOI: 10.12677/AIRR.2020.92010, PDF, HTML, XML, 下载: 712  浏览: 1,271  科研立项经费支持
作者: 冀 东, 尹成浩, 宋志伟:天津工业大学电气工程与自动化学院,天津
关键词: 轮式移动机器人视觉伺服单应矩阵无线通信技术Wheeled Mobile Robot Visual Servoing Homography Matrix Wireless Communication
摘要: 该文基于无线传输技术,针对目标特征模型未知的情况,设计了一种轮式移动机器人动态场景中视觉镇定控制方案。首先建立了移动机器人视觉伺服系统坐标系,然后对特征点移动前后两期望坐标系和监视摄像机坐标系间的变换关系进行了分析与计算。通过XBee-Pro无线通信模块进行特征点信息传输,通过仿真和实验结果表明,该方案可以成功驱使移动机器人到达目标位姿处。
Abstract: Based on wireless transmission technology, this paper designs a scheme for visual stabilization control of a wheeled mobile robot in a dynamic scene in response to an unknown target feature model. First, the coordinate system of the mobile robot’s visual servo system was established, and then the transformation relationship between the two desired coordinate systems before and after the feature point movement and the surveillance camera coordinate system was analyzed and calculated. The XBee-Pro wireless communication module is used to transmit feature point information. Simulation and experimental results show that the scheme can successfully drive the mobile robot to the target pose.
文章引用:冀东, 尹成浩, 宋志伟. 基于无线通信的移动机器人视觉镇定控制[J]. 人工智能与机器人研究, 2020, 9(2): 82-91. https://doi.org/10.12677/AIRR.2020.92010

1. 引言

随着科学技术的不断发展,机器人逐渐走入了人们的生活,使得人类的生活发生了日新月异的变化 [1]。机器人凭借其精度高、效率高、可适应复杂工作环境等优点,逐步在军事、智能家居、科学研究、工业生产等领域 [2] [3] 得到应用。

视觉传感器具有非接触测量、易于设置、灵活的设计、标准化的设置环境、价格低等优点,因此视觉传感器被广泛应用于轮式移动机器人。而且伴着智能控制、模式识别、过程控制等技术的日趋成熟,这使得视觉轮式移动机器人 [4] 更加的智能化且运用范围更加广泛。

早期应用视觉伺服方法的典型代表为工业机器人 [5]。相比移动机器人,工业机器人具有简单的约束条件,传统工业机器人大都集中在控制方法的研究上。移动机器人通过摄像机拍取运动场景信息,来得知目标位姿或机器人位姿的相对关系,进而通过控制器可以驱使移动机器人做出相应地动作。视觉伺服将图像处理、实时计算、运动控制等学科融为一体进行研究 [6] [7]。

移动机器人非线性控制方法和基于视觉的环境感知得到了深入研究 [8] [9] [10]。在已有的控制策略中,机器人期望位姿和目标特征点大多是固定的。本文基于无线通信技术,在机器人期望位姿随特征变化的动态场景中,对轮式移动机器人视觉伺服进行了研究。

2. 系统坐标系描述

轮式移动机器人视觉伺服系统坐标系如图1所示,整个坐标系系统由监视摄像机、特征点、移动机器人组成。监视摄像机坐标系定义为 F m 。为了应用方便,假设机载相机和移动机器人坐标系重合。将移动机器人的当前位姿定义为 F c 。坐标系 F c 的原点为机载相机的光心。 F c z c x c 平面表示机器人的运动平面,其中 z c 轴和摄像机的光轴在相同的方向上。 y c 垂直于移动机器人的运动平面 z c x c ,并满足右手定则。 P i d 是移动之前的特征点, P i * 是移动之后的特征点。特征点移动前的期望位姿为 F d F 为特征点移动之后的期望位姿,为使移动后的机器人期望坐标系位于机器人运动平面上,将移动后的期望坐标系 F 作投影,即坐标系 F p

3. 控制策略

为解决实际应用一些场合中需实现特征点移动后期望位姿与原始期望位姿间的视觉镇定任务,提出了新的控制方法。基于移动后的特征点 P i * ,运用无线通信技术来完成轮式移动机器人在特征点变化后期望位姿镇定至特征点移动前原始期望位姿的视觉伺服任务。运用两个无线通信模块XBee-Pro,其中一个XBee-Pro1模块安装在监视摄像机系统用于发送数据,另一个XBee-Pro2安装在移动机器人系统用于接收数据。控制策略框图如图2所示,控制策略可分为以下四个阶段。

Figure 1. Robot visual servoing system coordinate system

图1. 机器人视觉伺服系统坐标系

1) 第一阶段,机载摄像机在相对于目标特征点合理的位姿(特征点移动前期望位姿)处拍摄一张特征点移动之前的图像。然后移动机器人系统程序开始循环串口读取数据阶段,等待数据输入。接着固定监视摄像机拍取特征点移动之前的图像信息,运用XBee-Pro1发送。此时移动机器人系统无线通信模块XBee-Pro2接收XBee-Pro1发出的数据。机器人系统利用获取的数据经过六自由度单应矩阵分解得到 F m F d 之间的变换矩阵。

2) 第二阶段,特征点移动后,为完成从特征点移动后期望坐标系到原始坐标系的视觉镇定任务,令移动机器人在特征点移动后期望位姿出发。监视摄像机拍取特征点移动后的图像信息,利用模块XBee-Pro1将图像信息发出。然后机载相机拍取移动后特征点信息且XBee-Pro2接收XBee-Pro1发出的实时数据。最终经过六自由度矩阵分解得出 F m F c 间的变换矩阵。

3) 第三阶段,视觉伺服过程中,特征点的3D坐标是未知的,场景的深度信息亦不知,因此需要计算出两个不同深度信息之间的比例。然后经过坐标系变换,计算得出 F c F d 间的变换关系。

4) 第四阶段,运用自适应控制器驱使轮式移动机器人从特征点移动后期望位姿到达移动前原始期望位姿处。

Figure 2. Control strategy block diagram

图2. 控制策略框图

4. 坐标系关系

移动机器人系统通过无线通信模块XBee-Pro2接收的图像数据和机载相机拍摄的特征点的图像信息,运用六自由度单应矩阵分解,可以得出坐标系 F m 和坐标系 F d 之间的旋转矩阵 R m d ( t ) 和平移向量 d T m ( t ) 为:

R m d = [ R m d 11 R m d 12 R m d 13 R m d 21 R m d 22 R m d 23 R m d 31 R m d 32 R m d 33 ] , T d m = [ T d m x d m T d m y d m T d m z d m ] (1)

由于场景中深度未知,上式中将从监视摄像机坐标系 F m 的原点沿着平面法向量 n m a 到移动之前特征点平面的深度设为 d m

当前坐标系 F c 与监视相机坐标系 F m 之间的旋转矩阵 R m c ( t ) 和平移向量 c T m ( t ) 为:

R m c = [ R m c 11 R m c 12 R m c 13 R m c 21 R m c 22 R m c 23 R m c 31 R m c 32 R m c 33 ] , T c m = [ T c m x d m b T c m y d m b T c m z d m b ] (2)

上式中将从监视摄像机坐标系 F m 的原点沿着平面法向量 n m b 到特征点移动之前的特征点平面的深度设为 d m b

由式(1)可知,监视摄像机坐标系与特征点移动前原始期望坐标系之间的变换矩阵为:

T m d = [ R m d T d m d m 0 1 × 3 1 ] (3)

由式(2)可知,移动机器人在特征点移动后期望位姿出发,机器人当前位姿与监视摄像机坐标系之间的变换矩阵为:

T m c = [ R m c T c m d m b 0 1 × 3 1 ] (4)

运用未知深度之间的比例关系,得出机器人当前位姿与监视摄像机坐标系之间的变换矩阵为:

T m c = [ R m c λ T c m d m b 0 1 × 3 1 ] = [ R m c T c m d m 0 1 × 3 1 ] (5)

运用坐标系变换关系,利用式(3)和(5),可以得到轮式机器人在特征点移动后期望位姿开始出发,当前坐标系和原始期望坐标系之间的变换关系:

[ R d c T c d d m 0 1 × 3 1 ] = [ R m c T c m d m 0 1 × 3 1 ] [ R m d T d m d m 0 1 × 3 1 ] 1 (6)

式中 R d c T c d d m 分别表示轮式移动机器人当前位姿与特征点前原始期望位姿之间的旋转矩阵和平移向量。

考虑到任务场景中存在未知深度,因此控制器应用一个自适应控制器来进行机器人的视觉伺服任务。基于李雅普诺夫稳定性理论,运用可测数据号 ϕ ( t ) α ( t ) e s ( t ) ,轮式机器人的速度可分别设为:

v = ( γ cos α ) e s (7)

w = k α + l ^ γ cos α sin α α ( α + q ϕ ) (8)

式中 γ , k , q + 是正的控制增益, l ^ ( t ) 为和未知深度信息有关的常数值。而且设置深度估计 l ^ 的自适应更新律为:

l ^ ˙ = Γ Proj l ^ ( γ ( α + q ϕ ) sin α cos α ) (9)

上式中 Γ 为更新增益。投影函数 Proj l ^ ( X ) 可以表示为:

Proj l ^ ( X ) = { 0 , l ^ = l min X < 0 X , (10)

式中 l min + 为l的正下界。

5. 仿真验证

对基于无线通信技术的轮式移动机器人从特征点变化后的期望位姿镇定至特征点移动前原始期望位姿的视觉伺服控制策略进行仿真。仿真中采用的模拟相机内部参数如下:

K = [ 998.0 0 369.5 0 998.0 369.5 0 0 1 ] (11)

在系统参考坐标系下,设置轮式机器人的起始位姿为:

( 2.0 m , 1.0 m , 0 ) (12)

仿真中将特征点移动设置为:

( 2.3 m , 0.3 m , 0 ) (13)

机器人最终期望位姿应为 ( 0 m , 0 m , 0 ) ,即移动机器人移动到特征点移动之前的期望位姿处。选取的控制增益和其它参数为:

γ = 1.38 , k = 1.0 , q = 2 , l ^ min = 1 (14)

仿真验证中轮式机器人的移动路径图如图3所示,图中红三角为特征点移动前机器人的期望位姿,即参考坐标系的位姿。轮式移动机器人的运行过程中的线速度和角速度如图4所示,图中可以看出机器人的线速度和角速度在3秒左右逐渐平滑地收敛到零。图5显示出了特征点的运动轨迹。其中蓝色星形点是特征点移动之前在图像中的位置。圆形和方形点分别代表初始位姿时特征点位置和特征点移动后期望位姿处特征点在图像中的位置。图6表示的是机器人的运动状态 ( T p c x ( t ) , T p c z ( t ) , θ ( t ) ) 随时间推移的变化过程,红色虚线为期望值,由图可得三个值都在3秒左右平滑收敛到所期望位姿的最终值。综上所述,在特征点3D坐标未知的情况下,轮式移动机器人在仿真过程中,成功地从特征点移动后的期望位姿镇定至原始期望位姿处。

Figure 3. Simulation results: wheeled robot movement path [Red triangle: desired pose]

图3. 仿真结果:轮式机器人移动路径[红三角:期望位姿]

Figure 4. Simulation results: speed change trend of the wheeled robot [Red dashed lines: desired values]

图4. 仿真结果:轮式机器人速度变化[红色虚线:期望值]

Figure 5. Simulation results: target feature path

图5. 仿真结果:目标特征路径

Figure 6. Simulation results: evolution of the robot pose [Red dashed lines: desired values]

图6. 仿真结果:移动机器人位姿变化[红虚线:期望值]

6. 实验验证

Figure 7. XBee-Pro module

图7. XBee-Pro模块

图7所示,实验中选用无线通信模块为XBee-Pro,XBee-Pro模块是与ZigBee/IEEE802.15.4兼容的解决方案,设备间数据传输可靠等特征适用于科研实验室的需求,创新后的XBee-Pro模块在范围上是普通ZigBee模块的2.5倍左右。XBee-Pro模块不配置就可以建立通信,它的默认配置支持宽范围的数据系统应用,同样也能用AT命令来进行配置。

用实验来验证基于无线通信技术的轮式移动机器人,从特征点移动后期望位姿移动至特征点移动前期望位姿的视觉伺服控制策略的有效性。如图8所示,整个轮式机器人视觉镇定系统由两个XBee-Pro模块、先锋机器人、机载映美精摄像机、机载笔记本电脑、目标特征点格子板、固定监视映美精摄像机等搭建而成。

图9所示,左图表示的是特征点移动之前特征点的位置和移动机器人相对于目标特征点期望位姿的位置。右图表示特征点向左前方移动后的位置,对机器人视觉伺服系统具体的操作流程如控制策略所述。在本实验中,移动机器人在特征点移动后相对应的期望位姿 ( 1.25 m , 0.55 m , 5 ) 处出发开始视觉伺服任务。选取合适的控制参数为: γ = 0.35 , k = 0.08 , q = 0.95 , l ^ min = 0.4

Figure 8. Experiments scene

图8. 实验场景图

Figure 9. Feature point movement [Left: before moving, Right: after moving]

图9. 特征点移动变化[左:移动前,右:移动后]

图10为轮式机器人实验移动轨迹图。轮式机器人基本上实现了从特征点移动后期望位姿出发,到达红色三角形所标注的期望位姿处。移动机器人的实时位姿变化在图11可以看到, ( T p c z ( t ) , T p c x ( t ) , θ ( t ) ) 都逐渐收敛至期望值。目标特征点的轨迹图如图12所示,图中蓝色星形点为特征点移动前在机载摄像机中的期望图像。特征点移动后,机载相机在相对应的期望位置拍摄的图像如蓝色圆形点所示。图中星形点和圆形点将近重合,证明了移动机器人准确地在移动后期望位置出发。绿色方形点代表了移动后特征点在机器人镇定停止时在相机中的图像。如图13为轮式机器人速度实时变化图,可以得出线速度和角速度都收敛于期望值。综合上述分析得出,在特征点模型未知的情况下,基于无线通信模块,可以运用设计的控制策略控制移动机器人从移动后期望位姿移动至原始期望位姿处。

Figure 10. Experimental results: wheeled robot motion path

图10. 实验结果:轮式机器人运动路径

Figure 11. Experimental results: evolution of the wheeled robot pose [Red dashed line: desired values]

图11. 实验结果:轮式机器人位姿变化[红色虚线:期望值]

Figure 12. Experimental results: feature point trajectory

图12. 实验结果:场景特征路径

Figure 13. Experimental results: speed change of wheeled robot [Red dashed line: zero values]

图13. 实验结果:轮式机器人的速度变化[红色虚线:零值]

7. 结论

本文基于无线传输技术,针对目标特征模型未知的情况,设计了一个移动机器人从特征点移动后期望位姿至特征点移动前原始期望位姿的控制方案。建立了移动机器人视觉伺服系统坐标系,对特征点移动前后两期望坐标系和监视摄像机坐标系间的变换关系进行了分析与计算。通过仿真和实验结果表明,该方案可以成功驱使移动机器人从特征点移动后期望位姿到达原始的期望位姿处。

基金项目

天津市教委科研计划项目(2017KJ084)。

参考文献

参考文献

[1] 谭民, 王硕. 机器人技术研究进展[J]. 自动化学报, 2013, 39(7): 963-972.
[2] Truong, X. and Ngo, T.D. (2017) Toward Socially Aware Robot Navigation in Dynamic and Crowded Environments: A Proactive Social Motion Model. IEEE Transactions on Automation Science and Engineering, 14, 1743-1760.
https://doi.org/10.1109/TASE.2017.2731371
[3] 曹其新, 张蕾. 轮式自主移动机器人[M]. 上海: 上海交通大学出版社, 2012: 2.
[4] Hutchinson, S., Hager, G.D. and Corke, P.I. (1996) A Tutorial on Visual Servo Control. IEEE Transactions on Robotics and Automation, 12, 651-670.
https://doi.org/10.1109/70.538972
[5] Wang, H., Guo, D., Xu, H., et al. (2017) Eye-in-Hand Tracking Control of Free-Floating Space Manipulator. IEEE Transactions on Aerospace and Electronic Systems, 53, 1855-1865.
https://doi.org/10.1109/TAES.2017.2674218
[6] 李宝全, 尹成浩, 师五喜. 模型未知动态场景下移动机器人的视觉镇定[J]. 天津工业大学学报, 2019, 38(3): 47-54.
[7] Yin, C., Li, B., Shi, W., et al. (2019) Monitoring-Based Visual Servoing of Wheeled Mobile Robots. International Journal of Robotics and Automation, 34, 230-330.
https://doi.org/10.2316/J.2019.206-0028
[8] Zhang, X., Fang, Y. and Liu, X. (2011) Motion-Estimation-Based Visual Servoing of Nonholonomic Mobile Robots. IEEE Transactions on Robotics, 27, 1167-1175.
https://doi.org/10.1109/TRO.2011.2162765
[9] Chen, J., Dixon, W.E., Dawson, D.M., et al. (2006) Homography-Based Visual Servo Tracking Control of a Wheeled Mobile Robot. IEEE Transactions on Robotics, 22, 406-415.
https://doi.org/10.1109/TRO.2006.862476
[10] 陈华, 王朝立, 杨芳. 基于视觉伺服非完整移动机器人的有限时间饱和镇定[J]. 控制理论与应用, 2012, 29(6): 817-823.