1. 引言
四足机器人凭借其独特的运动模式和出色的环境适应性,在搜索救援、物流配送及农业自动化等多个领域展现出了巨大的应用潜力[1]。然而,要使四足机器人在这些复杂多变的环境中高效执行任务,实现精准定位、高效导航和自主决策,颜色识别算法的性能至关重要。尽管近年来颜色识别算法随着计算机视觉和机器学习技术的快速发展取得了显著进步[2],但在实际应用中,现有的四足机器人颜色识别算法仍面临诸多挑战。
传统颜色识别方法[3] [4]在复杂光照条件、颜色相似物体干扰以及动态变化环境等方面表现不佳,导致识别准确性和鲁棒性受限。此外,算法的实时性也是一个亟待解决的问题,尤其是在需要快速响应的场合,如紧急搜索救援任务中[5] [6]。因此,如何优化颜色识别算法,以提高其在复杂环境中的准确性和稳定性,同时保证实时性能,成为当前研究的重点。
针对上述问题,本文将致力于探索并提出一套高效、准确的四足机器人颜色识别算法。通过深入分析现有算法的不足,本文将结合YUV颜色空间优化[7]、深度学习模型以及多传感器融合等先进技术,设计一套能够实时捕捉并分析环境色彩信息的算法集。该算法集旨在提高颜色识别的准确性和鲁棒性,同时满足实时性要求,从而确保四足机器人在复杂环境中的稳定运行和高效作业。
2. 系统构建
2.1. 硬件构建
Figure 1. High-resolution camera position
图1. 高分辨率摄像头位置
视觉识别系统的构建是四足机器人实现自主导航的关键部分,本项目机器人采用了一款具备实时拍摄功能的高分辨率彩色摄像头,其分辨率达到1920*1080,视野角度为72˚,并具有自动调焦功能。摄像头被安装在机器人前部下方,距地面约0.25米,通过USB接口与Upboard控制板连接。此配置让机器人能够实时捕捉前方路面的图像信息,确保对当前环境的准确感知,为下一步决策提供依据。摄像头安装如图1。
2.2. 软件构建
四足机器人视觉识别系统的软件设计围绕颜色识别展开,以实现对特定颜色的准确检测与追踪。这一过程涉及图像预处理、颜色分割、二值化、腐蚀膨胀处理以及轮廓检测等一系列图像处理技术[6]。软件框架构建在上位机与下位机的交互之上,其中上位机负责图像处理算法的运行,而下位机则根据处理结果执行具体的动作指令。软件开发流程见图2所示。
Figure 2. Flowchart of the software development
图2. 软件开发流程图
3. 算法实现
3.1. 多传感器融合的图像采集及预处理
光线传感器可以实时获取环境光照强度信息,将其与摄像头采集的图像数据结合,根据光照强度动态调整YUV空间的处理参数[8]。传感器可以使光线传感器检测到强光时,在YUV处理中增加亮度调整的幅度。本文采用摄像头与距离传感器融合,使机器人可以配合使用传感器来确定物体与自身的距离。对于距离较近的物体,可以提高颜色识别的分辨率要求,对于距离较远的物体,可以适当放宽识别阈值,提高实时性。数据融合算法采用卡尔曼滤波等数据融合算法,将不同传感器的数据进行融合处理,得到更准确的环境和物体信息。
Figure 3. Camera for real-time image
图3. 摄像头实时图像
Figure 4. Image after the binarization processing
图4. 二值化处理后的图像
在图像预处理阶段,采用滤波算法去除图像中的噪点和其他干扰,以提升目标颜色的区分度。针对图像实施二值化处理,设定阈值将目标颜色与背景分离,形成二值图像,其中目标颜色区域表现为白色,其余为黑色。为了进一步提高识别精度,引入了腐蚀膨胀处理,先通过腐蚀操作去除小的噪声点,再利用膨胀操作强化目标边缘,确保目标特征的完整性。处理前后结果如图3和图4。
3.2. 结合YUV颜色空间优化的颜色识别与轮廓检测
YUV是一种将亮度信息(Y)与色彩信息(U、V)分离的颜色空间,这种特性使得它在处理光照变化问题上具有优势。利用Y通道信息,可以对图像进行亮度归一化处理[9]。在不同光照强度下,通过将Y值调整到一个标准范围,减少光照对颜色识别的影响。例如,在较暗环境下采集的图像可以增强亮度,而在过亮环境下可以降低亮度,使颜色信息相对稳定。
在完成图像预处理后,算法进入颜色识别阶段。通过调整阈值,直到仅特定颜色色块显示为白色,其余区域为黑色,以此确认颜色识别的成功。一旦识别成功,机器人将根据色块的位置和形状信息,决定后续任务的执行,例如越过障碍、配送物品等。本文算法结合YUV颜色空间优化,根据U和V通道的值,可以更准确地对颜色进行聚类。通过对大量样本在YUV空间的统计分析,确定不同颜色在U-V平面上的聚类中心和范围,相比RGB空间能更好地区分相似颜色。
此外,系统还采用了轮廓检测技术,通过边缘检测算法[10] [11],识别目标对象的边界,进一步细化颜色识别的结果。这不仅有助于提高颜色识别的准确性,还能增强机器人对复杂场景的理解和适应能力。
3.3. 模型训练与算法实时优化
为了进一步提升颜色识别模型的鲁棒性,本文在不同光照条件下采集了大量图像样本,这些样本涵盖了从极端暗光到强烈日光等多种光照情况。这些丰富的样本集为模型的训练提供了坚实的基础,确保了模型能够在各种复杂光照环境中都能保持稳定的性能[12]。在模型训练过程中,采用了反复迭代优化的方法,不断调整网络权重,以期在多种环境下都能实现高精度的颜色识别。
实验阶段,对训练好的模型进行了严格的测试后的测试结果显示,该模型在各种复杂环境下的累积测试准确率高达90.6%,这一结果充分证明了其在复杂环境中的有效性和鲁棒性。高准确率不仅意味着模型能够准确识别目标颜色,更代表了它在面对各种干扰和变化时依然能够保持稳定的识别性能。
为了确保算法能够实时运行,本文还充分利用了四足机器人上的图形处理单元(GPU)或其他专用硬件加速器。这些硬件加速器极大地加速了深度学习模型的推理过程和YUV颜色空间的转换计算,使得算法能够在实时性要求极高的场景中依然保持流畅运行。同时还对深度学习模型进行了剪枝等优化操作,有效减少了模型的计算量,提高了执行效率。此外,还对YUV颜色空间处理算法的代码结构进行了优化,进一步提升了算法的执行速度和稳定性。
3.4. 实际应用与测试
在实际应用中,四足机器人被置于包含直线、弯道、上下坡、限高杆、三岔路口、上下台阶、模拟草地和住户等复杂环境的测试场地中。机器人通过PC端发送的启动指令,开始自主循迹,期间实时识别运动轨迹,实现自主循迹和避障。实验结果表明,机器人能够有效执行循迹任务,准确识别并跨越障碍,完成配送等基础任务,证实了视觉识别与运动规划策略的可行性。
4. 实验结果及分析
进行图像预处理,机器人目标颜色为白色,并对白色赛道进行寻迹。此部分为颜色识别算法实现的关键部分,通过调整阈值(见图5),直到仅特定颜色色块显示为白色,其余区域为黑色。摄像头反馈图像如图所示,图6反馈为摄像头实时图像,图7反馈为进行阈值分析后识别出的道路图像。
Figure 5. Adjusted threshold processing for color identification
图5. 颜色识别的调整阈值处理
Figure 6. Road image taken by the camera
图6. 摄像头拍摄的道路图像
Figure 7. The road image identified after the thresholding analysis
图7. 阈值分析后识别的道路图像
阈值调节完毕后机器人被置于一个包含直线、弯道、上下坡、限高杆、三岔路口、上下台阶、模拟草地和模拟住户等多样化地形的测试场地中。这些地形不仅考验了机器人的运动能力,更对其视觉识别系统的精准度和反应速度提出了极高要求。在测试过程中,机器人通过集成的高分辨率彩色摄像头实时捕捉环境图像,并运用颜色识别算法迅速分析图像内容,精准识别出预设的特定颜色标记或路径。
实验数据显示,机器人在各种条件下均能保持较高的识别精度,达到了高达90.6%的累积测试准确率。这一结果表明,算法集在不同光照强度和光照角度下的稳定性得到了充分验证。尤其是在复杂多变的光照环境中,机器人依然能够准确区分并识别出目标颜色,展现了其强大的环境适应能力。调试结果如图8。
Figure 8. Robot’s walking state when accurately identifying different target colours
图8. 机器人准确识别不同目标颜色的行走状态
5. 结语
本文通过深入研究和设计,提出了一套针对四足机器人的高效、准确的颜色识别算法集。该算法集集成了YUV颜色空间优化、深度学习模型以及多传感器融合等先进技术,有效克服了传统颜色识别算法在复杂光照条件、颜色相似物体干扰以及动态变化环境中的不足。实验结果表明,采用该算法集的四足机器人在各种光照条件下均能准确识别目标颜色,并展现出较高的识别精度和鲁棒性,累积测试准确率高达90.6%。
在算法实现过程中,充分利用了YUV颜色空间将亮度信息与色彩信息分离的特性,通过亮度归一化处理,显著减少了光照变化对颜色识别的影响。同时,结合深度学习模型进行训练和优化,进一步提升了颜色识别的精度和泛化能力。此外,通过多传感器融合技术,将摄像头与光线传感器、距离传感器等数据结合,使得机器人在复杂环境中能够更准确地感知和分析环境色彩信息,从而提高了颜色识别的准确性和实时性。
在实际应用中,四足机器人展现出了出色的自主导航能力,能够准确识别直线、弯道、上下坡等多种地形中的目标颜色,并成功执行循迹和避障任务。这不仅验证了本文所设计的颜色识别算法集的有效性,也为四足机器人在快递物流、农业自动化等领域的应用提供了有力的技术支持。
综上,本文提出的四足机器人颜色识别算法集,在提升颜色识别准确性和鲁棒性方面取得了显著成效,为四足机器人在复杂环境中的自主导航提供了新的思路和技术支撑。随着计算机视觉和机器学习技术的不断发展,相信未来的颜色识别算法将更加智能化、高效化,为四足机器人等智能设备的广泛应用创造更多可能性。
基金项目
2024大学生创新创业训练计划项目。