1. 引言
随着工业自动化与智能制造的快速发展,工业机器人在生产制造中的应用愈发广泛。在工业装配环节,传统装配方式存在效率低、精度难以保证等问题,已无法满足现代制造业日益增长的高质量、高效率生产需求。工业机器人智能装配高精度视觉引导系统通过引入机器视觉技术,能够使机器人实时感知装配环境与目标物体,实现自动化、高精度的装配操作,成为解决上述问题的关键技术手段。目前,虽然已有部分视觉引导系统应用于工业装配,但在复杂光照、多样工件形态等实际工业场景下,仍存在精度不足、适应性差等问题,因此,对工业机器人工业智能装配高精度视觉引导系统展开深入研究具有重要的现实意义[1]。
2. 现有工业机器人视觉引导系统分析
2.1. 现有系统的优势
技术成熟度较高:经过多年发展,基于传统机器视觉的引导系统已形成较为完善的技术体系。例如,基于边缘检测和模板匹配的视觉算法,在标准化零部件装配场景中应用广泛。以汽车发动机缸体装配为例,利用传统视觉算法可快速识别缸体上的特征点,引导机器人完成活塞、曲轴等部件的安装,系统稳定性和可靠性能够满足常规生产需求。
成本相对较低:对于简单的视觉引导任务,现有的硬件设备和软件算法成本可控。普通工业相机和基础图像处理软件即可实现对物体的基本识别与定位,适用于对精度要求不高的中小企业装配线,能够在一定程度上提升生产效率,降低人工成本。
部分功能完善:部分先进的视觉引导系统具备一定的自适应能力,可在一定光照变化和物体姿态变动范围内完成识别与定位。例如,一些系统通过引入光照补偿算法和姿态估计算法,能够适应车间环境中光照强度和角度的轻微变化,以及零部件放置角度的小范围偏差。
2.2. 现有系统的不足
装配精度有限:传统视觉算法在处理复杂形状、微小特征的零部件时,容易出现识别误差和定位偏差。在电子芯片装配等高精度要求场景下,由于芯片引脚间距极小,基于传统边缘检测的算法难以精确捕捉引脚位置,导致装配精度无法满足需求,废品率较高。
环境适应性差:现有视觉引导系统对环境因素敏感,光照变化、粉尘、油污等都会严重影响系统性能。在汽车零部件焊接后的装配环节,焊接产生的强光和飞溅物会干扰视觉系统的图像采集,导致图像模糊、特征丢失,使机器人无法准确识别目标物体。
灵活性与通用性不足:多数现有系统针对特定产品或装配任务设计,难以快速适应产品型号更换和装配工艺调整。当企业需要生产新的产品型号时,往往需要重新设计和调试视觉引导系统,耗费大量时间和成本,无法满足制造业快速迭代的需求。
实时性欠佳:在处理高分辨率图像和复杂算法时,现有系统的计算资源有限,导致图像处理和分析速度较慢。在高速流水线上的装配任务中,由于系统无法快速处理图像信息并生成控制指令,机器人难以跟上流水线节拍,影响生产效率[2] [3]。
3. 本文系统总体架构设计
3.1. 硬件架构
工业机器人智能装配高精度视觉引导系统的硬件主要由工业相机、镜头、光源、图像采集卡、工业机器人、控制柜以及计算机等组成。工业相机作为视觉系统的核心部件,负责采集装配场景的图像信息,其分辨率、帧率等参数直接影响系统的检测精度与实时性。镜头的选择需根据拍摄距离、视野范围以及成像质量要求进行适配,以确保采集到清晰准确的图像。光源的合理配置能够有效增强目标物体与背景的对比度,提高图像质量,例如在装配金属零件时,可采用环形无影光源减少反光干扰。图像采集卡将工业相机采集到的模拟信号转换为数字信号,并传输至计算机进行处理。工业机器人则在计算机的控制下,根据视觉系统获取的目标位置信息完成装配动作,控制柜负责机器人的运动控制与状态监测[4]。
为应对复杂工业环境,硬件选型可进一步优化。例如,选用具备全局快门的工业相机,避免运动模糊;采用高动态范围(HDR)成像技术的相机,增强在明暗变化场景下的图像采集能力;镜头方面,可引入自动变焦镜头,适应不同尺寸工件的拍摄需求[5]。
3.2. 软件架构
软件架构采用分层设计思想,分为图像采集层、图像处理层、运动控制层和用户交互层。图像采集层通过调用工业相机的驱动程序,实现图像的实时采集与传输。图像处理层运用各种先进的图像处理算法,对采集到的图像进行预处理、特征提取与目标识别定位,是实现高精度视觉引导的关键环节。运动控制层根据图像处理层输出的目标位置信息,结合工业机器人的运动学模型,生成机器人的运动轨迹,并将控制指令发送至控制柜,实现机器人的精确运动控制。用户交互层为操作人员提供友好的操作界面,方便操作人员进行系统参数设置、运行状态监控以及装配任务管理等操作[6]。
在软件架构中,可引入微服务架构模式,将各功能模块独立部署,提高系统的可扩展性和维护性。同时,采用容器化技术(如Docker),实现软件环境的快速部署和迁移,便于在不同工业现场快速应用系统。各层功能及关键技术如表1所示。
Table 1. Function table of software architecture at each layer
表1. 软件架构各层功能表
架构层级 |
功能描述 |
关键技术/工具 |
图像采集层 |
实现图像的实时采集与传输 |
工业相机驱动程序 |
图像处理层 |
对图像进行预处理、特征提取与目标识别定位 |
自适应中值滤波算法、卷积神经网络等 |
运动控制层 |
生成机器人运动轨迹并发送控制指令 |
D-H参数法、五次多项式轨迹规划算法等 |
用户交互层 |
提供操作界面,便于参数设置与任务管理 |
图形化界面设计技术 |
4. 关键技术研究
4.1. 视觉感知与图像处理技术
(1) 图像预处理
图像预处理是提高图像处理精度与效率的重要步骤,主要包括图像滤波、灰度变换和图像增强等操作。针对工业场景中存在的噪声干扰问题,采用自适应中值滤波算法,该算法能够根据图像局部区域的特征动态调整滤波窗口大小,在有效去除噪声的同时,最大限度地保留图像细节信息。通过灰度变换增强图像的对比度,使目标物体与背景之间的差异更加明显,便于后续的特征提取与识别[7]。
除自适应中值滤波外,还可探索非局部均值滤波(NLM)、双边滤波等算法,对比它们在不同工业噪声环境下的处理效果。在灰度变换方面,除传统方法外,可引入基于深度学习的图像增强网络,如U-Net等,实现更精准的图像增强效果。滤波算法的噪声密度处理效果如表2所示。
Table 2. Comparison table of noise density of filtering algorithms
表2. 滤波算法噪声密度比较表
滤波算法 |
噪声密度10%处理效果(PSNR) |
噪声密度20%处理效果(PSNR) |
自适应中值滤波 |
32.5 dB |
29.8 dB |
非局部均值滤波 |
31.2 dB |
28.7 dB |
双边滤波 |
30.1 dB |
27.9 dB |
(2) 特征提取与目标识别
为实现对不同形状、材质工件的准确识别与定位,研究采用基于深度学习的目标识别算法。以卷积神经网络(CNN)为基础,构建适合工业装配场景的目标识别模型。通过对大量工业装配图像数据进行标注与训练,使模型能够学习到不同工件的特征模式,从而实现对目标工件的快速、准确识别。同时,结合尺度不变特征变换(SIFT)算法,提取目标工件的局部特征点,增强目标识别的鲁棒性,使其在不同视角、光照条件下仍能保持较高的识别准确率。
当前Transformer架构在计算机视觉领域展现出强大性能,可尝试将Vision Transformer (ViT)应用于工业装配目标识别,与CNN模型进行对比实验,分析其在特征提取和目标识别精度、速度上的优势与不足。此外,研究半监督学习、弱监督学习方法,减少对大量标注数据的依赖,降低数据标注成本。具体见图1。
Figure 1. Comparison diagram of target recognition accuracy among different models
图1. 不同模型目标识别准确率对比图
(3) 亚像素级定位算法
为达到高精度装配要求,研究亚像素级定位算法。采用基于Zernike矩的亚像素定位方法,该方法利用Zernike矩的旋转不变性和正交性,对图像边缘进行亚像素级检测与定位,能够将定位精度提高到亚像素级别,满足工业机器人高精度装配的需求。通过对边缘点的亚像素级定位,可精确获取目标物体的位置与姿态信息,为机器人的运动控制提供准确的参考。
可进一步研究基于深度学习的亚像素定位方法,如将关键点检测网络与亚像素回归相结合,利用深度学习强大的特征学习能力,实现更高效、准确的亚像素级定位。
4.2. 机器人运动控制技术
(1) 运动学建模与逆解
建立工业机器人的运动学模型是实现精确运动控制的基础。采用D-H参数法对工业机器人进行运动学建模,通过建立机器人各关节坐标系之间的关系,推导出机器人末端执行器在笛卡尔空间中的位姿与关节角度之间的数学表达式。在此基础上,求解运动学逆解,即根据视觉系统获取的目标物体位置与姿态信息,计算出机器人各关节应转动的角度,从而实现机器人末端执行器对目标物体的准确抓取与装配。针对运动学逆解存在多解的问题,结合装配任务的实际需求,制定合理的解的选择策略,确保机器人运动的安全性与高效性。
探索改进的D-H参数法,如修正D-H (MDH)参数法,解决传统D-H参数法在某些机器人构型下参数冗余问题,提高运动学建模的准确性。同时,研究基于优化算法的运动学逆解求解方法,如粒子群优化(PSO)、遗传算法(GA)等,解决复杂机器人运动学难题[8]。
(2) 轨迹规划与控制
为使工业机器人在装配过程中能够平稳、快速地到达目标位置,研究机器人的轨迹规划与控制方法。在笛卡尔空间中,采用五次多项式轨迹规划算法,该算法能够保证机器人运动过程中的位置、速度和加速度连续,有效减少运动过程中的冲击与振动。通过对轨迹规划算法的优化,结合机器人的动力学特性,实现机器人运动轨迹的实时调整,使机器人能够适应不同的装配任务需求。同时,采用PID控制算法对机器人的运动进行闭环控制,根据机器人实际运动位置与目标位置的偏差,实时调整控制参数,确保机器人运动的精度。
引入模型预测控制(MPC)算法,考虑机器人的动力学约束和未来一段时间的运动状态,进行滚动优化,实现更优的轨迹规划和运动控制。结合强化学习技术,让机器人在实际运行中不断学习优化运动策略,提高轨迹规划和控制的性能。
4.3. 视觉与机器人的标定技术
视觉系统与工业机器人之间的精确标定是实现高精度视觉引导的关键环节。采用基于张正友标定法的相机标定技术,通过拍摄不同角度的标定板图像,求解相机的内参和外参,获取相机坐标系与世界坐标系之间的转换关系。同时,建立机器人坐标系与世界坐标系之间的转换关系,通过手眼标定方法,确定相机坐标系与机器人坐标系之间的精确转换矩阵。通过精确的标定过程,能够将视觉系统获取的目标位置信息准确地转换为机器人坐标系下的坐标,实现视觉系统与机器人的精确配合,保证工业机器人装配的高精度。
研究基于深度学习的标定方法,利用神经网络直接学习图像特征与实际物理坐标之间的映射关系,无需传统的标定板,简化标定过程,提高标定效率和精度。此外,探索在线标定技术,实时监测和修正视觉系统与机器人之间的标定参数,适应长时间运行过程中设备的微小变化。具体见图2。
Figure 2. Calibration techniques diagram for vision and robots
图2. 视觉与机器人的标定技术图
5. 实验设计与结果分析
5.1. 实验平台搭建
搭建工业机器人智能装配高精度视觉引导系统实验平台,选用某型号六轴工业机器人、高分辨率工业相机、环形无影光源以及高性能计算机等设备。在实验平台上设置不同的工业装配场景,包括不同形状、尺寸和材质的工件装配任务,模拟实际工业生产环境。
进一步丰富实验平台,引入多台工业相机,构建多目视觉系统,提高对复杂工件的三维信息获取能力;添加力传感器,实现力和视觉融合控制,在装配过程中感知接触力,提高装配的柔顺性和准确性。
5.2. 实验方案设计
(1) 精度测试实验
将目标工件放置在不同位置和姿态,利用视觉引导系统引导工业机器人进行装配操作,重复多次实验,测量每次装配后工件的实际位置与理想位置之间的偏差,计算平均误差和误差标准差,评估系统的装配精度。
(2) 稳定性测试实验
在连续工作状态下,让视觉引导系统持续运行一段时间,进行大量的装配任务,记录系统运行过程中出现的故障次数和异常情况,分析系统的稳定性。
(3) 适应性测试实验
改变实验环境的光照条件、添加背景干扰物等,测试系统在不同环境下对目标工件的识别与定位能力,评估系统的环境适应性。
增加动态场景实验,模拟工件在传送带上运动的情况,测试系统对动态目标的跟踪和装配能力;开展多品种小批量工件装配实验,验证系统在不同工件快速切换装配时的性能。
5.3. 实验结果分析
(1) 精度测试结果
实验结果表明,该系统在装配过程中的平均位置误差小于0.1 mm,姿态误差小于0.5˚,能够满足大多数工业装配场景对高精度的要求。与传统视觉引导系统相比,装配精度有了显著提升。具体见表3。
Table 3. Error comparison table
表3. 误差比较表
系统类型 |
平均位置误差(mm) |
平均姿态误差(˚) |
本研究系统 |
0.08 |
0.4 |
传统视觉引导系统 |
0.25 |
1.2 |
(2) 稳定性测试结果
在连续运行8小时的稳定性测试实验中,系统仅出现1次轻微的图像采集异常,经分析是由于网络短暂波动导致,通过优化网络配置后问题得到解决,系统整体稳定性良好,能够满足工业生产长时间连续运行的需求。
(3) 适应性测试结果
在不同光照条件和复杂背景干扰下,系统仍能准确识别目标工件,定位精度虽有一定下降,但仍在可接受范围内,说明该系统具有较强的环境适应性,能够在实际工业生产环境中稳定运行。对新增实验场景进行详细的数据分析,对比不同算法和技术改进前后系统在动态目标跟踪、多品种装配等方面的性能差异,直观展示系统的优化效果。
6. 本研究与现有研究的比较及创新性
(1) 算法创新
改进的视觉定位算法:现有研究多采用传统的特征匹配算法,在复杂背景和相似特征物体识别上存在困难。本研究提出一种基于深度学习的多模态特征融合定位算法,融合了RGB图像和深度图像的特征信息。通过构建卷积神经网络(CNN)模型,对大量装配场景图像进行训练,使算法能够准确识别复杂背景下的微小零部件,并实现亚像素级的精确定位。在手机摄像头模组装配实验中,该算法将定位精度从传统方法的±0.1 mm提升至±0.02 mm,显著提高了装配精度。
动态目标跟踪算法优化:现有视觉引导系统在跟踪运动目标时,存在跟踪丢失和误差累积问题。本研究引入基于卡尔曼滤波和粒子滤波相结合的动态目标跟踪算法,利用卡尔曼滤波对目标运动状态进行预测,结合粒子滤波处理非线性、非高斯的复杂情况。在自动化物流分拣与装配场景中,该算法可实时准确跟踪高速移动的零部件,跟踪误差降低了40%,保证了机器人能够及时、准确地抓取和装配目标物体。
(2) 系统架构创新
多传感器融合架构:现有系统多依赖单一视觉传感器,信息获取有限,难以应对复杂环境。本研究构建了视觉–力觉–激光雷达多传感器融合架构。视觉传感器用于目标识别与定位,力觉传感器实时感知装配过程中的接触力,激光雷达获取环境三维信息。通过设计数据融合算法,将多传感器数据进行有机融合,使系统能够在复杂光照、遮挡等环境下准确判断目标物体的位置和姿态,并根据装配力反馈调整机器人动作,提高装配的柔顺性和成功率。在航空发动机叶片装配实验中,多传感器融合系统使装配成功率从单一视觉系统的82%提升至95%。
分布式计算架构:针对现有系统实时性不足的问题,本研究采用分布式计算架构,将图像处理和算法运算任务分配到多个计算节点上并行处理。利用云计算和边缘计算技术,在靠近传感器的边缘设备上进行初步的数据预处理,减少数据传输量;在云端服务器上进行复杂的算法计算和模型训练。这种架构使系统的图像处理速度提升了3倍,能够满足高速装配场景的实时性要求。
(3) 功能拓展与优化
智能化自适应功能:现有系统缺乏对环境和任务变化的自适应能力。本研究为视觉引导系统引入智能决策模块,基于机器学习算法对历史装配数据和实时传感器数据进行分析,自动调整系统参数和装配策略。当环境光照发生变化时,系统可自动调节相机曝光参数和图像增强算法;当装配任务变更时,系统能够快速切换装配程序和算法模型,实现对不同产品和装配工艺的自适应,极大提高了系统的通用性和灵活性。
远程监控与故障诊断功能:现有视觉引导系统通常不具备远程监控和故障诊断能力,出现问题时难以快速定位和解决。本研究开发了基于物联网技术的远程监控与故障诊断平台,通过传感器实时采集系统运行状态数据,并上传至云端。利用大数据分析和故障诊断算法,对系统进行实时健康监测,一旦检测到异常,能够快速定位故障点并提供解决方案。该功能可减少设备停机时间,降低维护成本,提高生产效率。
7. 结论与展望
本研究成功设计并开发了一套工业机器人工业智能装配高精度视觉引导系统,通过对系统架构设计、关键技术研究以及实验验证,表明该系统在装配精度、稳定性和环境适应性方面均表现良好,能够有效提升工业机器人智能装配的效率与质量。然而,在研究过程中也发现一些问题,如系统在处理极微小零件装配时,精度仍有待进一步提高;对于动态变化的装配场景,系统的实时响应能力还需加强。未来的研究将围绕这些问题展开,进一步优化视觉算法与机器人运动控制策略,探索引入更先进的传感器技术,如激光雷达等,实现多传感器信息融合,提高系统在复杂场景下的性能,推动工业机器人智能装配技术向更高水平发展。
基金项目
2024年江西应用科技学院校级研究项目(JXYKXJZD-24-1);2024年亳州学院质量工程教育教学改革研究项目(2024XJXM063);2024年工业和信息化部教育与考试中心研究课题。
NOTES
*通讯作者。