1. 引言
电火工品具有批次多、批量大的特点,其键槽一致性(主要为键槽与极针相对位置旁的桥序是否正确,如图1所示,例如以大键槽向下为中心线,左为4、2点,右为3、1点,4、3点靠近点大键槽)属于重要的检验要素,极针序号错误将出现实物与要求不符合及不满足批次一致性要求的问题。因此,在完成生产前会进行几道检验过程且实行100%全检。目前针对键槽一致性检测主要依靠检验人员肉眼与图纸进行比对判断,但大批量产品检查一段时间后易产生视觉疲劳,造成错检、漏检,影响进度和产品质量,且可追溯性差。
Figure 1. Schematic diagram of electric explosive device detection terminal
图1. 电火工品检测端示意图
传统人工检测主要存在费时费力等问题,而机器视觉检测技术由于其自身的优点,已广泛运用在医学、工业、农业等各个领域[1],使用计算机代替人工判读,降低了人工长时间工作引起的视觉误差等[2]。因此本文提出了基于轮廓模板匹配的键槽一致性自动检测技术研究,旨在利用机器视觉识别的手段研究实现多种规格的电火工品键槽一致性自动检测、不合格品自动判别的技术方法,减少人工操作误差,提高检测效率,降低人工劳动强度,保证可追溯性,进一步保证航天产品检测质量。
2. 视觉识别算法分析
选择一种算法从来不是寻找一个“绝对最优”的解,而是一个在多重约束下寻找“最合适”方案的权衡过程。主要依据包括但不限于以下几点:
1) 任务需求与精度要求。任务对准确率的容忍度有多高?允许的误差范围是多少?
2) 性能与速度要求。系统是实时应用还是离线批处理?可接受的延迟是多少?
3) 环境变化与鲁棒性要求。待处理数据的变化有多大?需要考虑哪些干扰因素?常见干扰有光照变化、尺度变化、旋转、畸变、部分遮挡、背景杂乱、噪声等。
4) 开发与部署资源。是否有足够的数据、算力和专业知识来训练和调优复杂模型?目标硬件是什么(如:云端服务器、移动手机、嵌入式设备MCU)?计算能力、内存和功耗限制如何?
5) 可解释性与维护成本。是否需要理解算法为何做出某个决策?算法是否容易调试和更新?
本文主要针对模板匹配方法与基于轻量级CNN的识别在该应用场景下的优劣(如精度、速度、鲁棒性、部署难度等)进行分析。以“识别检测桥序数字”为例进行对比,具体如下。
2.1. 模板匹配
原理:将一张预先准备好的标准模板图像(如一个干净的“2”)在待检测图像上进行滑动,计算每个位置上的相似度(如计算像素差的平方和SSD、互相关等),找到相似度最高的位置即认为是匹配成功。
1) 精度
优:在理想条件下(光照均匀、无旋转缩放、字体样式与模板完全一致、背景干净),可以达到很高的精度。
劣:精度依赖条件。一旦出现字体样式更改、轻微旋转、尺度缩放、光照变化、墨水污渍等,精度会受影响。
2) 速度
优:算法原理简单,计算复杂度与模板和图像大小相关。在模板和搜索区域较小时,速度可以非常快。
劣:若要处理多尺度、多旋转角度,则需构建图像金字塔并进行多角度匹配,计算量会呈指数级增长,速度会变慢。
3) 鲁棒性
劣:较为脆弱。对前述的所有变化(尺度、旋转、光照、字体、噪声)都比较敏感。
4) 部署难度
优:极易部署。无需复杂的第三方库(仅需OpenCV等基础库),算法逻辑简单,代码量小,可轻松移植到任何平台,包括资源极其有限的嵌入式设备。
5) 数据与开发需求
优:无需训练数据,只需要准备好标准的模板图像即可。开发周期短,无需机器学习知识。
2.2. 基于预训练的轻量级CNN (如MobileNetV2,SqueezeNet + 自定义分类头)
原理:使用在大型图像数据集(如ImageNet)上预训练好的轻量级卷积神经网络作为特征提取主干,移除其原始分类头,针对字符识别任务(10数字分类 + 26字母分类)微调一个新的小型分类头。
1) 精度
优:精度高且稳定。深度学习模型具有强大的特征学习能力,能自动学习对光照变化、轻微形变、字体差异、噪声等不变的鲁棒特征。在测试集充足的情况下,能达到接近人类水平的识别精度。
劣:在训练数据未覆盖的极端情况下(如非常怪异的字体、严重破损)也可能失败。
2) 速度
中/优:推理速度较快。选择轻量级模型(如MobileNet、SqueezeNet)在CPU上也能达到实时或准实时的速度。使用GPU或专用AI加速器(如NVIDIA Jetson、Google Coral)速度极快。
劣:相比单一样本的模板匹配,CNN模型的前向传播计算量通常更大。
3) 鲁棒性
优:极其鲁棒。这是深度学习方法的最大优势。能很好地处理尺度、光照、视角、字体样式的一定变化,以及背景干扰和轻微遮挡,泛化能力极强。
4) 部署难度
中/劣:部署相对复杂。需要集成深度学习推理框架(如TensorFlow Lite、ONNX Runtime、LibTorch、OpenVINO等)。虽然轻量级模型可在手机和嵌入式设备上运行,但仍需考虑模型大小、内存占用和功耗,比模板匹配的部署门槛高得多。
5) 数据与开发需求
劣:需要训练数据。尽管可以使用预训练模型并通过迁移学习进行微调,但仍需要收集和标注相当数量的字符图像数据。需要机器学习/深度学习的专业知识进行模型训练、调参和优化。
基于上述对模板匹配方法与基于轻量级CNN的识别在该应用场景下的对比分析,得到如表1所示的对比总结表。
Table 1. Comparison and summary table
表1. 对比总结表
序号 |
特性 |
模板匹配 |
轻量级CNN |
结论 |
1 |
精度 |
理想条件下高,条件变化后会受影响 |
高且稳定 |
CNN泛化能力强 |
2 |
速度 |
简单情况下快,多尺度多角度下慢 |
轻量级模型下较快且稳定 |
视情况,通常CNN更均衡 |
3 |
鲁棒性 |
相对较差,对变化比较敏感 |
强,能适应多种变化 |
CNN较强 |
4 |
部署难度 |
极低,无需额外依赖 |
中高,需推理框架和优化 |
模板匹配更强 |
5 |
数据需求 |
无,只需模板图片 |
需要标注数据 |
模板匹配更强 |
6 |
开发成本 |
低,简单直接 |
高,需专业知识 |
模板匹配更强 |
综合对比总结表所述,本研究应用场景的检测条件和检测对象非常稳定,基于成本管控和现场条件等考虑,故选择理想条件下精度高、简单情况下速度快、部署难度低、数据需求无、开发成本低的模板匹配法进行研究应用。
3. 轮廓模板匹配技术研究
本研究的关键是轮廓匹配及识别,电火工品具有多种规格产品,键槽一致性检测端尺寸,如深度、孔径、高度等,各不相一;不同产品字体不一致,有多重字体格式数字;字体颜色不同,针对与橡胶垫颜色一致且较小的字体,对视觉识别的要求更高;不同产品,字体位于极针周围的位置不固定,对图像采集的要求较高。软件算法需要能针对不同规格产品进行有效识别,并与标准库进行比对和核算工作。
通过提取极针桥序及与键槽的相对位置等典型特征识别参数和量化典型产品视觉识别系统应用环境的特征参数,结合相应的视觉相机、镜头、光源等硬件设施,实现特征参数的有效凸显及可靠识别,为图像处理分析提供数据支撑;根据梳理的各环节的特征参数,选择满足识别需求的相机、光源、镜头等硬件,评估形貌特征在不同硬件构成下的可检性;在硬件构成确定后,针对产品类型,确定物像距离、光源与镜头距离等最优工艺参数,并确定了硬件系统在图像采集时的稳定性。针对检测端尺寸各不相一,设计自动调节模块,实现对不同规格产品的有效采集;针对字体不一致、字体颜色不同,采用不同的光源颜色和增加字体库;针对字体位置不固定,采用工装保障产品处于光源中心,保持一定均匀性。
轮廓匹配实现流程如图2所示:
Figure 2. Implementation process of contour matching
图2. 轮廓匹配实现流程
字符识别实现流程如图3所示:
Figure 3. Implementation process of character recognition
图3. 字符识别实现流程
主要实现过程如下所述。
3.1. 识别方式
使用模板匹配的方式,首先做产品的桥序数字模版,再进行拍照匹配,具体如下:
1) 使用前进行产品模板录入本地,训练该产品的外形轮廓及字符编码位置(一个型号只录入一次即可);
2) 生产过程中通过当前采集图像进行外形轮廓匹配;
3) 外形轮廓匹配获取当前产品方向,通过训练的字符编码位置去反向查找相应的字符;每个位置都找到对应的字符则判定OK,只要一个未找到判断NG,外形轮廓没匹配成功判断NG;
4) 外形轮廓匹配通过视觉模板匹配工具实现,字符识别通过OCR (光学字符识别)工具实现,检测字符的第一步是对原始图像进行特征提取[3]。
3.2. 识别实现过程
1) 定位:基于形状轮廓的模板匹配。形状轮廓匹配就是在形状描述的基础上,依据一定的判定准则,计算两个形状轮廓的相似度或者非相似度。两个形状轮廓之间的匹配结果用一个数值表示,这一数值称为形状轮廓相似度。形状轮廓相似度越大,表示两个形状轮廓越相似,所以通常用作视觉定位。
本研究主要采用OpenCV作为开源工具,在轮廓模板匹配前,先使用高斯滤波器进行图像处理,高斯滤波器是根据高斯函数的形状来选择权值的线性平滑滤波器[4],为抑制系统中的噪声,国内外研究人员在硬件结构改进与软件算法设计方面进行了各类尝试[5]。其中,对硬件结构的调整包括改变光电器件参数[6]、调整系统结构[7] [8]、增加拉曼放大[9]等。对于高斯模糊(效果如图4所示),参数ksize指定滤波器窗口的宽度和高度;下一个参数表示高斯核在x方向上的sigma值(最大值的半宽);第四个参数表示y方向上的sigma值。若只给定了x,同时y默认为0,那么y将与x相等。若两者都为0,那么高斯参数由如下公式确定:
(1)
(2)
Figure 4. An example of a Gaussian kernel with ksize = (5, 3), sigmaX = 1, and sigmaY = 0.5
图4. 一个ksize = (5, 3),sigmaX = 1以及sigmaY = 0.5的高斯核示例
高斯模糊效果图如图5所示。
Figure 5. Gaussian blur effect diagram
图5. 高斯模糊效果图
产品在相机视野中可能是任意角度旋转的,如图6所示。首先需要通过轮廓匹配(特征点匹配)来找到产品并确定其位置和方向。
Figure 6. Shape template matching
图6. 形状模板匹配
2) 分区域:自定义区域。形状轮廓匹配定位后得到图像的中心,由中心延伸出笛卡尔坐标系,二维笛卡尔坐标系如图7所示:
Figure 7. Two-dimensional Cartesian coordinate system
图7. 二维笛卡尔坐标系
由延伸出的笛卡尔坐标系确定ROI区域,就得到产品本身字符所在区域。如图8所示:
Figure 8. Product character position area
图8. 产品字符位置区域
3) 判别:NCC匹配。基于Normalized Cross Correlation (NCC)来比较两幅图像的相似程度已经是一种常见的图像处理手段,在工业生产环节检测、监控领域对对象检测与识别上均有应用。NCC算法可以有效降低光照对图像比较结果的影响,而且NCC的最终结果特别容易量化比较结果,只要给出一个阈值就可以判断字符的好与坏。
如图9所示,如果选取一个包含所需信息的图像块,通过NCC匹配即可在新采集图像中滑动找到所需信息的位置。
Figure 9. Matching and searching
图9. 匹配寻找
本研究主要使用归一化的相关系数匹配方法进行极针桥序字符识别,公式如下:
(3)
其中,I表示输入图像,T表示模板,R表示输出的结果图像,相对好的匹配会得到正值,而误匹配会得到负值。产品在经过设备定位后,预设的自定义区域通过定位的信息变化,实现字符的精确定位,若字符位置错乱,则自定义区域内没有字符,而后的NCC匹配识别自然无法完成,此为保证1。若定位正确,字符位置及顺序无错乱,再由NCC匹配根据相关性判别字符相似度,若相似度较强(相似度为分数,自定义设置),则判别为OK,反之亦然,此为保证2。保证1、2相互印证致使坏产品检出率百分之百。
3.3. 数据可追溯性
建立识别数据库,识别检测时,自动存储识别图片及判定结果,上传到识别数据库,分类存档,形成可追溯的识别结果。
4. 检测机构设计
现有方式主要依靠检验人员肉眼或体视显微镜与图纸进行比对判断。近年来,得益于计算机视觉技术的发展[10] [11],键槽一致性自动检测由人工识别变更为设备自动识别,通过机器视觉产品(即图像摄取装置,分为CMOS和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号。图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来显示产品合格与否。
4.1. 光源设计
1) 视觉识别中光源设计的几个要素
a. 选择不同的光源,控制和调节照射到物品上的入射光的方向是机器视觉系统设计的最基本参数,它取决于光源类型和相对物体的放置位置,一般为直射光和散射光,直射光其入射光基本来自于一个方向,易产生明显的物品阴影,而散射光入射光来源于多个方向,一般不产生物品阴影,本研究选择散射光光源。
b. 光谱的选择就是对光照色彩的选择,光由单一的或多种成分的光谱组成,如日光由红外到紫外的所有光谱组成,人眼能感觉到的光谱范围为380 nm~780 nm之间,一般选择为红、橙、黄、绿、蓝、紫、白颜色的光源。
c. 偏振性又称为极化性,是光传播过程中的震荡,通过偏振性调节可修复镜面反射所带来的影响。
d. 强度和均匀性,光照强度影响相机曝光、成像的清晰度,从而影响处理器的处理速度、均匀性。一般光源本身能满足均匀性需求,但物品放置位置、形状对均匀性影响较大,通常只能通过将物品放置到光源中心位置,使其保持一定均匀性。
2) 影响视觉照明的特性很多,如反射特性、颜色、光学密度、折射等等,本研究中主要影响的几个特性为:
a. 反射特性,反射特性是物品反射入射光的性能,主要有两种不同的反射特性,镜面反射和漫反射,产品中极针是镜面反射,橡胶套为漫反射,该项目中极针的镜面反射影响视觉对极针与数字位置的判定,需消除极针对识别的影响。
b. 颜色,人眼或相机观察到的颜色由不同方式形成,物品本身的色彩可能通过相加色或者相减色形成,一般自然色都为相加色;由于产品本身存在不同色彩,产品数字一般为红色和白色。
Figure 10. Color wheel diagram
图10. 色环图
互补色与相近色,图10所示是色环中相正对的颜色图,要想物体在图像中呈黑色或者暗色,需利用与样品颜色互补的光照射,反之亦然。
c. 高度、深度,不同产品在检测过程具有不同高度、不同深度和直径的问题,光源和相机需要具有较强的适应能力,实现对不同高度、深度、直径的产品的适应。
3) 光源选择
基于以上要素分析,再结合产品特征,研究选择使用环形LED光源,该光源是通过环形LED组形成的,具有多个LED光源,均匀放置于环形周边,形成散射光从产品顶部发出入射光,解决极针产生阴影干扰成像的问题;极针还会产生镜面反射,需要通过调节偏振性和通过视觉算法消除其高亮,解决镜面反射带来的亮点干扰,此外可根据产品字体颜色不同更换相应的光源颜色。
4.2. 视觉机构设计
视觉机构由防爆私服电机、高度调节模组、相机、光源、镜头、防护罩、产品工装构成,组成图如图11所示。通过伺服电机和高度调节模块,实现对相机、光源高度的调整,以解决不同产品的高度、深度不同所带来的干扰;防护罩的作用主要防止粉尘或者人员影响相机的成像;产品工装保障产品处于光源中心。
Figure 11. Composition diagram of visual mechanism
图11. 视觉机构组成图
5. 验证试验
5.1. 功能验证
装置设置有单独的电源开关和启动开关,并设置有定位工装保障产品处于光源中心,方便检测过程中产品的放置及避免因位置不对造成重复摆放的情况出现,使每次检测都能有效采集产品信息。设备整体图如图12所示:
Figure 12. Overall view of the equipment
图12. 设备整体图
检测装置验证效果如表2所示:
Table 2. Effect verification
表2. 效果验证
序号 |
功能 |
验证结果 |
1 |
具备识别结果自动判定及错误报警功能,自动存储识别图像及判断结果 |
能够自动判定及错误报警功能,自动存储识别图像及判断结果 |
2 |
针对不同产品,具备光学、放大倍率、焦距等软件参数可调的自适应功能 |
只要选中产品模板以后,就能根据设置的信息自动调节光学、放大倍率、焦距等 |
3 |
建立判定标准的数据图库 |
建有对应的数据图库,使用相应产品时只需调取相关模板 |
4 |
实现对检测产品相关信息的自动记录,包括代号、批量、批次、合格品、不合格品数等 |
能满足相关记录要求,其中记录可以用记事本和EXCEL两种方式查看 |
设备与现有检测方法主要提升的方面如下:
1) 确保了检测一致性,检测过程不受疲劳、情绪和经验等因素影响,保证了检测标准的稳定性,有效避免了错、漏检等问题。
2) 确保了检测可量化,通过量化各类典型特征参数,实现了检测标准量化为算法参数。
3) 确保了结果可追溯,通过建立检测结果数据库,自动存储识别图片及判定结果,并进行分类存档,实现了质量可追溯。
4) 确保了人工可解放,代替了传统的人工检验模式,解放了劳动力,降低了劳动强度。
5.2. 试验验证
为验证装置的检测效果,选取7种产品使用该装置进行验证,选取的产品中含有不合格品,并对检测的可靠性及效率提升进行了统计。为验证装置的稳定性,进行了7种产品的检测,共计500件产品(含9件不合格品,缺陷现象主要为桥序为反、字符缺损和字符模糊),满足研究效果要求,能够有效保证检测的稳定性,具体结果见表3。
Table 3. Verification results
表3. 验证结果
序号 |
产品 |
总数(件) |
装置检测情况 |
人工检测情况 |
不合格品检出率 |
对合格品的判断正确率 |
合格数(件) |
不合格数(件) |
合格数(件) |
不合格数(件) |
1 |
产品1 |
23 |
21 |
2 |
21 |
2 |
100% |
100% |
2 |
产品2 |
10 |
10 |
0 |
10 |
0 |
100% |
100% |
3 |
产品3 |
10 |
7 |
3 |
7 |
3 |
100% |
100% |
4 |
产品4 |
215 |
213 |
2 |
210 |
0 |
100% |
99% |
5 |
产品5 |
125 |
123 |
2 |
120 |
0 |
100% |
98% |
6 |
产品6 |
105 |
104 |
1 |
105 |
0 |
100% |
99% |
7 |
产品7 |
12 |
8 |
4 |
8 |
4 |
100% |
100% |
其中,人工检测出的不合格品与机器检测的不合格品一致,均将不合格品100%检出,实现不合格品检出率100%。
检测效率方面,对4个检验员检测500件产品的时间进行了统计,如表4所示。
Table 4. Manual detection time
表4. 人工检测时间
序号 |
产品数量(件) |
检验人员 |
检测时间(min) |
平均检测时间(min) |
每件产品平均检测时间(s) |
1 |
500 |
人员1 |
67.3 |
66.5 |
8 |
2 |
人员2 |
66 |
3 |
人员3 |
67.4 |
4 |
人员4 |
65.2 |
检测设备检测500件产品约耗时45.8 min,平均每件产品耗时5.5 s,与人工检测8 s/件相比,检测效率提升30%以上。
6. 结论
6.1. 应用效果
通过进行机器视觉的研究与检测装置的研制,为后续视觉相关设备开发积累了经验,解决了自动检测手段有无问题,提升了产品生产综合保障能力,缩短了此类产品的生产周期,代替了传统的检验模式,解决了检测结果无法追溯等问题。
6.2. 局限性与未来工作
目前本研究的视觉检测系统还存在一定不足,如对复杂背景、严重反光的处理能力等还需进一步提升。在此基础上也为下一代检测需解决的问题指出了方向,以及提出为适应生产智能化的趋势,需要引入更鲁棒的识别算法、开发自适应光源控制系统等,以实现在线自动检测,从而进一步提升检测效率。