基于透视形变校正与分层检测的机箱面板视觉检测方法
A Vision Inspection Method for Chassis Panels Based on Perspective Distortion Correction and Hierarchical Detection
摘要: 针对工业机箱面板自动化生产中的型号混料与表面缺陷在线检测难题,本文设计了一套基于机器视觉的在线检测系统。该系统旨在实现对10款不同型号机箱面板的准确区分,并完成对丝印缺失、丝印不同、I/O接口缺失及I/O接口不同共4类缺陷的可靠检测。方法上,创新性地采用了透视形变校正下的模板匹配与分层检测策略,首先通过大模板进行快速粗定位与姿态估计,进而映射出精确的检测区域,并利用小模板实现关键特征的精细匹配与缺陷判别。测试结果表明,系统在混料检测中型号区分准确率达100%;在实验室环境下,对多类缺陷的整体检出率为97.5%,误检率为0.5%;在产线连续运行测试中,系统综合准确率达99.70%,平均单件检测时间低于0.8秒,满足高速产线节拍要求。该系统在检测精度、效率与工程实用性方面表现优异,具备良好的抗透视形变能力与在线部署价值。
Abstract: To address the challenges of model mix-up and online surface defect detection in the automated production of industrial chassis panels, this paper presents a machine vision-based online inspection system. The system is designed to accurately distinguish between 10 different panel models and reliably detect four types of defects: missing silkscreen, inconsistent silkscreen, missing I/O interfaces, and inconsistent I/O interfaces. Methodologically, an innovative strategy integrating perspective distortion correction with template matching and hierarchical detection is proposed. Firstly, a large template is utilized for rapid coarse positioning and pose estimation, which subsequently enables the precise mapping of inspection regions. Then, small templates are employed for fine feature matching and defect discrimination. Test results demonstrate that the system achieves 100% accuracy in model differentiation during mix-up inspection. In laboratory tests, the overall defect detection rate reaches 97.5% with a false detection rate of 0.5%. In continuous production line testing, the system attains an integrated accuracy of 99.70% with an average processing time per unit below 0.8 seconds, meeting the requirements of high-speed production cycles. The system exhibits excellent performance in detection accuracy, efficiency, and engineering practicality, demonstrating strong robustness against perspective distortion and significant value for online deployment.
文章引用:王益鑫, 刘鹏, 文正彪, 侯士旺, 候华毅. 基于透视形变校正与分层检测的机箱面板视觉检测方法[J]. 图像与信号处理, 2026, 15(1): 130-143. https://doi.org/10.12677/jisp.2026.151011

1. 引言

工业机箱面板作为电子设备的关键组件,其表面质量直接影响产品外观、功能与市场竞争力。在智能制造背景下,实现其高效、精准的自动化缺陷检测对质量管控与成本控制具有重要意义[1]。目前,检测手段仍存在明显不足。人工目视检测效率低、一致性差,漏检率高;传统机器视觉方法(如刚性模板匹配)对光照变化、视角偏移及透视形变等常见工业干扰适应能力有限[2],制约了其在复杂场景中的应用。

近年来,相关研究主要沿传统图像处理与深度学习两个方向展开。在传统方法中,模板匹配以其直观高效备受关注,例如多模板匹配可提升印刷品缺陷检出效率[3],但形变适应性弱;Blob分析结合边缘特征适用于特定目标[4],但依赖专家经验,泛化有限。为此,可变形模板匹配通过构建可形变特征模型,为应对透视变换提供了途径[5],但其在复杂工业环境中的实时性与鲁棒性仍待优化。深度学习方法(如Faster R-CNN [6]、YOLO [7]、U-Net [8])凭借强大特征学习能力,已成功用于PCB等缺陷检测[9],然而这类方法通常依赖大量标注数据,计算开销大,在样本稀缺或实时性要求严苛的在线检测中应用仍面临挑战。

综上所述,针对机箱面板多型号混线、存在透视形变、检测效率要求高的特点,现有方法存在局限:传统方法适应性不足,深度学习方法受数据与算力约束。因此,研究一种兼具形变适应性、高效率与强工程落地能力的视觉检测方案具有重要意义。为此,本文提出一种融合透视形变校正与分层检测策略的机器视觉系统。该方法通过透视变换实现目标粗定位与姿态估计,并在此基础上采用分层机制进行精细匹配与缺陷判别,在保证精度的同时提升检测效率。实验表明,该系统具有良好的检测性能与工程适用性。

2. 算法设计与实现

2.1. 透视形变模板匹配原理

在工业现场,由于相机与产品平面不平行以及机械振动,采集到的图像会发生透视形变,导致传统的刚性模板匹配算法失效。为此,本文采用了一种基于透视形变的可变形模板匹配方法,其核心思想是建立一个能够抵抗透视变换的特征模型,并通过优化搜索策略在形变图像中快速定位目标。

2.1.1. 可变形模板匹配模型

本文方法的本质是寻找一个最优的透视变换矩阵H,使得模板图像T在经过H变换后,与待检测图像I中的对应区域达到最大程度的相似。该过程的数学模型可以表述为:

H ^ =arg max H S( T,I;H ) (1)

式(1)中,S为相似度度量函数,H为3 × 3齐次坐标变换矩阵:

H=[ h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 ] (2)

矩阵H具有8个自由度,能够完整描述平面物体在透视成像下的旋转、平移、缩放及剪切等几何变换[10]。式(2)中,参数物理意义明确:h11h12h21h22控制旋转、缩放和剪切变换;h13h23控制平移变换;h31h32产生透视效应,是实现形变校正的关键。

为提升算法对光照变化的鲁棒性,本文采用边缘梯度方向特征而非原始像素灰度进行相似度计算。具体而言,在模板创建阶段,算法提取模板图像中每个边缘点 p i 的位置坐标及其梯度方向 ϕ i 。在匹配过程中,对于候选位姿 H,计算变换后的模板边缘点在图像中对应位置的梯度方向。相似度得分通过统计梯度方向一致性点的数量计算:

S( H )= 1 N i=1 N ω i δ( | ϕ I ( H( p i ) ) ϕ T ( p i ) |τ ) (3)

式(3)中,N为模板边缘点总数, ω i 为特征点权重因子, ϕ T ( p i ) 为模板点梯度方向, ϕ I ( H( p i ) ) 为图像对应点梯度方向,τ为方向容差阈值,δ()为指示函数,条件满足时取值为1。

算法并非直接比较像素灰度,而是采用对光照变化更具鲁棒性的边缘梯度特征[11]。当模板边缘点的梯度方向与图像中对应点的梯度方向之差在容差范围内时,该点被视为“支持点”。最终得分为支持点数量与总边缘点数量的加权比值[12],得分越高表明当前位姿H下的匹配质量越优。

本文的模板创建过程,实质上是为上述匹配模型准备特征数据:

(1) 图像预处理与ROI定义:采集标准图像,转换至灰度空间,并划定包含产品整体轮廓的特征区域作为初始模板区域,以聚焦于稳定特征并减少后续计算量。

(2) 特征模型生成:该步骤并非简单存储像素,而是从ROI中提取一组具有强区分度的边缘点特征,并构建一个允许这些特征点在匹配时随透视变换(H矩阵)而协同运动的可变形模型。此模型内在嵌入了对尺度、旋转和透视形变的适应性。

2.1.2. 基于金字塔的分层搜索策略

为了在保证精度的前提下提升搜索效率,本文采用由粗到精的金字塔分层搜索策略[13]

(1) 图像金字塔构建:对模板和待检测图像同步构建高斯金字塔。最底层为原始分辨率,向上每一层通过对下一层进行高斯模糊和下采样得到,分辨率逐层减半。其金字塔结构如图1所示。

Figure 1. Image pyramid

1. 图像金字塔

(2) 分层搜索过程:匹配从金字塔最顶层(低分辨率)开始。在此层级,图像细节较少,但可以进行快速的全局粗搜索,以锁定目标的大致位置和姿态。然后将此粗略位姿作为初始值,传递到下一层(更高分辨率)在一个缩小的搜索范围内进行精炼。此过程迭代进行,直至最底层(原始分辨率),从而在获得高精度的同时,大幅减少了在全分辨率图像上进行全局搜索的巨大计算开销。其搜索过程如图2所示。金字塔层级数[14]需要在速度与细节保留之间取得平衡,本文通过实验确定设置层级数为3最为适宜。

Figure 2. Hierarchical search process

2. 分层搜索过程

2.1.3. 透视变换与检测区域映射

成功匹配后,算法输出最优的透视变换矩阵H [15]。此矩阵是实现后续精检测的关键。如图3所示,H矩阵建立了从模板坐标系到图像坐标系的映射关系。利用此矩阵,可以将模板创建阶段在标准图像上预先定义的所有精检测小ROI区域,通过以下投影公式精确地映射到当前待检测图像中:

[ x y w ]=H[ u v 1 ],x= x w ,y= y w (4)

式(4)中, ( u,v ) 是模板坐标系中的点, ( x,y ) 是映射后图像坐标系中的点。这确保了无论产品在图像中发生何种透视形变,系统都能自动、精准地定位到每一个需要详细检查的特征区域,为分层检测奠定了坚实基础。

Figure 3. Perspective transformation diagram

3. 透视变换示意图

2.2. 分层检测策略

为提高系统在复杂工业环境下的实时性与鲁棒性,本文设计了一种由粗到精的分层检测策略。该策略的核心在于将全局性的检测任务分解为快速的粗定位与精确的细检测两个串行阶段,通过早期决策排除严重缺陷,并将密集计算约束于关键区域,从而在整体上实现效率与精度的最优平衡。

2.2.1. 粗定位

粗定位阶段作为检测流程的首要决策点,其目标是快速确认目标的存在、识别其型号,并估算其在图像中的粗略姿态。本阶段采用第3.1节所述的透视形变模板匹配算法,以一个覆盖产品整体轮廓和稳定特征的大区域作为模板。该方法能适应出现透视形变的情况。成功匹配后,算法返回一个精确的透视变换矩阵 H。该矩阵完整描述了当前目标相对于标准模板的平移、旋转、缩放及剪切等几何变换关系。若粗定位匹配失败,则强烈暗示产品可能存在严重错位、型号错误或完全缺失等致命问题。系统将据此直接判定为“NG”(不合格),并立即终止后续所有处理流程。这一设计避免了在无效目标上进行不必要的计算,对于提升系统在高速产线上的平均处理能力至关重要。

2.2.2. 精检测

在粗定位成功的基础上,精检测阶段负责在精确映射的区域内,对关键特征进行像素级的验证与测量。

(1) ROI的动态映射机制:系统利用粗定位输出的矩阵H,将预先在标准模板上定义好的各类精检测小ROI (如丝印区域、I/O接口位置),通过透视变换实时、准确地投影至当前图像中。该机制确保了无论产品整体发生何种位姿变化,检测窗口均能自适应地锁定在正确的物理位置上,从而从根本上消除了全局搜索的计算开销,并有效屏蔽了无关背景的干扰。

(2) 局部特征分析与判别:在每个映射后的ROI内,系统根据特征类型调用专用的轻量级算法进行验证。对于I/O接口,采用Blob分析与轮廓提取,验证其存在性与形状完整性。对于丝印字符,采用小型化模板匹配或OCR技术,判别其内容正确性。

这种“分而治之”的策略,使得每个特征的检测都在一个纯净、专注的上下文中进行,显著提升了系统的识别准确率和抗干扰能力。

2.3. 算法优化

为提高系统的识别精度、鲁棒性与实时性,本节针对核心视觉算法进行了专项优化,主要包括多尺度模板匹配、匹配阈值的自适应设置以及并行计算处理。

(1) 多尺度模板匹配

在实际采集过程中,由于机箱面板在传送带上的位置存在细微波动,可能导致待检目标在图像中的尺度发生变化。为克服尺度变化对匹配效果的影响,提升算法的泛化能力,本系统引入了多尺度模板匹配策略。该方法通过在一定的尺度范围内(如0.9~1.1倍)对原始模板进行金字塔下采样与上采样,生成一系列尺度各异的模板组。匹配时,系统将在多个尺度空间内同步进行相似度计算,最终取最高匹配得分作为结果。这一策略有效解决了因拍摄距离微小差异造成的目标缩放问题,显著提高了定位的召回率与稳定性。

(2) 匹配阈值自适应设置

传统固定阈值法难以应对复杂工业现场中光照渐变、灰尘干扰等不确定因素,易造成误检或漏检。为此,系统设计了匹配阈值的自适应机制。该机制基于对当前图像背景区域灰度分布的实时统计,动态调整匹配得分的最低通过阈值。例如,当环境光照整体变暗时,系统自动适度降低阈值,以避免潜在的漏检;当图像中出现局部高亮干扰时,则适当提高阈值,抑制虚警发生。这一方法有效提升了系统在不同光照条件下的自适应能力和检测可靠性。

(3) 并行处理提升速度

为满足在线检测的高实时性要求,系统充分利用计算资源,采用了并行处理架构。首先,将图像预处理、ROI提取、特征匹配等任务分解为多个可独立运行的子任务。利用多线程技术,将这些任务并行调度到多个CPU逻辑核心上执行,尤其针对多型号判别和多缺陷类别的同步检测进行了任务级并行优化。通过并行化多线程设计[16],系统显著降低了单张图像的整体处理时间,确保了在0.8秒内完成全部检测流程,为高速流水线应用提供了关键性能保障。

3. 系统总体设计与实现

3.1. 系统框架与工程流程

为实现机箱面板的高速在线检测,本系统构建了一套基于“透视形变校正与分层检测”策略的自动化流水线。系统整体遵循“光电触发–图像采集–视觉处理–决策执行”的闭环架构,如图4所示,其核心流程严格贯彻“由粗到精”的分层思想。

整个检测流程是一个由粗到精、逐层筛选的决策过程,其核心思想是先快速定位,再精确分析[17],以此兼顾检测效率与准确性,其检测流程如图5所示。图像采集后,首先利用第2章所述算法进行快速粗定位与姿态估计。若失败则直接判定为不合格(NG);若成功,则依据输出的透视变换矩阵,将预设的关键检测区域(ROI)精确映射至当前图像。随后,系统在各ROI内并行执行精细特征匹配与缺陷判别。最终,根据判别结果驱动执行机构分拣,并保存所有数据用于追溯。该设计将密集计算约束于精准定位的局部区域,从而在保证高精度的同时,满足了高速产线的节拍要求[18]

Figure 4. System structure block diagram

4. 系统结构框图

Figure 5. Detection flowchart

5. 检测流程图

3.2. 硬件选型与集成

合适的硬件选型是保障视觉检测系统成像质量与运行稳定的基础[19]。本系统的硬件核心包括成像、照明、触发及机械结构单元。成像单元采用海康威视MV-CH120-10UM全局快门相机,分辨率为4096 × 3000,帧率30.5 fps,配合12 mm定焦镜头(MVL-HF1224M-10MP)。该组合能够有效抑制高速拍摄中的果冻效应与运动模糊,从而获取清晰的待检图像。照明单元针对机箱面板表面丝印与背景对比度低的特点,配置两条高亮度条形光源,采用掠射光路照明,以增强字符与接口的边缘轮廓反差。触发与机械结构通过一对对射式光电传感器实现图像采集的精确触发。整体机械结构设计如图6所示,以稳定性与连贯性为核心,主要包括图像采集单元、产品传送与限位单元、执行与告警单元,确保产品在检测过程中限位精准、传送平稳。

Figure 6. Structure diagram of chassis panel missing/error detection equipment

6. 机箱面板错漏检设备结构示意图

3.3. 软件模块实现

软件基于Qt框架构建图形用户界面,具备良好的跨平台兼容性与可定制性。系统界面主要包括以下五大模块:主界面、模板制作界面、模板库界面、通信界面与检测记录界面。

主界面如图7所示,集成图像显示、相机参数设置、运行控制与状态监控等功能区域,提供直观的系统操作与实时反馈。

Figure 7. Main interface

7. 主界面

模板制作界面支持检测参数(如匹配得分、缺陷面积阈值等)的灵活调整,并提供模板图像展示、ROI 绘制、滑动预览与匹配验证等功能,便于模板的精确构建与调试。模板库界面集中展示已保存的模板,支持用户按检测型号快速选择与调用。通信界面集成地址配置、数据读写记录与定时通信参数设置,系统兼容Modbus-TCP、TCP/IP与Fins-TCP三种工业通信协议,满足多样化设备接入需求。检测记录界面用于展示缺陷图像、检测时间、位置及类型等信息,支持历史数据查询与报表导出,为质量追溯与工艺改进提供有效数据支撑。

4. 实验与结果分析

4.1. 评价指标

为量化评估系统性能,本文采用误检率(FDR)、漏检率(MDR)、检出率(DR)及准确率(ACC)作为核心评价指标。计算式分别为:

FDR= FP FP+TN ×100% (5)

MDR= FN TP+FN ×100% (6)

DR= TP TP+FN ×100%=1MDR (7)

ACC= TP+TN TP+TN+FP+FN ×100% (8)

式中,FP (False Positive)表示正常样本被误判为缺陷的数量,TN (True Negative)表示正常样本被正确判定的数量,FN (False Negative)表示缺陷样本未被检出的数量,TP (True Positive)表示缺陷样本被正确检出的数量。以上指标共同构成系统性能的完整评价体系,后续实验将基于该体系进行详细分析。

4.2. 与基线方法的对比实验

为定量评估本文所提算法的先进性,在包含300个随机位姿样本的统一数据集上,将本文方法与两种典型基线方法进行对比。(1) 基线方法A (刚性模板匹配):采用Halcon的find_shape_model 函数进行匹配[20],该方法对旋转和缩放具有不变性,但无法处理透视形变。(2) 基线方法B (非分层方法):在全图范围内直接使用与本文方法相同的精检测小模板进行匹配与缺陷判别,省略了粗定位与ROI映射步骤。(3) 本文方法:采用透视形变模板匹配进行粗定位,再通过透视变换矩阵映射ROI进行精检测。

对比结果如图8表1所示,我们以匹配成功率(即成功定位到目标并进入检测流程的样本比例)和平均单件检测时间作为核心评价指标。

分析表明,刚性匹配的方法A因无法适应透视形变,其匹配成功率最低,仅为67.3%。非分层的方法B虽成功率高达98.5%,但其全局搜索策略导致平均耗时长达1250 ms,效率低下。相比之下,本文方法通过透视形变校正有效克服了视角变化,并借助分层检测策略优化了计算资源分配,从而取得了99.6%的匹配成功率与750 ms的平均耗时。相较于方法A,成功率大幅提升了32.3个百分点;相较于方法B,处理速度提升了40%,在精度与效率间实现了最佳平衡。尽管本文方法因引入形变校正与分层机制,其耗时比方法A多出约230 ms,但匹配成功率从67.3%跃升至99.6%,这一提升具有决定性的工程价值,体现了出色的综合性能。

Figure 8. Matching results of perspective-distorted images by different methods

8. 不同方法对透视形变图像匹配结果

Table 1. Performance comparison of different methods

1. 不同方法性能对比

方法名称

核心特征

匹配成功率(%)

平均检测时间(ms)

基线方法A

刚性模板匹配

67.3

520

基线方法B

非分层,全局精匹配

98.5

1250

本文改进算法

透视形变校正 + 分层检测

99.6

750

4.3. 标准数据集性能测试

4.3.1. 混料检测测试

混料检测是保障生产批次纯净度的第一道关口。测试时,系统预设目标模板为“型号A”,随后对混料检出数据集中的90个非A样本进行判别。

测试结果表明:系统成功地将90个非A型号样本全部判定为“NG”,混料检出率达到100%。这证明了本文采用的模板匹配与姿态估计算法对不同型号产品的区分能力极其显著,能够有效杜绝因混料导致的生产事故。

4.3.2. 分类型缺陷检测测试

本实验重点评估系统对四类表面缺陷的检出能力,采用检出率和误检率作为核心评价指标[21]。为检验面板检测系统的实际检测效果,对带有丝印缺失、丝印不同、I/O接口缺失及I/O接口不同4种缺陷的机箱面板进行检测。为验证本文提出的基于机器视觉的在线检测系统的实际性能,构建了包含200个缺陷样本(四类缺陷各50个)和400个正常样本的测试数据集。系统在各缺陷类型上的检测结果和检测性能如图9表2所示。

误检率基于400个正常样本计算,系统将其中398个正确判定为合格,误检率为0.5%。系统整体检出率(97.5%)与误检率(0.5%)均优于工业标准(≥95%, ≤2%)。误检案例经分析,主要由光照不均引起的局部反光或图像噪声导致[22],这些干扰在预处理后仍与微小缺陷特征具有一定相似性。漏检则主要源于特征微弱的轻微丝印擦伤,为后续优化指明了方向。

Figure 9. Detection results of four types of defects

9. 四种缺陷检测结果

Table 2. Defect detection results

2. 缺陷检测结果

缺陷类型

样本数

检出数

检出率(%)

漏检率(%)

丝印缺失

50

48

96.0

4.0

丝印不同

50

49

98.0

2.0

I/O接口缺失

50

50

100.0

0.0

I/O接口不同

50

48

96.0

4.0

缺陷样本合计

200

195

97.5

2.5

4.4. 生产线连续运行综合性能测试

为评估系统在真实生产环境下的综合性能与工程应用价值,将系统集成至某机箱装配产线,进行了8个小时连续运行测试,生产速度为600 Pcs/H,每小时600件,共检测4800件。经人工复检确认,4800件产品中实际良品为4714件,缺陷品为86件(自然缺陷率约1.8%)。系统判定结果为:OK产品4708件,NG产品92件,其中误判NG的良品数为10件,漏检的缺陷品数为4件,正确判定4786件。其测试结果如表3所示。

Table 3. Production line comprehensive performance statistics

3. 生产线综合性能统计

总检测数

系统判定OK数

系统判定NG数

实际良品数

实际缺陷品数

整体误检率

(%)

整体漏检率

(%)

整体准确率

(%)

4800

4708

92

4714

86

0.21

4.65

99.70

系统在真实生产环境中综合准确率达99.70%,误检率仅0.21%,表明系统具有极高的稳定性与可靠性。漏检的4件缺陷品均为轻微丝印擦伤,与实验室测试的漏检类型一致,验证了算法性能的可预测性。系统平均单件处理时间为0.75秒,完全满足产线节拍要求(≤2秒),兼顾了精度与效率。

4.5. 综合讨论与分析

本节旨在对前述实验结果进行综合讨论,并深入分析核心算法参数对系统性能的影响。表1表2表3的综合数据显示,本文方法在匹配成功率、各类缺陷检出率、误检率及产线综合准确率上均表现优异。这些性能的达成,与算法中两个关键参数——图像金字塔层数 N 与自适应匹配阈值 τ 的精心设计与协同作用密不可分。

(1) 金字塔层数 N 对搜索效率与定位鲁棒性的影响

如2.1.2节所述,分层搜索策略通过金字塔结构在低分辨率层快速缩小搜索范围。层数 N 是平衡效率与鲁棒性的关键。若 N 过小(如 N=2 ),加速效果有限;若 N 过大(如 N=4 ),顶层特征丢失可能导致初始估计偏差,损害鲁棒性。本文通过实验确定 N=3 为最优解。在此设置下,系统在顶层(分辨率降至原始的1/8)以极小计算代价完成粗定位(耗时约占总处理时间的15%),随后在下两层迭代精修(耗时约占85%)。这正是表1中,本文方法在取得99.6%高匹配成功率的同时,其处理速度(750 ms)远超非分层方法B(1250 ms)的核心原因。 N=3 在特征保留与搜索效率之间取得了最佳平衡。

(2) 自适应阈值 τ 对检测精度稳定性的调控机制

匹配阈值 τ 直接影响判定的松紧。固定阈值在变化光照下易导致误检或漏检。本文的自适应机制通过分析图像背景统计特性动态调整 τ ,旨在将系统稳定在ROC曲线的高性能区。该机制的有效性在后续实验中得到充分验证:在实验室测试中(表2),系统实现了97.5%的整体检出率与仅0.5%的误检率;在更具挑战的真实产线测试中(表3),系统仍保持了99.70%的综合准确率与0.21%的极低误检率。这表明自适应阈值 τ 成功缓解了光照不均等因素引入的虚警(如4.3.2节所述),并降低了对“轻微擦伤”等微弱缺陷的漏检风险,从而从根本上保障了系统在各种环境下的高精度与高稳定性。

(3) 参数协同与系统性能总结

综上所述,金字塔层数 N 的优化主要贡献于系统处理速度的显著提升,通过分层策略实现了计算资源的智能分配;而自适应阈值 τ 的引入主要贡献于检测精度的稳健与优化,确保了系统在复杂工况下的高可靠判别。二者协同工作,分别从“效率”与“精度”两个维度奠定了本文方法综合性能优越的基础。表1~3的实验结果从不同侧面共同印证了这一点,证明了本文算法设计在应对工业现场透视形变、光照变化等挑战时的有效性与实用性。

5. 结论与展望

本研究针对机箱面板检测中面临的透视形变适应性与多目标高效识别难题,提出了一种融合透视形变校正与分层检测策略的机器视觉解决方案。该方法通过透视变换统一建模全局形变,并结合“由粗到精”的分层检测机制,在理论层面实现了在复杂位姿下检测精度与计算效率的有效平衡,为同类平面工业物体的快速、鲁棒检测提供了可借鉴的方法论框架。

实验验证表明,所构建的系统在性能上取得了预期成效:在算法层面优于传统刚性匹配与非分层方法;实现了100%的混料识别准确率;在实验室标准测试中,多类缺陷整体检出率超过97%,误检率为0.5%;在真实产线连续运行测试中,综合准确率达99.70%,平均单件处理时间低于0.8秒。该系统有效解决了产线中混料与缺陷自动管控的迫切需求,在精度、效率与稳定性之间取得了良好平衡,具备突出的工程实用性与推广潜力。当然,系统在应对极端非均匀光照及微观瑕疵方面仍有提升空间。

未来研究将聚焦于探索一种“传统视觉引导的深度学习轻量化检测”框架。该框架以本文提出的透视形变校正与分层检测流程作为基础架构与几何先验生成器,在其关键环节嵌入轻量化深度学习模块,旨在增强系统对复杂光照与微观瑕疵的感知能力,而非取代现有成熟流程。

具体而言,系统首先沿用本文的透视形变匹配算法实现快速粗定位与几何校正,确保后续处理基于规范化视角,从而降低深度学习模型的学习复杂度。在精检测阶段,拟构建一个轻量级双流特征融合模块,其中一路保留高判别性的手工特征(如边缘梯度),另一路通过微型卷积网络(如剪枝后的MobileNet [23]模块)提取具有光照不变性的深度语义特征。两路特征经注意力机制进行自适应融合后,送入分类器完成最终决策。该设计可使深度学习模型仅专注于从规范化局部区域中区分“细微异常”与“正常纹理”,从而以较少训练数据实现高效学习,并保持毫秒级推理速度。

此混合框架预期将继承传统方法在几何建模与运行效率方面的优势,同时通过深度学习增强对光照变化、背景噪声及微观缺陷的鲁棒性,为实现更高精度的工业视觉检测提供一条数据需求小、易于部署的可行技术路径。

NOTES

*通讯作者。

参考文献

[1] 邵明瑞. 基于深度学习的印包产品表面缺陷特征检测方法研究[D]: [硕士学位论文]. 济南: 齐鲁工业大学, 2025.
[2] Lowe, D.G. (2004) Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision, 60, 91-110. [Google Scholar] [CrossRef
[3] 郭桂平, 罗兵. 基于多模板匹配的丝印缺陷快速检测方法[J]. 电子质量, 2016(4): 8-11.
[4] 赵静, 王伟, 牛英群, 等. 基于BLOB分析的钢卷边部缺陷检测研究[J]. 邯郸职业技术学院学报, 2022, 35(2): 28-32.
[5] Lee, H., Kwon, H., Robinson, R.M. and Nothwang, W.D. (2016) DTM: Deformable Template Matching. 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Shanghai, 20-25 March 2016, 1966-1970. [Google Scholar] [CrossRef
[6] He, Y. (2024) Improved Faster R-CNN Based on Multi-Scale Module for Detecting Weak Ground Targets in Remote Sensing Images. International Journal of High Speed Electronics and Systems, 34, Article 2540042. [Google Scholar] [CrossRef
[7] Lv, L., Li, J. and Zhao, Y. (2025) DMP-YOLO: Dense Multi-Scale Perception for Complex Scenes YOLO Algorithm Prunus Humilis Small Target Detection. Smart Agricultural Technology, 12, Article 101461. [Google Scholar] [CrossRef
[8] Chen, S., Hu, G. and Sun, J. (2020) Medical Image Segmentation Based on 3D U-Net. 2020 19th International Symposium on Distributed Computing and Applications for Business Engineering and Science (DCABES), Xuzhou, 16-19 October 2020, 130-133. [Google Scholar] [CrossRef
[9] 吴葛, 朱宇凡, 贾泽宁. 改进YOLO11的PCB表面缺陷检测方法[J]. 电子测量技术, 2025, 48(14): 136-145.
[10] 王嘉乐, 宋晓茹, 邱豆豆, 等. 基于深度学习的低照度环境下图像拼接算法[J/OL]. 激光杂志, 1-9.
https://link.cnki.net/urlid/50.1085.TN.20250918.1500.002, 2025-12-04.
[11] 王涛. 基于机器视觉的光学柱面透镜自动分拣装夹系统研究[D]: [硕士学位论文]. 长沙: 湖南大学, 2023.
[12] 王世勇, 乾国康, 李迪, 等. 面向边缘特征的实时模板匹配方法[J]. 华南理工大学学报(自然科学版), 2023, 51(9): 1-10.
[13] 姚震, 丁荣杰, 卢文波. 基于改进麻雀搜索的形状模板匹配算法研究[J]. 计算机仿真, 2025, 42(7): 371-377.
[14] 方文轩, 丛佃伟, 李军正. 基于关键标志构型的特征模板快速匹配方法研究[J]. 测绘与空间地理信息, 2022, 45(5): 196-199+202.
[15] 刘青正, 刘文帅, 王军利, 等. 一种基于YOLOv8s和改进U-Net的农业巡检机器人的指针式仪表识别方法研究[J]. 南方农机, 2025, 56(19): 6-10+30.
[16] 袁俊, 位小记, 柯晓东. 基于DFT载波校正算法在USRP便携式接收机中应用[J]. 电子制作, 2022, 30(15): 44-47.
[17] 曹文卓, 王太固, 徐兵, 等. 基于语义分割的船闸水位检测方法研究[J]. 仪器仪表学报, 2023, 44(2): 238-247.
[18] 张沛轩, 董一巍, 张怿, 等. 基于改进YOLO的动态加权竹木缺陷检与评估方法[J]. 计测技术, 2025, 45(4): 74-86.
[19] 曾香金. 基于机器视觉的电子产品表面瑕疵识别方法研究[J]. 电子元器件与信息技术, 2025, 9(2): 4-6.
[20] 田钊, 张春雷, 张敬宇, 等. 图像特征和灰度信息融合的模板匹配算法研究[J]. 组合机床与自动化加工技术, 2025(2): 158-162.
[21] 盛连军, 汤致轩, 茅晓亮, 等. 基于空间域和频率域方法的烟雾检测[J]. 华东师范大学学报(自然科学版), 2023(5): 147-163.
[22] 常文娴. 基于机器视觉的金属复杂表面缺陷检测技术[D]: [硕士学位论文]. 西安: 西安工业大学, 2022.
[23] Khurana, K., Sonsare, P., Borkar, D., Thakkar, H. and Bhagat, O. (2025) MOLO: A Hybrid Approach Using MobileNet and YOLO for Object Detection on Resource Constrained Devices. Discover Artificial Intelligence, 5, Article No. 288. [Google Scholar] [CrossRef