改进YOLOv10n的复杂场景设备检测算法
Improved YOLOv10n-Based Device Detection Algorithm for Complex Scenes
DOI: 10.12677/csa.2026.161024, PDF, HTML, XML,    科研立项经费支持
作者: 刘心怡:合肥综合性国家科学中心能源研究院(安徽省能源实验室),安徽 合肥;安徽理工大学计算机科学与工程学院,安徽 淮南;卢 棚, 刘少清*:合肥综合性国家科学中心能源研究院(安徽省能源实验室),安徽 合肥
关键词: YOLOv10复杂场景设备检测EffectiveSESIoUYOLOv10 Complex Scenes Device Detection EffectiveSE SIoU
摘要: 针对加速器中子源设备巡检场景中结构复杂、设备类型多样且易受遮挡干扰等问题,现有目标检测方法在检测精度与稳定性方面仍存在不足。为此,本文提出了一种基于改进YOLOv10的复杂场景设备检测算法:ECS-YOLO。首先,在特征提取阶段引入EffectiveSE注意力机制,对通道特征进行自适应重标定,增强关键设备特征表达能力。其次,设计C2f_RFAConv模块,将RFA注意力机制嵌入C2f结构,在不显著增加计算开销的前提下提升多尺度特征提取与感知能力。最后,在损失函数中引入SIoU损失,从距离、角度与形状匹配等多维度约束边界框回归过程,提高目标定位精度。实验结果表明,与基线模型相比,改进的ECS-YOLO模型在mAP@50、P、R上分别提高了3.7%,3.5%,4.8%。
Abstract: In accelerator neutron source equipment inspection scenarios, the complex structural environment, diverse equipment types, and frequent occlusion pose significant challenges to existing object detection methods, leading to insufficient detection accuracy and stability. To address these issues, this paper proposes an improved YOLOv10-based device detection algorithm for complex scenes, termed ECS-YOLO. First, the EffectiveSE attention mechanism is introduced in the feature extraction stage to adaptively recalibrate channel features, thereby enhancing the representation of critical device features. Second, a C2f_RFAConv module is designed by embedding the RFA attention mechanism into the C2f structure, which improves multi-scale feature extraction and perception capability without significantly increasing computational overhead. Finally, the SIoU loss function is incorporated to constrain bounding box regression from multiple aspects, including distance, angle, and shape matching, further improving localization accuracy. Experimental results demonstrate that, compared with the baseline model, ECS-YOLO achieves improvements of 3.7%, 3.5%, and 4.8% in mAP@50, Precision, and Recall, respectively.
文章引用:刘心怡, 卢棚, 刘少清. 改进YOLOv10n的复杂场景设备检测算法[J]. 计算机科学与应用, 2026, 16(1): 295-304. https://doi.org/10.12677/csa.2026.161024

1. 引言

随着肿瘤放射治疗技术的不断发展,硼中子俘获治疗(Boron Neutron Capture Therapy, BNCT)作为一种新型精准放疗手段,因其对肿瘤细胞的选择性杀伤能力而受到广泛关注。该技术通过向患者体内引入含硼药物,并利用热中子诱发核反应,从而实现对肿瘤组织的定向破坏。其中,加速器中子源作为BNCT系统的关键组成部分,其运行状态直接关系到治疗过程的安全性与稳定性。在实际应用中,加速器中子源设备通常工作于结构复杂、设备密集的环境中,对其进行长期、稳定的运行监测与巡检具有重要意义。然而,传统依赖人工的巡检方式在效率、准确性及一致性方面均存在明显不足,尤其在复杂场景下易出现漏检与误判问题。为此,有必要引入一种面向复杂环境的智能化设备检测方法,以辅助巡检人员实现对设备状态的高效、精准感知。

在复杂环境应用中,曾龙军[1]等通过改进YOLOv8n网络结构,结合轻量化骨干与多尺度特征融合策略,有效提升了自然场景下病害目标的检测精度;熊诗雨[2]等在YOLO11框架基础上针对远距复杂场景小目标检测进行了结构优化,显著增强了模型对极小目标的感知能力。针对工业复杂场景中的遮挡与光照干扰问题,徐中懿[3]等通过引入协同注意与动态卷积机制,提高了模型在复杂工业环境下的检测鲁棒性。此外,郭莉[4]等基于YOLOv10对人体跌倒检测任务进行了改进,验证了该系列模型在复杂动态场景中的适用性;薛光辉[5]等提出的PCSED-YOLO在跨尺度多目标检测任务中取得了较好效果。

综上所述,尽管现有研究在复杂场景目标检测方面取得了一定进展,但在高精度检测方面仍存在不足。针对复杂设备巡检场景,本文基于YOLOv10n对模型结构进行进一步优化,以提升模型在复杂环境下的检测精度与实用性。

2. YOLOv10n改进算法

YOLO系列算法以较高的检测精度和实时性能著称,已在目标检测任务中得到广泛应用[6]。由清华大学团队开源的YOLOv10 [7]是当前具有代表性的单阶段目标检测模型之一。该模型在YOLOv8 [8]基础结构上进行了多项改进,引入了PSA、SCDown以及C2fCIB等模块,以增强特征表达能力和网络效率。针对传统后处理阶段存在的计算冗余问题,YOLOv10采用一致性的双样本分配策略,取消了非极大值抑制过程,从而降低了推理开销。同时,通过引入轻量化分类头并结合空间通道解耦的下采样方式,进一步提升了模型的整体推理速度。

针对加速器设备巡检任务,本文提出了一种基于改进YOLOv10的加速器设备检测算法,其整体网络结构如图1所示。以YOLOv10为基准模型,首先在特征提取阶段引入EffectiveSE [9]注意力机制,对通道特征进行自适应重标定,以增强网络对关键设备特征的表达能力并抑制冗余信息。其次,设计C2f_RFAConv [10]模块,将RFA注意力机制嵌入C2f结构中,在保持模型轻量化特性的同时提升特征提取能力和多尺度目标感知能力。最后,在损失函数设计中引入SIoU [11]损失函数,从距离、角度及形状匹配等多个维度对边界框回归进行约束,从而进一步提升模型在复杂场景下的定位精度。

Figure 1. Architecture of the ECS-YOLO network

1. ECS-YOLO网络结构图

2.1. EffectiveSE注意力机制

EffectiveSE是在Squeeze-and-Excitation (SE) [12]注意力机制基础上改进得到的一种轻量级通道注意力模块,其核心目标是在降低计算开销的同时提升特征表达能力。传统SE模块通过对通道维度进行自适应建模,动态调节不同通道在特征表示中的重要性,从而增强网络对关键信息的感知能力。经典SE模块主要由Squeeze和Excitation两个阶段构成。其中,Squeeze阶段采用全局平均池化对每个通道的空间信息进行压缩,生成反映通道整体特征的描述向量;随后,在Excitation阶段中,通过两层全连接层及非线性激活函数建模通道间的依赖关系,并利用Sigmoid函数输出通道权重,用于对输入特征图进行重新加权。然而,该结构依赖全局平均池化和全连接运算,不仅增加了模型的计算复杂度,同时在压缩过程中可能丢失部分具有判别力的空间信息,从而影响特征表示效果。针对上述不足,EffectiveSE对传统SE结构进行了针对性优化。该模块首先对输入特征图依次采用多个3 × 3卷积进行特征提取,并将得到的特征进行拼接融合,随后通过1 × 1卷积生成尺寸为 C×W×H 的特征映射。基于该特征映射,EffectiveSE通过加权方式直接计算各通道的注意力权重,并将其作用于原始特征图,实现通道维度的自适应增强。

与传统SE模块相比,EffectiveSE在结构设计上更加简洁,有效减少了全连接层带来的计算负担,在保持甚至提升模型性能的同时,更好地保留了特征图中的空间信息,有助于增强网络对细粒度特征的表达能力。因此,本文将EffectiveSE模块引入ECS-YOLO网络,以强化特征表示能力,从而提升加速器设备的检测精度。

2.2. C2f_RFAConv模块

在对目标进行检测时,传统的卷积存在着一定的局限:首先,感受野大小是固定的。这说明每个神经元只能关注所给图像特定范围内的像素,但是在实际的检测任务中,不同位置像素的重要性是有差异的;其次,传统的卷积获取特征信息是通过共享参数的滑动窗口来实现的。因此,在计算过程中难以获得不同位置的信息差异,导致小目标的特征无法有效地被C2f模块捕获。针对上述问题,将感受野注意力卷积(Receptive Field Attention Convolution, RFAConv)替换主干网络里C2f模块中Bottleneck的Conv。该模块能够把空间特征信息通过卷积的方式进行重新排列,较好地解决了传统卷积核参数共享的难题。使模型在获取每个空间特征信息的同时减少其计算复杂度。感受野注意力空间注意力机制通过构建精准的注意力映射关系,对每个特征点进行强化。把通道的数量设置为1,能够得出RFA的运算公式为:

{ R 1 = X 1 × L 1 R 2 = X 2 × L 2 R n = X n × L n (1)

其中, R 是各个滑动窗口经过运算特征值后得出的结果。 X 是特征图宽度、高度和通道数的乘积,即输入的特征图。 L 是特征图中不同位置的信息。 n 是空间滑块的总数量。

Figure 2. Spatial feature transformation

2. 空间特征变换

基于此,空间注意力机制RFA能够有效地解决卷积神经网络运算过程中出现使用相同参数的问题。将RFA与卷积操作相结合得到RFAConv模块,该模块能够将空间特征变换为感受野空间特征,如图2所示。图中3 × 3大小窗口是感受野滑块,感受野滑块内有着不同重要性的特征信息,根据重要性将感受野空间特征进行排序,这种方法有效地解决了传统卷积参数共享的问题。

RFAConv模块的卷积结构图如图3所示。

Figure 3. Architecture of the RFAConv convolution module

3. RFAConv卷积结构图

其具体的运行步骤为:首先,通过平均池化将各个感受野特征的信息进行聚合。然后,采用1 × 1组卷积进行信息交互操作。最后,通过归一化指数函数的方法对感受野特征中各个特征参数的重要性进行强调。与此同时,通过3 × 3组卷积将感受野空间特征中的信息进行展开,此时特征信息的通道数增长到9倍,能够避免相邻特征信息出现相同的情况。

生成注意力分支的计算公式为:

A RF =Softmax{ g 1×1 [ AvgPool( X ) ] } (2)

感受野空间特征的计算公式为:

F RF =ReLU[ Norm[ g k×k ( X ) ] ] (3)

因此RFAConv的计算公式为:

F= A RF × F RF (4)

通过将RFAConv与主干网络中的C2f结合,设计出C2f_RFAConv模块。该模块通过对感受野中各个空间特征重要性进行感应,从而在空间方面增强模型特征提取的能力并减少传统卷积因共享参数导致局部特征弱化的情况。在减少参数量和计算量的同时提升了模型的检测精度。

2.3. SIoU损失函数

选用SIoU损失函数对原模型结构进行创新和优化。SIoU引入向量角度,并将损失细分为:角度损失、距离损失、形状损失以及IoU损失。作为一种基于面积的损失函数,SIoU的取值仅与目标框的面积紧密相关。这一特性有效规避了边界框动态变化所带来的干扰,提供了更高的稳定性。SIoU摒弃了复杂繁琐的距离度量方式与除法运算,大幅简化了计算流程。

除此之外,SIoU能够迅速引导预测框向最近的轴靠近,极大的减少了模型训练时间,更高效地促使预测框朝着真实框的位置精准收敛,从而提升目标检测模型的检测精度。

SIoU损失函数在计算过程中涉及到的各项参数,如图4所示:

Figure 4. Schematic diagram of SIoU loss computation

4. SIoU损失函数计算示意图

角度损失表示为预测框B与真实框BGT中心点角度的偏差,其定义如公式(5)所示:

A=12× sin 2 ( arcsinx π 4 ) (5)

其中:

{ x= c h σ σ= ( b c x gt b c x ) 2 + ( b c y gt b c y ) 2 c h =max( b c y gt , b c y )min( b c y gt , b c y ) (6)

Ch表示真实框中心点和预测框中心点之间的高度差,σ代表真实框中心点和预测框中心点之间的距离,坐标 ( b c x gt , b c y gt ) 指的是真实框的中心,坐标 ( b c x , b c y ) 指的是预测框的中心。

距离损失指的是预测框B与真实框BGT最小外接距离的差异,距离损失的定义如公式(7)所示:

{ Δ= ix,y ( 1 e ( 2Δ )ρt ) ρ x = ( b c x gt b c x c w ) 2 ρ y = ( b c y gt b c y c h ) 2 (7)

CwCh代表真实框与预测框在最小外接矩形上的宽和高。 ρ x ρ y 表示BGT和B中心点的位移差除以最小外接矩阵的宽(高)的平方。

形状损失表示为预测框B与真实框BGT长宽比的偏差。其定义如公式(8)所示:

Ω= ( 1 e W w ) θ + ( 1 e W h ) θ (8)

其中:

{ ω w = | w w gt | max( w, w gt ) ω h = | h h gt | max( h, h gt ) (9)

wh分别代表预测框的宽和高, w gt h gt 分别表示真实框的宽和高。θ为形状损失关注度参数, ω w ω h 是预测框相对于真实框在宽度和高度方向上的拉伸程度。

IoU损失表示为预测框B与真实框BGT的并集与其交集相除。其定义如公式(10)所示:

IoU= | b b gt | | b b gt | (10)

因此得出SIoU损失函数的公式如下:

Loss SIoU =1IoU+ Δ+Ω 2 (11)

3. 实验结果与分析

3.1. 数据集

本研究以加速器中子源设备作为目标检测对象,通过在实际运行现场对相关设备进行图像采集,构建了专用设备检测数据集。为增强数据多样性并提高模型对复杂环境的适应能力,采用了图像翻转、亮度调节、遮挡模拟以及噪声扰动等数据增强策略,最终获得共4328张加速器设备图像样本。在数据集划分方面,按照8:1:1的比例将样本划分为训练集、验证集和测试集,分别包含3462张、433张和433张图像。结合加速器中子源设备的结构组成及功能特征,将检测目标划分为11类,为后续目标检测模型的训练与评估提供数据支撑。

3.2. 实验环境

本文所使用的实验环境和配置如表1所示:

Table 1. Experimental environment and configuration

1. 实验环境及配置

配置

参数

GPU

NVIDIA GeForce RTX 4090

显存

24GiB

操作系统

Ubuntu22.04

开发环境

Python3.9.20 PyTorch2.0.1

训练环境

CUDA 12.6

本实验所用的超参数为:迭代次数设置为100轮,输入图片的分辨率设置为640 × 640,批量大小设置为8。

3.3. 评价指标

本文采用多个指标评估所提模型对加速器中子源设备的检测性能,具体通过准确度(precision, P)、召回率(recall, R)、平均精度均值(mean average precision, mAP)、参数量(params)、浮点计算量(floating-point operations per second, FLOPs)以及模型大小(Model Size)进行评估,其计算公式如下:

{ P= T P T P + F P ×100% AP= 0 1 P ( R )dR mAP= 1 n i=1 n 0 1 P ( R )dR (12)

其中,TP表示被模型正确识别的样本数,FP表示误判样本数。AP (Average Precision)用于衡量模型在不同置信度阈值条件下的整体检测性能。

3.4. 消融实验

为验证各改进模块对模型性能的贡献,本文在YOLOv10n模型上依次引入EffectiveSE注意力机制、C2f_RFAConv模块以及SIoU损失函数,并开展消融实验,结果如表2所示。

Table 2. Ablation experiments

2. 消融实验

模型

mAP@50/%

P/%

R/%

Params/M

FLOPs/G

YOLOv10n

89.5

85.8

81.4

2.7

8.4

YOLOv10n + EffectiveSE

90.1

83.5

83.4

3.9

14.4

YOLOv10n + EffectiveSE + C2f_RFAConv

90.1

82.6

85.2

3.7

14

YOLOv10n + EffectiveSE + C2f_RFAConv + SIoU (Ours)

93.2

89.3

86.2

3.7

14

在基线模型中引入EffectiveSE后,模型的mAP@50提升了0.6%,召回率提高了2.0%,表明通道注意力机制有助于增强特征表达能力,但同时带来了一定的参数量和计算量增长。在此基础上进一步融合C2f_RFAConv模块,模型召回率进一步提升了1.8%,有效缓解了目标漏检问题,同时模型复杂度相较仅引入EffectiveSE时有所降低,体现了较好的性能与效率权衡。最后,引入SIoU损失函数后,模型检测性能获得显著提升,其中mAP@50提升了3.1%,召回率提升了1.0%,准确度提升了6.7%。在参数量和计算量基本保持不变的情况下,整体检测精度得到进一步增强,验证了所提出改进策略的有效性。综上所述,各改进模块在不同阶段均对模型性能产生了积极影响,且相互之间具有良好的互补性,使模型在保证计算效率的同时显著提升了检测性能。

3.5. 可视化分析

为直观展示ECS-YOLO与YOLOv10n在检测性能上的差异,随机选取数据集中的样本图片进行了可视化分析。如图5所示,第一列为真实标签,第二列为YOLOv10n的检测结果,第三列为改进后的ECS-YOLO检测效果。

Figure 5. Visualization of detection results

5. 检测结果可视化

4. 结论

本文针对加速器中子源设备巡检场景中结构复杂、类型多样及遮挡严重等问题,提出了一种改进的YOLOv10目标检测算法:ECS-YOLO。通过引入EffectiveSE注意力机制、设计C2f_RFAConv模块以及采用SIoU损失函数,在不显著增加计算开销的前提下有效提升了特征表达能力和目标定位精度。实验结果表明,与YOLOv10n基线模型相比,ECS-YOLO在mAP@50、精确率和召回率上分别提升了3.7%、3.5%和4.8%,在复杂巡检场景下表现出更优的检测性能与稳定性。该方法为加速器中子源设备的智能巡检与工程应用提供了可靠的技术支持。尽管该方法取得了较好的检测效果,但仍存在一定局限性,如模型训练依赖于特定场景的数据集,跨场景泛化能力和实际部署中的实时性仍有待进一步验证。未来研究将重点围绕模型轻量化与边缘部署展开,并探索引入红外、深度等多模态信息,以进一步提升复杂环境下的检测鲁棒性与工程应用价值。

基金项目

合肥综合性国家科学中心能源研究院(安徽省能源实验室)项目(21KZS202)。

NOTES

*通讯作者。

参考文献

[1] 曾龙军, 卢承方, 陈勇, 等. 基于YOLO-FBA的复杂环境下豆叶病害检测研究[J]. 江苏农业科学, 2025, 53(20): 315-324.
[2] 熊诗雨, 狄永正, 纪雯, 等. 基于YOLO11的远距复杂场景小目标检测[J]. 计算机系统应用, 2026, 35(1): 152-163.
[3] 徐中懿, 张海军, 赵新元. 基于SDO-YOLO的复杂工业场景作业人员行为检测算法[J/OL]. 计算机应用与软件: 1-11.
https://link.cnki.net/urlid/31.1260.tp.20251105.1612.006, 2026-01-19.
[4] 郭莉, 张雪松, 李萌萌, 等. 改进YOLOv10的复杂场景人体跌倒检测方法[J/OL]. 电子测量技术: 1-11.
https://link.cnki.net/urlid/11.2175.tn.20251022.1028.012, 2026-01-19.
[5] 薛光辉, 闫朝阳, 吴冕. PCSED-YOLO: 复杂环境下跨尺度多目标穿戴检测算法研究[J/OL]. 计算机工程与应用: 1-20.
https://link.cnki.net/urlid/11.2127.TP.20251016.1507.016, 2026-01-19.
[6] 周志耀, 马常霞, 杨丽莎, 等. 基于轻量级改进的YOLOv8水下目标检测模型[J]. 电子测量技术, 2024, 47(19): 181-189.
[7] Wang, A., Chen, H., Liu, L., et al. (2024) YOLOv10: Real Time End-To-End Object Detection. arXiv: 2405.14458.
[8] 杨长春, 贺轩轩, 王睿, 等. 基于改进YOLOv8光伏板缺陷检测算法[J]. 电子测量技术, 2024, 47(23): 181-192.
[9] Zhu, W., Han, X., Zhang, K., Lin, S. and Jin, J. (2025) Application of YOLO11 Model with Spatial Pyramid Dilation Convolution (SPD-Conv) and Effective Squeeze-Excitation (EffectiveSE) Fusion in Rail Track Defect Detection. Sensors, 25, Article 2371. [Google Scholar] [CrossRef] [PubMed]
[10] Shi, J., Jia, Y., Zhou, G., Wang, J. and Jia, Z. (2025) Small Target Insect Detection Based on Improved YOLOv8n. ICASSP 2025—2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, 6-11 April 2025, 1-5. [Google Scholar] [CrossRef
[11] Gu, Z., Zhu, K. and You, S. (2023) YOLO-SSFS: A Method Combining SPD-Conv/STDL/IM-FPN/SIoU for Outdoor Small Target Vehicle Detection. Electronics, 12, Article 3744. [Google Scholar] [CrossRef
[12] Hu, J., Shen, L. and Sun, G. (2018) Squeeze-And-Excitation Networks. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018, 7132-7141. [Google Scholar] [CrossRef