优化YOLOv11模型:基于多尺度注意力机制的小目标检测性能提升研究
Optimizing the YOLOv11 Model: Research on Improving Small Target Detection Performance Based on Multi-Scale Attention Mechanism
DOI: 10.12677/airr.2025.141023, PDF, HTML, XML,    科研立项经费支持
作者: 谢立东, 刘静超, 文雪风:西京学院计算机学院,陕西 西安
关键词: YOLOv11多尺度注意力机制小目标检测YOLOv11 Multi-Scale Attention Mechanism Small Object Detection
摘要: 随着遥感图像中小目标检测问题的日益突出,传统目标检测方法在小目标的精确定位上存在局限性。为解决这一问题,本文提出了一种基于YOLOv11模型的多尺度注意力机制优化方法。首先,删除了YOLOv11模型中用于大目标检测的20 × 20尺度检测层,增加了160 × 160尺度的小目标检测层,以提升小目标的检测精度。其次,采用EIoU (Enhanced Intersection over Union)损失函数替代CIoU损失函数,解决了CIoU在长宽比差异较大的目标中的定位问题,从而加速收敛并提高定位精度。最后,结合空间注意力和通道注意力机制,增强了模型对不同尺度目标的感知能力。实验结果表明,优化后的YOLOv11模型在多个遥感图像数据集上表现出较传统YOLOv11显著提高的精度、召回率和F1分数,特别在小目标检测任务中具有更强的鲁棒性和更高的检测精度。研究表明,提出的方法能有效提升小目标检测性能,为遥感图像分析提供了新的解决方案。
Abstract: With the increasingly prominent problem of small target detection in remote sensing images, traditional object detection methods have limitations in accurately locating small targets. To address this issue, this paper proposes a multi-scale attention mechanism optimization method based on the YOLOv11 model. Firstly, the 20 × 20 scale detection layer used for large object detection in the YOLOv11 model was removed, and a 160 × 160 scale small object detection layer was added to improve the detection accuracy of small objects. Secondly, the EIoU (Enhanced Intersection over Union) loss function is used instead of the CIoU loss function to solve the localization problem of CIoU in targets with large aspect ratio differences, thereby accelerating convergence and improving localization accuracy. Finally, by combining spatial attention and channel attention mechanisms, the model’s perception ability for targets of different scales was enhanced. The experimental results show that the optimized YOLOv11 model exhibits significantly improved accuracy, recall, and F1 score compared to traditional YOLOv11 on multiple remote sensing image datasets, especially in small object detection tasks with stronger robustness and higher detection accuracy. Research has shown that the proposed method can effectively improve the performance of small object detection, providing a new solution for remote sensing image analysis.
文章引用:谢立东, 刘静超, 文雪风. 优化YOLOv11模型:基于多尺度注意力机制的小目标检测性能提升研究[J]. 人工智能与机器人研究, 2025, 14(1): 229-236. https://doi.org/10.12677/airr.2025.141023

1. 引言

随着遥感图像数据的不断增多和卫星技术的快速发展,遥感图像中的小目标检测问题逐渐引起了广泛关注。小目标通常具有较低的像素分辨率和较弱的特征信息[1],在传统目标检测方法中,尤其是在复杂背景下,它们的识别常常面临较大的挑战。这些问题使得传统的深度学习目标检测模型,特别是YOLO系列,无法有效处理小目标的检测任务。因此,如何提升YOLO模型在小目标检测中的准确性与鲁棒性,成为计算机视觉领域亟待解决的关键问题之一。

YOLO模型通过将图像分成多个网格并同时进行目标分类和定位,因其高效性和实时性被广泛应用。然而,YOLO在处理小目标时的性能仍然受到限制,主要表现为尺度不匹配和特征提取不足。尽管有研究尝试通过增强多尺度特征融合[2]、引入注意力机制[3]等方法来改进检测效果,但现有方案仍未能有效解决小目标在高背景复杂度下的识别问题。因此,本研究提出了一种基于YOLOv11的多尺度注意力机制优化方案,旨在解决这些挑战,提升小目标的检测精度。

本文的创新点主要体现在以下三个方面:首先,针对YOLOv11模型中对小目标识别不力的问题,本研究删除了20× 20的大目标检测层,替换为160 × 160尺度的小目标检测层,这一改动可以更好地捕捉小尺度目标的特征信息。其次,采用EIoU (Enhanced Intersection over Union)损失函数替代传统的CIoU (Complete Intersection over Union)损失函数,EIoU能够有效避免CIoU在目标框长宽比差异较大的情况下出现定位误差,从而加速模型的收敛,并提高小目标的定位精度。最后,提出并引入了多尺度注意力机制,结合空间注意力和通道注意力模块,使得模型能够更有效地关注不同尺度的关键区域,增强对小目标的感知能力,从而提升检测精度和鲁棒性。

通过这三项创新,本研究为YOLO模型在遥感图像中小目标检测的应用提供了新的解决方案,并在提升模型性能方面取得了显著进展。

2. YOLOv11

YOLO (You Only Look Once)系列是目标检测领域中广泛应用的深度学习模型,其主要特点是将目标检测任务转化为一个回归问题,通过回归直接预测目标的类别、位置以及边界框[4]。YOLO模型自提出以来,经历了多个版本的更新和优化,其中YOLOv11是该系列的最新版本,于2024年在YOLO视觉大会(YV24)上发布,标志着实时目标检测技术的一次重要进展。该版本在YOLOv1的基础上进行了多项架构和训练方法的创新,推动了目标检测的准确性、速度和效率的提升。

YOLOv11通过融合先进的特征提取技术,既保持了参数的精简,又能捕捉到更多的细节信息,从而提高了在目标检测、分类等多个计算机视觉任务中的表现[5]。同时,YOLOv11在处理速度方面也取得了显著进步,显著提升了其实时处理能力。

YOLOv11的整体网络架构如图1所示。首先,主干网络充当主要特征提取器,利用卷积神经网络将原始图像数据转换为多尺度特征图。其次,颈部组件充当中间处理阶段,利用专门的层来聚合和增强跨不同尺度的特征表示。第三,头部组件充当预测机制,根据精炼的特征图生成用于目标定位和分类的最终输出。

Figure 1. YOLOv11 overall network structure diagram

1. YOLOv11整体网络结构图

YOLOv11在识别和定位图像或视频帧中的目标方面表现出色,为每个检测到的项目提供边界框。此功能在需要精确目标识别的监控系统、自动驾驶汽车和零售分析中得到应用。

3. 算法改进

在本研究中,我们提出了针对YOLOv11模型的小目标检测优化方案,旨在提高该模型在遥感图像中的小目标识别精度和鲁棒性。YOLOv11作为一种高效的目标检测算法,凭借其端到端训练方式和实时推理能力,广泛应用于各种视觉任务。然而,面对遥感图像中的小目标,YOLOv11仍存在一定的性能瓶颈。为了克服这些挑战,本部分将详细介绍我们对YOLOv11算法进行的三项主要改进:1) 删除20 × 20尺度的大目标检测层,增加160 × 160尺度的小目标检测层;2) 使用EIoU损失函数替代传统的CIoU损失函数;3) 引入多尺度注意力机制,具体包括空间注意力和通道注意力机制。这些改进不仅能够增强模型对小目标的感知能力,还能提升模型的定位精度与收敛速度,从而更好地应对遥感图像中的复杂检测任务。改进后的网络结构如图2所示。

Figure 2. Improved overall network architecture diagram

2. 改进后的整体网络结构图

3.1. 新增小目标检测层

遥感图像中的小目标通常呈现出较低的分辨率和较少的像素点,这使得小目标的特征较为模糊,且难以与背景区分。因此,YOLOv11原本的较大尺度检测层(如20 × 20)不能有效捕捉这些小目标的特征信息,导致在遥感图像中检测精度不足。通过引入160 × 160尺度的小目标检测层,我们可以更好地适配小目标的检测需求,使模型能够更充分地利用细粒度特征信息,提高小目标的识别能力。

为实现这一目标,我们在YOLOv11的网络结构中对检测头进行了修改,去除了原本的20 × 20尺度层,替换为一个160 × 160尺度的检测层。通过这一修改,模型能够在更高分辨率的特征图上进行目标检测,这对于小目标尤为重要。新增的160 × 160尺度检测层能够在较高的分辨率下捕捉到更多的小目标特征信息,从而提升小目标的检测精度。

3.2. EIoU损失函数

YOLOv11的预测框回归采用CIoU损失函数[6],通过引进真实框和预测框的重叠面积、中心点距离和宽高比,来解决目标定位问题,使预测框更接近真实框。CIoU的计算公式如公式(1)所示:

L CIoU =1 B gt B prd B gt B prd + ρ 2 ( B gt , B prd ) ( w c ) 2 +( h c ) +αv α= v 1IOU+v ,v= 4 π 2 ( arctan( w gt h gt )arctan( w prd h prd ) ) 2 (1)

其中, B gt 是真实框的面积, B prd 是预测框的面积。 ρ 2 ( B gt , B prd ) 表示这两个框中心点之间的距离, w c h c 是覆盖这两个框的最小封闭框的宽度和高度。预测框和真实框的高度和宽度分别为 h prd w prd h gt w gt

由于CIoU将长宽比定义为相对值,当预测框和真实框的长宽比相同,但宽度和高度值不同时,边界框回归的损失函数值是相同的,这意味着CIoU无法反映预测框和真实框之间的真实差异,从而限制了收敛精度。因此,引入了一种更先进的IoU损失函数来弥补上述问题,即 L EIoU 。EIoU损失函数[7]由三个部分组成: L IoU L dis L asp (重叠面积、中心点距离、高宽比),其计算公式如公式(2)所示:

L EIoU = L IoU + L dis + L asp =1IoU+ ρ 2 ( B gt , B prd ) ( w c ) 2 + ( h c ) 2 + ρ 2 ( w gt , w prd ) ( w c ) 2 + ρ 2 ( h gt , h prd ) ( h c ) 2 (2)

EIoU可以避免CIoU预测框与真实框长宽比相同,实际宽高不同导致的损失函数失效问题,从而加快收敛速度,获得更好的定位结果。

3.3. 多尺度注意力机制

YOLOv11模型的原始架构虽然采用了多尺度特征图来处理不同尺寸的目标,但对于小目标的检测效果仍然受到限制,特别是在复杂背景或低对比度的图像中。传统的卷积神经网络在提取多尺度特征时,可能会忽视一些重要的局部细节,导致模型在关键区域的响应较弱。因此,通过引入注意力机制,可以帮助模型更加聚焦于图像中与目标相关的区域,特别是小目标区域,从而提升模型对这些目标的识别能力。

为了更好地处理遥感图像中不同尺度的目标,我们在YOLOv11模型中结合了多尺度特征图的空间和通道注意力机制。在不同尺度的特征图中,空间注意力机制可以有效识别目标所在的区域,而通道注意力机制则帮助优化各个尺度上关键特征的表达。通过这种方式,模型能够自适应地聚焦于不同尺度目标的关键特征,尤其是在小目标的检测任务中,能够显著提升目标的识别精度。

4. 实验结果与分析

4.1. 实验环境与数据集

本实验在一台配备NVIDIA GeForce RTX 3070 GPU的计算机上进行,操作系统为Windows 10。所有实验代码使用Python 3.10编写,深度学习框架为PyTorch 2.3.0,CUDA版本为12.1,以确保充分利用GPU进行加速。为了提高训练效率,初始学习率设定为0.01,并采用学习率衰减策略,最小学习率为0.001。每次训练使用的batch-size为16,训练周期(Epoch)为200,训练过程中的优化器采用Adam优化器,以保证较快的收敛速度。

本实验选用的DIOR数据集[8] [9]是西北工业大学程塨等于2019年发布的面向光学遥感图像中小目标检测的大规模数据集。数据集图像来源于Google Earth等,空间分辨率普遍位于0.5~30 m。该数据集由23,463张图像组成,覆盖了20个常见目标类别的192,472个实例,图像大小均为800 × 800像素。实验中训练集、验证集、测试集的划分比例为6:2:2,其中14,078张用于训练,4693张用于验证,4692张用于测试。

4.2. 实验评价指标

为了全面评估模型在小目标检测任务中的性能,本研究采用了以下常用的目标检测评价指标:查准率(Precision, P)、召回率(Recall, R)、F1-分数(F1-score)、平均精度均值(mean Average Precision, mAP)。查准率,即衡量模型预测结果中真正目标占所有预测目标的比例,如公式(3)所示。召回率,即衡量模型预测到的目标占所有真实目标的比例,如公式(4)所示。F1-分数,即精度和召回率的调和平均数,作为模型综合性能的指标,如公式(5)所示。mAP,计算在多个IoU (Intersection over Union)阈值下的精度平均值,通常用于综合评价目标检测模型在不同IoU阈值下的表现,如公式(6)所示。我们使用了IoU阈值为0.5作为mAP评估标准。

P= TP TP+FP (3)

R= TP TP+FN (4)

F 1 -score=2× P×R P+R (5)

mAP= i=1 n A P i n (6)

其中,TP是指检测为正且实际为正的样本,即正确检测出的目标数量;FP是指检测为正但实际为负的样本,即误检的目标数量;FN是指检测为负但实际为正的样本,即漏检的目标数量;TN是指检测为负且实际为负的样本,即负样本的数量。n表示所有类的数量。AP表示平均精度,是指模型在各个召回率下的查准率平均值。

4.3. 消融实验

消融实验(Ablation Experiment)旨在评估各项改进对模型性能的贡献。我们通过对比不同的模型配置,逐步去除或修改提出的创新点,分析每一项改进的效果。

4.3.1. 实验设计

模型1 (基线模型):原始YOLOv11模型,未做任何修改。

模型2 (新增小目标检测层):在基线模型上增加160 × 160的小目标检测层,删除20 × 20大目标检测层。

模型3 (替换EIoU损失函数):在模型2的基础上,将损失函数由CIoU替换为EIoU。

模型4 (引入多尺度注意力机制):在模型3的基础上,增加多尺度空间和通道注意力机制。

4.3.2. 实验结果

我们通过对比不同模型在多个评价指标上的性能变化,直观展示了各项改进对模型性能的贡献。消融实验结果如表1所示。

Table 1. Results of ablation experiment

1. 消融实验结果

模型

P

R

F1-score

Map50

模型1

0.836

0.781

0.807

0.672

模型2

0.854

0.804

0.828

0.692

模型3

0.862

0.811

0.835

0.705

模型4

0.875

0.824

0.849

0.716

从上述表1可以看到,每一项改进都在不同程度上提高了模型的性能。特别是在F1-score、mAP (IoU = 0.5)上,模型4 (引入多尺度注意力机制的优化版)表现最为突出,相比基线模型(模型1),F1-score提高了5.2个百分点,mAP (IoU = 0.5)提高了4.4个百分点。这表明,引入多尺度注意力机制对整体模型性能的提升起到了决定性作用。

通过对比模型2 (新增小目标检测层)和模型3 (替换EIoU损失函数),我们可以看到,尽管这两项改进分别提升了精度和召回率,但它们的性能提升幅度相对较小。相反,结合这两项改进和多尺度注意力机制(模型4)后,模型的整体性能得到了显著提升。

4.4. 对比实验

为了进一步验证我们的改进效果,我们将优化后的YOLOv11与几种主流的目标检测算法进行了对比实验,包括Faster R-CNN [10]、RetinaNet [11]、YOLOv8等。我们选取这些算法作为对比,因为它们在目标检测任务中表现优异,且广泛应用于遥感图像分析中,对比实验结果如表2所示。

Table 2. Results of comparative experiment

2. 对比实验结果

模型

P

R

F1-score

mAP50

YOLOv8

0.856

0.798

0.826

0.690

Faster R-CNN

0.843

0.783

0.812

0.674

RetinalNet

0.862

0.805

0.833

0.698

YOLOv11 (优化后)

0.875

0.824

0.849

0.716

从对比实验结果可以看出,YOLOv11 (优化后)在所有评价指标上均优于其他模型,尤其是在mAP和F1-score方面,表现出色。相较于YOLOv8和RetinaNet,优化后的YOLOv11在处理小目标时具有更高的精度和更好的定位能力。尽管Faster R-CNN在某些情况下能够提供较高的精度,但由于其计算复杂度较高,实时性较差,因此在实际应用中可能不如YOLOv11高效。

5. 结语

本文提出了一种基于YOLOv11的小目标检测模型优化方案,旨在提升遥感图像中小目标的检测能力。通过引入三个主要创新点:新增160 × 160小目标检测层、替换EIoU损失函数以及引入多尺度注意力机制,我们系统性地改善了YOLOv11在处理小目标时的检测精度和定位准确度。

实验结果表明,新增小目标检测层有效提高了小目标的检测能力,EIoU损失函数的替换优化了目标的定位精度,且通过引入多尺度注意力机制,模型能够在不同尺度上更精准地聚焦关键区域,从而显著提升了整体性能。通过一系列消融实验和与其他主流目标检测算法(如YOLOv5、RetinaNet、Faster R-CNN)的对比,我们的优化方案在精度、召回率和mAP等指标上均取得了显著的性能提升,尤其是在遥感图像中小目标检测的挑战性任务中表现突出。

尽管如此,仍然存在一些局限性。例如,模型在极端背景复杂或高噪声环境下的表现可能还有待进一步提高。在未来的研究中,可以尝试结合更多的多模态数据或引入自监督学习等先进技术,进一步提升模型的鲁棒性与泛化能力。

综上所述,本研究提出的基于YOLOv11的小目标检测优化方法为遥感图像处理领域提供了一种有效的解决方案,为实际应用中的小目标检测任务,特别是在地理信息系统、无人驾驶和灾害监测等领域的应用奠定了坚实的基础。

基金项目

本研究得到西安市科技计划软科学研究一般项目(项目编号:24RKYJ0065)的支持。

参考文献

[1] 童康, 吴一全. 基于深度学习的小目标检测基准研究进展[J]. 电子学报, 2024, 52(3): 1016-1040.
[2] 贾桂敏, 程羽, 齐孟飞. 多尺度注意力特征增强融合的红外小目标检测新网络[J]. 中国安全科学学报, 2024, 34(6): 90-98.
[3] 马鸽, 李洪伟, 严梓维, 等. 基于多注意力的改进YOLOv5s小目标检测算法[J]. 工程科学学报, 2024, 46(9): 1647-1658.
[4] Redmon, J., Divvala, S., Girshick, R. and Farhadi, A. (2016) You Only Look Once: Unified, Real-Time Object Detection. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 779-788.
https://doi.org/10.1109/cvpr.2016.91
[5] Khanam, R. and Hussain, M. (2024) YOLOv11: An Overview of the Key Architectural Enhancements.
[6] Zheng, Z., Wang, P., Ren, D., Liu, W., Ye, R., Hu, Q., et al. (2022) Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation. IEEE Transactions on Cybernetics, 52, 8574-8586.
https://doi.org/10.1109/tcyb.2021.3095305
[7] Zhang, Y., Ren, W., Zhang, Z., Jia, Z., Wang, L. and Tan, T. (2022) Focal and Efficient IOU Loss for Accurate Bounding Box Regression. Neurocomputing, 506, 146-157.
https://doi.org/10.1016/j.neucom.2022.07.042
[8] Li, K., Wan, G., Cheng, G., Meng, L. and Han, J. (2020) Object Detection in Optical Remote Sensing Images: A Survey and a New Benchmark. ISPRS Journal of Photogrammetry and Remote Sensing, 159, 296-307.
https://doi.org/10.1016/j.isprsjprs.2019.11.023
[9] Cheng, G., Wang, J., Li, K., Xie, X., Lang, C., Yao, Y., et al. (2022) Anchor-Free Oriented Proposal Generator for Object Detection. IEEE Transactions on Geoscience and Remote Sensing, 60, 1-11.
https://doi.org/10.1109/tgrs.2022.3183022
[10] Ren, S., He, K., Girshick, R. and Sun, J. (2017) Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 1137-1149.
https://doi.org/10.1109/tpami.2016.2577031
[11] Ross, T.Y. and Dollár, G. (2017) Focal Loss for Dense Object Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 21-26 July 2017, 2980-2988.