基于乳腺旋切术的超声肿瘤智能检测方法研究
Research on Intelligent Ultrasound Tumor Detection Method Based on Breast Rotary Resection
DOI: 10.12677/wjcr.2025.154022, PDF, HTML, XML,   
作者: 张孟涵, 李 佳, 宋梓瑜, 韩佳琦, 张 琪, 孙 航*:沈阳理工大学信息科学与工程学院,辽宁 沈阳;邵欣然, 沈筠植, 崔建春*:辽宁省人民医院乳甲外科,辽宁 沈阳;孙平东:辽阳县中心医院普外科,辽宁 辽阳
关键词: 肿瘤检测乳腺超声图像深度学习YOLOv8Faster R-CNNTumor Detection Breast Ultrasound Image Deep Learning YOLOv8 Faster R-CNN
摘要: 乳腺癌是全球女性中最常见的恶性肿瘤之一,且其发病率呈逐年上升趋势,给全球公共卫生体系带来了巨大压力。随着医学影像技术的进步,尤其是超声成像技术的提升,超声引导下的乳腺肿瘤微创旋切术逐渐成为一种重要的治疗手段,因其创伤小、恢复快而被广泛应用。然而,现有手术方法仍依赖外科医生的经验,导致肿瘤定位精度不足,尤其在手术过程中肿瘤的实时定位和切除仍面临较大挑战。为解决这一问题,本研究提出了一种基于乳腺旋切术的超声肿瘤智能检测模型,结合深度学习和图像处理算法,旨在显著提高肿瘤检测的准确性。本文收集167例患者手术视频并抽取4020张乳腺肿瘤的超声图像,并使用YOLOv8和Faster R-CNN两种深度学习模型进行训练与比较,评估其在检测速度和精度方面的表现。实验结果表明,YOLOv8在检测速度上显著优于Faster R-CNN,且其精确率达到0.9902,明显高于Faster R-CNN的0.9694。该模型能够有效辅助外科医生进行精准的肿瘤定位和切除,提升了术中的准确性和效率,具有广泛的推广前景和临床应用潜力。
Abstract: Breast cancer is one of the most common malignant tumors among women worldwide, and its incidence rate is increasing year by year, exerting tremendous pressure on the global public health system. With the advancement of medical imaging technology, especially the improvement of ultrasound imaging technology, minimally invasive rotary resection of breast tumors under ultrasound guidance has gradually become an important treatment method, and is widely used due to its small trauma and quick recovery. However, the current surgical methods still rely on the experience of surgeons, resulting in insufficient tumor localization accuracy. Especially during the surgical process, the real-time localization and resection of tumors still face significant challenges. To address this issue, this study proposes an intelligent ultrasound tumor detection model based on breast rotary resection, combining deep learning and image processing algorithms, aiming to significantly enhance the accuracy of tumor detection. In this paper, surgical videos of 167 patients were collected and 4020 ultrasound images of breast tumors were extracted. Two deep learning models, YOLOv8 and Faster R-CNN, were used for training and comparison to evaluate their performance in terms of detection speed and accuracy. The experimental results show that YOLOv8 is significantly superior to Faster R-CNN in detection speed, and its accuracy rate reaches 0.9902, which is significantly higher than 0.9694 of Faster R-CNN. This model can effectively assist surgeons in precise tumor location and resection, improving intraoperative accuracy and efficiency, and has broad promotion prospects and clinical application potential.
文章引用:张孟涵, 李佳, 宋梓瑜, 韩佳琦, 张琪, 邵欣然, 沈筠植, 孙平东, 孙航, 崔建春. 基于乳腺旋切术的超声肿瘤智能检测方法研究[J]. 世界肿瘤研究, 2025, 15(4): 189-199. https://doi.org/10.12677/wjcr.2025.154022

1. 引言

近年来,乳腺癌是全球女性最常见的恶性肿瘤之一,其发病率逐年上升,且呈现年轻化趋势[1] [2]。因此,乳腺肿瘤的准确诊断和及时治疗尤为重要。而且乳腺肿瘤检测技术在医学影像分析中取得了显著进展,尤其是通过深度学习方法应用于超声图像的目标检测。传统方法,如基于手工特征的支持向量机、随机森林等,尽管在某些情况下取得了良好的结果,但它们在高复杂度任务(如乳腺肿瘤的微小目标检测)中存在显著局限[3]-[5]。这些方法往往依赖于图像的人工特征提取和手动设置的规则,无法充分挖掘图像中的复杂特征[6] [7]。此外,传统方法对于图像的噪声和质量变化较为敏感,常常导致检测精度的下降。

例如,传统的基于SVM的肿瘤检测方法通常依赖于手工设计的特征,如纹理、边缘和形状等,并通过提取这些特征进行分类,像江玉磊先生等人则比较了独立双读和计算机辅助诊断(CAD)在乳腺钙化检测中的表现,结果表明CAD方法在某些情况下能够提供一定的诊断辅助价值[8]。尽管这些方法在一定程度上提高了检测精度,但特征设计复杂,并且在高维数据处理中表现有限。

然而,超声图像中肿瘤的形状、大小和位置变化非常复杂,且易受噪声影响,手工特征提取的方式在复杂场景下难以应对。因此,尽管传统方法在一些简单场景中表现不错,但在面对复杂的乳腺肿瘤超声图像时,其鲁棒性和准确性常常不足。而深度学习技术在乳腺癌影像诊疗中取得了突破性进展[9]-[11],卷积神经网络、U-Net等模型在图像分割、目标检测和分类任务中表现优异。例如,研究者利用了DenseNet-Dense卷积网络所提供的可能性[12],这是一种强大的架构,通过密集的连接方式有效地传播特征和梯度流,适用于深度网络,从而提供了总体表现最佳的模型,从而在乳腺X光片分类方面实现了更好的预测。

本文对YOLOv8与Faster R-CNN在乳腺肿瘤超声图像检测中的应用进行了比较,旨在选择最适合的超声肿瘤检测模型,进一步提升肿瘤检测的精度本研究构建的基于乳腺肿瘤旋切术的超声肿瘤检测模型可以辅助医生在术中快速识别肿瘤并进行切除手术,极大地提高手术精度和效率,在临床中具有广泛的应用前景。

2. 实验方法

(a) 图像获取

本研究收集了2023年5月至2024年7月期间,在辽宁省人民医院接受乳腺肿瘤真空辅助微创旋切手术的167名患者的超声视频数据。该研究通过辽宁省人民医院伦理委员会的批准,得到患者的知情同意且数据是否经过匿名化处理以保护患者隐私。通过跳帧即每10帧取1帧图像的方式,获得了4020张图像。超声成像系统为GE Logiq P3和SonoScape E1 Exp,真空辅助肿瘤旋切系统为美国Bard公司生产的EnCor®,型号为DR-ENCOR,旋切探头型号为ECP017,直径为7G。

为了确保数据集的代表性,选择具有不同年龄段和乳腺肿瘤类型,包括良性与恶性肿瘤。此外,所有图像均通过标准化的图像采集流程进行获取,排除了设备故障或图像质量问题可能带来的影响。

(b) 数据处理

所有图像数据在输入模型之前进行了去噪、格式转换等处理。原始标注采用YOLO格式,其中每行表示一个检测框,结构为:<类别编号> <x_center> <y_center> <width> <height>,这些值是归一化至[0, 1]范围内。为了适应COCO格式的训练需求,标注信息经过格式转换,恢复为绝对像素坐标,并组织成符合COCO格式的JSON文件,包括images、annotations、categories等字段。

超声图像的标注由具有五年以上临床经验的医生完成,标注结果经过具有二十年以上经验的专家复审,确保标签的高精度与一致性。最终,数据集按7:2:1比例划分为训练集(2814张)、验证集(804张)和测试集(402张),从而确保模型训练和验证的科学性与可靠性。

(c) 网络结构模型

基于前期构建的高质量标注数据集,本研究围绕着对超声图像的乳腺肿瘤检测方法采用了如下两种方法:YOLOv8 [13]-[15]和Faster R-CNN [16]-[18],对比两种模型的性能和预测性能,为清晰的呈现研究的脉络和技术路线,两个完整的实验设计流程已经梳理并绘制为图1图2

YOLOv8模型的创新设计主要体现在其轻量化设计、Anchor-Free策略、数据增强方法和损失函数设计等方面。首先,YOLOv8采用CSPDarknet作为骨干网络,通过特征重用与通道划分来减少计算量,并提升了检测精度,尤其适合处理高分辨率的乳腺超声图像。此外,YOLOv8采用了Anchor-Free方法,直接从特征图中预测目标的中心点与边界框的偏移量,避免了传统方法中对先验框的依赖,这使得模型在应对不同形状和尺度的目标时具有更强的适应能力,尤其在肿瘤形态多样的情况下表现尤为突出。YOLOv8还通过多样化的数据增强方法,如拼接、翻转、HSV变换和随机旋转,增强了模型对小目标的鲁棒性,并提升了其对目标形变的适应性,从而提高了检测精度。更为关键的是,YOLOv8在损失函数设计上进行了创新,采用CIoU和DFL联合优化边界框回归结果,并使用VFL损失函数来增强对难分类样本的训练能力,这一组合使得模型在面对小目标和边界模糊目标时,能够表现出更强的鲁棒性。

Figure 1. YOLOv8 workflow

1. YOLOv8技术路线图

与之对比,Faster R-CNN则通过区域建议网络(RPN)生成候选区域,并通过RoI Pooling将不同大小的候选区域映射到相同尺寸的特征图上,从而提高了模型的效率。其优化策略包括共享特征图,减少了计算冗余,并提升了模型效率。此外,Faster R-CNN的多任务损失函数联合优化了分类和回归任务,从而提高了乳腺肿瘤定位和分类的精度。为进一步优化模型性能,Faster R-CNN还通过优化RPN与NMS的IoU阈值设定为0.7,减少了假阳性和漏检现象,从而提升了模型的整体精度。在训练过程中,Faster R-CNN采用与YOLOv8相似的训练流程,使用交叉熵损失函数和Adam优化器,并通过ROC-AUC、准确率、召回率和F1分数等评估指标,确保了其在验证集上的较高泛化能力与鲁棒性。

为了增强模型的临床适用性与透明度,本研究还进行了可解释性分析。利用Grad-CAM [19]-[21]和Class Activation Map (CAM) [22]-[24]等技术,直观展示了模型在乳腺肿瘤检测时的关注区域,这不仅帮助医生理解模型的决策过程,也增强了模型的可信度。此外,针对推理效率和实时性需求,本研究还采用了TensorRT和ONNX进行模型加速,进一步提升了模型在实际应用中的响应速度和推理效率。

Figure 2. Faster R-CNN workflow

2. Faster R-CNN技术路线图

3. 实验结果与分析

实验基于本地高性能工作站上进行深度学习网络训练。该工作站配置了新一代NVIDIA GeForce RTX 4060 Laptop GPU,支持CUDA并行计算,加速了大规模图像数据处理与模型训练的效率,YOLOv8预训练种设置训练的轮数为500,批量大小设为16,图像尺寸为1024 × 1024。在优化器方面,选择了AdamW (启用权重衰减),初始学习率为0.001,并使用余弦退火学习率调度策略(lrf = 0.01),动态调整学习率。候选框筛选的置信度阈值设为0.3,IoU阈值为0.45。

Faster R-CNN模型,基于转换后的COCO格式数据进行训练训练过程中,批量大小设置为4,初始学习率设置为0.001,采用Adam或SGD优化器进行优化。同时设置2个类别分别为背景类和乳腺肿瘤类。输入数据经过标准化处理,均值为[0.485, 0.456, 0.406],方差为[0.229, 0.224, 0.225],以适配预训练模型。骨干网络选择了torchvision中的预训练ResNet50模型,通过迁移学习提升特征提取能力。此外,Anchor设置采用了默认的COCO参数,以适应不同目标大小。对于候选框生成与筛选,使用了默认的RPN/NMS阈值为IoU = 0.7。

实验系统地比较了YOLOv8和Faster R-CNN网络在超声图像上肿瘤检测的性能,在测试集402张图像上计算精确率、召回率、F1值如表1所示。

Table 1. Performance of YOLOv8 and faster R-CNN tumor detection models

1. YOLOv8和Faster R-CNN肿瘤检测模型的性能指标

评估指标

评估指标性能说明

YOLOv8 (291轮)

Faster R-CNN (180轮)

AP@IoU = 0.50:0.95

mAP表示平均精度,常用于衡量总体性能

0.9011

0.8394

AP@IoU = 0.50

IoU = 0.5时的mAP

0.9925

0.9694

AP@IoU = 0.75

IoU = 0.75时的mAP

0.9587

0.9030

精确率(Precision)

正确检测中预测为阳性的比例

0.9902

0.9694

召回率(Recall)

所有真实阳性中被成功检测的比例

0.9886

0.8607

F1值(F1-score)

精确率与召回率的调和均值

0.9894

0.9118

Figure 3. Training loss curve of the YOLOv8 tumor detection model

3. YOLOv8肿瘤检测模型验证损失曲线

表1所示,经过291轮训练后,YOLOv8在多个评估指标上表现出色。具体而言,YOLOv8在AP@IoU = 0.50:0.95上的值达到了0.9011,F1值为0.9894,表现出了极高的检测精度和稳定性。相比之下,Faster R-CNN在180轮训练后,精确率为0.9694,召回率为0.8607,F1值为0.9118。综上YOLOv8在各项评估指标上均优于Faster R-CNN,尤其是在F1值和召回率上,YOLOv8表现尤为突出,表明其在检测任务中具备更高的准确性和稳定性。

Figure 4. Validation loss curve of the YOLOv8 tumor detection model

4. YOLOv8肿瘤检测模型训练损失曲线

Figure 5. Training loss curve of the faster R-CNN tumor detection model

5. Faster R-CNN肿瘤检测模型验证损失曲线

根据图3图4图5图6的训练和验证损失曲线,YOLOv8肿瘤检测模型表现出良好的收敛性。训练损失和验证损失均在初期迅速下降,并在约100个epoch后趋于稳定,最终稳定在较低水平,表明模型已基本收敛。训练损失和验证损失曲线的平稳状态表明模型没有明显的过拟合或欠拟合现象,并且训练集与验证集上的表现较为一致,说明模型具备较强的泛化能力。综上所述,模型在约100个epoch后已达到较好的性能,表现出良好的稳定性和泛化能力。

Figure 6. Validation loss curve of the faster R-CNN tumor detection model

6. Faster R-CNN肿瘤检测模型训练损失曲线

(a) YOLOv8检测 (b) Faster R-CNN检测

Figure 7. Visualization of tumor detection results

7. 检测结果图

根据两张图表的结果,模型在训练过程中展现了良好的收敛性和稳定性。训练损失和验证损失在初期迅速下降,并在约50个epoch后趋于平稳,表明模型快速学习后逐渐收敛。在图1图3中,训练损失和验证损失逐渐趋于一致,减少了过拟合的风险,显示出良好的泛化能力。图2的平滑曲线进一步确认了这一趋势。最佳模型出现在第32个epoch,此时验证损失达到最低点,表明模型具有最佳的泛化能力。整体而言,验证损失的稳定性证明模型能在未见数据上保持优良性能,因此,在验证损失最低点保存模型能确保其在实际应用中的良好表现。其次,本文结合PyQt5开发了一个用户友好的实时检测系统,医生可以通过图形化操作快速获取检测结果,如下图7所示,从而加速临床决策过程,提升诊断效率。

5. 讨论

随着乳腺癌早期诊断技术的不断进步,基于超声图像和深度学习技术的乳腺肿瘤检测已成为医学影像分析领域的研究热点。传统的乳腺肿瘤检测方法多依赖医生的经验判断,然而这种方法主观性较强,容易受到图像质量和噪声的影响,进而导致误诊和漏诊。为了解决这一问题,本研究提出了基于YOLOv8和Faster R-CNN两种深度学习模型的自动化检测方法,旨在提升乳腺肿瘤检测的精度和效率,并探索其在临床实践中的应用潜力。

本研究对YOLOv8和Faster R-CNN两种深度学习模型进行了详细的性能评估。实验结果表明,YOLOv8在检测速度上具有显著优势,精确率为0.9902,明显优于Faster R-CNN的0.9694。同时,YOLOv8在实时性要求较高的应用场景中表现出了更强的适用性。然而,Faster R-CNN在处理复杂目标、特别是小目标的检测时,表现出更高的稳定性和精确度。因此,尽管YOLOv8在实时性方面具有更大优势,Faster R-CNN在高精度检测任务中,特别是在微小病灶的检测中,仍然展现出不可忽视的优势。

上述两个乳腺超声肿瘤自动检测模型突破了传统图像处理方法的局限。基于深度学习的自动特征提取方法不仅提升了检测精度,还显著提高了处理效率,尤其在噪声较大的数据中展现出了较强的鲁棒性。该模型可以作为医生术中的重要辅助工具,减少人为因素带来的误差,提高术中肿瘤识别的精度和效率,具有广泛的临床应用潜力。

从临床实践角度来看,这两种深度学习模型的出现为乳腺癌诊疗流程带来了潜在价值。对于外科医生而言,术前精准定位肿瘤位置、大小及边界,是制定手术方案的关键。在实际手术中,精准的肿瘤定位信息可以更精准地规划手术切口和切除范围,减少不必要的组织损伤,这对于保乳手术患者来说尤为重要,能显著提高其术后生活质量。在性能的临床可接受度方面,YOLOv8高达0.9902的精确率已达到甚至超过了人工检测水平,这使其在基层医院或超声诊断经验相对不足的医疗机构中具有极高的应用价值。而Faster R-CNN在微小病灶检测上的优势,也得到了许多专注于早期乳腺癌诊疗医生的认可,他们认为这对于提高乳腺癌早期检出率、改善患者预后具有重要意义。然而,这些模型在临床应用中仍存在潜在风险。模型的检测结果依赖于训练数据的质量和多样性,如果训练数据中缺乏某些特殊类型肿瘤的案例,那么模型在遇到这些罕见病例时可能会出现误判。

在实际部署这些模型时,还需要考虑诸多因素。其一,硬件设备的适配性。YOLOv8和Faster R-CNN对计算资源有一定要求,基层医院可能缺乏相应的硬件支持,需要进行设备升级或云端部署,这会增加成本和技术门槛。其二,数据安全和隐私保护。乳腺超声图像包含患者的敏感信息,在模型训练和使用过程中,必须严格遵守相关法律法规,确保数据不被泄露。其三,模型与临床工作流程的融合。自动化检测模型不能孤立存在,需要与医院的信息系统、影像归档和通信系统等无缝对接,方便医生随时调用和查看结果,真正融入到日常诊疗工作中。其四,对医生的培训。医生需要了解模型的工作原理、优势和局限性,学会合理地利用模型结果,而不是被模型所主导。同时,还需要对医生进行相关操作培训,确保他们能熟练使用这一辅助工具。

综上所述,本文使用YOLOv8和Faster R-CNN网络模型,探讨了超声图像中乳腺肿瘤的自动化检测方法。实验结果表明,该方法在检测速度和精度方面均优于传统的基于图像处理的检测方法,具有较高的临床应用价值。尽管如此,当前模型在处理复杂病灶、特别是肿瘤边缘模糊和形态不规则的情况下仍面临一定挑战。未来研究可通过引入更先进的网络结构[25]-[27]以及融合多模态数据,进一步优化模型性能,提升检测精度并增强对不同类型肿瘤的适应能力,为乳腺癌的早期筛查和诊断提供更为强大的技术支持。

6. 结论

为了提升乳腺肿瘤超声图像检测的精度与效率,突破传统依赖医生经验的主观判断问题,并解决图像质量和噪声带来的术中肿瘤识别的误诊和漏诊问题,本文建立了基于YOLOv8和Faster R-CNN深度学习模型的自动化乳腺肿瘤检测方法,能够为术中为医生提供快速且直观的检测结果,加速了识别决策的过程,为乳腺超声肿瘤检测提供更为精准且可靠的技术支持。

参考文献

[1] 世界卫生组织. 全球癌症负担报告[EB/OL]. 2024-02-04.
https://www.iarc.who.int/infographics/global-cancer-burden-growing-amidst-mounting-need-for-services/, 2025-03-01.
[2] 科学网. 全球女性健康“头号杀手”如何防治[EB/OL]. 2024-10-26.
https://news.sciencenet.cn/sbhtmlnews/2025/3/383579.shtm, 2025-03-10.
[3] Gong, B., Shen, L., Chang, C., Zhou, S., Zhou, W., Li, S., et al. (2020) Bi-modal Ultrasound Breast Cancer Diagnosis via Multi-View Deep Neural Network SVM. 2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI), Iowa City, 3-7 April 2020, 1106-1110. [Google Scholar] [CrossRef
[4] S, S., A, S. and S, A. (2024) Ultrasound Image Analysis in Breast Cancer: A Comparative Study of Decision Trees and Random Forests. 2024 IEEE 16th International Conference on Computational Intelligence and Communication Networks (CICN), Indore, 22-23 December 2024, 1024-1029. [Google Scholar] [CrossRef
[5] Almazroa, A., Alsomaie, B., Alluhaydan, N., Alhaidary, A., Fahim, M., Abdul, W., et al. (2020) Inter-Intra Observer Variability Using Deep Learning and Traditional Image Processing for Breast Cancer. 2020 13th International Conference on Developments in eSystems Engineering (DeSE), Liverpool, 14-17 December 2020, 447-452. [Google Scholar] [CrossRef
[6] Sirisati, R.S., Kumar, C.S., Venuthurumilli, P., Ranjith, J. and Rao, K.S. (2023) Cancer Sight: Illuminating the Hidden-Advancing Breast Cancer Detection with Machine Learning-Based Image Processing Techniques. 2023 International Conference on Sustainable Communication Networks and Application (ICSCNA), Theni, 15-17 November 2023, 1618-1625. [Google Scholar] [CrossRef
[7] Ghabrim, H., Essid, C. and Sakli, H. (2023) A Diagnostic System for Classifying and Segmenting Breast Cancer Based on Ultrasound Images. 2023 20th International Multi-Conference on Systems, Signals & Devices (SSD), Mahdia, 20-23 February 2023, 919-924. [Google Scholar] [CrossRef
[8] Jiang, Y., Metz, C.E., Nishikawa, R.M. and Schmidt, R.A. (2006) Comparison of Independent Double Readings and Computer-Aided Diagnosis (CAD) for the Diagnosis of Breast Calcifications. Academic Radiology, 13, 84-94. [Google Scholar] [CrossRef] [PubMed]
[9] Renukadevi, M. and Gomathi, S. (2025) Resilient Breast Cancer Detection and Accurate Tumor Region Localization Using a Robust Deep Learning Framework. 2025 International Conference on Electronics and Renewable Systems (ICEARS), Tuticorin, 11-13 February 2025, 1164-1169. [Google Scholar] [CrossRef
[10] Ali, M., Hu, H., Muhammad, T., Qureshi, M.A. and Mahmood, T. (2025) Deep Learning and Shape-Driven Combined Approach for Breast Cancer Tumor Segmentation. 2025 6th International Conference on Advancements in Computational Sciences (ICACS), Lahore, 18-19 February 2025, 1-6. [Google Scholar] [CrossRef
[11] Lamprou, C., Katsikari, K., Rahmani, N., Hadjileontiadis, L.J., Seghier, M. and Alshehhi, A. (2024) StethoNet: Robust Breast Cancer Mammography Classification Framework. IEEE Access, 12, 144890-144904. [Google Scholar] [CrossRef
[12] Renukadevi, M. and Gomathi, S. (2025) An Automated and Smart Breast Cancer Detection and Classification Framework Using DenseNet Based Deep Learning Approach. 2025 8th International Conference on Trends in Electronics and Informatics (ICOEI), Tirunelveli, 24-26 April 2025, 816-820. [Google Scholar] [CrossRef
[13] Wang, H., Li, C., Li, Z., Du, Y., Zhou, Z. and Wu, J. (2024) Breast Ultrasound Tumor Detection Based on Improved YOLOv8s-Obb Algorithm. 2024 5th International Conference on Intelligent Computing and Human-Computer Interaction (ICHCI), Nanchang, 27-29 September 2024, 120-125. [Google Scholar] [CrossRef
[14] Yang, Y., Zhou, H., Wu, J. and Zhang, M. (2024) Analysis of Breast MRI Images Using YOLOv8x Approach. 2024 9th International Conference on Image, Vision and Computing (ICIVC), Suzhou, 15-17 July 2024, 410-415. [Google Scholar] [CrossRef
[15] Ragab, M.G., Abdulkadir, S.J., Muneer, A., Alqushaibi, A., Sumiea, E.H., Qureshi, R., et al. (2024) A Comprehensive Systematic Review of YOLO for Medical Object Detection (2018 to 2023) IEEE Access, 12, 57815-57836. [Google Scholar] [CrossRef
[16] Wei, K., Wang, B. and Saniie, J. (2020) Faster Region Convolutional Neural Networks Applied to Ultrasonic Images for Breast Lesion Detection and Classification. 2020 IEEE International Conference on Electro Information Technology (EIT), Chicago, 31 July-1 August 2020, 171-174. [Google Scholar] [CrossRef
[17] Harrison, P. and Park, K. (2021) Tumor Detection in Breast Histopathological Images Using Faster R-CNN. 2021 International Symposium on Medical Robotics (ISMR), Atlanta, 17-19 November 2021, 1-7. [Google Scholar] [CrossRef
[18] Bhatti, H.M.A., Li, J., Siddeeq, S., Rehman, A. and Manzoor, A. (2020) Multi-Detection and Segmentation of Breast Lesions Based on Mask RCNN-FPN. 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM), Seoul, 16-19 December 2020, 2698-2704. [Google Scholar] [CrossRef
[19] Asif, M.M., Nawar, S., Uddin, A., Hosen, M.H., Amran, M. and Hasan, M.A. (2024) Advancing Medical Imaging: High-Performance Brain Tumor Detection and Classification Using Deep Learning and Grad CAM Visualization. 2024 IEEE International Conference on Computing, Applications and Systems (COMPAS), Cox’s Bazar, 25-26 September 2024, 1-6. [Google Scholar] [CrossRef
[20] Xiao, M., Zhang, L., Shi, W., Liu, J., He, W. and Jiang, Z. (2021) A Visualization Method Based on the Grad-CAM for Medical Image Segmentation Model. 2021 International Conference on Electronic Information Engineering and Computer Science (EIECS), Changchun, 23-26 September 2021, 2424-247. [Google Scholar] [CrossRef
[21] Parvathavarthini, S., Danushree, V.S., Krupa, N.S. and Sowndharya, R (2025) Integrating YOLOV8 and Grad-CAM++ for Enhanced Brain Tumor Detection and Interpretation. 2025 International Conference on Inventive Computation Technologies (ICICT), Kirtipur, 23-25 April 2025, 530-535. [Google Scholar] [CrossRef
[22] Jiang, W., Chen, K., Liang, Z., Luo, T., Yue, G., Zhao, Z., et al. (2024) HT-RCM: Hashimoto’s Thyroiditis Ultrasound Image Classification Model Based on Res-FCT and Res-CAM. IEEE Journal of Biomedical and Health Informatics, 28, 941-951. [Google Scholar] [CrossRef] [PubMed]
[23] Du, J., Chen, W., Vong, C., Liu, P. and Wang, T. (2025) Context-CAM: Context-Level Weight-Based CAM with Sequential Denoising to Generate High-Quality Class Activation Maps. IEEE Transactions on Image Processing, 34, 3431-3446. [Google Scholar] [CrossRef] [PubMed]
[24] Hussien, A., Youssef, S., Ghatwary, N. and Ahmed, M.A. (2024) MyoRCB-CAM-Seg: A New Supervised Segmentation Mechanism for Diagnosis of Myositis Medical Ultrasound Images Integrating New Modified Convolutional Residual Blocks and Convolutional Attention Mechanism. 2024 International Conference on Machine Intelligence and Smart Innovation (ICMISI), Alexandria, 12-14 May 2024, 25-31. [Google Scholar] [CrossRef
[25] Kaushik, P. and Sharma, P. (2025) Breast Cancer Detection Using MobileNetV3: A Deep Learning Approach for Ultrasound Image Classification. 2025 Fourth International Conference on Power, Control and Computing Technologies (ICPC2T), Raipur, 20-22 January 2025, 1-5. [Google Scholar] [CrossRef
[26] Adeniyi, A.A. and Adeshina, S.A. (2021) Automatic Classification of Breast Cancer Histopathological Images Based on a Discriminatively Fine-Tuned Deep Learning Model. 2021 1st International Conference on Multidisciplinary Engineering and Applied Science (ICMEAS), Abuja, 15-16 July 2021, 1-5. [Google Scholar] [CrossRef
[27] Mehta, S. and Khurana, S. (2024) Enhanced Breast Tumor Detection with a CNN-LSTM Hybrid Approach: Advancing Accuracy and Precision. 2024 2nd International Conference on Recent Trends in Microelectronics, Automation, Computing and Communications Systems (ICMACC), Hyderabad, 19-21 December 2024, 14-18. [Google Scholar] [CrossRef