融合注意力机制和上下文信息的阵风锋检测与识别
Gust Front Detection and Recognition Integrating Attention Mechanism and Context Information
DOI: 10.12677/ccrl.2024.136162, PDF, HTML, XML,   
作者: 卢 姁, 王也英, 李一玲:中国人民解放军32021部队,北京;王 曦, 孙国栋, 初奕琦:北京无线电测量研究所,北京
关键词: 阵风锋雷达数据注意力机制上下文信息Gust Front Radar Data Attention Mechanism Context Information
摘要: 阵风锋是一种常见的中小尺度天气现象,其经过常伴有灾害性天气,对生命财产安全构成严重威胁,因此,精确检测与识别阵风锋对于防灾减灾具有重要的现实意义。然而在实际应用中,阵风锋的检测面临着数据稀缺、区域特异性强、传统方法检测效果不佳、形态与位置难以精确识别、以及泛化能力不足等挑战。此外阵风锋的特征不明显,易与其他大气现象混淆,导致高误判率的发生。针对这些问题,本文提出了一种基于深度学习的创新方法。首先,针对传统检测方法的局限性,本文改进了Mask R-CNN模型,并引入了注意力机制和特征融合模块,显著提升了阵风锋的检测精度。其次,本文通过引入径向速度频道信息并设计上下文分支,有效增强了模型对干扰要素的辨别能力,从而降低了误判率。此外,本文构建了基于新一代多普勒天气雷达数据的三维阵风锋数据集,并通过数据增强技术扩充样本量,为阵风锋的深入研究提供了充足的资源。实验结果表明,所提出的方法在提升阵风锋检测与识别准确性方面具有显著优势,为阵风锋的研究及其业务化应用提供了新的理论基础和技术支持。
Abstract: Gust fronts are common mesoscale meteorological phenomena that are frequently accompanied by severe weather events, posing significant threats to life and property. Accurate detection and identification of gust fronts are therefore of critical importance for disaster prevention and mitigation. However, several challenges persist in the detection of gust fronts, including data scarcity, strong regional specificity, suboptimal performance of traditional mathematical methods, difficulties in accurately identifying their shape and location, and limited generalization capability. Moreover, the subtle characteristics of gust fronts often lead to confusion with other atmospheric phenomena, resulting in high false positive rates. To address these challenges, this paper proposes an innovative approach based on deep learning techniques. First, to overcome the limitations of traditional detection methods, we improve the Mask R-CNN model by incorporating an attention mechanism and a feature fusion module, significantly enhancing the detection accuracy of gust fronts. Second, to reduce false positive rates, we introduce radial velocity channel information and design a context branch to strengthen the model’s ability to distinguish between gust fronts and interfering elements. Additionally, we develop a three-dimensional gust front dataset using next-generation Doppler weather radar data and expand the dataset through data augmentation techniques, thereby providing a robust resource for gust front research. Experimental results validate the effectiveness of the proposed method in enhancing the accuracy of gust front detection and identification, offering new perspectives and tools for both research and operational applications in this domain.
文章引用:卢姁, 王也英, 李一玲, 王曦, 孙国栋, 初奕琦. 融合注意力机制和上下文信息的阵风锋检测与识别[J]. 气候变化研究快报, 2024, 13(6): 1507-1519. https://doi.org/10.12677/ccrl.2024.136162

1. 引言

阵风锋是一种小尺度天气系统锋[1],通常由成熟的雷暴或强对流风暴引发。当冷湿空气在地表下沉并向外扩散时,会导致风速骤然增加,从而形成这一气象现象。作为一种灾害性天气,阵风锋近年来在气象灾害防御中备受关注,主要原因在于其过境时往往伴随阵性大风和低空风切变,并可能触发新的对流或增强已有的对流。这种天气现象对船舶航行、飞机飞行安全以及农作物生长等都构成威胁,可能引发倒伏、损害等问题,进而对日常生活和人民生命财产安全产生重大影响。我国常年受到强对流天气的严重影响,频发的暴雨、洪涝和冰雹等灾害对国民经济造成了巨大损失,因此引起了水利、气象和应急管理等部门的高度重视。对阵风锋的探测与识别不仅有助于增强人们对气象灾害的理解,还能促使相关部门及时采取应对措施,从而提升短期预警能力,尤其在应对这类灾害性天气时显得尤为重要。目前,反射率因子(强度)图常被用于阵风锋的研究,因为它能够突出阵风锋的特征。在反射率因子图中,如图1中红色箭头所示,阵风锋通常表现为曲线或弧形回波,这在雷达气象学上也被称为窄带回波。通常一个地区的阵风锋窄带回波的强度值会分布在一个固定的范围内。

然而对阵风锋进行准确的识别一直是气象业务中的重难点。由于阵风锋的地域性且可供考究的数据资料匮乏,而且现有的阵风锋检测大都采用传统数理方法,存在位置和形态模糊,缺乏泛化能力,效果差等问题。另外由于阵风锋目标小,特征不明显,并且诸多自然界及大气干扰要素与阵风锋在雷达图上极为相似,导致检测出的阵风锋中误判率非常高。针对上述问题,本文结合深度学习技术与雷达数据,自建了阵风锋数据集,并探索了目标检测算法在阵风锋检测中的应用。研究采用深度学习方法,聚焦于阵风锋的定位检测与识别两个方面,利用神经网络模型的改进和阵风锋自身特征开展对这两方面的研究。本文主要研究内容及贡献包括:(1) 基于新一代多普勒天气雷达(CINRAD)数据资料自建一套完整的阵风锋三维数据集,通过人工标注和专家校对,构建了高质量的训练样本,并采用数据增强的方式来扩充数据样本。(2) 在阵风锋检测任务中,提出了注意力机制和特征融合模块的方法。对Mask R-CNN基线模型进行改进,设计了一种融合注意力机制和特征融合模块的阵风锋检测模型。(3) 在阵风锋识别任务中,引入径向速度频道信息来丰富阵风锋输入特征,提出了多元数据融合与上下文分支的方法。

Figure 1. The gust front detected on the radar image

1. 雷达图像上个检测到的阵风锋

本文组织结构安排如下:本章首先介绍了阵风锋检测及识别的研究意义与背景。第二章为文献综述,主要讲述了国内外学者对阵风锋的研究以及识别方法的发展史。第三章主要阐述了本文的网络架构,提出基于注意力机制的数据融合和上下文信息约束条件的阵风锋检测与识别模型。第四章介绍本文自建数据集,并针对所提出的模型进行对比实验与分析。最后为结论与展望。

2. 文献综述

早期由于技术局限性,对阵风锋的研究主要集中在分析其形成机理、气流结构、雷暴引发的对周围地区的影响,以及对阵风锋各方面特征的统计分析。随着研究的深入,科学家们受气旋识别技术的启发,开始基于径向风速展开阵风锋的识别研究。其中,美国联邦航空局开发的机器智能阵风锋算法(Machine Intelligence Gust Front Algorithm, MIGFA [2])便是一个典型代表。此后,一些学者提出了函数模板和熵函数匹配模板的方法。随着雷达技术的不断发展,研究人员利用机场监视雷达(Airport Surveillance Radar, ASR [3])和终端多普勒天气雷达(Terminal Doppler Weather Radar, TDWR [4])设计出了更具针对性的阵风锋识别算法。除此之外,Braham等人[5]与Byers等人[6]指出,雷暴对周边局部地区的影响远远超过雷暴本身带来的影响。日本气象专家Fujita等人[7]认为阵风锋蒸发冷却会带来压力上升。美国国家气象局气象学家John Goff对风暴和阵风锋的气流结构问题进行了详细分析。Wihelmson [8]表明雷暴的外流可以触发多单元风暴中新的对流单元的形成。Zronic和Lee和Klingle等人[9]统计分析了阵风锋的多普勒雷达回波特征。阵风锋从出生到消亡时间短,空间尺度小,给检测识别造成了很大难度。国内学者通过分析大量阵风锋天气过程的实例,设计出了基于径向风速、切向风切变的组合计算方法和梯度法,从而实现了阵风锋识别算法的突破。尽管MIGFA算法已在许多机场得以应用,但由于其基于人为定制的模板,主要依赖人工采集的特征,存在主观性强、缺乏普适性的缺点。随着计算机硬件和视觉技术的进步,深度学习技术在计算机视觉领域已逐渐超越了传统方法。夏文梅、慕熙昱、徐芬[10]等人研究了发生在中国南京的一场由强中尺度对流引发的阵风锋过程,运用了在地面观测场中实时观测到的气压、相对湿度、气温等资料统计了大气折射指数,并研究了在阵风锋经过前后大气折射指数的不同特征,同时发现了阵风锋在多普勒速度场中体现出了鲜明的线状综合切变特征,可运用该特性制定阵风锋的自动识别方法。同时通过该技术,还可以更高效地对阵风锋的发展过程及其移动方向进行了预测。国内学者首次将深度学习应用于阵风锋检测,结合雷达数据,利用目标检测技术,取得了比传统方法更为全面的特征提取和更为客观的结论。然而,阵风锋的复杂性——如其微小的尺寸、不断变化的形状和强度,以及受地理和环境因素的干扰——意味着技术应用需要根据地方数据的特点进行调整。目前气象业务仍缺乏一种稳定、完善的阵风锋识别方法。尽管由于数据集不足和体系不完善,深度学习在阵风锋识别领域的研究还较为有限,但其技术在这一领域具有巨大的应用潜力。

近年来,虽然深度学习中的目标检测技术在气象学领域被应用甚广,但都是用于研究热带气旋,海浪波高等十分成熟的任务。而阵风锋在雷达图表现为窄带弱回波尺度小,特征不明显,且长短、强弱、走向等特征变化多端,并且还无任何可用的公开数据集,即使获取到了雷达数据资料,其中采集到的有效阵风锋样本都屈指可数,因此基于深度学习的阵风锋检测是一个极为复杂且艰难的任务,该研究领域暂时还基本处于空白阶段,我国目前也没有一种真正能推广到业务化的阵风锋自动识别算法。目前仅有国内学者徐月飞[11]等在质量控制之后的业务化雷达PUP数据的基础上,通过卷积神经网络提取阵风锋在雷达图像上的特征,利用Faster RCNN [12]模型和Inception V2 [13]网络提出了阵风锋的图像识别算法,取得了74%的识别正确率。

3. 本文方法

3.1. 模型框架

Figure 2. CF-Mask RCNN model diagram

2. CF-Mask RCNN模型图

本文提出了一种基于注意力机制和特征融合模块的阵风锋检测与识别模型CF-Mask RCNN (Mask RCNN + CBAM + FFM)。并且在此模型基础之上,设计了上下文分支,增强了模型对干扰要素的识别能力。该模型能够更好地关注输入数据中小目标的重要特征,提高模型检测精度,为阵风锋检测任务提供了一种新的解决方案。模型如图2所示。主要包括主干(Backbone),区域推荐(RPN, Region Proposal Network),上下文分支三个模块。

3.2. 主干(Backbone)模块

Mask RCNN是一种基于锚框的多尺度检测模型。多尺度检测是指在图像中检测目标时,不仅要考虑目标在图像中的绝对位置,还要考虑目标在不同尺度下的大小和形状变化。为了实现多尺度检测,Mask RCNN采用了特征金字塔网络(Feature Pyramid Network, FPN),特征金字塔网络通过在卷积网络中添加额外的分支和池化层,以不同的比例从图像中提取出多尺度的特征,从而能够在不同尺度特征图下检测出不同大小的目标。具体地,Mask RCNN在不同尺度下生成了不同宽高比的锚框,这样可以很好地缓解多个物体重叠导致漏检的情况,然后对这些锚框进行分类和边界框回归操作,以检测出图像中的目标。与传统的目标检测算法相比,Mask RCNN不仅可以检测目标,还可以对目标进行实例分割。这种实例分割可以帮助更加精细地理解图像中的细小目标,从而更好地支持图像分析和计算机视觉应用,具有很强的通用性和扩展性。本文在Backbone引入CBAM注意力机制,使模型加强对输入数据中小目标的关注,从而提高模型精度。同时,在FPN处融合一个特征融合模块[14] (Feature Fusion Module, FFM),丰富FPN的全局信息,让模型能够在不同分辨率的特征图中更有效地检测阵风锋。

3.2.1. CBAM

在自定义锚框尺寸方面,本文采用了逐层缩减为原尺寸的1/2的方法,将锚框尺寸集中于小目标区域,减少干扰信息,从而提高模型检测精度。其次,在Backbone的ResNet残差网络中引入CBAM (Convolutional Block Attention Module)注意力机制。如图2~3所示,通过在ResNet的基础块中添加通道(Channel Attention Module, CAM)和空间注意力模块(Spatial Attention Module, SAM),可以实现对特征的自适应加权,卷积模块(conv block)也是如此,这样做可以提高ResNet对重要信息的关注度,尤其是更好增强小目标的特征表达,抑制冗余信息影响,进而提高模型检测精度。

Figure 3. The identity block module in Resnet incorporates the CBAM attention mechanism

3. Resnet中的identity block模块融合CBAM注意力机制

3.2.2. FFM

本文还引入了特征融合模块(FFM),特征融合模块是ExFuse框架中的核心构件,致力于解决传统语义分割模型在特征整合过程中遇到的语义层次与空间分辨率不一致的问题。FFM通过一系列创新策略,包括层重排(Layer Rearrangement)、语义监督(Semantic Supervision)、语义嵌入分支(Semantic Embedding Branch)、显式通道分辨率嵌入(Explicit Channel Resolution Embedding, ECRE)以及密集相邻预测(Densely Adjacent Prediction, DAP),有效地桥接了低级特征与高级特征之间的语义与分辨率差异。这些策略的融合不仅增强了低级特征的语义深度,也提升了高级特征的空间精度,从而显著提高了语义分割的准确性和鲁棒性。如图4所示,在FPN多尺度特征融合的基础上,利用不同扩张率的扩张卷积来获取不同感受野的语义信息,丰富FPN的上下文信息,进而增强小目标的特征表达,更有效地检测阵风锋。

Figure 4. FFM structure diagram

4. FFM结构图

3.3. 公式

RPN [15] (Region Proposal Network)又名区域推荐的网络,用于帮助网络推荐感兴趣的区域。Mask RCNN完成对物体的检测、分类、分割三个任务,而检测需要定位,也就是要得到目标的位置,先生成一系列锚框,然后通过一定的规则来筛选。在前面通过Backbone和FPN得到了增强后的特征,现在就需要在该特征上使用RPN结构。这里需要说明一点,模型要在这几层特征图之间根据Region Proposal切出ROI(Region of Interest)进行后续分类和回归预测,然后选择最合适尺度的Feature Map来切ROI区域。

3.4. 上下文分支模块

阵风锋过境时除了伴随着强雷暴,往往还伴随大风气象,在速度场中表现为径向速度辐合(切变),其中也包含了丰富的重要信息,阵风锋既和强度值有关,也和径向速度值相关,因此对于阵风锋的研究,需要综合考虑多个气象要素,以更好地理解阵风锋的形成机理和检测识别。为了丰富阵风锋在识别过程中的数据信息,本文把强度值和径向速度值进行数据融合[16]后进行了对比实验,加入径向速度信息将其作为额外输入通道,以辅助识别阵风锋。根据收集到的阵风锋上下文约束条件信息和处理规则,加入新的打分方式,根据RPN网络输出的分类、回归信息,经过NMS得到最终的ROIS,根据新的打分方式,进行得分高低排序,提取得分最高的6000个锚框,并提取在RPN层后的ProposalLayer层第一次修正及删除超界ROI后添加一个约束条件的上下文约束条件信息的分支,获取ROIS的坐标,并根据上下文约束条件信息分支中的处理规则进行保留2000个ROIS,来进入最终的分类、回归、分割操作。

3.5. 损失函数

本文提出的算法的核心是通过多任务的损失来计算ROI(感兴趣)区域的输出结果。基于Mask RCNN的阵风锋识别算法的损失函数[17] L total 的计算方法如公式(1)和(2)所示:

L total =L( { P i , t i } )+ L ROI (1)

L ROI = L cls + L box + L mask (2)

其中RPN层中损失函数如(3)所示:

L( { P i , t i } )= 1 N cis i L cis ( P i , P i * )+λ 1 N box i P i L box ( t i , t i * ) (3)

其中 λ 表示回归损失的权重, λ 越大表示越重视回归损失函数对RPN整体损失的贡献,而 λ 越小则表示回归损失函数占比越小,且越重视回归损失函数对RPN整体损失的贡献。对于在ROI区域,由于Mask RCNN模型是集分类、检测、分割于一体的多任务模型,所以其损失函数也由被模型定义的多任务损失:Loss = Lcls (分类) + Lbox (检测) + Lmask (分割)。Lcls和Lbox是Faster RCNN中的损失函数,而Lmask则是mask分支中的sigmoid二分类损失。

(1) 分类损失(Lcls)

Lcls:本文是基于阵风锋的单目标检测,只需预测其是热带气旋或者不是热带气旋,计算方法如公式(4)所示,其中y为真实类别数值0或者1,p为预测类别的概率值(数值大小在0到1之间):

Lcls=( ylog( p ) )+( 1y )log( 1p ) (4)

(2) 检测损失(Lbox)

Lbox:表示边框回归损失函数,表示目标的检测框坐标损失程度,计算方法如公式(5)所示,其中x,y代表目标检测框的中心坐标,wh分别是目标检测框的宽和高, t i 是目标检测框的四个参数化构成的坐标向量计算值, t i * 是目标检测框的四个参数化构成的坐标向量期望值,smoothL1是鲁棒损失函数。

Lbox=   i{ x,y,w,h } smoothL1( t i t i * ) (5)

边框回归函数中四个坐标参数化计算如公式组(6)所示:

t x = ( x x a )/ w a ; t y = ( y y a )/ h a

t w =log( w/ w a ) ; t h= log( h/ h a ) (6)

t x * = ( x x a )/ w a ; t y * = ( y * y a )/ h a

t w * =log( w * / w a ) ; t h * =log( h * / h a )

其中 x x a x * 分别表示目标检测框计算值、anchor框、目标检测框期望值的X坐标,ywh也同理。对于smoothL1 [18]函数的计算公式如(7)所示:

smoothL1={ 0.5 x 2 ,| x |<1 | x |0.5,other (7)

(2) 掩膜损失(Lmask)

Lmask:对于每一个ROI,mask分支定义一个 Km 2 维的矩阵表示K (类别)个不同的分类对于每一个m × m的区域。对于每一个像素,都是用sigmoid函数求交叉熵,得到平均交叉熵误差Lmask。对于每一个ROI,如果检测得到ROI属于哪一个分类,就只使用哪一个分支的交叉熵误差作为误差值进行计算。这样的定义使得网络不需要去区分每一个像素属于哪一类,只需要去区别在这个类当中的不同分别小类。最后可以通过与阈值作比较输出二值mask。将分类的任务交给之前的classification分支。简而言之就是先确定这个RoI是哪个类,而本文只需要检测阵风锋一个类别,然后网络只需生成1个类的mask,然后一个一个像素对应,最后使用平均二值交叉熵损失计算Loss,如公式(8)所示:

L mask =k m 2 i (8)

公式中, m 代表像素, m 2 表示在mask分支对每个ROI区域产生m × m尺寸大小的掩膜,i表示当前ROI区域多代表的类别,K表示当前图片下阵风锋的数目多少,基本上图中都只有1个。

3.6. 评价指标

在计算机视觉领域的目标检测任务中,为了评估模型性能和检验方法可行性,评价指标通常包括:精确率[19]、召回率、交并比等。在阵风锋检测领域的气象应用实际需要中,通常加入判别正确率,误判率及漏判率等指标,作为推广到业务化的重要依据。交并比(IOU) [20]用来衡量目标检测算法的对象定位精度,IOU是目标检测的预测框和标签框之间的交集与并集的比值,数值越大,说明目标检测算法定位越准确。在实际过程中一般会设定一个IOU阈值(threshold),如果IOU > threshold,对象将被识别为“成功检测”,否则将被识别为“错误”。除此之外,本文也采用传统的分类评价指标PR曲线,曲线是由精确率与召回率绘制而成,其代表的是两者的关系,曲线以下的面积就是特定目标的检测精度AP,若是多类别目标检测,则采用各类别平均精度(mAP)作为性能评价指标。一般情况下,将召回率设置为横坐标,精确率设置为纵坐标。

在阵风锋识别领域内,从业务应用角度出发,结合实际需要,阵风锋识别算法一般都采用气象领域的规定指标去衡量一个算法是否成熟,为了评价算法的泛化性能,更多的是在算法中引入判别正确率、误判率、漏判率这些阵风锋识别领域的权威性指标作为最终评价指标。

Acc=x/ ( x+y+z ) (9)

W P =y/ ( x+y ) (10)

L p =z/ ( x+z ) (11)

其中 Acc W P L P 分别指的是判别正确率、误判率、漏判率,式(9)、式(10)、式(11)的xyz分别指的是判别正确数、误判数和漏判数。

4. 实验与结果

4.1. 数据集

本文所使用的数据来源于多普勒天气雷达[21],涵盖了2013年至2016年期间河南省多个城市(包括洛阳、驻马店、商丘、南阳、郑州、南阳、濮阳、三门峡)采集的雷达体扫数据。经过标准化处理后,为生成雷达图,将选取0.5度仰角层、半径200公里内的反射率因子和径向速度两个频道的雷达PPI数据转换为图片形式存储,如图5所示。

本文采用Labelme [22]图形图像可视化标注工具,采用了手动人工逐点标注的方法,以提高阵风锋检测和分割的准确性。标注数据经过数据增强,如随机旋转、随机裁剪水平/竖直翻转,得到了一个数据量更为庞大的阵风锋实例数据集,数据增强后共收集到含有有效阵风锋样本的雷达反射率因子数据图7782张。本文选择了时间范围为2016年5月到2016年12月的100张未经过数据增强的原雷达反射率因子数据图作为测试集,将数据增强后的雷达反射率因子数据集按照9:1的比例划分为训练集和验证集。具体地,训练集用于模型的训练过程,验证集用于模型的调参和评估,而测试集则用于测试模型在未见过的数据上的表现。实验数据分布如表1所示。实验4.3在以上数据集的基础上,引入了径向速度数据频道数据,采用同样的方法划分数据集。

Figure 5. From left to right are the reflectivity factor pattern examples, radial velocity pattern

5. 从左至右依次为反射率因子图样例、径向速度图样

Table 1. Distribution of experimental data sets

1. 实验数据集分布情况

实验数据分布/张

时间范围

数量/张(数据增强前)

数量/张(数据增强后)

数据总量

2013~2016

1297

7782

训练集

2013.1~2015.9

1077

7003

验证集

2015.10~2016.4

120

779

测试集

2016.5~2016.12

100

0

4.2. 基于注意力机制和特征融合模块的阵风锋检测

本文提出的CF-Mask RCNN模型相对于基线模型在缩减锚框尺寸的基础上,主要做出了以下两个方面的改进,具体内容如下:(1) 引入CBAM注意力机制;(2) 引入特征融合模块(FFM)。为验证两个改进部分对模型的影响,本节通过控制变量法,分别同时对CF-Mask RCNN网络模型中改进的两个方面做了四个模型实验:基线模型Mask RCNN;仅引入了CBAM注意力机制的模型Mask RCNN + CBAM;仅融合了特征融合模块的模型Mask RCNN + FFM;引入了CBAM注意力机制且融合了特征融合模块的模型CF-Mask RCNN (Mask RCNN + CBAM + FFM)。通过前期实验,模型所采用的优化参数包括:ResNet为主模块,初始学习率0.001,Adam优化器,Batch Size为8以及epoch为50。

Table 2. Experimental result

2. 实验结果

模型

判别准确率(%)

漏判率(%)

误判率(%)

Mask RCNN

78.04

9.56

17.52

Mask RCNN + CBAM

79.30

6.01

17.36

Mask RCNN + FFM

78.79

6.32

17.53

CF-Mask RCNN

80.49

4.35

16.46

图6可知,本章提出的CF-Mask RCNN模型的PR曲线最靠近右上方,包含了其他模型的PR曲线,据此可以看出CF-Mask RCNN模型性能明显优于其他模型。由PR曲线下方的面积值可知,原基线模型是最低的,CF-Mask RCNN模型与其相比较高出了0.018,其它单一模块的模型的面积值介于CF-Mask RCNN和Mask RCNN之间。并且从表2中的实验结果可以得知,在判别正确率上,CF-Mask RCNN模型高于基线模型2.45%,其余单一模块改进也有略微提升;在漏判率上,CF-Mask RCNN较基线模型下降了5.21%,效果明显,表明本节对根据阵风锋特点所作的改进起到了明显作用;而在误判率上,CF-Mask RCNN虽然相较于其他模型略微下降,但误判率依然很高,几乎是判别正确率的1/5,这不符合气象领域的业务化要求,还需要进一步研究改进。

Figure 6. PR graph

6. PR曲线图

4.3. 正文基于多元数据和上下文约束条件分支的阵风锋识别

上述实验结果表明虽然能够精准检测阵风锋,但以气象业务推广的角度来看,从阵风锋检测的气象指标可以看出,误判率仍然较高,排除干扰要素,减小误判率,精准识别阵风锋是作为成熟的阵风锋检测业务算法的后续工作。本节从两方面对数据进行处理:(1) 数据融合:将径向速度信息与雷达反射率因子数据结合,形成RGBV四通道输入,丰富了模型的输入数据,使模型能更全面地学习阵风锋的特征,提高识别准确性。(2) 添加上下文约束条件分支:将检测框对角线长度在35~130的像素距离范围内的进行保留;环境上下文信息:根据色标RGB [23]值去加环境上下文信息约束。雷达干扰波的处理:以雷达站为原点建立坐标系,产生的预测框提取四个点的坐标信息产生两条斜线(左上到右下,右上到左下),即y = ax + b,再取x或y = 0,算截距b,取合理范围−10~10之间,若截距在此范围内,则为雷达干扰波且直接不做识别。本节对比实验包括:(1) 实验一:4.2中的CF-Mask RCNN模型在原数据上的实验;(2) 实验二:用4.2中的模型和融合了径向速度信息数据的实验;(3) 实验三:对添加了上下文约束条件分支的模型用原数据实验;(4) 实验四:对添加了上下文约束条件分支的模型和融合了径向速度信息数据的实验。

表3中得出,无论是数据融合还是添加上下文信息分支后误判率均有下降,因此误判率高这一问题得到明显改善,在实验4中,测试集里的100张雷达反射率因子图共有69条阵风锋实例结果,训练好的上下文约束条件信息分支的模型共检测74条阵风锋,其中检测正确的有67条,误判7条,漏判2条。综合来看,与实验1中未做本节改进的模型比较,根据表中阵风锋气象领域[24]的业务指标来看,实验4虽然漏判率下降不明显,但误判率却下降了7个百分点,对于误判率高这一妨碍推广应用的问题得到解决,并且识别正确率也得到了7.7个百分点的提高。从图7中可以看到,在进行微调参数及数据接入后,4个实验在训练过程中,经过50个Epoch [25]迭代后,模型都取得了较好的拟合效果。实验4为本文添加了上下文约束条件的分支和融合了径向速度信息数据的实验,相比前面3个实验的损失函数收敛速度[26]更快,并且损失函数值也有轻微减小。根据消融实验结果可以很好地证明了本文所提出设计思想的正确性,可以看出本章对输入数据方面的改进和上下文信息分支的添加可以帮助模型更好地识别阵风锋。

Table 3. Experimental result

3. 实验结果

方法

判别准确率(%)

漏判率(%)

误判率(%)

CF-Mask RCNN

80.49

4.35

16.46

CF-Mask RCNN + 径向速度

80.51

5.71

11.14

CF-Mask RCNN + 上下文约束

82.17

4.32

11.92

CF-Mask RCNN + 径向速度 + 上下文约束

88.16

2.90

9.46

Figure 7. Experimental Loss comparison

7. 实验Loss对比

5. 结论与展望

阵风锋是关键的中小尺度天气现象,对人类生活和环境有深远影响,是气象学的重要研究对象。传统上,阵风锋研究侧重于其形成机制和物理结构,但随着灾害性事件的增多,研究开始向定位检测、识别、路径预测和强度区分等更深层次发展。传统方法虽然取得进展,但受限于研究人员的专业水平和主观性。近年来,人工智能和深度学习技术在图像识别领域的突破为气象研究提供了新工具。本文利用深度学习技术,结合新一代多普勒雷达数据,改进现有模型,通过缩减锚框和融合多元数据信息,提出了一个阵风锋检测模型和基于上下文约束的识别方法,为阵风锋研究开辟了新路径。本文主要的研究工作内容如下:

(1) 针对无任何公开数据集这一难题,本文基于2013~2016年河南省七个城市的CINRAD雷达数据资料,自制一套三维度的阵风锋数据集,并对其进行手动标注标签;对于阵风锋实例数据仍然较为匮乏,本文采用数据增强的方式来丰富数据样本。

(2) 针对阵风锋检测任务,提出了一个基于双维度注意力机制和特征融合模块的阵风锋检测模型。通过对阵风锋检测的任务分析,通过在自建数据集上用基于单阶段和两阶段的代表性模型进行对比试验,选择Mask RCNN为基线模型,并且对该基线模型添加CBAM注意力机制模块与FFM特征融合模块,侧重于阵风锋特征信息的表达,使得模型在复杂的雷达图背景下能更好地实现阵风锋检测。

(3) 在阵风锋经过深度学习模型初步检测后,为了进一步降低误判率,从干扰要素中精准识别阵风锋,提出添加一个上下文信息约束条件的分支,综合特征的上下文信息分支,并且可以根据实际需求和情况进行调整,以适应模型更好的识别阵风锋特征。

未来研究将结合环境条件,利用轻量级网络提高检测速度,以满足气象业务需求。最后,本文尝试了数据融合和上下文信息约束分支,但仅使用了径向速度信息,且约束条件未针对不同数据集进行优化。后续工作将探索融合更多频道信息,并针对不同雷达数据集调整约束条件,以提高阵风锋检测的准确性和效率。

参考文献

[1] Cui, X., Chen, M., Qin, R., Li, C. and Han, L. (2023) The Roles of Surface Convergence Line and Upper‐Level Forcing on Convection Initiation Ahead of a Gust Front: A Case Study. Journal of Geophysical Research: Atmospheres, 128, e2022JD036921.
https://doi.org/10.1029/2022jd036921
[2] Smalley, D.J., Bennett, B.J. and Frankel, R. (2005) MIGFA: The Machine Intelligent Gust Front Algorithm for NEXRAD. 32nd Conference on Radar Meteorology, 24-29 October 2005.
https://ams.confex.com/ams/pdfpapers/96098.pdf
[3] Taylor, J.W. and Brunins, G. (1985) Design of a New Airport Surveillance Radar (ASR-9). Proceedings of the IEEE, 73, 284-289.
https://doi.org/10.1109/proc.1985.13139
[4] Zhang, P., Chan, P.W., Doviak, R., et al. (2009) Estimate of Eddy Dissipation Rate Using Spectrum Width Observed by the Hong Kong TDWR Radar. 34th Conference on Radar Meteorology.
https://ams.confex.com/ams/pdfpapers/155531.pdf
[5] Byers, H.R. and Braham, R.R. (1949) The Thunderstorm: Report of the Thunderstorm Project. US Government Printing Office。
[6] Newton, C.W. (1963) Dynamics of Severe Convective Storms. In: Newton, C.W., Ed., Severe Local Storms, American Meteorological Society, 33-58.
https://doi.org/10.1007/978-1-940033-56-3_2
[7] Fujita, K., Kajikawa, Y., Mori, J. and Sakata, I. (2014) Detecting Research Fronts Using Different Types of Weighted Citation Networks. Journal of Engineering and Technology Management, 32, 129-146.
https://doi.org/10.1016/j.jengtecman.2013.07.002
[8] Spiridonov, V., Sampan, T. and Curic, M. (2008) Numerical Simulations of Severe Tropical and Continental Storm.
http://cabernet.atmosfcu.unam.mx/ICCP-2008/abstracts/Program_on_line/Oral_07/Spiridonov_extended_1.pdf
[9] Klingle, D.L., Smith, D.R. and Wolfson, M.M. (1987) Gust Front Characteristics as Detected by Doppler Radar. Monthly Weather Review, 115, 905-918.
https://doi.org/10.1175/1520-0493(1987)115<0905:gfcadb>2.0.co;2
[10] 付志康, 徐芬, 顾松山. 南京地区夏季雷暴的雷达雷电特征分析[J]. 气象科学, 2010, 30(6): 841-845.
[11] 徐月飞, 赵放, 毛程燕, 王健疆. 基于深度卷积神经网络的阵风锋识别算法[J]. 暴雨灾害, 2020, 39(1): 81-88.
[12] Ren, S., He, K., Girshick, R. and Sun, J. (2017) Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 1137-1149.
https://doi.org/10.1109/tpami.2016.2577031
[13] Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J. and Wojna, Z. (2016) Rethinking the Inception Architecture for Computer Vision. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 2818-2826.
https://doi.org/10.1109/cvpr.2016.308
[14] Zhang, Z., Zhang, X., Peng, C., Xue, X. and Sun, J. (2018) ExFuse: Enhancing Feature Fusion for Semantic Segmentation. In: Ferrari, V., Hebert, M., Sminchisescu, C. and Weiss, Y., Eds., Computer VisionECCV 2018, Springer, 273-288.
https://doi.org/10.1007/978-3-030-01249-6_17
[15] Fan, Q., Zhuo, W., Tang, C. and Tai, Y. (2020) Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, 13-19 June 2020, 4012-4021.
https://doi.org/10.1109/cvpr42600.2020.00407
[16] Bleiholder, J. and Naumann, F. (2009) Data fusion. ACM Computing Surveys, 41, 1-41.
https://doi.org/10.1145/1456650.1456651
[17] Vu T, Jang H, Pham T X, et al. (2019) Cascade RPN: Delving into High-Quality Region Proposal Network with Adaptive Convolution. Advances in Neural Information Processing Systems, 32.
https://arxiv.org/abs/1909.06720
[18] Senhaji, K., Ramchoun, H. and Ettaouil, M. (2020) Training Feedforward Neural Network via Multiobjective Optimization Model Using Non-Smooth l1/2 Regularization. Neurocomputing, 410, 1-11.
https://doi.org/10.1016/j.neucom.2020.05.066
[19] Wei, C. (2022) Mask R-CNN-Oriented Pottery Display and Identification System. Computational Intelligence and Neuroscience, 2022, Article ID: 6288201.
https://doi.org/10.1155/2022/6288201
[20] Zheng, Z., Wang, P., Liu, W., Li, J., Ye, R. and Ren, D. (2020) Distance-IOU Loss: Faster and Better Learning for Bounding Box Regression. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 12993-13000.
https://doi.org/10.1609/aaai.v34i07.6999
[21] 王红艳, 刘黎平, 王改利, 等. 多普勒天气雷达三维数字组网系统开发及应用[J]. 应用气象学报, 2009, 20(2): 214-224.
[22] Torralba, A., Russell, B.C. and Yuen, J. (2010) LabelMe: Online Image Annotation and Applications. Proceedings of the IEEE, 98, 1467-1484.
https://doi.org/10.1109/jproc.2010.2050290
[23] 郑佳锋, 张杰, 朱克云, 等. 天气雷达产品色标改进[J]. 现代雷达, 2013, 35(10): 13-17.
[24] Sheridan, P. (2011) Review of Techniques and Research for Gust Forecasting and Parameterisation. Met Office.
[25] Zhang, Z. and Sabuncu, M. (2018) Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels. Proceedings of the 32nd International Conference on Neural Information Processing Systems, Montréal, 3-8 December 2018, 8792-8802.
[26] Sangari, A. and Sethares, W. (2016) Convergence Analysis of Two Loss Functions in Soft-Max Regression. IEEE Transactions on Signal Processing, 64, 1280-1288.
https://doi.org/10.1109/tsp.2015.2504348