基于双阶段协同数据增强的暴力行为视频识别算法
Violence Video Recognition Based on Two-Stage Collaborative Data Augmentation
DOI: 10.12677/jisp.2026.151008, PDF, HTML, XML,    科研立项经费支持
作者: 文晨曦, 杨善铮:赣南师范大学数学与计算机科学学院,江西 赣州
关键词: 暴力行为视频识别数据增强双阶段数据增强Violence Video Recognition Data Augmentation Two-Stage Collaborative Data Augmentation
摘要: 暴力行为视频识别是现代公共安全领域中一项至关重要的技术。合理设计的数据增强方法可以提升暴力行为视频识别精度。针对现有数据增强方法难以全面覆盖时域和空域暴力行为信息的问题,提出双阶段协同数据增强网络。在训练阶段提出时空随机裁剪策略,生成具有时空域暴力行为信息的多样化背景和动作表达,提高模型对时空域暴力行为特征学习的鲁棒性。在测试阶段通过十字区域裁剪策略,扩大裁剪视角,提高暴力行为特征区域覆盖度。在VSD2015数据集上的大量实验验证,双阶段协同数据增强网络仅视觉模态的结果超过先进方法,取得领先性能。本研究通过双阶段协同增强机制,为暴力行为视频识别任务中的数据增强方法提供新的方案。
Abstract: Violence video recognition is a crucial technology in the field of modern public security. Well-designed data augmentation methods can improve the precision of violence recognition. To address the problem that existing data augmentation methods are difficult to fully cover violence information in the temporal and spatial domains, a Two-stage Collaborative Data Augmentation Network (TCDANet) is proposed. In the training phase, a Spatiotemporal Random Crop (STRCrop) strategy is proposed to generate diverse backgrounds and action representations, which containing violence information in the spatiotemporal domains, enhancing the model’s robustness in learning spatiotemporal violence features. In the testing phase, a Cross Area Crop (CACrop) strategy is adopted to expand the cropping perspective, improving the coverage of violence feature regions. Extensive experiments are conducted on the VSD2015 dataset. The results of the two-stage collaborative data augmentation network with only visual modality outperform advanced methods, acquiring leading performance. This study provides a new solution for data augmentation methods in violence video recognition tasks through the two-stage collaborative augmentation.
文章引用:文晨曦, 杨善铮. 基于双阶段协同数据增强的暴力行为视频识别算法[J]. 图像与信号处理, 2026, 15(1): 89-101. https://doi.org/10.12677/jisp.2026.151008

1. 引言

在全球化与信息化深度融合下,暴力行为视频的传播呈现数字化、网络化特征。暴力行为视频作为暴力思想与行为的传播媒介,对社会公共安全构成严重威胁。暴力行为视频识别是公共安全领域暴力行为视频防控的重要技术[1]-[3],模型识别精度直接影响安全防控的程度。精确地识别暴力行为视频成为防范暴力恐怖袭击和维护社会稳定的重要环节。多数方法[4]-[14]通过设计模型结构提升模型的识别精度。数据增强方法[15] [16]可以设计生成与模型任务适配的多样化数据,是提升模型识别精度的又一途径。暴力行为类视频不仅包含空域上的特征比如武器,还包含时域上连续的暴力动作表达特征比如打架。方法[17]通过随机组合基础变换操作增强空域维度数据多样性。没有考虑时域维度数据增强对模型识别精度的影响,导致在动态暴力行为场景识别中受限。方法[18]对单帧图像进行多尺度空域裁剪,仅能增加多样化的空域暴力行为信息数据,缺乏时域暴力行为信息的数据多样性。暴力行为具有连续性,某一暴力动作的发生可能涉及多个视频帧的动态变化。仅在空域上作数据增强操作,可能使模型无法更好地理解完整的暴力行为事件发展过程。暴力行为视频的场景复杂多变,暴力行为特征可能出现在视频画面的任意位置。方法[19]采用中心视角裁剪方式,裁剪区域可能对暴力行为特征区域覆盖度低,限制模型的性能。

对于上述问题,提出双阶段协同数据增强网络。通过阶段化策略分别提升包含暴力行为信息的时空域数据多样性与暴力行为特征区域覆盖度。在训练阶段,对暴力行为视频进行时空域两个维度的裁剪,增加具有时空域暴力行为信息的多样化场景增强数据,提高模型泛化能力。在测试阶段,设计十字区域裁剪策略。通过十字区域裁剪提高暴力行为特征区域覆盖度,避免中心视角带来的局限性。通过针对性设计,协同提升暴力行为视频识别模型的性能,为公共安全领域提供更可靠的技术支持。

2. 相关工作

2.1. 暴力行为视频识别算法

多数研究[20]-[31]聚焦于模型结构创新提升识别精度。Sjöberg等人[32]提出MediaEval 2015电影情感影响分析任务。明确任务目标、数据标注规范与评价指标,为后续研究提供统一的基准框架。Dai等人[33]在MediaEval 2015任务中通过深度神经网络自动提取影片多模态高阶特征。有效捕捉暴力场景的视觉冲击与情感影响的关联性特征。Trigeorgis等人[34]通过整合视觉、音频及文本信息多模态特征的互补优势,提升情感影响评估的准确性与鲁棒性。Lam等人[35]聚焦于特征选择与模型优化。通过精简有效特征、调整模型参数,在保证性能的同时提升算法效率。Marin Vlastelica P.等人[36]通过系统验证低层视觉描述符、运动特征等多种视觉信息的有效性,明确不同视觉特征对电影情感影响预测的贡献差异。Li等人[37]提出将子类用于视频中的暴力检测,旨在通过将暴力类别划分为子类提高分类准确性。Peixoto等人[38]-[39]提出基于深度学习的视频暴力建模与分类策略,专注于构建有效的神经网络架构和训练算法。Freire-Obregón等人[40]、Zheng等人[41]提出不同的暴力行为检测方法,如使用膨胀3D卷积网络上下文分析和时空特征多任务学习提高暴力行为识别精度。Gu等人[42]通过语义对应性提高暴力行为视频识别精度。Wu等人[43]提出基于语义嵌入学习的特类视频识别方法。通过构建结构化的语义嵌入空间与高效的度量学习策略,提升模型对视频高层语义的理解与泛化能力。Pu等人[44]通过局部到全局嵌入的语义多模态方法提高模型性能。Wang等人[45]提出用于情感视频内容分析的私有–共享子空间学习方法(P2SL)。Savadogo等人[46]专注于利用卷积神经网络构建老年虐待检测系统。Negre等人[47]对基于深度学习的视频暴力检测进行文献综述。Vaishy等人[48]通过将复杂模型的知识迁移至轻量模型,在保证识别精度的前提下提升暴力行为的早期检测效率。Hanief等人[49]探索基于深度学习技术的视频监控系统进行可疑活动检测。上述研究在视频分析和暴力行为视频识别领域做出重要贡献。多数研究通过模型结构设计提升模型识别精度,同时也会增加一定的时间成本。

2.2. 数据增强方法

通过数据增强方法提升数据多样性,是提升模型泛化能力的重要手段。RandAugment [17]通过基于随机策略的自动数据增强方法,解决传统数据增强中手工调参复杂、策略固定的问题。原始设计针对静态图像,未考虑时域上的数据增强问题。直接应用于暴力行为视频任务不能充分学习复杂多变的暴力行为场景。MultiScaleCrop [18]是一种多尺度裁剪增强方法,广泛应用于图像分类,对时域维度的数据增强不足。这些方法没有针对时域维度进行增强设计。合理的时空域维度数据增强策略可以生成包含复杂暴力行为动作表达的时空域增强数据。试测阶段的数据增强旨在通过合理的区域裁剪方式,提升模型的识别精度。测试阶段常用的方法为CenterCrop [19],对视频帧进行中心区域裁剪后再输入模型进行识别。暴力行为视频识别任务中采用CenterCrop [19]存在一定的缺陷。暴力行为特征可能出现在视频画面的任意位置,尤其是边缘区域。中心视角的裁剪方式无法应对复杂多变的暴力行为场景。当暴力行为特征不在中心区域时,模型识别精度会大幅下降,严重影响实际应用效果。针对训练时RandAugment [17]、MultiScaleCrop [18]和测试时CenterCrop [19]裁剪方式存在上述不足,本文提出TCDANet弥补上述缺陷。训练时,融合包含暴力行为信息的时域和空域两个维度,提高有暴力行为信息的时空域数据多样性,提升模型对暴力行为视频识别的泛化能力。测试时,采用十字区域裁剪策略,裁剪中心区域和边缘区域提高暴力行为特征区域覆盖度,解决中心视角裁剪对暴力行为特征区域覆盖度低的问题。通过双阶段协同设计,达到全面覆盖时空域暴力行为信息和提高暴力行为识别精度目的。

3. 网络概述

为解决现有数据增强方法难以全面覆盖时域和空域的暴力行为信息问题,针对性提出TCDANet,整体框架如图1所示。本文提出的网络主要包含两个创新性的数据增强方法:STRCrop和CACrop。训练时,通过STRCrop融合时空域两个维度产生丰富多样包含时空域暴力行为信息的增强数据。增强数据输入到Backbone [50]进行多样化暴力行为特征学习,增强模型对复杂暴力行为场景的学习能力。测试时,通过CACrop裁剪中心及边缘区域,裁剪得到高覆盖暴力行为特征区域的增强数据。随后输入到经过多样化暴力行为特征学习的Backbone [50]进行推理,协同提升模型对暴力行为视频识别的精度。

Figure 1. An overview of TCDANet framework

1. TCDANet架构示意图

3.1. 时空随机裁剪

大部分数据增强考虑空域维度的增强,易割裂时域暴力行为信息的内在 AR 关系。通过STRCrop裁剪出包含时空域暴力行为信息的增强数据,提升模型的泛化能力。Crop in Time确保帧间动作连续,Crop in Space确保随机区域有效性,两者结合避免仅空域维度增强导致的时域暴力行为信息内在联系断裂。接下来Crop in Time和Crop in Space操作进行介绍。

Crop in Time将原始视频帧序列(长度 N )调整为固定长度 L 。当原始帧数量大于目标长度( NL )进行均匀采样。为避免随机采样导致的动作跳变,采用线性等间隔采样。采样帧均匀覆盖原始时间轴。设采样后第 i 帧( i[ 0,L1 ] )对应原始帧的索引为 index( i ) ,计算公式为:

index( i )= i( N1 ) L1 (1)

其中 表示向下取整,确保首尾帧分别对应原始序列的第0帧和第 N1 帧,中间帧均匀分布。当原始帧数量小于目标长度( N<L ),进行帧补全。计算需补充的帧数: E=LN 。初始索引序列为 [ 0,1,,N1 ] ,循环在前 N1 帧后插入重复帧,每插入1帧 E 的值减少1。若仍需补充( E>0 ),则从最后一帧(索引 N1 )开始循环补帧,直至总长度为 L

Crop in Space的核心是裁剪满足随机面积比 r 和随机宽高比约束的随机区域,避免裁剪出无意义的极端区域(如过小或宽高比异常的区域)。最多进行10次候选操作裁剪出满足条件的随机区域。设原始帧图像尺寸为 ( H,W ) ,面积 A=H×W ,通过以下步骤生成有效裁剪区域。通过随机宽高比 AR 生成候选宽高比,在对数空间随机采样10个候选宽高比(确保采样比例分布均匀),公式为:

A R i = f opt ( U( lnA R min ,lnA R max ) ),i[ 0,9 ] (2)

其中 A R min A R max AR 的上下限, U( a,b ) 表示在 [ a,b ] 上的均匀分布, f opt ( ) 表示进行候选操作。对数空域采样可避免线性采样导致的小比例值密集问题(如宽高比0.75~1.33,对数采样后各比例出现概率更均衡)。通过随机面积比 r ,随机生成候选面积( r min r max r 的上下限):

A i = f opt ( U( r min , r max )×A ),i[ 0,9 ] (3)

根据候选面积与候选宽高比计算候选宽高,确保候选宽高为整数(像素坐标需整数):

W crop,i = A i A R i , H crop,i = A i A R i (4)

筛选有效区域,选择第一个满足 W crop,i W H crop,i H 的区域 i c 。其左上角通过随机采样确定,右下角随左上角和 W crop,i H crop,i 确定, f Crop ( ) 是裁剪操作:

x 1 =U( 0,W W crop,i ), y 1 =U( 0,H H crop,i ) (5)

x 2 = x 1 + W crop,i , y 2 = y 1 + H crop,i (6)

i c = f Crop ( i, x 1 , x 2 , y 1 , y 2 ) (7)

候选区域均无效时(如原始图像过小或者候选宽高超出帧图像尺寸),则采用中心正方形裁剪,确保裁剪有效:取原始图像的最小边长: S=min( H,W ) 得到最大正方形区域;计算中心坐标: x 1 =( WS )//2 y 1 =( HS )//2 ;边界框为 ( x 1 , y 1 , x 1 +S, y 1 +S ) ,确保裁剪区域为图像中心的完整正方形。STRCrop伪代码如下:

Algorithm 1 STRCrop pseudocode

Require: L, I R N×H×W×C , AR( A R min ,A R max ) , r( r min , r max )

Ensure: O R L× H c × W c ×C

1: function STRCROP(L,I,AR,r)

2: O = []

3: if N < L then ▷Crop in Time

4: E = L - N

5: while E > 0 do

6: for i = 0 to N-2 do

7: if E > 0 then

8: I.insert(i + 1,I[i])

9: E = E - 1

10: N = N + 1

11: end if

12: end for

13: end while

14: else if NL then

15: for i = 0 to L - 1do

16: index( i )=[ i( N1 ) L1 ]

17: end for

18: I = [I[index(i)] | i ∈ 0.. L - 1]

19: end if

20: for each i in I do ▷Crop in Space ▷Crop in Space

21: A R i = f opt ( U( lnA R min ,lnA R max ) )

22: A i = f opt ( U( r min , r max )×A )

23: W crop,i = A i A R i

24: H crop,i = A i A R i

25: if W crop,i <W and H crop,i <H then

26: x 1 =U( 0,W W crop,i )

27: y 1 =U( 0,H H crop,i )

28: else

29: S = min(W, H)

30: x 1 =| WS 2 |

31: y 1 =| HS 2 |

32: end if

33: x 2 = x 1 + W crop,i

34: y 2 = y 1 + H crop,i

35: i c = f Crop ( i, x 1 , x 2 , y 1 , y 2 )

36: O.append( i c )

37: end for

38: return O

39: end function

3.2. 十字区域裁剪

针对暴力行为特征可能在帧图像的任意区域的特点,仅中心视角裁剪对暴力行为特征区域覆盖度低。通过CACrop对中心及边缘区域裁剪提高暴力行为特征区域覆盖度。结合Center-Edge Crop、Flip Crop操作,扩大裁剪视角,提升模型识别精度。

Center-Edge Crop将输入宽高为 ( H,W ) 视频帧,裁剪出宽高为 ( H c , W c ) 的中心区域和根据中心区域裁剪的边缘区域。根据中心区域的宽高计算中心偏移(后续可以通过中心偏移计算边缘区域宽高),水平中心偏移为 center_x=( W W c )//2 (确保裁剪中心区域水平居中时的 x 坐标),垂直中心偏移为 center_y=( H H c )//2 (确保裁剪中心区域垂直居中时的 y 坐标)。基于中心区域的宽高和中心偏移,定义十字区域的坐标:视频帧左上角坐标 ( 0,0 ) 、顶部区域左上角坐标 ( center_x,0 ) 、底部区域左上角坐标 ( center_x,Hcenter_y ) 、左侧区域左上角坐标 ( 0,center_y ) 、右侧区域左上角坐标 ( center_x,center_y ) 、中心区域左上角坐标 ( center_x,center_y )

设输入视频帧集为 I={ i 1 , i 2 ,, i n } ,每个视频帧 I i 是一个三维张量,定义为: I i R H×W×C ,其中 H 为帧图像高度, W 为帧图像宽度, C 为通道数(如RGB图像的3个通道)。裁剪操作根据中心区域的宽高、中心偏移量和指定区域左上角坐标裁剪区域。在视频帧中从水平方向 x offset x offset +w ,垂直方向 y offset y offset +h 裁剪出指定区域。 ( x offset , y offset ) 表示指定区域左上角坐标, ( w,h ) 表示指定区域宽高,裁剪后的视频帧集 I c 可表示为:

I c ={ I i [ x offset : x offset +w, y offset : y offset +h,: ]|i=1,2,,n } (8)

其中左侧和右侧区域 ( w,h ) ( center_x, H c ) ,顶部和底部区域 ( w,h ) ( W c ,center_y ) 。最后的 : 表示保留所有通道(不改变通道维度)。

每个裁剪后的图像 crop i I c 的维度为 h×w×C 。Flip Crop对裁剪后的集合进行水平翻转后得到的新集合 flip_I c 定义为:

flip_I c ={ crop i ^ | crop i ^ [ j,k,l ]= crop i [ h1j,k,l ],i=1,2,,m } (9)

其中 j[ 0,h1 ] 表示水平方向坐标(行索引), k[ 0,w1 ] 表示垂直方向坐标(列引), l[ 0,C1 ] 表示通道索引。

4. 实验及结果分析

4.1. 实验数据集

本文实验采用由MediaEval 2015比赛公开发布的大型暴力行为视频识别数据集VSD2015 [32]。一共有10,900个片段,包含502个暴力行为视频样本和10,398个非暴力行为视频样本。暴力行为视频与非暴力行为视频数量比例约为1:20,呈现典型的类不平衡状态。每个片段都是截取自YouTube视频或者Hollywood电影,时长为8~12秒。数据集每个片段都被标记相应的暴力行为或者非暴力行为标签。暴力行为视频和非暴力行为视频被打乱分到训练集和测试集,训练集包含6144个片段,测试集为4756个片段。如图2所示暴力行为视频样本和非暴力行为视频样本。

Figure 2. Examples of the VSD2015 dataset

2. VSD2015数据集示意图

在前面提到暴力行为视频和非暴力行为视频的比例约为1:20,属于类不平衡。为更加贴合暴力行为视频识别的任务,使用对少数类(暴力行为类)更为敏感的评估指标。这里使用官方指定的average precision (AP)值[51]作为评价指标。

4.2. 实验设置

本实验基于Pytorch架构,通过Backbone [50]和两块Tesla V100 GPU在VSD2015暴力行为视频二分类任务中(暴力行为/非暴力行为)展开训练与评估。训练过程设置30个epochs、批次大小2、帧大小16、1clip,使用AdamW [52]优化器。初始学习率为2e−5、β = (0.9, 0.999)、权重衰减0.01),搭配LinearLR (前5轮线性升温)与CosineAnnealingLR (后续50轮余弦退火)的学习率调度策略。测试过程设置批次大小2、帧大小16、2clips。基准数据增强方法训练采用RandAugment [17]、MultiScaleCrop [18]和测试采用CenterCrop [19]

4.3. 与其他方法的比较

实验为证明TCDANet在暴力行为视频识别任务中的性能,与其它一些比较先进的模型进行比较。为能够具有对比性,同时选择在暴力行为数据集VSD2015上进行实验结果比较。

TCDANet通过多阶段协同优化策略提高包含暴力行为信息的时空域维度数据多样性和暴力行为特征区域覆盖度,弥补先进模型对暴力行为场景识别的局限。如表1所示,TCDANet仅视觉模态的结果与这些先进方法结果比较是最佳的,验证TCDANet的有效性,为暴力行为视频识别任务提供新方向。

Table 1. Comparison with other methods on the VSD2015 dataset

1. 在VSD2015数据集上与其他方法的对比

方法

Modality

VSD2015 (%)

Fudan-Huawei [33]

V + A

29.59

Zheng et al. [41]

V + A

32.42

Gu et al. [42]

V + A

41.31

Wu et al. [43]

V + A

44.55

Pu et al. [44]

V + A

47.39

TCDANet

V

48.89

4.4. 消融实验

为验证前面所提到的针对性设计策略在覆盖时空域暴力行为信息的协同效果,分别探究STRCrop方法、CACrop方法以及两者结合对模型性能的影响,设计三组方法的消融实验。为保证实验的公平性,使用相同的实验设置。

STRCrop和CACrop是针对提升覆盖时空域暴力行为信息不同方面提出的方法。通过在空域维度融入时域维度信息,STRCrop增强模型对时空域的暴力行为场景和动作表达的学习能力。CACrop裁剪中心及边缘区域,通过结构化裁剪提升暴力行为特征区域覆盖度。如表2所示,两者结合显著优于单个数据增强方法效果。前者通过时空域关联打破静态局限,让模型学习更全面的暴力行为模式。后者通过扩大中心视角的裁剪,避免暴力行为特征遗漏,提高模型识别精度。验证STRCrop与CACrop结合对模型性能的提升形成协同效果。

Table 2. Ablation evaluation of proposed methods on VSD2015 dataset

2. 在VSD2015数据集上提出方法的消融评估

方法

VSD2015 (%)

STRCrop

47.31

CACrop

47.40

STRCrop + CACrop

48.89

4.5. 与基准方法的比较

通过STRCrop对模型精度提升的综合表现验证设计的合理性。选择训练基准方法RandAugment [17]和MultiScaleCrop [18]做比较。通过训练时间和推理结果综合评估训练阶段提出的STRCrop方法。训练时间根据不同方法在相同训练周期的平均训练时间计算得到。为使实验公平,实验设置保持一致。

表3所示,在相同实验条件下STRCrop的结果优于RandAugment [17]和MultiScaleCrop [18],证明时空随机裁剪策略生成丰富的包含暴力行为信息的时空域增强数据,为模型提供更佳的暴力行为场景学习环境,提升模型泛化能力。STRCrop增加对时域维度的增强操作,需要更多的计算处理,导致训练时间的增加。推理结果和训练时间的综合表现证明STRCrop设计的合理性。

Table 3. Comparison with training benchmark methods on VSD2015 dataset

3. 在VSD2015数据集上与训练基准方法的比较

方法

训练时间(分钟)

VSD2015(%)

RandAugment [17]

15.79

46.18

MultiScaleCrop [18]

15.28

46.89

STRCrop

25.28

47.31

通过测试效果和时长综合验证CACrop和CACrop + STRCrop的合理性,选择测试基准方法CenterCrop [19]作比较。测试时间是测试单样本的平均时间,即测试一次总时间对应的总测试样本的平均计算时间。为确保实验公正,采用统一的实验设置进行测试。

表4所示,CACrop打破CenterCrop [19]“仅聚焦中心”的局限性,比测试基准效果好证明其对暴力行为特征覆盖能力优于传统“中心固定裁剪”方法。CACrop + STRCrop方法形成互补,比CACrop的效果更好,形成协同提高模型识别精度。CACrop扩大裁剪视角,增加模型除中心区域的计算,故时长比CenterCrop长。STRCrop + CACrop通过STRCrop增加时空域暴力行为信息的数据多样性,提升模型对暴力行为场景的学习能力,不会对测试时间有太大影响。故STRCrop + CACrop和CACrop的推理时间相差甚微。测试效果和时长形成良好的平衡,证明CACrop和STRCrop + CACrop的合理设计。

Table 4. Comparison with testing benchmark methods on VSD2015 dataset

4. 在VSD2015数据集上与测试基准方法的比较

方法

测试时间(秒)

VSD2015 (%)

CenterCrop [19]

0.11

46.18

CACrop

0.72

47.40

STRCrop + CACrop

0.72

48.89

4.6. 结果分析

为直观呈现TCDANet在暴力行为视频识别任务中的分类性能,本节通过对比TCDANet与基准模型混淆矩阵对模型预测结果进行可视化解析。混淆矩阵的行代表真实类别(Non-Violence为非暴力行为,Violence为暴力行为),列代表预测类别,矩阵元素为对应类别的预测概率,右侧颜色条用于映射概率数值与颜色的对应关系(颜色越深,概率越高)。

图3反映出在VSD2015数据集上的暴力行为视频识别任务本身存在一定的挑战性,可能由于类不平衡和暴力行为场景的多样性、复杂性(如不同的暴力行为手段、场景背景等),导致模型对暴力行为视频的特征提取和分类存在一定难度。TCDANet通过针对性数据增强,提高训练时包含暴力行为信息的时空域数据多样性和测试时的暴力行为特征区域覆盖度。在训练阶段STRCrop让模型学习到暴力行为行为在不同时空片段的呈现方式。在测试阶段CACrop确保暴力行为行为的关键特征(如肢体冲突的边缘区域)不被遗漏,对暴力行为视频的判别更精确。TCDANet在正确识别暴力行为类视频的概率和漏检率都比基准高。验证TCDANet针对性设计策略对模型分类性能的提升。

TCDANet Base

Figure 3. Confusion matrix comparison of different methods on VSD2015 dataset

3. 不同方法在VSD2015数据集上的混淆矩阵对比

通过可视化预测结果比较TCDANet和基准方法的效果。用“×”表示预测标签与真实标签不一致,“√”表示预测标签与真实标签一致。基准方法和TCDANet后面的标签表示预测标签,真实标签放在最后。在相同的实验参数下,TCDANet和基准方法同时进行三个相同视频预测结果示例。

图4所示,TCDANet展现出比基准方法更好的效果,预测结果都正确。TCDANet在训练阶段学习更加多样化的暴力行为背景和动作表达,在测试阶段扩大视野避免遗漏关键特征,协同提升暴力行为类视频识别的效果。

Figure 4. Examples of TCDANet and benchmark method prediction results

4. TCDANet和基准方法预测结果示意图

5. 结束语

对于暴力行为视频识别任务,提出的TCDANet通过针对性的双阶段数据增强方法设计,提升暴力行为视频识别精度。训练阶段通过STRCrop在时域和空域维度裁剪包含暴力行为信息的视频帧序列,融合生成复杂多样化的暴力行为场景,提高模型的泛化能力。测试阶段通过CACrop裁剪中心及边缘区域,扩大裁剪视角,提升对暴力行为特征区域覆盖度。VSD2015数据集的实验结果表明,TCDANet仅在视觉模态下超过先进方法的结果,取得领先性能。TCDANet的协同优化策略,为提升暴力行为视频识别精度提供新的思路。未来对公共安全领域的智能视频分析也有实践价值。

基金项目

江西省自然科学基金(No. 20232BAB202017)。

参考文献

[1] Garcia-Cobo, G. and SanMiguel, J.C. (2023) Human Skeletons and Change Detection for Efficient Violence Detection in Surveillance Videos. Computer Vision and Image Understanding, 233, Article ID: 103739. [Google Scholar] [CrossRef
[2] Li, C., Yang, X. and Liang, G. (2023) Keyframe-Guided Video Swin Transformer with Multi-Path Excitation for Violence Detection. The Computer Journal, 67, 1826-1837. [Google Scholar] [CrossRef
[3] Hachiuma, R., Sato, F. and Sekii, T. (2023) Unified Keypoint-Based Action Recognition Framework via Structured Keypoint Pooling. 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Vancouver, 17-24 June 2023, 22962-22971. [Google Scholar] [CrossRef
[4] Asad, M., Yang, J., He, J., Shamsolmoali, P. and He, X. (2020) Multi-Frame Feature-Fusion-Based Model for Violence Detection. The Visual Computer, 37, 1415-1431. [Google Scholar] [CrossRef
[5] Contardo, P., Tomassini, S., Falcionelli, N., et al. (2023) Combining a Mobile Deep Neural Network and a Recurrent Layer for Violence Detection in Videos. CEUR Workshop Proceedings. CEUR-WS, Vol. 3402, 35-43.
[6] Mumtaz, N., Ejaz, N., Aladhadh, S., Habib, S. and Lee, M.Y. (2022) Deep Multi-Scale Features Fusion for Effective Violence Detection and Control Charts Visualization. Sensors, 22, Article No. 9383. [Google Scholar] [CrossRef] [PubMed]
[7] Aarthy, K. and Nithya, A.A. (2022) Crowd Violence Detection in Videos Using Deep Learning Architecture. 2022 IEEE 2nd Mysore Sub Section International Conference (MysuruCon), Mysuru, 16-17 October 2022, 1-6. [Google Scholar] [CrossRef
[8] Gupta, H. and Ali, S.T. (2022) Violence Detection Using Deep Learning Techniques. 2022 International Conference on Emerging Techniques in Computational Intelligence (ICETCI), Hyderabad, 25-27 August 2022, 121-124. [Google Scholar] [CrossRef
[9] Islam, M.S., Hasan, M.M., Abdullah, S., Akbar, J.U.M., Arafat, N.H.M. and Murad, S.A. (2021) A Deep Spatio-Temporal Network for Vision-Based Sexual Harassment Detection. 2021 Emerging Technology in Computing, Communication and Electronics (ETCCE), Dhaka, 21-23 December 2021, 1-6. [Google Scholar] [CrossRef
[10] Jahlan, H.M.B. and Elrefaei, L.A. (2021) Mobile Neural Architecture Search Network and Convolutional Long Short-Term Memory-Based Deep Features toward Detecting Violence from Video. Arabian Journal for Science and Engineering, 46, 8549-8563. [Google Scholar] [CrossRef
[11] Singh, N., Prasad, O. and Sujithra, T. (2022) Deep Learning-Based Violence Detection from Videos. In: Satapathy, S.C., et al., Eds., Intelligent Data Engineering and Analytics, Springer, 323-332. [Google Scholar] [CrossRef
[12] Srivastava, A., Badal, T., Saxena, P., Vidyarthi, A. and Singh, R. (2022) UAV Surveillance for Violence Detection and Individual Identification. Automated Software Engineering, 29, Article No. 28. [Google Scholar] [CrossRef
[13] Jeevan, R. and Avanthika, B. (2025) Intelligent Video Surveillance Systems with Violence Detection. 2025 International Conference on Data Science, Agents & Artificial Intelligence (ICDSAAI), Chennai, 28-29 March 2025, 1-6. [Google Scholar] [CrossRef
[14] Chandane, S., Nadar, A.T., Lokhande, M., Kanthakumar, D. and Shaikh, R. (2024) Violence Detection Using Deep Learning. 2024 International Conference on Innovations and Challenges in Emerging Technologies (ICICET), Nagpur, 7-8 June 2024, 1-6. [Google Scholar] [CrossRef
[15] Zoph, B., Cubuk, E.D., Ghiasi, G., Lin, T., Shlens, J. and Le, Q.V. (2020) Learning Data Augmentation Strategies for Object Detection. In: Vedaldi, A., et al., Eds., Computer VisionECCV 2020, Springer International Publishing, 566-583. [Google Scholar] [CrossRef
[16] Senadeera, D.C., Yang, X., Kollias, D. and Slabaugh, G. (2024) CUE-Net: Violence Detection Video Analytics with Spatial Cropping, Enhanced UniformerV2 and Modified Efficient Additive Attention. 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, 17-18 June 2024, 4888-4897. [Google Scholar] [CrossRef
[17] Cubuk, E.D., Zoph, B., Shlens, J. and Le, Q.V. (2020) Randaugment: Practical Automated Data Augmentation with a Reduced Search Space. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, 14-19 June 2020, 702-703. [Google Scholar] [CrossRef
[18] Wang, L., Huang, B., Zhao, Z., Tong, Z., He, Y., Wang, Y., et al. (2023) VideoMAE V2: Scaling Video Masked Autoencoders with Dual Masking. 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Vancouver, 17-24 June 2023, 14549-14560. [Google Scholar] [CrossRef
[19] Krizhevsky, A., Sutskever, I. and Hinton, G.E. (2017) Imagenet Classification with Deep Convolutional Neural Networks. Communications of the ACM, 60, 84-90. [Google Scholar] [CrossRef
[20] He, K., Zhang, X., Ren, S. and Sun, J. (2016) Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 770-778. [Google Scholar] [CrossRef
[21] Ahmed, M., Ramzan, M., Ullah Khan, H., Iqbal, S., Attique Khan, M., Choi, J., et al. (2021) Real-Time Violent Action Recognition Using Key Frames Extraction and Deep Learning. Computers, Materials & Continua, 69, 2217-2230. [Google Scholar] [CrossRef
[22] Sharma, S., Sudharsan, B., Naraharisetti, S., Trehan, V. and Jayavel, K. (2021) A Fully Integrated Violence Detection System Using CNN and LSTM. International Journal of Electrical and Computer Engineering (IJECE), 11, 3374-3380. [Google Scholar] [CrossRef
[23] de Oliveira Lima, J.P. and Figueiredo, C.M.S. (2021) Temporal Fusion Approach for Video Classification with Convolutional and LSTM Neural Networks Applied to Violence Detection. Inteligencia Artificial, 24, 40-50. [Google Scholar] [CrossRef
[24] Traoré, A. and Akhloufi, M.A. (2020) 2D Bidirectional Gated Recurrent Unit Convolutional Neural Networks for End-To-End Violence Detection in Videos. In: Campilho, A., et al., Eds., Image Analysis and Recognition, Springer International Publishing, 152-160. [Google Scholar] [CrossRef
[25] Rendón-Segador, F.J., Álvarez-García, J.A., Enríquez, F. and Deniz, O. (2021) ViolenceNet: Dense Multi-Head Self-Attention with Bidirectional Convolutional LSTM for Detecting Violence. Electronics, 10, 1601. [Google Scholar] [CrossRef
[26] Abdali, A.R. (2021) Data Efficient Video Transformer for Violence Detection. 2021 IEEE International Conference on Communication, Networks and Satellite (COMNETSAT), Purwokerto, 17-18 July 2021, 195-199. [Google Scholar] [CrossRef
[27] Dosovitskiy, A. (2020) An Image Is Worth 16 x 16 Words: Transformers for Image Recognition at Scale.
[28] Li, K., Wang, Y., Gao, P., et al. (2022) Uniformer: Unified Transformer for Efficient Spatiotemporal Representation Learning.
[29] Zumerle, F., Comanducci, L., Zanoni, M., Bernardini, A., Antonacci, F. and Sarti, A. (2023) Procedural Music Generation for Videogames Conditioned through Video Emotion Recognition. 2023 4th International Symposium on the Internet of Sounds, Pisa, 26-27 October 2023, 1-8. [Google Scholar] [CrossRef
[30] Huynh, V.T., Yang, H., Lee, G. and Kim, S. (2023) Prediction of Evoked Expression from Videos with Temporal Position Fusion. Pattern Recognition Letters, 172, 245-251. [Google Scholar] [CrossRef
[31] Duja, K.U., Khan, I.A. and Alsuhaibani, M. (2024) Video Surveillance Anomaly Detection: A Review on Deep Learning Benchmarks. IEEE Access, 12, 164811-164842. [Google Scholar] [CrossRef
[32] Sjöberg, M., Baveye, Y., Wang, H., et al. (2015) The MediaEval 2015 Affective Impact of Movies Task. MediaEval, Wurzen, 14-15 September 2015, 1436.
[33] Dai, Q., Zhao, R.W., Wu, Z., et al. (2015) Fudan-Huawei at MediaEval 2015: Detecting Violent Scenes and Affective Impact in Movies with Deep Learning. MediaEval, Wurzen, 14-15 September 2015, 1436.
[34] Trigeorgis, G., Ringeval, F., Marchi, E., et al. (2015) The ICL-TUM-PASSAU Approach for the MediaEval 2015 “Affective Impact of Movies” Task.
[35] Lam, V., Le, S.P., Le, D.D., et al. (2015) NII-UIT at MediaEval 2015 Affective Impact of Movies Task. MediaEval, Wurzen, 14-15 September 2015, 1436.
[36] Marin Vlastelica, P., Hayrapetyan, S., Tapaswi, M., et al. (2015) KIT at MediaEval 2015-Evaluating Visual Cues for Affective Impact of Movies Task. MediaEval, Wurzen, 14-15 September 2015.
[37] Li, X., Huo, Y., Jin, Q. and Xu, J. (2016) Detecting Violence in Video Using Subclasses. Proceedings of the 24th ACM International Conference on Multimedia, Amsterdam, 15-19 October 2016, 586-590. [Google Scholar] [CrossRef
[38] Peixoto, B.M., Avila, S., Dias, Z. and Rocha, A. (2018) Breaking down Violence: A Deep-Learning Strategy to Model and Classify Violence in Videos. Proceedings of the 13th International Conference on Availability, Reliability and Security, Hamburg, 27-30 August 2018, 1-7. [Google Scholar] [CrossRef
[39] Peixoto, B., Lavi, B., Pereira Martin, J.P., Avila, S., Dias, Z. and Rocha, A. (2019) Toward Subjective Violence Detection in Videos. ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Brighton, 12-17 May 2019, 8276-8280. [Google Scholar] [CrossRef
[40] Freire-Obregón, D., Barra, P., Castrillón-Santana, M. and Marsico, M.D. (2021) Inflated 3D Convnet Context Analysis for Violence Detection. Machine Vision and Applications, 33, 15. [Google Scholar] [CrossRef
[41] Zheng, Z., Zhong, W., Ye, L., Fang, L. and Zhang, Q. (2021) Violent Scene Detection of Film Videos Based on Multi-Task Learning of Temporal-Spatial Features. 2021 IEEE 4th International Conference on Multimedia Information Processing and Retrieval (MIPR), Tokyo, 8-10 September 2021, 360-365. [Google Scholar] [CrossRef
[42] Gu, C., Wu, X. and Wang, S. (2020) Violent Video Detection Based on Semantic Correspondence. IEEE Access, 8, 85958-85967. [Google Scholar] [CrossRef
[43] 吴晓雨, 蒲禹江, 王生进, 刘子豪. 基于语义嵌入学习的特类视频识别[J]. 电子学报, 2023, 51(11): 3225-3237.
[44] Pu, Y., Wu, X., Wang, S., Huang, Y., Liu, Z. and Gu, C. (2022) Semantic Multimodal Violence Detection Based on Local-to-Global Embedding. Neurocomputing, 514, 148-161. [Google Scholar] [CrossRef
[45] Wang, Q., Xiang, X., Zhao, J. and Deng, X. (2022) P2SL: Private-Shared Subspaces Learning for Affective Video Content Analysis. 2022 IEEE International Conference on Multimedia and Expo (ICME), 18-22 July 2022, 1-6. [Google Scholar] [CrossRef
[46] Savadogo, W.A.R., Lin, C., Hung, C., Chen, C., Liu, Z. and Liu, T. (2023) A Study on Constructing an Elderly Abuse Detection System by Convolutional Neural Networks. Journal of the Chinese Institute of Engineers, 46, 118-127. [Google Scholar] [CrossRef
[47] Negre, P., Alonso, R.S., González-Briones, A., Prieto, J. and Rodríguez-González, S. (2024) Literature Review of Deep-Learning-Based Detection of Violence in Video. Sensors, 24, Article No. 4016. [Google Scholar] [CrossRef] [PubMed]
[48] Vaishy, A., Basak, S. and Gautam, A. (2025) Early Violence Recognition Using Knowledge Distillation. In: Kakarla, J., et al., Eds., Computer Vision and Image Processing, Springer, 57-70. [Google Scholar] [CrossRef
[49] Hanief Wani, M. and Faridi, A.R. (2024) Deep Learning-Based Video Surveillance System for Suspicious Activity Detection. Journal of Intelligent & Fuzzy Systems, 47, 71-82. [Google Scholar] [CrossRef
[50] Li, K., Wang, Y., He, Y., Li, Y., Wang, Y., Wang, L., et al. (2023) UniFormerV2: Unlocking the Potential of Image Vits for Video Understanding. 2023 IEEE/CVF International Conference on Computer Vision (ICCV), Paris, 1-6 October 2023, 1632-1643. [Google Scholar] [CrossRef
[51] Padilla, R., Netto, S.L. and da Silva, E.A.B. (2020) A Survey on Performance Metrics for Object-Detection Algorithms. 2020 International Conference on Systems, Signals and Image Processing (IWSSIP), Niteroi, 1-3 July 2020, 237-242. [Google Scholar] [CrossRef
[52] Loshchilov, I. and Hutter, F. (2017) Fixing Weight Decay Regularization in Adam.