计算机科学与应用  >> Vol. 11 No. 2 (February 2021)

融合多模态特征的多流行为识别网络
Multi-Stream Action Recognition Network Fusing Multi-Modal Features

DOI: 10.12677/CSA.2021.112045, PDF, HTML, XML, 下载: 47  浏览: 1,159 

作者: 张彬彬, 江朝晖, 李君君:合肥工业大学计算机与信息学院,安徽 合肥

关键词: 行为识别注意力机制姿态序列3D卷积姿态网络Action Recognition Attention Posture Sequence 3D Convolution Pose Network

摘要: 针对当前行为识别网络抗干扰能力不足和单一特征难以鲁棒性的表达行为的问题,本文提出了一种融合多模态特征的多流行为识别网络模型。首先,利用三维神经网络来提取RGB视频帧的表观特征和光流帧的运动特征,并利用注意力机制学习重要信息的权重。同时,本文引入了一个姿态网络来建模人体姿态序列的时空特征,弥补表观特征和运动特征对行为表达能力的不足。最后通过对三种特征的学习来实现行为识别。本文在JHMDB数据集上进行实验验证,结果表明我们的方法优于当前大多数先进的方法。
Abstract: Aiming at the problems of insufficient anti-interference ability of current action recognition net-works and the difficulty of expressing action robustly with a single feature, this paper proposes a multi-modality feature fusion multi-behavior recognition network model. First, use a three-dimensional neural network to extract the apparent features of RGB video frames and the motion features of optical flow frames, and the attention mechanism is used to learn the weight of important information. At the same time, a pose network is introduced to model the spatial and temporal features of human posture sequence, which makes up for the deficiency of apparent features and motion features in the expression ability of action. Finally, action recognition is realized by learning the three features. Experimental verification on JHMDB dataset shows that our method is superior to most of the current advanced methods.

文章引用: 张彬彬, 江朝晖, 李君君. 融合多模态特征的多流行为识别网络[J]. 计算机科学与应用, 2021, 11(2): 451-460. https://doi.org/10.12677/CSA.2021.112045

1. 引言

近些年,随着深度学习理论的发展和完善,基于视频的人体行为识别因具有很大挑战性,吸引了越来越多的研究者专注于该领域。行为识别的目的是对一段视频或者图片序列进行分析,提取时空维度的特征,分析行为模式,识别出人在其中执行的动作。相关技术在生活的各个领域得到了广泛应用。但现有的行为识别系统仍有很大的局限性且网络容易过拟合。在真实视频场景中,背景和光照变化会造成冗余干扰,动作本身复杂多变且肢体相互遮挡,这些都使得如何鲁棒性的表达行为特征成为了一个值得深究的问题。因此,本文的研究目标是设计强泛化能力的行为识别网络,识别行为。

早期的研究主要是用卷积神经网络学习多帧RGB图片的表观特征来建模视频行为 [1]。Karen等人 [2] 开创性的提出双流网络,利用两个2D ConvNets分别处理单帧RGB图片和堆叠的密集光流帧,这种结合表观特征和运动特征的方法取得了不错的效果。但是双流2D ConvNets能学习到的空间信息和时间尺度的信息非常有限 [3]。Tran D等人 [4] 在上述工作的基础上提出了3D ConvNets来处理视频,用时序维度卷积核来提取视频的时序特征,性能得到很大提高。J Carreira等人 [5] 结合以上各个模型的优点,提出了双流3D ConvNets模型,同时提取连续视频帧的表观特征和连续光流帧的运动特征并取得了不小的进步。以上这些这些方法对如何有效利用表观特征和运动特征的探索,证明了融合多模态特征是可行的且是有益的,但局限性也很明显。当视频中存在强光和大的场景变化,外观特征包含的语义信息将减少,光流对动态信息的表达也将不足。由于开源算法 [6] 的成熟,提取视频中人体的动态姿态序列变的可行,与外观和光流相比,人体姿态序列的轨迹对光照和场景变化具有很强的鲁棒性,其跨时序的动态变化为动作识别提供了重要的信息。因此,我们考虑在多模态信息的融合学习上加入人体姿态信息并对其跨时空维度建模来解决当前动作识别系统存在的抗干扰能力差的问题。

此外,考虑到在建模整个连续帧的表观特征和运动特征的时候,冗余信息的干扰对动作识别性能的影响会累积放大,我们引入空间注意力机制来抑制无关信息,通过学习帧级关键信息的权重来关注动作发生的区域。

与现有动作识别方法相比,本文有以下几点贡献:

1) 本文提出了一个多流网络架构,同时计算和整合三种不同模态的信息:RGB、光流、姿态序列。充分利用了不同特征之间的互补性和差异性。

2) 本文引入空间注意力机制,对动作的发生区域计算注意力得分,产生该区域增强的权重,以此来增强该区域特征的显著性,抑制杂乱的无关冗余信息,从而提高行为识别的效率和精度。

3) 为了捕捉姿态序列的空间结构特征和时序动态特征,我们用一个姿态网络对其进行跨时空建模,显著提高了视频行为识别对噪声干扰的鲁棒性。

4) 我们的方法在JHMDB数据集上进行试验验证,取得了很好的效果,识别精度优于当前大多数先进的方法。

2. 相关工作

行为识别的目的是利用算法对一段视频或者图像序列进行分析,识别出人在其中执行的动作,并给出分类分数。行为通常是空间上相似时序上变化连续的一系列图片帧的连接,其特有的时空信息,对行为模式的分析至关重要。如何利用好时空维度特征,是行为识别领域的重要研究课题,同时为行为识别指明了方向。

早期的行为识别主要依赖于一些传统的特征提取算法。通过提取视频帧的局部关键点的特征来描述行为。I. Laptev等人 [7] 将空间和时间维度上发生明显变化的位置选作视频帧中的关键兴趣点,他们认为越是发生变化的数据越是包含行为的显著特征。这种方法是对空间关键点方法的延伸,本质上是将二维Harris角点检测延伸到三维。Scovanner等人 [8] 利用相同的思路将二维空间描述子SIFT扩展到三维,通过统计时空关键点周围的HOG来描述特征。时空关键点的特征是对局部位置信息的描述,但是这种方法存在检测到的关键点过于稀疏的问题。于是,有些学者提出通过追踪视频帧沿时间轴的变化来描述行为特征,这也是轨迹法的核心思想。H. Wang等人 [9] 通过对多尺度下的视频帧进行密集采样,然后利用光流场对采样点的运动轨迹进行追踪。除此之外,H. Wang等人 [10] 进一步对视频帧沿轨迹的方向在特征点周围提取HOG、HOF、MBH、trajectory四种特征,并利用费希尔向量编码特征,然后利用编码后的高阶特征对SVM分类器进行训练。然而,这些利用浅层描述符来表征视频的方法都受限于局部特征,对复杂动作的泛化表征能力很差 [11]。

随着深度学习理论的发展,基于卷积神经网络的方法不再依赖手工特征,并在行为特征表征上远胜于传统方法。相比于图片,视频多出了时序维度,Karen等人 [2] 提出双流模型,在空间上学习单帧RGB特征,在时间上提取堆叠的光流帧的特征,使得行为识别的精度得到了明显提高。Donahue J等人 [12] 提出LSTM和CNN结合进行行为识别的方法。具体而言,就是利用预训练的CNN网络提取RGB帧的表观特征,然后用LSTM对长序列特征的学习能力表达时间维度特征。Tran D等人 [4] 通过给二维卷积增加一个时序卷积核来提取视频的时序信息,兼具了性能和训练速度的优势。Quo Vadis等人 [5] 提出了双流3D ConvNets模型,分别提取视频帧的表观特征和光流帧的运动特征并融合,取得了优于前人的成果。

基于图的模型因其对图结构化的数据的高效表达引起了广泛的关注 [13]。S. Qi等人 [14] 将图模型用于解决图片和视频中检测和识别人物交互的任务。Simonovsky等人 [15] 首次将图卷积用于点云分类任务。Y. Seo [16] 等人将图卷积和LSTM相结合,同时利用了两者的优势,实现了对图结构序列时空特征的学习。S. Yan [17] 等人提出了一种时空图卷积模型用于行为识别,利用图卷积运算学习空间结构特征,用时序卷积学习时序特征。注意力机制最早是为解决NLP任务提出的。Zhenyang Li等人 [18] 和Shikhar 等人 [19] 的工作研究了通过LSTM模型整合注意力机制的方法用于行为识别。受以上这些工作的启发,本文用一个多流网络模型来融合多模态特征并利用注意力机制来去除冗余信息,实验结果验证了本文方法的有效性。

3. 模型框架

本文的行为识别网络架构如图1所示,接下来我们将对模型框架作详细的介绍。本文首先利用光流算法 [28] 计算得到原始视频帧的光流图,以此来描述视频的动态变化。利用开源视频姿态关键点检测算法 [6] 检测每个视频帧的人体关节点的二维坐标位置,跨时间序列的人体关节点的二维坐标自然的表示了动态骨架的形态,然后通过分析其运动模式来识别视频中的人体行为所属的类别。为此,本文设计了一个三流网络来学习和整合多模态特征。首先,我们将原始视频帧和提取的光流图送入I3D卷积网络中,提取表观特征和运动特征。为了抑制不必要的冗余信息,本文在I3D网络中引入了空间注意力机制,提取自I3D网络的特征在经过注意力机制学习后得到权重增强的新特征,并将其送入全连接层学习更高语义特征。然后,对于提取的姿态序列,本文用姿态网络建模其空间结构特征和长时序依赖。最后通过对多模态特征的学习,进而实现视频的动作识别。

Figure 1. Overall framework of action recognition network

图1. 行为识别网络整体架构图

3.1. 基于姿态序列的姿态图构建

人体姿态序列和关节的轨迹对场景和光照变化有很强的鲁棒性,其空间结构和时序动态变化为行为识别提供了强有力的辨别特征,在很大程度上弥补了RGB和光流特征的不足。通常视频由一系列的帧组成,每一帧的姿态序列是一组关节点坐标的集合,本文用姿态检测算法 [6] 检测视频中每一帧的人体关节的坐标位置。给定以2D坐标形式表示的人体关节序列,我们可以构建人体的姿态模式图。其中,以人体关节点作为图的顶点,以关节点间的生物学自然连接性作为图的边。以单帧为例,我们用 G t ( V t , E t ) 表示第t帧的姿态图,其中, V t 表示人体的N个关节点的集合, E t 表示生物学上关节点间自然连接的边。图2展示了提取的单帧姿态序列(a)和构建的以二维坐标表示的姿态模式图(b)。

(a) (b)

Figure 2. (a) Single frame pose diagram and (b) Skeleton pattern diagram

图2. (a)单帧姿态图和(b)姿态模式图

3.2. GCN-LSTM层

得益于强大的长时序建模能力,LSTM [27] 及其变种在学习姿态序列的动态变化特征上取得了不错的效果,但是其内部的全连接特性限制了LSTM对姿态序列空间结构信息的表达,而这恰好是图卷积网络的优势。因此本文通过在LSTM中引入图卷积计算,以期实现对姿态序列的时空模式信息的学习。本文的GCN-LSTM单元如图3所示:

Figure 3. GCN-LSTM unit

图3. GCN-LSTM单元

本文用 W x g X 表示图卷积计算。给定第t帧姿态图 G t ( V t , E t ) ,图卷积计算公式如下:

Y t = D 1 2 A D 1 2 X t W (1)

其中, X t 表示图节点的特征,大小为 N × M ,N表示图节点的数量,M表示每个图节点的特征。A表示整个图的空间结构的邻接矩阵,D是对邻接矩阵进行归一化的度矩阵,W是卷积计算的权重, Y t 表示输入特征 X t 在经过图卷积推理后的输出特征。

同LSTM,我们的GCN-LSTM模型也有三个核心部件,分别是:输入门 i t ,输出门 o t 和忘记门 f t 。其计算公式表示如下:

i t = σ ( W x i g X t + W h i g H t 1 + b i ) (2)

f t = σ ( W x f g X t + W h f g H t 1 + b f ) (3)

o t = σ ( W x o g X t + W h o g H t 1 + b o ) (4)

g t = tanh ( W x c g X t + W h c g H t 1 + b c ) (5)

C t = f t C t 1 + i t g t (6)

H t = O t tanh ( C t ) (7)

其中, σ ( ) tanh ( ) 分别表示sigmoid激活函数和tanh激活函数, 表示两矩阵的哈达玛积。 g t 表示在t时刻候选的记忆状态。输入 X t 是图结构的数据,受门控机制的影响,中间隐状态 H t 和记忆细胞 C t 也都是图结构的数据。

综上所述,中间隐状态 H t 包含了丰富的结构信息和时序特征。在最后一个GCN-LSTM层,我们把每个图节点的特征聚合,计算如下:

A J t = i = 1 N H t i (8)

用最终的聚合特征 A J t 预测动作类别分数。

3.3. 姿态网络

对于姿态序列,本文使用全连接层和LSTM层将每个关节的二维坐标映射到高维特征空间进行特征增强。首先全连接层将关节的坐标映射为256维的向量,用 J t R N × 256 表示, J t i R 1 × 256 表示每个关节点的特征,其只包含位置信息。在图模型中, J t i 位置特性是有益的学习空间结构的特征。连续两帧之间的帧差特征 F t i 便于GCN-LSTM获取姿态序列沿时间维度的长时序依赖关系。本文将这两种特征进行串联作为增强特征来丰富节点的特征信息,以兼顾各自的优势。然而,位置特征 J t i 和帧差特征 F t i 的拼接存在特征向量的尺度差。因此,本文采用LSTM层来消除这两个特征之间的尺度差:

F A t i = L S T M ( c o n c a t ( J t i , ( J t i J ( t 1 ) i ) ) ) (9)

其中 F A t i 是关节i在t时刻的增强特征。不同关节之间共享线性层和LSTM。经过LSTM层之后,将特征增强的序列 { F A 1 , F A 2 , F A 3 , , F A T } 作为节点特征送入后面的GCN-LSTM层。本文堆叠了三个GCN-LSTM层来学习姿态序列的时空模式信息。

3.4. 注意力机制学习

受到注意力机制在NLP中成功应用的启发,我们在网络中引用了空间注意力机制,对I3D网络提取的特征根据关注区域的重要程度重新分配权重。视频中动作发生区域的特征的重要程度明显高于视频场景中其他部分特征的重要程度,利用空间注意力机制对重要区域的特征分配更高的注意力得分,提高该区域的特征显著性,以此达到抑制无关冗余信息的目的,提高网络的效率和性能。本文的注意力模型如下图4所示,主要部分是由8个卷积层构成的编码器,它能够对输入特征重新分配权重,其中基础卷积网络我们选择FCN32s。编码器的输入特征是I3D网络提取的特征 F j = { F i j } i = 1 N 。其中 F i j 表示第i帧的特征,输入的帧数为N。我们用 j = O j = RGB 来分别表示光流特征和RGB特征。

解码器的作用是给出重新分配权重的特征的最终得分。其计算公式如下:

β 1 j , β 2 j , β 3 j , , β N j = F C ( F 1 j , F 2 j , F 3 j , , F N j ) (10)

W i j = 1 / [ 1 + e β i j ] , i = 1 , 2 , 3 , , N (11)

其中 F C ( ) 是基础卷积网络, [ β 1 j , β 2 j , β 3 j , , β N j ] 是由卷积网络计算得到的权重向量。 W i j 是激活函数对卷积网络计算得到的权重向量进行归一化后得到的注意力权重系数。最后将 W i j 分别与对应的原始输入特征相乘,得到重新分配注意力权重的特征。用公式表达如下:

F * = i N W i j β i j (12)

F * 即为重新分配注意力权重的特征。

Figure 4. Attention model

图4. 注意力模型

3.5. 损失函数

本文采用标准的交叉熵损失函数。由于模型有三个网络分支分别学习不同模态的信息,我们给每一个网络分支定义一个损失函数,以此来实现对各个分支网络的训练,经多轮训练不断迭代的产生动作分类的分类分数。对于每个网络分支,I3D网络损失函数如下:

L j = n = 1 c ( y n log y j ) (13)

其中, y n 是动作所属类的真实标签, y j 是网络预测的类别分数,C表示类别数。当 j = R 时表示RGB分支的损失函数, j = O 时表示光流分支的损失函数, j = P 时表示姿态分支的损失函数。

综上所述,本文模型的损失函数表示如下:

Total Loss = L O + L R + L P (14)

4. 实验

在本节内容中,首先介绍实验所采用的的数据集,然后说明本文的实验设置和采用的评价标准并分析论述实验结果,以验证本文方法的有效性。

4.1. 数据集

JHMDB数据库 [25] 包括21个人类动作,收集自电影和youtube,涉及到日常活动。完整的数据集有928个clips和31,838帧。数据集的训练和测试文件有3个,我们用训练集进行训练,测试集进行测试。数据集完整的注释了行为和姿态。包括每帧的关节位置,每个clip的动作标签。数据集注释丰富且轻量化,特别适合用于行为识别研究,以评估模型的性能。

4.2. 实验细节和评价标准

首先,将图片帧的分辨率调整为112 × 112,并取连续16帧输入I3D网络提取特征,然后用注意力模块对特征进行增强,最后用三层全连接神经网络提取更高维度特征用于分类,其中前两个全连接层分别有4096个单元,最后一层全连接层有2个单元。对于姿态网络,我们采样固定长度的T帧姿态序列作为输入,本实验中T = 30。在本文的GCN-LSTM中,每个节点的邻居集只包含与自身直接相连的节点。GCN-LSTM层的通道设置为512。在训练过程中,本文使用Adam优化器 [26] 对网络进行优化。初始学习率设置为0.001,学习率的衰减率为0.1。本文模型基于深度学习框架Pytorch实现。

本文采用ACC (准确率)作为评价标准,以正确分类的个数占全部分类数的百分比来衡量模型的性能。

4.3. 实验结果及分析

本文首先消融研究在引入姿态信息后对行为识别精度的影响,如表1所示。接着验证注意力机制对实验结果的影响,如表2所示。然后将本文的模型与当前比较先进的方法作比较,如表3所示。

Table 1. The influence of combination of different modal information on accuracy of action recognition

表1. 不同模态信息的组合对行为识别精度的影响

Table 2. The influence of spatial attention mechanism on the recognition accuracy

表2. 空间注意力对识别精度的影响

Table 3. Comparison with advanced methods

表3. 与先进方法的比较

表1的结果可以看出:多模态信息的融合能够显著提高网络的识别能力。通常不同模态的特征包含不同行为模式的信息,但仅仅通过表观特征和运动特征去表达行为是不足的且抗干扰的能力有限。本文通过引入帧级姿态信息,并利用GCN-LSTM网络学习其空间结构信息和长时序依赖关系,有效的提高了识别性能。充分说明本文方法的有效性。

表2可以看出,空间注意力的加入明显提高了模型的识别准确度。显而易见,本文的空间注意力机制有效的抑制了杂论的信息,增强了模型对重要区域特征的关注度,有利于对行为模式的学习。为了展示关注度的效果,本文以动作类“Kickball”和“Throw”为例,对关键帧的关注度效果进行可视化。如图5所示,很明显,本文的方法始终能关注动作发生的显著性区域。

(a)(b)

Figure 5. Action “Kickball” (a) and “Throw” (b) and the attention visualization results of key frames

图5. 动作类“Kickball”(a)和“Throw”(b)及关键帧的注意力可视化结果

表3的比较结果表明,相较于当前先进的方法,本文的方法有更好的表现。首先,我们的ACC值达到了83.3%,明显高于其他方法。其次,相较于没有利用注意力机制的方法,本文利用空间注意力增强了模型对动作发生区域的关注度,有效的抑制了干扰。最后,本文引入姿态信息来学习行为模式,弥补了表观特征和运动特征对行为表达能力的不足,提高了网络的鲁棒性,显著提升了行为识别的性能。

5. 结束语

本文提出了一种新颖的多流网络架构来整合多种模态的特征,用于视频行为识别。首先利用I3D网络来学习RGB视频帧的表观特征和光流帧的运动特征,提取空间和时间维度的深层语义信息,并利用注意力机制对动作的发生区域重新分配权重,以此来抑制杂乱的信息,捕捉更有用的信息。在此基础上,本文引入了一个姿态网络来对人体姿态序列跨时空建模来提高网络对光照和场景变化等冗余干扰的鲁棒性,弥补表观特征和运动特征对行为表达能力的不足,提高了行为识别的准确度。在JHMDB数据集上的实验结果表明,本文提出的方法在识别精度上胜过当前大多数先进的方法。

参考文献

[1] Karpathy, A., Toderici, G., Shetty, S., et al. (2014) Large-Scale Video Classification with Convolutional Neural Net-works. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, 23-28 June 2014, 1725-1732.
https://doi.org/10.1109/CVPR.2014.223
[2] Simonyan, K. and Zisserman, A. (2014) Two-Stream Convolutional Networks for Action Recognition in Videos. IEEE Conference on Computer Vision and Pattern Recogni-tion (CVPR), Columbus, 23-28 June 2014, 2-3.
[3] Feichtenhofer, C., Pinz, A. and Zisserman, A. (2016) Convolution-al Two-Stream Network Fusion for Video Action Recognition. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 2.
https://doi.org/10.1109/CVPR.2016.213
[4] Tran, D., Bourdev, L., Fergus, R., et al. (2015) Learning Spatiotem-poral Features with 3D Convolutional Networks. IEEE International Conference on Computer Vision (ICCV), Santiago, 7-13 December 2015, 4489-4497.
https://doi.org/10.1109/ICCV.2015.510
[5] Carreira, J. and Zisserman, A. (2017) Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Hono-lulu, 21-26 July 2017, 2-3.
https://doi.org/10.1109/CVPR.2017.502
[6] Cao, Z., Hidalgo, G., Simon, T., et al. (2018) OpenPose: Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields. IEEE Transactions on Pattern Analysis and Machine Intel-ligence, 43, 172-186.
[7] Laptev, I. (2005) On Space-Time Interest Points. International Journal of Computer Vision, 64, 107-123.
https://doi.org/10.1007/s11263-005-1838-7
[8] Scovanner, P., Ali, S. and Shah, M. (2007) A 3-Dimensional Sift Descriptor and Its Application to Action Recognition. Proceedings of the 15th ACM International Conference on Multi-media, Augsburg, 24-29 September 2007, 357-360.
https://doi.org/10.1145/1291233.1291311
[9] Wang, H., Klaser, A., Schmid, C. and Liu, C. (2011) Action Recognition by Dense Trajectories. CVPR 2011, Colorado Springs, 20-25 June 2011, 3.
https://doi.org/10.1109/CVPR.2011.5995407
[10] Wang, H. and Schmid, C. (2013) Action Recognition with Im-proved Trajectories. IEEE International Conference on Computer Vision, Sydney, 1-8 December 2013, 3551-3558.
https://doi.org/10.1109/ICCV.2013.441
[11] Wang, L., Qiao, Y. and Tang, X. (2015) Action Recognition with Trajectory-Pooled Deep-Convolutional Descriptors. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, 7-12 June 2015, 4305-4314.
https://doi.org/10.1109/CVPR.2015.7299059
[12] Donahue, J., Anne, H.L., Guadarrama, S., et al. (2015) Long-Term Recurrent Convolutional Networks for Visual Recognition and Description. Proceedings of the IEEE Con-ference on Computer Vision and Pattern Recognition, Boston, 7-12 June 2015, 2625-2634.
https://doi.org/10.1109/CVPR.2015.7298878
[13] Xu, K., Hu, W., Leskovec, J. and Jegelka, S. (2018) How Pow-erful Are Graph Neural Networks?
[14] Qi, S., Wang, W., Jia, B., Shen, J. and Zhu, S.-C. (2018) Learning Hu-man-Object Interactions by Graph Parsing Neural Networks. European Conference on Computer Vision, Munich, 8-14 September 2018, 407-423.
https://doi.org/10.1007/978-3-030-01240-3_25
[15] Simonovsky, M. and Komodakis, N. (2017) Dynamic Edge Conditioned Filters in Convolutional Neural Networks on Graphs. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, 21-26 July 2017, 3.
https://doi.org/10.1109/CVPR.2017.11
[16] Seo, Y., Defferrard, M., Vandergheynst, P. and Bresson, X. (2016) Structured Sequence Modeling with Graph Convolutional Recurrent Networks.
[17] Yan, S., Xiong, Y., Lin, D. and Tang, X.O. (2018) Spatial Temporal Graph Convolutional Networks for Skeleton- Based Action Recognition. 8th AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI-18), New Orleans, 2-7 February 2018, 3.
[18] Li, Z.Y., Gavrilyuk, K., Gavves, E., Jain, M. and Snoek, C.G.M. (2018) VideoLSTM Convolves, Attends and Flows for Action Recognition. Computer Vision and Image Understanding, 166, 41-50.
https://doi.org/10.1016/j.cviu.2017.10.011
[19] Sharma, S., Kiros, R. and Salakhutdinov, R. (2016) Action Recog-nition Using Visual Attention. International Conference on Learning Representations, San Juan, 2-4 May 2016, 3.
[20] Cheron, G., Laptev, I. and Schmid, C. (2015) P-CNN: Pose-Based CNN Features for Action Recognition. IEEE International Conference on Computer Vision (ICCV), Santiago, 7-13 December 2015, 8.
https://doi.org/10.1109/ICCV.2015.368
[21] Peng, X.J. and Schmid, C. (2016) Multi-Region TwoStream R-CNN for Action Detection. ECCV 2016 14th European Conference, Amsterdam, 11-14 October 2016, 8.
[22] Yan, A., Wang, Y., Li, Z., et al. (2020) PA3D: Pose-Action 3D Machine for Video Recognition. 2019 IEEE/CVF Conference on Com-puter Vision and Pattern Recognition (CVPR), Long Beach, 15-20 June 2019, 8.
https://doi.org/10.1109/CVPR.2019.00811
[23] Zolfaghari, M., Oliveira, G.L., Sedaghat, N. and Brox, T. (2017) Chained Multi-Stream Networks Exploiting Pose, Motion, and Appearance for Action Classification and Detection. IEEE International Conference on Computer Vision (ICCV), Venice, 22-29 October 2017, 8.
https://doi.org/10.1109/ICCV.2017.316
[24] Choutas, V., Weinzaepfel, P., Revaud, J. and Schmid, C. (2018) Po-tion: Pose Motion Representation for Action Recognition. IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018, 8.
https://doi.org/10.1109/CVPR.2018.00734
[25] Jhuang, H., Gall, J., Zuffi, S., Schmid, C. and Black, M.J. (2013) Towards Understanding Action Recognition. IEEE International Conference on Computer Vision, Sydney, 1-8 Decem-ber 2013, 7.
https://doi.org/10.1109/ICCV.2013.396
[26] Kingma, D.P. and Adam, J.B. (2015) A Method for Stochastic Opti-mization. 3rd International Conference on Learning Representations, ICLR 2015, San Diego, 7-9 May 2015, 7.
[27] Shi, X.J., et al. (2015) Convolutional LSTM Network: A Machine Learning Approach for Precipitation Now-casting.
[28] Zach, C., Pock, T. and Bischof, H. (2007) A Duality Based Approach for Realtime TV-L1 Optical Flow. Joint Pattern Recognition Symposium, Heidelberg, 12-14 September 2007, 214-223.
https://doi.org/10.1007/978-3-540-74936-3_22