1. 引言
渐冻症(肌萎缩侧索硬化症,ALS)是一种严重的神经退行性疾病,导致运动神经元逐渐退化,从而影响患者的运动能力和表情控制。早期症状包括微小的面部表情变化、肌肉抽搐或细微的肢体动作异常。患者的身体逐渐像被冰冻一般,逐步丧失语言表达和行动能力。对于重症渐冻症患者来说,即便是维持正常的呼吸、吞咽以及咳痰功能,也变得异常困难。在无人看护的情况下,患者可能因无法及时咳痰或呼救而面临生命危险。因此,持续的细致看护和对患者需求的迅速响应,成为渐冻症护理工作中的关键环节。本文通过计算机视觉技术,捕捉到被看护人的痛苦微表情和微动作来判定是否危险来报警,及时通知陪护人员处理紧急情况,避免被看护人发生生命危险。然而,这些细微变化通常难以通过传统的临床观察及时检测。因此,如何准确捕捉患者的微表情和微动作变化,成为实现早期监测和病情动态评估的重要挑战。
计算机视觉技术近年来取得了显著进展,尤其是在面部表情识别与动作捕捉领域,基于深度学习的视觉分析算法能够有效提取和识别微小的面部肌肉变化与肢体动作。近几年,卷积神经网络为代表的深度学习模型被广泛用于图像数据的识别分类任务,在人脸痛苦表情分类的领域更是逐渐取得有效成果。Egede等[1]通过痛苦表情数据集训练了卷积神经网络,利用迁移学习的方法进行表情特征提取、痛苦识别。刘芳等[2]使用改进的VGG-16网络提取微表情特征。Zhou等[3]训练了循环卷积神经网络识别痛苦表情,循环卷积神经网络的优势是能对视频序列进行识别。郝强[4]将VGG-16网络模型迁移至老人面部痛苦表情识别中,对老人这一特定人群更具有针对性,周婕等[5]提出一种改进ResNet网络进行表情识别的方法,罗明刚[6]等使用Adaboost算法进行了人脸检测研究,取得较佳的成果相比传统的监测方法,使用计算机视觉技术来进行检测,具有不用接触身体、成本低、实时性强的优势,特别适用于渐冻症患者的持续监测。通过高精度摄像头和深度学习模型,系统能够自动识别面部微表情(如皱眉、眼睑微颤)和肢体微动作的细微变化,为渐冻症患者提供连续、客观的病情监测支持。
本文为增强系统的检测准确性和鲁棒性,结合了基于时间序列的深度学习模型3D ResNet。通过对缓冲区内的16帧面部图像进行建模,3D ResNet能够捕捉表情的动态变化并输出痛苦表情的预测结果。最终,系统综合AU分析与3D ResNet输出,通过融合多维信息提高痛苦表情的判定精度。当检测到痛苦表情时,系统会触发报警机制,在界面上提示紧急情况,并通过语音合成播放相应的报警信息,提示相关床号已出现异常情况。这种基于动作单元和深度学习的双重方法,有效提升了痛苦检测的灵敏度和可靠性。
2. 方法
由于微表情是一种自发、无意识的面部表情,通常其持续时间短,动作幅度小,视频片段的相邻帧之间反映出的光流运动特征并不明显。本文采用预训练的ResNet网络来捕捉表情的动态变化进行检测,利用知识蒸馏技术,将一个较大、性能较好的3D ResNet模型作为教师网络,训练一个轻量化的学生网络,使其在参数更少的情况下尽量保留教师网络的性能。这样不仅可以降低模型复杂度,还能在推理时获得更快速度。选取脸部的关键动作单元,这些动作单元通过计算面部特征点之间的几何距离进行量化,进而生成对应的AU分数。随后,根据每个动作单元的重要性,使用加权公式计算综合痛苦分数。当该分数超过预设阈值时,系统判定为痛苦表情。
2.1. SA-ResNet
ResNet是一种深度残差网络,解决了深度神经网络在加深时容易出现的梯度消失和梯度爆炸问题,使得网络可以在不丢失梯度信息的情况下加深,从而大幅提升网络性能。
ResNet50的网络结构由50层深度组成,包括一个初始的卷积层、多个残差模块、全局平均池化层以及全连接层。初始卷积层采用了7 × 7的卷积核,步长为2,接下来是一个3 × 3的最大池化层,用于缩小特征图的尺寸。网络的核心在于残差模块,每个模块都包含多个卷积层,并通过跳跃连接(Skip Connection)将输入加到输出上,这样的结构使得梯度能够更稳定地传播,避免了深层网络中常见的梯度消失问题。
本文所使用的SA-RestNet网络模型如图1所示,以RestNet50网络作为主体结构,构建3D残差块,将原先的2D残差块替换为3D残差块,在3D残差块中,除了卷积层外,还需要对输入数据进行时间维度的下采样,在网络的主干网络模块中使用SimAm轻量级注意力机制,可以提高网络学习面部特征的能力。
Figure 1. The SA-RestNet network architecture diagram
图1. SA-ResNet网络结构图
2.1.1. 3D残差快
2D卷积操作通常针对单一图像进行,能够有效地提取图像的细节特征,但它无法捕捉到图像在时间维度上的连续性特征,忽略了图像序列中的时序信息。微表情视频是由一系列相互依存的帧组成的,这些帧在时间轴上具有紧密的特征联系。因此,运用3D卷积能够更好地提取微表情视频中的时空特征,从而更全面地理解微表情的动态变化。3D卷积通过将多个连续帧堆叠成一个立方体,并在立方体内应用3D卷积核来实现。在这种结构中,卷积层的每个特征图都会与上一层的多个相邻连续帧相连接,从而有效提取运动信息。
在3D卷积层中,每个特征图都与前一层的几个连续帧相连,从而能够捕获图像在时间维度上的信息。微表情片段作为一个包含多帧图像的序列,其时间和空间特征紧密相关。本研究模型使用了3D卷积技术,以便更有效地提取关键帧序列中的时序信息,进而提升识别的精确度。首先需要定义3D卷积层卷积核为(3 × 3 × 3),RestNet中的2D卷积核替换为3D卷积核。
网络中的Bottleneck模块如图2所示所示。
Figure 2. The diagram of the Bottleneck module
图2. Bottleneck模块结构图
2.1.2. 注意力机制
为使网络更好地聚焦于面部关键区域,提高检测精度,同时不使模型更加复杂,本文使用轻量级注意力机制SimAM,SimAM是一种轻量级、无参数的卷积神经网络注意力机制,它通过计算特征图的局部自相似性来生成注意力权重。SimAM不需要引入任何额外参数,通过引导模型关注图像中的关键区域,显著提升了模型处理和理解图像的能力。
SimAm注意力机制的工作原理可以分为以下几个步骤:
1) 特征图提取:通过卷积神经网络提取输入图像的特征图
,其中B是批次大小,C是通道数,H和W分别是特征图的高度和宽度。
2) 计算局部自相似性:SimAM针对特征图中的每个像素点Xi,j (其中i, j分别表示像素在图中的位置索引),评估其与邻近像素点的相似程度。这种评估是通过比较像素间特征向量的差异来进行的,通常采用的是负的欧几里得距离平方。然而,SimAM实际上是通过计算像素与其邻近区域像素之间差异平方的平均值(经过标准化处理)来间接测量这种相似性。具体操作为,对每个像素点,先计算其与周围像素点差异的平方,接着对这些平方值进行求和并实施标准化处理。
(1)
其中
表示像素
的邻域(不包括
本身,N是邻域内像素的数量),在SimAM的实现过程中,通
常采用特征图的整体均值进行中心化处理,然后从每个像素值中减去这个中心化后的均值,以此来计算差异的平方,这样做是为了简化计算过程。
3) 生成注意力权重:基于上面计算得到的
,SimAM通过以下公式生成注意力权重
:
(2)
其中,
是
的某种形式的归一化(在SimAM的实现中,通常是通过整个特征图或局部区域的
的平均值和标准差来近似),ϵ是一个很小的常数。
4) 注意力图与特征图相乘:将生成的注意力权重
与原始特征图X相乘,得到加权的特征图
。
2.1.3. 多尺度融合
在网络架构中增加多尺度特征提取模块,将低层细节信息与高层语义信息进行融合,确保系统对微小变化(例如局部肌肉运动)的捕捉更为敏感,提高痛苦表情识别的准确性和鲁棒性。
2.2. 微表情的综合评估
动作单元是描述面部肌肉活动的标准化方法,用于表征不同表情特征。选取的关键动作单元包括眼眶收紧(AU6)、上唇抬高(AU10)、嘴角上拉(AU12)、皱鼻子(AU4)、嘴角下拉(AU15)、下巴撇(AU17)、嘴巴闭合(AU23)、上眉毛上升(AU1 + AU2)以及嘴巴打开(AU27)。这些动作单元通过计算面部特征点之间的几何距离进行量化,进而生成对应的AU分数。随后,根据每个动作单元的重要性,使用加权公式计算综合痛苦分数。当该分数超过预设阈值时,系统判定为痛苦表情。计算公式如下:
(3)
其中ω表示每个动作单元的权重,反映其对痛苦表情的贡献度。系统会根据上述公式计算综合痛苦分数,并与设定的阈值进行比较。如果综合痛苦分数超过阈值(例如0.5),则判定为痛苦表情,触发报警机制。
3. 系统设计
3.1. 系统运行情况
采用PC作为处理终端,作为摄像头人脸识别,病房中安装的摄像头用于持续监测病人的面部状态,并通过WiFi网络实时传输数据。系统配备的显示器能够显示具体的床号,以便在需要时通知医护人员。若病人感到不适,他们可以主动按下紧急按钮来发出警报。此外,系统还能通过分析病人的面部表情来判断其痛苦程度,当检测到痛苦表情时,系统会自动触发报警机制,在界面上提示紧急情况并通知相关监护人员,并通过语音合成播放相应的报警信息,提示相关床号已出现异常情况。这一功能在病人无法自行报警的情况下尤为重要。
3.2. 系统运行流程
本次研究的微表情,通过人脸表情的活动单元:眼眶收紧(AU6)、上唇抬高(AU10)、嘴角上拉(AU12)、皱鼻子(AU4)、嘴角下拉(AU15)、下巴撇(AU17)、嘴巴闭合(AU23)、上眉毛上升(AU1 + AU2)以及嘴巴打开(AU27)。这几部分来共同判断疼痛是否发生。系统运行流程图如图3所示。
1) 初始化渐冻症患者实时监测系统,将检测摄像头对准被看护人,开始工作,系统开始通过摄像头实时捕捉病人面部数据。
2) 面部数据采集。通过摄像头对病人进行实时监测,系统调用摄像头实时获取视频流,并逐帧处理,使用Mediapipe的FaceMesh模块定位面部关键点,提取用于分析的3D坐标,每一帧的关键点数据被送入动作单元(AU)计算模块。
3) 系统并行收集视频帧,每16帧作为一个序列送入预训练的3D ResNet模型,动态分析结果结合AU结果,共同提高痛苦判定的准确性。
4) 将每个AU的数值按公式加权,计算综合痛苦分数,如果综合痛苦分数超过设定阈值,系统判定为发生紧急情况。
5) 当检测到痛苦表情,系统在报警界面显示报警信息,放大字体提示,并用语音提醒“床号xx有紧急情况”。并将紧急情况的信息发送给看护人员。
Figure 3. Flowchart of monitoring system operation
图3. 监测系统运行流程图
3.3. 实验与分析
3.3.1. 数据集
由于目前缺乏专门针对渐冻症患者微表情监测的数据集,我们采取了其他方法进行研究。具体来说我们使用了一部分公开的面部表情数据集,并将其通过数据增强和仿真模拟进行扩展,还有一部分通过网络搜索到的渐冻症患者的面部表情,两者结合构成了本次使用的数据。
3.3.2. 实验结果
为了验证本文的渐冻症患者实时监测系统的检测精度、检测速度、分辨率等要素的准确可行性,在pc端上进行实验,本次用pc端作为显示端,通过自带摄像头,使用通过本文设计的监测系统,我们对本文的数据集进行了全面实验,经过实验测试表明,被看护人脸上出现痛苦的微表情时,系统会马上发出报警信息给看护人员,实验结果显示,系统在痛苦表情检测方面具有较高的准确性和较低的漏报率,同时在光照不足、噪声较多和运动模糊等复杂情况下,依然保持了良好的鲁棒性,在NVIDIA GeForce RTX4060显卡下,系统每秒能够处理45帧图像,在进行渐冻症患者面部微表情的实时监测时,处理速度的保持性和稳定性就是体现系统实时性的关键,系统的平均响应时间约为1.2秒,快速触发报警,有助于实时反映患者的异常情况。与YOLOv4相比,本系统的检测速度提高了大约15%,提供更多的实时应用潜力。1280 × 720分辨率下,系统处理速度为45 FPS,在640 × 480分辨率下,系统性能基本保持一致,但可以在处理速度上稍微有优势,达到50 FPS,而在1920 × 1080分辨率下,处理速度降到了30 FPS,精度未受显著影响。证明本文设计的监测系统可以增强监护的安全性。检测结果如下图(图4~6)所示。
Figure 4. Monitor system initial interface
图4. 监测系统初始界面
Figure 5. Monitoring system monitoring interface
图5. 监测系统监测界面
Figure 6. Monitoring system alarm interface
图6. 监测系统报警界面
4. 总结
本文设计了一种渐冻症患者实时监测系统。该系统将微表情识别技术融入了监护系统,除了现有的自动按铃和生理参数异常触发的报警机制外,新增了基于微表情的报警功能。本系统的价值主要体现在以下几个方面:首先,它满足了病人在遭遇痛苦时对医护人员及时响应的最高需求;其次,为病人构建了额外的安全保障——在特定情境下,当病人无法通过动作报警或生理监控出现故障时,监护系统能够自动发起报警;最为关键的是,这一系统显著提升了生命救援的宝贵时间,因为人体感知系统可以迅速捕捉到身体的变化,并通过痛苦表情表达出求助的信号,这在许多紧急场合具有决定性意义。
在隐私方面,首先,用户面部数据属于高度敏感信息,因此对数据存储和传输的安全性提出了极高要求,必须防止数据滥用或泄露,并严格遵守相关法律法规。其次,技术的普及过程中,用户对隐私保护、安全性和技术可靠性仍存顾虑。推广时应充分考虑用户心理和社会文化因素,通过提高技术透明度、赋予用户更大的控制权,从而增强公众对该技术的接受度。这些措施均为确保技术广泛应用和建立信任奠定了关键基础。
本文将致力于优化网络结构、改进算法,并探索新的模型设计思路,目标是在保持高精度的同时,实现实时的监测,后续会密切关注技术的前沿发展,并将其应用于相关的研究中。同时,隐私保护和技术规范的构建应始终以用户需求为核心。未来,透明化算法设计和用户可控的数据管理机制将成为增强用户信任的关键方向。同时,通过深入研究隐私保护算法(如差分隐私)和可信数据交互机制,可以更有效地保障用户数据在采集、存储与传输过程中的安全性。
基金项目
本研究得到西安市科技计划软科学研究一般项目(项目编号:24RKYJ0065)和陕西省大学生创新创业训练计划项目(项目编号:S202312715034):渐冻症患者实时监测系统的支持。
NOTES
*通讯作者。