基于MLFCC特征和P-CRNN的心音分类研究
Research on Heart Sound Classification Based on Mixed Features of MFCC and LFCC and Parallel Convolutional Recurrent Neural Network
DOI: 10.12677/mos.2025.142144, PDF, HTML, XML,    国家自然科学基金支持
作者: 宋晨翔, 张孙杰, 刘奥磊, 王 哲:上海理工大学光电信息与计算机工程学院,上海
关键词: 心音信号混合特征分类网络Heart Sound Signal Hybrid Feature Classification Network
摘要: 心音分类是医学领域中一个重要的诊断任务。但由于数据量不足、宽频带信号表征能力欠缺、心音序列上下文学习存在挑战等问题,该领域依旧存在许多的不足之处。针对以上问题,提出了一种心音分类的新方法:对每段心音信号进行重叠切片,截取成2s的信号作为样本;随后采用改进的梅尔频率倒谱系数(MFCC)与线性频率倒谱系数(LFCC)分别提取心音信号相应频率系数,并分别计算其一阶差分作为融合特征。分类网络使用提出的并行卷积递归神经网络(P-CRNN)方法进行训练。实验表明,相比于其他传统识别方法,所提方法对心音信号分类有明显提高。
Abstract: Heart sound classification is a crucial diagnostic task in the medical field. However, due to the insufficient amount of data, the lack of wideband signal representation ability, and the challenges of contextual learning of heart sound sequences, there are still many shortcomings in this field. To address these issues, a novel method for heart sound classification was proposed. In this method, each signal was segmented into 2-second overlapping slices, and the corresponding frequency coefficients were extracted using improved Mel Frequency Cepstral Coefficients (MFCC) and Linear Frequency Cepstral Coefficients (LFCC). The first-order difference was calculated as fusion features, and the proposed Parallel Convolutional Recurrent Neural Network (P-CRNN) method was trained for classification in comparison to traditional recognition methods. The experiment shows that compared to other traditional recognition methods, the proposed method has a significant improvement in heart sound signal classification.
文章引用:宋晨翔, 张孙杰, 刘奥磊, 王哲. 基于MLFCC特征和P-CRNN的心音分类研究[J]. 建模与仿真, 2025, 14(2): 202-212. https://doi.org/10.12677/mos.2025.142144

1. 引言

每年全球因心血管疾病而丧生的人数高达数百万,被认为是世界上最常见的致命疾病之一[1]。心血管疾病严重影响健康,以至于导致心脏病发作、中风以及心力衰竭。它不仅严重影响个人健康,同时也给医疗保健系统带来巨大的财政压力。因此,对于控制心血管疾病而言早期的发现和诊断便至关重要。心音听诊是心血管疾病临床检查的重要组成部分,其作为一种不可或缺的非侵入式诊断工具,具有成本低、效率高、无痛等优点。该方法有助于检测一系列病理性心脏异常,如二尖瓣反流、主动脉瓣狭窄等瓣膜性心脏病,以及心力衰竭和心律失常等[2]。然而,传统的心音听诊方法仍然严重依赖于医生的经验水平,心脏病专家的听诊诊断准确率约为80%,而初级心脏病医生的听诊诊断率在20%~40% [3]。因此,为了解决这个问题,研究一种自动心音分类的识别方法迫在眉睫。

近年来,深度学习技术在心音分类领域表现出优异的性能[4]-[6]。特别是自PhysioNet/CinC Challenge 2016 [7]发布以来,基于深度学习的心音分类方法在数量和质量上都有了质的飞跃。Posts等人[8]采用卷积神经网络(Convolutional Neural Network, CNN)与自适应增强算法(Adaptive Boosting, AdaBoost)相结合的策略,从心音图(Phonocardiogram, PCG)中提取124个时频特征。他们在随机抽样的测试集上实现了86.0%的未加权平均召回率(Unweighted Average Recall, UAR),在PhysioNet/CinC Challenge 2016中获得了第一名。Yaseen等人[9]利用从心音信号中提取的梅尔频率倒谱系数(Mel Frequency Cepstral Coefficients, MFCC)和离散小波变换(Discrete Wavelet Transform, DWT)特征,使用支持向量机(Support Vector Machine, SVM)和DWT进行训练和分类,并进一步将这种方法与基于质心位移的K近邻算法(K-Nearest Neighbors, KNN)和基于深度神经网络(Deep Neural Networks, DNN)的分类算法相结合,对心音进行分类,从而实现了97%的分类准确率。Akram MU等人[10]通过同态包络图的包络提取和辨识突出的峰值,对心音信号中的心跳进行定位,利用径向基函数核的非线性支持向量机根据提取的特征对心音进行分类,最终获得91%的准确率。Li F等人[11]将传统的特征工程方法与深度学习算法相结合,从8个域中提取497个特征,将卷积神经网络中的全局平均池化层取代分类层之前使用的全连接层,最后采用分层五重交叉验证来评价所提出方法的性能,在PhysioNet/CinC Challenge 2016数据集上获得的准确率、灵敏度、特异性分别为86.8%、87%和86.6%。Zhang等人[12]提出了一种基于比例谱图与偏最小二乘回归(Partial Least Squares Regression, PLSR)的PCG信号分类方法。采用香农能量包络的短时平均幅度差,计算得到的心循环谱图,随后进行特征提取;并在处理对数谱图时采用双线性插值,得到固定尺寸的缩放谱图;之后采用PLSR对标度谱图进行降维;最后通过SVM得到分类结果。虽然已经有大量关于心音分类的方法与工作,但由于心音信号采集环境的复杂多变,导致大多数方法的性能在实际使用中都有所下降,主要原因在于所选的人工特征提取方法仅能表征心音信号的局部特征,以及采取的网络模型过于简单使得模型的泛化能力较弱。因此本文提出的MFCC与线性频率倒谱系数(Linear Frequency Cepstral Coefficients, LFCC)相融合的特征和并行卷积递归神经网络的心音分类模型,通过综合MFCC在处理语音信号上的成熟优势,以及引入LFCC在提供更高频率分辨率和适应非语音信号处理上的显著优点,并融合两者的一阶差分反映信号的动态特征,从而实现了更为全面和精确的心音信号特征表征;随后利用提出的并行卷积递归神经网络(Parallel Convolutional Recurrent Neural Network, P-CRNN)对融合特征进行分类学习。本文使用的方法不需要进行心音分割,降低了算法复杂度的同时提升了模型鲁棒性和泛化能力。

2. 算法原理

2.1. 整体框架

对心音数据集中所采集的PCG信号进行分类识别一般分为三个步骤:预处理、特征提取和分类识别,具体任务步骤示意图如图1所示。

Figure 1. Heart sound classification task workflow diagram

1. 心音分类任务步骤示意图

预处理部分一般便是对心音信号进行去噪、分割等操作,从而改善信号质量,本文将采用五阶巴特沃斯滤波器对初始信号进行滤波处理。特征提取阶段保留更多的心音信号并且简化处理流程,有助于识别不同心音类别的信息,因此本文将在不进行心音分割的情况下对心音信号进行处理,采用改进后的MFCC与LFCC提取心音信号相对应的频率特征,并对其计算一阶差分进行特征信号的融合。分类识别步骤则是使用提取的特征来区分不同类别的心音,本文将采取卷积循环神经网络(Convolutional Recurrent Neural Network, CRNN)与双向长短期记忆网络(Bidirectional Long Short-Term Memory Network, BiLSTM)并行处理的方式对特征信息进行分类处理。具体的心音信号分类整体框架图如图2所示。

2.2. 预处理

首先,利用五阶巴特沃斯滤波器对原始信号进行滤波,相比于心音信号的局部心音片段,整体信息记录更易受到噪音与杂波的干扰。因此,我们引入重叠窗口的固定长度切片,从而获取更多的数据信息,以解决数据量不足、数据质量残次不齐等问题,在后续处理过程中,可获得更好的鲁棒性和泛化能力。

由于一个心跳周期的持续时长通常在0.6 s ~ 1 s,因此我们将滤波后的心音信号切片成2 s的切片级信号,并且重叠窗口每次移动的步长为1 s,确保每段至少有一个完整的心音周期信号被采集到,具体处理形式如图3所示。

2.3. 特征提取

为了克服单一特征参数在信号表征上的局限性,本研究采用了传统MFCC与性能更为灵活优异的LFCC结合的改进方法进行心音信号的特征提取,能够更全面地捕捉心音信号的本质特征,为后续的心音分类和识别提供了更为坚实的基础。

Figure 2. Overall framework diagram of heart sound signal classification

2. 心音信号分类整体框架图

Figure 3. Overall framework diagram of heart sound signal classification

3. 心音信号重叠切片方法示意图

在传统方法中,在特征提取过程中常采用汉明窗来进行加窗,可能会导致频谱泄露等缺点。因此本研究采用汉宁自卷机窗(Hanning self-convolution window, HSCW)代替汉明窗对分帧后的信号进行加窗,从心音信号中提取改进后的MFCC和LFCC特征,通过此类方法,能够在频域分析时,更有效地减少旁瓣干扰,从而减少频谱泄露,提高频谱估计的精度。

2.3.1. 改进MFCC与LFCC

MFCC根据人耳听觉感知机理,反应了人耳与声音频率之间的非线性关系,从而提出梅尔刻度频率域,梅尔频率f与实际频率之间的关系见下式(1)所示。

Mel=2595lg( 1+ f 700 ) (1)

式中,Mel(f)为梅尔刻度频率,单位为Melf为心音信号的实际频率,单位为Hz

LFCC则采用线性频率域,滤波器在频率空间内以等间距均匀覆盖,以捕捉频谱的连续特性。

进行改进MFCC与LFCC特征提取具体过程如下:

  • 预加重

由于在采集过程中高频分量损失,所以采用预加重弥补采集后信号的高频分量损失,以使频谱平滑,同时,通过一阶预加重滤波器 H( z ) ,对随机噪音进行有效抑制,滤波器H(z)公式如式(2)。

H( z )=1μ z 1 (2)

式中,μ为预加重系数,取值通常在(0.9~1)之间。

  • 分帧、加窗

虽然心音信号属于非平稳信号,但在24 ms~256 ms之间达到稳定状态[13]。因此,本研究首先将心音信号进行分帧,并在各短帧内进行特征提取。为了实现帧与帧之间的平滑过渡,在连续帧之间采取50%的重叠,并且采取汉宁自卷积窗代替传统汉明窗,从而达到更好减少旁瓣干扰、抑制频谱泄露等效果,进一步提升特征参数的准确性。经过实验验证,采取2阶汉宁自卷积窗作为窗函数对信号进行加窗处理。2阶汉宁自卷积窗表达式如式(3)所示。

W H2 ( n )= { 1 2 W R ( n )+ 1 4 [ W R ( n 2π N )+ W R ( n+ 2π N ) ] } 2 (3)

式中,WR(n)为矩形框的频率响应,表达式见式(4)所示。

W R ( n )= e j(N1)n 2 ( sin( nN 2 ) sin( n 2 ) ) (4)

  • 快速傅里叶变换(Fast Fourier Transform, FFT)

为了将信号从时域转换到频域,本文将采取快速傅里叶变换,将时域信号x(n)转换为频域信号X(k),方程如式(5)。

X( k )= n=0 N1 x ( n ) e j2πnk/N ,0n,kN1 (5)

其中 x( n ) 为经过降噪、加窗、分帧预处理以后的心音信号,n为每帧的采样个数。

  • 功率谱图计算

将信号频谱 X( k ) 的模平方,得到功率谱 P( k )

P( k )= 1 N | X( k ) | 2 (6)

  • 梅尔频率三角滤波器组与线性滤波器组

将功率谱 P( k ) 通过一组梅尔三角滤波器组进行滤波与梅尔刻度转换,在每个频率刻度下,计算P(k)与滤波器 H m ( k ) 的乘积。定义一个有M个滤波器的三角滤波器组,三角滤波器Hm(k)的频率响应如下:

H m ( k )={ 0, k<f( m1 ) kf( m1 ) f( m )f( m1 ) , f( m1 )kf( m ) f( m+1 )k f( m+1 )f( m ) , f( m )kf( m+1 ) 0, k>f( m+1 ) (7)

式中, f( m ) 为第m个滤波器的中心频率。

同时将功率谱 P( k ) 通过一组线性滤波器组进行滤波,频率响应如上式相同,但与梅尔滤波器组不同的是,线性滤波器组不需要进行梅尔刻度转换,其中心频率 f( m ) 在频率轴上均匀分布。

  • 对数能谱计算

随后通过对数运算得到每帧信号的对数能谱 S( m )

S( m )=ln[ k=0 N1 P ( k ) H m ( k ) ], 0mM (8)

式中 P( k ) 为功率谱, H m ( k ) 为滤波器组,M为滤波器个数。

  • 离散余弦变换(Discrete Cosine Transform, DCT)

对上述对数谱进行离散余弦变换,从而得到MFCC与LFCC系数 C( n )

C( n )= m=0 N1 S ( m )cos( πn( m0.5 )/M ), n=1,2,,L (9)

式中,L为MFCC与LFCC系数的阶数,M为滤波器组的个数。

  • 动态MFCC与LFCC特征提取

通过上面的特征提取的MFCC特征和LFCC特征仅反映了心音信号的静态特征,由于人耳对于声音信号的动态特性更为敏感,心音频谱的动态信息中也包含了丰富的信息,可以进一步提高分类准确率。为了更好反映心音信号的动态信息,将MFCC与LFCC分别提取一阶差分系数ΔMFCC和ΔLFCC。计算公式如下所示:

D( n )= 1 i=k i=k i 2 i=k i=k i C( n+i ) (10)

式中 C( n ) 为心音信号的MFCC系数和LFCC系数,k为差分系数,取值设置为1。

2.3.2. 混合特征融合方法

由于改进MFCC与改进LFCC采用不同滤波器尺度进行心音信号特征提取,表征心音信号不同的特征信息,为了便于后续处理,因此对两组特征参数混合,构成新的混合特征矩阵,其式如下:

MLFCC=( MFCC,ΔMFCC,LFCC,ΔLFCC ) (11)

2.4. P-CRNN分类网络

在之前的研究中证明,卷积神经网络(Convolutional Neural Network, CNN)在大规模和高维数据学习中的性能表现优异。递归神经网络(Recurrent Neural Network, RNN)在时间序列学习和长期依赖关系捕获方面具有较好的效果。因此在本文中,采取将CNN与RNN结合起来的方式,利用从CNN中提取的局部编码特征和RNN所捕获的长期依赖关系,对心音信号处理后得到的特征参数进行特征学习,本文提出了将CRNN与RNN并行作用的网络模型,结果表明优于其他模型。

传统的CRNN模型使用RNN学习基于CNN输出的时间特征,虽然展现出了强大的特征提取和序列处理能力,但存在无法保留原始心音信号的时间特征等问题,因此,为了进一步捕获原始信号的时空特征,本研究提出了一种新的网络框架:P-CRNN。本文提出的P-CRNN网络框架示意图如图4所示。

Figure 4. P-CRNN Network framework diagram

4. P-CRNN网络框架示意图

如图所示,将此前所提取改进后的MFCC与LFCC及其一阶差分特征作为网络的输入,并行传送进CRNN和RNN中分别进行特征学习。随后,将两个并行模块融合成一个统一的特征向量进行后续分类,采用全连接层和Softmax层对不同类间的概率分布进行推导。所提出的P-CRNN模型融合了从CRNN中提取的时空特征和从RNN提取的时间特征。

在CRNN模块中使用了三个卷积层与一个GRU层,其中第一个卷积层采用16个卷积核,第二个卷积层采用32个卷积核,第三个卷积层采用64个卷积核,在每一个卷积核之后使用PreLU (Parametric Rectified Linear Unit)激活函数、最大池化层和批量归一化层,其中最大池化层分别采用2 × 2、2 × 2和4 × 4的窗口。之后采用展平层将数据铺平以便传入GRU中进行心音信号的时间特征学习,之后再接入一个展平层,便于与后续RNN中传出的信号进行融合。

在RNN模块中,先采取2X2的最大池化层对输入信号进行降维,并且使用LSTM层进行心音信号时间特征学习。最后将CRNN模块与RNN模块的输出连接成一个特征向量,并使用32个神经元的全连接层学习全局特征。随后采用dropout层减少神经元数量,从而防止过拟合,此后再接入由2个神经元构成的全连接层。最后采用Softmax层推导出正常与异常心音的类别概率。

3. 实验与结果分析

3.1. 实验数据

实验中所使用的心音信号来自PhysioNet/CinC challenge 2016数据库,可在Physio网站上公开获取。该数据库来自于七个研究小组贡献的九个独立数据库,包括从临床和非临床环境下健康受试者和各种心脏病患者中收集的共3240份原始心音信号记录。这些心音数据被各种电子听诊器在4个主要听诊部位所采集:主动脉瓣听诊区、肺动脉瓣听诊区、三尖瓣听诊区、二尖瓣听诊区,长度从5 s到120 s不等,采样频率为2000 Hz。其中异常的心音信号来自于心脏瓣膜缺损(包括二尖瓣脱垂、二尖瓣关闭不全、主动脉瓣反流和主动脉瓣狭窄等)和冠状动脉疾病等各类心脏疾病患者。该数据库共发布心音信号3240段,其中共有2575段心音信号被标记为正常,665段心音信号被标记为异常。实验中将其中20%作为测试集,将此外80%的正常和异常心音信号按比例选取80%作为训练集,20%作为验证集。具体数据集划分见表1

Table 1. Data partitioning

1. 数据划分

数据集

正常

异常

训练集

1648

426

验证集

412

106

测试集

515

133

3.2. 实验环境

实验中所使用的编程软件为Pycharm 2021,编程语言为Python 3.9,所使用并行卷积递归神经网络均在TensorFlow 2.8框架中实现。硬件环境:中央处理器(Intel(R) Xeon(R) CPU E5-2670 v3 @ 2.30 GHz,RAM为62 GB),独立显卡NVIDIA Corporation GP104 [GeForce GTX 1080]。

本文并行卷积递归神经网络模型配置如下:采用Adam优化器对目标函数进行优化;学习率初始值为0.001,衰减率为1 × 106;损失函数为稀疏分类交叉熵损失函数;Dropout层的保持概率为0.5。

3.3. 评价指标

为了评估所提出的方法,每个实验使用了如下分类评估指标:准确率(Accuracy),召回率(Recall),精密度(Precision),F1,灵敏度(Specificity),特异度(Sensitivity)。这些测量的定义如下:

Accuracy= TP+TN TP+TN+FP+FN (12)

Recall= TP TP+FN (13)

Precision= TP TP+FP (14)

F1=2 Precision×Recall Precision+Recall (15)

Specificity= TN TN+FP (16)

Sensitivity= TP TP+FN (17)

式中,TP为异常心音样本被正确分类的数量;TN为正常心音被正确分类的数量;FP为正常心音被错误分类的数量;FN为异常心音被错误分类的数量。

3.4. 结果分析

3.4.1. 与不同网络框架性能对比

为了进一步说明P-CRNN的分类性能,本研究与不同网络框架进行了性能对比,如:CNN、RNN和CRNN。其具体网络框架如表2所示。

Table 2. Other traditional network frameworks

2. 其他传统网络框架

模型

网络框架

CNN

Conv(16,3,3,1)-MaxPool(2,2)-BN-Conv(32,3,3,1)-MaxPool(2,2)-BN

-Conv(64,3,3,1)-MaxPool(2,2)-BN-FC(32)-Drop(0.5)-FC(2)

RNN

LSTM(64)-FC(64)-Drop(0.5)-FC(2)

CRNN-(LSTM)

Conv(16,3,3,1)-MaxPool(2,2)-BN-Conv(32,3,3,1)-MaxPool(4,4)-BN

-Conv(64,3,3,1)-MaxPool(2,2)-BN-LSTM(64)-FC(32)-Drop(0.5)-FC(2)

CRNN-(GRU)

Conv(16,3,3,1)-MaxPool(2,2)-BN-Conv(32,3,3,1)-MaxPool(4,4)-BN

-Conv(64,3,3,1)-MaxPool(2,2)-BN-GRU(64)-FC(32)-Drop(0.5)-FC(2)

表中Conv (x, y, z, n)表示带有x个卷积核,其中y和z代表二维卷积核的宽度和高度,n为卷积过程中的步长;MaxPool (x, y)代表最大池化层,x和y为池化窗口的宽度和高度;BN表示批归一层;FC(x)代表有x个节点的全连接层;LSTM(x)和GRU(x)分别表示LSTM层和GRU层,其中x是输出空间的维数;Drop(x)层表示放弃层,系数为x。除最后一层采用Softmax激活外,其余激活函数都采用PReLU。采用稀疏分类交叉熵作为损失函数,优化器采用Adam优化器。

表3为上述其他传统网络框架与P-CRNN网络框架基于改进后MLFCC特征下的实验结果。从实验结果中可以看出,P-CRNN模型无论是在准确率、灵敏度、特异度还是F1分数都取得了最好的结果:准确率达到97.25%,灵敏度为97.84%,特异度为95.29%,F1分数为98.21%。

Table 3. Comparison of classification results of different network frameworks

3. 不同网络框架分类结果比较

网络框架

Accuracy (%)

Sensitivity (%)

Specificity (%)

F1 (%)

CNN

92.34

85.14

94.36

95.06

RNN

91.18

80.38

94.49

94.26

CRNN(LSTM)

94.70

85.94

97.58

96.53

CRNN(GRU)

94.89

90.34

96.20

96.70

P-CRNN

97.25

95.29

97.84

98.21

3.4.2. 不同特征提取方式性能对比

心音分类所采取的特征提取方式同样可以决定分类结果的准确性。为了更好地对比不同特征提取方式对分类结果的性能影响,使用不同特征提取方式对本研究所提出的改进MLFCC进行定性对比,所采取的特征提取方式为:MFCC、LFCC、GFCC (Gaussian Filtered Cepstral Coefficient,高斯滤波倒谱系数)。将以上特征提取方式分别作为P-CRNN网络的输入特征,从而得到表4所示的分类结果。

Table 4. Comparison of classification results of different feature extraction methods

4. 不同特征提取方法分类结果比较

特征提取方法

Sensitivity (%)

Specificity (%)

Accuracy (%)

MFCC

89.06

96.21

94.59

LFCC

93.99

96.95

96.30

GFCC

91.44

93.33

92.96

MLFCC

95.29

97.84

97.25

表4可以看出,使用MLFCC混合特征参数的分类效果明显优于其他单一特征。使用混合特征参数MLFCC的分类准确率为97.25%,而使用单一特征MFCC、LFCC、GFCC的分类准确率则分别为94.59%、96.30%和92.96%,相比之下,分别提高了2.66%、0.95%和4.29%。而在特异度方面,相比于其他三种单一特征,使用MLFCC混合特征参数分别提升了6.03%、1.30%、3.85%,灵敏度分别提升了1.63%、0.89%、4.51%。

可见,采用混合特征参数MLFCC的特征提取方法综合了MFCC在处理语音信号上的成熟优势和LFCC在高频率分辨率和非语音处理上的优势,从而能够更好地表征心音信号。同时采用汉宁自卷积窗进行加窗处理,使得在频域分析时更有效地减少旁瓣干扰,提高了心音分类的准确率。

4. 结束语

本文提出了一种基于MLFCC特征和并行卷积递归神经网络的自动心音分类算法。首先对心音信号进行预加重、分帧、重叠切片、加窗,获得预处理后的心音信号;随后使用改进后的特征提取方式分别提取信号的MFCC和LFCC特征及其各自的一阶差分系数,并且进行混合特征融合;最后利用所提出的P-CRNN网络结构对正常心音和异常心音进行分类识别。通过试验结果表明,相比于其他预处理方法,采用固定窗口的重叠切片,可获取更多完整的数据信息,解决数据量不足、数据质量参差不齐等问题,为后续分类处理获得了更好的鲁棒性和泛化能力;相比于其他特征提取方法,利用MFCC与LFCC相结合的特征提取方法,综合了MFCC在处理语音信号上的成熟特征和LFCC在高频率分辨率和非语音处理上的优势,从而能够更好地表征心音信号;相比于其他网络结构,P-CRNN模型利用从CRNN中提取的局部编码特征和RNN所捕获的长期依赖关系,在测试集中获得最优的分类结果。此分类算法综合性较其他算法有明显的改进,为心音信号的自动分类研究提供了可行的思路。

基金项目

国家自然科学基金(No.61603255),上海市晨光计划(NO.18CG52)。

参考文献

[1] WHO (2021) Cardiovascular Diseases (CVDs).
https://www.who.int/mediacentre/factsheets/fs317/en/
[2] Liu, C. and Murray, A. (2017) Applications of Complexity Analysis in Clinical Heart Failure. In: Barbieri, R., Scilingo, E. and Valenza, G., Eds., Complexity and Nonlinearity in Cardiovascular Signals, Springer, 301-325.
https://doi.org/10.1007/978-3-319-58709-7_11
[3] Lam, M.Z.C., Lee, T.J., Boey, P.Y., et al. (2005) Factors Influencing Cardiac Auscultation Proficiency in Physician Trainees. Singapore Medical Journal, 46, 11-14.
[4] Zeinali, Y. and Niaki, S.T.A. (2022) Heart Sound Classification Using Signal Processing and Machine Learning Algorithms. Machine Learning with Applications, 7, Article ID: 100206.
https://doi.org/10.1016/j.mlwa.2021.100206
[5] Krishnan, P.T., Balasubramanian, P. and Umapathy, S. (2020) Automated Heart Sound Classification System from Unsegmented Phonocardiogram (PCG) Using Deep Neural Network. Physical and Engineering Sciences in Medicine, 43, 505-515.
https://doi.org/10.1007/s13246-020-00851-w
[6] Nguyen, M.T., Lin, W.W. and Huang, J.H. (2022) Heart Sound Classification Using Deep Learning Techniques Based on Log-Mel Spectrogram. Circuits, Systems, and Signal Processing, 42, 344-360.
https://doi.org/10.1007/s00034-022-02124-1
[7] Liu, C., Springer, D., Li, Q., Moody, B., Juan, R.A., Chorro, F.J., et al. (2016) An Open Access Database for the Evaluation of Heart Sound Algorithms. Physiological Measurement, 37, 2181-2213.
https://doi.org/10.1088/0967-3334/37/12/2181
[8] Potes, C., Parvaneh, S., Rahman, A. and Conroy, B. (2016). Ensemble of Feature: Based and Deep Learning: Based Classifiers for Detection of Abnormal Heart Sounds. 2016 Computing in Cardiology Conference (CinC) Vancouver, 11-14 September 2016, 621-624.
https://doi.org/10.22489/cinc.2016.182-399
[9] Yaseen, Son, G. and Kwon, S. (2018) Classification of Heart Sound Signal Using Multiple Features. Applied Sciences, 8, Article 2344.
https://doi.org/10.3390/app8122344
[10] Mubarak, Q., Akram, M.U., Shaukat, A., Hussain, F., Khawaja, S.G. and Butt, W.H. (2018) Analysis of PCG Signals Using Quality Assessment and Homomorphic Filters for Localization and Classification of Heart Sounds. Computer Methods and Programs in Biomedicine, 164, 143-157.
https://doi.org/10.1016/j.cmpb.2018.07.006
[11] Li, F., Tang, H., Shang, S., et al. (2020) Classification of Heart Sounds Using Convolutional Neural Network. Applied Sciences, 10, Article 3956.
[12] Zhang, W., Han, J. and Deng, S. (2017) Heart Sound Classification Based on Scaled Spectrogram and Partial Least Squares Regression. Biomedical Signal Processing and Control, 32, 20-28.
https://doi.org/10.1016/j.bspc.2016.10.004
[13] Deng, M., Meng, T., Cao, J., Wang, S., Zhang, J. and Fan, H. (2020) Heart Sound Classification Based on Improved MFCC Features and Convolutional Recurrent Neural Networks. Neural Networks, 130, 22-32.
https://doi.org/10.1016/j.neunet.2020.06.015