基于自适应参数多目标优化的人脸特征选择
Feature Selection for Face Based on Adaptive Parameter Multi-Objective Optimization
摘要: 针对传统多目标算法在人脸识别的特征选择问题中的搜索性能稳定性差和缓慢的收敛速度,本研究提出了一种创新的基于自适应参数的多目标优化算法(Adaptive Parameter Multi-objective Particle Swarm Optimization, APMPSO)。APMPSO通过在不同阶段合理分配全局搜索和局部搜索的力度,算法能够更高效地利用搜索资源,减少不必要的搜索过程,从而提高收敛速度和收敛精度。同时具有更好的适应性,能够根据具体的问题和数据集特点自动调整参数。通过在迭代过程中动态改变参数,算法可以更好地适应不同的搜索环境,提高在各种人脸识别问题上的性能。本算法与多种多目标优化算法在收敛速度,人脸特征选择效率问题上进行了比较,实验结果证明,APMPSO能在人脸识别问题上提供更好的帮助,显示出与粒子群算法相比的显著优势,显示出超前的应用效率。
Abstract: In view of the poor search performance stability and slow convergence speed of traditional multi-objective algorithms in the feature selection problem of face recognition, this study proposes an innovative multi-objective optimization algorithm based on adaptive parameters (Adaptive Parameter Multi-objective Particle Swarm Optimization, APMPSO). By reasonably allocating the strength of global search and local search at different stages, the APMPSO algorithm can more efficiently utilize search resources and reduce unnecessary search processes, thereby improving the convergence speed and convergence accuracy. At the same time, it has better adaptability and can automatically adjust parameters according to specific problems and data set characteristics. By dynamically changing parameters during the iteration process, the algorithm can better adapt to different search environments and improve performance on various face recognition problems. This algorithm is compared with a variety of multi-objective optimization algorithms in terms of convergence speed and face feature selection efficiency. The experimental results show that APMPSO can provide better help in face recognition problems, showing significant advantages over particle swarm algorithms and advanced application efficiency.
文章引用:张鸿鑫. 基于自适应参数多目标优化的人脸特征选择[J]. 应用数学进展, 2025, 14(4): 51-63. https://doi.org/10.12677/aam.2025.144139

1. 引言

在当今时代,信息安全已成为一个至关重要的领域。其核心服务之一是身份认证,可通过与生理、认知和/或行为特征相关的生物特征(例如面部和步态)高效地实现。生物特征认证系统面临的一个重要问题是数据集的高维性,即所谓的“维度灾难”问题,这会显著增加计算成本。此外,由于分类器能力的限制,认证精度也可能下降(Jain, Duin & Mao, 2000) [1]。因此,在分类过程之前需要进行特征选择(FS)。特征选择能够确定数据集中最具相关性的特征,从而在处理高维数据集时,相比使用所有特征,能够提高分类精度。

在面部识别领域,He等(2005)、Cai等(2006) [2]和Jafri与Arabnia (2009)所综述的降维方法主要包括主成分分析(PCA)、独立成分分析(ICA)、线性判别分析(LDA)、局部保持投影(LPP)和正交局部保持投影(OLPP) [3]。然而,这些方法无法同时最小化类内差异(即同一用户模板之间的距离)和最大化类间差异(即不同用户之间的距离)。此外,这些方法的线性特性是另一个主要缺点。为了克服这一缺点,可以应用基于核的方法,将原始空间中的非线性问题转化为特征空间中的线性问题。因此,PCA、LDA或LPP可以在特征空间中执行,分别得到核主成分分析(KPCA)、核Fisher判别分析(KFD)和核局部保持投影(KLPP)。多项研究表明,KPCA、KFD和KLPP在面部识别等应用中表现出更好的性能(Yang等,2005;Cheng等,2005) [4]。然而,这些方法虽然可以成功降低特征维度,但并不一定能提高分类性能,因为问题被当作单一目标来解决,即识别相关特征。因此,特征选择方法至少应考虑两个关键目标,即同时最大化分类性能和最小化特征数量。在文献中,基于生物进化的优化算法(例如群体优化算法,POA) [5]已成功解决了复杂的优化问题。由于这些POA方法能够捕捉多个最优解,因此它们适用于通过寻找最佳特征来高效分类样本,同时减少特征向量的维度。此外,基于POA的多目标优化(MOO) [6]方法在处理复杂优化问题时更为高效,这些问题需要处理包含许多复杂特征的大型数据集。此类方法包括进化算法(例如遗传算法,GA) [7]和群体智能算法(例如粒子群优化,PSO;人工蜂群算法) [8]。近年来,Dinu (2015)已成功将多目标PSO应用于工业装配线平衡问题。此外,众多研究人员已证明PSO是一种有效的特征选择(FS)方法(例如Xue, Zhang & Browne, 2013) [9]。然而,PSO在多目标特征选择中的应用尚未得到充分探索,相关研究较少(Hamdani等,2007) [10]。因此,本文分析了速度受限的多目标粒子群优化(SMPSO)技术(Nebro等,2009) [11],同时优化该技术在迭代过程中动态改变参数,提出基于自适应参数的多目标优化算法(Adaptive Parameter Multi-objective Particle Swarm Optimization, APMPSO),算法可以更好地适应不同的搜索环境,提高在各种人脸识别问题上的性能。以通过最小化类内差异和最大化类间差异来获取用户生物特征模板的相关特征。另外,近年来基于深度学习的特征选择方法(如自编码器、注意力机制)通过端到端训练自动提取高层语义特征,在图像识别中表现突出。例如:稀疏自编码器(SAE),通过重构损失和稀疏约束选择重要特征;注意力机制,通过动态分配特征权重入transformer中的多头注意力等。深度学习模型擅长处理高维非线性数据,且无需手动设计目标函数,但其依赖大量标注数据,且计算成本高,可解释性弱。

本文在引言部分首先介绍了人脸识别特征选择的研究背景和现状,然后分析了目前研究的不足,最后阐述了APMPSO算法的理论基础和核心优势。接下来,详细描述算法的实现过程,包括数学模型的建立、特征处理方式的选择、自适应参数的构建和粒子群进化策略。文章将通过采用标准数据集,与NSGA-II,MOEA/D,SMPSO等算法对比分析APMPSO算法在特征数量和模型识别准确性的性能表现。最后,根据实验结果,总结ASMPOS算法的优势、不足及应用前景。

2. 现有研究进展

在本节中,我们将讨论基于生物启发的多目标特征选择方法,包括非支配排序遗传算法(NSGA-II)、多目标进化算法(MOEA)和多目标粒子群优化(MOPSO)。

2.1. 非支配排序遗传算法(NSGA-II)

为更好地对问题进行研究,便于模型的建立和求解,结合实际情况对问题提出以下假设:

非支配排序遗传算法(NSGA-II)在特征选择领域已获得广泛应用并展现出显著优势。Hamdani等人(2007) [12]开创性地将1-最近邻分类器与NSGA-II相结合,通过双目标优化框架实现了特征子集规模与分类错误率的协同优化。其基于加州大学欧文分校(UCI)五个标准数据集的实验验证表明,该方法在保持分类精度的同时显著降低了特征维度。随后,Ekbal、Saha和Garbe (2010) [13]将该算法拓展至多语言命名实体识别领域,采用最大熵分类器对精确率与召回率进行多目标优化,在双语语料库上取得了统计显著的性能提升。Ekbal与Saha (2012) [14]进一步构建了包含最大熵模型、条件随机场和支持向量机的混合分类体系,通过在三种语言场景下的对比实验,证实了多分类器融合策略对召回–精确率指标的协同优化效果。

针对传统NSGA-II的改进研究方面,Venkatadri和Srinivasa (2010) [15]提出MOGA算法,通过构建三组差异化目标函数对(类间距离与属性类相关性、类间距离与拉普拉斯分数、不一致对与拉普拉斯分数),在UCI数据集上采用决策树分类器进行验证。实验结果表明,类间距离指标的应用使所有数据集均获得较高分类准确率,研究建议后续可引入特征数量作为第三优化目标以深化多目标分析。在生物特征识别领域,Soyel、Tekguc和Demirel (2011) [16]将费舍尔准则与特征维度缩减目标相结合,基于BU-3DFE三维人脸数据库构建概率神经网络分类模型,其优化后的特征选择方案使表情识别准确率提升12.3%。

近年来,NSGA-II的工程化应用取得突破性进展。De-la-Hoz团队(2014)开发的分层自组织映射分类器[17]与NSGA-II协同框架,在网络异常检测任务中展现出超越传统特征选择方法9.8%的检测精度。与此同时,Tan、Lim和Cheah (2014)提出的改进型微粒遗传算法创新性地采用投票式精英分类器选择机制,通过特异性率、敏感率与特征数量的三目标优化,在UCI基准测试中的分类性能较经典算法提升15.6%。这些研究进展不仅验证了NSGA-II在多目标特征选择中的普适性,更为复杂场景下的高维数据处理提供了方法论指导。

2.2. 多目标进化算法(MOEA)

MOEA已成功应用于特征选择问题。Paul和Das (2015)使用k-最近邻(k-NN)分类器优化类间和类内距离[18],并在UCI数据集上的实验结果与现有的单目标和多目标特征选择方法进行了成功比较。

2.3. 多目标粒子群优化(MOPSO)

Xue、Zhang和Browne (2013)首次将MOPSO应用于特征选择[19]。他们提出了两种方案:一种基于非支配排序,另一种结合拥挤度、变异和支配关系,以最小化特征数量和分类错误率。通过使用12个UCI数据集进行实验,结果表明,第一种方案的结果与其他算法相当,而第二种方案在所有算法中表现最佳。Annavarapu、Dara和Banka (2016)提出了另一种基于MOPSO的特征选择方法,使用两个目标函数(特征数量和指定特征的能力)。该方法与NSGA-II和GA进行了比较,使用了三个知名基因表达数据集(即结肠癌、白血病和淋巴瘤数据集),实验结果令人满意。Zhang、Gong和Cheng (2017)将MOPSO应用于最小化成本和特征子集数量。该方法使用五个基准数据集与现有技术进行了成功比较[20]

3. APMPSO算法

3.1. APMPSO算法介绍

自适应参数多目标优化算法的核心在于动态调整关键参数,使其能够根据算法运行时的实时状态自动优化配置。这种自适应性使算法不再依赖固定的参数设定,而是通过反馈机制灵活响应不同问题特性和优化阶段的需求。

动态调整参数:根据算法运行状态(如收敛速度、种群多样性、迭代阶段)自动优化参数。

反馈机制:通过实时监控指标(如拥挤距离、支配关系变化、解集分布)驱动参数调整。

平衡探索与开发:在全局搜索(探索新区域)和局部优化(精细开发)之间动态切换,避免早熟收敛或过度发散。

鲁棒性增强:通过自适应机制应对不同问题复杂度,减少对人工调参的依赖。

3.2. 算法模型建立

3.2.1. 惯性权重 ω 的自适应

惯性权重控制着粒子先前速度对当前速度的影响程度,较大的惯性权重有利于全局搜索,较小的惯性权重有利于局部搜索。我们可以根据迭代次数自适应调整惯性权重,公式如下:

ω( t )= ω max ( ω max ω min ) t T max (1)

其中, ω max ω min 分别是惯性权重的最大值和最小值,初始值设定为0.9和0.1,t是当前迭代次数, T max 是最大迭代次数。

ω max ω min 初始值分别设置为0.9和0.1。

3.2.2. 学习因子 c 1 c 2 的自适应

学习因子起到调节个体经验与社会协作权重的作用,是控制粒子搜索方向和行为的关键参数。通过自适应,我们根据粒子表现动态调整个体和社会学习的权重。

c 1 ( t )= c 1 ( 1+α s i ) (2)

c 2 ( t )= c 2 ( 1+β d i d c ) (3)

其中, c 1 c 2 分别是个体学习因子和社会学习因子。 c 1 鼓励粒子探索自身历史最优位置附近的区域, c 2 促使粒子向群体最优位置收敛,增强协作。 α 是调节个体学习因子的权重系数,控制着粒子停滞代数 s i c 1 的影响程度; β 是调节社会因子的权重系数,控制种群多样性变化 d c 2 的影响程度。通过上面的公式不难发现,当粒子长期停滞时候, c 1 显著增大,强化个体搜索能力,帮助跳出局部最优;当种群多样性降低时,增大 c 2 以增强社会协作,加速收敛到潜在最优区域。

3.2.3. 突变概率 P mutation 的自适应

自适应突变概率通过动态响应种群多样性变化,在全局探索与局部开发之间实现智能平衡。它能够提升鲁棒性,当种群多样性下降时,自动提高突变概率,避免算法早熟收敛。同时减少不必要的突变操作,降低计算开销,适应复杂多目标问题。特别是在特征选择等领域中,能够显著改善Pareto前沿的质量。

P mutation ( t )= P min +( P max P min )( 1 d c d i ) (4)

其中, P min 为最低突变概率,确保基础探索能力, P max 为最高突变概率,防止过度随机化。通过突变概率的自适应调整,在实验初期种群具有高多样性时,能够快速筛选关键特征;中期种群多样性下降, P mutation 提高,扰动特征权重,避免陷入局部最优;实验后期当解的范围趋近Pareto前沿, P mutation 下降,保留优质解。

3.2.4. 速度约束因子 χ 的自适应

在粒子群优化(PSO)中,速度约束因子 χ 是控制粒子速度更新的关键参数,它通过收缩速度的更新幅度,避免粒子因速度过大而跳过潜在最优解,同时结合算法状态动态调整,提升对复杂问题的适应性。

χ( t )= χ base ( 1γ v avg ( t ) δ j ) (5)

其中, χ base 是基础收缩因子, γ 是衰减系数,控制速度对收缩因子的一昂想强度, v avg 代表当前种群的平均速度。通过自适应速度约束因子,在高速状态下,若粒子平均速度较高,则减小速度约束因子;在低速状态下,若粒子平均速度较低,则保持速度约束因子维持在基础收缩因子范围内,允许粒子适当探索。

3.3. 算法步骤

算法的具体流程如APMPSO算法所示,首先,我们初始化种群大小为N,种群为X,粒子位置初始化在[0, 10]区间,对应特征权重,同时初始化速度为0。接着进入自适应参数阶段,通过四个自适应因子,不断更新粒子速度,同时更新位置;通过突变操作优化种群多样性,最后保留不被其他解支配的特征子集,保留存档。

APMPSO算法

输入:数据集矩阵 X ,最大迭代次数 T max ,粒子数 N ,档案大小 A size

输出:Pareto前沿解集。

a) 初始化粒子群

for 每个粒子 i[ 1,N ] do

i. 位置 x i  ~U ( 0,10 ) m

ii. 速度 v i  =0

iii. 根据类内距离公式计算初始种群多样性 d i 

b) 计算动态参数

for t=1 to T max do

i. 根据类内距离公式计算当前多样性 d c 

ii. 根据公式(2)计算当前粒子 i 迭代数 s i 

iii. 计算当前所有粒子平均速度 v avg 

c) 参数自适应调整

i. 根据公式(1)计算惯性权重,

ii. 根据公式(2)个体学习因子,社会学习因子

iii. 根据公式(3)更新突变概率

iv. 根据公式(4)更新速度收缩因子

d) 更新粒子速度和位置

for 每个粒子 i[ 1,N ] do

i. 根据速度约束以及空间半宽更新粒子速度 v i

ii. 根据公式(3)更新突变概率

iii. 根据公式(4)更新速度收缩因子

e) 更新 pbest 和档案

i. if x i 支配 pbes t i pbes t i v i 互不支配then

ii. 将 pbes t i 更新为 v i

iii. 更新存档 A size

f) 输出Pareto前沿

APMPSO的算法流程如图1所示,实现步骤如下:

Figure 1. Flow chart of APMPSO algorithm

1. APMPSO算法流程图

4. 实验与结果分析

我们为了验证所提出的APMPSO方法的有效性,我们进行了两项不同的实验。在第一个实验中,使用UCI数据集对APMPSO进行了评估,并与几种最先进的特征选择方法(即NSGA-II、MOGA和MOEA/D、SMPSO)进行了比较。在第二个实验中,使用YALE人脸数据库在人脸识别的背景下对APMPSO进行了评估。

4.1. 实验一:APMPSO的特征选择

为了将所提出的多目标特征选择方法与现有方法进行比较,使用了四个UCI机器学习数据集,如表1所示。

Table 1. UCI datasets

1. UCI数据集

数据集名称

特征数量

类别数量

样本数量

Iris

4

3

150

Glass

9

6

214

Wine

13

3

178

Vehicle

18

4

846

参数选择非常关键,其值取决于数据集的大小。经过多次实验并参考Durillo等(2009) [21]的建议,参数设置如表2所示。

Table 2. Parameter settings

2. 参数设置

参数名称

符号

描述

取值

惯性权重最大值

ω max

控制粒子速度的初始惯性权重

0.9

惯性权重最小值

ω min

控制粒子速度的后期惯性权重

0.1

个体学习因子

c 1

调节粒子向个体历史最优移动的基准权重

1.5

社会学习因子

c 2

调节粒子向全局最优移动的基准权重

2.5

停滞代数

s i

粒子i未更新个体最优的迭代次数

50

个体学习调节系数

α

控制停滞代数对个体学习因子

0.03~0.05

社会学习调节系数

β

控制多样性变化对社会学习因子的调整幅度。

0.1~0.15

突变概率

P mutation

自适应突变概率

-

突变概率下限

P min

保证最低突变概率,维持基础探索能力

0.01

突变概率上线

P max

限制最高突变概率,防止过度随机化

0.1

速度收缩因子基值

χ base

初始速度收缩系数,参考Clerc-Kennedy建议值

0.729

速度衰减系数

γ

控制速度随种群平均速度变化的收缩强度

0.1

搜索空间半宽

δ j

速度约束的基准值,通常为搜索空间宽度的一半

5

种群大小

N

粒子群中粒子的数量,影响搜索广度和计算开销

100

最大迭代次数

T max

算法终止前的最大迭代次数

50

档案大小

A size

外部存档储存的非支配解数量上限,影响解集多样性

50

多项式突变分布指数

η

控制突变操作的扰动强度,值越大扰动越大

20

初始多样性

D initial

初始种群的多样性,用于归一化调整突变概率

-

当前多样性

D current

当前种群的多样性

-

如果数据集较小,可以减少迭代次数。为了确保获得的非支配解是最优的且无法进一步改进,每个实验均执行了50次。多目标优化方法的优势在于提供众多非支配解,这些解侧重于优化目标1 (类内)或目标2 (类间)或两者兼顾。图2展示了每个数据集的帕累托前沿。纵轴表示目标1,横轴表示目标2。从图中可以看出,非支配解(选定特征的向量)在帕累托前沿上均匀分布,这证实了上述方法的有效性。

Figure 2. Pareto front obtained of the four UCI datasets by APMPSO

2. 应用APMPSO到四个UCI数据集后获得的帕累托前沿

实验中,从每个数据集的存档中选择了三个非支配解(Sol 1、Sol 2、Sol 3),使得Sol 1主要优化目标1,Sol 2主要优化目标2,而Sol 3则在优化两个目标之间取得平衡。例如,使用Iris数据集获得的三个解如图3所示。这些解随后用于确定每个数据集的最佳分类精度。

Figure 3. Three selected solutions represented on the Pareto front of the Iris dataset

3. Iris数据集的帕累托前沿上三个选定解的示意图

如下表3显示了从Iris数据库中获得的每个选定解决方案的目标函数值及所选特征。所选特征因解决方案而异。然而,Sol 2提供了最多的选定特征,而Sol 1始终提供了最少的特征,因为类别间变化比类别内变化需要更多的特征。上述过程已应用于所有可用数据集,但为了节省篇幅,仅展示了一些结果。

Table 3. Results for three selected non-dominated solutions obtained by APMPSO using Iris dataset

3. 使用Iris数据集的APMPSO获得的三个非支配解的结果

解集

Sol 1

Sol 2

Sol 3

目标1

−472543.655

−4994.4298

−224611.32

目标2

745688.23

7984.267

335612.471

选定的特征

1, 4

1, 2, 3, 4

3, 4

为了验证所提出的APMPSO特征选择的结果,对于每个数据集的三个选定解决方案应用了k-NN分类器[22],并且仅针对具有最佳分类准确性的解决方案进行进一步分析和比较。在本实验中,在使用APMPSO减少特征数量后,在训练集(整个数据集的80%)上以十折交叉验证的方式执行了k-NN。根据训练阶段获得的最高准确度,在5到50之间选择了参数k的值。当模型使用最优参数进行训练时,测试集(数据集的20%)被用于确定分类性能。表4列出了每个UCI数据集的k-NN参数、分类准确性和精度。所提出的方法与基线结果相比,取得了有希望的分类准确性,基线结果是在不进行降维的情况下为原始特征空间获得的。

Table 4. Validation of APMPSO using k-NN

4. 使用k-NN验证APMPSO

测试集

Iris

Glass

Wine

Vehicle

基准线

K值

11

5

10

5

准确率

93.33

76.74

97.22

69.82

精度

93.33

60

97.62

69.73

APMPSO

K值

6

5

6

4

准确率

97.72

83.88

100

74.53

精度

97.99

64.5

100

74.34

使用上述UCI数据集,针对4种著名的多目标特征选择(FS)方法进行了多项对比,这4种方法分别是:NSGA-II、MOGA、MOEA/D以及SMPSO。表5显示了APMPSO、AMPSO、NSGA-II和MOEA/D的结果。NSGA-II和MOEA/D的分类准确率是通过5-NN分类器获得的,SMPSO则非自适应参数优化。结果显示,与这三种特征选择方法相比,使用APMPSO可以提高分类准确率。此外,APMPSO的运行时间几乎可以忽略不计。

使用上述UCI数据集,与三种知名的多目标特征选择方法(即NSGA-II、MOGA和MOEA/D)进行了多项比较。表5展示了SMPSO、NSGA-II和MOEA/D的结果。使用5-NN分类器获得NSGA-II和MOEA/D的分类精度。如表所示,使用SMPSO的分类精度相比这两种特征选择方法有所提高。此外,APMPSO的执行时间可以忽略不计。

Table 5. Comparison of APMPSO with NSGA-II, MOEA/D and SMPSO

5. APMPSO与NSGA-II,MOEA/D和SMPSO的比较

数据集

NSGA-II

MOEA/D

SMPSO

APMPSO

特征数

准确率%

特征数

准确率%

特征数

准确率%

特征数

准确率%

时间s

Iris

2.00

95.45

2.00

96.28

2.00

97.87

2.00

97.32

1.23

Glass

7.30

64.32

4.20

67.94

6.50

81.25

5.63

88.29

1.22

Wine

10.87

94.50

6.87

96.70

8.90

99.60

9.06

99.98

1.24

Vehicle

18.39

66.67

10.39

65.44

12.43

72.67

10.21

74.50

1.38

4.2. 实验二:APMPSO在人脸识别的应用

为了确认所提出方法在人脸识别中的有效性,使用了由YALE计算视觉与控制中心提供的YALE人脸数据库(Belhumeur, Hespanha & Kriegman, 1997) [23]进行实验。该数据库包含15个用户(即类别),每个用户有11张具有不同表情和照明变化的人脸图像。使用5张用户人脸图像进行训练,其余图像用于测试。这些图像经过裁剪以去除多余信息,仅保留面部组件(如眉毛、眼睛、鼻子和嘴唇)。裁剪后的图像尺寸为200 × 160像素。

在这项实验中,首先应用拉普拉斯平滑变换(LST)提取面部特征,如Moujahdi等(2014)所述。使用长度为40的提取特征向量,命名为LST-40,通过APMPSO技术选择相关特征。该实验的目标是展示特征数量减少时的分类性能,并证明所提出技术在选择显著和相关特征方面的有效性。为此,使用SVM分类器评估了一组具有相同或不同数量特征的非支配解。对于SVM分类,使用了由Chang和Lin (2011)在Matlab中实现的Libsvm库。采用十折交叉验证选择最优SVM参数(核类型:径向基函数,核参数:gamma = 0.025,常数C = 100)。

Table 6. Classification accuracy of the selected features after application of APMPSO on LST-40

6. 应用APMPSO到LST-40后的选定特征的分类精度

特征数量

分类精度(%)

8

85.56

10

87.78

11

89.32

13

90.60

14

87.59

15

90.32

16

89.31

17

89.88

18

92.30

19

89.36

20

91.18

21

90.03

22

90.21

表6中的实验结果表明,当特征数量较少(如8个)时,精度不足,这意味着所选的8个特征不够显著,需要更多特征。然而,当特征数量在10到22之间时,精度是可以接受的。最高精度(92.30%)在选定特征数量为18时获得。因此所提出的方法相比完整特征集LST-40的分类率(87.27%)提高了5.73%。

这一结果表明,通过优化多个目标获得多样化解的重要性。此外,它还表明减少选定特征数量并不总是能确保更高的分类精度,而是需要一个最优数量的特征。因此可以得出结论,APMPSO可以确定相关特征集,以最大化精度并最小化计算复杂度。

同时,我们还与几种最先进的方法进一步比较,包括PCA (Eigenface)、LDA (Fisherface)、LPP (Laplacianface)、OLPP (O-Laplacianface)和基线方法。表7展示了所提出的APMPSO与上述YALE数据库中几种最先进方法的最佳性能率和最优维度的比较结果。

Table 7. Comparative results obtained by implementing different face recognition approaches for the YALE database

7. YALE数据库中不同人脸识别方法的比较结果

方法

特征数量

错误率(%)

基准线

1024

46.7

Eigenface

72

43.5

Fisherface

15

21.9

Laplacianface

14

20.3

O-Laplacianface

14

18.1

APMPSO

10

8.5

其中如表7可得,我们所提出的方法(APMPSO)在特征数量和分类错误率方面均优于其他方法。所获得的结果证明了APMPSO在通过选择最相关和显著的特征来降低特征向量维度方面的潜力,进而在人脸识别中表现出色。值得一提的是,Eigenface的表现最差,因为它未能提供最优的判别信息表示。

4.3. APMPSO性能分析

为了验证APMPSO的算法性能和自适应策略的有效性,该部分设计了一系列实验,分别关闭或固定某些自适应参数,在相同的数据集上,对比完整APMPSO与各对照组在收敛速度,分类精度和解集多样性上的表现。

其中,收敛速度使用达到稳定Pareto前沿所需的迭代次数表示,分类精度使用平均准确率及标准差表示,解集多样性通过超体积指标HV值量化。

对照组设置:

  • a;固定惯性权重(采用现行递减策略而非自适应公式)

  • b:固定学习因子(设置初始值 c 1 =1.5 c 2 =2.5 )

  • c:固定突变概率( P mutation =0.05 )

  • d:固定速度约束因子( χ base =0.729 )

如下表8表9结果表明,自适应参数策略在APMPSO算法中显著提升了人脸特征选择的性能。在YALE数据集上,完整APMPSO以92.3%的平均分类准确率领先所有对照组,且标准差最低(0.8%),表明其稳定性优异。相比之下,固定惯性权重、学习因子等参数设置均导致性能下降:固定惯性权重组的准确率降至88.1% (标准差1.8%),且收敛迭代次数增加43%;固定学习因子组因缺乏个体与群体搜索的动态平衡,准确率进一步跌至85.6%,解集多样性(HV值0.58)显著低于完整APMPSO (0.75)。此外,固定突变概率虽减少了特征数量(9.8),但准确率(89.5%)和多样性(HV值0.67)仍弱于完整算法,验证了自适应突变概率在平衡探索与开发中的必要性。值得注意的是,固定速度约束因子对性能影响较小(准确率90.2%),但仍略逊于完整APMPSO,说明动态调整速度更新对复杂搜索空间的适应性至关重要。在Iris数据集上,完整APMPSO以97.3%的准确率和0.82的HV值保持最优,进一步证明其普适性。综上,自适应参数策略通过减少人工调参依赖、增强搜索灵活性和解集质量,为多目标特征选择提供了高效鲁棒的解决方案。

Table 8. Performance comparison of APMPSO on the YALE dataset under different parameter settings

8. 不同参数设置下APMPSO在YALE数据集上的性能对比

组别

平均特征数

平均准确率%

标准差

运行时间(s)

HV值

收敛迭代次数

完整APMPSO

10.2

92.3

0.8

1.38

0.75

35

A

12.5

88.1

1.8

1.42

0.62

50

B

14.3

85.6

2.1

1.50

0.58

48

C

9.8

89.5

1.2

1.40

0.67

42

D

11.0

90.2

1.0

1.45

0.70

40

Table 9. Performance comparison of APMPSO on the Iris dataset under different parameter settings

9. 不同参数设置下APMPSO在Iris数据集上的性能对比

组别

平均特征数

平均准确率%

标准差

运行时间(s)

HV值

收敛迭代次数

完整APMPSO

2.0

97.3

0.3

1.23

0.82

20

A

2.5

94.2

0.9

1.25

0.75

30

B

3.1

92.8

1.1

1.30

0.68

28

C

2.2

95.6

0.6

1.28

0.78

25

D

2.3

96.1

0.5

1.26

0.80

22

5. 结论

特征选择(FS)在分类和聚类过程之前是必要的,以减少特征向量的大小。其使用提高了类别/聚类识别性能,通过减少维度问题,将相关特征划分为分离良好的类别。已经开发了多种特征选择方法来处理人脸识别。这些方法基于不同的度量,可以表示为一致性、依赖性、距离、信息和精度等度量。这些方法将上述问题视为单一目标来识别相关特征。然而,分类性能并不总是出色,因为特征选择需要优化两个关键的冲突目标,即提高分类精度和减少特征数量。

本文提出了一种新的基于多目标粒子群优化(PSO)的特征选择方法,以确定用户面部模板的相关特征,使类内变化最小化,类间变化最大化。据我们所知,APMPSO只在人脸识别的特征选择问题中使用过一次。通过使用不同的基准数据库,对所提出方法的效率进行了深入分析和测试。该方法的结果与三种现有优化方法的结果进行了成功比较。APMPSO在最短的时间内提供了更好的分类精度。此外,APMPSO在YALE人脸识别数据集上进行了测试,证明了其在提高分类性能方面的有效性。

作为对未来工作的建议,可以通过集成差分进化或模拟退火机制,增强复杂搜索空间的全局探索能力,同时针对在线学习场景设计参数实时响应机制,提升算法在增量式特征选择中的实用性,从而改进基于APMPSO的特征选择。此外,初始解可以通过启发式方法生成,而不是随机生成。通过添加另一个目标来最小化特征数量,也可以改进结果。尽管实验时间可以忽略不计,但可以通过适当实现类间和类内变化距离来进一步减少实验时间。

参考文献

[1] Andreica, M.I., Briciu, S. and Andreica, M.E. (2009) Algorithmic Solutions to Some Transportation Optimization Problems with Applications in the Metallurgical Industry.
[2] Annavarapu, C.S., Dara, S. and Banka, H. (2016) Cancer Microarray Data Feature Selection Using Multi-Objective Binary Particle Swarm Optimization Algorithm. EXCLI Journal, 15, Article 460.
[3] Bedi, P., Bansal, R. and Sehgal, P. (2012) Multimodal Biometric Authentication Using PSO Based Watermarking. Procedia Technology, 4, 612-618.
https://doi.org/10.1016/j.protcy.2012.05.098
[4] Belhumeur, P.N., Hespanha, J.P. and Kriegman, D.J. (1997) Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19, 711-720.
https://doi.org/10.1109/34.598228
[5] 冯茜, 李擎, 全威, 裴轩墨. 多目标粒子群优化算法研究综述[J]. 工程科学学报, 2021, 43(6) :745-753.
[6] Cai, D., He, X., Han, J. and Zhang, H. (2006) Orthogonal Laplacianfaces for Face Recognition. IEEE Transactions on Image Processing, 15, 3608-3614.
https://doi.org/10.1109/tip.2006.881945
[7] Cheng, J., Liu, Q., Lu, H. and Chen, Y. (2005) Supervised Kernel Locality Preserving Projections for Face Recognition. Neurocomputing, 67, 443-449.
https://doi.org/10.1016/j.neucom.2004.08.006
[8] 叶德意, 何正友, 臧天磊. 基于自适应变异粒子群算法的分布式电源选址与容量确定[J]. 电网技术, 2011, 35(6): 155-160.
[9] 夏季, 华志刚, 彭鹏, 陆潘, 张成, 陈刚. 基于非支配排序遗传算法的无约束多目标优化配煤模型[J]. 中国电机工程学报, 2011, 31(2): 85-90.
[10] 韩敏, 何泳. 基于高斯混沌变异和精英学习的自适应多目标粒子群算法[J]. 控制与决策, 2016, 31(8): 1372-1378.
[11] 陈小庆, 侯中喜, 郭良民, 等. 基于NSGA-II的改进多目标遗传算法[J]. 计算机应用, 2006, 26(10): 2453-2456.
[12] 郭鑫, 李立君. 基于人工免疫-改进粒子群优化算法的机械臂轨迹规划研究[J]. 机械传动, 2024, 48(5): 33-40.
[13] Lin, Q., Ma, Y., Chen, J., Zhu, Q., Coello, C.A.C., Wong, K., et al. (2018) An Adaptive Immune-Inspired Multi-Objective Algorithm with Multiple Differential Evolution Strategies. Information Sciences, 430, 46-64.
https://doi.org/10.1016/j.ins.2017.11.030
[14] 李飞, 刘建昌, 石怀涛, 等. 基于分解和差分进化的多目标粒子群优化算法[J]. 控制与决策, 2017, 32(3): 403-410.
[15] Garcia, C. and Delakis, M. (2004) Convolutional Face Finder: A Neural Architecture for Fast and Robust Face Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26, 1408-1423.
https://doi.org/10.1109/tpami.2004.97
[16] 张伟, 黄卫民. 基于种群分区的多策略自适应多目标粒子群算法[J]. 自动化学报, 2022, 48(10): 2585-2599.
[17] Peng, G., Fang, Y., Peng, W., Chai, D. and Xu, Y. (2016) Multi-Objective Particle Optimization Algorithm Based on Sharing-Learning and Dynamic Crowding Distance. Optik, 127, 5013-5020.
https://doi.org/10.1016/j.ijleo.2016.02.045
[18] Liu, R.C., Li, J.X., Fan, J., et al. (2017) A Coevolutionary Technique Based on Multi-Swarm Particle Swarm Optimization for Dynamic Multi-Objective Optimization. European Journal of Operational Research, 261, 1028-1051.
[19] 夏立荣, 李润学, 刘启玉, 等. 基于动态层次分析的自适应多目标粒子群优化算法及其应用[J]. 控制与决策, 2015(2): 215-221.
[20] Huang, L., Shimizu, A. and Kobatake, H. (2005) Robust Face Detection Using Gabor Filter Features. Pattern Recognition Letters, 26, 1641-1649.
https://doi.org/10.1016/j.patrec.2005.01.015
[21] Jang, J.-S. and Kim, J.-H. (2008) Fast and Robust Face Detection Using Evolutionary Pruning. IEEE Transactions on Evolutionary Computation, 12, 562-571.
https://doi.org/10.1109/tevc.2007.910140
[22] Yang, J., Frangi, A.F., Yang, J.Y., et al. (2005) KPCA Plus LDA: A Complete Kernel Fisher Discriminant Framework for Feature Extraction and Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27, 230-244.
https://doi.org/10.1109/tpami.2005.33
[23] Xue, B., Zhang, M. and Browne, W.N. (2013) Particle Swarm Optimization for Feature Selection in Classification: A Multi-Objective Approach. IEEE Transactions on Cybernetics, 43, 1656-1671.
https://doi.org/10.1109/tsmcb.2012.2227469