1. 基于原型学习的零样本视觉问答模型
1.1. 任务定义
零样本视觉问答[1]旨在预测问题
关于图像
的答案
,其中答案a在训练过程中未曾出现(即属于未见类别) [2]。该任务可形式化定义为一个学习函数:
(1)
目标是求解最可能的答案:
(2)
其中,
表示在给定图像I和问题q的条件下[3],答案a出现的概率。为了有效建模视觉–语言联合表示,首先计算图像特征
和问题特征
,并通过融合函数
进行跨模态信息整合,得到联合表示
:
(3)
在零样本学习(ZSL) [4]设置下,为了实现对未见类别的泛化能力,模型需将
对齐到原型空间中的某个原型
,其P由未见类别的特征中心组成。最终,答案的概率通过距离度量函数d计算为:
(4)
在本节中,首先介绍所提出的框架的整体流程,该模型整体名为ProMahaVQA,由图像特征提取、支持知识提取和问题特征提取三部分组成,基于OpenCLIP [5]编码器生成多模态特征后,通过跨模态原型矩阵与原型查询模块实现高效语义匹配与特征对齐,并引入基于马氏距离的多标签对比损失进行优化,以提升模型在零样本VQA任务中的泛化能力与鲁棒性。随后,本节对模型在多个数据集上的表现进行了对比实验、消融分析与可视化验证,系统评估了各模块在提升准确性与跨模态推理能力方面的贡献。
1.2. 模型概述与整体框架
本章提出的整体ProMahaVQA框架如图1所展示,该模型主要由图像特征提取、支持知识提取、问题特征提取三个部分组成,并采用OpenCLIP模型(OpenCLIP是对OpenAI提出的CLIP模型的开源实现与扩展,由LAION社区开发,支持在大规模开放数据集上训练更大规模的模型)。作为图像和文本编码器[6]。图像特征与支持知识特征首先通过一个全连接层进行融合,以形成多模态特征表示。
Figure 1. Overall framework of the ProMahaVQA model
图1. ProMahaVQA模型的整体框架
问题特征则用于跨模态原型查询模块,以与跨模态原型矩阵进行匹配。该原型矩阵通过视觉和文本特征聚类生成,并包含2560维的跨模态特征。模型基于余弦相似度选择最相关的原型,并将其输入跨模态原型响应模块。最终,该模块生成响应向量,并通过基于马氏距离的多标签对比损失进行优化,以提升模型的区分能力。在推理阶段,模型计算500个候选答案的概率分布,并选择概率最高的答案作为最终输出。例如,在图1所示的案例中,模型最终选择“Knife”作为答案。
1.3. 基于OpenCLIP的特征提取模块
本研究采用OpenCLIP模型提取F-VQA数据集中的图像特征、支持知识特征和问题特征,具体包括以下步骤:
1) 图像特征提取(Image Feature Extraction)
首先,对输入图像I进行预处理:调整大小至224 × 224像素并归一化,以匹配模型的输入要求。接着,将图像划分为固定大小的N个Patch,每个Patch的尺寸为16 × 16像素。Patch数量N计算如下:
(5)
其中H和W分别为图像的高度和宽度,P为Patch的尺寸。每个Patch通过线性投影层投影到固定大小的向量空间,形成Patch嵌入:
(6)
其中
和
为线性投影层的参数。为了保留图像Patch之间的相对位置信息,加入位置编码:
(7)
这些位置编码后的Patch嵌入输入Transformer编码器,该编码器由多个自注意力层和前馈神经网络层组成。自注意力机制计算如下:
(8)
其中,Q、K和V分别表示查询(Query)、键(Key)和值(Value)矩阵,
为Key的维度。经过L层Transformer计算后,每个Patch的最终特征表示为:
(9)
最终,Transformer编码器输出的全局分类Token (CLS Token)
作为整幅图像的全局特征表示:
(10)
2) 文本特征提取(Textual Feature Extraction)
文本特征提取模块对问题文本和支持知识进行编码,以构建统一的语义表示[7]。使用OPENCLIP模型的文本编码器处理文本数据,包括问题文本和知识文本。假设问题文本由n个词构成,表示为序列
,支持知识文本包含m个词,表示为
。每个词通过嵌入矩阵E映射到向量空间:
(11)
(12)
这些词向量输入LSTM网络,以捕捉文本的上下文信息:
(13)
最终,LSTM网络的最后一个隐藏状态(Final Hidden State)作为文本的全局表示:
(14)
(15)
1.4. 跨模态原型矩阵生成(Cross-Modal Prototype Matrix Generation)
在视觉问答任务中,跨模态特征的有效整合与交互是生成准确答案的关键。为提升VQA任务中的跨模态推理能力,我们提出了一种基于跨模态原型的网络结构,该方法通过学习和存储跨模态原型来增强模型性能。本模型的核心思想是对视觉特征和文本特征进行聚类,生成原型特征,最终形成跨模态原型矩阵[8]。该原型矩阵的初始化方式不同于传统的随机初始化,而是采用视觉特征与文本特征的聚类中心进行初始化,从而确保初始原型具备有意义的语义信息。具体而言,为了优化跨模态特征的融合,我们首先从F-VQA数据集提取图像和文本特征,这些特征由OpenCLIP模型的图像和文本编码器生成。图像特征由预训练ResNet-101模型提取,确保高质量的视觉表示。文本全局特征由预训练BERT模型提取,以增强语义理解能力。随后,我们对提取的图像特征和文本特征进行拼接,构成跨模态特征向量。然后,使用K-Means聚类算法对跨模态特征向量进行聚类[9],并以每个簇的均值作为初始的跨模态原型。这些原型被存储在共享的跨模态原型矩阵中,该矩阵充当视觉特征与文本特征之间的中间表示[10]。在模型训练过程中,跨模态原型矩阵不断更新和优化,确保模型能够动态调整跨模态特征的匹配精度。跨模态信息通过类别相关的原型查询与响应模块被明确嵌入到单模态特征中。此外,我们使用改进的多标签对比损失,增强模型的区分能力,提高其鲁棒性和预测精度。具体而言,图像特征和文本特征的拼接过程如下:
(16)
其中,
代表图像特征,
代表文本特征,
表示拼接操作。使用K-Means聚类算法,我们对跨模态特征向量进行聚类,以生成跨模态原型:
(17)
其中,
表示第k个簇的聚类中心(Cluster Center),
代表第k个簇的跨模态特征集合,N为总聚类数。每个簇的均值被用作初始跨模态原型,计算如下:
(18)
其中,
第k类的第i簇的原型,
表示第k类第i簇的样本数,
代表该簇中第j个样本的跨模态特征。为了进一步优化跨模态特征的学习过程,我们引入以下公式,对跨模态原型矩阵进行动态更新:
(19)
在该公式中
表示跨模态原型矩阵中第k类第i簇的更新原型向量,该值在模型训练时动态计算,反映了类别特征中心的调整情况[11]。该更新机制的目的是迭代优化原型,使其更准确地反映每个类别的全局分布。更新过程可采用加权平均或优化策略进行实现,加权平均方式平衡历史原型和新批次特征的影响。优化策略可通过最小化损失函数来调整原型,使其更精确地与当前数据分布对齐。该机制在跨模态学习中至关重要,有助于提高跨模态特征匹配的准确性,同时增强类别可分性,从而提升VQA任务的整体性能[12]。应用于视觉问答任务通过这一迭代优化过程,跨模态原型矩阵被构建并用于后续的视觉问答任务。在VQA任务中,模型能够查询并选择最相关的原型,进而提升分类性能,提高答案预测的准确性。本研究的实验结果表明,该跨模态原型矩阵不仅有效地提升了跨模态特征融合能力,还在零样本VQA任务中展现了更强的泛化能力,使模型能够在未见类别上做出准确推理[13]。
1.5. 跨模态原型查询与响应模块(Cross-Modal Prototype Query and Response Module)
在跨模态原型查询与响应模块中,我们旨在选择和利用最相关的原型,以生成更准确的回答。该过程通过跨模态原型矩阵来促进模态间的信息流动,并将原型信息嵌入单一模态特征中,从而增强模型性能。这一方法不仅有助于缓解数据偏差问题,还能提升跨模态交互能力。首先,我们计算问题特征
与原型矩阵中每个原型的余弦相似度,以衡量它们的相关性:
(20)
其中,
表示问题特征
与第k个原型
之间的相似度,
代表L2范数。基于余弦相似度得分,我们选取相似度最高的前M个原型,并将其表示为
。为了动态调整每个原型对问题的贡献,我们采用Softmax函数对这些相似度得分进行归一化,生成原型的权重
:
(21)
其中,
代表第i个选定原型的权重。Softmax归一化保证了所有权重的总和为1,从而突出最相关的原型。随后,我们将选定的原型输入全连接(Fully Connected, FC)层,以生成融合后的原型向量:
(22)
其中,FC代表全连接层操作,
为融合后的原型向量。最终的响应向量通过原型向量与权重
进行加权求和计算得到:
(23)
其中,
为最终的响应向量,
代表第i个原型经过线性变换后的向量。最终,
进一步与单模态特征融合,形成丰富的跨模态表征,使模型能够更准确地进行预测。通过权重
的动态调整,该模块能够有效优化原型贡献,从而提升多模态信息的整合能力,减轻数据偏差问题,提高视觉问答任务的表现。
1.6. 答案生成模块
在答案生成模块中,我们首先将生成的响应向量
和问题特征
共同输入基于马氏距离的改进多标签对比损失函数,以计算损失并优化模型。在保证计算效率的同时,我们选取初始得分最高的500个候选答案,以平衡计算资源与答案空间的复杂性。实验结果表明,这一阈值能够涵盖大部分正确答案,而不会显著影响模型性能。优化的损失函数定义如下:
(24)
其中,
代表样本i的多标签真实值,
为响应向量与问题特征的内积,
为sigmoid激活函数。接下来,我们计算每个候选答案的概率分布:
(25)
其中,
表示第j个候选答案的概率。最终,我们选择概率最高的候选答案作为最终答案输出。这一方法确保了计算资源聚焦于最相关的候选答案,同时通过马氏距离优化损失函数,从而提升预测的准确性。在零样本视觉问任务中,传统的对比损失函数面临诸多挑战。由于这些方法主要针对单标签任务设计,难以处理高维视觉特征和文本特征之间复杂的多标签关系[14]。此外,传统方法依赖精确的模态对齐,在涉及未见类别时表现不佳,且在捕捉深层跨模态交互方面存在局限性。为了解决这些问题,我们提出了一种基于马氏距离的多标签对比损失。该方法利用协方差矩阵建模跨模态的语义依赖关系,以更精准地捕获模态间的深层次特征交互。对于正样本(共享标签的样本对),损失函数最小化马氏距离,以增强其特征表示的相似性:
(26)
其中,
和
为样本特征表示,S为协方差矩阵。对于负样本(无共享标签的样本对),引入间隔参数m确保特征表示具有足够的区分度:
(27)
最终损失函数结合正负样本的损失项:
(28)
其中,
和
控制正负损失的相对权重。相比于基于欧几里得距离的方法,该方法能够更有效地建模高维特征空间中的复杂类别关系,从而提高零样本视觉问答任务的泛化能力。马氏距离的引入使得模型能够学习到更丰富的跨模态特征表达,尤其适用于零样本视觉问答任务中的未见类别问题[15]。
2. 实验结果与分析
在本节中,我们围绕TZSL和GZSL两种设置开展了系统实验,重点分析了模型在F-VQA和ZS-F-VQA数据集上的性能表现,以全面评估其在零样本视觉问答任务中的适应性与有效性。首先,通过与当前主流方法的对比实验,验证了所提框架在多个评估指标上的领先优势。其次,开展消融实验,系统评估各关键组件对整体性能的影响,凸显模块设计的合理性与必要性。最后,结合典型案例的可视化分析,从直观层面展示模型在泛化能力和语义对齐方面的优势。
2.1. 定量结果与分析
如表1实验结果所示,我们的框架在多个基准方法(包括HieQ + I、MLP、Up-Down、SAN、Hie-Q + I + Pre和BAN)上均取得了显著优势。具体而言,我们的方法在HIT@K指标上全面超越现有方法,在HIT@1达到60.43%,HIT@3达到81.69%,HIT@10进一步提升至89.96%,这表明我们的模型能够有效提取有意义的表示,以实现精准的视觉问答任务。
Table 1. Overall performance on the standard F-VQA dataset (TOP-500), reported as Hit@K percentages. † indicates that the model employs a mapping-based configuration, where the answer prediction is performed by directly computing the similarity between the fused feature representation and candidate answers, rather than using a traditional classifier layer (%)
表1. 以标准F-VQA数据集(TOP-500)上的整体性能,以Hit@K百分比的形式报告。†表示该模型采用的是基于映射(mapping-based)的配置方式,其中答案的预测是通过直接计算融合特征表示与候选答案之间的相似度来完成的,而不是使用传统的分类器层(%)
Method |
HIT@1 |
HIT@3 |
HIT@10 |
MRR |
MR |
Hie-Q+I |
33.70 |
50.00 |
64.08 |
- |
- |
MLP |
34.12 |
52.26 |
69.11 |
- |
- |
Up-Down |
34.81 |
50.13 |
64.08 |
- |
- |
Up-Down † |
40.91 |
57.47 |
72.74 |
- |
- |
SAN |
41.69 |
58.17 |
72.69 |
- |
- |
Hie-Q+I+Pre |
43.14 |
59.92 |
71.34 |
- |
- |
BAN |
44.02 |
58.29 |
70.66 |
- |
- |
BAN† |
45.95 |
63.36 |
78.12 |
- |
- |
MLP† |
47.55 |
66.76 |
81.55 |
- |
- |
SAN† |
49.27 |
67.30 |
81.79 |
0.605 |
14.75 |
Ours |
60.43 |
81.69 |
89.96 |
0.708 |
12.74 |
进一步地,如表2所示,我们在ZS-F-VQA数据集的GZSL (广义零样本学习)和TZSL (传统零样本学习)设定下,我们的模型在所有指标上均取得最高分数,特别是在HIT@K和MRR (平均倒数排名)指标上相较于基线方法有显著提升。这些结果表明,我们的方法在零样本视觉问答任务中具有优越的泛化能力,能够更有效地适应未见类别的推理需求。
Table 2. Overall results on the ZS-F-VQA dataset under TZSL/GZSL settings
表2. 在TZSL/GZSL设定下ZS-F-VQA数据集(%)上的整体实验结果表
Method |
GZSL |
TZSL |
|
HIT@1 |
HIT@5 |
HIT@10 |
MRR |
MR |
HIT@1 |
HIT@5 |
HIT@10 |
MRR |
MR |
Up-Down † |
0.00 |
2.67 |
16.48 |
- |
- |
13.88 |
25.87 |
45.15 |
- |
- |
BAN† |
0.22 |
4.18 |
18.55 |
- |
- |
13.14 |
26.92 |
46.90 |
- |
- |
MLP† |
0.07 |
4.07 |
27.40 |
- |
- |
18.14 |
37.85 |
59.88 |
- |
- |
SAN† |
0.11 |
6.27 |
31.66 |
0.093 |
48.18 |
20.41 |
37.20 |
62.24 |
0.38 |
19.14 |
Ours |
34.45 |
57.68 |
77.81 |
0.378 |
16.16 |
38.94 |
73.87 |
88.60 |
0.48 |
6.05 |
在ImNet-A和ImNet-O数据集上的评估进一步验证了我们模型的强大性能。如表3和表4所示,在ImNet-A数据集中,我们的模型在HIT@1和HIT@5上分别达到了66.93%和88.94%,展现出其在识别正确答案上的精准性和鲁棒性。同时,模型在MRR (均值倒数排名)上达到了0.87,MR (平均排名)为22.54,反映了其在排序相关答案方面的高效性,进一步凸显了模型在跨模态交互理解中的优势。在ImNet-O数据集上,类似的性能优势同样明显,HIT@1达到53.21%,并在HIT@3和HIT@10维度上保持稳定提升。
Table 3. Overall results on ImNet-A dataset (%)
表3. ImNet-A数据集上的整体(%)实验结果表
Method |
HIT@1 |
HIT@3 |
HIT@10 |
MRR |
MR |
DGP |
45.30 |
56.20 |
70.50 |
0.64 |
36.97 |
KG-GAN |
51.47 |
59.52 |
71.20 |
0.52 |
29.98 |
Ours |
66.93 |
75.82 |
88.94 |
0.87 |
22.54 |
Table 4. Overall results on ImNet-O dataset (%)
表4. ImNet-O数据集上的整体(%)实验结果表
Method |
HIT@1 |
HIT@3 |
HIT@10 |
MRR |
MR |
DGP |
41.50 |
52.30 |
66.20 |
0.59 |
47.93 |
KG-GAN |
44.92 |
57.13 |
68.50 |
0.48 |
33.56 |
Ours |
53.21 |
68.90 |
82.05 |
0.71 |
29.55 |
这些实验结果表明,我们的跨模态原型学习框架和基于马氏距离优化的方法在零样本VQA任务中至关重要。通过高效融合视觉和文本模态,我们的模型能够在未见场景中实现高效泛化,在答案预测的鲁棒性和精确排名方面树立了新标杆。
2.2. 消融研究
在消融实验中,我们以完整模型框架作为基线,评估了不同组件对整体性能的贡献。如表5所示,用OpenCLIP替换标准特征提取器显著提高了图像和文本的特征提取能力,而当去除OpenCLIP时,HIT@1下降至44.76%。此外,去除聚类方法导致HIT@10急剧下降至68.33%,表明该方法在增强类别区分能力方面具有关键作用。同样,移除基于马氏距离的损失函数使得HIT@1降至44.24%,HIT@10降至70.99%,强调了该损失在泛化至未见类别时的重要性。最终,当所有核心组件都被去除时,HIT@1下降至21.04%,这凸显了聚类机制、马氏损失和高级特征提取的协同作用对于零样本VQA任务的至关重要性。
Table 5. Ablation results (%) evaluating the impact of different answer embedding methods on model performance on the standard F-VQA dataset (TOP-500)
表5. 不同答案嵌入方式对标准F-VQA数据集(TOP-500)上模型性能消融研究(%)实验结果表
Method |
HIT@1 |
HIT@3 |
HIT@10 |
Ours (w/o OPENCLIP) |
44.76 |
46.09 |
60.80 |
Ours (w/o MAHA) |
44.24 |
66.74 |
70.99 |
Ours (w/o clustering) |
40.82 |
55.78 |
68.33 |
Ours (w/o all) |
21.04 |
27.82 |
30.67 |
1) 聚类后的原型影响分析
如实验结果如图2所示,每个聚类点对应一个特定类别(如“狗”、“猫”),每个类别的中心(黑色小圆点)表示该类别的原型。这些原型在零样本场景下尤为关键,因为它们能够作为该类别典型特征的泛化表示。原型周围数据点的分布展示了该类别的多样性,而数据点与原型的接近程度表明了模型在捕获类别核心特征方面的能力。ProMahaVQA利用原型来动态适应新数据,而无需进行大规模的额外训练,从而提高泛化性,尤其是在零样本任务中的表现。
Figure 2. Cross-modal feature clustering and prototype representation
图2. 跨模态特征聚类与原型表示
2) 支持实体与关系的重要性
支持实体和关系的数量显著影响了模型的性能,特别是在零样本学习环境下。支持实体提供来自外部知识库的重要背景信息,帮助模型建立视觉内容与文本问题之间的联系;而关系则表示这些实体之间的语义关联,对VQA任务的推理至关重要。如实验结果如图3所示,适量增加支持实体能够提供更丰富的上下文信息,提高模型处理复杂问题的能力。然而,过多的支持实体可能会引入噪声,导致性能下降或稳定在一定水平。同样,适量增加关系数量有助于提升模型的推理能力,但过多的关系会降低模型的聚焦能力,增加不必要的复杂度。因此,在支持实体和关系数量之间取得平衡至关重要。
Figure 3. Impact of support entity and relation across HIT@K metrics
图3. 支持实体与关系数量对各项HIT@K指标的影响
3) 马氏距离的影响
如实验结果如图4所示,马氏距离缩放因子(Scaling Factor)在决定模型泛化能力和类别区分能力方面起着关键作用,尤其是在零样本学习场景下。具体而言,该因子与对比损失中的参数
和
相关:
(29)
实验结果显示,适当调整缩放因子可显著改善模型性能。例如,当缩放因子设为2.0时,模型的HIT@1达到34.0%,HIT@3提升至57.6%,HIT@10最高达到77.8%,表明此时模型在类别区分与泛化能力之间达到了最佳平衡。然而,当缩放因子超过2.0后,模型的性能开始下降,表明过大的缩放因子可能会导致模型对类别间微小差异过于敏感,从而影响泛化能力。
Figure 4. Impact of Mahalanobis distance on model performance across HIT@K metrics
图4. 马氏距离对模型在各项HIT@K指标上性能的影响
4) 原型数量、特征维度和聚类距离的影响
如实验结果如图5所示,随着原型数量和特征维度的增加,模型性能显著提升,特别是在较高维度(如2560维)时,表明更丰富的原型表征有助于更精确地捕获类别内和类别间的差异,提高泛化能力。然而,当原型数量超过一定阈值时,性能提升趋于平稳,表明增加更多原型已无法进一步提升模型的区分能力。此外,合理的聚类距离对于保持模型的类内一致性和类间可分性至关重要,过少的聚类数可能导致类别区分不清,而过多的聚类数则会引入噪声,导致过拟合。因此,合理调整聚类参数能够有效提升跨模态相似性建模能力,使模型在零样本VQA任务中表现更优。
Figure 5. Impact of prototype number, prototype feature dimensions, and clustering distance on model performance across HIT@K metrics
图5. 原型数量、原型特征维度及聚类距离对模型在各项HIT@K指标上性能的影响
5) 跨模态相似度阈值的影响
如实验结果如图6所示,跨模态相似度阈值直接影响图像–文本匹配和答案预测的准确性。适当提高相似度阈值可以提升模型的区分能力,使其更有效地筛选出相关的图像–文本对。然而,阈值过高会导致匹配标准过于严格,可能错过部分相关对,影响模型性能。实验结果表明,适中的相似度阈值能够实现最佳平衡,在HIT@1、HIT@3和HIT@10方面取得指标上取得最优平衡,显著提升模型的推理准确率与泛化能力。
Figure 6. Impact of cross-modal similarity threshold on model performance across HIT@K metrics
图6. 跨模态相似度阈值对模型在各项HIT@K指标上性能的影响
2.3. 可视化对比分析
本研究针对GZSL (广义零样本学习)和ZSL (零样本学习)场景进行了案例分析,进一步验证了ProMahaVQA模型在复杂环境下的表现。如实验结果如图7所示,实验涵盖多种问题类型,包括科技物品识别、类别分类和功能推理(如“这张图片中哪种水果是柑橘类?”或“我们可以用图片中的球拍做什么?”)。结果表明,在ZSL场景下,ProMahaVQA能够准确识别未见类别。例如,在水果类别相关的问题中,模型不仅正确预测出“柠檬”(标准答案),还合理地将“橙子”和“葡萄柚”等相似类别作为备选答案。在GZSL场景下,模型能够有效平衡已见与未见类别,避免对已见类别的偏向。例如,在“图片中哪个物体属于建筑类别?”的问题中,模型准确输出“建筑”并给出合理候选项。相比之下,传统的SAN†模型表现出较明显的已见类别偏好。例如,在“什么是科技物品?”的问题中,SAN†更倾向于预测“笔记本电脑”和“平板电脑”,而未能识别出图像中的关键物体“手机”。同样,在功能推理问题“我们可以用图片中的球拍做什么?”中,SAN†给出的答案如“练习体育运动”过于笼统,难以与标准答案对齐。ProMahaVQA通过引入跨模态原型学习与马氏距离优化,在识别未见类别方面展现出更强的表现,显著提升了答案排序的准确性。在ZSL和GZSL两类任务中均能稳定对齐标准答案,充分体现了其在跨模态语义融合与零样本推理方面的优势。
Figure 7. Cases under GZSLVQA (Up) and generalized VQA (Down) setting
图7. GZSL视觉问答(上)与广义视觉问答(下)设定下的案例展示
3. 总结
本章围绕零样本视觉问答中的核心挑战,提出并系统论证了基于原型学习与马氏距离对比损失优化的ProMahaVQA模型。首先,从现有方法的不足出发,明确指出传统VQA模型在泛化能力、语义对齐及多标签处理方面的局限。随后,详细介绍了ProMahaVQA的整体架构,包括跨模态原型矩阵构建、查询响应机制以及马氏距离驱动的多标签对比学习策略,展示了其在未见类别识别和跨模态特征对齐方面的优势。在实验部分,本文在多个主流零样本VQA数据集(F-VQA、ZS-F-VQA、ImNet-A、ImNet-O)上进行了系统的定量评估与对比实验,结果显示本模型在HIT@K、MRR和MR等指标上均显著优于现有方法。通过消融实验验证了各模块在性能提升中的关键作用,并进一步通过案例可视化分析,展示了模型在ZSL与GZSL场景下的推理能力和语义泛化能力。综上所述,ProMahaVQA有效缓解了零样本VQA中存在的类别偏差、模态不对齐与泛化能力弱等问题,为多模态推理任务提供了更具适应性与解释性的解决方案。下一章将继续扩展该模型在医学VQA领域的应用,并探讨其在复杂场景下的可迁移性与实用价值。