1. 引言
2001年,Molodtsov [1]提出一种用于处理不确定性问题的参数化数学工具——软集。此后,为了适应不确定性数学问题中各种各样参数类型,相关研究领域的学者提出了很多软集的拓展理论:Maji [2] [3]将模糊集、直觉模糊集分别和软集结合,提出了模糊软集、直觉模糊软集的概念。Feng F等[4]将粗糙集与软集理论结合,提出了粗糙软集的概念。Jiang Y等[5]将区间模糊集与软集理论相融合提出区间模糊软集等概念。此后,软集及其相关拓展模型的理论迅速发展,被广泛应用于经济、医学诊断、工程、人工智能等复杂学科下的不确定性问题[6]-[9]。软集及其拓展模型中,直觉模糊软集以其结合了直觉模糊集和软集的优势,能够更好地处理复杂、不确定和模糊的信息的特点,吸引了众多学者对其进行研究。
直觉模糊软集描述不确定性问题时,不仅能考虑到问题中出现的参数,还能表示论域中对象符合参数描述和不符合参数描述的程度。直觉模糊软集的这种特性,使得其能够更细腻地描述决策对象的模糊性和不确定性,从而帮助决策者做出更加准确和合理的选择,因此直觉模糊软集在模糊决策问题中发挥着重要作用。例如,在购房问题中,可以利用直觉模糊软集对房子的各种属性,如美观、绿化、价格等进行模糊评估,并通过运算得到最优选择。在医疗诊断上,通过构建基于直觉模糊软集的医学诊断模型,可以对患者的症状、体征等数据进行模糊处理和分析,从而得到更加准确的诊断结果。基于此,一些学者做了如下的具体工作:Feng F等[10]进一步推广直觉模糊软集的概念,并研究其在多属性决策中的应用。刘雅雅等[11]利用直觉模糊软集的相似测度、距离测度和熵测度,将其应用于决策问题。Zhang Z M [12]利用粗糙集理论,提出了一种基于直觉模糊软集的决策问题的新方法。Zhao H等[13]提出了基于犹豫度函数、得分函数、精确度函数的直觉模糊软集决策算法。Muthukumar [14]等提出了一种新的直觉模糊软集相似度量和加权相似性度量,并在医疗诊断问题验证其有效性。
这些决策方法都有一个共同的问题:在同样的决策方法下,直觉模糊软集的运算相较于其他环境下的运算复杂很多。Maji提出直觉模糊软集之后,后续做了许多关于直觉模糊软集的工作,研究了直觉模糊软集上的运算以及算子[15] [16]。在Maji提出的这些算子里,正规化算子与可能性算子作用在直觉模糊软集上,得到模糊软集。本文将这个算子进行改进后用于直觉模糊软集环境下的决策问题,在保留直觉模糊软集的描述对象的优势的同时,简化决策过程中的运算。此外,本文的结构如下:与本文所讨论问题相关的基本定义在第二节中给出。第三节讨论了直觉模糊软集上的正规化算子的缺陷,提出新型的正规化算子并讨论算子的性质。在第四节的第一部分中,利用模糊软集的相似度度量,对两个不同的正规化算子进行了性能分析。在第二部分中,借助一个医疗诊断中的例子,说明新提出的模糊决策方法的有效性。最后,第五部分给出了结论。
2. 预备知识
在接下来的定义中,我们用U表示论域,x表示U上的元素,E表示参数组成的集合,A,B是E上的子集合。
定义1 [2] 一个序对
称为U上的模糊软集,其中F是定义如下的映射
。
这里
是U上全体模糊集组成的集合,U上的一个模糊软集也可以看作论域U上的模糊集按属性组成的集簇。
定义2 [3] 一个序对
称为U上的直觉模糊软集,其中
是定义如下的映射
。
实际上,论域U上的一个直觉模糊软集是论域U上的直觉模糊集按属性组成的集簇。我们称
为U上全体直觉模糊软集组成的集合。
定义3 [3] 对于U上的两个直觉模糊软集
和
,称
是
上的一个直觉模糊软子集,记为
,如果
,且对于
,
,存在:
1)
;
2)
。
定义4 [3] 论域U上的直觉模糊软集
的补集表示
,且定义为
,其中
,即
,
:
1)
;
2)
。
定义5 [3] 论域U上的直觉模糊软集
的相对补集表示为
,且定义为
,其中
,即
,
:
1)
;
2)
。
定义6 [3] 论域U的两个直觉模糊软集
和
,“
且
”表示为
,定义为
,其中
,
:
1)
;
2)
。
定义7 [3] 论域U上的两个直觉模糊软集
和
,“
或
”表示为
,定义为
,其中
,
:
1)
;
2)
。
在下文中,为了方便表述直觉模糊软集
,我们直接用属性集E来代替
对于
,那么隶属函数就等于
,若
,那么隶属函数
,那么就直接记作
。
定理1 [17] 设
、
是U上的两个直觉模糊软集,那么有
1)
;
2)
。
Maji在提出直觉模糊软集之后,给出了很多相应的算子,并且研究其性质,在这里,我们关注的是如下两个算子。
定义7 [16] 设
是U上的直觉模糊软集,我们称
是直觉模糊软集
上的正规化算子,其中
。
这里
是对象x关于属性e的隶属函数值,
是如下映射
。
定义8 [16] 设
是U上的直觉模糊软集,我们称
是直觉模糊软集
上的可能性算子,其中
。
3. 直觉模糊软集上的新型正规化运算
根据上面的定义7与定义8,可以看出直觉模糊软集的正规化是利用隶属函数来构造非隶属函数,这样直觉模糊软集转化成一般的模糊软集,但是这种正规化忽略了犹豫度在直觉模糊集中的作用。在现实生活中,一个对象拥有该属性的犹豫度,有可能是偏向于支持的,不过支持的程度不足以直接转化成隶属函数值,同样的道理,有些犹豫度是偏向于反对的,不过反对的程度不足以直接转化成非隶属函数值。于是我们可以考虑在进行直觉模糊集的正规化时,利用一个参数来表示犹豫度的偏好。根据上述理由,对正规化运算的形式作以下基本规定:
1) 设定的正规化运算适用于直觉模糊集。
2) 能保持模糊软集在正规化运算下的一致性。
3) 两个直觉模糊软集满足
,正规化之后仍满足该大小关系。
为了解决正规化算子存在的问题,本文将对Maji提出的正规化算子进行如下拓展。
3.1. α-正规化算子及犹豫度偏好参数定义
定义9 设论域
,参数集
。
是U上的一个直觉模糊软集,
,我们称
是直觉模糊软集
上的
-正规化,记作
其中
,
,称
为犹豫度偏好参数。
根据直觉模糊软集的定义,对于
上的任意
,
,
,有
那么
,
,且
。因此上述定义是合理的。
当
时,代表犹豫度更加偏向于支持,值越大表示偏向支持的程度越高;
时,代表犹豫度更加偏向于反对,值越小表示偏向反对程度越高;
时,代表犹豫度是绝对中立的。不难看出,
中的隶属函数与非隶属函数的和总为1,
上的
-正规化实际上是一个模糊软集,可以表示为模糊软集:
。
对于论域上的直觉模糊软集做正规化运算:定义7相当于
时
-正规化的结果;定义8相当于
时
-正规化的结果;因此改进后的正规化算子是Maji提出的算子的拓展,且Maji正规化定义是
-正规化定义下的两种极端情况。
这里对
的取值做几点说明:
1) 在具体的模糊决策问题中,直觉模糊软集
-正规化的
值有两种确定方法:
i) 若无历史最佳案例参考,无决策模型评价标准,
值的确定可能依赖于直觉模糊软集特性和决策者、专家的偏好。
ii) 若有最佳参考案例,或者有可评价决策模型的标准,可通过分析这些案例来确定
值。具体来说,通过给定
值所在的一个有限值集,寻找集合中与最佳历史参考案例最相近的元素,或是使得模型在评价标准中表现最好的元素作为正规化使用的
。
第一种确定方法见下文例1,第二种确定方法见第3章应用部分。
2) 正规化运算是作用在直觉模糊软集上的,当直觉模糊软集的属性集中只有一个属性时,其退化成直觉模糊集,那么此时只需取一个犹豫度偏好参数。所以正规化运算是适用于直觉模糊集的。
3) 对于两个互为相对补集的直觉模糊软集,由于直觉模糊软集之间的关系,属性集一致,隶属度函数与非隶属度函数值相反,那么此时犹豫度偏好参数也应该互为“补”,即
,以此来保证犹豫度偏好是一致的。
例1 假设M小姐正考虑购房问题,在考虑范围内的一共有5套房子,即论域U中有5个元素,记为
。其中,房子的属性为“美丽的”、“现代的”、“木制的”、“水泥的”、“便宜的”、“贵的”。为了方便,记为
。设
是M小姐比较关心的属性集合。我们用直觉模糊软集
来表示现在考虑房子对M小姐的吸引力。
当该问题没有可以参考的历史案例时,根据该问题的特性与M小姐的偏好,任取犹豫度偏好参数取
时,计算过程如下:
按上述计算方式,即可得直觉模糊软集
正规化运算之后的结果。
3.2. α-正规化算子的性质
定理2 设
是U上的直觉模糊软集
的正规化,则有
1)
;
2)
。
证明:在以下证明中,为了方便表达,用
来表示对应的
。
记
,第一次正规化后的结果为
,那么根据正规化算子的性质有
,
。
记第二次正规化后的结果为
,则:
两个模糊软集对应的隶属函数相等,即
。
记
的补集为
,根据前面的说明(3),这里的犹豫度偏好参数取
,则正规化之后得
。第一次正规化后的结果为
。
那么
。
综上所述:
。
定理3 设
分别是U上的直觉模糊软集
,
的正规化,且
,两个犹豫度偏好参数都取
时,有
证明:设
,
,正规化之后,对应的模糊软集可以直接用其隶属函数来表示,记为
,
。
则
;
。
由
,可得
,
。
即
,那么
;
。
记
,
,根据直觉模糊软集交并集的定义,易得
,
,那么
,
。
综上
;
。
4. 直觉模糊软集的正规化运算在模糊决策中的应用
本节将给出直觉模糊软集正规化运算在决策问题中使用的方法。我们从第2节的结果可以看到,直觉模糊软集在正规化运算之后会得到一个模糊软集,模糊软集的相似度通常基于模糊数的距离测度,如Hamming距离、Euclidean距离等来计算。计算过程涉及对每个参数上的模糊数进行距离计算,并综合所有参数的结果得到最终的相似度。直觉模糊软集的相似度计算通常更加复杂,因为它需要考虑隶属度和非隶属度两个方面的信息。现有的研究方法包括基于期望偏好的相似性度量、基于直觉梯形模糊数的相似度模型等。这些方法通常涉及更复杂的数学运算和更高的计算成本。
模糊软集和直觉模糊软集在空间复杂度上的差异主要取决于它们所表示的信息量和数据结构的复杂性。一般来说,直觉模糊软集由于包含更多的信息(隶属度和非隶属度),可能需要更多的存储空间来保存这些信息。综上,我们可以将直觉模糊软集进行正规化运算之后,再利用模糊软集的相似度,来解决相应的决策问题,就能在保留直觉模糊软集部分信息的同时降低相似度计算的复杂度。
4.1. 模糊软集、直觉模糊软集的相似度
首先,文献[11]中给出了几种新的具有相同参数集的模糊软集之间相似度的形式,定义如下:
定义10 [11] 设
、
是U上的两个模糊软集。对于
,若至少存在一个
或
成立,那么一系列相似性度量可以定义如下:
其中:
若其中
,并且
,对于所有的
成立,那么
。
文献[11]中就几种特殊情况进行了比较,其中第4个相似性度量的性质最好,因此,我们在下面的例子中使用第4个相似性度量。
下面是文献[14]中讨论的直觉模糊软集上的相似度形式。
定义11 [14] 设
、
是U上的两个直觉模糊软集,则
与
的相似度记为
,定义为:
定义12 [14] 设参数集为
,
是属性
的权重,且满足
,
,
。对于U上的直觉模糊软集
、
,它们之间的加权相似度计算公式如下:
4.2. 正规化算子在相似度度量决策模型下的性能及误差表现
文献[14]中给出了直觉模糊软集的相似性在决策问题中的性能表现及误差的衡量方法。为了说明
-正规化算子的优势,我们在3个直觉模糊软集
,
,
上进行正规化运算,利用模糊软集的相似度计算公式计算两两之间的相似度,最后衡量对应的表现能力和误差。
对于用来计算直觉模糊软集相似度的方法M,设共有n个直觉模糊软集,
(
,且
)表示第i个直觉模糊软集与第j个直觉模糊软集的组合,
表示组合
的相似度,
表示
中的最大值,其性能度量与误差[14]分别定义为:
例3 设
,
,考虑3个直觉模糊软集
,
,
,其直觉模糊软矩阵如下:
分别计算
的相似度。为了分析的全面性,
按0.1的步长,从0取到1共11个值,分别记为
。在这里为了比较
取不同值下,
-正规化算子的表现,选择相同的相似度计算公式,所以
对应模式
。
用下面的两个指标来衡量正规化运算的表现:
是指在
-正规化下,直觉模糊软集的相似度计算模式
的性能表现,
是指模式
产生的误差。
Table 1. The similarity between
,
,
and the value of
with different
-normalization
表1. 正规化后
、
、
两两之间的相似度及不同
下的
的值
|
|
|
|
|
|
|
|
|
|
|
|
|
0.786 |
0.795 |
0.803 |
0.812 |
0.816 |
0.818 |
0.819 |
0.821 |
0.818 |
0.811 |
0.804 |
|
0.555 |
0.594 |
0.630 |
0.701 |
0.698 |
0.729 |
0.748 |
0.764 |
0.778 |
0.789 |
0.798 |
|
0.549 |
0.595 |
0.638 |
0.702 |
0.708 |
0.735 |
0.759 |
0.781 |
0.795 |
0.804 |
0.811 |
|
1.902 |
2.027 |
2.169 |
2.487 |
2.500 |
2.685 |
2.849 |
3.017 |
3.160 |
3.267 |
3.360 |
|
2.919 |
3.286 |
3.752 |
5.356 |
5.259 |
6.672 |
8.429 |
11.129 |
16.670 |
34.850 |
54.248 |
Figure 1. The similarity change trend of
under different
-normalization
图1. 不同
-正规化下
的相似度变化
Figure 2. The change trend of
and
of M under different
-normalization
图2. 不同
-正规化下相似度计算方法的
变化趋势
计算结果如表1所示。从表1我们可以看出,拓展后的
-正规化算子在模式M下的性能是会随着
值的变化而变化的,这一变化趋势在图1中更加明显。当
时,即利用Maji正规化进行计算时,模式的性能表现较差,误差较小;当
时,即利用Maji可能性算子进行计算时,模型的性能表现较好,但是误差出现剧烈增长。
-正规化算子则可以通过调节
的值,得到综合考虑下较优的结果。
由图2可以看出来,
在
处开始大幅度上升,而
在
之后保持较为平缓的上升趋势,所以选择
到
之间的值时,模式的综合效果更佳。
4.3. 应用
根据上文内容,
-正规化算子可以在保证直觉模糊软集表达能力的同时,降低计算的复杂度。因此,本文提出利用
-正规化算子来简化模糊决策问题中的计算,下面是医学诊断中使用模糊决策的例子。
例4 根据世界卫生组织的数据,有许多在世界范围内流行的疾病,肾脏疾病就是其中之一。慢性肾脏病是一种非常普遍的疾病,会导致患者的心血管疾病、其他疾病发病率甚至是死亡率都大幅增加。此外,肾脏疾病也会对身体的其他功能产生较大影响,例如冠状动脉、肥胖和类风湿。中国疾病预防控制中心周脉耕、南方医科大学南方医院侯凡凡等[18]在JAMA内科学子刊发表的第六次中国慢性病及危险因素监测结果显示:2018至2019年,估计我国8200万成年人有慢性肾脏病,但仅有10%的患者知晓患病情况;2017年,全球有120万人死于慢性肾脏病;1999年至2017年间,慢性肾脏病死亡率增加了41.4%。2017年,全球慢性肾病的患病率估计为9.1%,但用于估计患病率的数据质量因地区而异。
目前,仅有少数几个国家报告了针对全国代表性的样本进行大规模筛查后估计的慢性肾脏病患病率,范围为7.2%至13.4%,其中包括澳大利亚、美国、加拿大、韩国和中国。此前有一项针对中国47,204名参与者的调查显示,2009年慢性肾脏病患病率为10.8%。在过去十年中,中国正处于社会现代化、经济现代化的快速发展阶段,社会经济地位、医疗保健和环境的变化可能对中国慢性肾脏病的患病率产生了影响。对慢性肾脏病患病率的最新准确估计将有助于了解慢性肾脏病的疾病负担并改善慢性肾脏病的预防和管理。
文献[19]中详细讨论了一种针对慢性肾脏病患病的预估方法:主要是引入了模糊软专家系统,在得到患者数据组成的模糊软集之后,进行软参数约简完成数据处理,最后将数据导入关于预测是否患肾脏疾病的模型,从而得到最后的结果。在这里,我们在文献[19]给出的专业知识的基础上,给出一种新的预测方法的设想,利用直觉模糊软集正规化以及模糊软集的相似度解决这个问题,具体分为以下若干个步骤:
设
是从患者身上的注意到的医学指标的集合,这里主要是指与肾脏疾病有关的症状,其中
分别代表“肾单位功能”、“血糖”、“舒张压”、“收缩压”、“体重”、“年龄”、“饮酒量”。我们设
为参数集,用来表示症状状态的语言标签,在这里,我们用“轻度”、“中度”、“重度”这样的语言标签来描述病人对应症状可能出现的状态。可以通过专业医生的帮助建立患有肾脏疾病的模型,得到模型的各种指标数据进行建模。
Step 1:获取一组患者有关上述症状的实值数据;
Step 2:对所得数据集进行分类,将患者的数据按照语言标签,使用隶属函数和非隶属函数两个方向进行描述;
Step 3:每一个患者的数据集按照症状分类,将数据从直觉模糊集转换为直觉模糊软集;
Step 4:根据患者的语言标签来确定犹豫度偏好参数,根据犹豫度偏好参数将直觉模糊软集进行正规化运算;
Step 5:根据医生的建议,得到一个患有目标病症的典例模型具有的数据;
Step 6:将患者的症状与模型的症状进行比较,以获得两者之间的相似性度量;
Step 7:根据医生的建议,获取相似度阈值,超过这个阈值的患者有很大概率患有慢性肾病,没有超过这个阈值的患者则未患慢性肾病。
我们用
来表示典型例子所对应的直觉模糊软集。通过适当的语言标签,可以容易的将已经观察过的患者概况用直觉模糊软集描述出来。
由于目前并没有公开的直觉模糊软集数据的资源,因此为了数据的规范性,本文使用文献[14]中的数据来进行计算。为了方便表示,这里选取参数集中的3个参数作为示例,进行下面的计算。下表2中是假设的
五位患者及典例模型的隶属函数和非隶属函数,如下:
Table 2. Data sets of patients and typical models
表2. 患者及典例模型的数据集
|
|
|
|
|
|
|
|
|
|
|
(0.6, 0.2) |
(0.4, 0.5) |
(0.8, 0.1) |
(0.5, 0.3) |
(0.7, 0.1) |
(0.6, 0.3) |
(0.8, 0.2) |
(0.6, 0.0) |
(0.9, 0.0) |
|
(0.5, 0.3) |
(0.7, 0.0) |
(0.6, 0.3) |
(0.6, 0.2) |
(0.4, 0.0) |
(0.5, 0.1) |
(0.9, 0.0) |
(0.5, 0.1) |
(0.8, 0.0) |
|
(0.2, 0.4) |
(0.6, 0.2) |
(0.5, 0.1) |
(0.3, 0.2) |
(0.7, 0.1) |
(0.4, 0.4) |
(0.2, 0.0) |
(0.5, 0.0) |
(0.1, 0.8) |
|
(0.5, 0.4) |
(0.5, 0.0) |
(0.3, 0.6) |
(0.1, 0.8) |
(0.3, 0.0) |
(0.6, 0.2) |
(0.3, 0.5) |
(0.0, 0.2) |
(0.2, 0.4) |
|
(0.3, 0.5) |
(0.6, 0.0) |
(0.2, 0.6) |
(0.4, 0.5) |
(0.2, 0.4) |
(0.5, 0.0) |
(0.3, 0.1) |
(0.4, 0.0) |
(0.2, 0.6) |
|
(0.5, 0.0) |
(0.4, 0.0) |
(0.6, 0.2) |
(0.0, 0.2) |
(0.3, 0.0) |
(0.4, 0.0) |
(0.1, 0.5) |
(0.2, 0.0) |
(0.3, 0.4) |
|
(0.4, 0.4) |
(0.6, 0.2) |
(0.5, 0.1) |
(0.3, 0.2) |
(0.7, 0.1) |
(0.5, 0.4) |
(0.2, 0.0) |
(0.5, 0.0) |
(0.1, 0.8) |
|
(0.3, 0.0) |
(0.7, 0.1) |
(0.6, 0.2) |
(0.5, 0.1) |
(0.9, 0.0) |
(0.7, 0.0) |
(0.6, 0.3) |
(0.7, 0.1) |
(0.7, 0.2) |
|
(0.8, 0.1) |
(0.9, 0.0) |
(0.5, 0.3) |
(0.7, 0.2) |
(0.9, 0.0) |
(0.9, 0.1) |
(0.5, 0.2) |
(0.8, 0.0) |
(0.6, 0.1) |
|
(0.5, 0.0) |
(0.8, 0.2) |
(0.3, 0.0) |
(0.4, 0.1) |
(0.7, 0.0) |
(0.8, 0.1) |
(0.0, 0.8) |
(0.4, 0.3) |
(0.0, 0.7) |
|
(0.7, 0.2) |
(0.4, 0.5) |
(0.6, 0.1) |
(0.5, 0.3) |
(0.7, 0.1) |
(0.6, 0.0) |
(0.8, 0.2) |
(0.6, 0.0) |
(0.9, 0.0) |
|
(0.4, 0.3) |
(0.7, 0.0) |
(0.6, 0.3) |
(0.6, 0.2) |
(0.4, 0.0) |
(0.5, 0.1) |
(0.7, 0.2) |
(0.5, 0.1) |
(0.8, 0.0) |
|
(0.6, 0.4) |
(0.5, 0.0) |
(0.5, 0.1) |
(0.3, 0.2) |
(0.5, 0.1) |
(0.4, 0.4) |
(0.2, 0.0) |
(0.5, 0.0) |
(0.1, 0.8) |
|
(0.5, 0.3) |
(0.6, 0.0) |
(0.4, 0.3) |
(0.5, 0.4) |
(0.3, 0.2) |
(0.2, 0.1) |
(0.5, 0.0) |
(0.4, 0.0) |
(0.2, 0.5) |
|
(0.0, 0.5) |
(0.4, 0.3) |
(0.5, 0.2) |
(0.4, 0.1) |
(0.3, 0.2) |
(0.4, 0.1) |
(0.3, 0.1) |
(0.4, 0.3) |
(0.3, 0.5) |
|
(0.4, 0.0) |
(0.2, 0.3) |
(0.0, 0.2) |
(0.0, 0.3) |
(0.5, 0.2) |
(0.4, 0.3) |
(0.5, 0.3) |
(0.2, 0.3) |
(0.4, 0.4) |
接下来计算相似度,按照上面相似度的计算公式,设置
的值在
按步长0.01递增,共61个值。在表3中,随机选择
这三个数据,将对应的结果展示如下,最后一行的数据是文献[14]中使用直觉模糊软集相似度计算公式得到的结果。根据表中的数据,发现进行正规化运算之后的计算相似度所得结果相比于直觉模糊软集,数值范围变小,数据更加稳定。
在计算相似度的过程中,犹豫度的大小会影响正规化的计算结果,使得犹豫度大的直觉模糊软集得到的结果更加的准确。这里的“准确”是因为犹豫度大表示数据在这一对应概念下难以判断对应的语言标签,那我们根据犹豫度偏好指数,从这一决策事实整体出发,对这样的数据进行“修正”得到的结果就会更准确,更贴合整个数据集的变化趋势。
Table 3. The similarity calculation results of two different modes
表3. 两种不同模式的相似度计算方法结果
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0.82 |
0.66 |
0.54 |
0.56 |
0.66 |
0.69 |
0.80 |
0.74 |
0.60 |
0.95 |
0.82 |
0.67 |
0.67 |
0.65 |
0.63 |
|
0.83 |
0.73 |
0.59 |
0.61 |
0.72 |
0.75 |
0.82 |
0.77 |
0.64 |
0.95 |
0.84 |
0.73 |
0.74 |
0.70 |
0.71 |
|
0.83 |
0.78 |
0.64 |
0.65 |
0.77 |
0.78 |
0.81 |
0.81 |
0.68 |
0.96 |
0.84 |
0.76 |
0.76 |
0.74 |
0.77 |
|
0.81 |
0.47 |
0.39 |
0.40 |
0.42 |
0.51 |
0.73 |
0.73 |
0.45 |
0.93 |
0.80 |
0.47 |
0.51 |
0.48 |
0.46 |
若将不同的
值对应的相似度计算看作是不同的相似度模型,那么我们可以依据文[14]给出的相似度模型的度量方式来分析结果,分析结果见表4。这里
是指文献[14]中直觉模糊软集上直接计算相似度的方法,最后一列则是在前面实验中,
正规化得到的误差度量的均值,这些相似度计算方法的误差度量都是在统一数据集下进行的。
Table 4. Comparison of the errors between the similarity calculation method based on intuitionistic fuzzy soft sets in [14] and the similarity calculation method after α-normalization
表4. 文献14中直觉模糊软集上的相似度计算方法与α-正规化后计算相似度的误差比较
|
|
|
|
|
|
|
|
|
|
|
-正规化 |
|
3.066 |
2.534 |
2.772 |
2.572 |
2.956 |
2.578 |
2.933 |
3.696 |
4.127 |
2.388 |
1.215 |
从相似度模型的误差和性能来看,随着
取值变大,性能与误差也逐步上升,因此可以使用多目标优化方法来帮助我们选择合适的
值。值得注意的是,使用正规化方法简化后的相似度计算方法的误差要小于直接计算直觉模糊软集的相似度的误差。在医疗诊断问题中,类似决策模型这种算法只能起到辅助作用,尽可能挑选出患病风险较高的患者,再利用成本更高的医疗手段进行下一步的诊断,就要求模型要控制住误差,在误差值和性能值之间衡量。根据不同疾病对于模型预测的要求不同,调整
或者误差值和性能值两者的权重,就能够得到更符合要求的结果。
5. 结论与展望
本文主要提出直觉模糊软集上的一种新的运算,这种运算是针对Maji正规化运算的改进。这种运算通过隶属函数和非隶属函数相互作用得到一个新的隶属函数,并且使得结果中的非隶属函数与隶属函数相加为1,将直觉模糊软集转化为模糊软集。本文考虑到实际应用中犹豫度的特性,提出了犹豫度偏好参数的概念,并且探讨了使用犹豫度偏好参数的正规化运算具有的性质。针对正规化运算的这种调整,使得正规化运算的结果可以进行参数调节,更加灵活的处理不确定性问题。最后,本文给出了直觉模糊软集正规化运算在医疗诊断中的应用,给出了一种新的处理直觉模糊软集决策问题的思路,并且通过例子说明了这种思路的可行性。针对直觉模糊软集中元素的犹豫度对上述决策算法的影响,本文中只做了大致的阐述,后续将针对这个问题进行更深入的探讨与分析。
基金项目
国家自然科学基金(12301595, 62106206)。
NOTES
*通讯作者。