多任务高斯过程回归的模型平均
Model Averaging for Multi-Task Gaussian Process Regression
摘要: 模型平均因其稳健性好、预测精度高等优点在当代统计学和计量经济学界有广泛应用。多任务高斯过程回归同时考虑了输入变量之间和输出变量之间的相关性,能够得到更为准确的预测值。考虑到输出之间的相关性,本文先构建多任务高斯过程回归模型(MGPR),再进行模型平均及选择;不考虑输出之间的相关性时,分别构建单任务高斯过程回归(GPR),再进行模型平均及选择。数值模拟结果表明,输出噪声为同方差时,MGPR的模型平均比GPR具有更小的损失风险,且MGPR的计算效率相对较高。输出噪声同方差时,采用中国少数民族地区城市化率、非农业人口比例及受教育年限的实际数据;输出噪声异方差时,采用苄醇转化率和转频率的实际数据,均表明MGPR的模型平均具有更小的损失风险。
Abstract: Model averaging, owing to its advantages of robustness and high predictive accuracy, finds exten-sive application in contemporary statistics and econometrics. Multi-task Gaussian process regres-sion, considering both the interdependencies among input variables and the correlations among output variables, enables more precise predictions. Taking into account the inter-output correla-tions, this paper constructs a Multi-Task Gaussian Process Regression model (MGPR) followed by model averaging and selection. Conversely, when disregarding inter-output correlations, single-task Gaussian Process Regression (GPR) models are individually constructed, followed by the same pro-cess of model averaging and selection. Numerical simulation results demonstrate that when the output noise exhibits homoscedastic variance, MGPR’s model averaging exhibits lower loss risk compared to GPR, with relatively higher computational efficiency. For the case of homoscedastic output noise, actual data on urbanization rates in China’s ethnic minority regions, non- agricultural population ratios, and years of education are employed. In the case of heteroscedastic output noise, real data on benzyl alcohol conversion rates and turnover frequencies are utilized, both indicating that MGPR’s model averaging yields lower loss risk.
文章引用:魏馨忆, 邹晨晨. 多任务高斯过程回归的模型平均[J]. 应用数学进展, 2023, 12(11): 4874-4883. https://doi.org/10.12677/AAM.2023.1211480

1. 引言

多任务高斯过程能够处理多个相关输出变量,提高模型的灵活性和准确性。其通过协方差函数描述输出间的相关性,并共享相关性结构来获取信息。然而,单一的多任务高斯过程模型无法覆盖所有数据特征,因此引入模型平均方法可以减少模型的不确定性,提高预测性能。模型平均方法通过组合多个基本模型,综合优点并改善预测稳定性。这种方法在多个领域得到广泛应用,为解决复杂问题提供了强大而可靠的工具。

当前学术研究主要集中在贝叶斯模型平均和频率模型平均这两个方向。Zhang J.和Taflanidis A. A. [1] 提出一种高效的BMA克里金回归模型,通过将全局趋势的回归与提供局部校正的高斯过程近似相结合来制定预测。除了贝叶斯模型平均,学术界还关注了频率模型平均方法。权重计算准则是频率模型平均方法的关键问题。Wang Miaomiao等人 [2] 提到基于AIC和BIC的平滑AIC (S-AIC)和平滑BIC (S-BIC)准则,通过极小化这些信息准则来确定权重。Priyam Mitra等人 [3] 在没有对候选模型集设置限制的情况下建立了通用的频率模型平均框架,并通过最小化均方误差来获得自适应权重。Zhongqi Liang等人 [4] 提到通过极小化Mallows准则来确定模型平均的权重。并证明在宽松条件下,利用最小化Mallows准则所确定的权重具有渐近最优性。Shaobo Jin和Sebastian Ankargren [5] 将FMA方法应用于连续数据的结构方程模型,并提出了有效的置信区间和 χ 2 检验统计量。Carroll R.等人 [6] 提出简约模型平均法,将权重1分配给误差最小的准确模型,使其他准确模型的权重为0。Zhang X.等人 [7] 探讨MMA和JMA方法对参数模型平均估计的分布特性。

多任务高斯过程在统计学和概率论中占据重要地位。Zexun Chen等人 [8] 提供了对多任务高斯过程的精确定义,并介绍了其基本属性。Chen Z.等人 [9] 介绍多任务高斯过程的关键属性,如平稳性和独立性。多任务高斯过程近几年在各个领域应用逐渐广泛,并在多个方面不断改进,以提高预测精度。Xiaodan Hong等人 [10] 通过多任务高斯过程回归和依赖性多任务高斯过程回归,考虑了相关噪声的影响并提升了建模性能。R. Kontar等人 [11] 提出了一种可扩展和正则化的方法,以减小多任务高斯过程中的负迁移。J. Zapata等人 [12] 通过引入部分可分性概念和函数图模型,实现了对多任务高斯过程的建模。Rong Zhu等人 [13] 在本文中提及了如何在多个相关因变量的情况下,用模型平均与选择的方法对建立的模型提高预测精度。Zexun Chen等人 [14] 提及高斯过程中如何设置超参数。Pengfei Wei等人 [15] 在结构系统可靠性的研究中,基于多任务输出高斯过程的主动学习来提高系统可靠性。ChenZ等人 [16] 提出MV-TPR,并与MV-GPR作比较,证明在所考虑的数据集上的MV-TPR的有效性。MickaB等人 [17] 提出在高斯过程中用潜在变量解决异方差问题,并运用大量实例证明自己的方法最优。Hansen等人 [18] 提出JMA方法,通过删除一个样本的交叉验证法最小化误差向量。Tang Qinghu等人 [19] 设计了两个输出任务相关的试验。

本文的其余部分结构如下:在第2节中,我们介绍多任务高斯过程回归模型、核、超参数以及五种模型选择及模型平均方法;在第3节中,通过数值模拟构建MGPR及GPR,并分别进行模型平均及选择,最后将以上方法运用到第六次人口普查中部分地区数据及苄醇转化率和转频率的统计研究中;第4节是对文章的总结和讨论。

本文在以上文献的基础上,考虑现实情况中多个输出任务具有相关性,将模型平均引入多任务高斯过程回归中,这是本文的创新点。

2. 多任务高斯过程及相关介绍

2.1. 多任务高斯过程模型

如果f是X上的多任务高斯过程,具有向量型均值函数 μ : X R d ,协方差函数(也称为核) k : X × X R 且半正定参数矩阵 Ω R d × d ,那么 f ~ M G P ( μ , k , Ω ) 。并且在此文中,考虑将噪声项包含在核函数内的模型。

给定n对样本观测值 { ( x i , y i ) } i = 1 n , x i R p , y i R 1 × d ,我们假设模型为:

f ~ M G P ( μ , k ' , Ω ) (1)

y i = f ( x i ) , i = 1 , , n (2)

其中 k ' = k ( x i , x j ) + δ i j σ n 2 ,且当 i = j 时, δ i j = 1 ,否则 δ i j = 0 ,上式中的第二项代表的是随机噪声项。

X = [ x n + 1 , , x n + m ] T 处的预测变量为 f = [ f 1 , , f m ] T ,训练集 Y = [ y 1 T , , y n T ] T 和预测变量 f 的联合分为

[ Y f ] ~ M G P ( 0 , [ K ' ( X , X ) K ' ( X , X ) K ' ( X , X ) K ' ( X , X ) ] , Ω ) (3)

其中 K ' ( X , X ) 是一个 n × n 矩阵,第 ( i , j ) 个元素是 K ' ( X , X ) i j = k ' ( x i , x j ) ,且 K ' ( X , X ) m × n 矩阵,第 ( i , j ) 个元素是 K ' ( X , X ) i j = k ' ( x n + i , x j ) K ' ( X , X ) m × m 矩阵,第 ( i , j ) 个元素是 K ' ( X , X ) i j = k ' ( x n + i , x n + j ) 。因此,根据多任务高斯过程的条件分布,其预测分布为 p ( f | X , Y , X ) ~ M G P ( μ ^ , Σ ^ , Ω ^ ) ,其中

μ ^ = K ' ( X , X ) T K ' ( X , X ) 1 Y (4)

Σ ^ = K ' ( X , X ) K ' ( X , X ) T K ' ( X , X ) 1 K ' ( X , X ) (5)

Ω ^ = Ω (6)

此外,期望和协方差如下所示:

E | f | = μ ^ = K ' ( X , X ) T K ' ( X , X ) 1 Y (7)

c o v ( v e c ( f T ) ) = Σ ^ Ω ^ = [ K ' ( X , X ) K ' ( X , X ) T K ' ( X , X ) 1 ] Ω (8)

2.2. 核介绍

上述回归模型中有两个协方差阵,列协方差阵k与行协方差阵 Ω ,但只有列协方差取决于输入,并且被视为内核,因为它包含有关我们希望学习和定义数据点之间接近度和相似性的函数的假设,行协方差阵取决于输出,构建多任务高斯过程回归,既要考虑到列协方差在又要考虑到行协方差阵。与传统GPR一样,核的选择对多任务高斯过程回归的性能有深远的影响。现有方法中已经提出了许多有用的核,如线性核、有理二次核和matern。内核还可以通过ARD定义:

k S E a r d = s f 2 exp ( ( x x ' ) T Θ 1 ( x x ' ) 2 ) (9)

其中 s f 2 指的是信号方差,也可以认为是输出尺度的振幅, Θ 是一个对角矩阵,具有组成元素为 { l i 2 } i = 1 p ,它表示每个相应输入维度的长度尺度,参数 l i 是第i个输入的尺度。

2.3. 超参数介绍

参数估计需要从训练数据中估计核所涉及的超参数和行协方差矩阵。传统GP模型中使用的许多方法,例如最大似然估计(MLE)、最大后验(MAP)和马尔可夫链蒙特卡罗(MCMC),可用于我们提出的模型。尽管蒙特卡罗方法可以执行GPR,而不需要估计超参数,但由于蒙特卡罗方法的计算成本较高,常用的方法是通过MLE来估计它们。因此,我们考虑使用MLE进行参数估计。与传统的GPR模型相比,行协方差阵 Ω 是一个额外的参数。因此,未知参数包括核中的参数,噪声方差 σ n 2 及行协方差参数矩阵 Ω

因为 Ω 是半正定矩阵,可以被分解为 Ω = Φ Φ T ,其中

Φ = [ ϕ 11 0 0 ϕ 21 ϕ 22 0 ϕ d 1 ϕ d 2 ϕ d d ] (10)

为了保证 Φ 的唯一性,对角元素被限制为正,且令 φ i i = ln ( ϕ i i ) i = 1 , 2 , , d

在MV-GPR模型中, Y ~ M G P ( 0 , K ' , Ω ) ,其中 K ' 是带有噪声项的列协方差矩阵,有 K ' i j = k ' ( x i , x j ) ,即为 K ' = K + σ n 2 I ,其中K是不带噪声项的列协方差阵,有 K i j = k ( x i , x j ) 。内核中的参数表示为 K = K θ ,超参数集为 Θ = { θ 1 , θ 2 , } ,因此,

K ' σ n 2 = I n , K ' θ i = K θ i (11)

其似然函数可表示为 L = n d 2 ln ( 2 π ) + d 2 ln det ( K ' ) + n 2 ln det ( Ω ) + 1 2 t r ( ( K ' ) 1 Y Ω 1 Y T )

利用似然函数对超参数进行估计有:

L σ n 2 = d 2 t r ( ( K ' ) 1 ) 1 2 t r ( α K ' Ω 1 α K ' T ) (12)

L θ i = d 2 t r ( ( K ' ) 1 K θ θ i ) 1 2 t r ( α K ' Ω 1 α K ' T K θ θ i ) (13)

L ϕ i j = n 2 t r [ Ω 1 ( E i j Φ T + Φ E j i ) ] 1 2 t r ( α Ω ( K ' ) 1 α Ω T ( E i j Φ T + Φ E j i ) ) (14)

L φ i i = n 2 t r [ Ω 1 ( J i i Φ T + Φ J i i ) ] 1 2 t r ( α Ω ( K ' ) 1 α Ω T ( J i i Φ T + Φ J i i ) ) (15)

其中 α K ' = ( K ' ) 1 Y α Ω = Ω 1 Y T E i j d × d 单位阵, J i i E i j 形式相同,但对角线上元素为 e φ i i 。因此,采用共轭梯度法用来最小化负对数似然函数,得到参数估计。且由于随机噪声被纳入核函数,噪声方差与其他超参数一起估计。

2.4. 模型选择及模型平均方法

实际情况中,输入变量之间及输出变量之间存在相关性。考虑输出任务之间不存在相关性时,构建GPR的模型平均;考虑输出任务之间的相关性时,构建MGPR的模型平均,我们想得到哪种模型的计算效率及预测准确率较高,故我们将这两种模型进行比较。

线性回归模型中应用较多的是以下几种传统的模型选择和模型平均的方法,本文为了研究分析各种模型平均及选择方法在MGPR及GPR下的预测结果,考虑了以下模型选择及模型平均方法:

AICc: A I C m = n log ( σ m 2 ) + 2 n ( k m + p + 1 ) / ( n k m p 2 ) (16)

其中 σ m 2 = 1 n ( Y F m β ^ m ) C ^ 1 ( Y F m β ^ m ) ,P为与自相关函数相关的参数个数,C为单任务输出或者多任务输出时的协方差矩阵。具有最小AICc值挑选出来作为最优模型。

(2) w m = exp ( A I C m / 2 ) / i = 1 M exp ( A I C i / 2 ) ,其中 A I C m = n log ( σ ^ m 2 ) + 2 ( k m + p + 1 ) (17)

(3) w m = exp ( B I C m / 2 ) / i = 1 M exp ( B I C i / 2 ) ,其中 B I C m = n log ( σ ^ m 2 ) + log ( n ) ( k m + p + 1 ) (18)

(4) MMA:采用同方差线性回归模型提出的模型平均方法。MMA方法通过极小化Mallows准则得到权重:

w = arg min C n ( w ) (19)

C n ( w ) = A ( w ) y 2 + 2 σ 2 t r ( P ( w ) ) (20)

其中 A k = I k P k A ( w ) = i = 1 k w i A i P k = X k ( X k X k ) 1 X k 为模型k的投影矩阵。

(5) MMMA:

w = arg min C n ( w ) (21)

C n ( w ) = { V e c ( Y ) V e c ( μ ^ ( w ) ) } C ^ 1 { V e c ( Y ) V e c ( μ ^ ( w ) ) } (22)

其中 C ^ 1 指的是多个任务构建多任务高斯过程回归得到的列协方差矩阵。

(6) JMA:在异方差情形下提出的模型平均方法。

w = arg min C V n ( w ) (23)

(24)

u ˜ ( w ) = m = 1 M w m u ˜ m e ^ m = y u ^ m e ˜ = ( e ˜ 1 , e ˜ 2 , , e ˜ M ) ,令 P m = x m ( ( x m ) x m ) 1 ( x m ) h i i m = x i m ( ( x m ) x m ) 1 ( x i m ) P m 中的第i个对角元素,令对角矩阵 D m = ( 1 h i i m ) 1 ,可得 e ˜ m = D m e ^ m 。其中, u ˜ m = ( u ˜ 1 m , u ˜ 2 m , , u ˜ n m ) u ˜ i m 是从样本中删除第i组观测值 ( x i , y i ) 用最小二乘估计得到的 u ^ m 估计值,有 u ^ m = P m y

(7) MT-JMA:将JMA扩展到多任务上的模型平均方法:

w = arg min C n ( w ) (25)

C n ( w ) = { V e c ( Y ) V e c ( u ˜ ( w ) ) } C ^ 1 { V e c ( Y ) V e c ( u ˜ ( w ) ) } (26)

其中 C ^ 1 同MMMA方法指代的一样。 u ˜ ( w ) 为JMA方法计算步骤相同所得到的估计值。

为了评估估计量,我们计算损失风险:

R i s k = 1 n ( y y ^ ) 2 (27)

其中y是真实值, y ^ 是多任务高斯过程回归得到的候选模型进行模型平均及模型选择后的预测值。

3. 数值模拟

输出噪声同方差时,考虑输出间的相关性,即采用MGPR,通过数值模拟比较函数在aicc、MMMA、S-AIC、S-BIC这四种方法下的损失风险。在不考虑输出间的相关性时,分别构建GPR时,通过数值模拟比较函数在aicc、MMA、S-AIC、S-BIC这四种方法下的损失风险。并将MGPR与GPR的进行不同模型平均及选择方法后得到的损失风险进行比较。

3.1. 参数设置

输出噪声同方差时,为了衡量多任务与单任务在预测值精度这个方面的性能,我们考虑如下的一个已知函数模型。这个已知函数模型是定义在12维(p = 12)的输入空间[0,1]12上的,模型中的前六个变量 x 1 , x 2 , , x 6 对计算机试验输出结果的影响逐渐减弱,后六个变量的系数为零,即后六个变量为与输出没有相关性的变量。真模型表达成以下形式:

y i ( x ) = 0.4 x 1 + 0.3 x 2 + 0.2 x 3 + 0.1 x 4 + 0.05 x 5 + 0.01 x 6 + ε i ( x ) , i = 1 , 2 (28)

其中 [ ε ( 1 ) , ε ( 2 ) ] ~ M G P ( 0 , k S E , Ω ) k S E 中的超参数为:

[ l i , s f 2 ] = [ 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 1.001 , 0.1 ] .

Ω = ( 1 0.25 0.25 1 ) ,响应值y1、y2分别通过上式产生。在Matlab中,通过拉丁超立方抽样生成维数p = 12,样本量分别为N = 120,140,160,180的样本X,我们假设候选模型是嵌套的。即第m个模型包含前m个回归项。

使用损失风险来衡量多任务高斯过程模型平均后的平均模型对于随机产生的测试集G的预测精度,损失风险越小,预测精度越高。测试集G是使用计算机产生的1000个样本点。重复500次实验,计算平均的Risk。Risk越小时,我们认为MGPR进行模型平均比单个任务的GPR进行模型平均更有优势。

3.2. 试验结果

使用aicc、MMMA、MMA、S-AIC、S-BIC方法进行分析,仿真结果见表1~4:

Table 1. Risk of model averaging and selection (×10)

表1. 模型平均及选择的损失风险(×10)

Table 2. Risk of model averaging and selection (×10)

表2. 模型平均及选择的损失风险(×10)

Table 3. Risk of model averaging and selection (×10)

表3. 模型平均及选择的损失风险(×10)

Table 4. Risk of model averaging and selection (×10)

表4. 模型平均及选择的损失风险(×10)

(1) 将MGPR与GPR分别进行模型平均及模型选择,可以得到结论:不论样本量大小是多少,在两种情况中都能够进行比较的模型平均方法中,多个任务同时输出的表现要优于单个任务分别输出。因此可以得知,在已经考虑到输入变量之间的相关性的前提下,再考虑输出之间相关性时,可以提高预测结果的准确性。

(2) 由上述所有表可以得出,先构建MGPR,再进行模型选择及模型平均得到的Risk中,大部分情况下,S-AIC与S-BIC的损失风险十分接近。

(3) 在两个任务分别构建GPR后,再进行模型选择及模型平均得到的结果中,可以得出MMA方法的表现要差于其他模型平均方法,这是因为MMA方法未考虑输入变量之间的相关性,而其他模型平均方法考虑到输入变量间的相关性,这表明,考虑输入变量之间的相关性可以降低预测的损失风险。

3.3. 时间比较

本节在不同样本量下,分别将两个任务构建MGPR及GPR,将得到的候选模型采用上述提到的五种模型选择及模型平均方法,同时输出两个任务的预测风险,对以上过程重复500次,得到两个过程所耗费的时间。将以上不同情况的耗费时间进行比较,得到结果见表5

Table 5. Time spent (minute)

表5. 耗费时间(分)

表5可知,在不同样本量及不同模型平均及选择的算法下,构建MGPR所耗费的时间比构建GPR所耗费的时间要短。因此,结合上一节结论可知,在多个输出具有相关性的前提下,选择MGPR构建模型,并进行模型平均,可以降低损失风险,提高预测精度。

3.4. 实证分析

3.4.1. 输出噪声同方差

本节采用噪声同方差下提及的模型选择及模型平均方法,分析中国77个少数民族地区的数据,收集2010年中国第六次全国人口普查的数据。我们将城市化率、非农业人口占比以及受教育年限视为三个输出变量,我们考虑了6个与输出变量相关的输入变量:少数民族人口占比、城市和农村收入比的比例、固定资产人均投资、人均GDP、第二产业增加值占比和第三产业增加值占比。

我们考虑嵌套候选模型,总共6个候选模型。为了比较上述提到的模型选择及平均方法的性能,我们使用任何 T 个种族少数区域数据来进行模型建立,其中T = 50。然后,我们通过77-T个民族少数地区数据来预测风险。这个过程完成N = 500次,我们计算模型选择及平均方法的损失风险。结果见表6

Table 6. Risk of model averaging and selection

表6. 模型平均及选择的损失风险

表6可得出,构建MGPR后进行模型平均或选择得到的预测精度总体上要优于GPR,表明在多个任务同时输出的情况中,既考虑输入变量间的相关性又考虑输出变量间的相关性可以降低损失风险。

在该实例中,构建MGPR后,采用MMMA方法得到的损失风险总体程度上比S-AIC、S-BIC方法得到的损失风险要低。而构建GPR得到的结果中,总体上是MMA方法的损失风险要高于其他模型平均方法,表明输出为单个任务时,考虑输入变量之间的相关性可以降低损失风险。

3.4.2. 输出噪声异方差

采用上述提及的噪声异方差下的模型选择及模型平均方法,对本节使用的数据进行分析。本节数据来源于文献 [19] ,共38个样本。通过实验研究了5个工艺因素(反应温度、氧气分压、苯甲醇浓度(以10 ml甲苯稀释的mmol为单位)、Mn的百分比和K:Mn的比)在苄醇转化率和转频率(TOF)内稀释的影响。苄醇转化率和TOF被视为过程响应变量。需要注意的是,苄醇转化率和TOF高度相关(相关系数0.65),即可以使用MGPR。

我们考虑嵌套候选模型,总共5个候选模型。为了比较上述提到的模型选择及平均方法的性能,我们使用27个样本数据来进行模型建立,使用剩余的11个数据进行预测。这个过程完成500次,我们计算模型选择及平均方法的损失风险。结果见表7

Table 7. Risk of model averaging and selection

表7. 模型平均及选择的损失风险

表7可得,大多数情况下,采用的模型平均方法,总体上是MGPR得到的预测风险要低于GPR且在单个任务构建GPR时,可以得出JMA方法优于MMA方法,与上述数值模拟结论一致。

4. 总结和讨论

在本文中,考虑到现实情况大多数为多个相关的输出变量,可以构建MGPR,并将不同的候选模型进行模型选择及平均,然后将不同任务分别构建GPR,同样将候选模型进行模型选择及模型平均,将二者得到的损失风险进行比较。数值结果表明,均值函数为线性时,噪声同方差时,构建多任务高斯过程回归模型后,再进行模型平均的损失风险要低于多个任务分别进行高斯过程回归后模型平均的损失风险;而对于模型选择方法,MGPR与GPR没有明显的优势。对于GPR建模来讲,MMA方法表现较差,表明在输出任务之间存在相关性时,采用MGPR建模后进行模型平均得到的损失风险更低,预测结果更优。

NOTES

*通讯作者。

参考文献

[1] Zhang, J. and Taflanidis, A.A. (2019) Bayesian Model Averaging for Kriging Regression Structure Selection. Probabil-istic Engineering Mechanics, 56, 58-70.
https://doi.org/10.1016/j.probengmech.2019.02.002
[2] Wang, M.M., Zhang, X.Y., Wan, A.T.K. and Zou, G.H. (2019) On the Asymptotic Distribution of Model Averaging Based on Infor-mation Criterion. Statistics.
https://doi.org/10.48550/arXiv.1910.12208
[3] Priyam, M., Heng, L, Ritwik, M., Hua, L. and Minge, X. (2019) Ageneral Framework for Frequentist Model Averaging. Science China Mathematics, 62, 205-226.
https://doi.org/10.48550/arXiv.1802.03511
[4] Liang, Z.Q., Chen, X.L. and Zhou, Y.Q. (2022) Mal-lows Model Averaging Estimation for Linear Regression Model with Right Censored Data. Acta Mathematicae Applica-tae Sinica, English Series, 38, 5-23.
https://doi.org/10.1007/s10255-022-1054-z
[5] Jin, S.B. and Ankargren, S. (2019) Frequentist Model Averaging in Structural Equation Modelling. Psychometrika Society, 84, 84-104.
https://doi.org/10.1007/s11336-018-9624-y
[6] Carroll, R., Zhang, X., Zou, G. and Liang, H. (2020) Parsimoni-ous Model Averaging with a Diverging Number of Parameters. Journal of the American Statistical Association, 115, 126-143.
https://doi.org/10.1080/01621459.2019.1604363
[7] Zhang, X. and Liu, C.A. (2019) Inference after Model Av-eraging in Linear Regression Models. Econometric Theory, 35, 816-841.
https://doi.org/10.1017/S0266466618000269
[8] Chen, Z., Fan, J. and Wang, K. (2023) Multivariate Gaussian Processes: Definitions, Examples and Applications. Metron, 81, 181-191.
https://doi.org/10.1007/s40300-023-00238-3
[9] Chen, Z., Fan, J. and Wang, K. (2020) Remarks on Multivariate Gaussian Process.
https://doi.org/10.48550/arXiv.2010.09830
[10] Hong, X., Huang, B., Ding, Y., Guo, F., Chen, L. and Ren, L. (2017) Multi-Model Multivariate Gaussian Process Modelling with Correlated Noises. Journal of Process Control, 58, 11-12.
https://doi.org/10.1016/j.jprocont.2017.08.004
[11] Kontar, R., Raskutti, G. and Zhou, S. (2021) Minimizing Nega-tive Transfer of Knowledge in Multivariate Gaussian Processes: A Scalable and Regularized Approach. Transactions on Pattern Analysis and Machine Intelligence, 43, 3508-3522.
https://10.1109/TPAMI.2020.2987482
[12] Zapata, J., Oh, S.Y. and Petersen, A. (2022) Partial Separability and Functional Graphical Models for Multivariate Gaussian Pro-cesses. Biometrika, 109, 665-681.
https://doi.org/10.1093/biomet/asab046
[13] Zhu, R., Zou, G. and Zhang, X. (2018) Model Averaging for Multivariate Multiple Regression Models. Statistics, 52, 205-227.
https://doi.org/10.1080/02331888.2017.1367794
[14] Chen, Z. and Wang, B. (2018) How Priors of Initial Hy-perparameters Affect Gaussian Process Regression Models. Neurocomputing, 275, 1702-1710.
https://doi.org/10.48550/arXiv.1605.07906
[15] Wei, P., Liu, F. and Tang, C. (2018) Reliability and Reliabil-ity-Based Importance Analysis of Structural Systems Using Multiple Response Gaussian Process Model. Reliability En-gineering & System Safety, 175, 183-195.
https://doi.org/10.1016/j.ress.2018.03.013
[16] Chen, Z., Wang, B. and Gorban, A.N. (2020) Multivariate Gaussi-an and Student-t Process Regression for Multi-Output Prediction. Neural Computing and Applications, 32, 3005-3028.
https://doi.org/10.1007/s00521-019-04687-8
[17] Binois, M., Robert, B.G. and Mike, L. (2018) Practical Het-eroskedastic Gaussian Process Modeling for Large Simulation Experiments. Journal of Computational and Graphical Statistics, 27, 808-821.
https://doi.org/10.48550/arXiv.1611.05902
[18] Hansen, B.E. and Jeffrey, S.R. (2012) Jackknife Model Averaging. Journal of Econometrics, 167, 38-46.
https://doi.org/10.1016/j.jeconom.2011.06.019
[19] Tang, Q., Chen, Y., Zhou, C., Chen, T. and Yang, Y. (2009) Statistical Modelling and Analysis of the Aerobic Oxidation of Benzyl Alcohol over K-Mn/C Catalysts. Catalysis Letters, 128, 210-220.
https://doi.org/10.1007/s10562-008-9740-x