一类矩阵方程最小二乘问题及其在跨语言情感分类中的应用
The Least Squares Problem for a Kind of Matrix Equation and Its Applications in Cross-Lingual Sentiment Classification
摘要: 本文利用矩阵拉直算子、Moore-Penrose广义逆得到矩阵方程AXB = C极小范数最小二乘解的表达式,进一步得到矩阵方程AXB = C对称极小范数最小二乘解的表达式,最后讨论矩阵方程WX = Y在跨语言情感分类中的应用。
Abstract: This paper derives the expression of the linear least squares solution for the matrix equation AXB = C by using the matrix straightening operator and the Moore-Penrose generalized inverse, obtains the expression of the symmetric least squares solution for the matrix equation AXB = C with the least norm. Finally, the applications of the matrix equation WX = Y in cross-lingual sentiment classification are discussed.
文章引用:陈秋娟, 袁仕芳. 一类矩阵方程最小二乘问题及其在跨语言情感分类中的应用[J]. 理论数学, 2025, 15(8): 111-122. https://doi.org/10.12677/pm.2025.158226

1. 引言

随着电商平台的蓬勃发展,人们在使用电商平台的时候产生了大量的评论数据。这些评论数据包含了用户对该商品带有情感信息的评价,我们可以根据这些评论数据去评估这件商品的实际情况。这类评价数据对于研究文本情感分类有很大的帮助。

不同国家和地区的发展水平不平衡,导致了一些国家和地区的情感资源匮乏,从而产生了某些语言的情感资源缺少大量标注的问题。互联网用户所使用的语言是多样的,以及某些地区语言情感资源匮乏的原因,跨语言情感分类问题应运而生。跨语言情感分类顾名思义为利用源语言语料去训练分类器,利用训练好的分类器去对目标语言语料进行分类,从而实现利用源语言具有的丰富情感资源的特性帮助情感资源较少的目标语言做分类的目的。

近年来,跨语言情感分类技术和方法推陈出新,最小二乘法是很多算法的理论基础之一,并且最小二乘法还称为数理统计学之灵魂[1]。研究发现,源语言和目标语言之间的映射关系是解决跨语言情感分类问题的关键。Mikolov [2]和彭晓娅[3]通过线性变换,将英语和西班牙语的词向量对齐,形成一个跨语言的共享特征空间。并且源语言词向量和目标语言中对应的词向量可建立简单的线性对应关系:对源语言中任意给定的单词向量 x ,目标语言中对应的单词向量 y 存在一种简单线性关系 y=Wx 。它对应的最小二乘问题是求 W= W ,使得

min i=1 n W x i y i 2 2 = i=1 n W x i y i 2 2 , (1)

其中 x i 指源语言的第 i 个词向量, y i 指目标语言中对应的第 i 个词向量。

实际上该最小二乘问题还可以化为如下矩阵形式的最小二乘问题:求 W= W * ,使得

min WXY F 2 = W XY F 2 , (2)

其中矩阵 X=[ x 1 , x 2 ,, x n ] 是由 n 个源语言训练集词向量组成的矩阵,矩阵 Y=[ y 1 , y 2 ,, y n ] 是由 n 个对应目标语言训练集词向量组成的矩阵, F 是矩阵的Frobenius范数。待求矩阵 W 即是矩阵方程 WX=Y 的最小二乘解[4]

Xing [5]发现Mikolov [6]的回归映射方法存在一些问题,他们提出了对词向量进行归一化处理来解决距离定义计算不一致问题。故Xing将 WX=Y 方程中的映射矩阵 W 定义为正交映射矩阵。并且Smith [7]在理论上证明正交约束的可行性。与此同时,不少学者研究跨语言情感分类模型并提出了分类模型方法。其中,Faruqui [8]利用典型相关分析(CCA)方法实现。Artetxe [9]训练正交变换用迭代的方法实现。Hauer [10]利用自助法(Bootstrapping)迭代实现,Conneau [11]利用生成对抗网络实现。

较之矩阵方程 WX=Y 更一般的方程是

AXB=C (3)

其中 A R m×n ,B R n×s ,C R m×s ,X R n×n 。袁仕芳[12]利用矩阵的Kronecker积和Moore-Penrose广义逆研究矩阵方程 AXB+CYD=E 的对称极小范数最小二乘解。周立平[13]利用矩阵的奇异值分解,研究矩阵方程 AX=B 在加权范数下的对称最小二乘解。李永勤[14]利用矩阵对的商奇异值分解(QSVD),研究矩阵方程 AXB=C 的对称最小二乘解。Peng Z. Y. [15]通过迭代法求矩阵方程 AXB=C 的对称最小二乘解。Peng Z. Y. [16]提出两种新的矩阵形式迭代方法来求矩阵方程 AXB+CYD=E 的对称最小二乘解。Deng Y. B. [17]利用矩阵的商奇异值分解研究矩阵方程 BX A T =T 的对称最小二乘解。

本文在上述研究工作的基础上,利用矩阵拉直算子、Moore-Penrose广义逆得到矩阵方程 AXB=C 极小范数最小二乘解的表达式,进一步得到矩阵方程 AXB=C 对称极小范数最小二乘解的表达式,最后讨论矩阵方程 WX=Y 在跨语言情感分类中的应用。

为了方便起见,本文用 R m×n 表示 m×n 阶实矩阵的集合, SR n×n 表示全体 n 阶对称矩阵的集合, OR n×n 表示 n×n 阶正交矩阵的集合, A T A + 表示 A 的转置和Moore-Penrose广义逆。在实矩阵 A=( a ij ) 中, a ij = a ji ,称 A 为实对称矩阵。对 A,B R m×n ,定义 A B 的内积为 A,B =tr( B T A ) 。由此导出的矩阵 A 的Frobenius范数为 A = A,A

定义1.1. A ( a ij ) m×n ,记 a i =( a 1i , a 2i , a 3i ,, a mi ) ( i=1,2,3,,n ) ,令

vec( A )= ( a 1 , a 2 , a 3 ,, a n ) T . (4)

定义1.2. A= ( a ij ) n×n ,记, a 1 =( a 11 , a 21 , a 31 ,, a n1 ), a 2 =( a 22 , a 32 , a 42 ,, a n2 ),, a n1 =( a ( n1 )( n1 ) , a n( n1 ) ), a n = a nn .

定义

ve c s ( A )= ( a 1 , a 2 , a 3 ,, a n ) T R n( n+1 ) 2 . (5)

定义1.3. [18] x= ( x 1 , x 2 ,, x k ) T R k y= ( y 1 , y 2 ,, y k ) T R k A=( A 1 , A 2 ,, A k ), A i R m×n ,定义

( 1 )Ax= x 1 A 1 + x 2 A 2 ++ x k A k R m×n ; (6)

( 2 )A( ax+by )=a( Ax )+b( Ay ); (7)

( 3 ) M 1 R m×s , M 2 R m×t , M 3 R n×s , M 4 R n×t , x 1 , x 2 R,  (8)

[ M 1 M 2 M 3 M 4 ][ x 1 x 2 ]=[ ( M 1 , M 2 )[ x 1 x 2 ] ( M 3 , M 4 )[ x 1 x 2 ] ]; (9)

  [ M 1 0 0 M 4 ][ x 1 x 2 ]=[ M 1 x 1 M 4 x 2 ]. (10)

本文主要研究如下两个问题:

问题I 给定矩阵 A R m×n B R n×s C R m×s ,记

R L ={ X| X R n×n , AXBC F 2 = min X 0 R n×n A X 0 BC F 2 }, (11)

X R R L ,使得

X R = min X 0 R L X . (12)

问题II 给定矩阵 A R m×n B R n×s C R m×s ,记

S L ={ X| XS R n×n , AXBC F 2 = min X 0 S R n×n A X 0 BC F 2 }, (13)

X S S L ,使得

X S = min X 0 S L X . (14)

本文在第二节介绍若干个引理,在第三节利用相关结果推导出问题I和问题II解的表达式。最后在第四节讨论矩阵方程 WX=Y 在跨语言情感分类中的应用。

2. 几个引理

引理2.1. [19] A R m×n b R n ,则不相容线性方程组 Ax=b 的最小二乘解为

x= A + b+( I A + A )y, (15)

其中 y R n 为任意的。

引理2.2. [18] (i) 对 X R n×n ,则

X R n×n X= K n vec( X ) (16)

K n =[ E 11 , E 12 ,, E 1n , E 21 , E 22 ,, E 2n ,, E n1 , E n2 ,, E nn ] (17)

其中 K n R n× n 3

(ii) 对 X R n×n ,则

XS R n×n X= K s ve c s ( X ) (18)

K s =[ E 11 , E 21 + E 12 ,, E n1 + E 1n , E 22 , E 32 + E 23 ,, E n2 + E 2n ,, E ( n1 )( n1 ) , E n( n1 ) + E ( n1 )n , E nn ]. (19)

其中 K S R n× n 2 ( n+1 )/2

引理2.3. [18] 给定实矩阵 A 1 , A 2 , A 3 ,, A l R m×n B R m×n ,求 k= ( k 1 , k 2 , k 3 ,, k l ) T R l ,使得

k 1 A 1 + k 2 A 2 + k 3 A 3 ++ k l A l =B. (20)

如果矩阵方程(20)是相容的,则满足矩阵方程的向量 k 的集合是以下相容方程的解集合,

[ A 1 , A 1 A 1 , A 2 A 1 , A l A 2 , A 1 A 2 , A 2 A 2 , A l A l , A 1 A l , A 2 A l , A l ][ k 1 k 2 k l ]=[ A 1 , B 0 A 2 , B 0 A l , B 0 ]. (21)

如果矩阵方程(20)不相容,则有矩阵 A 1 , A 2 , A 3 ,, A l R m×n B R m×n ,求 k= ( k 1 , k 2 , k 3 ,, k l ) T R l ,使得

k 1 A 1 + k 2 A 2 + k 3 A 3 ++ k l A l B =min, (22)

则该问题的解集为相容方程(21)的解集。

3. 主要结论

设矩阵 A=( A 1 , A 2 ,, A n ) R m×n ,其中 A i R m 是矩阵 A 的第 i 列向量, B= ( B 1 T , B 2 T ,, B n T ) T R n×s ,其中 B j R s 是矩阵 B 的第 j 行向量, C R m×s . E ij =( e st ) R n×n ,其中

e st ={ 1, ( s,t )=( i,j ), 0,   ,

i,j=i:n. 可得

A E ij B= A i B j .

T=[ T 11 , T 11 T 11 , T 12 T 11 , T 1n T 11 , T nn T 12 , T 11 T 12 , T 12 T 12 , T 1n T 12 , T nn T nn , T 11 T nn , T 12 T nn , T 1n T nn , T nn ],e=[ T 11 ,C T 12 ,C T nn ,C ], (23)

其中 T ij = A i B j 。显然 T R n 2 × n 2 e R n 2

定理3.1. K n 如式(17)所示, T,e 如式(23)所示,则问题I的解集合

R L ={ X| X= K n [ T + e+( I T + T )y ],y R n 2 }. (24)

问题I存在唯一的极小范数最小二乘解

X= K n ( T + e ) (25)

证明 由引理2.2可得

AXBC F 2 = A[ K n vec( X ) ]BC F 2 = [ ( A K n )vec( X ) ]BC F 2 = ( A E 11 B,A E 12 B,,A E 1n B,,A E n1 B,A E n2 B,,A E nn B )vec( X )C F 2 = ( T 11 , T 12 ,, T 1n , T 21 , T 22 ,, T 2n ,, T n1 , T n2 ,, T nn )vec( X )C F 2 .

由引理2.1和2.3可得

vec( X )= T + e+( I T + T )y.

进一步可得式(25)。

由定理3.1和参考文献[18],我们现在求问题II的解。令

F=[ F 11 , F 11 F 11 , F n1 F 11 , F 22 F 11 , F n2 F 11 , F nn F 21 , F 11 F 21 , F n1 F 21 , F 22 F 21 , F n2 F 21 , F nn F n1 , F 11 F n1 , F n1 F n1 , F 22 F n1 , F n2 F n1 , F nn F n( n1 ) , F 11 F n( n1 ) , F n1 F n( n1 ) , F 22 F n( n1 ) , F n2 F n( n1 ) , F nn F nn , F 11 F nn , F n1 F nn , F 22 F nn , F n2 F nn , F nn ], (26)

f= [ F 11 ,C , F 21 ,C ,, F n1 ,C ,, F n( n1 ) ,C , F nn ,C ] T (27)

其中

F ij ={ A i B j , i=j, A i B j + A j B i , i>j.

显然 F R n( n+1 ) 2 × n( n+1 ) 2 f R n( n+1 ) 2

定理3.2. K s 如式(19)所示, F,f 如式(26) (27)所示,则问题II的解集合

S L ={ X| X= K s [ F + f+( I F + F )y ],y R n( n+1 ) 2 }. (28)

问题II存在唯一的极小范数最小二乘解

X= K s ( F + f ). (29)

考虑到矩阵方程 WX=Y 是矩阵方程 AXB=C 的特殊形式,我们分别利用定理3.1和定理3.2得到它的极小范数最小二乘解和对称极小范数最小二乘解的相关结论。设矩阵 X=( X 1 , X 2 ,, X n ) R n×s ,其中 X i R n 是矩阵 X 的第 i 列向量, Y= ( Y 1 T , Y 2 T ,, Y n T ) T R n×s ,其中 Y j R s 是矩阵 Y 的第 j 行向量。令

H=[ H 11 , H 11 H 11 , H 12 H 11 , H 1n H 11 , H nn H 12 , H 11 H 12 , H 12 H 12 , H 1n H 12 , H nn H nn , H 11 H nn , H 12 H nn , H 1n H nn , H nn ],g=[ H 11 ,Y H 12 ,Y H nn ,Y ], (30)

其中 H ij = E ij X. 显然 H R n 2 × n 2 g R n 2

推论3.1. K n 如式(17)所示, H,g 如式(30)所示,则矩阵方程 WX=Y 最小二乘问题

min W R n×n WXY (31)

解集合 R E 表示为

R E ={ W| W= K n [ H + g+( I H + H )y ],y R n 2 }, (32)

它的极小范数最小二乘解

W= K n ( H + g ). (33)

下面求矩阵方程 WX=Y 的对称极小范数最小二乘解,令

M=[ M 11 , M 11 M 11 , M n1 M 11 , M 22 M 11 , M n2 M 11 , M nn M 21 , M 11 M 21 , M n1 M 21 , M 22 M 21 , M n2 M 21 , M nn M n1 , M 11 M n1 , M n1 M n1 , M 22 M n1 , M n2 M n1 , M nn M n( n1 ) , M 11 M n( n1 ) , M n1 M n( n1 ) , M 22 M n( n1 ) , M n2 M n( n1 ) , M nn M nn , M 11 M nn , M n1 M nn , M 22 M nn , M n2 M nn , M nn ], (34)

h= [ M 11 ,Y , M 21 ,Y ,, M n1 ,Y ,, M n( n1 ) ,Y , M nn ,Y ] T (35)

其中

M ij ={ E ij X, i=j, ( E ij + E ji )X, i>j.

显然 M R n( n+1 ) 2 × n( n+1 ) 2 h R n( n+1 ) 2

推论3.2. K s 如式(19)所示, M,h 如式(34)和(35)所示,则矩阵方程 WX=Y 最小二乘问题

min WS R n×n WXY (36)

解集合 S E 表示为

S E ={ W| K s [ M + h+( I M + M )y ],y R n( n+1 ) 2 }, (37)

它的极小范数最小二乘解

W= K s ( M + h ). (38)

4. 应用

4.1. 实验设置

本文以英文为源语言,以中文为目标语言。操作系统是Windows11 64位,处理器是Inter Core i7-13620H,内存为16 GB。采用的编程语言为Python,编辑器为PyCharm。

4.2. 数据集

本文使用来自NLP&CC2013提供的跨语言情感分类评测任务数据集,该数据集取自亚马逊电商平台的中英文书籍、DVD以及音乐商品评论数据。该数据集每一类别中含有2000条正面评价和2000条负面评价,在实验中按照一定比例随机抽取文本数据作为训练集和测试集。数据量如下表1所示:

Table 1. Comment on the text dataset

1. 评论文本数据集

数据集

未标注数据集(篇)

标注数据集(篇)

英语

BOOK

——

4000

DVD

——

4000

MUSIC

——

4000

中文

BOOK

47071

4000

DVD

17814

4000

MUSIC

29677

4000

4.3. 实验过程

我们下面描述矩阵方程 WX=Y 的最小二乘解在跨语言情感分类中的应用。

算例I 极小范数最小二乘解在跨语言情感分类中的应用

第一步,数据预处理

提取文本数据,进行文本预处理操作,对所有文本做去特殊符号,去数字等预处理。对英文文本做大写字母转小写字母,nltk分词,对中文文本做jieba分词。利用Google Translate将提取的文本评论翻译成一一对应的中英文对应文本评论。

第二步,获取中文和英文评论文本的词向量

选取fastText提供的开源预训练词向量,预训练词向量在Wikipedia数据集上使用fastText训练得到的,词向量维度为300,使用默认参数的skip-gram模型获得。加载预训练词向量之后,将文本转化为词向量,运用TF-IDF算法计算文档词向量。忽略未出现在预训练词向量列表中的词,对相应的词向量计算加权词向量。

第三步,特征提取

在实验中仅使用文本嵌入特征,为训练映射矩阵,引入MUSE提供的中英双语词典。利用该中英双语词典以及一一对应的中英文文本数据,根据双语词典,找到数据集样本中对应的中英文词,将训练集中的中文文本数据与英文文本数据平行样本进行对齐,将对应的文本转化为加权词向量,将对齐的中文和英文加权词向量分别组合为训练集词向量矩阵。

第四步,求映射矩阵

使用最小二乘法训练线性映射矩阵,使用十折交叉验证方法,将数据集分成十份,前九份作为训练集,最后一份作为测试集。分别选取3000条中文和英文文本数据作为训练集和测试集样本数据,为验证不同的词向量维度对实验的影响,在实验中对词向量进行pca降维,将词向量维度降维至100维和150维。

经过第一步至第三步的步骤之后,得英文训练集组成的词向量矩阵 X ,得中文训练集组成的词向量矩阵 Y ,设映射矩阵为 W X R n×s Y R n×s ,求 W= W * R n×n 使得

min WXY F 2  = W XY F 2 .

第五步,分类

对分类器进行训练,采用的分类器为逻辑回归(LR),支持向量机(SVM),朴素贝叶斯(NB)。对源语言中某个任意的单词的向量 x ,目标语言中对应单词的向量 y 存在一种简单线性关系: y=Wx ,故可以通过映射矩阵变换到共享空间中。得到共享空间表示后,应用第五步训练出来的分类器,对目标语言数据进行分类。

算例II 对称极小范数最小二乘解在跨语言情感分类中的应用

第一步及第二步同算例I

第三步,提取特征

仅使用文本嵌入特征,对文本计算TF-IDF值得到加权文档词向量。为训练映射矩阵,使用kmeans聚类算法,通过计算样本特征间的距离,将样本划分到k个聚类(簇)中,kmeans聚类算法原理如下,

arg min s i=1 k x S i | | x μ i | | , (39)

其中 S i 表示被划分到簇 i 中的样本集合, μ i 表示簇 i 的簇, x 表示样本。

在该实验中同样采用十折交叉验证的方法,并且为验证词向量维度对实验结果的影响大小,对原始词向量维度pca降维至50维和100维。在实验中,由kmeans聚类算法分别对源语言训练集特征矩阵 X 和目标语言训练集特征矩阵 Y 分别做聚类,分别将源语言和目标语言训练集划分为50个簇和100个簇,每个簇代表特征空间中相似的文本样本群体。计算每个簇的簇中心词,接着对于每个簇,计算簇内所有词到簇中心的距离,以欧几里得距离作为衡量标准,选择距离最近的词作为代表性词。分别提取出50个和100个源语言和目标语言代表性词,作为训练映射矩阵的源语言和目标语言词向量。对词向量做pca降维,将词向量维度由300维降维50维和100维。其中词向量降维维度与聚类簇数保持一致。

第四步,求映射矩阵

利用Moore-Penrose逆和拉直算子求矩阵方程 WX=Y 的对称极小范数最小二乘解,该解即为所求的映射矩阵。分别选取3000条中文和英文文本数据作为训练集和测试集样本数据,分别做十折交叉验证,经过第一步至第三步的步骤之后,得到英文训练集组成的词向量矩阵 X ,得到中文训练集组成的词向量矩阵 Y 。设映射矩阵为 W X R n×s Y R n×s ,求 W= W * S R n×n ,使得

min WXY F 2 = W XY F 2 . (40)

存在唯一的解 W S E

W= K S ( M + h ). (41)

计算得到 W 之后, W= ( w 1 , w 2 , w 3 ,, w n ) T ,列拉直为对称矩阵 W ,得到最终的映射矩阵。该映射矩阵的维度为(50, 50)和(100, 100)。

第五步,分类

对分类器进行训练,采用的分类器为逻辑回归(LR),支持向量机(SVM)。通过对称映射矩阵变换,得到共享空间表示后,应用第五步训练出来的分类器,对目标语言数据进行分类。

4.4. 实验结果分析

使用带标记的英文训练集对分类器进行训练,利用映射矩阵将英文和中文变换到共享空间中,在共享空间中利用训练好的分类器对中文进行分类。

在前人的研究上,映射矩阵可以被约束为正交矩阵,故本文以正交procrustes方法作为基线模型,与本文模型进行对比。记源语言词向量为 x i ,目标语言词向量为 y i ,求映射矩阵 W= W O R n×n ,对所有的 x i X y i Y ,使得

min i=1 n W x i y i 2 2 = i=1 n W x i y i 2 2 ,

该问题又可以简化为正交procrustes方法,

W =maxtr( XW Y T ).

在本文的实验中,采用了多个分类器做分类,在算例I中的实验中发现在多次改变样本数以及降维维度的过程中,采用逻辑回归分类器对文本进行跨语言情感分类可以得到较优的结果,因此在本文的实验中主要采取逻辑回归分类器,实验结果如图1所示:

Figure 1. Classification accuracy results of different classifiers

1. 不同分类器分类准确率结果

算例I和正交procrustes方法在不同词向量维度下进行情感分类的实验结果如图2所示:

Figure 2. Classification results of examples I and orthogonal procrustes method

2. 算例I和正交procrustes方法分类结果

图2中分别为算例I和正交procrustes方法采用逻辑回归(LR)分类器,在BOOK、DVD、MUSIC数据集上的情感分类结果。在实验中,将词向量维度由300维降维至100维以及150维。由图中可以看出,词向量维度降维至150维可以得到较优的分类结果。与此同时,算例I在所有数据集上的表现都相对稳定,尤其在BOOK数据集上表现最优。

算例II实验结果如图3所示:

Figure 3. Classification results of examples II

3. 算例II分类结果

图3中分别为算例II在逻辑回归(LR)分类器,在BOOK、DVD和MUSIC数据集上的情感分类结果。在实验中,将词向量维度由300维降维至50维以及100维。由图中可以看出,在所有数据集实验中,词向量维度由300维降维至100维可得到最优的分类效果,且在BOOK数据集上取得较优的结果。

5. 结论

在本文中,利用矩阵拉直算子、Moore-Penrose广义逆得到矩阵方程 AXB=C 极小范数最小二乘解的表达式,进一步得到矩阵方程 AXB=C 对称极小范数最小二乘解的表达式,最后讨论矩阵方程 WX=Y 在跨语言情感分类中的应用。

基金项目

广东省高校自然科学基金重点项目(2019KZDXM025),五邑大学港澳联合研发基金资助项目(2019WGALH20)。

NOTES

*通讯作者。

参考文献

[1] 陈希孺. 数理统计学简史[M]. 哈尔滨: 哈尔滨工业大学出版社, 2021.
[2] Mikolov, T., Le, Q.V. and Sutskever, I. (2013) Exploiting Similarities among Languages for Machine Translation. arXiv:1309.4168.
[3] 彭晓娅, 周栋. 跨语言词向量研究综述[J]. 中文信息学报, 2020, 34(2): 1-15+26.
[4] 王在华. 矩阵最小二乘问题的迭代求解及其在机器翻译中的应用[J]. 数学的实践与认识, 2021, 51(7): 119-126.
[5] Xing, C., Wang, D., Liu, C. and Lin, Y. (2015) Normalized Word Embedding and Orthogonal Transform for Bilingual Word Translation. Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Denver, 31 May-5 June 2015, 1006-1011.
https://doi.org/10.3115/v1/n15-1104
[6] Mikolov, T, Sutskever, I, Chen, K., et al. (2013) Distributed Representations of Words and Phrases and Their Compositionality. Proceedings of the 26th International Conference on Neural Information Processing Systems, 2, 3111-3119.
[7] Smith, S.L., Turban, D.H.P., Hamblin, S., et al. (2017) Offline Bilingual Word Vectors, Orthogonal Transformations and the Inverted SoftMax. Proceedings of the 5th International Conference on Learning Representations, Toulon, 24-26 April 2017, 2521-2530.
[8] Faruqui, M. and Dyer, C. (2014) Improving Vector Space Word Representations Using Multilingual Correlation. Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, Gothenburg, 26-30 April 2014, 462-471.
https://doi.org/10.3115/v1/e14-1049
[9] Artetxe, M., Labaka, G. and Agirre, E. (2017) Learning Bilingual Word Embeddings with (almost) No Bilingual Data. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vancouver, 30 July-4 August, 2017, 451-462.
https://doi.org/10.18653/v1/p17-1042
[10] Hauer, B., Nicolai, G. and Kondrak, G. (2017) Bootstrapping Unsupervised Bilingual Lexicon Induction. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, Valencia, 3-7 April 2017, 619-624.
https://doi.org/10.18653/v1/e17-2098
[11] Conneau, A., Lample, G., Ranzato, M.A., Denoyer, L. and Jégou, H. (2018) Word Translation without Parallel Data. 6th International Conference on Learning Representations (ICLR), Vancouver, 30 April-3 May 2018, 1-14.
[12] 袁仕芳, 廖安平, 雷渊. 矩阵方程AXB + CYD = E的对称极小范数最小二乘解[J]. 计算数学, 2007, 29(2): 203-216.
[13] 周立平, 邓小辉. 矩阵方程AX = B的加权最小二乘对称、反对称解及其最佳逼近[J]. 湖南科技学院学报, 2011, 32(8): 6-10.
[14] 李水勤, 邓继恩. 矩阵方程AXB = C的对称最小二乘解[J]. 平顶山学院学报, 2010, 25(2): 64-65.
[15] Peng, Z. (2005) An Iterative Method for the Least Squares Symmetric Solution of the Linear Matrix Equation AXB=C. Applied Mathematics and Computation, 170, 711-723.
https://doi.org/10.1016/j.amc.2004.12.032
[16] Peng, Z. (2008) Solutions of Symmetry-Constrained Least‐squares Problems. Numerical Linear Algebra with Applications, 15, 373-389.
https://doi.org/10.1002/nla.578
[17] Deng, Y., Hu, X. and Zhang, L. (2003) Least Squares Solution of BXAT = T over Symmetric, Skew-Symmetric, and Positive Semidefinite X. SIAM Journal on Matrix Analysis and Applications, 25, 486-494.
https://doi.org/10.1137/s0895479802402491
[18] Yuan, S. and Liao, A. (2014) Least Squares Hermitian Solution of the Complex Matrix Equation AXB + CXD = E with the Least Norm. Journal of the Franklin Institute, 351, 4978-4997.
https://doi.org/10.1016/j.jfranklin.2014.08.003
[19] 戴华. 矩阵论[M]. 第三版. 北京: 科学出版社, 2022.