耦合编码解码卷积长短期记忆网络求解时变偏微分方程的参数识别问题
Coupled Encoder-Decoder ConvLSTM Structure for the Parameter Identification Problems of Time-Dependent Partial Differential Equations
DOI: 10.12677/aam.2025.142075, PDF, HTML, XML,   
作者: 郭 琦:太原理工大学数学学院,山西 太原;贾宏恩*:太原理工大学数学学院,山西 太原;密码关键技术创新与融合应用实训实验室,山西 太原;王鸿斌:山西工学院通识教育学院,山西 朔州
关键词: 参数识别编码解码ConvLSTM时变偏微分方程Parameter Identification Encoder Decoder ConvLSTM Time-Dependent PDE
摘要: 文章基于编码、解码结构提出了一种同时反演参数和求解偏微分方程的耦合编码解码卷积长短期记忆网络(ED-ConvLSTM)。编、解码结构中分别使用卷积层和转置卷积层,用于提取和恢复物理约束的空间信息。为了有效逼近时变偏微方程中的时间演化规律,ED-ConvLSTM引入编解码模块。通过几个数值试验证明所提出的耦合ED-ConvLSTM网络框架能够有效准确地预测场变量并且反演未知参数,特别是对于高噪声水平的输入序列。
Abstract: This paper proposes a coupled encoder-decoder ConvLSTM network (ED-ConvLSTM) based on an encoder and decoder to identify parameters and solve partial differential equations simultaneously. Convolutional and transposed convolutional layers are utilized in the encoder and decoder modules to extract and retrieve spatiotemporal information in physical laws. ConvLSTM modules are embedded into the encoder and decoder modules to accurately approximate the time evolution in time-dependent PDEs. Through intensive numerical examples, the coupled neural network can predict field variables and unknown parameters accurately and efficiently, especially for the input with large noise.
文章引用:郭琦, 贾宏恩, 王鸿斌. 耦合编码解码卷积长短期记忆网络求解时变偏微分方程的参数识别问题[J]. 应用数学进展, 2025, 14(2): 341-355. https://doi.org/10.12677/aam.2025.142075

1. 引言

卷积神经网络(CNN)在诸多领域已经获得了许多显著的成就,如图像识别[1]、视频分类[2]、自然语言识别[3]等等。随着研究的不断深入,残差网络、稠密连接卷积网络、VGG、AlexNetCNN等卷积神经网络变体不断涌现,研究者逐渐将目光转移至偏微分方程(PDEs)求解领域。由于卷积网络能够从局部空间中自动提取特征且具有平移不变性,这有效地减少模型训练参数和缩短模型训练时间。此外,Zhou等人[4]通过数值试验说明深度卷积神经网络对复杂函数的建模能力,并证实其具有普遍逼近性。Hamzehloo等人[5]利用CNN将原始二维泊松方程转化为一个齐次问题和四个非齐次问题,然后通过求解五个子问题得到原方程的解。Long等人[6]受到小波理论的启发提出了PDE-Net,通过训练卷积核逼近微分算子并在训练前对所有滤波器进行初始化约束,使得该模型实现对动力系统相对长时间的演化。Mo等人[7]利用深度卷积结构搭建编解码网络模型,将其应用于多相流动态预测问题,并通过数值算例证实该方法能够准确预测2,500维磁导率场变化趋势。Han等人[8]提出物理信息集合自适应卷积神经网络(PhyGeoNet),利用椭圆坐标映射实现规则参考域卷积和不规则参考域卷积间的相互转化,并通过求解稳态方程证实该模型的有效性和准确性。Li等人[9]提出了一种新的神经算子,它通过在傅里叶空间参数化积分核学习无穷维函数空间之间的映射,从而提高偏微分方程求解的精度。

为了有效地预测时变偏微分方程的潜在解,除了对空间相关性的考察,同时也需要考虑时间信息对PDEs解的影响。递归神经网络(RNN)是一种经典的时序数列处理方法,长短期记忆网络(LSTM)作为一种特殊的RNN,通过引入门单元结构实现有效控制信息流的目的[10]。相较于标准RNN,LSTM能更好地捕捉序列中的长期依赖关系,并在长短期时间序列中均表现优异。Hu等人[11]提出Bi-LSTM网络用于模拟多维度偏微分方程,文章证实该模型能在20个训练循环内有效学习PDEs并生成高精度解。这证实了LSTM能够根据先验周期信息对PDEs进行长期的更新和演化。

对于时空偏微分方程,时间和空间之间的相互作用会显著影响解的特征。因此,在分析求解时空偏微分方程过程中整合这两方面信息至关重要。通过组合几个深度学习模型得到的混合网络模型,不仅能减少独立模型的局限性,还可以利用模型各自的特性提高混合模型的整体性能。Shi等人[12]首次将卷积结构与LSTM相结合提出的卷积长短期记忆网络(ConvLSTM)模型,用来预测天气预报。文章指出ConvLSTM在输入和状态以及状态和状态之间引入卷积结构分析空间相关性,同时利用LSTM结构解析时间特性,综合分析时空序列内部关联性。Jalalifar等人[13]利用ConvLSTM的优势,捕获电力负荷数据中的时空模式,有效地对负荷需求中的时间依赖性和空间相关性进行建模,短期预测精度得到提高。Mehrdad等人[14]将注意力机制与ConvLSTM集成起来,通过加强对重要特征的关注,同时利用ConvLSTM的时空处理能力改进从有限数据集中提取模态频率的能力。随着ConvLSTM及其变体的发展,它逐渐被用于求解时间依赖的PDEs。Raissi等人[15]利用PINN求解逆标量参数问题,通过数值算例证实该方法能够从不完整的模型和数据中预测未知量。Rao等人[16]提出了PeRCNN来解决反应扩散方程中的标量参数识别问题,PeRCNN模型通过对偏微分方程物理规律施加硬约束提高了预测的准确性和鲁棒性。Kakka等人[17]提出AE-ConvLSTM,该模型使用深度卷积编码器、解码器网络结构对原始数据进行自动编码和预测,并通过对无噪声数据和噪声数据的动力学系统预测证实其长期演化能力。

因此,本文提出一种耦合编解码卷积长短期记忆网络(ED-ConvLSTM)用于反演PDEs未知参数,同时求解该方程。该网络引入深度卷积编码器和解码器结构有效捕获空间信息,并利用ConvLSTM模块解析时间信息,从而提高模型对动态系统长期演化的预测准确度。此外,在编码器和解码器对应模块之间建立跳跃连接,为解码器部分梯度流提供了一条捷径,从而缓解了梯度消失问题,并加快模型收敛速度。

2. 问题描述

时变偏微分方程的一般形式如下:

u( x,t ) t =F( x,r,u,u,Δu,( ru ) ), (1)

其中,r是以坐标为自变量的物理参数, u( x,t ) 是方程在 x:=( x,y )Ω 位置、时刻的潜在解, Δ 分别是梯度算子、散度算子和拉普拉斯算子,是一个线性或者非线性函数。此外,方程初始条件和边界条件如下所示:

u( x,y,0 )=f( x,y ),( x,y )Ω, u( x,y,t )=g( x,y,t ),t[ 0,T ],( x,y )Ω (2)

通过时间离散和空间剖分,对于某个给定时刻问题域内的函数可以看作一张二维图像,连续时间内的三维数据能被离散为多张二维空间图像,因此可将时变偏微分方程转化为一个时空序列预测问题。针对该问题,本文提出一种编码解码卷积长短期记忆网络来预测的方法,其网络结构和损失函数如下所示:

U i+k,l :=( U i+k+1 , U i+k+2 ,, U i+k+l ) (3)

( U i+k,l ,r( x,y ) )=N( U i+1 * , U i+2 * ,, U i+k * ;θ ) (4)

L u ( θ )= 1 N bd i=1 N bd N( U i,k * ;θ ) U i+k,l * 2 2 + λ u 1 N int i=1 N int N( U i,k * ;θ ) U i+k,l * 2 2 (5)

L r ( θ )= 1 N bd i=1 N bd r( x,y ) r * ( x,y ) 2 2 + λ r 1 N int i=1 N int r( x,y ) r * ( x,y ) 2 2 (6)

其中, U i * i时刻的精确解, U i+k,l 是在 i+k 时刻之后连续l个时刻的网络预测解, r( x,y ) 是随空间变化的未知参数,θ是网络参数, L( θ ) 是均方误差损失函数。从式(4)可以看出,ED-ConvLSTM模型就是将k个连续时间步的精确解作为输入数据,通过网络模拟给出输入时刻之后连续l个时刻的偏微分方程预测解 U i+k,l 和其中的未知参数 r( x,y )

3. 网络架构

3.1. 卷积长短期记忆网络(ConvLSTM)

作为一种特殊的RNN,LSTM在循环网络原有框架下引入细胞状态和门控结构,使其能够避免RNN中固有的梯度消失和爆炸问题,有效解决长期序列预测问题。ConvLSTM作为LSTM的一个变体,在保持上述特性的同时将其中部分矩阵运算替换为卷积运算,这有助于ConvLSTM在捕获时间相关性的同时减轻空间数据的冗余。其公式表述如下[12]

f t =σ( W xf U t + W hf t1 + W cf C t1 + b f ), i t =σ( W xi U t + W hi t1 + W ci C t1 + b i ), C ˜ t =tanh( W xc U t + W hc t1 + b c ), o t =σ( W xo U t + W ho t1 + W co C t + b o ), C t = f t C t1 + i t C ˜ t , t = o t tanh( C t ), (7)

其中‘ ’、‘ ’分别表示逐元素乘积和卷积运算, i t f t o t 分别表示输入门、遗忘门、输出门; U t t C t 分别表示t时刻输入、隐藏特征和细胞状态。所有的量都是B × H × W的三维张量,第一个维度表示时间步长,后两个维度表示问题域大小。其结构图见图1,其中红色线条表示细胞状态 C t 在门控结构间的流动。

Figure 1. The structure of ConvLSTM

1. ConvLSTM结构示意图

3.2. 卷积块和转置卷积块

图2所示,蓝色矩形和绿色矩形分别表示卷积块(Conv)和对应的转置卷积块(ConvT),每个卷积块包含两个卷积层和两个ReLU激活函数,按照卷积–激活–卷积–激活的顺序依次连接。与此类似,ConvT由转置卷积和激活函数按顺序拼接而成。当特征通过这两个模块时,其维度不断变化将原始场信息尽可能提取为一系列独立特征并最终还原为原始特征维度。简单来说,该过程就是对原始数据的降维和升维。不同尺寸的卷积核具有不同的卷积效果,较大的卷积核通过处理大范围的空间信息来捕获全局特征,而较小的卷积核则通过处理小范围邻域信息提取局部特征。卷积核尺寸的灵活选择使模型能够有效捕捉特征数据中的多种空间尺度和复杂性,促进了模型对数据中潜在模式的深入理解,从而增强其学习和表征能力。

Figure 2. The structure of convolutional block and responding transposed convolutional block

2. 卷积和转置卷积结构示意图

3.3. ED-ConvLSTM

本文提出的ED-ConvLSTM由编码(Encoder-ConvLSTM)和解码(Decoder-ConvLSTM)两大模块组成。二者都是由多个卷积块和ConvLSTM单元构成。编码模块利用卷积单元从邻近区域内提取独立特征,将原始场信息尽可能转化为不相关的特征。该模块通过降低信息维度降低模型复杂度、减少模型计算量、节约计算成本。解码模块中,利用转置卷积单元将低维特征恢复到原始维度,从而有效地解决了编码阶段所导致的细节信息损失。这一过程不仅有助于重建高维数据,还确保了在特征恢复过程中尽可能保留原始信息。

ED-ConvLSTM结构如图3所示,其中紫色矩形表示由不同时刻场值组成的3D张量。在编码阶段,卷积单元(由蓝色矩形表示)通过不同尺寸卷积核从输入数据中捕获高低维特征,该过程中3D张量不断变长变扁。在解码阶段,转置卷积单元(由绿色矩形表示)利用与Conv相对应的转置卷积将解码模块得到的特征不断变宽变短,直到恢复数据原始维度。每个卷积单元和转置卷积单元都配备一个ConvLSTM单元(由橙色矩形表示)用于处理时间信息。具体来说,该单元通过捕获不同时刻数据间的依赖关系来模拟学习动力系统的演化过程。因为每个输入数据都是由多个连续时刻的场值构成的序列,所以模型能更好地从先验数据中保存重要时空特征,或者特征随时间演变的规律,进而增强模型对动力系统的演化能力。此外,卷积单元和转置卷积单元间的特征映射、编解码模块中相应ConvLSTM之间的状态映射实现了信息的重复利用,增强了模型保留细节的能力,并且提高了上采样质量。

Figure 3. The structure of ED-ConvLSTM

3. 编码解码卷积长短期网络结构示意图

3.4. 耦合ED-ConvLSTM模型

耦合ED-ConvLSTM由两个ED-ConvLSTM网络组成,一个是前向网络( N u )用于求解偏微分方程,另一个是反演网络( N r )用于求解偏微分方程的未知参数。耦合ED-ConvLSTM中编码模块的基本原理可由如下公式表述:

U m [ U i m , U i+1 m , U i+2 m ,, U i+k m ], U i m = H m [ i m , i+1 m ,, i+k m ], ( U i 1 ; C 1 , 1 )= ConvLSTM 1 ( U i 0 W 1 ; C i 1 , i 1 ), ( U i 2 ; C 2 , 2 )= ConvLSTM 2 ( U i 1 W 2 ; C i 2 , i 2 ), ( U i 3 ; C 3 , 3 )= ConvLSTM 3 ( U i 2 W 3 ; C i 3 , i 3 ), (8)

其中, W n (n=1,2,3) 表示卷积块的权重参数, U i m 表示第i时刻的输入信息, m C m 分别表示相应ConvLSTM单元的隐藏状态、细胞状态信息。耦合ED-ConvLSTM中解码模块如下所述:

U l [ U i+k+1 l , U i+k+2 l ,, U i+k+l l ], ( U l 4 )=ReLU( ConvLSTM 4 ( U i 3 ; C 3 , 3 ) W 1 T + U i 3 ), ( U l 5 )=ReLU( ConvLSTM 5 ( U l 4 ; C 2 , 2 ) W 2 T + U i 2 ), ( U l 6 )=ReLU( ConvLSTM 6 ( U l 5 ; C 1 , 1 ) W 3 T + U i 1 ), (9)

其中, W n T ( n=1,2,3 ) 表示转置卷积块的权重参数, U l m 表示相应ConvLSTM单元在第l时刻的预测输出, m C m U i m 均保留式(8)中对应参数的值,通过复制数值实现状态映射、特征映射,最终达到跳跃连接的目标,缩短模型预测时间,提高模型预测精度。

图4所示,本文采用10个连续时刻的场值作为前向网络的一个输入样本,通过前向网络模拟未来10个连续时刻的偏微分方程解,并将这组值作为前向网络的下一个输入样本和反演网络的输入。为降低预测解变化幅度对反演网络预测精度的影响,先对前向网络预测值进行无量纲化处理后再将其输入反演网络,得到PDEs待反演参数。重复上述过程九次,并保存各阶段预测值,将其拼接得到未来90个连续时刻的预测值。最后,计算预测值和待反演参数的MSE损失。为了更细致地说明,表1给出了耦合ED-ConvLSTM模型训练过程的伪代码。本文对模型共设置200个循环,每次得到的MSE损失都通过Adam优化器对模型参数进行新一轮的更新,并且每100次循环对优化器学习率减半直至循环结束。

Figure 4. The data flow in the coupled ED-ConvLSTM

4. 耦合ED-ConvLSTM模型中的数据流动示意图

4. 数值实验与结果

4.1. 模型及其设置

在本节中,将本文提出的耦合ED-ConvLSTM网络应用到线性热方程和非线性扩散方程的求解。另外,为了更好地说明网络的性能及预测精度,在相同数据集上将该网络与AE-ConvLSTM网络的预测结果进行对比。这两个网络结构如下所述:

Table 1. The training procedure of the coupled ED-ConvLSTM model

1. 耦合ED-ConvLSTM模型的训练过程

输入:训练样本 U i,k * ( x,y,t ) ,前向网络 N u ,反演网络 N r

输出:潜在解 U i,l * ,待反演参数 r * (x,y)

初始化:初始化网络参数 θ ,Adam优化器的学习率lr

for epoch in range (200) do

epoch=i,I= U i,k * ,

for l in range (m) do

U i,l = N u ( I; θ u ),

L u ( θ )= 1 N bd N bd U i,l U i,l * 2 2 + λ u 1 N int N int U i,l U i,l * 2 2 ,

r( x,y )= N r ( U i,l T ; θ r ),

L r ( θ )= 1 N bd N bd r( x i , y i ) r * ( x i , y i ) 2 2 + λ r 1 N int N int r( x i , y i ) r * ( x i , y i ) 2 2 ,

LOS S u += L u ( θ ),LOS S r += L r ( θ ),

I= U i,l ,

end for

利用损失函数 LOS S u ,LOS S r 更新网络参数 θ

when epoch % 100 == 0 do lr /= 2 end when

end for

AE-ConvLSTM [17]:包含一个编码模块和一个解码模块的自动编码卷积长短期网络。编码模块由三个Conv-ConvLSTM组成,解码模块由两个ConvT-ConvLSTM和Conv-ConvLSTM一个组成。

耦合ED-ConvLSTM:由一个Encoder-ConvLSTM模块和一个Decoder-ConvLSTM模块组成的网络。两模块分别包含三个Conv-ConvLSTM单元和三个ConvT-ConvLSTM单元,并且相应子单元之间通过跳跃连接相连。

网络的评价指标选取相对L2误差 e r 和L1绝对误差e,其定义如下:

e r = U U * 2 2 U * 2 2 , e= U U * 1 , (10)

其中, U * U 分别表示PDEs的精确解和网络预测解, · 1 · 2 分别表示L1范数和L2范数。为了对比的公平性,两个网络均采用Adam优化器自适应调整网络参数,且统一将学习率初始化为103。此外,两个网络采用相同的宽度和深度,并对内部的超参数都进行随机正态分布初始化。

4.2. 热传导方程

热方程用于描述一个区域内温度随时间的变化规律,广泛应用于金融数学、量子力学、影响分析等领域,是一类重要的偏微分方程。本文对具有温度边界条件的线性热方程进行研究,其定义如下:

u( x,t ) t r( x )Δu( x,t )=0,xΩ= [ 0,1 ] 2 ,t[ 0,T ], u( x,0 )=g( x ),xΩ, (11)

其中, u( x,t ) 是温度值, r( x ) 是方程待反演参数,它们的精确解如下:

r( x,y )= ( x 2 + y 2 )/4 u ( x,t )= e Ct ( x 2 + y 2 ), (12)

式(12)中的C是一个与时间步长有关的常数,用于将温度值约束在较小范围内。从温度场的解析式中可以得到初始时刻的温度分布如下:

u( x,0 )= x 2 + y 2 ,( x,y )[ 0,1 ]×[ 0,1 ] (13)

输入前向网络时,将原始连续问题域 [ 0,1 ]×[ 0,1 ] 均匀离散为64 × 64的网格,即某一时刻场温度值的尺寸为64 × 64。当采用不同时间步长 Δt=0.1,1,10s 时,对应式(12)中的常数C分别取1e−4、1e−6、1e−8。另外,时间域[0, T]被分割成10,000小份,其中前9000个时刻作为训练样本,剩余1000个时刻作为测试集。在前向网络中,将10个连续时刻的温度值作为输入,网络能够输出未来连续90个时刻的温度场预测值。接着将这些值经过无量纲处理后输入反演网络,最终得到方程待反演参数。

本文首先利用耦合ED-ConvLSTM反演方程未知参数 r( x ) ,如图5所示。从结果可以看出,在不同时间步长下,随着迭代次数的增加,待反演参数预测值的损失也在逐步下降,这说明在迭代过程中模型逐渐学习到温度场的变化规律,并且在不同时间步长下都能获得较为准确的预测结果。其相对L2误差具体数值见表2,可以看出在采用大时间步长 Δt=10s 情况下,待反演参数的预测精度也能保持在1e−3。所以耦合ED-ConvLSTM能有效求解线性热方程的待反演参数,即使在大时间步长情况下,该模型也能取得较为准确的预测结果。这表明该模型可用于解决大时间步长的参数识别问题,并具有良好的鲁棒性。

基于深度学习模型求解PDEs待反演参数的同时,一般也会同时求解PDEs。为了验证该模型求解方程的准确性,耦合ED-ConvLSTM模型在预测方程待反演参数的同时,也给出了偏微分方程解的预测值 u( x,t ) ,其结果见表2,可以看到在不同时间步长的情况下,方程预测解的相对L2误差均保持在1e−4,这说明模型对于温度场的预测可以达到较高的精度。

(a) Δt=0.1s

(b) Δt=1s

(c) Δt=10s

Figure 5. Linear heat equation: The exact parameter, predicted parameter, point-wise absolute error and relative L2 error of the inverse parameter r( x ) with different time steps Δt=0.1,1,10s obtained by the coupled ED-ConvLSTM model after 200 iterations

5. 线性热方程:经过200次迭代后耦合ED-ConvLSTM模型在不同时间步长 Δt=0.1,1,10s 下得到的待反演参数 r( x ) 的精确解、预测解、逐点绝对误差、相对L2误差图

为了进一步证实本文所提出模型的有效性,将其与同等参数设置的AE-ConvLSTM模型进行比较,图6给出了两个模型在不同时间步下,经过200次迭代得到的参数预测值的绝对误差。图7展示了二者在第100个外延时刻温度场预测值的相对L2误差值。不难看出,无论是温度场预测值还是待反演参数,本文提出的模型都优于AE-ConvLSTM,并且在不同时间步长下温度场预测值的精度都保持稳定。这充分说明该模型在不同时间步长下都具有显著的鲁棒性,无论时间步长如何变化,耦合ED-ConvLSTM模型都能保持其良好的预测性能。

Figure 6. Linear heat equation: The absolute point-wise error of the inverse parameter r( x ) with different time steps Δt=0.1,1,10s obtained by AE-ConvLSTM and ED-ConvLSTM after 200 iterations

6. 线性热方程:经过200次迭代后AE-ConvLSTM、耦合ED-ConvLSTM模型在不同时间步长 Δt=0.1,1,10s 下得到的待反演参数 r( x ) 的逐点绝对误差图

Figure 7. Linear heat equation: The L2 relative error of PDE solution u( x,t ) at the 100th extrapolated time with different timesteps solved by AE-ConvLSTM and ED-ConvLSTM

7. 线性热方程:AE-ConvLSTM、耦合ED-ConvLSTM模型在不同时间步长下得到的第100个外延时刻温度场预测值 u( x,t ) 的相对L2误差图

最后,本文试验模型在不同噪声水平下的表现,分析其对噪声的鲁棒性,并评估该模型处理病态反问题的能力。对于温度场和参数精确解的边界区域分别增加如下噪声:

u b =( 1+ζε ) u , r b =( 1+ζε ) r (14)

其中, ε 服从正态分布, ζ 表示噪声水平,取值为1%、5%、10%。通过模型训练得到的参数预测值和温度场预测值的相对于L2误差被展示在表2中。可以观察到,随着噪声水平的增加预测值的相对L2误差增加相对缓慢,这说明本文提出的模型对噪声具有良好的鲁棒性,能够有效解决反问题中常见的不适定问题。

Table 2. Linear heat equation: L2 relative error of the inverse parameter r( x ) and predicted solution u( x,t ) by the coupled ED-ConvLSTM model with different timesteps and noise levels

2. 线性热方程:耦合ED-ConvLSTM模型在不同时间步长和噪声水平下待反演参数 r( x ) 和场温度 u( x,t ) 预测值的相对L2误差

Time step

L2 relative error

Noise level = 0%

Noise level = 1%

Noise level = 5%

Noise level = 10%

Δt=0.1s

e r ( u )

5.371e−4

6.224e−4

1.803e−3

2.148e−3

e r ( r )

4.443e−4

2.861e−3

1.650e−2

2.242e−2

Δt=1s

e r ( u )

3.682e−4

7.735e−4

1.773e−3

3.408e−3

e r ( r )

3.828e−4

3.587e−3

1.057e−2

2.667e−2

Δt=10s

e r ( u )

5.388e−4

4.402e−4

1.597e−3

3.196e−3

e r ( r )

1.514e−3

4.167e−3

1.201e−2

3.022e−2

4.3. 非线性扩散方程

非线性偏微分方程是PDEs研究的重要分支,被广泛应用于实际工程领域中,如流体力学、流行病学、化工循环系统等。本节对具有狄利克雷边界条件的非线性热方程进行研究,其定义如下:

u( x,t ) t ( r( x )u( x,t ) )=f( x,t ),xΩ:= [ 0,1 ] 2 ,t[ 0,T ], u( x,0 )=g( x ),xΩ, (15)

其中, r( x ) 是待反演参数, f( x,t ) 是源项,定义如下:

r( x )=1+ x 2 + y 2 , (16)

f( x,t )=sin( π 2 x )cos( π 2 y )[ 1+ t( 1+ | x | 2 ) 2 ] πxtcos( π 2 x )cos( π 2 y )+πytsin( π 2 x )sin( π 2 y ). (17)

定义在式(15)中的偏微分方程的解析解为:

u( x,t )=tsin( π 2 x )cos( π 2 y ), (18)

在本例中,首先展示模型在不同时间步长下得到的待反演参数预测精度。图8给出耦合ED-ConvLSTM模型得到的参数预测值与真实值的绝对误差3D云图。可以明显看出,在不同的时间步长下,该模型得到的预测解和真实解有很好的一致性,绝对误差最大值都保持在1e−3的量级。其具体相对L2误差见表3,可以看到随着时间步长从0.1 s增加到10 s,待反演参数的相对L2误差始终保持在1e−4量级。这说明模型可以较为准确地预测非线性扩散方程的待反演参数。此外,该模型能够在求解待反演参数的同时预测非线性扩散方程的解。图9给出了在时间步长 Δt=1s 的情况下,耦合ED-ConvLSTM得到的在外延时间段9910 s~10,000 s的温度预测值,值得注意的是,该时间段并不包含在训练数据集中。该时间段内温度预测值的相对L2误差在10,000 s取得最大值,为6.435e−6;在9920 s处取得最小值,为2.385e−6。这表明该模型具有很好的外延性,能够根据原始数据推演温度场的未来变化情况。

(a) Δt=0.1s

(b) Δt=1s

(c) Δt=10s

Figure 8. Nonlinear diffusion equation: The exact parameter, predicted parameter and point-wise absolute error of the inverse parameter r( x ) with different timesteps Δt=0.1,1,10s obtained by ED-ConvLSTM model after 200 iterations

8. 非线性扩散方程:经过200次迭代后耦合ED-ConvLSTM模型在不同时间步长 Δt=0.1,1,10s 下得到的待反演参数 r( x ) 的精确解、预测解、逐点绝对误差图

Figure 9. Nonlinear diffusion equation: The exact solution u , predicted solution u and point-wise absolute error (top to bottom) for the forward diffusion problem at different extrapolated times obtained by the coupled ED-ConvLSTM model with timestep Δt=1s

9. 非线性扩散方程:在时间步长 Δt=1s 下经过200次迭代后耦合ED-ConvLSTM模型得到的在外延时间段上温度场的精确解 u 、预测解u、逐点绝对误差图(按从上到下的顺序)

Table 3. Nonlinear diffusion equation: Relative L2 error of the inverse parameter r( x ) and predicted solution u( x,t ) by the ED-ConvLSTM model with different timesteps

3. 非线性扩散方程:耦合ED-ConvLSTM模型在不同时间步长下待反演参数 r( x ) 和场温度 u( x,t ) 预测值的相对L2误差

Relative L2 error

Time step

Δt=0.1s

Δt=1s

Δt=10s

u( x,t )

1.627e−5

6.435e−6

7.609e−6

r( x )

2.923e−4

3.476e−4

3.058e−4

接着,将本文提出的模型与同参数设置的AE-ConvLSTM模型进行比较。图10展示了200次迭代后得到的待反演参数的逐点绝对误差云图。图11给出在第100个外延时刻的温度场预测值的相对L2误差图。可以看出,不论是待反演参数还是温度场的预测值,耦合ED-ConvLSTM的精度都高于AE-ConvLSTM模型,这再次证实本文提出的网络在预测精度上的优越性。综上,耦合ED-ConvLSTM在实现高精度参数识别和解预测方面具备有效性和内在优势。

Figure 10. Nonlinear diffusion equation: The point-wise absolute error of the inverse parameter r( x ) with different timesteps Δt=0.1,1,10s obtained by AE-ConvLSTM and ED-ConvLSTM after 200 iteration.

10. 非线性扩散方程:经过200次迭代后AE-ConvLSTM、耦合ED-ConvLSTM模型在不同时间步长 Δt=0.1,1,10s 下得到的待反演参数 r( x ) 的逐点绝对误差图

Figure 11. Nonlinear diffusion equation: The relative L2 error of PDE solution u( x,t ) at the 100th extrapolated time with different timesteps solved by AE-ConvLSTM and coupled ED-ConvLSTM

11. 非线性扩散方程:AE-ConvLSTM、耦合ED-ConvLSTM模型在不同时间步长下得到的第100个外延时刻温度场预测值 u( x,t ) 的相对L2误差图

最后,测试该模型对噪声的鲁棒性,进一步评估模型在生产实际中的可用性和潜力。模型在不同噪声水平下得到的待反演参数见表4。可以看到随着噪声水平的增加,模型的待反演参数预测精度略有下降,最高达到1e−2量级。同时温度场预测值的相对L2误差保持在1e−6~1e−3范围内。虽然模型的性能随着噪声水平增加而下降,但是其预测能力仍保持在令人满意的水平。耦合ED-ConvLSTM在不同时间步长下的一致性,进一步凸显了该模型在处理参数识别问题、PDEs正问题时的鲁棒性和可靠性。

Table 4. Nonlinear diffusion equation: Relative L2 error of the inverse parameter r( x ) and predicted solution u( x,t ) at the 100th extrapolated time with different timesteps and noise levels solved by the coupled ED-ConvLSTM model

4. 非线性扩散方程:耦合ED-ConvLSTM模型在不同时间步长和噪声水平下得到的第100个外延时刻待反演参数 r( x ) 、温度场 u( x,t ) 预测值的相对L2误差

Time step

Relative L2 error

Noise level = 0%

Noise level = 1%

Noise level = 5%

Noise level = 10%

Δt=0.1s

e r ( u )

1.627e−5

2.524e−4

1.145e−3

2.412e−3

e r ( r )

2.923e−4

1.796e−3

1.035e−2

2.073e−2

Δt=1s

e r ( u )

6.435e−6

2.692e−4

1.254e−3

2.548e−3

e r ( r )

3.476e−4

1.871e−3

1.049e−2

2.112e−2

Δt=10s

e r ( u )

7.609e−6

2.244e−4

5.077e−4

2.142e−3

e r ( r )

3.058e−4

1.927e−3

1.045e−2

2.020e−2

5. 结论

本文基于卷积和LSTM提出了一种具有跳跃连接的耦合编解码卷积长短期记忆网络,用于求解时变偏微分方程和参数识别问题。一方面,该模型能够有效求解PDEs中的待反演参数;另一方面,它能够预测动力系统的演变情况,并且其预测精度优于AE-ConvLSTM模型。在测试阶段,仅仅输入10个连续时刻的真实解,网络就能对未来100个时刻的场值进行较为精确的预测。数值结果表明,耦合ED-ConvLSTM可以有效求解二维热方程和扩散方程中的待反演参数、近似解。此外,所提出的模型在不同噪声水平下,对参数识别问题表现出充分的鲁棒性和可靠性。然而,在实际工程应用中,数据短缺使得很难获得足够的样本进行训练,这一限制阻碍了全数据驱动的能力,而这对于确保模型准确性、验证模型有效性至关重要,作者将在未来的工作中解决这一难题。

NOTES

*通讯作者。

参考文献

[1] Archana, R. and Jeevaraj, P.S.E. (2024) Deep Learning Models for Digital Image Processing: A Review. Artificial Intelligence Review, 57, Article No. 11.
https://doi.org/10.1007/s10462-023-10631-z
[2] Demir, F., Abdullah, D.A. and Sengur, A. (2020) A New Deep CNN Model for Environmental Sound Classification. IEEE Access, 8, 66529-66537.
https://doi.org/10.1109/access.2020.2984903
[3] Abas, A.R., Elhenawy, I., Zidan, M. and Othman, M. (2022) BERT-CNN: A Deep Learning Model for Detecting Emotions from Text. Computers, Materials & Continua, 71, 2943-2961.
https://doi.org/10.32604/cmc.2022.021671
[4] Zhou, D. (2020) Universality of Deep Convolutional Neural Networks. Applied and Computational Harmonic Analysis, 48, 787-794.
https://doi.org/10.1016/j.acha.2019.06.004
[5] Özbay, A.G., Hamzehloo, A., Laizet, S., Tzirakis, P., Rizos, G. and Schuller, B. (2021) Poisson CNN: Convolutional Neural Networks for the Solution of the Poisson Equation on a Cartesian Mesh. Data-Centric Engineering, 2, e6.
https://doi.org/10.1017/dce.2021.7
[6] Long, Z., Lu, Y. and Dong, B. (2019) PDE-Net 2.0: Learning PDEs from Data with a Numeric-Symbolic Hybrid Deep Network. Journal of Computational Physics, 399, Article ID: 108925.
https://doi.org/10.1016/j.jcp.2019.108925
[7] Mo, S., Zhu, Y., Zabaras, N., Shi, X. and Wu, J. (2019) Deep Convolutional Encoder‐Decoder Networks for Uncertainty Quantification of Dynamic Multiphase Flow in Heterogeneous Media. Water Resources Research, 55, 703-728.
https://doi.org/10.1029/2018wr023528
[8] Gao, H., Sun, L. and Wang, J. (2021) Phygeonet: Physics-Informed Geometry-Adaptive Convolutional Neural Networks for Solving Parameterized Steady-State PDEs on Irregular Domain. Journal of Computational Physics, 428, Article ID: 110079.
https://doi.org/10.1016/j.jcp.2020.110079
[9] Li, Z.Y., Kovachki, N.B., Azizzadenesheli, K., et al. (2020) Fourier Neural Operator for Parametric Partial Differential Equations. International Conference on Learning Representations. arXiv:2010.08895
[10] Gers, F.A., Schmidhuber, J. and Cummins, F. (2000) Learning to Forget: Continual Prediction with LSTM. Neural Computation, 12, 2451-2471.
https://doi.org/10.1162/089976600300015015
[11] Hu, Y., Zhao, T., Xu, S., Lin, L. and Xu, Z. (2022) Neural-PDE: A RNN Based Neural Network for Solving Time Dependent PDEs. Communications in Information and Systems, 22, 223-245.
https://doi.org/10.4310/cis.2022.v22.n2.a3
[12] Shi, X., Chen, Z., Wang, H., et al. (2015) Convolutional LSTM Network: A Machine Learning Approach for Precipitation Now-Casting. Advances in Neural Information Processing Systems, 2015, 802-810.
[13] Jalalifar, R., Delavar, M.R. and Ghaderi, S.F. (2024) SAC-ConvLSTM: A Novel Spatio-Temporal Deep Learning-Based Approach for a Short-Term Power Load Forecasting. Expert Systems with Applications, 237, Article ID: 121487.
https://doi.org/10.1016/j.eswa.2023.121487
[14] Dizaji, M.S., Mao, Z. and Haile, M. (2023) A Hybrid-Attention-ConvLSTM-Based Deep Learning Architecture to Extract Modal Frequencies from Limited Data Using Transfer Learning. Mechanical Systems and Signal Processing, 187, Article ID: 109949.
https://doi.org/10.1016/j.ymssp.2022.109949
[15] Raissi, M., Perdikaris, P. and Karniadakis, G.E. (2019) Physics-Informed Neural Networks: A Deep Learning Framework for Solving Forward and Inverse Problems Involving Nonlinear Partial Differential Equations. Journal of Computational Physics, 378, 686-707.
https://doi.org/10.1016/j.jcp.2018.10.045
[16] Rao, C., Ren, P., Wang, Q., Buyukozturk, O., Sun, H. and Liu, Y. (2023) Encoding Physics to Learn Reaction-Diffusion Processes. Nature Machine Intelligence, 5, 765-779.
https://doi.org/10.1038/s42256-023-00685-7
[17] Kakka, P.R. (2022) Sequence to Sequence AE-ConvLSTM Network for Modelling the Dynamics of PDE Systems.