1. 引言
长久以来,出租车一直扮演着城市交通体系中不可或缺的重要角色。作为一种灵活的交通选择,出租车为乘客提供了随时随地的便利,摆脱了对行程提前规划或依赖公共交通的束缚。出租车服务在解决最后一英里交通难题上表现出色,尤其在公共交通无法覆盖区域或乘客行李过多的情况下,它能够提供直达服务,将乘客从公交站点或火车站送至目的地,实现了便捷的门到门交通。然而,由于司机和乘客之间的信息分布不均,出租车供需之间的不平衡尤为严重[1]。因此,对于城市交通管理而言,准确预测出租车需求变得尤为重要[2]。这不仅能够提升整体交通系统的效率,还能够更好地满足不同乘客的出行需求,为城市居民和游客提供更为便利、高效的出行体验。
Tucker分解[3]是一种用于高维数据分析和表示的数学技术。它类似于矩阵的Singular Value Decomposition (SVD),但更适用于多维张量。通过Tucker分解,一个高阶张量被拆解为一个核张量与一组模态矩阵的乘积。核张量捕捉了原始数据的关键结构和特征,而模态矩阵则提供了每个维度上的权重和模式信息。这种分解方法的优势在于可以有效地压缩高维数据,减少存储需求,并提取数据中的重要信息。Tucker分解在多领域有着广泛的应用,包括信号处理、图像压缩、语音识别和神经网络等领域[4]-[7]。通过理解原始数据的内在结构,Tucker分解为研究者和工程师提供了一种强大的工具。
在本文中,我们将tucker分解与神经网络相结合,提出了一种新的出租车出行需求预测方法Tucker Decomposition-Core Tensor Learning Network (TD-CTLN)。TD-CTLN模型不仅能够捕获多个区域之间的空间相关性,而且能够捕获时间序列中的长期依赖关系,同时外部因素的潜在影响也被考虑在内。所以,在五个真实世界的数据上,与baselines相比,TD-CTLN均取得了优秀的预测性能。本文的主要贡献有3点:1) 我们将Tucker分解方法与神经网络模型相结合,借助Tucker分解提升了对于空间相关性的捕获能力,同时减少了计算开销,加快了计算速度。2) TD-CTLN在有效捕捉时空依赖关系的同时,还将外部因素的潜在影响纳入了模型的建模范围。3) 我们使用了五个真实世界的数据集来评估所提出的预测模型,与baselines相比所提模型的预测性能更加优秀。
2. 相关工作
由于传统的统计学方法具有可解释强,有坚实的理论基础等优点,受到研究人员的认可并被广泛使用。Faghih等人[8]以线性回归模型为基础结合ARMA模型,提出了一种称为linear regression with ARMA errors的组合模型。他们使用该方法对纽约市曼哈顿区的黄色出租车需求进行了建模和预测。Yan等人[9]注意到了各区域的差异,基于时空异质性,提出了一种分类回归树–K–最近邻(CART-KNN)混合预测模型来预测短期出租车需求,并利用纽约市出租车和豪华轿车委员会(TLC)的数据对所提方法进行了测试,其表现优于一般的神经网络模型。Jiao等人[10]传统卡尔曼滤波方法的基础上提出了基于误差校正系数的修正卡尔曼滤波模型、基于历史偏差的修正卡尔曼滤波模型、基于贝叶斯组合和非参数回归的修正卡尔曼滤波模型,并将其应用于短期轨道交通的客流预测。
Liu等人[11]基于随机森林模型(RFM)和零回归模型(RRM)提出了一种组合预测模型,用来预测单区域的的热点地区的出租车需求。同时,在分析了打车需求与网约车需求之间的关系后,他们还提出了一种实时预测在线出租车需求的方法[12],该方法基于反向传播神经网络(BPNN)和极端梯度提升(XGB)来预测在线打车需求。这些方法都属于非深度学习方法,它假设出租车需求遵循一些预定义的模式,这些模式在计算上简单且易于实现。然而,这些方法未能捕捉到出租车需求的复杂非线性关系。
其中,深度学习近十年来的发展受到了研究人员的广泛关注,相较于传统的方法,深度学习模型能够更好地捕捉时序数据中的复杂关系和非线性模式,从而提高预测的准确性。Luo等人[13]在考虑时空依赖性的情况下,提出了一种多任务深度学习(MTDL)模型,用于预测多区域水平的短期出租车需求,该方法应用了非线性Granger因果关系检验探索各交通区域之间的因果关系,以长短期记忆(LSTM)为核心神经单元,构建多任务深度学习模型的框架。Chu等人[14]没有使用可能导致地理信息丢失的传统OD矩阵,而是提出了被称为OD张量的数据结构,并使用多尺度卷积长短期记忆网络(Multi Conv LSTM)来对出行需求进行预测。Xu等人[15]全面考虑影响城市出行需求的自然环境因素和社会经济因素,并提出了一种考虑影响因素的城市出行需求预测模型(UTDP-IF)。Lai等人[16]提出了一种基于LSTM的组合模型,该模型可以根据最近的需求和其他相关信息(例如,天气、兴趣点)来预测出租车需求。这种方法尽管将时间相关性和外部因素的影响都纳入了考虑,但是却忽视了区域之间的空间相关性。Liao等人[17]考虑了影响出租车需求的多种因素,并提出了一种结合多模态信息的图神经网络模型。Luo等人[18]提出来时空扩散卷积网络(ST-DCN)来预测出租车出行需求,引入注意力机制的两阶段图扩散卷积网络有效地捕获了动态空间依赖关系,还设计了一种新的时间卷积模块来学习各种范围的时间依赖关系。尽管已经进行了许多研究来模拟出租车需求数据中的时空依赖关系,但它们有些无法有效地同时捕捉时空依赖关系,有些没有考虑外部因素对于出租车需求的影响。
3. 方法与模型
我们使用小写字母表示向量,例如,
。使用大写字母表示矩阵,例如,
。使用罗马字母表示高阶(N ≥ 3)张量,例如,
。我们将张量
的第(m, n)个实体定义为
。张量
的Frobenius范数被表示为
。张量
与矩阵
的n模态积被定义为:
。张量
的模n展开被表示为
。张量展开的逆运算为fold,它被表示为
。
Tucker分解可以将一个高阶张量
表示为投影矩阵与因子矩阵之积的形式,如等式(1)所示。通过tucker分解可以提取数据的关键特征,,从而更好地理解数据的结构和模式。期中,核心张量可以看作是张量的关键特征,每个模态矩阵对应于原始张量中的一个维度,用于表示数据上的特征。
(1)
其中,
是低秩的核心张量,
的
,并且
,
为单位矩阵,张量
的Tucker秩用一个包含N个非负整数的向量来表示:
,Tucker秩向量的每个元素对应于Tucker分解中每个因子矩阵的秩。
Figure 1. Diagram of the TD-CTLN
图1. TD-CTLN模型流程图
Figure 2. Diagram of the CTLN
图2. CTLN结构图
本文所提出的TD-CTLN模型的流程和构建块如图1和图2所示。在这里,Tucker分解被用于提取数据的关键特征,而CTLN则用于捕获核心张量的特征以及时间相关性。在训练过程中,我们持续更新因子矩阵和CTLN的权重参数。一旦整个训练过程完成,TD-CTLN模型就能够通过新的核心张量序列来预测出租车的出行需求。时间序列以张量的形式作为TD-CTLN的输入。Tucker分解和CTLN在该模型中的作用是提取和学习张量中的关键特征。具体而言,Tucker分解用于分解高阶张量,从而获得核心张量序列和因子矩阵。与此同时,CTLN能够捕获核心张量序列之间的时间相关性。这种结合的方法为模型提供了更全面的信息,使其能够更准确地预测出租车出行需求。
为了提高模型TD-CTRN的预测精度,需要最小化中CTLN的预测误差以及Tucker分解过程的近似误差。
是通过CTLN捕获核心张量序列中的时间相关性得到的。所以,更新
也就是更新CTLN中的权重参数,其更新过程通过Adam优化算法完成。在CTLN中,每次更新核心张量
和因子矩阵
后,都会使得CTLN再次进行训练,进而更新权重参数。
正如之前所说,CTLN用于捕获核心张量序列的时间相关性。其结构主要由四部分构成,分别为ConvGRU layer,Weighted sum,Multilayer perception和External factor。首先,将核心张量序列作为ConvGRU layer输入,从而使用ConvGRU cell捕获核心张量序列的时间相关性,然后将ConvGRU cell的输出经过Weighted sum进行计算,这将进一步地提高对时间相关性的捕获能力。
然后,通过Multilayer perception层进一步提升CTLN的拟合能力。为了捕获外部因素对于出租车出行需求的影响,例如天气,温度,湿度,节假日,工作日。我们使用了全连接层对其可能带来的影响进行特征映射,然后将输出结果输入到非线性激活函数Relu,这有助于捕获外部因素与出租车出行需求之间潜在的非线性关系。最后,我们将外部因素的潜在影响与Multilayer perception的输出进行特征融合,最终得到核心张量的预测值。
4. 实验
4.1. 数据集介绍
Table 1. System resulting data of standard experiment
表1. 标准试验系统结果数据
Dataset |
TaxiBJ13 |
TaxiBJ14 |
TaxiBJ15 |
TaxiBJ16 |
NYC-Taxi |
Location |
Beijing |
New York |
Time span |
7/1/2013-10/30/2013 |
3/1/2014-6/30/2014 |
3/1/2015-6/30/2015 |
11/1/2015-4/10/2016 |
01/01/2015-02/10/2015 |
Sampling interval |
30 minutes |
Gird map size |
(32, 32) |
(10, 20) |
Min-max demand |
[0, 1230] |
[0, 1285] |
[0, 1267] |
[0, 1151] |
[0, 1283] |
我们使用了五个真实世界的公开数据集来评估T-SARIMA的性能,数据集的属性如表1所示。TaxiBJ数据集是四个时间段的北京出租车流量数据。北京整个城市被划分为32 × 32的网格。NYC-Taxi数据集为01/01/2015到02/10/2015的纽约市出租车流量数据。整个纽约市被划为10 × 20的网格。
4.2. 基准模型
我们将T-SARIMA与以下五个基准模型进行比较:
VAR:VAR (Vector Autoregression)模型是一种强大的统计和计量经济学工具,用于分析和预测多个时间序列变量之间的动态互动关系。VAR模型假定系统中的每一个时间序列变量都是其滞后项以及其他所有变量滞后项的线性函数。这种模型不仅考虑了单个时间序列的自相关性,还考虑了不同时间序列之间的交叉相关性,因此非常适合于宏观经济预测、金融市场分析等场景。
CNN + LSTM:CNN (卷积神经网络) + LSTM (长短期记忆网络)的组合模型,在处理包含空间和时间维度的复杂数据时展现出卓越的性能。CNN擅长从图像、视频等数据中自动提取局部空间特征,而LSTM则擅长捕捉序列数据中的长期时间依赖关系。这种混合模型首先利用CNN层提取输入数据的空间特征,然后将这些特征传递给LSTM层,以进一步学习数据在时间维度上的变化模式。
CNN + GRU:CNN + GRU模型在保留CNN提取空间特征能力的同时,利用GRU简化时间建模过程,适用于对实时性要求较高的应用场景,如实时视频分析、在线交通流预测等。此外,由于GRU的结构优势,该模型在处理一些特定类型的时空数据时可能表现出比CNN + LSTM更好的性能。
ConvLSTM:ConvLSTM是一种融合了CNN和LSTM的神经网络模型,用于处理具有时空结构的序列数据。ConvLSTM结合了CNN在提取空间特征方面的优势和LSTM在建模时间相关性方面的优势,能够有效地处理视频、图像序列等具有时空关系的数据。
ConvGRU:ConvLSTM是一种融合了CNN和GRU的神经网络模型,可以处理具有时空结构的序列数据。
4.3. 实验结果
我们使用了五个真实世界的数据集来评估baselines和TD-CTLN的预测性能,其结果如表2所示。我们所提出的TD-CTLN模型在五个数据集上均取得了最低的MAE和RMSE,显著优于所有的baselines。
Table 2. Model comparison evaluated on five real-word datasets
表2. 在五个真实世界数据集上的结果
Datasets |
Criteria |
VAR |
CNN + GRU |
CNN + LSTM |
ConvGRU |
ConvLSTM |
TD-CTLN |
TaxiBJ13 |
MAE |
19.01 |
17.98 |
17.25 |
16.73 |
13.25 |
10.58 |
RMSE |
26.10 |
29.92 |
25.55 |
29.32 |
23.84 |
19.24 |
TaxiBJ14 |
MAE |
21.34 |
18.71 |
18.52 |
15.21 |
14.08 |
11.34 |
RMSE |
30.46 |
30.11 |
28.64 |
26.99 |
25.35 |
19.76 |
TaxiBJ15 |
MAE |
16.10 |
15.76 |
15.01 |
13.89 |
13.76 |
12.17 |
RMSE |
24.58 |
30.74 |
26.15 |
24.59 |
24.68 |
20.50 |
TaxiBJ16 |
MAE |
17.82 |
16.48 |
15.42 |
14.37 |
12.52 |
8.56 |
RMSE |
27.98 |
26.56 |
20.61 |
25.32 |
21.89 |
15.40 |
NYC-Taxi |
MAE |
14.24 |
12.27 |
12.60 |
9.13 |
10.13 |
6.18 |
RMSE |
32.47 |
31.60 |
33.03 |
28.03 |
25.58 |
17.02 |
具体来说,传统的时间序列预测方法,即VAR,表现并不够出色。因为它仅仅基于历史数据进行预测,而忽视了区域之间的空间相关性。另外,VAR模型对于时间序列数据的平稳性有较高的要求,但是出租车出行需求数据往往具有明显周期性以及复杂的非线性关系,这也是VAR模型性能并不出色的原因之一。对于CNN + GRU和CNN + LSTM来说,卷积模块的使用使得模型能够捕获一部分时间序列中的空间相关性,同时GRU和LSTM能够较好地捕捉时间序列中的时间依赖关系,所以相较于VAR模型,CNN + GRU和CNN + LSTM在预测性能表现更加出色。ConvGRU和ConvLSTM能够同时捕捉时空数据中的空间和时间特征。它通过卷积操作在空间上进行特征提取,并通过GRU单元和LSTM单元在时间上建模时间依赖关系。同时,端到端学习方式,使得模型可以直接从原始数据中学习时空特征,而无需手工提取特征。所以,ConvGRU和ConvLSTM的性能相较于CNN + GRU和CNN + LSTM来说,有了进一步地提升。我们所提出的TD-CTLN模型,在五个数据集上相较于baselines,预测性能优势明显。在TaxiBJ13,TaxiBJ14,TaxiBJ15,TaxiBJ16,NYC-Taxi上MAE分别平均降低了37.19%、35.47%、18.34%、44.13%和47.06%,RMSE分别平均降低了28.60%,30.20%,21.60%,37.07%和43.53%。这是因为,通过不断更新的因子矩阵,使得TD-CTLN能够充分捕获各区域之间的空间相关性。同时,CTLN能够充分捕获核心张量之间的时间依赖关系。另外,模型还考虑到了外部因素对于出租车出行需求数据存在的潜在影响,这使得模型能够更好地拟合时间序列中的局部极值[19] [20]。
Figure 3. Prediction results on TaxiBJ16
图3. 在TaxiBJ16数据集上的预测结果
另外,如图3和图4所示,我们可视化了TD-CTLN模型和其余baselines在TaxiBJ16和NYC-taxi数据集上对某一区域的预测效果,时间跨度为336个时间片。从图3和图4中,我们不难看出,VAR模型受限于模型复杂度,对于突发性、极端的变化,VAR模型无法很好地适应,从而影响了模型的预测性能。CNN + GRU和CNN + LSTM相较于VAR来说,卷积操作的引入使得模型能够捕获一定程度的区域之间的空间相关性,这使得它们的预测能力得到了提升。另外,从图3和图4中,我们可以看出,ConvGRU和ConvLSTM在拟合出租车出行需求数在高峰期的复杂变化方面的能力更加强大。这是因为它们能够同时捕捉时空数据中的空间和时间特征,同时更加复杂的参数使得其能够应对出租车出行需求数的复杂变化。相较于baselines,我们所提出的TD-CTLN的预测性能更加的优秀。TD-CTLN不仅能够捕获数据之间的空间相关性和时间相关性,而且考虑了外部因素对于数据变化的影响,使得模型能够更好地应对出租车出行需求数据中的复杂非线性关系。
Figure 4. Prediction results on NYC-taxi
图4. 在NYC-taxi数据集上的预测结果
5. 结论与展望
本文提出了一种新时空预测模型TD-CTLN,并成功地将其应用于出租车需求预测。TD-CTLN可以借助Tucker分解有效地捕获空间依赖性。TD-CTLN可以通过CTLN来学习长期的时间依赖性。同时,我们还验证了Tucker分解在特征提取和减少计算开销方面的优势。此外,我们还考虑了外部因素的潜在影响,以获得更准确的预测结果。在五个大规模真实世界的出租车数据集上的实验表明,我们的方法能够达到最佳的预测性能,这说明了我们模型的优越性。
对于未来的工作,我们将进一步优化模型的结构和参数设置。此外,我们计划将所提出的模型应用于其他时空预测任务。
基金项目
本研究得到了中国国家自然科学基金联合基金重点项目的支持,资助号为U22B2057。
NOTES
*通讯作者。