智能交通系统是解决当前城市交通拥堵顽疾的常用技术方案,而交通流量预测是构建智能交通系统的基础。在城市管理中,准确地预测交通流量不仅有助于交通管理部门对道路拥堵进行预判从而提早疏导,而且有助于提升道路通行效率,减少交通事故,并节约人们的出行时间[1]。
交通流量预测是典型的时空数据预测问题。图 1是交通流量数据的时空相关性示意图,其中时间维度上包含2个连续时间切片,空间维度上包含3个节点表示道路网结构。在时间维度上,某个节点的流量会受到其历史流量数据的影响; 在空间维度上,某个时刻不同节点的流量之间也会互相影响。因此,研究人员提出使用循环神经网络[2]或者一维卷积神经网络[3]来捕获时间相关性,并使用二维卷积神经网络[4]或者图卷积网络[5]来捕获空间相关性。然而,现有工作忽略了某时刻某节点流量数据也将影响未来某时刻其他节点流量的情况。因此,当前主流的分别使用2个模块捕获时间和空间相关性的方法,不能有效地捕获交通流量数据中的动态和复杂的时空相关性。
|
| 图 1 交通流量数据的时空相关性 |
为了应对交通流数据中处于不同时间步的不同节点之间的时空相关性难以有效建模的挑战,本文提出了时空组合图卷积网络(spatio-temporal combinational graph convolutional networks, STCGCN)模型。首先,根据时空嵌入向量构建跨时间切片的自适应时空组合图邻接矩阵,该邻接矩阵能够在训练过程中自动学习参数,以适应节点之间的复杂时空相关性。然后,设计时空组合图卷积,捕获交通流量数据中的时空相关性,融合历史时间步的时空特征,输出预测结果。最后,在真实的公开数据集上进行了实验验证。本文的主要贡献为:1) 构建了自适应时空组合图,同时包含了动态的时间相关性、空间相关性、跨时空相关性;2) 提出了STCGCN模型,能够捕获交通流量数据中动态和复杂的时空相关性;3) 在真实的高速公路流量数据集上进行实验,验证了本文模型的预测效果优于11个现有预测方法。
1 相关工作交通流量预测是交通领域的一个传统问题,经过几十年的研究,取得了大量的研究成果[6]。早期的研究工作主要基于统计学方法,包括历史平均模型、差分自回归滑动平均模型、向量自回归模型等[7],这类方法无法有效地处理非线性的交通流量数据。为了对复杂的交通流量数据进行建模,传统的机器学习模型被应用到交通流量预测领域,如K近邻模型、支持向量机模型等[8],但这些机器学习方法无法对交通流量数据中的时空相关性进行有效建模,而且需要大量的特征。随着深度学习技术的发展,研究人员提出使用深度置信网络、堆栈自编码器模型、长短时记忆网络等来预测交通流量。但是,这类早期的基于神经网络的方法主要关注交通流量数据在时间维度上的相关性。为了捕获空间相关性,Zhang等[4]基于残差卷积网络设计了时空残差网络(spatio-temporal residual networks, ST-ResNet)。但是,ST-ResNet只能用于规则的网格数据,而无法应用于复杂的城市道路、高速路网的交通流量预测[9]。
近年来,图卷积神经网络开始兴起[10]。不同于传统的卷积神经网络只能应用于规则的网格数据,图卷积神经网络可以直接在图结构数据上实现卷积操作。图卷积神经网络的强大图结构数据建模能力在交通流量预测领域引起了广泛关注。研究人员使用图卷积网络捕获不同节点之间的空间相关性,使用门控循环单元(gated recurrent unit, GRU)网络[2]或者一维卷积神经网络(one-dimensional convolutional neural network, 1D CNN)[3]捕获节点在时间维度上的相关性。这些代表性工作包括扩散卷积循环神经网络(diffusion convolutional recurrent neural network, DCRNN)[2]、时空图卷积网络(spatio-temporal graph convolutional networks, STGCN)[3]、基于波形网络的图卷积神经网络(Graph WaveNet)[11]、基于注意力机制的时空图卷积网络(attention based spatial-temporal graph convolutional networks, ASTGCN)[12]、时空同步图卷积网络(spatial-temporal synchronous graph convolutional networks, STSGCN)[13]、图多注意力网络(graph multi-attention network, GMAN)[14]、自适应图卷积循环网络(adaptive graph convolutional recurrent network, AGCRN)[15]、时间感知“之”字形图卷积网络(time zigzags at graph convolutional networks, Z-GCNETs)[16]等。这些基于图神经网络的方法大多设计2个模块来分别对交通流量数据的时间和空间相关性建模,并在交通流量预测中取得了良好性能,但是由于将时间相关性和空间相关性分开建模,无法有效地捕获交通流量数据中的动态和复杂的时空相关性。
2 问题定义假设道路网中有N个节点,每个节点每间隔一定时间(如5 min)都会采集C个交通状态类型数据(如车流量、平均车速、平均车道占有率等)。t时刻所有节点的交通流量数据可以表示为
交通流量预测的目标是给定历史上P个时刻所有N个节点的交通流量数据
图 2展示了本文提出的STCGCN的总体架构。STCGCN由3个模块组成:时空组合图构建模块、时空组合图卷积模块、预测模块。
|
| 图 2 时空组合图卷积网络 |
3.1 时空组合图构建模块
现有基于图卷积的交通流量预测方法大多使用预定义的图结构[2-3],其主要缺陷是难以捕获交通网络中节点之间蕴含的潜在时空相关性[11, 15]。一些研究提出了使用自适应的图结构,通过端到端训练学习邻接矩阵,取得了较好的预测结果[11, 15],但由于仅使用了空间维度上的图结构,依然无法对动态的空间相关性有效建模。为此,本文提出了时空组合图构建模块,以同时挖掘动态的时间相关性、空间相关性以及跨时空相关性(如图 1所示)。该模块包括2个子模块:
1) 时空嵌入。
(1) 节点嵌入。首先为每个节点随机初始化一个节点嵌入向量,然后使用全连接网络把节点嵌入向量映射至D维空间中。
(2) 时间特征。由于交通流量具有明显的周期性,因此本文引入时间特征来构建时空嵌入向量。本文考虑2个时间特征,分别是当前时刻t处于一天中的第几个时刻(time-of-day)和当天处于一周中的第几天(day-of-week)。首先将2个时间特征转化为独热编码并进行拼接,得到时间特征向量,然后使用另一个全连接网络把它映射至D维空间中。
(3) 时空嵌入。在每个时刻每个节点,把节点嵌入向量和时间特征向量相加,得到所有节点在每个时刻的时空嵌入向量
2) 自适应时空组合图。
(1) 潜在空间建模方法[17]。给定一个图,假设所有节点均处在一个潜在空间中,节点在这个空间中的向量表示以及向量各个元素之间的交互关系共同影响着节点之间的关联关系。具体地,需要学习2个矩阵:
(2) 自适应时空组合图邻接矩阵。基于时空嵌入和潜在空间建模方法,自适应时空组合图邻接矩阵可以定义为:
| $ \widetilde{\boldsymbol{A}}_t=\operatorname{softmax}\left[\psi\left(\boldsymbol{E}_t \boldsymbol{B} \boldsymbol{E}_t^{\mathrm{T}}\right)\right] . $ | (1) |
| $ \psi(x)= \begin{cases}x, & x \geqslant \delta ; \\ 0, & \text { 其他. }\end{cases} $ | (2) |
式(2)的ψ(x)用于丢弃邻接矩阵中的弱连接(小于指定阈值δ),式(1)中的softmax函数用于规范化操作。
| $ \widetilde{\boldsymbol{A}}_{t-1, t}=\operatorname{softmax}\left[\psi\left(\boldsymbol{E}_{t-1} \boldsymbol{B} \boldsymbol{E}_t^{\mathrm{T}}\right)\right] . $ | (3) |
式中
基于3.1节的时空组合图构建模块,本节提出了时空组合图卷积模块。通过定义自适应的时空组合图卷积算子,构建自适应时空组合图卷积层,以从输入的交通流量序列中提取时空特征。
1) 时空组合图卷积算子。
Kipf等[18]提出的空间图卷积算子的定义为
| $ \boldsymbol{Z}=\phi(\tilde{\boldsymbol{A}} \boldsymbol{X} \boldsymbol{W}+\boldsymbol{b}) . $ | (4) |
式中:
基于时刻t-1和时刻t之间的时空组合图邻接矩阵
| $ \boldsymbol{Z}_t=\phi\left(\widetilde{\boldsymbol{A}}_{t-1, t}{ }_t \boldsymbol{X}_{t-1} \boldsymbol{W}_1+\widetilde{\boldsymbol{A}}_t \boldsymbol{X}_t \boldsymbol{W}_2+\boldsymbol{b}\right) . $ | (5) |
式中:
2) 时空组合图卷积层。
基于时空组合图卷积算子,可以构建时空组合图卷积层。如图 3所示,首先使用全连接网络把输入的交通流量数据映射至D维空间中,然后输入到多层时空组合图卷积层中。时空组合图卷积算子构建了相邻2个时刻一阶邻居的时空相关性,通过堆叠多层的时空组合图卷积层,可以捕获更长期更高阶邻居范围内的时空相关性。为了减缓梯度消失的问题,堆叠的时空组合图卷积层中采用了残差连接[19]。
|
| 图 3 时空组合图卷积模块与预测模块 |
3.3 预测模块
经过L层的时空组合图卷积层捕获时空相关性,得到了所有历史P个时刻的隐藏状态
| $ \widetilde{\boldsymbol{Z}}=\left[\boldsymbol{Z}_1^{(L)}, \boldsymbol{Z}_2^{(L)}, \cdots, \boldsymbol{Z}_P^{(L)}\right], $ | (6) |
| $ \hat{\boldsymbol{X}}=\boldsymbol{W}_4\left(\phi\left(\boldsymbol{W}_3 \widetilde{\boldsymbol{Z}}+\boldsymbol{b}_3\right)\right)+\boldsymbol{b}_4. $ | (7) |
式(6)中[·,·]表示拼接操作,式(7)中
本文使用平均绝对误差函数(mean absolute error, MAE)作为损失函数:
| $ \mathcal{L}(\boldsymbol{\varTheta})=\frac{1}{Q} \sum\limits_{i=1}^Q\left|\hat{\boldsymbol{X}}_{P+i}-\boldsymbol{X}_{P+i}\right| . $ | (8) |
式中:Θ表示网络中的所有可学习参数,
本文使用美国加利福尼亚州交通局性能测量系统(Caltrans performance measurement system, PeMS)采集的2个高速公路数据集PeMSD4和PeMSD8来开展实验[12-13]。2个数据集的基本情况如表 1所示。
| 数据集 | 时间范围 | 时间间隔/min | 传感器个数 |
| PeMSD4 | 2018-01-01—2018-02-28 | 5 | 307 |
| PeMSD8 | 2016-07-01—2016-08-31 | 5 | 170 |
4.2 评价指标及基准模型
本文使用均方误差(root mean square error, RMSE)和MAE 2个常用的指标来评价模型性能:
| $ \mathrm{RMSE}=\sqrt{\frac{1}{Q} \sum\limits_{i=1}^Q\left(\hat{\boldsymbol{X}}_{P+i}-\boldsymbol{X}_{P+i}\right)^2}, $ | (9) |
| $ \mathrm{MAE}=\frac{1}{Q} \sum\limits_{i=1}^Q\left|\hat{\boldsymbol{X}}_{P+i}-\boldsymbol{X}_{P+i}\right| . $ | (10) |
本文使用以下11个已有的交通流量预测方法作为基准模型进行对比:
1) 向量自回归(vector autoregressive, VAR)模型[7]:传统的时间序列模型,可以捕获多个时间序列之间的相关性。
2) 支持向量机回归(support vector regression, SVR)[8]:将支持向量机应用于回归任务的方法。
3) 全连接的长短期记忆递归(fully connected long-short term memory, FC-LSTM)神经网络[20]:基于长短期记忆递归神经网络的编码器-解码器框架。
4) DCRNN[2]:基于扩散图卷积和GRU的编码器-解码器框架。
5) STGCN[3]:基于Chebyshev图卷积和一维卷积构建的时空图卷积网络。
6) ASTGCN[12]:基于注意力机制的时空图卷积网络。
7) Graph WaveNet[11]:构建了自适应邻接矩阵的时空图卷积网络。
8) STSGCN[13]:在局部时空子图上建模时空相关性的时空图卷积网络。
9) AGCRN[15]:使用自适应邻接矩阵建模空间相关性、使用GRU建模时间相关性的时空图网络。
10) GMAN[14]:完全使用注意力机制的多重注意力时空图网络。
11) Z-GCNETs[16]:基于“之”字形持久性理论的时空图网络。
4.3 实验方法本文对原始数据进行0均值标准化,并按照6∶2∶2的比例划分训练集、验证集和测试集。依据现有方法[15-16]的设定,本文使用历史1 h (12个时刻,P=12)的数据预测未来1 h (Q=12)的数据。每次实验运行200轮,并保存在验证集上表现最好的模型作为最终预测模型。每个实验重复5次,记录平均误差和标准差。
模型训练使用的优化器为自适应矩估计优化器(adaptive moment estimation, Adam),初始学习率为0.001。模型中的激活函数使用修正线性单元(rectified linear unit, ReLU)激活函数,并且在每个ReLU之前添加批规范层(batch normalization layer, BN)。STCGCN中的超级参数有3个:时空组合图卷积层的层数L、自适应时空组合图邻接矩阵中的阈值δ和隐藏状态的维度D。表 2列出了模型在PeMSD4和PeMSD8数据集上的超级参数设置。
4.4 实验结果与分析 4.4.1 与基准方法的性能对比
1) 总体性能对比。表 3列出了STCGCN与基准方法在2个数据集上的实验结果对比。可以看出,传统的时间序列预测方法无法有效地对交通数据中复杂的时空相关性建模,预测性能不理想; 相比于传统方法,机器学习和深度学习方法可以取得更好的预测结果,基于图神经网络的方法在时空相关性的建模上优于一般的深度学习方法,有效降低了误差; 本文提出的STCGCN模型使用统一的组件有效挖掘了交通流量数据中动态的时间相关性、空间相关性和跨时空相关性,取得了最优预测结果。
| 模型 | PeMSD4数据集 | PeMSD8数据集 | |||
| RMSE | MAE | RMSE | MAE | ||
| VAR | 37.76 | 24.44 | 19.83 | 29.24 | |
| SVR | 38.91 | 26.18 | 20.92 | 31.23 | |
| FC-LSTM | 37.11±0.50 | 23.60±0.52 | 21.18±0.27 | 31.88±0.43 | |
| DCRNN | 37.48±0.10 | 24.42±0.06 | 18.49±0.16 | 27.30±0.22 | |
| STGCN | 36.43±0.22 | 23.90±0.17 | 18.79±0.49 | 28.23±0.36 | |
| ASTGCN | 35.59±0.35 | 22.90±0.20 | 18.72±0.16 | 28.99±0.11 | |
| Graph WaveNet | 31.06±0.17 | 19.91±0.10 | 15.57±0.12 | 24.32±0.21 | |
| STSGCN | 31.02±0.29 | 19.62±0.16 | 16.12±0.25 | 24.89±0.52 | |
| AGCRN | 32.01±0.17 | 19.74±0.09 | 15.92±0.19 | 25.31±0.25 | |
| GMAN | 30.85±0.21 | 19.25±0.06 | 14.87±0.15 | 24.06±0.16 | |
| Z-GCNETs | 31.33±0.11 | 19.54±0.07 | 16.12±0.08 | 25.74±0.13 | |
| STCGCN | 30.38±0.05 | 18.86±0.03 | 14.47±0.05 | 23.66±0.06 | |
2) 各个时刻的性能对比。图 4展示了在PeMSD4(如图 4a所示)和PeMSD8(如图 4b所示)这2个数据集上,随着预测时长增加,Graph WaveNet等6种方法的RMSE和MAE变化情况。从图 4中RMSE和MAE的走势可以看出,随着预测时长增加,预测难度增大,各个模型的预测误差增大。但是,本文提出的STCGCN在各个预测时刻都取得了最好的预测结果,不仅在短期预测中取得了较高的预测精度,而且预测误差随着预测时长增大得更加缓慢。这说明本文提出的时空组合图卷积网络能够有效挖掘交通流量数据中的时空关联性。
|
| 图 4 不同方法随着预测时长的性能变化 |
4.4.2 超级参数设置的影响
图 5和6分别展示了在PeMSD4、PeMSD8这2个数据集上时空组合图卷积层的层数L、自适应时空组合图邻接矩阵中的阈值δ和隐藏状态的维度D 3个超级参数设置对模型性能的影响。
|
| 图 5 PeMSD4数据集上3个超级参数设置对模型性能的影响 |
|
| 图 6 PeMSD8数据集上3个超级参数设置对模型性能的影响 |
1) L的影响。从图 5a和6a中可以看出,随着层数L的增大,预测误差减小,这是因为层数更大的网络能够提取更丰富的时空特征。但是,当网络层数过大时,网络可能面临梯度消失的问题,因此模型性能开始下降。
2) δ的影响。从图 5b和6b中可以看出,随着δ的增大,预测误差先减小后增大,这是因为太小的阈值会导致邻接矩阵过于稀疏,丢失节点之间的连接关系,而太大的阈值则会引入不必要的信息,导致模型性能下降。
3) D的影响。从图 5c和6c中可以看出,当隐藏状态维度D较小时,模型复杂度较低,无法有效地对复杂的交通流量数据建模。随着维度的增大,模型预测误差开始减小。但是,当隐藏状态维度太大时,模型可能面临过拟合的问题,导致性能快速下降。
4.4.3 模型参数量和运算时间的对比表 4列出了DCRNN等9种方法在2个数据集上的模型参数量和运算时间的对比。
| 模型 | PeMSD4数据集 | PeMSD8数据集 | |||||
| 模型参数量/106 | 训练时间/(s·轮-1) | 推断时间/s | 模型参数量/106 | 训练时间/(s·轮-1) | 推断时间/s | ||
| DCRNN | 0.37 | 69.55 | 11.97 | 0.37 | 46.41 | 8.81 | |
| STGCN | 0.38 | 6.54 | 13.44 | 0.30 | 4.24 | 9.37 | |
| ASTGCN | 0.45 | 53.51 | 14.67 | 0.18 | 47.07 | 14.01 | |
| Graph WaveNet | 0.31 | 32.40 | 2.60 | 0.31 | 20.48 | 1.72 | |
| STSGCN | 2.87 | 56.18 | 6.03 | 1.66 | 31.23 | 3.09 | |
| AGCRN | 0.75 | 37.05 | 5.55 | 0.75 | 21.74 | 3.04 | |
| GMAN | 0.57 | 82.40 | 9.16 | 0.57 | 32.27 | 4.06 | |
| Z-GCNETs | 0.52 | 88.41 | 11.84 | 0.52 | 52.51 | 7.36 | |
| STCGCN | 0.24 | 42.00 | 4.90 | 0.21 | 19.63 | 2.26 | |
1) 模型参数量。STCGCN拥有几乎最少的模型参数量。
2) 训练时间。STGCN的训练时间最少,STCGCN与Graph WaveNet、AGCRN次之且相近。
3) 推断时间。推断时间指模型在验证集上的运行时间,STCGCN与Graph WaveNet、AGCRN所用的时间最少。
综合预测精度和算法效率2个因素,本文所提出的STCGCN具有明显优势:1) STCGCN与所有基准方法相比,具有最高的预测精度(表 3); 2) STCGCN与STGCN和Graph WaveNet等方法在训练和推断时均具有近似的算法效率(表 4)。
5 军事领域应用前景分析本文提出的面向大规模交通网络的时空关联挖掘方法STCGCN在军事领域的应用前景如下:1) STCGCN能够在战前对目标区域的交通状态进行有效建模,并准确定位城市交通枢纽和关键通道,以辅助战术部队对关键目标进行有效打击,从而达到战前瘫痪敌方交通运输网络的效果。2) STCGCN能够在战后对城市的交通态势进行有效分析,并迅速检测城市的异常交通行为,以辅助城市的反恐工作,达到战后快速恢复城市生产生活秩序的效果。
6 总结本文提出了时空组合图卷积网络模型STCGCN,通过构建时空组合图来有效揭示大规模交通网络中的复杂时空关联特性,并设计时空组合图卷积,同时挖掘数据中动态的时间相关性、空间相关性和跨时空相关性。首先,根据时空嵌入向量构建跨时间切片的自适应时空组合图邻接矩阵,该邻接矩阵能够在训练过程中自动学习参数,以适应节点之间的复杂时空相关性。然后,设计时空组合图卷积捕获交通流量数据中的时空相关性。最后,融合历史时间步的时空特征,输出预测结果。在真实的高速公路流量数据集上的实验结果表明,本文提出的模型的预测效果优于其他11个已有的交通预测方法,验证了该模型在大规模交通网络的时空关联挖掘方面具有显著优势。未来,将把该模型应用到其他多源异构数据融合任务中来进一步拓展模型的适用场景。
| [1] |
VERES M, MOUSSA M. Deep learning for intelligent transportation systems: A survey of emerging trends[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(8): 3152-3168. DOI:10.1109/TITS.2019.2929020 |
| [2] |
LI Y G, YU R, SHAHABI C, et al. Diffusion convolutional recurrent neural network: Data-driven traffic forecasting[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada: OpenReview. net, 2018: 1-16.
|
| [3] |
YU B, YIN H T, ZHU Z X. Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting[C]//Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence. Stockholm, Sweden: ijcai. org, 2018: 3634-3640.
|
| [4] |
ZHANG J B, ZHENG Y, QI D K. Deep spatio-temporal residual networks for citywide crowd flows prediction[C]//Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence. San Francisco, USA: AAAI Press, 2017: 1655-1661.
|
| [5] |
冯宁, 郭晟楠, 宋超, 等. 面向交通流量预测的多组件时空图卷积网络[J]. 软件学报, 2019, 30(3): 759-769. FENG N, GUO S N, SONG C, et al. Multi-component spatial-temporal graph convolution networks for traffic flow forecasting[J]. Journal of Software, 2019, 30(3): 759-769. (in Chinese) |
| [6] |
ZHENG C P, WANG C, FAN X L, et al. STPC-Net: Learn massive geo-sensory data as spatio-temporal point clouds[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(8): 11314-11324. DOI:10.1109/TITS.2021.3102747 |
| [7] |
BOX G, JENKINS G, REINSEL G, et al. Time series analysis: Forecasting and control[M]. 5th ed. Hoboken, USA: John Wiley and Sons, 2015.
|
| [8] |
WU C H, HO J M, LEE D T. Travel-time prediction with support vector regression[J]. IEEE Transactions on Intelligent Transportation Systems, 2004, 5(4): 276-281. DOI:10.1109/TITS.2004.837813 |
| [9] |
ZHENG C P, FAN X L, WEN C L, et al. DeepSTD: Mining spatio-temporal disturbances of multiple context factors for citywide traffic flow prediction[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(9): 3744-3755. DOI:10.1109/TITS.2019.2932785 |
| [10] |
徐冰冰, 岑科廷, 黄俊杰, 等. 图卷积神经网络综述[J]. 计算机学报, 2020, 43(5): 755-780. XU B B, CEN K T, HUANG J J, et al. A survey on graph convolutional neural network[J]. Chinese Journal of Computers, 2020, 43(5): 755-780. (in Chinese) |
| [11] |
WU Z H, PAN S R, LONG G D, et al. Graph wavenet for deep spatial-temporal graph modeling[C]//Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macao, China: AAAI Press, 2019: 1907-1913.
|
| [12] |
GUO S N, LIN Y F, FENG N, et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]//Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence and Thirty-First Innovative Applications of Artificial Intelligence Conference and Ninth AAAI Symposium on Educational Advances in Artificial Intelligence. Honolulu, USA: AAAI Press, 2019: 114.
|
| [13] |
SONG C, LIN Y F, GUO S N, et al. Spatial-temporal synchronous graph convolutional networks: A new framework for spatial-temporal network data forecasting[C]//Proceedings of the Thirty-Fourth AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2020: 914-921.
|
| [14] |
ZHENG C P, FAN X L, WANG C, et al. GMAN: A graph multi-attention network for traffic prediction[C]//Proceedings of the Thirty-Fourth AAAI Conference on Artificial Intelligence. New York, USA: AAAI Press, 2020: 1234-1241.
|
| [15] |
BAI L, YAO L N, LI C, et al. Adaptive graph convolutional recurrent network for traffic forecasting[C]//Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, Canada: Curran Associates, 2020: 1494.
|
| [16] |
CHEN Y Z, SEGOVIA-DOMINGUEZ I, GEL Y R. Z-GCNETs: Time zigzags at graph convolutional networks for time series forecasting[C]//Proceedings of the 38th International Conference on Machine Learning. Held Virtually: PMLR, 2021: 1684-1694.
|
| [17] |
DENG D X, SHAHABI C, DEMIRYUREK U, et al. Latent space model for road networks to predict time-varying traffic[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco, USA: ACM, 2016: 1525-1534.
|
| [18] |
KIPF T N, WELLING M. Semi-supervised classification withgraph convolutional networks[C]//Proceedings of the 5th International Conference on Learning Representations. Toulon, France: OpenReview. net, 2017: 1-14.
|
| [19] |
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 770-778.
|
| [20] |
SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada, 2014: 3104-3112.
|



