卷积卷积神经网络
卷积神经网络 时间:2021-02-25 阅读:(
)
*基金项目:国家自然科学基金(61703013,91646201);北京市自然科学基金Foundationitem:TheNationalNaturalScienceFoundationofChina(4192004)收稿时间:2020-05-24;修改时间:2020-09-03;采用时间:2020软件学报ISSN1000-9825,CODENRUXUEWJournalofSoftware,[doi:10.
13328/j.
cnki.
jos.
006170]中国科学院软件研究所版权所有.
面向时空图建模的图小波卷积神经网络模型姜山1,2,丁治明2,3+,朱美玲2,严瑾1,2,徐馨润1,21(中国科学院大学中国科学院软件研究所,北京100190)2(中国科学院软件研究所,北京100190)3(大规模流数据集成与分析技术北京市重点实验室,北京100190)通讯作者:丁治明,E-mail:zhiming@iscas.
ac.
cn摘要:时空图建模是分析图形结构系统中各要素空间关系与时间趋势的一个基础工作法,主要基于图中节点与节点关系固定的显式结构进行空间关系挖掘点间的时空依赖关系的传统建模方法不能捕获节点间的用于时空图建模的图神经网络模型,即面向时空图建模的图小波卷积神经网络模型NeuralNetworkforSpatiotemporalGraphModeling,GWNN一个图小波卷积神经网络层,并在该网络层中设计并引入了需要结构先验知识的情况下,从数据集中自动发现隐藏的结构信息因果卷积网络层,使模型的感受野能够随着卷积网络层数的增加呈指数增长列.
GWNN-STGM成功将图小波卷积神经网络层和扩张因果卷积网络层两个模块进行有效集成网络数据集上试验发现,提出的GWNN-STGM的性能优于其他的基准模型型在从输入数据集中探索时空结构方面具有很大的潜力关键词:图小波卷积;图卷积神经网络;时空图建模;时空结构中图法分类号:TP391.
41中文引用格式:姜山,丁治明,朱美玲,严瑾,徐馨润.
面向时空图建模的图小波卷积神经网络模型http://www.
jos.
org.
cn/1000-9825/6170.
htm英文引用格式:ShanJiang,ZhimingDing,MeilingZhu,JinYSpatiotemporalGraphModeling.
RuanJianXueBao/JournalofSoftware,9825/6170.
htmGraphWaveletConvolutionalNeuralNetworkforSpatioteJIANGShan1,2,DINGZhi-Ming2,3,ZHUMei-Ling21(UniversityofChineseAcademyofSciences,InstituteofSoftwareChineseAcademyofSciences,Beijing100190,China2(InstituteofSoftwareChineseAcademyofSciences,Beijing3(BeijingKeyLaboratoryonIntegrationandAnalysisofLarge-scaleStreamData+(Correspondingauthor:E-mail:zhiming@iscas.
ac.
cn)Abstract:Thespatiotemporalgraphmodelingisabasicworktoanalyzethespatialrelationshipandtimetrendofeachelementinthegraphstructuresystem.
Thetraditionalspatiotemporalgraphmodelingmethodismainlybasedontheexplicitstructureofnodfixedrelationshipbetweennodesinthegraphforspatialrelationshipmining,whichsetraditionalmethodscannotcapturelong-termtrends.
Toovercometheseshortcomings,anovelendspatiotemporalgraphmodelingisagraphwaveletconvolutionalneuralnetworkforspatiotemporalgraphmodelingcalledAgraphwaveletconvolutionalneuralnetworklayerisdesignedinnetworklayerfornodeembeddinglearningsothatthemodelcanbeusedwithoutpriorknowledgeofthestructure.
Thehidden北京市自然科学基金(4192004)ofChina(61703013,91646201);TheBeijingNaturalScienceFoundation2020-11-06;jos在线出版时间:2021-01-20E-mail:jos@iscas.
ac.
cnhttp://www.
jos.
org.
cnTel:+86-10-62562563卷积神经网络模型*100190)时空图建模是分析图形结构系统中各要素空间关系与时间趋势的一个基础工作.
传统的时空图建模方主要基于图中节点与节点关系固定的显式结构进行空间关系挖掘,这严重限制了模型的灵活性.
此外,未考虑节节点间的长时时空趋势.
为了克服这些缺陷,研究并提出了一种新的即面向时空图建模的图小波卷积神经网络模型(GraphWaveletConvolutional,GWNN-STGM),称为GWNN-STGM.
在GWNN-STGM中设计了并在该网络层中设计并引入了自适应邻接矩阵进行节点嵌入学习,使得模型能够在不从数据集中自动发现隐藏的结构信息.
此外,GWNN-STGM还包含了一个堆叠的扩张使模型的感受野能够随着卷积网络层数的增加呈指数增长,从而能够处理长时序成功将图小波卷积神经网络层和扩张因果卷积网络层两个模块进行有效集成.
通过在公共交通的性能优于其他的基准模型,这表明设计的图小波卷积神经网络模型在从输入数据集中探索时空结构方面具有很大的潜力.
时空结构;图神经网络面向时空图建模的图小波卷积神经网络模型.
软件学报,2021,32(3):.
Yan,XingrunXu.
GraphWaveletConvolutionalNeuralNetworkforJournalofSoftware,2021,32(3)(inChinese).
http://www.
jos.
org.
cn/1000-GraphWaveletConvolutionalNeuralNetworkforSpatiotemporalGraphModeling2,YANJin1,2,XUXing-Run1,2InstituteofSoftwareChineseAcademyofSciences,Beijing100190,China)100190,China)scaleStreamData,Beijing100190,China)spatiotemporalgraphmodelingisabasicworktoanalyzethespatialrelationshipandtimetrendofeachelementinthegraphstructuresystem.
Thetraditionalspatiotemporalgraphmodelingmethodismainlybasedontheexplicitstructureofnodesandthefixedrelationshipbetweennodesinthegraphforspatialrelationshipmining,whichseverelylimitstheflexibilityofthemodel.
Besides,Toovercometheseshortcomings,anovelend-to-endneuralnetworkmodelforspatiotemporalgraphmodelingisagraphwaveletconvolutionalneuralnetworkforspatiotemporalgraphmodelingcalledGWNN-STGM.
AgraphwaveletconvolutionalneuralnetworklayerisdesignedinGWNN-STGM.
Anself-adaptionadjacencymatrixisintroducedinthisnetworklayerfornodeembeddinglearningsothatthemodelcanbeusedwithoutpriorknowledgeofthestructure.
Thehiddenstructural2JournalofSoftware软件学报informationisautomaticallyfoundinthetrainingdataset.
Inaddition,GWNN-STGMincludesastackeddilatedcausalconvolutionalnetworklayersothatthereceptivefieldofthemodelcangrowexponentiallywiththeincreaseinthenumberofconvolutionalnetworklayersthatcanhandlelong-termsequences.
TheGWNN-STGMsuccessfullyintegratedthetwomodulesofgraphwaveletconvolutionalneuralnetworklayeranddilatedcausalconvolutionalnetworklayer.
ExperimentalresultsontwopublictransportationnetworkdatasetsshowthattheperformanceoftheproposedGWNN-STGMisbetterthanotherlatestbenchmarkmodels,whichshowsthatthedesignedgraphwaveletconvolutionalneuralnetworkmodelhasagreatabilitytoexplorethespatial-temporalstructurefromtheinputdataset.
Keywords:GraphWaveletConvolution;GraphConvolutionNeuralNetwork;SpatiotemporalGraphModeling;SpatiotemporalStructure;GraphNeuralNetwork1引言时空图建模(SpatiotemporalGraphModeling,STGM)是分析系统中各组件的空间关系和时间趋势的一项重要技术,时空图建模技术属于图数据管理领域中有关图结构数据的上层应用.
如图1所示,在时空图中,每个节点都有动态输入特征.
时空图建模的目标是在给定图结构的情况下,对每个节点的动态特征进行建模,这里的属性特指图结构中节点的信号输入属性特征,如建模图结构下各节点的特征变化趋势,从而完成对图节点特征的预测分析.
此外,时空图建模技术具有广泛的应用场景,比如对城市道路交通参数预测[1]、出租车需求量预测[2]、行为识别[3]等.
近年来,在深度学习技术的成功推动下,研究人员借鉴了卷积网络[4](ConvolutionNeuralNetwork,CNN)、循环神经网络[5](RecurrentNeuralNetwork,RNN)和深度自动编码器[6](DeepAutoencoder,DAE)的思想,定义和设计了用于处理图结构数据的神经网络模型[7].
随着图神经网络的发展,时空图建模越来越受到研究者的广泛关注.
时空图建模是通过图中节点间的依赖关系构建图节点的动态输入[8].
特别地,在城市道路短时交通速度和流量预测中,将安置在城市道路上的各个探测传感器看作是节点,那么布置在城市路网的交通传感器就构成一个图形结构,图中节点的连接边是通过两个节点的欧式距离来判定.
由于城市道路中各交通参数受各种因素制约,比如一条道路上的交通过度拥挤将会导致进入该道路的前序道路交通速度的降低,即一条道路的参数状态会影响其相连接的另一输入道路的交通状态,因此在对每条道路上的交通参数时间序列数据进行建模时,理应将城市交通探测系统构成的图形结构作为一种固有结构先验知识来建模节点间相互依赖关系.
Fig.
1TheSpatiotemporalGraphModeling.
Inaspatial-temporalgraph,eachnodehasdynamicinputfeatures.
Thetargetistomodeleachnode'sdynamicfeatureswithgivengraphstructure图1时空图建模.
在时空图中,每个节点都有动态输入特征.
在给定图结构的情况下,对每个节点的动态特征进行建模图结构具有丰富的空间属性模式,对图中各节点赋予时间依赖,则其就成为时空图结构.
如何同时捕捉图的空间和时间相关性是时空图建模研究的核心难点问题.
时空图建模的传统方法要么集中在图结构的关系性建模上,要么集中在节点级的时序建模上,往往忽略节点的空间关联关系和时间关联关系.
由于现实世界中各网络节点不仅受当前状态的影响还要受到其领域节点的影响,此外还要受到历史状态累积的影响.
因此,未考虑节点姜山等:面向时空图建模的图小波卷积神经网络模型3间的时空依赖关系的传统建模方法显然是不能捕获节点间的长时间时空趋势.
本文主要瞄准于静态网络场景下的时空图建模,旨在同时捕获图结构的隐藏的时空依赖关系,并对节点特征进行预测分析.
本文在图谱卷积操作的基础上,针对现有时空图建模的问题现状,研究并提出了一个基于图小波卷积神经网络的时空图建模方法,称为GWNN-STGM(GraphWaveletConvolutionalNeuralNetworkforSpatiotemporalGraphModeling,GWNN-STM).
在GWNN-STGM模型中设计了一个图小波卷积神经网络层,并在该网络层中设计并引入了一个自适应邻接矩阵进行节点嵌入学习,使得模型能够在不需要结构先验知识的情况下,从数据集中自动发现隐藏的结构信息.
此外,采用堆叠的扩张因果卷积来捕获图节点的时间相关性.
随着隐含层数目的增加,堆叠式的扩张因果卷积神经网络[9](DilatedCausalConvolutionalNeuralNetwork,DCCNN)的感受野大小呈指数级增长.
因此,GWNN-STGM利用堆叠的扩张因果卷积处理具有长时序列的时空图形数据,能够有效地捕获图节点的时间相关性.
2相关研究工作2.
1时空图建模STGM是分析系统中各组件的空间关系和时间趋势的一项重要技术.
在对时空图建模过程中,通常假设各对象之间的显式连接关系是预先确定的,现有的方法大多捕捉固定图形结构的空间依赖性,但是这种显式图结构不一定能够真实地反映节点间依赖关系,并且由于数据中存在不完整的连接,可能会丢失隐藏的空间连接关系.
得力于深度学习技术的发展,目前研究者对时空图建模的研究主要分为两个方向[8].
一类是将图卷积网络(GraphConvolutionalNeuralNetwork,GCN)集成到RNN中,从而构建图卷积递归神经网络;另一类是将GCN集成到CNN中构建图卷积神经网络.
归纳起来,这两类方法要么将图形卷积网络(GCN)集成到递归神经网络(RNN)中,要么将GCN集成到卷积神经网络(CNN)中.
现有的时空图建模方法虽然能够有效的将图形结构信息进行整合,但是也存在两个明显的缺点.
首先,现有的时空图建模都是在假设数据的图形结构能够反映节点之间真实依赖关系的情况下进行建模.
但是,在面对节点间的连接不需要参考两个节点之间的相互依赖关系时以及两个节点之间没有连接但是存在相互依赖关系时,这样的建模方法显然不可取.
这样的情况在推荐系统中是较为常见的.
比如,两个用户是具有连接关系的,但是他们可能对产品有不同的偏好程度.
两个用户具有相似的产品偏好,但是他们没有连接关系.
其次,目前对时空图建模的研究还不能有效地捕获时间相关性特征.
虽然,有学者通过引入注意模型[10]来动态调整图中节点间的连接权重,一定程度上解决了空间相关性的建模,但是缺乏对时间相关性的建模.
有学者将RNN和长短期记忆网络(LongShort-TermMemory,LSTM)模型引入到时空图建模问题中[11-13],但是在处理长距离序列数据时往往需要非常耗时的迭代计算,并且存在梯度消失情况.
此外,近年来,动态图神经网络在建模或捕捉网络的结构和性质方面取得了新的进展[14],相比于静态网络来说,动态图神经网络强调了网络中节点和边的出现顺序和时间.
因此节点的邻域并不是同时形成的,得到的快照网络结构是一段时间内邻域的累积结构.
虽然动态图神经网络能够建模动态图结构,但是需要动态记录每个时间戳下的图结构,在生物分子领域、医药等领域有着非常大的应用场景.
对于图网络结构变化不明显的应用场景下,动态记录图网络结构是不明智的,如交通路网,因为道路网络物理状态多为固定模型.
2.
2图卷积神经网络图卷积网络已经被证明是图形上一类函数的通用逼近器[7],并且已成功应用于多种学习任务,包括图节点嵌入[15]、图节点间的链接预测[16]和图分类[17]等.
图卷积网络有力的推动了对图结构的学习和建模的能力.
图卷积网络有两大主流:基于频谱的方法和基于空间的方法.
基于频谱的方法在频域中从图信号处理的角度引入滤波器来定义图卷积,其中图卷积操作被定义为从图信号中去除噪声.
基于空间的方法将图卷积表示为从图中节点邻域聚合节点的特征信息,并进行特征信息更新.
特别地,当图卷积网络的算法在图节点层级运行时,通常将4JournalofSoftware软件学报图池化[18](GraphPooling)模块与图卷积层进行交错运算,更进一步的将图特征信息向更深层次转化,最终形成更高级别的图形结构.
无论是基于频谱的方法还是基于空间的方法,图的邻接矩阵通常被认为是先验知识,这种先验知识是以结构的形式存在,并且在学习训练过程中是固定不变的或者是不经常变动的.
文献[19]提出利用高斯核函数来学习图结构中节点邻居的权重.
文献[20]将注意力模型引入到图卷积神经网络模型,通过利用注意力机制更新图中节点邻居的权重参数,从而完成动态调整图的结构.
文献[21]设计了一个图节点自适应信息传输路径网络层,并用这个网络层来提取图中节点邻域的信息,从而为更新节点连接关系提供节点的依赖信息.
针对图形结构数据的分类问题,文献[22]设计了基于距离度量的自适应学习图形的邻接矩阵,学习生成的邻接矩阵受图节点输入信息的约束.
尽管这些图神经网络学习方法能够学习图结构,但是他们都必须依赖于预先定义好的图结构.
由于时空图的输入是动态的,这些建模方法仍然不能同时捕捉图的空间和时间相关性,因此,迫切需要设计一种同时捕获空间和时间相关关系的时空图建模模型与方法.
2.
3图小波卷积神经网络尽管基于空间的方法构建的图卷积神经网络取得了一些初步的成功,并提供了一个将欧式空间的CNN推广到图形数据结构的统一灵活框架,但是如何确定节点的合适邻域大小仍然是一个难点问题.
相比于基于空间的方法,基于图谱的方法构建的图卷积是通过图傅里叶变换和卷积定理定义卷积操作.
基于图谱的方法利用图的傅里叶变换将图节点域中定义的信号转换为频谱域,如基于图的Laplacian矩阵的特征向量所张成的空间,然后在频谱域中定义滤波器,并对图信息进行滤波操作,这样就保持与CNN类似的权重共享特性.
但是需要求解图的特征向量,当图较大时,对图的Laplacian矩阵特征分解是非常耗时的.
文献[23]利用图小波变换替代图傅里叶变换,定义了谱图卷积并提出了图小波神经网络,该模型无需进行图的Laplacian矩阵特征分解运算,有效的降低了神经网络的计算资源的消耗.
图小波神经网络与频谱神经网络的区别在于图小波神经网络具有明显三个优点:(1)不需要对Laplacian矩阵进行特征分解就可以快速得到图小波矩阵,因此效率明显提升;(2)图小波矩阵是稀疏的,而Laplacian矩阵的特征向量构成的矩阵多是稠密的.
相比于图傅里叶变换操作,图小波变换操作可以更加容易使用稀疏运算库,因此,具有更高的计算效率;(3)图小波网络在节点域具有局部化特性,反映了以每个节点为中心的信息扩散.
尽管图小波神经网络能够一定程度上解决了图谱图卷积网络的计算效率的问题,并且具有一定的局部特性,这种特性对图的空间相关性建模是有利的,但是仍然缺乏时空图建模的能力.
2.
4时空图网络时空图建模方法可以划归为两类,一类是基于递归神经网络层(RNN)构建的图卷积递归神经网络;另一类是将基于卷积神经网络层(CNN)构建的图卷积神经网络.
基于RNN构建的图卷积网络主要是通过利用图卷积操作运算对传递给RNN单元的输入和隐状态进行滤波处理,并以此来建模图的时空依赖关系.
文献[14]针对图链接预测和节点分类的问题,通过使用RNN建模GCN参数变化状态来捕获图序列的动态性,无需借助节点嵌入运算沿时间维度进行图卷积处理.
文献[12]通过使用图卷积对传递给RNN单元的输入和隐状态进行滤波来捕获时空依赖性,该方法能够对短时的图序列数据进行时空建模,但是无法处理较长时间的数据.
文献[24]将自然语言处理领域中时空注意机制引入到图卷积神经网络中,并适当提高了图卷积神经网络模型对时空图数据的建模的性能.
文献[25]提出了一种快速图卷积神经网络模型结构,用于预测具有图结构的数据序列.
结合有门控RNN单元和图卷积层的新模型架构,其可以提高训练阶段的数值稳定性,但是依然涉及大量的待训练参数,在短时序列数据时空建模具有较好性能.
基于RNN的图卷积神经网络方法的最主要缺点是对于长时序列来说效率明显降低,并且在与图卷积网络相结合时,存在梯度爆炸现象,训练阶段不易收敛.
文献[26]针对稀疏的、无结构的和无序的点云数据分类预测的问题,提出一种链接动态图神经网络模型,对点云数据进行分类和分段预测.
该模型冻结特征提取器,使用动态图链接图的层次特征,并重新训练分类器,很大程度上提高了网络模型的预测性能.
基于RNN的图卷积神经网络和基于CNN的图卷积神经网络的模型方法在保持较好的计算结果同时,都需姜山等:面向时空图建模的图小波卷积神经网络模型5要进行多层叠加或者使用图的池化模块来扩大图卷积神经网络模型的接受域或感受野,因此也带来了更高的计算消耗,计算效率有待进一步提升.
3时空图建模方法文中首先给出了时空图建模问题的形式化定义,其次详细介绍了图谱卷积、图小波卷积和时间卷积,最后给出了本文设计的用于时空图建模的总体模型架构.
3.
1相关定义及说明图(Graph)定义:图一般表示为(,,)GVEA,其中V是图G的节点集合,E是图G中边的集合,A是图G中的邻接矩阵.
使用ivV表示图的第i个节点,(,)ijijevvE表示图G中节点iv指向节点jv的连接边,nV和mE分别表示图G中的节点集合V的元素数量和边集合E的元素数量.
RnnA,邻接矩阵A中元素满足公式:10ijijijifeEifeEA(1)对于给定图G和它的邻接矩阵A,则图G的拉普拉斯矩阵RnnL表示为1212nLIDAD(2)其中ijijjDA,RnnnI为单位矩阵.
矩阵L为实对称矩阵,因此它具有一组完整的特征向量组成的特征矩阵12RnnnuuuU,称U为矩阵L特征向量矩阵.
与特征矩阵U关联的特征值数组12n是非负的实值,表示图G的频谱或频率.
在图谱理论中,与较小特征值相关联的特征向量携带具有缓慢变化的信号,表明连接的节点共享相似的权值.
相反,与较大特征值相关联的特征向量在连接的节点上具有变化更快的信号[23].
图属性(GraphAttribute)定义:在图G中每个节点都有各自的信号特征或属性特征,一般用矩阵RndX表示来图G的属性特征,idvRx表示图G中节点iv的属性向量,具有图属性特征的图称为属性图(AttributedGraph).
时空图(SpatiotemporalGraph)定义:时空图表示为(,,)ttGVEX,RtndX.
时空图是在一般图上进行扩展定义的,其中节点的属性矩阵tX是随时间t呈动态变化状态.
问题描述:在给定一个图G和它的H个历史属性特征情况下,求解未来N个时间步长下图G的属性特征矩阵,即求解一个映射函数f使其满足如下关系:1,,1,,(,)ttNtHtfXXG(3)其中,1,,RtHtndHX,1,,RttNndNX.
3.
2图谱卷积层由于图结构没有类似于欧式空间中图像数据的自然连接顺序,因此标准卷积运算不能直接用于图结构的非欧式空间数据.
图卷积的形式化图谱定义[27]的提出,为图形式结构数据的处理提供了一个崭新的思路,将深度6JournalofSoftware软件学报学习中常用于图像的卷积运算扩展到图数据上.
图谱方法是通过图傅里叶变换和卷积定理来定义卷积操作.
图谱卷积是利用图的傅里叶变换将图节点域中定义的图信号或特征变换至频谱域中,再利用图频域滤波理论进行特征提取处理,最后将信号进行逆变换至节点域的重要操作.
图谱卷积层定义为:()()TTTGxkeUUkeUxUgUx(4)其中,G表示图卷积操作运算符,ke为卷积核,此处的nRx为图G上的信号,为矩阵的Hadamard乘积,g为滤波核,U为图G的拉普拉斯矩阵L的特征向量矩阵.
在图谱域中,称TxUx为图傅里叶变换,称xUx为图傅里叶逆变换.
按照公式(4)定义的图谱卷积存在明显的缺陷:首先,需要求解拉普拉斯矩阵L的特征值数组和特征向量矩阵,计算很耗时,计算复杂度为3()On,不适用于大图运算;其次,求解出来的U和TU为稠密矩阵,在进行傅里叶变换运算时效率低下;最后,基于图傅里叶变换定义的卷积操作覆盖整个图的节点域,卷积操作不具备局部邻域特性.
针对上述缺陷,文献[27]提出利用切比雪夫多项式K阶截断来近似滤波核g,如下:10()kKkkdiagg(5)其中,RK是切比雪夫近似多项式系数向量.
但是,公式(5)定义的卷积滤波核具有一定的限制性,这不利于对在图上定义更一般的卷积运算,比如对切比雪夫多项式K阶截断时,K越大不利于保持卷积的局部邻域特性,而K越小又很难近似滤波核g,且使得近似误差增大.
利用图小波变换来代替图傅里叶变换来定义图谱卷积,如下:111()()Gsssssxkekexgx(6)其中,12TsssssnUGU,1:()RisnnsindiageG为尺度矩阵[28],表明热扩散核函数尺度范围,s为尺度参数,控制节点邻域范围.
在图谱域中,称1sxx为图小波变换,sxx图小波逆变换.
s和1s可以通过SGWT[29]算法进行快速的多项式近似求解,其计算复杂度为()OmK,K为切比雪夫多项式阶数.
s和1s通常是稀疏的,可以进行稀疏矩阵运算,同时又是局部的,每个图小波对应于图上的一个信号,该信号从一个中心节点向外部扩散出去,受尺度参数s的灵活控制,所以在节点域具有局部特性.
与基于图傅里叶变换定义的图卷积操作相比,基于图小波变换定义图卷积具有更高的计算效率.
充分利用图小波变换的优势,我们定义图小波卷积操作如下:1ssZXWXW(7)其中,RdqW是待学习的参数矩阵,Rnn是图卷积核的对角矩阵,Rnn,RnqZ.
姜山等:面向时空图建模的图小波卷积神经网络模型7为了学习时空图的空间依赖项和图小波卷积网络隐藏层的空间依赖项,我们定义了自适应邻接矩阵,并将其引入到图小波卷积层中,自适应邻接矩阵无需图的结构先验信息,直接从数据集中自学习,动态关联和发现网络隐藏层的空间依赖关系,自适应邻接矩阵定义如下:(())TdystsoftmaxreluAUU(8)其中,RnrsU源节点信息的动态嵌入矩阵和RnrtU目标节点信息的动态嵌入矩阵,TstUU表示源节点与目标节点间的空间依赖权重.
其中()softmax和()relu为激活函数,它们的作用分别是消除弱空间依赖关系和对空间依赖关系进行规范化处理以减小不平衡现象造成的误差.
引入自适应邻接矩阵后,我们修改公式(7),并定义新的图小波卷积层如下:120mMmdymmmZPXWAXW(9)其中,=((0))msumaxisP,RnnA,1RdqmW,2RdqmW,M表示图信号向邻域扩散的有限步骤.
当图结构不可用时,可单独使用自适应邻接矩阵来捕获隐藏的空间相关性[14],即0mMdymmZAXW(10)公式(10)中定义的图卷积可以解释为汇聚来自不同阶邻域的变换特征信息,因此用其捕获隐藏的空间相关性.
3.
3时间卷积层在时空图建模中,另一个最重要的任务是进行时间相关性的建模.
采用扩展因果卷积[9](DilatedCausalConvolution,DCC)作为时间卷积层来捕捉图节点的时间趋势.
特别地,在扩展因果卷积网络中,允许通过增加网络层深度来获得指数级增长的感受野,从而有效扩大对时序列数据处理的历史范围.
具体而言,扩展因果卷积是在因果卷积基础上引入扩展率,通过跳过部分输入来使滤波核可以应用于大于滤波核本身长度的区域,并且扩展率随着层深度进行指数级增长,因此感受野也随着增大.
假设在节点iv,给定一个1维时间序列RHx和一个滤波核R*Kk,则扩展因果卷积定义如下:0*Kdcststd*sxkkx(11)其中,dc为扩展因果卷积运算符,*K为扩展因果卷积核尺寸大小,d为扩展因子(DilationFactor,DF),d数值的大小控制着跳跃距离,即每d步就选择一个输入.
为了更加清晰的描述扩展因果卷积的作用,我们将因果卷积与扩展因果卷积进行示意,如图2所示.
在图2中,通过叠加多个卷积层,以增加卷积运算的感受域.
对于给定图中节点iv的历史特征序列,在具有同样的网络层数的情况下,因果卷积(图2左)的感受域明显没有扩展因果卷积(图2右)的大.
一般情况下,在扩展因果卷积层中,随着卷积层数的加深,扩展因子成指数增加,模型的感受域也成指数增大,在图2中,扩展因果卷积感受野在每一层上分别扩大了1倍、2倍和4倍.
使得通过堆叠有限深度的网络层,扩展因果卷积就能够捕获较长序列数据间的相关性,从而有效节省了计算资源.
与基于RNN的方法相比,DCC具有明显的优势,DCC能够以非递归的方式地处理长时序列数据,这种非递归的处理方式有利于并行加速,同时扩展因果卷积有效缓解了梯度爆炸问题[5].
8JournalofSoftware软件学报tioiv1tH1tivivivt1tH1tivivivivivivivivioFig.
2Schematicdiagramofcausalconvolution(left)anddilatedcausalconvolution(right)图2因果卷积(左)与扩展因果卷积(右)示意图x10110105505.
05.
sigmoidtanhsigmoid()11exp()xxtanh()xxxxeexeeFig.
3Thecurvesbetweentanhandsigmod图3tanh函数和sigmod函数曲线门控机制(GatingMechanism),在对序列数据建模问题中被证明是有效的[5],为了能够充分建模时间维度上的非线性关系,引入门控机制,并定义门控时间卷积层,定义如下:12()()dcdcZXbXc(12)其中,1和2为模型待学习参数,为矩阵的Hadamard乘积,和分别为tanh函数和sigmod函数,原则上可以将和的定义式可以推广至其他任意激活函数形式,tanh函数和sigmod函数曲线如图3所示.
3.
4面向时空图的图小波卷积神经网络总体架构本节将描述面向时空图建模的图小波卷积神经网络总体架构,该架构将图小波卷积层和门控时间卷积层结合起来完成属性图的时空关系建模和预测,网络模型结构定义如下:输入层(或第0层):1:0RtHtndHHX(13)第l卷积层:(1)门控时间卷积运算1121()()gtcndcldclHHbHc(14)(2)图小波卷积运算姜山等:面向时空图建模的图小波卷积神经网络模型9120mMmdygcngtcnmgtcnmmHPHWAHW(15)0=()lgcnReLUHHH(16)输出层:0=()L*llReLUOH(17)*MLPReLUMLPYO(18)其中,ReLU为非线性激活函数[30],RndNY,L为架构的总卷积层数,MLP为多层感知机或线性全连接层[31].
面向时空图建模的图小神经网络总体架构通过叠加多个时空层,以处理不同时间层次的空间依赖关系,即在最浅层,图卷积接收短期时间信息,在最深层,图卷积处理长期时间信息.
选择平均绝对误差(MeanAbsoluteError,MAE)为模型的目标函数,并使用梯度下降法进行训练,MAE定义如下:111111tNndtjkjkijkLossndNYY(19)其中,RndNY为预测的真值数据(GroundTruth,GT).
4试验分析本节主要对本文提出的模型进行试验分析,试验中选用公共交通网络数据集METR-LA和PEMS-BAY[5]对模型进行验证.
试验数据中数据记录的采样间隔是5分钟,METR-LA中共有207个网络传感器节点(或网络图节点)和1515个边,PEMS-BAY中共有325个网络传感器节点和2369个边.
本实验按照采样时间顺序对网络节点属性特征数据进行提取,并按照训练数据集:验证数据集:测试数据集为7:1:2的比率策略进行数据集划分,在训练过程中对数据集进行了随机shuffle操作,试验中采用与文献[8]一致的膨胀因子的参数设置.
Table1Theexperimentalbaselinemodels表1试验对照的基准方法模型序号名称类型描述1ARIMA时间模型基于卡尔曼滤波的自回归滑动平均模型,属于时间序列预测模型2DCRNN时空模型扩散卷积递归神经网络,图卷积GCN与递归神经网络RNN结合模型3STGCN时空模型时空图卷积神经网络,图卷积GCN与一维卷积结合模型4GraphWaveNet时空模型深度时空图卷积网络,图卷积GCN与扩展因果卷积网络DCC结合模型4.
1试验相关参数设置本试验运行环境为Intel(R)Xeon(R)Gold5218CPU@2.
30GHz,NVIDIAGeForceGTX2080GPU,显存32GB.
设置历史观测步长和预测窗口大小均为12,即利用过去一小时时段(12*5分钟)的观测值来预测下一个小时的特征.
模型中卷积层数2l,2M训练过程中对参数数量采用随机丢弃策略,丢弃率(DropoutRate)设置为0.
3.
采用随机初始化方式对模型中的参数进行初始化,模型的训练优化器为Adam,并且学习率设置为0.
0001.
4.
2试验对照的基准方法为测试模型的性能,我们选用ARIMA、DCRNN[32]、STGCN[33]、GraphWaveNet[8]模型作为参考基准模型进行对比试验,具体描述如表1所示.
在试验过程中,选用平均绝对误差(MeanAbsoluteErrors,MAE)、平均绝对百分比误差(MeanAbsolutePercentageErrors,MAPE)和均方根误差(RootMeanSquaredErrors,RMSE)三种度量函数为模型性能的评估指标.
10JournalofSoftware软件学报4.
3试验结果分析(1)模型性能对比分析基于METR-LA和PEMS-BAY试验数据,表2给出了设计的模型和基线模型的性能统计结果.
表2中分别列出了15分钟预测、30分钟预测和60分钟预测的误差值(或称性能).
可以明显的看出,本文提出的模型在两个数据集上都取得了较好的性能结果.
Table2Performancecomparisonofourmodelandotherbaselinemodels表2设计的模型与基准模型的性能对比DataModel15minutes30minutes60minutesMAERMSEMAPEMAERMSEMAPEMAERMSEMAPEMETR-LAARIMA4.
018.
329.
61%5.
1510.
4712.
73%6.
9413.
3217.
49%DCRNN2.
755.
417.
35%3.
1876.
528.
85%3.
637.
6510.
73%STGCN2.
835.
697.
62%3.
487.
259.
63%4.
619.
4912.
81%GraphWaveNet2.
705.
187.
10%3.
106.
248.
51%3.
547.
3510.
17%Ours2.
695.
116.
92%3.
076.
128.
38%3.
497.
199.
97%PEMS-BAYARIMA1.
633.
323.
54%2.
334.
825.
57%3.
436.
578.
42%DCRNN1.
403.
012.
99%1.
764.
013.
97%2.
144.
865.
02%STGCN1.
372.
982.
95%1.
854.
344.
22%2.
495.
705.
81%GraphWaveNet1.
322.
812.
76%1.
663.
803.
72%1.
994.
624.
69%Ours1.
312.
762.
71%1.
623.
673.
67%1.
914.
414.
54%具体而言,本文提出的模型比时间模型ARIMA有很大的优势,在表2中,60分钟时窗的模型预测MAE数值在两个试验数据集上均比时间模型ARIMA要低49.
71%(METR-LA)和43.
44%(PEMS-BAY).
与时空模型相比,本文的神经网络模型性能均优于GraphWaveNet模型、STGCN模型和DCRNN网络模型.
与基准模型集中性能最佳的GraphWaveNet模型相比,可以看出本文的模型在15分钟预测时,模型仅取得了较小的性能提升,在数据集METR-LA和PEMS-BAY上MAE均只降低了0.
01.
在30分钟时长窗口期本文的模型的MAE在METR-LA和PEMS-BAY数据集上分别降低了0.
03和0.
04.
但是,随着预测时间窗口的增大,我们的模型在60分钟预测时窗口下模型的MAE分别降低了0.
05和0.
8.
这表明,本文提出的模型具有更大的时空作用域,特别是模型中叠加了门控时间卷积层,该层使用扩张因果卷积和门控机制,扩张因果卷积层能够使模型的感受野成指数增加,并使我们的模型能够处理更大时长的数据,这个特性对于时空关系建模非常有利.
此外,统计了本文模型与最佳基准模型GraphWaveNet[8]在预测时间窗口序列N={1,2,…,12}中的平均性能结果,如表3所示.
在试验数据集METR-LA上,本文设计的模型性能数值MAE、RMSE和MAPE分别比GraphWaveNet模型的性能数值低0.
07%、0.
02%和1.
8%.
在PEMS-BAY上,模型的性能依然取得了提升.
因此,本文提出的模型更加适合于是空属性图网络的时空关系预测.
Table3Comparisonofaverageperformancewiththebestbenchmarkmodelinthepredictionwindowarea表3在预测窗口区内与最佳基准模型的平均性能对比DataModelAverageperformanceMAERMSEMAPEMETR-LAGraphWaveNet3.
056.
108.
38%Ours3.
035.
998.
23%PEMS-BAYGraphWaveNet1.
603.
603.
59%姜山等:面向时空图建模的图小波卷积神经网络模型11Ours1.
563.
473.
52%Fig.
4ThecurvesofMAEperformancewiththelengthofthepredictionwindowbetweentheadjacencymatrixloadedmodel(gwcn-Ady)andtheadjacencymatrixnotloadedmodel(gwcn)ontheMETR-LAdataset图4引入自适应邻接矩阵模型(gwcn-Ady)与未引入自适应邻接矩阵模型(gwcn)在METR-LA上MAE性能随预测窗口时间长变化曲线Fig.
5ThecurvesofMAPE(%)performancewiththelengthofthepredictionwindowbetweentheadjacencymatrixloadedmodel(gwcn-Ady)andtheadjacencymatrixnotloadedmodel(gwcn)ontheMETR-LAdataset图5引入自适应邻接矩阵模型(gwcn-Ady)与未引入自适应邻接矩阵模型(gwcn)在METR-LA上MAPE(%)性能随预测窗口时间长变化曲线Fig.
6ThecurvesofRMSEperformancewiththelengthofthepredictionwindowbetweentheadjacencymatrixloadedmodel(gwcn-Ady)andtheadjacencymatrixnotloadedmodel(gwcn)ontheMETR-LAdataset图6引入自适应邻接矩阵模型(gwcn-Ady)与未引入自适应邻接矩阵模型(gwcn)在METR-LA上RMSE性能随预测窗口时间长变化曲线(2)自适应邻接矩阵对模型作用分析在模型中,为了学习时空图的空间依赖项和图小波卷积网络隐藏层的空间依赖项,我们设计了自适应邻接矩阵,并将其引入到图小波卷积层中,直接从数据集中以端到端的形式自学习,动态关联和发现网络隐藏层的空22.
22.
42.
62.
833.
23.
43.
63.
8451015202530354045505560MAE:gwcn-AdyMAE:gwcn5678910111251015202530354045505560MAPE:gwcn-Ady(%)MAPE:gwcn(%)345678951015202530354045505560RMSE:gwcn-AdyRMSE:gwcnttt12JournalofSoftware软件学报间依赖关系.
图4、图5和图6分别绘制了引入自适应邻接矩阵网络模型(gwcn-Ady)和未引入自适应邻接矩阵网络模型(gwcn),在METR-LA数据集上的不同预测时间窗口区内的平均绝对误差MAE、平均绝对百分比误差MAPE和均方根误差RMSE性能曲线.
在预测窗口时间长为5分钟时,引入矩阵dyA和未引入矩阵dyA的模型在MAE、MAPE和RMSE上的性能均差别很小,这表明自适应邻接矩阵对短时预测性能提升作用不明显.
随着预测时长的增加,引入自适应邻接矩阵的模型性能与未自适应邻接矩阵的模型性能之间的差异也在增大,在60分钟时长预测时,引入矩阵dyA的模型性能优势较为明显.
这表明,引入自适应邻接矩阵能够有助于关联和发现网络隐藏层的空间依赖关系.
1217131416151615121713140.
500292920620600292916Fig.
7TheheatmapofthematrixdyA(right)andtheconnectionbetweenthenodesintheroadnetwork(right)ontheMETR-LAdataset.
图7METR-LA数据集中学习得到的dyA矩阵热力图(左)和实际路网中部分节点间的物理连接关系(右)为了进一步验证自适应邻接矩阵能够关联和发现网络隐藏层的空间依赖关系的能力,图7展示了在METR-LA数据集上学习得到的dyA的热力图(图7中间).
选取前30个节点,其中第16个节点(图左侧选区),发现该节点能够很好的关联其他非直接与其物理相连的节点信息(实际路网节点的物理连接关系图7右),进一步验证了自适应邻接矩阵能够关联和发现网络隐藏层的空间依赖关系的作用,更说明了复杂的交通路网具有一定的空间关联性,而自适应邻接矩阵能够捕捉这种远距离的空间关联关系.
(3)图小波变换矩阵的稀疏性分析Table4Thenon-zeroelementstatisticsofthewavelettransformmatrixandtheFouriertransformmatrix表4图小波变换矩阵与傅立叶变换矩阵非零元素统计StatisticalProperty(Density%)Wavelettransform1sFouriertransformTUMETR-LA30.
0999.
98PEMS-BAY21.
8198.
7本文利用图小波变换矩阵替换图傅里叶变换矩阵定义图卷积网络层.
除了提高预测精度外,图小波变换在空间域和频谱域都具有稀疏性.
以METR-LA和PEMS-BAY数据集为例说明了图小波变换的稀疏性.
在METR-LA数据集中共有207个节点,因此,图小波变换矩阵1207207Rs,图傅里叶变换矩阵姜山等:面向时空图建模的图小波卷积神经网络模型13207207RTU.
表4中第一行列出了1s和TU的稀疏度(或称非零元素的密度百分比),1s的非零元素占比为30.
09%,TU的非零元素占比为99.
98%.
在PEMS-BAY数据集中共有325个节点,图小波变换矩阵1325325Rs,图傅里叶变换矩阵325325RTU.
表4中第二行列出了1s和TU的稀疏度,1s的非零元素占比为21.
81%,TU的非零元素占比为98.
7%.
因此,图小波变换矩阵1s远比图傅里叶变换矩阵TU稀疏.
更具稀疏性的图小波变换不仅加快了计算速度,而且能够很好地捕获以每个节点为中心的相邻空间拓扑关系,这个特性对空间关系建模是有利的.
(4)尺度因子大小对模型性能的影响分析在图小波卷积层中,尺度因子s控制着每个节点信息的扩散邻域大小,节点邻域信息动态关联着中心节点的属性特征变化趋势,因此,选取合适的尺度因子将有助于模型性能的提升.
为了探究图小波变换矩阵1s中尺度因子s大小对模型性能的影响,统计了在s=1,2,3,5,10,15,20时模型在数据集METR-LA上的MAE性能曲线.
Fig.
8ThecurvesofMAEperformanceoftheproposedmodelatdifferentscalefactorswiththepredictionwindowtime图8不同尺度因子下的模型MAE性能随预测窗口时间长变化曲线Fig.
9ThecurvesofMAEperformanceoftheproposedmodelatdifferentscalefactorswiththepredictionwindowtime(atthelargerpredictiontimewindow)图9不同尺度因子对模型MAE性能随预测窗口时间长度的变化曲线(较大的预测时间窗口)图8绘制了在不同尺度因子s参数下的MAE曲线,在预测时间窗口小于40分钟时,不同的参数对网络模2.
22.
32.
42.
52.
62.
72.
82.
933.
13.
23.
33.
43.
53.
63.
73.
83.
951015202530354045505560s=1(MAE)s=3(MAE)s=5(MAE)s=10(MAE)s=15(MAE)s=20(MAE)3.
313.
413.
513.
613.
7145505560s=1(MAE)s=3(MAE)s=5(MAE)s=10(MAE)s=15(MAE)s=20(MAE)tt14JournalofSoftware软件学报型的MAE影响差异性不明显.
这表明在执行短期预测任务时,即使使用较小的尺度因子参数,图小波神经网络模型能够很好的捕获网络节点间隐藏的空间关系,并且尺度因子越大对模型MAE性能提升越不明显.
图9绘制了不同尺度因子s对模型进行较大预测窗口时的MAE曲线.
在预测时窗大于45分钟时,不同的尺度因子参数对模型的MAE影响具有明显的差异.
当s=1时模型的MAE曲线和s=15时模型的MAE性能曲线几乎重合,并且s=1和s=15时模型的MAE曲线均在s=2,3,5,10,20时模型的MAE曲线下方,这表明选用合适的尺度参数对模型的性能是有积极的作用.
此外,在s=1和s=15时本文提出的图小波神经网络模型的MAE曲线趋于一致,这一试验性结论为确定图小波变换矩阵1s中尺度因子s的大小提供了参考,即s=1是图小波神经网络模型在没有确定最佳尺度因子参数情况下的最佳选择.
(5)模型抗干扰对比分析为了验证本文模型的抗干扰能力,本实验利用过去一小时时段(12*5分钟)的观测值来预测下一个小时的特征,历史观测时间窗口大小为12.
设置了4组对比实验,分别为:(1)在整个输入窗口期添加0均值的高斯噪声;(2)仅在历史时间点6添加非高斯噪声;(3)在历史时间点1、历史时间点6和历史时间点12添加非高斯噪声;(4)在全部的历史时间点添加非高斯噪声.
图10绘制了不同噪声下的曲线图(在数据集METR-LA上以0节点为例).
Fig.
10Theoutputsofthemodelatdifferentinputnoisessequence图10模型在不同输入噪声序列下的输出曲线在图10中,对输入序列不加任何噪声时,模型的输出较为平稳;当对输入序列全部施加0均值且标准差为0.
15的高斯噪声时,模型的预测输出变化较为明显,即在短时预测时窗内(30分钟内)偏差较大,但是随着预测时间窗的增加,模型具有较好预测收敛性,在预测时间窗末期(30分钟至60分钟之内),加高斯噪声后模型的预测输出和未加高斯噪声时的预测输出趋于一致,这表明模型对长时预测具有较好的抗干扰性.
当对输入序列中第5个值(即输入时间窗的30分钟点)增加一个很大的整数噪声(本次实验选定为整数100),模型的预测输出比未加噪声时的预测输出要略大,但总体上较为平缓.
随着对输入序列进行多点位增加噪声(噪声整数100),模型的预测输出均比未加噪声时的输出要大,在短时预测时间窗口内偏差较为明显,但是随着预测时间窗的增加,模型的预测偏差逐渐减小,这说明模型对长时预测具有一定的抗干扰性.
综上所述,本文的模型对短时预测的抗噪声能力较弱,对长时预测的抗干扰能力较强,对于具有高斯噪声的输入,模型的短时预测性能失效.
正因为这种特性,本文提出的模型不能应对时序或时空异常数据的检测,相反其具有较强的抗干扰性,因此该模型可以应用在具有强噪声网络环境下的时空预测场景.
(6)其他试验补充分析除了与传统时序预测模型和静态图神经网络模型试验对比分析外,还将模型与动态图神经网络模型进行了试验对比.
因此,这部分主要讲述与动态图神经网络在本实验数据集上的试验性结论.
动态网络相比于静态网络来说,更强调了网络中节点和边的出现顺序和时间.
在现实中,图网络结构主要是姜山等:面向时空图建模的图小波卷积神经网络模型15通过节点和边的顺序添加而形成的,理应被视为一个有节点与其邻居之间交互事件驱动的动态过程.
因此节点的邻域并不是同时形成的,图网络结构属于一种快照网络结构,是一段时间内邻域的累积.
为了构造这种动态的网络结构,我们随机统计了在输入时间窗口内网络中每个节点特征的时间分布,去除了最小Top10对应的网络节点,并以此获得了12个图结构的时间快照(其中12是指12个历史观测,按5分钟一个观测,1小时为12个观测点),每个图结构时间快照构成了图结构序列,在训练过程中随着时间步骤依次动态改变这种图结构.
为了能够与动态图神经网络模型进行对比,我们改造了EvolveGCN模型[14],因为原始EvolveGCN对图节点的分类、边的分类和节点间连接预测效果好.
为了使其能够对时序特征预测,我们将EvolveGCN模型每个时间戳下的节点嵌入进行了线性叠加并经过了ReLU函数处理,最后接入一个感知机层,以此获得对时序特征预测的能力,修改后的EvolveGCN模型结构如图11所示.
Fig.
11ModifiedEvolveGCNmodel图11修改后的EvolveGCN模型结构Fig.
12TheMAEconductedbytheGWNN-STGM(Ours)andthemodifiedEvolveGCNondatasets图12本文GWNN-STGM模型和修改后的EvolveGCN模型在试验数据集下预测的MAE曲线图12中,在METR-LA数据集上的MAE曲线(左),在短时预测(小于30分钟)修改EvolveGCN模型MAE要比提出GWNN-STGM模型的MAE要大,但是随着预测时长的增加,修改EvolveGCN[14]模型MAE要低于GWNN-STGM模型的MAE,这表明在METR-LA数据集上,动态图结构下的EvolveGCN(修改)模型能够对长时预测具有较好的性能.
在PEMS-BAY数据集上的MAE曲线(右),发现EvolveGCN(修改)模型的MAE在15分钟预测时长内比GWNN-STGM模型的MAE低,在大于15分钟预测时长预测时EvolveGCN(修改)模型的MAE数值均比GWNN-STGM模型的MAE高,这表明在PEMS-BAY数据集上,动态图结构下的EvolveGCN(修改)模型不能够很好的进行长时预测.
其中最主要原因是构造产生的动态图结构不能完全真实反映现实世界中的物理路网的真实状态.
5总结与未来工作本文提出了一种新的时空图建模的图小波卷积神经网络模型.
提出的图小波卷积神经网络通过将图小波16JournalofSoftware软件学报卷积层和扩展因果卷积层结合起来,有效地捕获了时空图节点间属性特征的时空相关性.
提出了利用自适应邻接矩阵从数据中动态学习隐层空间依赖关系的有效方法.
本文提出的模型在两个公共交通网络数据集上的性能优于其他最新的基准方法,这表明本文的图小波卷积神经网络模型在从输入数据中探索时空结构方面具有一定的潜力.
为了进一步探究模型的性能,通过对模型的抗干扰能力试验分析,发现本文模型对短时预测的抗噪声能力较弱,对长时预测的抗干扰能力较强,对于具有高斯噪声的输入,模型的短时预测性能失效.
因此模型不能应对时序或时空异常数据的检测场景.
相反其具有较强的抗干扰性,因此提出的模型可以应用在具有强噪声网络环境下的时空预测场景.
此外,将模型与动态图神经网络模型进行了试验对比分析,发现仅依靠统计节点的时序特征提取网络结构时间快照的方法构造的动态图结构,破坏了图结构的完整时空依赖信息,因此不能完全真实反映现实世界中的物理路网的真实状态.
在未来的工作中,将继续探索本文模型在其他应用领域的尝试,主要包含三个方面:第一个方面,探索本文模型在大图结构下的时序预测性能,因为随着信息技术的发展大图结构中的数据的分析挖掘价值愈发突出;第二个方面,探索本文模型在动态图结构下的性能,特别是针对多连接关系的动态图结构领域的时序预测;第三个方面,探索本文模型在图节点分类、连接关系预测等多个领域的应用.
References:[1]YuB,LeeY,SohnK.
ForecastingRoadTrafficSpeedsbyConsideringArea-wideSpatio-temporalDependenciesBasedonaGraphConvolutionalNeuralNetwork(GCN).
TransportationResearchPartC:EmergingTechnologies,2020,114:189-204.
DOI:10.
1016/j.
trc.
2020.
02.
013.
[2]SafikhaniA,KamgaC,MudigondaS,FaghihSS,MonghimiB.
Spatio-temporalModelingofYellowTaxiDemandsinNewYorkCityUsingGeneralizedSTARModels.
InternationalJournalofForecasting,2018,1-11.
DOI:10.
1016/j.
ijforecast.
2018.
10.
001.
[3]SunXY,LiuQ,YangY.
SimilarityGraphConvolutionalConstructionNetworkforInteractiveActionRecognition.
In:ChengWH,eds.
MultiMediaModeling(PartII).
Springer,ChamPress,2020:291-303.
DOI:10.
1007/978-3-030-37734-2_24.
[4]HanS,KimJ.
VideoSceneChangeDetectionUsingConvolutionNeuralNetwork.
In:ICIT2017.
NewYork:ACMPress,2017.
116-119.
DOI:10.
1145/3176653.
3176673.
[5]MaTS,KuangP,TianWH.
AnImprovedRecurrentNeuralNetworksfor3DObjectReconstruction.
AppliedIntelligence,2020,50(3):905-923.
DOI:10.
1007/s10489-019-01523-3.
[6]XiongYH,ZuoRG.
RecognitionofGeochemicalAnomaliesUsingaDeepAutoencoderNetwork.
Computers&Geosciences,2016,86:75-82.
DOI:10.
1016/j.
cageo.
2015.
10.
006.
[7]ZhangS,TongHH,XUJJ,MaciejewskiR.
GraphConvolutionalNetworks:Algorithms,ApplicationsandOpenChallenges.
In:CSoNet2018.
Springer,ChamPress,2018.
79-91.
DOI:10.
1007/978-3-030-04648-4_7.
[8]WuZH,PanSR,LongGD,JiangJ,ZhangCQ.
GraphWaveNetforDeepSpatial-TemporalGraphModeling.
In:IJCAI-19.
2019.
1907-1913.
DOI:10.
24963/ijcai.
2019/264.
[9]MishraK,BasuS,MaulikU.
DaNSe:ADilatedCausalConvolutionalNetworkBasedModelforLoadForecasting.
In:DekaB,eds.
PatternRecognitsionandMachineIntelligence.
Springer,ChamPress,2019:234-241.
DOI:10.
1007/978-3-030-34869-4_26.
[10]KaziA,ShekarforoushS,KrishnaSA,BurwinkelH,VivarG,WiestlerB,KortumK,AhmadiS,AlbarqouniS,NavabN.
GraphConvolutionBasedAttentionModelforPersonalizedDiseasePrediction.
In:ShenDGeds.
MedicalImageComputingandComputerAssistedIntervention-MICCAI2019.
Springer,ChamPress,2019:122-130.
DOI:10.
1007/978-3-030-32251-9_14.
[11]GravesA.
SupervisedSequenceLabellingwithRecurrentNeuralNetworks.
Berlin,Heidelberg:SpringerBerlinHeidelberg,2012:37-45.
DOI:10.
1007/978-3-642-24797-2_4.
[12]SeoY,DefferrardM,VandergheynstP,BressonX.
StructuredSequenceModelingwithGraphConvolutionalRecurrentNetworks.
In:ICONIP2018.
Springer,ChamPress,2018.
362-373.
DOI:10.
1007/978-3-030-04167-0_33.
[13]LiangXD,ShenXH,FengJS,LinL,YanSC.
SemanticObjectParsingwithGraphLSTM.
In:ECCV2016.
Springer,ChamPress,2016.
125-143.
DOI:10.
1007/978-3-319-46448-0_8.
姜山等:面向时空图建模的图小波卷积神经网络模型17[14]ParejaA,DomeniconiG,ChenJ,MaTY,SuzumuraT,KanezashiH,KalerT,SchardlTB,LeisersonCE.
EvolveGCN:EvolvingGraphConvolutionalNetworksforDynamicGraphs.
In:AAAI-20.
2020.
34(4):5363-5370.
DOI:10.
1069/aaai.
v.
v34i04.
5984.
[15]LiuC,LiXC,ZhaoDY,GuoSL,DongLJ,YaoH.
A-GNN:Anchors-AwareGraphNeuralNetworksforNodeEmbedding.
In:ChuXWeds.
Quality,Reliability,SecurityandRobustnessinHeterogeneousSystems.
Springer,ChamPress,2020.
300:141-153.
DOI:10.
1007/978-3-030-38819-5_9.
[16]HisanoR.
Semi-supervisedGraphEmbeddingApproachtoDynamicLinkPrediction.
In:CompleNet2018:ComplexNetworksIX.
Springer,ChamPress,2018:109-121.
DOI:10.
1007/978-3-319-73198-8_10.
[17]ZhengXF,ZhangM,HuJW,ChenWF,FengGC.
WeightedGraphClassificationbySelf-AlignedGraphConvolutionalNetworksUsingSelf-GeneratedStructuralFeatures.
In:PRCV2018.
Springer,ChamPress,2018.
505-516.
DOI:10.
1007/978-3-030-03335-4_44.
[18]GopinathK,DesrosiersC,LombaertH.
AdaptiveGraphConvolutionPoolingforBrainSurfaceAnalysis.
In:IPMI2019:InformationProcessinginMedicalImaging.
Springer,ChamPress,2019.
86-98.
DOI:10.
1007/978-3-030-20351-1_7.
[19]MontiF,BoscainiD,MasciJ,RodolàE,SvobodaJ,BronsteinM.
GeometricDeepLearningonGraphsandManifoldsUsingMixtureModelCNNs.
In:CVPR2017.
IEEEPress,2017.
5425-5434.
DOI:10.
1109/CVPR.
2017.
576.
[20]XieZY,ChenJZ,PengB.
PointCloudsLearningwithAttention-basedGraphConvolutionNetworks.
Neurocomputing,2020,402:245-255.
DOI:10.
1016/j.
neucom.
2020.
03.
086.
[21]LiuZQ,ChenCC,LiLF,ZhouJ,LiXL,SongL.
GeniePath:GraphNeuralNetworkswithAdaptiveReceptivePaths.
In:AAAI-19:AAAIConferenceonArtificialIntelligence.
2018:4424-4431.
DOI:10.
1609/aaai.
v33i01.
33014424.
[22]LiRY,WangS,ZhuFY,HuangJZ.
AdaptiveGraphConvolutionalNeuralNetworks.
In:AAAI-18:AAAIConferenceonArtificialIntelligence.
2018:3546-3553.
[23]XuBB,ShenHW,CaoQ,QiuYQ,ChengXQ.
GraphWaveletNeuralNetwork.
In:ICLR2019:InternationalConferenceonLearningRepresentations.
2019:1-13.
URL:https://openreview.
net/forumid=H1ewdiR5tQ.
[24]LiaoRJ,LiYJ,SongY,WnagSL,HamiltonWL,DuvenaudD,UrtasunR,ZemelRS.
EfficientGraphGenerationwithGraphRecurrentAttentionNetworks.
In:WallachH.
eds.
AdvancesinNeuralInformationProcessingSystems.
CurranAssociates,Inc.
Press,2019.
32:4255-4265.
URL:https://proceedings.
neurips.
cc/paper/2019/file/d0921d442ee91b896ad95059d13df618-Paper.
pdf.
[25]KadambariSK,ChepuriSP.
FastGraphConvolutionalRecurrentNeuralNetworks.
ArXiv:2001.
09407[eess.
SP],2020.
1:1-5.
URL:http://arxiv.
org/abs/2001.
09407.
[26]ZhangKG,HaoM,WangJ,SilvaCW,FuCL.
LinkedDynamicGraphCNN:LearningonPointCloudviaLinkingHierarchicalFeatures.
ArXiv:1904.
10014[cs.
CV],2019.
1:1-8.
URL:http://arxiv.
org/abs/1904.
10014.
[27]KipfTN,WellingM.
Semi-supervisedClassificationwithGraphConvolutionalNetworks.
In:ICLR2017:InternationalConferenceonLearningRepresentations.
2017:1-14.
URL:https://openreview.
net/forumid=SJU4ayYgl.
[28]DonnatC,ZitnikM,HallacD,LeskovecJ.
LearningStructuralNodeEmbeddingsviaDiffusionWavelets.
In:KDD-18:ACMSIGKDDInternationalConferenceonKnowledgeDiscovery&DataMining.
ACMPress,2018.
1320-1329.
DOI:10.
1145/3219819.
3220025.
[29]HammondDK,VandergheynstP,GribonvalR.
WaveletsonGraphsviaSpectralGraphTheory.
AppliedandComputationalHarmonicAnalysis,2011,30:129–150.
DOI:10.
1016/j.
acha.
2010.
04.
005.
[30]WangSH,MuhannadK,HongJ,SangaiahAK,ZhangYD.
AlcoholismIdentificationviaConvolutionalNeuralNetworkBasedonParametricReLU,Dropout,andBatchNormalization.
NeuralComputingandApplications,2020,32(3):665-680.
DOI:10.
1007/s00521-018-3924-0.
[31]RaheliB,AalamiMT,ShafieAE,GhorbaniMA,DeoRC.
UncertaintyAssessmentoftheMultilayerPerceptron(MLP)NeuralNetworkModelwithImplementationoftheNovelHybridMLP-FFAMethodforPredictionofBiochemicalOxygenDemandandDissolvedOxygen:ACaseStudyofLangatRiver.
EnvironmentalEarthSciences,2017,76:503.
DOI10.
1007/s12665-017-6842-z.
[32]LiYG,YuR,ShahabiC,LiuY.
DiffusionConvolutionalRecurrentNeuralNetwork:Data-DrivenTrafficForecasting.
In:ICLR2018:InternationalConferenceonLearningRepresentations.
2018.
1-16.
URL:https://openreview.
net/forumid=SJiHXGWAZ.
[33]YuB,YinHT,ZhuZX.
Spatio-TemporalGraphConvolutionalNetworks:ADeepLearningFrameworkforTrafficForecasting.
In:IJCAI-18:InternationalJointConferenceonArtificialIntelligence.
2018:3634-3640.
DOI:10.
24963/ijcai.
2018/505.
速云怎么样?速云是一家国人商家。速云商家主要提供广州移动、深圳移动、广州茂名联通、香港HKT等VDS和独立服务器。目前,速云推出深圳独服优惠活动,机房为深圳移动机房,购买深圳服务器可享受5折优惠,目前独立服务器还支持申请免费试用,需要提交工单开通免费体验试用,次月可享受永久8折优惠,也是需工单申请哦!点击进入:速云官方网站地址活动期限至 2021年7月22日速云云服务器优惠活动:活动1:新购首月可...
适逢中国农历新年,RAKsmart也发布了2月促销活动,裸机云、云服务器、VPS主机全场7折优惠,新用户注册送10美元,独立服务器每天限量秒杀最低30.62美元/月起,美国洛杉矶/圣何塞、日本、香港站群服务器大量补货,1-10Gbps大带宽、高IO等特色服务器抄底价格,机器可选大陆优化、国际BGP、精品网及CN2等线路,感兴趣的朋友可以持续关注下。裸机云新品7折,秒杀产品5台/天优惠码:Bare-...
酷锐云是一家2019年开业的国人主机商家,商家为企业运营,主要销售主VPS服务器,提供挂机宝和云服务器,机房有美国CERA、中国香港安畅和电信,CERA为CN2 GIA线路,提供单机10G+天机盾防御,提供美国原生IP,支持媒体流解锁,商家的套餐价格非常美丽,CERA机房月付20元起,香港安畅机房10M带宽月付25元,有需要的朋友可以入手试试。酷锐云自开业以来一直有着良好的产品稳定性及服务态度,支...
卷积神经网络为你推荐
明星论坛如何建好明星论坛百度k站百度k站为什么站长故事科学家的故事200字云播怎么看片云播看不了视频万网核心代理在万网代理商购买万网产品,谁知道价格?知道的说下?arm开发板想购买一个ARM开发板,选什么类型的好如何建立一个网站怎样能创建一个网站直播加速怎么让已拍摄好的视频加速硬盘人上海人说“硬盘”是什么梗开机滚动条怎么减少开机滚动条?
便宜的虚拟主机 最新代理服务器ip com域名抢注 godaddy主机 linode 韩国电信 牛人与腾讯客服对话 cpanel空间 天互数据 免费mysql web服务器的架设 韩国名字大全 169邮箱 电信托管 登陆空间 万网空间 电信宽带测速软件 腾讯数据库 hostease nnt 更多