数据内存溢出

内存溢出  时间:2021-01-16  阅读:()
广播机制解决Shuffle过程数据倾斜的方法①吴恩慈(上海淇毓信息科技有限公司,上海200120)通讯作者:吴恩慈,E-mail:kaneeasy@163.
com摘要:在Spark计算平台中,数据倾斜往往导致某些节点承受更大的网络流量和计算压力,给集群的CPU、内存、磁盘和流量带来了巨大的负担,影响整个集群的计算性能.
本文通过对SparkShuffle设计和算法实现的研究,深入分析在大规模分布式环境下发生数据倾斜的本质原因.
提出了广播机制避免Shuffle过程数据倾斜的方法,分析了广播变量分发逻辑过程,给出广播变量性能优势分析和该方法的算法实现.
通过BroadcastJoin实验验证了该方法在性能上有稳定的提升.
关键词:数据倾斜;分区策略;洗牌算法;广播机制引用格式:吴恩慈.
广播机制解决Shuffle过程数据倾斜的方法.
计算机系统应用,2019,28(6):189–197.
http://www.
c-s-a.
org.
cn/1003-3254/6985.
htmlMethodResearchtoSolveShuffleDataSkewBasedonBroadcastWUEn-Ci(ShanghaiQiyuInformationTechnologyCo.
Ltd.
,Shanghai200120,China)Abstract:IntheSparkcomputingplatform,dataskewoftencausessomenodestowithstandgreaternetworktrafficandcomputingpressure,whichimposesahugeburdenonthecluster'sCPU,memory,disk,andtraffic,affectingthecomputingperformanceoftheentirecluster.
ThroughtheresearchonSparkShuffledesignandalgorithmimplementation,anddeepanalysesontheessentialreasonsofdataskewinlarge-scaledistributedenvironment,thisstudyproposesamethodtoavoiddataskewinshuffleprocessthroughthebroadcastmechanism,analyzestheprocessofbroadcastvariabledistributionlogic,andgivesthealgorithmimplementationandperformanceadvantageanalysisofthemethod.
TheperformanceofthemethodisimprovedbytheBroadcastJoinexperiment.
Keywords:dataskew;partition;shuffle;broadcastSpark由加州大学伯克利分校AMP实验室开发,是基于RDD的内存计算框架,在流式计算场景中表现良好.
在Spark分布式流计算集群的实践过程中,往往出现数据分配不均匀的现象,某个分区的数据显著多于其它分区,该节点的计算速度成为整个集群的性能瓶颈.
任务执行慢的节点往往导致内存溢出,服务器CPU使用率在短时间内急剧增加.
发生数据倾斜时,某个任务处理的数据量远大于其他分片,从而增加了整个阶段的完成时间.
由于原始数据源的分布不均匀,每个Reducer在分区映射过程中计算的数据量也不相同,任务执行时间不同,增加宽依赖阶段的延迟,降低集群作业执行的效率.
虽然支持用户定义分区,但真正的数据分布难以预测,无法保证自定义分区功能的合理性和准确性.
数据倾斜问题很难规避,为有效改善数据倾斜问题,本文在分析和研究国内外对该问题的研究成果和实践经验的基础上,主要做了以下工作.
1)研究了SparkShuffle设计和算法实现,分析了计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:csa@iscas.
ac.
cnComputerSystems&Applications,2019,28(6):189197[doi:10.
15888/j.
cnki.
csa.
006985]http://www.
c-s-a.
org.
cn中国科学院软件研究所版权所有.
Tel:+86-10-62661041①收稿时间:2018-12-19;修改时间:2019-01-15;采用时间:2019-02-19SoftwareTechniqueAlgorithm软件技术算法189哈希和排序两类Shuffle机制的实现过程,深入分析在Shuffle过程发生数据倾斜的本质原因.
2)分析了Spark流计算集群中,发生数据倾斜常见业务场景,以及数据倾斜问题的原因和发生过程,提供了问题定位的方法和步骤.
3)提出了Broadcast机制避免某些场景下Shuffle导致的数据倾斜问题的方法,给出广播变量分发机制和算法实现.
通过Broadcast实现Join算子的实验,验证了该方法在性能上有较大提升.
1相关工作MapReduce框架数据倾斜解决方案包括静态和动态自适应调整.
静态自适应是事先分析数据集中键的分布特征,选择适当的分区方法.
该方法需要总结出一套和业务相关的数据集抽象规则算法,可以通过机器学习的方式来训练算法,提高对各种类型数据集的适配度.
文献[1]提出的LEEN方法,在SkewReduce的基础上将分析过程移至Map完成后,考虑Reduce端输入数据的公平性和数据本地性,LEEN方法在缓解慢任务和Shuffle引起的网络拥塞方面有较大的性能提升[1].
动态自适应的思想是在应用运行时,实时检测当前各个Partition中的数据填充情况.
如果发现存在严重的数据倾斜问题,在下一步进行调整,以避免原始MapReduce任务之间的不能全局优化的问题.
文献[2]提出了SkewTune方法,推测当前任务需要完成时间,确定最可能的慢任务[2].
扫描慢任务要处理的输入数据,在数据偏斜场景中性能有较好的表现.
文献[3]提出在执行流程中插入一个IntermediateReduce(IR)的新阶段,用于并行处理动态的中间结果,使所有键值对都能够利用到所有的节点资源[3].
文献[4]提出AdaptiveMapReduce策略,动态地调整每个Mapper处理的输入数据量,在Mapper端使用一个固定大小的哈希表执行数据本地聚合[4].
文献[5]提出了任务重分割方法,通过监视任务的执行进度,根据预定策略直接切割任务本身[5].
本文与上述研究成果的不同之处在于通过Broadcast机制将数据分发到计算节点中,实现数据本地性,从根本上避免Shuffle过程,不需要做额外的开发和部署.
能够快速解决特定场景下的数据倾斜问题,具有较高的实用性.
2分区策略和Shuffle算法2.
1分区策略分区策略(Partition)的主要作用是确定Shuffle过程中Reducer的数量,以及Mapper侧数据应该分配给哪个Reducer.
分区程序可以间接确定RDD中的分区数和分区中的内部数据记录数.
Spark内置了HashPartition和RangePartition,支持自定义分区器.
HashPartition的算法实现是获取Key的HashCode除以子RDD分区的数量取余.
哈希分区器易于实现并且运行速度快.
但有一明显的缺点是不关心键值的分布情况,其散列到不同分区的概率会因数据而有差别.
RangePartition在一定程度上避免了该问题.
范围分区器根据父RDD的数据特征确定子RDD分区的边界,通过对数据进行采样和排序,将父RDD数据划分为M个数据块.
如果数据均匀分布,则为每个分区提取的样本大小都很接近.
如果所有数据都分配给每个分区,则每个分区都会提取相同的数据量,并统计每个分区的实际数据量.
若出现数据倾斜的情况,则对个别分区重新采样.
2.
2Hash-BasedShuffle算法Spark作为MapReduce框架的一种实现,本质上将Mapper端输出的数据通过Partition算法,确定发送到相应的Reducer,该过程涉及网络传输和磁盘读写.
Spark提供了哈希和排序两类Shuffle机制.
ShuffleManager主要作用是提供ShuffleWriter和ShuffleReader过程.
Hash-BasedShuffle机制的实现过程包括聚合和计算,使用哈希表存储所有聚合数据的处理结果.
聚合和计算过程不进行排序,分区内部的数据是无序的,如果希望有序就需要调用排序操作.
哈希Shuffle强制要求在Map端进行聚合操作,对于某些键值重复率不高的数据会影响效率.
如图1所示,哈希Shuffle算法实现过程.
每个Mapper都会根据Reducer的数量创建一个相应的桶(Bucket).
Mapper生成的结果将根据设置的分区算法填充到每个桶中.
当Reducer启动时,它将根据自己的TaskId和它所依赖的MapperId,从远程或本地BlockManager获取相应的Bucket作为Reducer的输入.
Bucket是一种抽象概念,可以对应于某个文件或文件的一部分.
哈希Shuffle算法实现中,Mapper会针对每个Reducer生成一个数据文件,当Mapper和Reducer数量比较多的时候,生成大量的磁盘文件.
计算机系统应用http://www.
c-s-a.
org.
cn2019年第28卷第6期190软件技术算法SoftwareTechniqueAlgorithm图1Hash-BasedShuffle算法实现过程开启consolidate优化机制后,ShuffleWriter过程中Task不是为下游Stage的每个Task创建一个文件.
每个ShuffleFileGroup对应一批磁盘文件,磁盘文件数与下游Stage中的Task总数相同.
Executor分配多少个Core就可以并行执行多少个任务,第一批并行执行中的每一个任务都创建一个ShuffleFileGroup,并将数据写入相应的磁盘文件.
当执行器执行下一批任务时,复用以前存在的ShuffleFileGroup的磁盘文件,Task将数据写入现有磁盘文件.
consolidate机制允许不同的任务复用同一批磁盘文件,减少了文件数量并提高了ShuffleWriter的性能.
2.
3Sort-BasedShuffle算法如图2所示,Sort-BasedShuffle算法实现过程.
排序Shuffle相比于哈希Shuffle,两者的ShuffleReader过程是一致的,区别在ShuffleWriter过程.
排序Shuffle允许Map端不进行聚合操作,在不指定聚合操作的情况下,排序Shuffle机制Mapper端用数据缓存区(Buffer)存储所有的数据.
对于指定聚合操作的情况下,排序Shuffle仍然使用哈希表存储数据,聚合过程与哈希Shuffle的基本一致.
无论是Buffer还是HashMap,每更新一次都检查是否需要将现有的数据溢存到磁盘中,需要对数据进行排序,存储到一个文件中.
更新完所有数据后,将多个文件合并为一个文件,并确保每个分区的内部数据都是有序的.
排序Shuffle机制包括普通和bypass两种运行模式.
当ShuffleReaderTask的数量小于等于bypassMergeThreshold的值时就会启用bypass模式.
在普通操作模式中,首先将数据写入内存数据结构,根据不同的Shuffle运算符选择不同的数据结构.
如ReduceByKey之类的聚合运算符选择哈希数据结构,Join类的普通运算符使用数组数据结构.
在将每条数据写入内存之后,确定是否已达到临界阈值.
如果达到临界阈值则将内存中的数据写到磁盘,然后清空内存中的数据.
在溢出到磁盘文件之前,根据Key对内存中已有的数据进行排序,排序后数据将批量写入磁盘文件.
排序后的数据以每批10000个批量写入磁盘文件,从而有效减少磁盘IO数量.
将Task的所有数据写入内存数据结构的过程中,会发生多次磁盘溢出操作,生成多个临时文件,最后合并所有先前的临时磁盘文件.
由于一个Task仅对应于一个磁盘文件,因此将单独写入索引文件以标识文件中每个下游Task数据的开始和结束位置,磁盘文件合并过程减少了文件数量.
在bypass模式下,为每个下游Task创建一个临时磁盘文件,并根据Key的HashCode写入相应的磁盘文件.
写入磁盘文件时先写入内存缓冲区,然后在缓冲区满后溢出到磁盘文件.
它还将所有临时磁盘文件合并到一个文件中,并创建一个单独的索引文件.
此过程的磁盘写入机制与未优化的哈希Shuffle相同,但是ShuffleReader性能会更好.
这种机制和普通的排序Shuffle之间的区别是磁盘写入机制不同,不会被排序.
启用bypass机制的最大优点是在ShuffleWriter过程中不需要执行数据排序操作,节省了部分性能开销.
2019年第28卷第6期http://www.
c-s-a.
org.
cn计算机系统应用SoftwareTechniqueAlgorithm软件技术算法191图2Sort-basedShuffle算法实现3数据倾斜问题分析和定位3.
1数据倾斜原因分析发生数据倾斜的原因主要包括输入数据源分布不均匀,以及计算过程中数据拉取时间不均匀.
输入数据分布不均匀的一般表现为原始数据,或者中间临时数据中Key分布不均匀[6].
例如SparkStreaming通过DirectStream读取Kafka数据.
由于Kafka的每个分区都对应于Spark的相应任务,Kafka相关主题的分区之间的数据是否平衡,直接决定Spark在处理数据时是否会产生数据偏斜.
如果使用随机分区,概率上分区之间的数据是平衡的,不会生成数据倾斜.
但很多业务场景要求将具备同一特征的数据顺序消费,需要将具有相同特征的数据放于同一个分区中.
一个典型的场景是相同的用户相关的PV信息放置在相同的分区中,很容易导致数据倾斜.
数据拉取时间不均匀一般是硬件计算能力不均匀,或者网络传输能力不均匀造成的[7].
比如PageRank算子分为三个Stage运行,由于第二个Stage产生了Shuffle是最容易发生数据倾斜,每个Task处理分区数据绑定了各个顶点权重,然后收集其邻接节点的权重.
由于Executor需要从非本地节点上拉取上一个Stage中得到的节点信息.
如果数据分布不均匀,某些节点会比其他节点承受更大的网络流量和计算压力.
数据倾斜的计算时间主要花费在Shuffle上,提高Shuffle性能有利于提高应用程序的整体性能.
3.
2数据倾斜定位方法通过Spark界面观察每个阶段任务当前分配的数据量,进一步确定数据的不均匀分布是否导致了数据倾斜[8].
只要在代码中看到Shuffle类操作符,或在SparkSQL语句中看到导致Shuffle的语句,就可以确定划分Stage的边界.
Stage1的每个任务开始运行时,将首先执行ShufflerReader操作,从Stage0的每个任务中提取需要处理的Key.
比如Stage1在执行ReduceByKey操作符之后计算出最终RDD,然后执行收集算子将所有数据拉到Driver中.
数据倾斜往往发生在Shuffle过程中,可能会触发Shuffle操作的算子包括GroupByKey、ReduceByKey和AggregateByKey等.
在执行Shuffle时必须将每个节点上的相同Key拖动到同一个节点上的Task进行处理.
如果某个Key对应的数据量特别大就会发生数据倾斜,Job运行得非常缓慢,甚至可能因为某个Task处理的数据量过大导致内存溢出.
4广播机制避免Shuffle的策略4.
1TorrentBroadcast原理通过广播机制将只读变量从一个节点发送到其他Executor节点,进程内运行的任务属于同一个应用程序,在每个执行器节点上放置广播变量可以由该节点的所有任务共享[9].
TorrentBroadcast算法的基本思想是将广播变量划分为多个数据块.
当某个执行器获得计算机系统应用http://www.
c-s-a.
org.
cn2019年第28卷第6期192软件技术算法SoftwareTechniqueAlgorithm数据块时,当前执行器被视为数据服务器节点.
随着越来越多的执行器获得数据块,更多的数据服务器节点可用.
广播变量可以快速传播到所有节点.
TorrentBroadcast读取数据的方式与读取缓存类似,使用BlockManager自带的NIO通信方式传递数据,存在的问题是慢启动和占内存[10].
慢启动指的是刚开始数据只在Driver节点上,要等执行器获取多轮数据块后,数据服务节点才会变得可观,后面的获取速度才会变快.
执行器在获取完所有数据分块后进行反序列化时,需要将近两倍的内存消耗.
4.
2Broadcast变量性能优势Driver先把广播变量序列化为字节数组,然后切割成BLOCK_SIZE大小的数据块.
在数据分区和切割之后,数据分区元信息作为全局变量被存储在Driver节点的BlockManager中.
之后每个数据分块都做相同的操作,BlockManagerMaster可以被Driver和所有Executor访问到.
执行器反序列化Task时,先询问所在的BlockManager是会否包含广播变量,若存在就直接从本地BlockManager读取数据.
否则连接到Driver节点的BlockManagerMaster获取数据块的元信息.
广播机制把只读变量通过共享的方式有效的提高了集群的性能.
大多数Spark作业的性能主要消耗在Shuffle环节,该环节包含了大量的磁盘IO、序列化、网络数据传输等操作.
通过广播机制避免Shuffle,可显著提高应用运行速度.
例如普通Join操作会产生Shuffle,RDD中相同的Key需要通过网络拉取到同一个节点上.
在算子函数使用广播变量时,首先会判断当前Task所执行器内存中是否有变量副本.
如果有则直接使用,如果没有则从Driver或者其他Executor节点上远程拉取一份放到本地执行器内存中.
广播变量保证了每个执行器内存中只驻留一份变量副本,Executor中的Task执行时共享该变量副本,减少变量副本的数量和网络传输的性能开销,降低了执行器内存的开销,降低GC的频率,会极大地提升集群性能.
4.
3BroadcastJoin代码实现如图3所示,BroadcastJoin算子Scala代码实现.
当在RDD上使用Join类操作或者在SparkSQL中使用联接语句时,普通联接运算符会产生Shuffle过程,并将相同的Key数据拉入ShuffleReaderTask进行联接操作.
如果连接操作中RDD或表的数据量相对较小,则不使用连接运算符而是使用广播变量和映射类运算符来实现Join操作,从而完全避免了Shuffle过程和数据歪斜.
较小的RDD中的数据通过收集操作直接拉入Driver节点的内存中,创建广播变量.
然后从广播变量中获取较小RDD的数据,并在另一个RDD上执行映射类运算符.
根据连接键比较当前RDD的每个数据.
如果连接键相同则将两个RDD的数据连接在一起,实现Join操作的效果.
该方法不足在于Driver和Executor节点都要存储广播变量的全部数据,比较消耗内存.
图3BroadcastJoin算子Scala代码实现5实验和分析5.
1集群硬件环境配置本文使用的实验环境是一个由四个节点组成的服务器集群.
集群采用主-从体系结构,其中一个是主节点,其他三个是从节点.
SparkJob和Hadoop文件系统部署在同一节点上.
大部分的Spark作业会从外部存储系统读取输入数据,比如Hadoop文件系统,将其与存储系统放得越近越好.
在相同的节点上安装SparkStandalone模式集群,并单独配置Spark和Hadoop的内存和CPU使用以避免干扰[11].
实验服务器集群环境的硬件配置根据数据量调整,参考官方建议初始配置如下.
单个节点服务器最初配置四个磁盘.
Spark很多计算都在内存中进行,但当数据在内存中装不下的时候,仍然使用本地磁盘来存储数据,以及在不同阶段之间保留中间的输出.
在实验中每个计算节点有4–8个磁盘.
集群网络最初配置为万兆网卡.
当数据在内存中时,2019年第28卷第6期http://www.
c-s-a.
org.
cn计算机系统应用SoftwareTechniqueAlgorithm软件技术算法193许多Spark应用程序都与网络密切相关.
使用万兆或更高的网络是使这些应用程序更快的比较好的方法.
分布式Reduce应用程序尤其适用,比如group-by、reduce-by等操作.
单个节点服务器的初始内存配置为16GB.
Spark应用分配75%的内存,剩下的部分留给操作系统和缓冲区缓存.
使用Spark监视UI的Storage选项卡查看内存使用情况,内存使用情况受存储等级和序列化格式的影响很大[12].
单个计算节点的CPU核心数量最初配置8个Core.
Spark在每台机器上可以扩展到数几十个Core.
测试阶段在每台机器上提供8–16个内核,根据服务器负载的消耗可以配置更多.
5.
2系统配置和源数据如图4所示,集群运行时软件版本信息,图5是集群系统配置信息,都是当前业界使用的稳定版本和配置.
实验数据来自于某金融机构的客户消费贷款逾期信息,包括逾期客户还款信息,以及催收行动信息.
选取逾期客户还款信息数据量相对较少,10万条记录,数据结构中包括记录ID、还款时间、还款金额、银行编码、还款卡号、客户姓名、客户ID等信息.
逾期客户机构催收行动数据量相对较大,1000万条记录,数据结构包括记录ID、催收行动码、行动描述、客户电话、客户关系、通话时长、客户ID、客户姓名、行动时间、催收员、催收机构等信息.
根据客户ID进行Join操作,计算指标包括机构催收员工作量和催收员工作业绩.
图4集群软件版本信息5.
3实验结果分析如图6所示,BroadcastJoin算子DAG视图中不存在Shuffle,普通Join算子DAG视图的复杂度明显高于BroadcastJoin算子.
图6(a)是普通Join操作的DAG视图,根据RDD的宽依赖关系分为三个阶段,有向无环图描述了阶段之间的依赖关系,当前Stage只能在父Stage之后执行.
从DAG视图清晰的看到普通Join算子存在Shuffle过程.
图6(b)是BroadcastJoin算子有向无环图只有一个阶段,逻辑过程相对简单.
图5集群系统配置信息图6Join算子DAG视图计算机系统应用http://www.
c-s-a.
org.
cn2019年第28卷第6期194软件技术算法SoftwareTechniqueAlgorithm如图7所示,BroadcastJoin算子中Task统计数据表明性能上存在明显的优势.
图7(a)是普通Join算子某阶段Task性能统计数据,包括Task持续时间、GC执行时间和Shuffle数据量等3个方面的统计信息.
图7(b)是BroadcastJoin算子Task性能统计数据,相比于普通Join算子的Task性能统计信息,在3个方面都存在明显的优势.
如图8所示,BroadcastJoins算子各个Stage的磁盘读写和网络流量、任务持续时长等都存在明显的优势.
图8(a)是普通Join算子各个阶段执行情况,共有3个阶段,整个过程耗时6–7秒,Shuffle并行度为9,涉及ShuffleReader数据量61.
3MB,ShuffleWriter数据量61.
3MB.
如图8(b)所示,BroadcastJoin算子只有1个阶段,没有涉及Shuffle数据读写过程,数据输入117.
4MB,Task总数量明显小于普通Join算子的数量,执行时间是3秒,和普通Join算子相比在性能上有较大的提升.
图7Join操作Task性能数据图8Join算子各个Stage执行情况如图9所示,BroadcastJoins算子不存在数据倾斜问题.
图9(a)是普通Join操作任务数据分配和执的详细数据.
从列ShuffleReadSize可以看出,任务分配出现了数据倾斜问题,被分配数据量较大的Task执行时间明显高于其他任务的持续时间,消耗更大的资源和网络流量,其他已经完成计算的节点处于等待状态.
图9(b)是Broadcastjoin算子任务数据分配和执行情况明细,从持续时间列和InputSize列看出,数据几乎是均匀分配,8个任务的持续时间是1秒,1个是0.
9秒,充分发挥了数据本地性特性,每个节点的计算资源都被有效利用.
如图10所示,BroadcastJoin算子在高并发的应用情况下性能上存在稳定的提升.
如图10(a)所示,普通Join算子压测统计,通过压测工具10万次的统计结果,统计了平均持续时间、中位数和偏差情况.
从图中看出,持续时间绝大部分相对集中和稳定在7秒左右.
如图10(b)所示,Broadcastjoin算子压测情况统计,比较相同的统计指标存在明显的优势,持续时间基本集中和稳定在4秒左右.
6总结本文研究了SparkShuffle设计和算法实现,分析了哈希和排序两类Shuffle机制的实现过程,深入分析在Shuffle过程发生数据倾斜的本质原因.
进一步分析了Spark流计算集群中,发生数据倾斜常见业务场景,分析数据倾斜问题的原因和发生过程,提供了问题定位的方法和步骤.
提出了广播机制避免某些场景下的数据倾斜问题,给出广播变量分发机制和算法实现.
通过Broadcast实现Join算子的实验,相对于直接操作2019年第28卷第6期http://www.
c-s-a.
org.
cn计算机系统应用SoftwareTechniqueAlgorithm软件技术算法195Join算子,通过DAG视图、任务持续时间、Shuffle读写数据量等指标的比较和分析,验证了广播机制在性能上有较大提升,压力测试进一步验证了在大规模应用的情况下性能有稳定的改善.
图9Join算子数据分配和执行图10Join算子压测数据统计参考文献ChenQ,YaoJY,XiaoZ.
LIBRA:LightweightdataskewmitigationinMapReduce.
IEEETransactionsonParalleland1DistributedSystems,2015,26(9):2520–2533.
[doi:10.
1109/TPDS.
2014.
2350972]AlHajjHassanM,BamhaM.
TowardsscalabilityanddataskewhandlinginGroupBy-joinsusingMapReducemodel.
ProcediaComputerScience,2015,51:70–79.
[doi:10.
1016/j.
procs.
2015.
05.
200]2deOliveiraPM,AllisonPM,MastorakosE.
Ignitionofuniformdroplet-ladenweaklyturbulentflowsfollowingalaserspark.
CombustionandFlame,2019,199:387–400.
[doi:10.
1016/j.
combustflame.
2018.
10.
009]3TangZ,ZhangXS,LiKL,etal.
AnintermediatedataplacementalgorithmforloadbalancinginSparkcomputingenvironment.
FutureGenerationComputerSystems,2018,78:287–301.
[doi:10.
1016/j.
future.
2016.
06.
027]4MustafaS,ElghandouI,IsmailMA.
Amachinelearningapproachforpredictingexecutiontimeofsparkjobs.
AlexandriaEngineeringJournal,2018,57(4):3767–3778.
[doi:10.
1016/j.
aej.
2018.
03.
006]5TangJC,XuM,FuSJ,etal.
AschedulingoptimizationtechniquebasedonreuseinsparktodefendagainstAPT6计算机系统应用http://www.
c-s-a.
org.
cn2019年第28卷第6期196软件技术算法SoftwareTechniqueAlgorithmattack.
TsinghuaScienceandTechnology,2018,23(5):550–560.
[doi:10.
26599/TST.
2018.
9010022]YeXM,ChenXS,LiuDH,etal.
Efficientfeatureextractionusingapachesparkfornetworkbehavioranomalydetection.
TsinghuaScienceandTechnology,2018,23(5):561–573.
[doi:10.
26599/TST.
2018.
9010021]7廖旺坚,黄永峰,包从开.
Spark并行计算框架的内存优化.
计算机工程与科学,2018,40(4):587–593.
[doi:10.
3969/j.
issn.
1007-130X.
2018.
04.
003]8卞琛,于炯,英昌甜,等.
并行计算框架Spark的自适应缓9存管理策略.
电子学报,2017,45(2):278–284.
[doi:10.
3969/j.
issn.
0372-2112.
2017.
02.
003]李俊丽.
基于Spark平台的离群数据并行挖掘算法.
计算机与数字工程,2018,46(11):2175–2178.
[doi:10.
3969/j.
issn.
1672-9722.
2018.
11.
003]10朱继召,贾岩涛,徐君,等.
SparkCRF:一种基于Spark的并行CRFs算法实现.
计算机研究与发展,2016,53(8):1819–1828.
11谭亮,周静.
基于SparkStreaming的实时交通数据处理平台.
计算机系统应用,2018,27(10):133–139.
122019年第28卷第6期http://www.
c-s-a.
org.
cn计算机系统应用SoftwareTechniqueAlgorithm软件技术算法197

亚州云-美国Care云服务器,618大带宽美国Care年付云活动服务器,采用KVM架构,支持3天免费无理由退款!

官方网站:点击访问亚州云活动官网活动方案:地区:美国CERA(联通)CPU:1核(可加)内存:1G(可加)硬盘:40G系统盘+20G数据盘架构:KVM流量:无限制带宽:100Mbps(可加)IPv4:1个价格:¥128/年(年付为4折)购买:直达订购链接测试IP:45.145.7.3Tips:不满意三天无理由退回充值账户!地区:枣庄电信高防防御:100GCPU:8核(可加)内存:4G(可加)硬盘:...

一键去除宝塔面板各种计算题与延时等待

现在宝塔面板真的是越来越过分了,删除文件、删除数据库、删除站点等操作都需要做计算题!我今天升级到7.7版本,发现删除数据库竟然还加了几秒的延时等待,也无法跳过!宝塔的老板该不会是小学数学老师吧,那么喜欢让我们做计算题!因此我写了个js用于去除各种计算题以及延时等待,同时还去除了软件列表页面的bt企业版广告。只需要执行以下命令即可一键完成!复制以下命令在SSH界面执行:Layout_file="/w...

racknerd新上架“洛杉矶”VPS$29/年,3.8G内存/3核/58gSSD/5T流量

racknerd发表了2021年美国独立日的促销费用便宜的vps,两种便宜的美国vps位于洛杉矶multacom室,访问了1Gbps的带宽,采用了solusvm管理,硬盘是SSDraid10...近两年来,racknerd的声誉不断积累,服务器的稳定性和售后服务。官方网站:https://www.racknerd.com多种加密数字货币、信用卡、PayPal、支付宝、银联、webmoney,可以付...

内存溢出为你推荐
me域名注册.me是什么域名租服务器租个一般的服务器大概多少钱啊?香港虚拟空间香港虚拟空间 好不、现在还有人买嘛香港虚拟主机香港虚拟主机多少钱一年呢?韩国虚拟主机韩国虚拟主机好还是香港的好1g虚拟主机1G虚拟空间大约多少钱?郑州虚拟主机请问郑州哪家公司可以做网站还有相应服务器服务的?淘宝虚拟主机我想在淘宝买虚拟主机不知道哪家好?想找长期合作稳定的成都虚拟主机成都唯度科技有限公司怎么样?东莞虚拟主机哪里的虚拟主机便宜 性价比高?
域名注册使用godaddy 域名商 网盘申请 免空 ftp教程 香港新世界中心 最漂亮的qq空间 海外空间 百度云加速 photobucket 中国域名 注册阿里云邮箱 登陆qq空间 ssl加速 密钥索引 wannacry勒索病毒 中国域名根服务器 linuxvi命令 堡垒主机 邮件服务器是什么 更多