卷积卷积神经网络
卷积神经网络 时间:2021-02-25 阅读:(
)
软件学报ISSN1000-9825,CODENRUXUEWE-mail:jos@iscas.
ac.
cnJournalofSoftware,2017,28(Suppl.
(1)):107114http://www.
jos.
org.
cn中国科学院软件研究所版权所有.
Tel:+86-10-62562563卷积神经网络在车辆目标快速检测中的应用陈宏彩1,2,程煜1,2,张常有31(河北省科学院应用数学研究所,河北石家庄050081)2(河北省信息安全认证工程技术研究中心,河北石家庄050081)3(中国科学院软件研究所并行软件与计算科学实验室,北京100190)通讯作者:张常有,E-mail:changyou@iscas.
ac.
cn摘要:我国机动车保有量急速增长,产生一系列严重的安全与交通问题.
与此同时,视频图像文件呈爆炸式增长,为公安的监控、刑侦以及案件的侦破带来了很大的困扰.
车辆目标检测与识别越来越受到人们的关注,研究一种高效而准确的车辆目标检测方法意义重大.
在YOLO目标检测框架的基础上,设计了一种卷积神经网络的车辆检测及其车型粗粒度识别方法.
网络结构采用多层感知机卷积层,增加特征映射的非线性处理能力;移除原来模型中的全连接层,利用锚点框预测目标的边界框,在降低模型复杂度的同时提高了目标检测的召回率.
实验结果表明,与主流的目标检测方法相比,该车辆目标检测方法在处理速度和准确度上都有提高,在迭代20000次的情况下,平均准确率为94.
7%.
关键词:车辆检测;卷积神经网络;多层感知机;粗粒度;车辆识别中文引用格式:陈宏彩,程煜,张常有.
卷积神经网络在车辆目标快速检测中的应用.
软件学报,2017,28(Suppl.
(1)):107114.
http://www.
jos.
org.
cn/1000-9825/17011.
htm英文引用格式:ChenHC,ChengY,ZhangCY.
Convolutionalneuralnetworkappliedonfastvehicleobjectsdetection.
RuanJianXueBao/JournalofSoftware,2017,28(Suppl.
(1)):107114(inChinese).
http://www.
jos.
org.
cn/1000-9825/17011.
htmConvolutionalNeuralNetworkAppliedonFastVehicleObjectsDetectionCHENHong-Cai1,2,CHENGYu1,2,ZHANGChang-You31(HebeiAcademyofSciencesInstituteofAppliedMathematics,Shijiazhuang050081,China)2(HebeiAuthenticationTechnologyEngineeringResearchCenter,Shijiazhuang050081,China)3(StateKeyLaboratoryofComputingScience,InstituteofSoftware,TheChineseAcademyofSciences,Beijing100190,China)Abstract:WiththerapidgrowthofthenumberofmotorvehiclesinChina,inevitablytherewouldappearaseriesofsevereproblemsconcerningsafetyandtraffics.
Atthesametime,thevideoimagefilesareincreasingatanexplosivespeed,whichhasbroughtalotoftroubletothepublicsecuritymonitoring,criminalinvestigationandthecasedetection.
Itisimportanttoresearchanefficientandaccuratevehicledetectionalgorithm.
ThispaperproposesanewdeepconvolutionneuralnetworksframeforvehicledetectionandcoarsegrainedrecognitionbasedYOLOmethod.
Multilayerperceptronconvolutionlayersareaddedinthenewnetworkstructureframeworktoenhancenonlinearabilityoffeaturemapping.
Thisframeworkdeletesfullyconnectedlayersandpredictstheboundingboxesusinganchorboxes.
Thenewframeworkimprovesrecallratesofobjectdetectionandeffectivelyreducescomputationalcomplexity.
Experimentalresultsshowthattheimprovedmethodhasanaverageaccuracyof94.
7%forvehicledetectionunderiteration20000times.
Comparedwithotherdetectionmethods,theprocessingspeedandaccuracyofthenewmethodhavebeenimproved.
Keywords:vehicledetection;convolutionneuralnetworks;multilayerperceptrons;coarse-grained;vehiclerecognition基金项目:国家自然科学基金(61379048,61672508);河北省重点研发计划(17395602D)Foundationitem:NationalNaturalScienceFoundationofChina(61379048,61672508);KeyResearchandDevelopmentProgramofHebeiProvince(17395602D)收稿时间:2017-05-15;采用时间:2017-09-23108JournalofSoftware软件学报Vol.
28,Supplement(1),October2017随着我国机动车数目的急速增长,产生了一系列严重的安全与交通问题.
交通堵塞、车辆被盗、汽车超速、超载、闯红灯以及驾驶汽车犯罪等事件与日俱增.
与此同时,交通路口视频图像文件呈爆炸式增长,给公安和交管等执法部门处理事后的车辆检索工作带来了很大的困扰,尤其随着车辆的增多,涉车案件也越来越多.
车辆及其感兴趣区域检测识别越来越受到人们的关注,但是目前相关目标检测识别系统的处理性能和准确率还有待提高,所以,设计一种高效而准确的车辆检测方法意义重大.
近年来,深度学习理论迅速发展,与传统依赖先验知识的特征提取算法不同,深度神经网络可在训练数据驱动下自适应地构建特征描述,具有更高的灵活性和普适性.
作为实现深度学习的一项重要技术,卷积神经网络(convolutionalneuralnetworks,简称CNN)[1]成功地训练了首个深层神经网络结构,已在图像识别[24]、语音识别[5]等领域取得了卓越的成绩.
它类似于生物神经网络的权值共享网络结构可产生生物视觉中的局部感受野效应,在降低网络模型复杂度[3]、减少权值数量的同时,对平移、比例缩放、倾斜等视觉形变均具有高度的抵抗能力.
文献[6]中使用卷积神经网络训练行人特征用于行人检测.
此方法对光照、变形和遮挡都有较好的鲁棒性.
张勇[7]利用基于深度学习思想对深度卷积神经网络模型解决复杂环境下人脸和车牌的检测问题进行了深入研究,并且在公开数据集上获得了较好的性能评价.
谭贞刚[8]提出了一种非对称卷积神经网络的算法.
该算法可以从场景图像中检测交通标志,并且有效地保证了目标检测的速率和准确率.
本文利用深度卷积神经网络技术构建车辆目标检测算法,与传统卷积神经网络结构相比具有以下优势:第一,在网络结构中引入数据批量规范化处理,在去除噪声的同时增强了目标检测特征的表达能力;第二,新的网络结构采用多层感知机卷积层,增加了特征映射的非线性处理能力;第三,移除原来模型中的全连接层,利用锚点框(anchorbox)预测目标的边界框,在降低模型复杂度的同时,提高目标检测的召回率.
本文第1节介绍当前主流的目标检测方法.
第2节详细阐述本文设计的基于卷积神经网络的车辆目标检测及其车型粗粒度识别方法.
第3节对构建的基于卷积神经网络的车辆检测方法实验测试,并对实验结果进行分析.
第4节总结全文,并对未来的研究方向进行初步探讨.
1目标检测常用方法介绍所谓图像的目标检测就是给定一张图像,定位出图像中所有目标的位置,并给出每个目标的具体类别.
传统的目标检测方法一般使用滑动窗口的框架.
这些方法存在一定的弊端:一是应用滑动窗口区域选择方法时间复杂度较高,存在窗口冗余现象;二是手工设计的特征缺乏通用性,鲁棒性较差.
当前,基于深度学习的目标检测算法是主流.
大体分为两类,一类是基于候选区域(regionproposal)的算法,另一类是基于回归的目标检测方法.
2014年,文献[9]提出了使用CNN结合候选区域方式来进行目标检测,设计了R-CNN框架,其基本流程是:输入待检测原始图像,使用选择性搜索算法从中选择出区域候选框;把每个候选框缩放到指定大小并输入到CNN网络中,从而实现特征的提取;使用支持向量机(supportvectormachine,简称SVM)对提取到的特征进行分类,以回归的方式对边框的大小和位置进行调整.
R-CNN框架的优势在于不需要人工选择设计特征,但它的一大弊端是运行速度慢.
2015年,Girshick提出了Fast-R-CNN算法[10],修改了R-CNN网络结构,在末尾卷积层之后增添了一个感兴趣区域池化层并运用改进的多任务损失函数替换原来的损失函数,同时,在CNN的训练过程中包含了边框回归操作,与R-CNN相比,在检测速度和精度上都有较大的提升.
Ren等人提出了Faster-R-CNN算法[11].
该算法中使用一种专门的神经网络RPN(regionproposalnetwork,简称RPN)来提取候选框,代替了R-CNN框架中的选择搜索,在不影响候选区域质量的前提下,使检测速度大为提高.
尽管Faster-R-CNN算法处理速度比之前方法有了很大的提升,但仍然无法满足实时性的需求.
2016年,文献[12]提出了一种基于回归的目标检测算法,简称YOLO算法.
YOLO的本质仍然是一个卷积神经网络,与普通CNN不同之处在于,运行1次,网络就可以预测出多个边框位置和目标的类别,在真正意义上做到了端到端的目标检测和识别[12],极大地提高了检测速度.
再者,YOLO直接使用整图对模型训练,有利于排除背景干扰.
但是,YOLO只使用7*7的网格回归,使得目标不能精准定位,而且召回率不如候选区域的方法.
Liu等人[13]提出了陈宏彩等:卷积神经网络在车辆目标快速检测中的应用109一种基于回归策略的SSD检测模型.
SSD方法结合了YOLO方法中的回归思想和FasterR-CNN的机制,使用图像各个位置的多尺度区域进行回归,根据锚点直接对目标进行分类和回归边框,既保持了YOLO方法速度快的特性,也保证了窗口预测精准度.
2基于YOLOV2的车辆目标检测方法YOLOV2方法[14]是在YOLO方法基础上使用一系列的技巧对其改进,新方法在保持原有速度的同时提高了精度,而且检测速度比SSD快2倍~10倍.
本文建立的车辆目标检测方法借鉴YOLOV2算法,将主流的图像分类网络GoogleNet模型[3]作为车辆检测网络主题框架,其车辆检测模型包含19个卷积层、5个最大值池化层、1个Avgpool层和1个Softmax层.
2.
1构建多层感知机卷积层在卷积层我们采用3*3的卷积核,并且借鉴文献[15]提出的网络中的网络工作思想,新的网络结构采用多层感知机卷积层(multilayerperceptronsconvolution,简称Mlpconv),图1是一个Mlpconv层结构示意图.
在新的网络中使用全局平均池化进行预测,把1*1的卷积核置于3*3的卷积核之间,用来压缩特征,这可以看成是每个卷积的局部感受野中还包含一个微型的多层网络.
Fig.
1Mlpconvlayer图1多层感知机卷积层普通的CNN层,局部感受野的运算仅仅是一个单层的神经网络,其计算如公式(1)所示.
,,,max(,0)Tijkkijfxω=(1)在车辆检测框架中增加多层感知机卷积层后,对每个局部感受野的神经元进行运算,计算Mlpconv层每张特征图,其计算如公式(2)所示.
11111,,,1,,,max(,0)max(,0)nnnTijkkijknnTnijkkijkfxbffbωω=+=+#(2)为了增强模型的检测能力,本文去掉GoogleNet模型中最后一个卷积层,在网络结构后面新增加3个3*3的卷积层,并且在每个卷积层后面增加一个1*1的卷积层,输出个数是检测目标所需要的数量.
2.
2数据批量规范化处理车辆图像来自不同卡口,背景比较复杂,而且会受到光照、雾霾等噪声影响.
通常卷积神经网络每层输入数据的分布总是发生变化.
为了降低噪声对图像的影响,在车辆检测模型中引入数据批量规范化(batchnormalization,简称BN)处理.
BN操作的步骤是:在每个卷积池化处理之后,激活函数作用之前,对每个输出数据规范化处理(均值为0,方差为单位1),如公式(3)所示.
对于一个输入层是d维的数据x=(x(1),.
.
.
,x(d)),标准化每一维.
但是,仅仅做简单的归一化操作,会将原来非线性分布的数据处理成近似线性分布数据,降低模型表达能力.
为了保持模型的表达能力,本文参考文献[16]的方法,引入两个可学习参数,增强其模型的表达能力,于是最后的110JournalofSoftware软件学报Vol.
28,Supplement(1),October2017输出可以表示为公式(4).
()()()()[][]kkkkxExxVarx=(3)kkkkyxγβ=+(4)这里,公式(4)中的γ(k)和β(k)可以和网络模型原始参数一起学习获得.
2.
3锚点预测目标边界框YOLO算法[12]使用全连接层数据进行目标边界框预测,而且在7*7的网格上处理,这样会丢失较多的空间信息,特别是当目标比较小时,容易造成定位不准确.
本文的车辆检测方法借鉴FasterR-CNN方法中的锚点机制[11],将YOLO模型中的全连接层去掉,再利用锚点预测车辆目标的边界框,如图2所示,在卷积特征图上进行滑窗采样,每个中心预测9种不同大小和比例的边界框.
与原始YOLO算法每个单元格仅预测2种边界框相比,新方法将会提高目标检测的召回率.
由于新的网络都是卷积操作不需要重新调整参数,这样可以很好地保留目标的空间信息,最终特征图的每个特征点和原图的每个单元格一一对应,而且用预测相对偏移取代直接预测坐标,既简化了问题,又方便了网络学习.
Fig.
2Anchorspredictboundingboxesofobject图2锚点预测目标的边界框本文车辆目标检测方法使用锚点预测检测目标边界框.
具体步骤如下:(1)去掉YOLO网络最后的池化层保证输出的卷积特征图具有更高的分辨率.
(2)缩减网络,将图像输入分辨率设置为416*416.
(3)卷积层下采样,采样因子设为32,使得输入卷积网络的416*416图片最终得到13*13的卷积特征图.
(4)把预测类别的机制从空间位置中解耦,利用锚点同时预测目标类别和坐标.
因为YOLO每个单元格负责预测类别,每个单元格对应的2个边界框负责预测坐标.
本文方法中不再将类别的预测与每个单元格的空间位置绑定一起,而是将其全部放到锚点框中.
3实验3.
1测试环境本文在AMAX服务器上进行实验测试.
实验环境如下:CPU为Intel(R)E5-2650@2.
60GHz,GPU为TeslaK40m,系统环境为Ubuntu14.
04和CUDA7.
5.
车辆测试数据集是从某市交通卡口获取的原始图像.
检测的目标类别包括小轿车、客车/公交车、货车、面包车、自行车、摩托车、行人7个类别,每类目标训练样本数约为500张~1000张不等,总共5520张训练图像,测试数据集共5500张图像,每张图像的分辨率大小为2048像素*1536像素.
陈宏彩等:卷积神经网络在车辆目标快速检测中的应用1113.
2车辆目标检测模型参数测试本节主要选择合适的卷积神经网络结构参数.
通过大量对比实验来确定迭代次数、Dropout率大小、学习率等问题,实验测试并分析确定最终方案.
实验过程中,测试的结果都是以数据集中7类目标的检测为例进行测试.
在网络结构和训练及测试数据集不变的情况下,先固定Dropout率为0.
5,测试训练卷积神经网络迭代次数对检测性能的影响.
表1给出了测试效果较好的5组实验.
Table1Comparativeexperimentresultsofdifferentiterationtimes表1不同迭代次数实验对比结果实验迭代次数Dropout率准确率(%)150000.
580.
32100000.
586.
03150000.
591.
44200000.
595.
75250000.
592.
5从表1可以看出,迭代次数设定为20000时检测的效果要好于迭代次数15000或者25000的检测结果.
结合实验结果分析得出,如果迭代次数过少,会使网络训练不充分,而迭代次数过多,会使整个网络模型更依赖于当前的样本集,这样容易导致过拟合.
如图3所示,测试2张不同的车辆图像,其中,图3(a)~图3(d)分别是网络模型迭代15000次、20000次、25000次和20000次的检测效果图,其中,图3(a)出现了漏检,而图3(c)出现了误检和漏检.
根据车辆目标检测结果,本文在实际训练过程时,将迭代次数设定为20000.
(a)迭代15000次效果图(b)迭代20000次效果图(c)迭代25000次效果图(d)迭代20000次效果图Fig.
3Detectionresultsofdifferentiterationtimes图3不同迭代次数下检测结果Dropout层由Hinton等人[17]提出并加入到了CNN结构中,其作用是能够有效地降低训练过程发生过拟合现象的概率.
当训练权重参数较多而训练样本较少时,模型训练过程容易产生过拟合现象.
在网络结构、数据集和迭代次数不变的情况下分别采用不同Dropout率训练检测的方式,实验结果见表2.
从表2可以看出,使用Dropout层后,准确率有较大提升,并且Dropout率为0.
5,准确率较高,在实际车辆检测中采用Dropout率为0.
75,因为该参数可以有效地过滤采集不完整的车辆,提升检测速率.
单张图像测试结果如图4所示,图4(a)和图4(b)图分别由Dropout率为0.
5和0.
75实验得到.
112JournalofSoftware软件学报Vol.
28,Supplement(1),October2017Table2ComparativeexperimentresultsofdifferentDropoutratios表2不同Dropout率实验结果对比实验Dropout率迭代次数准确率(%)102000091.
220.
52000095.
730.
752000094.
1(a)0.
5dropout率效果图(b)0.
75dropout率效果图Fig.
4DetectionresultsofdifferentDropoutratios图4不同Dropout率检测结果检测模型训练一段时间后,我们才能看到学习率是否真的太慢或真正不稳定.
在网络结构、数据集不变的情况下,设定网络结构中Dropout率为0.
5,批处理大小为64,对7类交通目标进行训练,对比不同学习率的测试情况.
图5给出了学习率为1e3和1e5的情况.
从图中可以看出,设置学习率1e3效果更好.
因而在实际训练过程中,设定学习率为le3.
Fig.
5AvgLossofdifferentlearningratios图5不同学习率下的AvgLoss综合以上实验结果,本文车辆目标检测模型参数设置为Dropout率为0.
75,训练迭代次数20000次,初始化学习率为1e3.
3.
3不同目标检测方法实验结果及分析本文构建的车辆目标检测方法不仅能够定位车辆位置,而且能够对交通场景中常见的目标进行粗粒度分类.
图3和图6给出了交通目标粗粒度识别情况.
本方法能够较为准确地定位出车辆目标位置及大小信息,而且还可以识别出图像中的小轿车、公交车、面包车、摩托车、行人等目标.
陈宏彩等:卷积神经网络在车辆目标快速检测中的应用113Fig.
6Coarse-Grainedclassificationoftrafficobjects图6交通目标粗粒度识别为了验证基于卷积神经网络的车辆目标检测方法的效果,我们测试了4类交通目标(轿车、客车、货车、面包车).
表3列出了实验结果,包括单目标检测识别准确率、平均准确率以及每检测识别1张图像平均花费的时间.
Table3Detectionresultsofdifferentvehicleobjectdetectionalgorithms表3不同车辆目标检测算法结果比较检测方法轿车(%)客车(%)货车(%)面包车(%)平均准确率(%)检测时间(ms)R-CNN86.
687.
084.
281.
084.
7344.
73FasterR-CNN90.
188.
987.
085.
287.
8244.
73YOLO81.
482.
679.
377.
880.
358.
73SSD30095.
294.
493.
691.
393.
660.
72Ours96.
795.
294.
992.
194.
750.
00从表3可以看出,本文设计的车辆目标检测算法平均检测准确率达到了94.
7%,要优于其他几种主流目标检测算法.
在检测时间上,本文方法与原始YOLO算法接近,检测1张高清图像平均花费50ms,而SSD300则需要60ms,R-CNN和其加速算法则需要超过200s.
4总结本文首先介绍了两类主流的基于卷积神经网络的目标检测算法,分析了每个方法的优缺点.
然后,在快速的目标检测方法——YOLO算法基础上设计了一种基于卷积神经网络的车辆目标检测框架.
新的检测框架在网络结构设计和模型优化上做了一些工作.
在模型结构上,新方法构建了多层感知机卷积层,去掉了复杂的全连接层,在一定程度上增加了特征映射的非线性处理能力;通过锚点框预测车辆目标的类别和坐标,增加了预测目标的数目,提高了目标检测的召回率.
通过在神经网络每层引入数据批量规范化处理,进一步提高了目标检测的准确率.
最后,通过实验讨论了车辆目标检测模型的参数配置.
实验结果表明,本文提出的车辆目标检测算法无论在处理性能还是检测准确率上都优于其他几个方法.
本文的实验都是在单机单GPU卡上进行的,为了在工程中应用,达到更快的处理速度,接下来,我们将进一步研究单机多GPU卡的目标检测模式以及多机多GPU卡的分布式并行处理模式.
References:[1]LiYD,HaoZB,LeiH.
Surveyofconvolutionalneuralnetwork.
JournalofComputerApplications,2016,36(9):2508–2515(inChinesewithEnglishabstract).
[2]LecunY,BoserL,DenkerJS,HendersonD,HowardRE,HubbardW,JackelLD.
BackpropagationappliedtohandwrittenzipcodeRecognition.
NeuralComputation,1989,1(4):541–551.
[3]SzegedyC,LiuW,JiaYQ,SermanetP,ReedS.
Goingdeeperwithconvolutions.
In:Proc.
oftheIEEEConfonComputerVisionandPatternRecognition(CVPR).
2015.
1–9.
114JournalofSoftware软件学报Vol.
28,Supplement(1),October2017[4]SimonyanK,ZissermanA.
Verydeepconvolutionalnetworksforlarge-scaleimagerecognition.
arXivpreprintarXiv:1409.
1556,2015.
[5]HanK,WangDL.
Neuralnetworkbasedpitchtrackinginverynoisyspeech.
IEEE/ACMTrans.
onAudio,Speech,andLanguageProcessing,2014,22(12):2158–2168.
[6]OuyangWL,WangXG.
Jointdeeplearningforpedestriandetection.
In:Proc.
oftheIEEEInt'lConf.
onComputerVision(ICCV).
2013.
2056–2063.
[7]ZhangY.
Researchonlicenseplatedetectionandfacedetectionbasedondeepconvolutionneuralnetwork[Ph.
D.
Thesis].
Zhengzhou:ZhengzhouUniversity,2015(inChinesewithEnglishabstract).
[8]TanZG.
Trafficsigndetectionandrecognitionbasedonmultiresolutionconvolutionnetwork[Ph.
D.
Thesis].
Dalian:DalianUniversityofTechnology,2015(inChinesewithEnglishabstract).
[9]GirshickR,DonahueJ,DarrellT,MalikJ.
Region-Basedconvolutionalnetworksforaccurateobjectdetectionandsegmentation.
IEEETrans.
onPatternAnalysisandMachineIntelligence,2016,38(1):142–158.
[10]GirshickR.
FastR-CNN.
In:Proc.
oftheIEEEInt'lConf.
onComputerVision(CVPR).
2015.
1440–1448.
[11]RenSQ,HeKM,GirshickR,SunJ.
FasterR-CNN:Towardsreal-timeobjectdetectionwithregionproposalnetworks.
In:AdvancesinNeuralInformationProcessingSystems.
2015.
91–99.
[12]RedmonJ,DivvalaS,GirshickR,FarhadiA.
Youonlylookonce:Unified,real-timeobjectdetection.
In:Proc.
oftheIEEEConf.
onComputerVisionandPatternRecognition(CVPR).
2016.
779–788.
[13]LiuW,AnguelovD,ErhanD,SzegedyC,ReedS,FuCY,BergAC.
SSD:Singleshotmultiboxdetector.
In:Proc.
oftheEuropeanConf.
onComputerVision(ECCV).
SpringerInt'lPublishing,2016.
21–37.
[14]RedmonJ,FarhadiA.
YOLO9000:Better,faster,stronger.
arXivpreprintarxiv:1612.
08242v1,2016.
[15]LinM,ChenQ,YanSC.
Networkinnetwork.
arXivpreprintarXiv:1312.
4400,2013.
[16]IoffeS,SzegedyC.
Batchnormalization:Acceleratingdeepnetworktrainingbyreducinginternalcovariateshift.
In:Proc.
ofthe32ndInt'lConf.
onMachineLearning(ICML).
2015.
448–456.
[17]SrivastavaN,HintonGE,KrizhevskyA,SutskeverI,SalakhutdinovR.
Dropout:Asimplewaytopreventneuralnetworksfromoverfitting.
Journalofmachinelearningresearch,2014,15(1):1929–1958.
附中文参考文献:[1]李彦冬,郝宗波,雷航.
卷积神经网络研究综述.
计算机应用,2016,36(9):2508–2515.
[7]张勇.
深度卷积神经网络在车牌和人脸检测领域的应用研究[博士学位论文].
郑州:郑州大学,2015.
[8]谭贞刚.
基于多分辨率卷积网络的交通标志检测与识别[博士学位论文].
大连:大连理工大学,2015.
陈宏彩(1981-),女,河北唐山人,助理研究员,CCF专业会员,主要研究领域为图像处理,机器学习.
张常有(1970-),男,博士,教授,CCF专业会员,主要研究领域为并行与分布式软件,智能信息网络.
程煜(1974-),男,博士,研究员,CCF高级会员,主要研究领域为图像处理,机器学习.
云如故是一家成立于2018年的国内企业IDC服务商,由山东云如故网络科技有限公司运营,IDC ICP ISP CDN VPN IRCS等证件齐全!合法运营销售,主要从事自营高防独立服务器、物理机、VPS、云服务器,虚拟主机等产品销售,适合高防稳定等需求的用户,可用于建站、游戏、商城、steam、APP、小程序、软件、资料存储等等各种个人及企业级用途。机房可封UDP 海外 支持策略定制 双层硬件(傲...
丽萨主机怎么样?丽萨主机,团队于2017年成立。成立之初主要做的是 CDN 和域名等相关业务。最近开辟新领域,新增了独立服务器出租、VPS 等业务,为了保证业务质量从一开始就选择了中美之间的 CN2 GIA 国际精品网络,三网回程 CN2 GIA,电信去程 CN2 GIA + BGP 直连智能路由,联通移动去程直连,原生IP。适合对网络要求较高的用户,同时价格也比较亲民。点击进入:丽萨主机官方网站...
pia云怎么样?pia云是一家2018的开办的国人商家,原名叫哔哔云,目前整合到了魔方云平台上,商家主要销售VPS服务,采用KVM虚拟架构 ,机房有美国洛杉矶、中国香港和深圳地区,洛杉矶为crea机房,三网回程CN2 GIA,带20G防御。目前,Pia云优惠促销,年付全场8折起,香港超极速CN2季付活动,4核4G15M云服务器仅240元/季起,香港CN2、美国三网CN2深圳BGP优质云服务器超高性...
卷积神经网络为你推荐
易pc华硕易PC这款本本值不值的买勒?邮箱打不开怎么办我的邮箱打不开怎么办镜像文件是什么系统镜像是什么镜像文件是什么什么叫镜像文件,作用是什么?申请证书手机申请证书qq空间装扮QQ空间装扮godaddy通过什么网址可以查godaddy的域名信息开机滚动条电脑开机有滚动条的画面神雕侠侣礼包大全神雕侠侣手游版四重大礼包怎么得到啊?雅虎天盾我机器上有瑞星杀毒和防火墙 我用雅虎天盾来查杀木马怎样?
淘宝虚拟主机 深圳主机租用 中文域名申请 域名交易网 l5639 视频存储服务器 iis安装教程 轻博 搜狗抢票助手 服务器怎么绑定域名 国外代理服务器地址 如何建立邮箱 789 国内域名 godaddy空间 789电视剧网 小夜博客 hdroad 镇江高防服务器 windows2008 更多