Anchor-free的尺度自适应行人检测算法

在线网速检测  时间:2021-05-17  阅读:()
邹逸群,肖志红,唐夏菲,赖普坚,汤松林,张泳祥,唐琎引用本文:邹逸群,肖志红,唐夏菲,等.
Anchor-free的尺度自适应行人检测算法[J].
控制与决策,2021,36(2):295-302.
在线阅读Viewonline:https://doi.
org/10.
13195/j.
kzyjc.
2020.
0124您可能感兴趣的其他文章Articlesyoumaybeinterestedin抗遮挡与尺度自适应的改进KCF跟踪算法ImprovedKCFtrackingalgorithmbasedonanti-occlusionandscaletransformation控制与决策.
2021,36(2):457-462https://doi.
org/10.
13195/j.
kzyjc.
2019.
0394尺度自适应的多特征融合相关滤波目标跟踪算法Scaleadaptationandmulti-featurefusioncorrelationfilteringobjecttrackingalgorithm控制与决策.
2021,36(2):429-435https://doi.
org/10.
13195/j.
kzyjc.
2019.
0445复杂背景下全景视频运动小目标检测算法Panoramicvideomotionsmalltargetdetectionalgorithmincomplexbackground控制与决策.
2021,36(1):249-256https://doi.
org/10.
13195/j.
kzyjc.
2019.
0686结合注意力机制的循环神经网络复述识别模型Recurrentneuralnetworksbasedparaphraseidentificationmodelcombinedwithattentionmechanism控制与决策.
2021,36(1):152-158https://doi.
org/10.
13195/j.
kzyjc.
2019.
0638基于姿态估计的实时跌倒检测算法Real-timefalldetectionalgorithmbasedonposeestimation控制与决策.
2020,35(11):2761-2766https://doi.
org/10.
13195/j.
kzyjc.
2019.
0382第36卷第2期控制与决策Vol.
36No.
22021年2月ControlandDecisionFeb.
2021Anchor-free的尺度自适应行人检测算法邹逸群1,肖志红1,唐夏菲2,赖普坚1,汤松林1,张泳祥1,唐琎1(1.
中南大学自动化学院,长沙410083;2.
长沙理工大学电气与信息工程学院,长沙410004)摘要:Anchor作为行人检测算法中的初始框,可以解决行人平移问题和缓解行人尺度变化问题,目前的行人检测算法通常都基于anchor.
然而,使用anchor就需要精心调整对检测性能影响非常大的anchor超参数,如anchor的尺度和高宽比等.
为避免这一问题,提出一种基于anchor-free损失函数的行人检测算法,并通过融合特征金字塔网络(FPN)所有检测分支的特征,使anchor-free行人检测算法在训练过程中不需要为FPN的每个检测分支设置有效的训练尺度范围.
另外,还提出一个尺度注意力(scaleattention,SA)模块,用于融合FPN所有检测分支特征的过程,使网络在检测某个尺度的行人时,能够自适应地为行人所对应的不同尺度的感兴趣区域(ROI)特征赋予合适的权重.
实验结果显示,所提出的行人检测算法不仅可以实现anchor-free,从而避免anchor的超参数调整问题,而且在性能上优于其他行人检测算法,在CityPersons数据集上取得了目前最好的效果9.
19%MR2.
关键词:行人检测;卷积神经网络;anchor-free;注意力机制;尺度自适应中图分类号:TP391.
4文献标志码:ADOI:10.
13195/j.
kzyjc.
2020.
0124开放科学(资源服务)标识码(OSID):引用格式:邹逸群,肖志红,唐夏菲,等.
Anchor-free的尺度自适应行人检测算法[J].
控制与决策,2021,36(2):295-302.
Anchor-freescaleadaptivepedestriandetectionalgorithmZOUYi-qun1,XIAOZhi-hong1,TANGXia-fei2,LAIPu-jiang1,TANGSong-lin1,ZHANGYong-xiang1,TANGJin1(1.
SchoolofAutomation,CentralSouthUniversity,Changsha410083,China;2.
SchoolofElectrical&InformationEngineering,ChangshaUniversityofScience&Technology,Changsha410004,China)Abstract:Astheinitialboxofthepedestriandetectionalgorithm,anchorcansolvetheproblemofpedestriantranslationandalleviatetheproblemofpedestrianscalevariation.
Atpresent,thepedestriandetectionalgorithmsareusuallybasedontheanchor.
However,theusageoftheanchorrequirescarefuladjustmentofthehyper-parametersoftheanchor,suchasthescaleandaspectratiooftheanchor,whichhaveagreatimpactonthedetectionperformance.
Tocircumventthisproblem,wepresentapedestriandetectionalgorithmbasedonananchor-freelossfunction.
Byfusingthefeaturesofalldetectionbranchesoffeaturepyramidnetwork(FPN),thealgorithmdoesnotneedtosetaneectivetrainingscalerangeforeachdetectionbranchofFPNinthetrainingprocess.
Inaddition,aSA(scaleattention)moduleisproposedtofuseallthedetectionbranchfeaturesofFPN,sothatappropriateweightscanbeadaptivelyassignedtotheregionofinterest(ROI)featuresofdierentscalescorrespondingtopedestrianswhenthenetworkdetectsacertainscaleofpedestrian.
Experimentresultsshowthattheproposedpedestriandetectionalgorithmnotonlyrealizesanchor-free,thuscircumventthesuper-parameteradjustmentproblemoftheanchor,butalsooutperformsotherpedestriandetectionalgorithms,achieves9.
19%MR2whichisthebestofstate-of-the-artresultsonCityPersonsdataset.
Keywords:pedestriandetection;CNN;anchor-free;attentionmechanism;scaleadaptive0引行人检测具有广泛的应用场景,如安防、自动驾驶、移动机器人等,因此,行人检测在计算机视觉领域一直是个非常热门的研究方向.
在FasterR-CNN[1]提出之前,所有基于CNN(convolutionneuralnetwork)的检测算法都是先使用传统区域建议算法(如selectivesearch算法)生成建议框,再用CNN对建议框进行分类和回归.
由于传统区域建议算法计算量十分巨大,处理一张图像需要几十毫秒甚至几百毫秒,一直是实时检测的瓶颈.
为了减少建议框生成时间,FasterR-CNN方法提出anchor机制,使用RPN(regionproposalnetwork)在backbone输出的特征图上滑窗,以anchor为初始框直接生成建议框,不仅能够达到比传统区域建议算法更高的召收稿日期:2020-02-09;修回日期:2020-06-23.
基金项目:国家自然科学基金青年项目(61403427);2020湖南省科技厅青年自然科学基金项目(1541).
通讯作者.
E-mail:tjin@csu.
edu.
cn.
296控制与决策第36卷回率,而且计算成本几乎为零,从而解决了建议框生成问题.
anchor在建议框生成的过程中主要起两个作用:1)解决物体平移问题;2)缓解尺度变化问题.
具体如下.
1)解决物体平移问题.
假设图像中有两个在不同位置但是高和宽相同的物体.
如果将回归子网络的预测目标设置为物体的绝对位置,如左上角坐标和右下角坐标,则回归子网络对于这两个物体的预测目标是不一样的.
由于CNN具有平移不变性,CNN从这两个物体提取的特征向量是相同的,但现在回归子网络却需要根据这两个相同的特征向量去学习不同的目标,这显然是矛盾且不可行的.
为了解决这一问题,FasterR-CNN通过引入anchor来解耦绝对位置,使回归任务变成相对于anchor进行局部相对位置的回归.
由于不同位置的物体与anchor之间的相对位置是相同的,从而很好地解决了物体平移问题.
2)缓解尺度变化问题.
在FasterR-CNN被提出之初,还没有像SSD(singleshotdetector)[2]和FPN(featurepyramidnetwork)[3]这种可以显示处理尺度变化问题的网络结构,如果只使用backbone最后一个特征图来预测所有尺度的物体,这显然是一件非常困难的事.
为了缓解尺度变化问题,FasterR-CNN通过显示枚举多种尺度和高宽比的anchor,然后根据anchor匹配策略来分配预测目标,使不同尺度和不同高宽比的anchor所对应的网络权重只需要负责学习一个比较小的尺度和高宽比范围即可,从而缓解了尺度变化问题.
自从anchor机制被提出之后,很多检测算法都是基于anchor的,如ReplusionLoss[4]、ALFNet[5]等.
虽然anchor很有效,但同样也存在一些问题:1)基于anchor的检测算法对anchor的尺度和高宽比超参数非常敏感,要想获得理想的检测性能,就需要花费大量时间去调整这些超参数;2)为保证高召回率,通常需要在输入图像上密集地预定义大量anchor,这样会存在大量的冗余anchor,而且在训练过程中,绝大多数anchor会被标记为负样本,只有少部分anchor会被标记为正样本,从而导致在训练过程中正负样本极度不均衡.
为了解决anchor存在的这些问题,Yolov3方法[6]使用k-means算法对训练数据集的真实框进行聚类以得到anchor;Guidedanchor方法[7]使用图像特征来指导anchor的生成.
虽然这些方法解决了anchor的超参设定问题,但仍未解决anchor的冗余问题.
近几年也有一些工作质疑anchor的必要性,并提出一些anchor-free检测算法[8-9].
这些算法虽然摆脱了对anchor的依赖,但仍然存在一些问题:1)这些算法大多数是基于FPN结构的,如果没有anchor,则无法根据anchor匹配策略将不同尺度的物体分配到各个检测分支,所以需要人为地为每个检测分支设置有效的训练尺度范围[8],这样又引入了额外的超参数;2)当多个真实框的中心映射到特征图上的同一个点时,这些算法通常是让该特征向量只预测其中一个真实框而忽略其他所有真实框,这种做法如果用在行人密集的场景下,则会极大地降低召回率.
除了anchor存在的问题,由于行人框的尺度变化范围很大,而目前的CNN并不具备尺度不变性,如何解决尺度变化问题仍然是行人检测的一大难点.
为了解决尺度变化问题,SSD方法[2]使用多个具有不同感受野的特征图来检测不同尺度的物体,在一定程度上缓解了尺度变化问题,但由于低层特征图的语义信息不足,SSD对小目标的检测效果仍然不好.
为解决这一问题,FPN方法采用自上而下的结构,使用高层语义特征图来丰富低层特征图的语义信息,极大地提升了小目标的检测效果,进一步缓解了尺度变化问题.
由于FPN结构并没有引入太多的计算和参数,近年来的检测网络[1]基本都是基于FPN结构的.
与SSD一样,FPN也会将不同尺度的物体根据anchor匹配策略分配到各个具有不同感受野的检测分支.
这种做法隐含一个先验假设:检测小物体只需要小感受野的特征,检测大物体只需要大感受野的特征.
但这种先验假设与近年来通过引入上下文信息来提升检测性能的思想[10]相违背.
为解决这个问题,最近提出的LapNe方法[11]将FPN各个检测分支的特征融合起来,使得检测某个尺度的物体时能够充分利用多个感受野的特征.
这种方法虽然对检测性能有所提升,但是在检测某个尺度的物体时,如何权衡来自各个检测分支的特征仍然没有得到解决.
针对尺度变化问题,本文在模型设计部分将FPN所有检测分支的特征进行融合,并提出一个SA模块用于该特征融合过程,使网络在检测某个尺度的行人时能够自适应地权衡来自FPN各个检测分支的ROI(regionofinterest)特征.
为了使行人检测算法摆脱对anchor的依赖,本文在损失函数设计部分提出一种anchor-free方法,不仅可以实现anchor-free,而且相比于其他基于anchor的行人检测算法,具有更快的检测速度和更低的误检率.
最后,通过实验验证了本文方法的有效性.
1模型设计1.
1网络整体结构由于anchor-free属于损失函数设计的一部分,且本文实现anchor-free的方法也与网络结构有关,本文首先讲解网络结构的设计,然后再讲解anchor-free的损失函数设计.
第2期邹逸群等:Anchor-free的尺度自适应行人检测算法297图1为anchor-free的尺度自适应行人检测算法(anchor-freescaleadaptivepedestriandetectionalgorithm,AFSA)的网络结构.
AFSA的网络结构共由3部分组成:特征提取网络、SA模块、分类和回归子网络.
接下来本文将分别对这3部分的设计方法进行详细讲解.
图1AFSA的网络结构1.
1.
1特征提取网络设计AFSA的特征提取网络是在Yolov3[6]的FPN基础上改进的.
本文所有实验均是在CityPersons数据集[12]上进行的,而该数据集的图像尺度为1024*2048,受GPU显存的限制,AFSA的训练batchsize最大设置为2.
文献[13]指出,当batchsize很小时,batchnormalization[14]的性能远不如groupnormali-zation[13],所以本文将FPN中的batchnormalization层全部替换成groupnormalization层.
本文用H和W分别表示输入图像的高和宽,P3∈Rh*w*128、P4∈Rh/2*w/2*256、P5∈Rh/4*w/4*512分别表示backbone中第3、第4、第5阶段所对应的FPN输出特征图,其中h=H/8和w=W/8分别表示P3特征图的高和宽.
因为本文基于anchor-free,所以无法根据anchor匹配策略将不同尺度的行人分配到相应的检测分支.
如果使用传统的FPN结构,则需要像文献[8]一样为FPN的每个检测分支设置有效的训练尺度范围,这样又会引入额外的超参数.
为了解决这一问题,本文使用文献[11]中提出的方法:将FPN所有检测分支的输出特征图沿通道级联起来.
首先对P3、P4、P5进行L2归一化[15],得到Φ3∈Rh*w*128、Φ4∈Rh/2*w/2*256、Φ5∈Rh/4*w/4*512;然后使用转置卷积将Φ4和Φ5的尺度和通道调整到与Φ3相同,得到Φ4∈Rh*w*128和Φ5∈Rh*w*128;最后,再将Φ3、Φ4、Φ5沿通道级联起来,得到Φ={Φ3,Φ4,Φ5}∈Rh*w*384.
这样不仅可以避免为FPN的每个检测分支设置有效的训练尺度范围,而且在检测某个尺度的行人时,网络也可以利用多个感受野的特征.
1.
1.
2SA模块设计如图2所示,图中红色框标注的行人在Φ3、Φ4、Φ5上分别对应一块ROI特征,这3块ROI特征具有不同大小的感受野.
从图2中可以看出,只有Φ4上的ROI特征所对应的感受野与该行人最匹配,所以分类和回归子网络在预测该行人时,应该更注重Φ4上的ROI特征.
但如果直接将Φ作为检测特征图送入分类和回归子网络进行预测,则分类和回归子网络在预测该行人时,将同等对待这些ROI特征,这显然是不合理的.
图2行人对应的ROI特征和ROI特征对应的感受野示意为了让网络在检测某个尺度的行人时,能够自适应地为该行人所对应的多个具有不同感受野的ROI特征赋予合适的权重,本文设计一个SA模块,其整体结构如图3所示.
图3SA模块298控制与决策第36卷为了降低SA模块的复杂度,在设计SA模块时,首先使用下式分别对Φ3、Φ4、Φ5进行降维:Φsa(k=3,4,5),ij=1128128∑c=1Φk,ijc,(1)然后将降维后得到的Φsa3、Φsa4、Φsa5沿通道级联起来得到Φsa∈Rh*w*3.
为了对不同尺度特征之间的相关性进行建模,在对Φ3、Φ4、Φ5降维后,又设计了一个子网络.
这个子网络必须满足两个要求:1)它必须能够学习不同尺度特征之间的非线性相互作用;2)它必须学会一种非互斥的关系,因为SA模块是确保增强多个尺度的特征,而不是只增强其中某一个尺度的特征.
为了达到这些目的,本文参考SENet方法[16]实现自注意力机制的思想,设计了一个具有sigmoid激活门控机制的非线性子网络,即M=σ(F(Φsa)).
(2)其中:M∈Rh*w*3表示非线性子网络输出的多尺度特征注意力图;σ表示sigmoid函数;F表示一个非线性函数,由6个残差模块组成.
非线性子网络的输入特征图Φsa的通道非常少,且文献[17]指出,如果在低维特征向量中使用激活函数,则会损失特征向量中所包含的信息,而且损失的信息是无法恢复的.
因此,在设计非线性子网络中的残差模块时,首先使用1*1卷积层将低维输入特征图的通道扩张r倍,本文在实验中发现r=32时效果最好;然后,在高维特征图后面使用leakyRelu激活函数来引入非线性,添加1*1卷积层以增强非线性子网络的建模能力;最后在残差连接前,使用1*1卷积层把高维特征图降维至与残差模块的输入相同,且降维后的低维特征图不使用leakyRelu激活函数,以避免损失信息.
与文献[17]一样,残差模块中每个卷积层后面均使用了batchnormalization层.
多尺度特征注意力图M的通道为3,即SA模块为特征图Φi=3,4,5∈Rh*w*128分别学得一个注意力图Mi=3,4,5∈Rh*w*1.
为方便Mi与Φi相乘,此处分别将Mi沿通道维复制128次,得到Mi=3,4,5∈Rh*w*128.
因为M的值都在(0,1)范围内,所以如果直接将M乘到输入特征图Φ上,则会弱化特征图中的所有特征[18].
为了解决这个问题,与文献[18]一样,SA模块使用残差注意力学习方式,其计算方法为Φdet=(1+M)*Φ,(3)其中Φdet∈Rh*w*384表示SA模块输出的用于分类和回归子网络检测的特征图.
1.
1.
3分类和回归子网络设计由于设计分类和回归子网络不是本文的重点,为简单起见,本文的分类和回归子网络都只使用一个带偏置的1*1卷积层.
如果使用其他精心设计的分类和回归子网络,如文献[19],则会进一步提升AFSA的性能.
因为分类子网络输出的是行人置信度,而行人置信度的范围为(0,1),所以在分类子网络后面还添加了sigmoid函数.
此外,下一部分中的anchor-free将指出,回归层的回归目标都是大于0的,所以本文在回归层后面使用指数函数exp(·),用来将回归层的输出限制在(0,∞)范围内.
1.
2anchor-free的损失函数设计1.
2.
1anchor-free设计如果要实现anchor-free,则需要在不使用anchor的情况下解决行人平移问题和尺度变化问题.
由于现在的FPN和SSD已经可以显示地处理尺度变化问题,本文使用的FPN结构可以替代anchor缓解尺度变化问题的作用.
对于行人平移问题,本文采用与文献[9]类似的方法,通过预测行人框中心映射到特征图上的点与行人框的左上角坐标和右下角坐标之间的偏差来解决.
接下来,将详细阐述本文实现anchor-free的方法.
本文用Θ∈Rh*w*c表示分类和回归子网络最终的输出,Θ上每个预测框对应的标签为(1valid,conf,σl,σu,σr,σd).
其中:1valid表示该预测框是否参与训练,conf表示行人置信度预测目标,(σl,σu,σr,σd)表示回归目标.
输入图像中的行人框用{Bi=(ximin,yimin,ximax,yimax)}表示,其中(ximin,yimin)和(ximax,yimax)分别表示行人框的左上角坐标和右下角坐标.
在分配正样本时,首先将行人框Bi的中心(xicenter,yicenter)映射到Θ上,如果映射到Θ的点(x,y)上,则点(x,y)所对应的预测框将负责预测行人框Bi.
但如果Θ上的每个点只有一个预测框,则当多个行人框的中心映射到Θ上的同一个点时,将难以确定让预测框去预测哪个行人框.
文献[8-9]一般是选择预测其中尺度最小的行人框,而丢弃其他行人框,这种解决方法如果用在行人框中心重叠度很高的场景,则会严重降低召回率.
针对行人框丢弃的问题,本文根据数据集的行人密集情况,通过让Θ上的每个点预测多个行人框来解决,具体方法如下.
1)计算训练数据集中的最大重叠次数m.
用{Ii,i=1,n}表示训练数据集,首先将图像Ii的所有行人框中心映射到Θ上,然后计算Θ上的最大重叠次数oi,这样每张图像Ii都会对应一个oi,最后使用m=maxi=1,2,.
.
.
,noi(4)计算整个训练数据集的最大重叠次数m.
2)通过Θ上的每个点预测m个行人框.
第2期邹逸群等:Anchor-free的尺度自适应行人检测算法299计算出整个训练数据集的最大重叠次数m后,将Θ的输出通道c设置为5m,即Θ上的每个点有m个预测框.
在分配正样本标签时,如果行人框Bi的中心点映射到Θ的点(x,y)上,则点(x,y)所对应的m个预测框的标签首先全部设置为(1,1,σil,σiu,σir,σid),其中(σil,σiu,σir,σid)的计算方法为σil=x+0.
5ximin8,σiu=y+0.
5yimin8,σir=ximax8x0.
5,σid=yimax8y0.
5.
(5)如果有第2个行人框Bj的中心点映射到点(x,y)上,则将点(x,y)所对应的第2个预测框的标签设置为(1,1,σjl,σju,σjr,σjd),以此类推.
这样,如果只有一个行人框Bi的中心映射到点(x,y)上,则点(x,y)所对应的m个预测框都将以Bi为预测目标.
因为在训练过程中这m个预测框的预测目标相同,所以在测试阶段这m个预测框的预测结果也会很接近,在NMS(nonmaximumsuppression)时将会去掉其中m1个预测结果而只保留其中置信度最高的预测框,并不会造成误检.
另一方面,这种方法在训练过程中不会丢弃任何行人框,因此即使在密集行人场景下也不会降低召回率.
当分配负样本时,如果简单地把所有非正样本的预测框全部设置为负样本,则会产生两个问题:1)极度的正负样本不均衡,以1024*2048的输入图像为例,假设该图像中有30个行人,则正负样本的比例将高达1:1000,这种极端的正负样本不均衡会导致严重的漏检;2)正如文献[15]所述,如果行人框Bi的中心映射到Θ的点(x,y)上,则点(x,y)附近区域的点所对应的特征向量与点(x,y)所对应的特征向量很相似,如果将这些点所对应的预测框全部设置为负样本,则会严重影响正样本的学习,同样会造成漏检.
为了缓解这些问题,本文提出一种针对anchor-free的"负样本选择策略":首先将所有非正样本的预测框全部设置为负样本,即标签设置为(1,0,0,0,0,0);然后在计算损失时,计算标记为负样本的预测框与输入图像中所有行人框的IOU(intersectionofunion),如果最大IOU大于0.
5,则认为该预测框已经能够相对准确地预测出行人框,不应属于负样本,因此,在训练过程中该预测框所对应的1valid标签将被修改为0,即该预测框将不参与负样本损失计算.
1.
2.
2损失函数本文定义的损失函数如下:L=h∑i=1w∑j=1c∑k=1(Lconfijk+Lregijk),Lconfijk=1validijk*wconfijk*CE(confpijk,confijk),wconfijk=|confpijkconfijk|λ,Lregijk=1positiveijk*wregijk*(1GIOU(σpijk,σijk)),wregijk=2hbbaxijkwbbaxijkHW.
(6)其中:h、w、c分别是Θ的高、宽、通道;1validijk表示该预测框是否参与损失计算,对应预测框的第1位标签值;confpijk表示预测的行人置信度;confijk表示预测框所对应的行人置信度预测目标,对应预测框的第2位标签值;CE(crossentropy)表示交叉熵函数;因为1positiveijk=confijk,所以只有正样本才参与回归损失的计算;σpijk表示预测的偏差;σijk表示预测框所对应的偏差预测目标,对应预测框的后4位标签值;GIOU(generalizedintersectionoverunion)是文献[20]提出的一种替代IOU的度量方法;wconfijk表示置信度损失的权重,类似于focalloss,可用来缓解正负样本不均衡问题;λ在本文的取值为2;wrepijk用于平衡不同尺度行人的回归损失.
2实验研究2.
1实验环境2.
1.
1数据集和评指标为了验证AFSA的有效性,本文在CityPersons行人检测数据集[12]上做了大量实验.
相比于经典的Caltech行人检测数据集,CityPersons的行人密集程度和遮挡程度更严重,是目前行人检测领域中最具挑战性的数据集.
由于CityPersons的测试集没有提供标签数据,本文与文献[12]一样,只在训练集中训练,在验证集中测试.
与文献[12]一样,本文采用MR2(missrateoverfalsepositivepermage(FPPI)rangingin[102,100])作为评估指标,并根据行人框的可视化程度和尺度范围,将验证集细分为reasonable、heavy、partial、bare、small、middle、large共7个子验证集,其中reasonable为主要验证集.
2.
1.
2训练和测试设置本文在CityPersons数据集上统计出来的m等于2,所以在实验中如果没有特殊说明,则默认将Θ的输出通道设置为10,即Θ上的每个点都有2个预测框.
为了增加训练数据的多样性,本文在训练期间采用一些简单的数据增强方法,如多尺度训练、随机裁剪、随机平移、随机翻转、mixup[21]等.
本文遵循文献[12]中的做法,将图像中标签为ignore和persongroup的区域填充为128,并去掉ignore和group标签,且在训练过程中去掉尺度小于5的行人框.
backbone采用的是在ImageNet数据集上预训练过的darknet53,对于其他非backbone的权重采用均值为0、方差为0.
01的高斯分布来随机初始化,所有偏置均初始化300控制与决策第36卷为0.
在训练过程中,本文的计算资源为一块RTX2080Ti,batchsize设置为2.
网络优化器采用Adam,学习率衰减策略使用cosinelearningrate[21],初始学习率为104,最终学习率为106,并在训练的前两个周期使用warmup[21]策略来稳定训练,最大训练周期为100个周期.
在测试期间,为了与文献[15]保持相同的测试环境,本文的测速GPU为GTX1080Ti,置信度阈值设置为0.
1,NMS的阈值设置为0.
5,测试尺度为CityPersons的原图尺度1024*2048,并去掉所有尺度小于5的检测框.
2.
2anchor-free的实验在进行anchor-free的实验之前,本文首先测试了在不使用SA模块的情况下,基于anchor的AFSA的性能,用于给anchor-free实验提供对比基准.
为了尽可能获取高质量的anchor,本文通过对CityPersons训练集中的真实框使用k-means聚类算法得到anchor.
聚类过程中使用的距离度量标准为d(box,centriod)=1IOU(box,centriod).
(7)其中:box表示真实框,centriod表示聚类中心.
由于anchor-free中Θ上的每个点默认预测2个框,为了对比公平,在聚类时也只聚类2个anchor.
最终聚类得到两个anchor分别为(22,51)和(60,144).
在训练过程中,使用与Yolov3相同的正负样本分配策略,最终在reasonable验证集上的MR2为9.
78%,如表1的第1行所示.
表1anchor-free消融实验表method负样本选择策略Θ上每个点预测m个检测框reasonableanchor-based——9.
78(10.
50)anchor-free——23.
16(24.
68)anchor-free—9.
85(10.
15)anchor-free9.
51(9.
92)为了对比公平,与上述基于anchor的方法一样,接下来的anchor-free消融实验也都不使用SA模块.
如前所述,为解决anchor-free算法在分配负样本时存在模棱两可的问题,本文提出一种"负样本选择策略".
从表1的实验结果来看,不使用"负样本选择策略"的anchor-free算法在reasonable验证集上的MR2为23.
16%(MR2越高,检测效果越差),远不如上述基于anchor的方法.
使用"负样本选择策略"之后,本文anchor-free算法的性能得以大幅提升,MR2降低至9.
85%,与上述基于anchor的方法基本一致.
因此"负样本选择策略"对于AFSA实现anchor-free是不可或缺的.
本文在实验中发现,CityPersons的验证集较小,仅有500张图像,具体到各个子验证集则更小,因此,在训练过程中即使模型已经收敛,其性能仍然存在波动.
为了保证实验数据的有效性和公平性,本文在实验中记录了模型的两种性能:1)获取整个训练期间在reasonable验证集上MR2最低的模型,然后记录该模型在所有子验证集上的性能;2)记录最后10个周期所对应的模型在所有子验证集上的平均性能,其中第2种性能记录在实验表格的括号中,在对比实验中,本文主要对比第1种性能,第2种性能对比只作为参考.
为解决因多个行人框的中心映射到Θ上重叠而带来的漏检问题,本文通过让Θ上的每个点预测m个行人框来解决.
如表1所示,该方法可以进一步将模型在reasonable验证集上的MR2降低至9.
51%.
但因为AFSA的默认网络步长为8,且CityPersons数据集中行人密集程度不高,所以即使Θ上的每个点只有1个预测框,在训练期间也只会丢弃275/19654=1.
4%的行人框.
为了进一步验证该方法在行人密集场景下的有效性,本文补充了另一组实验,该实验将AFSA的网络步长调整至32,这样,如果Θ上的每个点只有一个预测框,则在训练期间将会丢弃2739/19654=13.
9%的行人框,一定程度上可以模拟行人密集场景.
从表2的实验结果可以看出,在行人密集场景下,该方法可以有效地降低漏检.
表2网络步长为32时的对比实验Θ上每个点预测m个检测框丢失框reasonable1273919.
15(21.
82)4015.
90(16.
33)2.
3尺度attention实验为了验证SA模块的有效性,本文对比了bseline(不加SA模块)和baseline+SA,实验结果如表3所示.
可以看出,使用SA模块后,模型在reasonable验证集上的MR2进一步降低至9.
19%,在各个尺度范围上的MR2也均有降低,其中小目标的MR2降低最为明显,降低了1.
63%MR2.
使用SA模块后,会引入61092个参数,为了进一步验证使用SA模块带来的性能提升不是因为引入了额外的参数,本文将SA模块替换为一个输入输出表3SA模块对比实验methodaddedparasreasonablesmallmediumlargebaseline09.
51(9.
92)13.
10(13.
80)4.
16(4.
16)5.
89(6.
17)+conv1482249.
85(10.
30)14.
38(14.
55)4.
56(4.
45)5.
79(5.
87)+SA610929.
19(9.
54)11.
47(12.
47)4.
16(3.
99)5.
65(5.
57)第2期邹逸群等:Anchor-free的尺度自适应行人检测算法301通道均为384的1*1卷积层,且在该卷积层后面添加batchnormalization层.
从表3所示的实验结果来看,baseline添加卷积层之后,共引入了148224个参数,其引入的参数是SA模块的2.
4倍,但性能反而下降了,说明简单地增加网络参数并不会提升性能,甚至会造成过拟合而降低模型性能.
因此使用SA模块能够提升性能,并不是因为增加了模型的参数量.
2.
4与其他最先进算法的比对实验表4对比了AFSA与之前在CityPersons数据集上取得过最好效果的算法.
可以看出,AFSA在所有验证集上均取得了目前最好的效果,在reasonable这个主要验证集上的MR2,比之前效果最好的CSP低1.
81%.
值得关注的是,AFSA在小目标上表现非常出色,在small验证集上达到了11.
47%MR2,比其他算法低4%MR2以上,且在没有针对遮挡问题做特殊处理的情况下,AFSA在Heavy验证集上的检测效果也大幅超越其他算法,包括专门用于解决遮挡问题的文献[22].
不仅在性能上取得了最好的效果,AFSA在速度上也表现得十分优异,处理一张1024*2048的图像也只需要214ms,优于文献[15]等检测算法.
图4是CityPersons验证集中典型图像的检测结果,可以看出,AFSA在各种复杂情况下均能准确地将行人检测出来,包括密集场景、行人遮挡、行人重叠、极小行人等.
表4AFSA与之前在CityPersons上取得过最好效果的算法进行对比methodreasonableheavypartialbaresmallmediumlargetesttime/(ms/img)FRCNN[1]15.
4———25.
67.
27.
9—RepLoss[4]13.
256.
916.
87.
6————OR-CNN[22]12.
855.
715.
36.
7————ALFNet[5]12.
051.
911.
48.
419.
05.
76.
6270CSP[15]11.
049.
310.
47.
316.
03.
76.
5330AFSA9.
1943.
658.
516.
0611.
474.
165.
65214图4CityPersons验证集中典型图像的检测结果3结本文首先分析anchor在行人检测算法中的作用;然后设计了一种anchor-free方法,并通过融合FPN所有检测分支的特征,使AFSA在训练时不需要人为地将不同尺度的行人分配到各个检测分支;最后,提出了一个SA模块用于FPN的特征融合过程,使网络在检测某个尺度的行人时,能够自适应地为行人所对应的多个具有不同感受野的ROI特征赋予合适的权重,以增强AFSA对行人尺度变化的鲁棒性.
通过在CityPersons数据集上的实验表明,所提出的AFSA不仅实现了anchor-free,而且在速度和性能上均优于其他行人检测算法,对遮挡和小目标问题也能处理得很好.
尽管本文设计的行人检测算法已经达到了非常不错的性能,但仍然存在一些不足之处,需要进一步研究,具体包括以下几点:1)由于本文提出的行人检测算法是基于CNN的,计算量较大,要想实时检测,需要使用GPU进行加速,然而,很多实际场景中的计算平台是没有GPU的.
因此,要将本文算法广泛应用到实际场景中,在后续工作中,还需要对本文算法进行加速处理.
2)由于实验室计算资源有限,本文在实验中只使用了CiytPersons这一个数据集.
尽管与其他行人检测数据集相比,CityPersons的数据更具多样性,但一个数据集始终无法对模型的泛化能力进行评估.
因此,在后续工作中,还需要使用更多的行人检测数据集对本文方法进行交叉验证,以评估本文方法的泛化能力.
参考文献(References)[1]RenS,HeK,GirshickR,etal.
FasterR-CNN:Towardsreal-timeobjectdetectionwithregionproposalnetworks[C].
AdvancesinNeuralInformationProcessing302控制与决策第36卷Systems.
Montreal:IEEE,2015:91-99.
[2]LiuW,AnguelovD,ErhanD,etal.
Ssd:Singleshotmultiboxdetector[C].
EuropeanConferenceonComputerVision.
Cham:IEEE,2016:21-37.
[3]LinTY,DollárP,GirshickR,etal.
Featurepyramidnetworksforobjectdetection[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
Honolulu:IEEE,2017:936-944.
[4]WangXL,XiaoTT,JiangYN,etal.
Repulsionloss:Detectingpedestriansinacrowd[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
SaltLakeCity:IEEE,2018:7774-7783.
[5]LiuW,LiaoSC,HuWD,etal.
Learningecientsingle-stagepedestriandetectorsbyasymptoticlocalizationtting[C].
ProceedingsoftheEuropeanConferenceonComputerVision.
Munich:IEEE,2018:618-634.
[6]RedmonJ,FarhadiA.
Yolov3:Anincrementalimprovement[EB/OL].
(2018-04-08)[2020-02-05].
https://arxiv.
org/abs/1804.
02767.
[7]WangJQ,ChenK,YangS,etal.
Regionproposalbyguidedanchoring[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
LongBeach:IEEE,2019:2960-2969.
[8]ZhuCC,HeYH,SavvidesM.
Featureselectiveanchor-freemoduleforsingle-shotobjectdetection[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
LongBeach:IEEE,2019:840-849.
[9]TianZ,ShenCH,ChenH,etal.
Fcos:Fullyconvolutionalone-stageobjectdetection[C].
ProceedingsoftheIEEEInternationalConferenceonComputerVision.
Seoul:IEEE,2019:9626-9635.
[10]LiJN,WeiYC,LiangXD,etal.
Attentivecontextsforobjectdetection[J].
IEEETransactionsonMultimedia,2017,19(5):944-954.
[11]ChabotF,ChaouchM,PhamQC.
LapNet:Automaticbalancedlossandoptimalassignmentforreal-timedenseobjectdetection[EB/OL].
(2019-11-04)[2020-02-05].
https://arxiv.
org/abs/1911.
01149.
[12]ZhangSS,BenensonR,SchieleB.
CityPersons:Adiversedatasetforpedestriandetection[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
Honolulu:IEEE,2017:4457-4465.
[13]WuYX,HeKM.
Groupnormalization[C].
ProceedingsoftheEuropeanConferenceonComputerVision.
Munich:IEEE,2018:3-19.
[14]IoeS,SzegedyC.
Batchnormalization:Acceleratingdeepnetworktrainingbyreducinginternalcovariateshift[EB/OL].
(2015-02-11)[2020-02-05].
https://arxiv.
org/abs/1502.
03167.
[15]LiuW,LiaoSC,RenWQ,etal.
High-levelsemanticfeaturedetection:Anewperspectiveforpedestriandetection[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
LongBeach:IEEE,2019:5182-5191.
[16]HuJ,ShenL,SunG.
Squeeze-and-excitationnetworks[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
SaltLakeCity:IEEE,2018:7132-7141.
[17]SandlerM,HowardA,ZhuML,etal.
Mobilenetv2:Invertedresidualsandlinearbottlenecks[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
SaltLakeCity:IEEE,2018:4510-4520.
[18]WangF,JiangMQ,QianC,etal.
Residualattentionnetworkforimageclassication[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
Honolulu:IEEE,2017:6450-6458.
[19]LiZ,PengC,YuG,etal.
Light-headR-CNN:Indefenseoftwo-stageobjectdetector[EB/OL].
(2017-11-20)[2020-02-05].
https://arxiv.
org/abs/1711.
07264.
[20]RezatoghiH,TsoiN,GwakJ,etal.
Generalizedintersectionoverunion:Ametricandalossforboundingboxregression[C].
ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.
LongBeach:IEEE,2019:658-666.
[21]ZhangZ,HeT,ZhangH,etal.
Bagoffreebiesfortrainingobjectdetectionneuralnetworks[EB/OL].
(2019-02-11)[2020-02-05].
https://arxiv.
org/abs/1902.
04103.
[22]ZhangSF,WenLY,BianX,etal.
Occlusion-awareR-CNN:Detectingpedestriansinacrowd[C].
ProceedingsoftheEuropeanConferenceonComputerVision.
Munich:IEEE,2018:637-653.
作者简介邹逸群(1985),男,副教授,博士,从事系统辨识、目标定位等研究,E-mail:yiqunzou@csu.
edu.
cn;肖志红(1995),男,硕士生,从事图像处理、机器视觉的研究,E-mail:StinkyTofu95@gmail.
com;唐夏菲(1984),女,讲师,博士,从事非线性系统的噪音屏蔽、线性系统的模型辨识的研究,E-mail:xiafei.
tang@csust.
edu.
cn;赖普坚(1993),男,硕士生,从事图像处理、机器视觉的研究,E-mail:laipujian0921@163.
com;汤松林(1996-),男,硕士生,从事图像处理、机器视觉的研究,E-mail:992164786@qq.
com;张泳祥(1994),男,硕士生,从事图像处理、机器视觉的研究,E-mail:1213271098@qq.
com;唐琎(1966),男,教授,博士生导师,从事图像处理、机器视觉等研究,E-mail:tjin@csu.
edu.
cn.
(责任编辑:李君玲)

BGPTO独服折优惠- 日本独服65折 新加坡独服75折

BGPTO是一家成立于2017年的国人主机商,从商家背景上是国内的K总和有其他投资者共同创办的商家,主营是独立服务器业务。数据中心包括美国洛杉矶Cera、新加坡、日本大阪和香港数据中心的服务器。商家对所销售服务器产品拥有自主硬件和IP资源,支持Linux和Windows。这个月,有看到商家BGPTO日本和新加坡机房独服正进行优惠促销,折扣最低65折。第一、商家机房优惠券码这次商家的活动机房是新加坡...

10gbiz首月半价月付2.36美元,香港/洛杉矶VPS、硅谷独立服务器/站群服务器

收到10gbiz发来的7月份优惠方案,中国香港、美国洛杉矶机房VPS主机4折优惠码,优惠后洛杉矶VPS月付2.36美元起,香港VPS月付2.75美元起。这是一家2020年成立的主机商,提供的产品包括独立服务器租用和VPS主机等,数据中心在美国洛杉矶、圣何塞和中国香港。商家VPS主机基于KVM架构,支持使用PayPal或者支付宝付款。洛杉矶VPS架构CPU内存硬盘带宽系统价格单核512MB10GB1...

提速啦(24元/月)河南BGP云服务器活动 买一年送一年4核 4G 5M

提速啦的来历提速啦是 网站 本着“良心 便宜 稳定”的初衷 为小白用户避免被坑 由赣州王成璟网络科技有限公司旗下赣州提速啦网络科技有限公司运营 投资1000万人民币 在美国Cera 香港CTG 香港Cera 国内 杭州 宿迁 浙江 赣州 南昌 大连 辽宁 扬州 等地区建立数据中心 正规持有IDC ISP CDN 云牌照 公司。公司购买产品支持3天内退款 超过3天步退款政策。提速啦的市场定位提速啦主...

在线网速检测为你推荐
深圳市富满电子集团股份有限公司支持ipad支持ipad齐鲁工业大学高水平学科建设专项photoshop技术什么是ps技术重庆宽带测速重庆电信测速我的网速溢出itunes备份如何用iTunes备份iPhonegoogle搜图google搜索的网址是什么?morphvoxpro怎么用MorphVOX Pro变声器声音怎样调试bitchina2015年igem国内大学参加结果
国外域名注册 长沙服务器租用 diahosting 视频存储服务器 wdcp 帽子云 阿里校园 东莞数据中心 免费网页空间 上海联通宽带测速 双线asp空间 789 新加坡空间 贵阳电信测速 国外免费云空间 创速 mteam 512内存 酷锐 什么是dns 更多