标签iptd-982

iptd-982  时间:2021-05-08  阅读:()
20201210计算机应用,JournalofComputerApplications2020,40(12):3430-3436ISSN10019081CODENJYIIDUhttp://www.
joca.
cn基于标签进行度量学习的图半监督学习算法吕亚丽1,2*,苗钧重1,胡玮昕1(1.
山西财经大学信息学院,太原030006;2.
计算智能与中文信息处理教育部重点实验室(山西大学),太原030006)(通信作者电子邮箱sxlvyali@126.
com)摘要:大多基于图的半监督学习方法,在样本间相似性度量时没有用到已有的和标签传播过程中得到的标签信息,同时,其度量方式相对固定,不能有效度量出分布结构复杂多样的数据样本间的相似性.
针对上述问题,提出了基于标签进行度量学习的图半监督学习算法.
首先,给定样本间相似性的度量方式,从而构建相似度矩阵.
然后,基于相似度矩阵进行标签传播,筛选出k个低熵样本作为新确定的标签信息.
最后,充分利用所有标签信息更新相似性度量方式,重复迭代优化直至学出所有标签信息.
所提算法不仅利用标签信息改进了样本间相似性的度量方式,而且充分利用中间结果降低了半监督学习对标签数据的需求量.
在6个真实数据集上的实验结果表明,该算法在超过95%的情况下相较三种传统的基于图的半监督学习算法取得了更高的分类准确率.
关键词:机器学习;图半监督学习;度量学习;标签传播;相似度矩阵中图分类号:TP181文献标志码:ASemi-supervisedlearningalgorithmofgraphbasedonlabelmetriclearningLYUYali1,2*,MIAOJunzhong1,HUWeixin1(1.
SchoolofInformation,ShanxiUniversityofFinanceandEconomics,TaiyuanShanxi030006,China;2.
KeyLaboratoryofComputationalIntelligenceandChineseInformationProcessing,MinistryofEducation(ShanxiUniversity),TaiyuanShanxi030006,China)Abstract:Mostgraph-basedsemi-supervisedlearningmethodsdonotusetheknownlabelinformationandthelabelinformationobtainedfromthelabelpropagationprocesswhenmeasuringthesimilaritybetweensamples.
Atthesametime,thesemethodshavethemeasurementmethodsrelativelyfixed,whichcannoteffectivelymeasurethesimilaritybetweendatasampleswithcomplexandvarieddistributionstructures.
Inordertosolvetheproblems,asemi-supervisedlearningalgorithmofgraphbasedonlabelmetriclearningwasproposed.
Firstly,thesimilaritymeasurementmethodofsampleswasgiven,andthenthesimilaritymatrixwasconstructed.
Secondly,labelswerepropagatedbasedonthesimilaritymatrixandksampleswithlowentropywereselectedasthenewobtainedlabelinformation.
Finally,thesimilaritymeasuremethodwasupdatedbyfullyusingalllabelinformation,andthisprocesswasrepeateduntilalllabelinformationwaslearned.
Theproposedalgorithmnotonlyuseslabelinformationtoimprovethemeasurementmethodofsimilaritybetweensamples,butalsomakesfulluseofintermediateresultstoreducethedemandforlabeleddatainthesemi-supervisedlearning.
Experimentalresultsonsixrealdatasetsshowthat,comparedwiththreetraditionalgraph-basedsemi-supervisedlearningalgorithms,theproposedalgorithmachieveshigherclassificationaccuracyinmorethan95%ofthecases.
Keywords:machinelearning;graph-basedsemi-supervisedlearning;metriclearning;labelpropagation;similaritymatrix0引言随着机器学习算法的迅猛发展,其应用领域也越来越广泛,需要处理的数据也越来越复杂.
由于标签数据有标准或最优的输出,所以在算法中可以很好地构建目标函数用于求解模型参数.
然而,大数据环境下,标签信息有限,许多无标签数据唾手可得,但要想获得它们的标签信息却需要付出高昂的人工成本[1].
因此,如何同时利用少量标签数据与大量无标签数据提高模型的分类性能这一问题显得越来越重要.
尤其是在学习过程中,如何降低模型学习对标签样本的需求量,同时又可以提高学习性能,成为了一个非常重要的研究问题[2-3].
近些年,涌现出大量关于半监督学习的研究工作并取得了较好效果[4],其中包括较为热点的图半监督学习算法,其任务可以转换为一个凸优化问题,从而可以求得全局最优解[5].
半监督学习算法大致可以分为直推式学习和归纳学习两类[4].
直推式学习是指根据标签数据推断数据集中无标签样本的类别的算法.
归纳学习是指同时利用标签数据和无标签文章编号:1001-9081(2020)12-3430-07DOI:10.
11772/j.
issn.
1001-9081.
2020060893收稿日期:20200612;修回日期:20200820;录用日期:20200911.
基金项目:山西省自然科学基金资助项目(201801D121115);山西省回国留学人员科研资助项目(2020-095).
作者简介:吕亚丽(1975—),女,山西临汾人,副教授,博士,CCF会员,主要研究方向:数据挖掘、机器学习、概率推理;苗钧重(1993—),男,山西晋中人,硕士研究生,主要研究方向:数据挖掘、机器学习;胡玮昕(1996—),女,山西晋中人,硕士研究生,主要研究方向:数据挖掘、机器学习.
www.
joca.
cn第12期吕亚丽等:基于标签进行度量学习的图半监督学习算法数据训练出一个分类器,再将其用于分类未知样本的算法.
基于图的半监督学习属于直推式学习的一种,是基于局部假设和全局假设来进行的,局部假设为邻近的样本应该具有相同的类标签[6],全局假设是在同一结构中的样本应该具有相同的类标签.
基于图的半监督学习可以总结为将数据中少数的标签进行传播,利用大量的无标签数据进行样本空间的结构识别[7].
大多数基于图的半监督学习算法包含两个步骤:一是通过计算样本间的距离或相似性度量来构建相似度矩阵.
每个样本可以看作是图中的一个节点,样本间的相似度可以看作是图中节点间连边的权重[8].
权重越大表示这两个样本具有相同标签的概率就越大.
二是根据得出的相似度矩阵来预测无标签样本的所属类别.
目前,第一步已有工作在构建相似度矩阵方面的算法有:k-近邻(k-NearestNeighbor,KNN)、ε近邻(ε-neighbor)[9]、热核方法(heatkernel)[10]、局部线性表示(locallinearrepresentation)[8,11]、低秩表示(SubspaceSegmentationbyLowRankRepresentation,S2LRR)[12]以及稀疏表示(sparserepresentation)[13-15]等.
其中,KNN方法在构建相似度矩阵时,选择距离每个样本点最近的k个样本点作为其邻居,据此构建样本间相似度矩阵.
在该方法中,通常测量的是样本间的欧氏距离,超参数k的选择非常重要,k过大过小均不能正确反映出样本间的相似性.
在ε-neighbor方法中,通过设定阈值来筛选对应样本的邻居来构建相似度矩阵,该方法中阈值的选择尤为重要.
而heatkernel[10]、locallinearrepresentation[8,11]、lowrankrepresentation[12]以及sparserepresentation[13-15]这四种方法基本原理是通过不同的核方法来度量样本间相似性,对于不同的核方法,均涉及超参数,这些参数决定了模型复杂度从而决定样本间的相似性度量是否合适.
此外,文献[16]基于非负矩阵分解与概念分解提出了一种基于数据表示的图半监督学习算法.
然而,上述算法基本采用了欧氏距离作为样本间相似性度量的核心方法,且其度量方式相对固定,这样对于不同数据采用不同的度量灵活性和适应性相对较差.
第二步预测标签方面的标签传播算法有:高斯场与调和函数(GaussianFieldsandHarmonicFunctions,GFHF)[17]、局部和全局一致性(LocalandGlobalConsistency,LGC)方法[6]以及特殊标签传播(SpecialLabelPropagation,SLP)算法[18]等.
其中,GFHF方法是利用高斯核来度量样本间的相似度,使用调和函数来进行标签传播,在调和函数中:对于标签数据,函数值为其标签值;对于无标签数据,函数值为标签其类别归属的权重平均值.
这种方法的优点在于优化问题,具有良好的数学性质,且具有闭式解.
LGC方法基于流形正则化思想,通过构造一个相对平滑的分类目标函数,来实现标签传播过程中尽可能使得处于同一类簇结构中的样本具有相同的标签.
此外,文献[19]提出了一种基于流形的可解释性的图半监督学习算法;文献[20]从图形信号处理的角度考虑了标签传播,提出了一种广义标签传播算法.
而这些标签传播算法的标签传播过程与第一阶段的样本相似性度量过程是分离的,且对于中间结果的利用不够充分.
基于上述问题,本文提出了基于标签进行度量学习的图半监督学习算法(Semi-SupervisedLearningalgorithmofgraphbasedonlabelMetricLearning,ML-SSL).
具体地,将在构建相似度矩阵与标签传播过程中均充分利用宝贵的标签信息.
同时,利用标签传播过程中的中间结果来不断更新相似性度量方式,通过不断迭代优化调整相似性度量与标签传播,进而提升标签预测性能,提高分类准确率.
本文提出的算法不仅使得样本间相似性度量更加准确,而且充分利用中间结果大大降低了对标签数据的需求量.
最后,通过实验验证了本文所提算法在标签数据占比极小的情况也可以取得较高的分类准确率.
1预备知识1.
1基于图的半监督学习算法在基于图的半监督学习中,第一步计算样本间相似度时,已有工作经常采用高斯核函数来进行[17-18,21],如样本xi与xj的相似度被定义为:sij=e-xi-xj22σ2(1)这种方法将样本间的欧氏距离视作样本间的相似度,其核心还是欧氏距离,这种度量方式并未用到宝贵的标签信息,这样不仅导致了标签信息的浪费,而且使得相似性度量不精确.
基于图的半监督学习算法在进行标签传播时采用的思想是:相似度大的样本应该具有相同的标签.
通常会先构建标签向量,如某一任务中共有K个类别的数据,其中某一样本属于第m类,那么该样本所对应的标签向量为(0,0,,1,,0),即向量中除第m个元素为1外,其余元素均为0,同时还规定标签向量中所有元素之和为1.
可以把标签向量中每一个位置上的元素看成是对应样本属于某一类的概率,当两个样本间的相似度sij较大时,样本xi与xj所对应的标签向量应尽可能地相似,即其欧氏距离fi-fj要尽可能小.
也就是将每一个样本点看作图中的一个节点,样本间的相似度看作是节点间连边的权重.
然后,找到最合适的切割方式把整个图分成K个子图,使得各个子图所包含的边的权重之和最大,同时使得被切割掉的边的权重之和最小.
1.
2度量学习许多机器学习算法很大程度上依赖于样本间的度量方式,一个合适的度量方式不仅可以使得学习的结果更加准确,而且可以使得学习过程更加便捷.
大多数算法采用了固定的度量方式,常见的度量方式有欧氏距离、曼哈顿距离、推土机距离、切比雪夫距离等.
还有一些算法是首先在原始样本空间上进行特征选择,然后在特征空间上进行固定形式的距离度量.
那么,如何根据实际问题或面对不同的数据进行不同方式的度量面对这一问题,研究者们提出了很多度量学习方法:大边界最近邻算法[22]、基于密度加权的大边界最近邻分类算法[23]、基于余弦距离的度量学习算法等.
许多度量学习方法中采用了马氏距离作为度量的函数形式,根据样本相似性计算具体的度量参数值.
其度量公式被定义为:dA(x,y)=x-yA=(x-y)TA(x-y)(2)其中,矩阵A满足半正定.
当A为单位矩阵时,该距离就变成了欧氏距离.
接下来根据样本间的相似度来计算A矩阵[24].
设M为相3431www.
joca.
cn第40卷计算机应用似样本对集合,D为不相似样本对集合.
按相似样本之间的距离应尽可能小的原则,构建如下优化问题:minA∑(xi,xj)∈Mxi-xj2A(3)s.
t.
∑(xi,xj)∈Dxi-xjA≥1A≥0约束条件是为了避免所有的数据都集中到一个点这种极端情况的出现.
该问题为一个凸优化问题,可以求得全局最优解.
若采用拉格朗日对偶性进行求解,其时间复杂度为O(n6),空间复杂度为O(n2).
上述问题也可被转化为如下等价问题[24]来求解:maxA∑(xi,xj)∈Dxi,xjA(4)s.
t.
f(A)=∑(xi,xj)∈Mxi,xj2A≤1A≥0此时,可以使用梯度下降法对目标函数进行求解.
用迭代优化的方式来使得A满足约束条件.
具体的距离度量学习(DistanceMetricLearning,DML)求解思路如算法1所示.
算法1DML.
.
1)begin2)Whileg(A)不收敛do3)WhileA不收敛do4)A:=argminA'{A'-AF:A'∈C1};5)A:=argminA'{A'-AF:A'∈C2};6)end7)A:=A+α(Ag(A))⊥Af;8)end9)returnA;10)end其中,C1={}A:∑(xi,xj)∈Mxi-xj2A≤1,A为距离度量矩阵,C2={A:A≥0}.
g(A)=-∑(xi,xj)∈Dxi,xjA为优化问题的目标函数.
算法1采用的是梯度下降法.
算法1中的第7)行为梯度下降迭代公式,α为学习率,Ag(A)为目标函数的梯度.
第4)、5)行是为了使得迭代后的矩阵满足约束条件f(A)=∑(xi,xj)∈Mxi,xj2A≤1和A≥0.
由于式(4)的优化问题与式(3)的等价,同样也是一个凸优化问题,这样就保证了算法1可以求得全局最优解且保证了算法的收敛性.
详细理论分析见文献[24].
2基于DML的图半监督学习方法本文主要利用标签信息进行相似性的度量学习,进而提出基于标签进行度量学习的图半监督学习算法.
因此,本章首先给定相似性度量方式,进而构建相似度矩阵;其次,基于该相似性矩阵进行标签传播;接着,基于信息熵确定前k个相对确定的样本标签;然后,再加入新学出的标签信息进行相似性度量学习;最后,构建相似性矩阵和标签传播等,如此迭代,直至学出所有标签信息.
2.
1相似度矩阵的构建给定一个包含n个样本的数据集X={x1,x2,…,xl,xl+1,…,xn},具体包含l个具有标签的数据和u=n-l个无标签数据.
给定一个标签集Y={1,2,…,C}表示有C个类.
其中xi∈Rd(i=1,2,…,n),这里d表示数据的维度.
为了构建相似度矩阵S={sij}n*n,定义样本xi与xj的相似度为:sij=e-disA(xi,xj)∑k=1ne-disA(xi,xk)(5)其中,disA(xi,xj)=xTiAxj.
当A为单位矩阵I时,disI(xi,xj)为欧氏距离.
由于本文考虑的是一对样本之间的相似性,所以规定sii=0.
这时可以理解为要找到一种映射f:XY,其中X为输入空间,Y为特征空间,满足xi-xjA=yi-yjI,即输入空间以A为矩阵的马氏距离等于特征空间的欧氏距离.
从概率角度看,sij可看作是xi选择xj作为自己邻居的概率,若记pj|i=sij,则pj|i为以xi为中心、单位矩阵I为协方差矩阵的高斯分布的概率密度[25].
2.
2基于相似度矩阵的标签传播当确定了样本间的相似度矩阵后,接下来根据相似度矩阵进行标签传播,给每个样本xi一个标签向量fi,若i≤l,则:fij={1,yi=j0,其他(6)即若样本xi属于第j类,则标签向量第j个元素为1,其余均为0.
若i>l,则fi为零向量.
根据相似度大的样本的标签向量应比相似度小的样本的标签向量更相似的原则,本文也将标签传播定义为下述的优化问题:min12∑i,j=1nsijfi-fj22(7)这个最优化问题与下述的问题等价[17]:minFuTr(FTLSF)(8)式中:F∈Rn*c,其第i行表示第i个样本的标签向量.
为方便起见,定义F={Fl,Fu},Fl表示标签数据所对应的标签矩阵,Fu表示无标签数据的标签矩阵,目标是求解Fu.
LS=D-S为一个拉普拉斯矩阵,S为相似度矩阵,D为对角矩阵,其第i个对角元素Dii=∑jsij.
现对L矩阵进行分块:Ls=éêùúLllLluLulLuu(9)设H=min12∑i,j=1nsijfi-fj22,通过求解HFu=0得到Fu.
详细证明见文献[17].
Fu=-L-1uuLulFl(10)对于样本xi的标签向量fi={pi1,pi2,…,piC},其中pij可以看作xi属于第j类的概率,在标签传播过程中,样本的标签向量可以体现出样本所属类别的不确定性程度,用标签向量的熵来作为这种不确定性的度量,即:3432www.
joca.
cn第12期吕亚丽等:基于标签进行度量学习的图半监督学习算法H(fi)=-∑k=1cpiklbpik(11)熵值越小则说明所对应样本的所属类别更加明确.
低熵值样本将在后续的标签传播过程中改进样本间的度量,使得传播更加准确.
2.
3迭代更新在半监督标签传播过程中,每次从学出的标签中筛选出分类准确率高的前k个新标签样本,即前k个低熵样本信息,利用它们进行距离度量矩阵的更新,以此来进行下一轮标签传播.
在此过程中,样本间相似性度量不断地向着更加准确的方向变化着.
从另一方面考虑,不同的相似性度量方式体现了不同的样本结构的分布形式.
如果样本的分布更加明确,算法的分类效果就会有大幅提升.
本文正是基于这一点设计了迭代优化的算法不断加强样本空间的结构识别,从而提升学习效果.
2.
4算法描述基于上述内容,本节给出了迭代优化的算法——基于标签进行度量学习的图半监督学习算法(ML-SSL),具体伪代码描述如算法2所示.
算法2ML-SSL.
输入数据集D,循环次数n,确定性样本数k;输出无标签样本的类标签.
1)begin2)初始化A为单位矩阵,计算相似度矩阵S;3)根据标签数据构建相似对集合M,通过解决如下问题求得无标签样本的标签向量矩阵Fu:Fu=-L-1uuLulFl4)根据标签向量计算熵值,选出前k个熵最小的样本加入M;5)while循环次数小于n或A不收敛do6)根据M,调用算法1计算距离度量矩阵A;7)根据A与如下公式,计算相似度矩阵:sij=e-disA(xi,xj)∑k=1ne-disA(xi,xk)8)根据S,求出标签向量矩阵Fu;9)根据标签向量计算熵值,选出前k个熵最小的样本,根据其最可能的类归属加入M;10)end11)根据Fu,得到无标签样本的标签labels;12)return标签labels;13)end算法2中,第2)~4)行是初始的各个量的计算,包括初始化距离度量矩阵A、相似样本对集合M、标签向量矩阵Fu以及计算无标签样本的熵值.
接着,算法进行迭代优化,通过低熵值样本与距离度量矩阵的相互作用影响彼此.
循环终止的条件可以是距离度量矩阵A收敛,此时说明样本间的相似度已达到了最佳稳定状态,也可以是根据实际情况设定迭代次数.
3实验与结果分析本章设计如下实验验证本文所提算法的可行性和分类性能.
实验主要分为三部分:首先,详细分析k值的选取情况;然后,在人造数据集上进行分类性能验证与分析;最后,在真实数据集上进行对比分析和验证.
本文采用的对比算法包括LGC、GFHF和S2LRR三种,这三种方法均为半监督学习领域的经典算法;然而,在算法执行中均未利用中间结果,且在样本间相似性度量时未用到标签信息.
通过实验结果可以看出,本文算法具有很大的竞争优势.
3.
1实验环境与数据集本文实验所用的硬件环境为:Windows10,CPU主频为2.
00GHz,运行内存为8GB,CPU型号为AMDA8-6410.
本文采用的人造数据集为一个双月型数据集,该数据集有上下两个半圆形,分别表示由两个类组成.
每类包含100个二维样本,其中每个样本由两个实数描述其特征.
该数据集属于非凸型数据集.
从算法的二维结果可以展示其对数据空间结构的识别能力,具体如图1所示.
采用的真实数据集有Breast、German、Ionosphere、Vote、Heart、Monkl共6个,全部来自于UCI.
详细信息如表1所示.
3.
2度量指标和参数实验采用分类准确率作为评价指标,即将数据集中无标签数据的真实标签yi与算法学习的预测标签yi作比较,分类准确率acc为:acc=∑xi∈XuI(yi=yi)|Xu|(12)其中:Xu为无标签数据集;|Xu|为该集合所包含的样本量.
除了分类准确率外,还增加了一项标签样本占比的数据.
实验通过这两项指标来说明本文所提算法在提高分类准确率方面的优势,从不同数据集的对比中可以体现所提算法的鲁棒性.
实验中,算法的参数设置为最大迭代次数n=20、判断度量矩阵A收敛的ε=0.
01,即A(t)-A(t-1)2≤ε,则认为A收敛,设置低熵样本个数k=5.
3.
3k值对分类结果的影响本文对k值的选择是通过在6个真实数据集上进行交叉验证得出,具体是分别在每个数据集上随机分配12个标签,图1双月型数据集Fig.
1Two-moondataset表1来自于UCI的真实数据集Tab.
1RealdatasetsfromUCI数据集BreastGermanIonosphereVoteHeartMonkl样本数6831000351435270432维数9203416136类别数2222223433www.
joca.
cn第40卷计算机应用然后分别取k=2、k=5、k=10进行交叉验证,具体结果如表2所示.
从表2可以看出,当k=5时分类效果最佳,具体见表中加粗部分.
这是由于k的选择会对低熵值样本改进距离度量矩阵产生影响.
具体地,当k=2,即取较小的值时,算法将会退化成固定度量方法,每次迭代所选出的确定性样本基本保持不变.
当k=10,即取较大的值时,学习过程将会引入确定性较低的无标签样本,这样的样本对于距离度量矩阵的学习来说属于噪声影响.
3.
4人造数据集上的实验验证与分析在人造数据集上,通过随机地为每类样本分配一定数量的标签来进行对比实验.
这里分别随机地给每个类分配1、3、5、7、9个标签,使用本文所提算法2进行其余标签的学习.
具体学习结果如图2~6所示,每个图中子图(a)是初始数据集(initialdata),图中正方形和倒三角分别表示两类标签数据点,圆形表示无标签数据点;子图(b)为运用所提算法2的分类结果(result).
由图2~6可以得出:1)本文所提算法在标签样本占比很小的情况下就可以得出较好的分类结果.
2)本文算法随标签样本数的增加分类效果明显增强,尤其是对每类数据尾部的样本分类,即从实验结果可以看出,分类错误的样本主要集中在每个类的尾部.
随着标签样本数的提升,本文的算法加强了对尾部数据的分类能力.
3.
5真实数据集上的实验及其结果分析在6个真实数据集上对本文算法(ML-SSL)进行实验验证,并与LGC[6]、GFHF[17]以及S2LRR[2]这3种半监督学习算法进行实验对比.
每个数据集上类别数为2,随机地给每个类分配2、4、6、8、10个标签,则每个数据集分别分配4、8、12、16、20.
4种算法在不同数据集、不同标签数下的分类结果具体如表3所示.
其中,粗体表示每种情况下取得的最高分类准确率.
另外,随着标签样本数的增加,4种算法取得的分类准确率变化如图7所示,子图(a)~(f)分别代表Breast、German、Ionosphere、Vote、Heart以及Monkl数据集上二者间的关系.
表2交叉验证实验结果Tab.
2Experimentalresultsofcross-validation数据集BreastGermanIonosphereVoteHeartMonkl标签数121212121212k251025102510251025102510准确率0.
84500.
94490.
84590.
59410.
72670.
67110.
80320.
82890.
65190.
90540.
93620.
87510.
77520.
80230.
72090.
59520.
65710.
5000图2每类样本具有1个标签的分类结果Fig.
2Classificationresultsofeachclasswithonelabel图3每类样本具有3个标签的分类结果Fig.
3Classificationresultsofeachclasswiththreelabels图4每类样本具有5个标签的分类结果Fig.
4Classificationresultsofeachclasswithfivelabels图5每类样本具有7个标签的分类结果Fig.
5Classificationresultsofeachclasswithsevenlabels图6每类样本具有9个标签的分类结果Fig.
6Classificationresultsofeachclasswithninelabels3434www.
joca.
cn第12期吕亚丽等:基于标签进行度量学习的图半监督学习算法由表3和图7可以得出:1)除German数据集上已知标签数是4的情况外,其余情况下本文所提算法均取得了最高的分类准确率,即本文所提算法在6个数据集上准确率最高的情况占比达到96.
7%(29/30).
具体的,在Breast数据上,本文算法相较其他3种算法在准确率上平均提高了16.
72个百分点;在German数据集上提高了14.
79个百分点;在Ionosphere数据集上提高了11.
84个百分点;在Vote数据集上提高了26.
37个百分点;在Heart数据集上提高了16.
55个百分点;在Monkl数据集上提高了9.
62个百分点.
由此可见,本文所提算法在绝大多数情况下的分类准确率均优于其他3种算法.
2)每个数据集上已知标签比例范围为[0.
0017,0.
0741],可见本文所提算法在已知标签比例很低的情况下便可取得相较于其他3种算法更高的分类准确率.
在Breast数据集上当标签数为20、标签占比仅为0.
0293时,分类准确率达到了0.
9653;在German数据集中,最高分类准确率达到了0.
7316,此时标签占比仅为0.
02;在Vote数据集中,在标签占比仅为0.
0092即不到1%的情况下,本文所提算法的分类准确率达到了0.
8747.
从上述分析可知,在标签数极少的情况下,本文所提算法也能实现较高准确率的分类效果.
3)从图7的子图(a)、(c)、(e)、(f)可以看出,本文所提算法在Breast数据集、Ionosphere数据集、Heart数据集以及Monkl数据集上的分类准确率随标签数的增加而增加.
而其他3种半监督学习算法,分类准确率并不随着标签数的增加而直线提高,尤其S2LRR算法,起伏很大.
在German数据集和Vote数据集上,通过对比4种算法所对应的曲线也可以明显看出,本文所提算法比其他3个算法更加平稳,表明了本文算法具有较好的鲁棒性.
4结语为更准确地反映样本间相似性关系以及充分利用中间结果来提高半监督学习的分类准确率,本文提出了一种基于标签进行度量学习的图半监督学习算法,利用标签传播过程中确定性标签样本来不断修正样本间的相似性度量方式.
然后,通过迭代算法使得以样本为节点、相似度为边权重的图不断得以优化,从而使得标签传播更加准确,并通过实验验证了所提算法的良好分类性能.
接下来,我们进一步的研究工作表3真实数据集上的分类准确率Tab.
3Classificationaccuracyonrealdatasets数据集BreastGermanIonosphereVoteHeartMonkl标签数481216204812162048121620481216204812162048121620标签数占比0.
00590.
00170.
01760.
02340.
02930.
00400.
00800.
01200.
01600.
02000.
01140.
02280.
03420.
04560.
05700.
00920.
01840.
02760.
03860.
04600.
01480.
02960.
04440.
05930.
07410.
00930.
01850.
02780.
03700.
0463LGC0.
68820.
81570.
84510.
89710.
83770.
67910.
67810.
70880.
68810.
66430.
59810.
61140.
77470.
69820.
71840.
58910.
71230.
67010.
71430.
82130.
47980.
51570.
75730.
75130.
67910.
48360.
61040.
59830.
61730.
6933GFHF0.
61090.
77210.
87870.
92130.
79270.
51570.
60130.
49370.
50330.
61270.
49470.
58910.
69080.
70130.
67870.
53990.
58790.
58000.
59060.
67330.
52710.
58910.
78350.
65780.
61880.
55710.
52390.
56670.
57780.
5473S2LRR0.
59730.
51570.
47690.
47510.
57810.
29710.
47910.
57270.
49710.
49250.
38810.
49570.
79620.
62990.
72210.
77190.
65220.
78130.
61480.
54410.
41720.
61660.
55370.
58030.
59810.
60840.
50990.
61270.
53890.
6381ML-SSL0.
69660.
83260.
94490.
96400.
96530.
66780.
71570.
72670.
72560.
73160.
64840.
67640.
82890.
78810.
84590.
87470.
90870.
93620.
93790.
94220.
67670.
76340.
80230.
82280.
80410.
64720.
66040.
65710.
68030.
7306图7不同数据集上标签数量与不同算法分类准确率的关系Fig.
7Relationshipbetweennumberoflabelsandclassificationaccuracyofdifferentalgorithmsondifferentdatasets3435www.
joca.
cn第40卷计算机应用包括该算法的合理性理论分析、计算效率的提高、算法中参数k的选取方法以及该算法的实际应用研究等方面.
参考文献(References)[1]LICG,LINZC,ZHANGHG,etal.
Learningsemi-supervisedrepresentationtowardsaunifiedoptimizationframeworkforsemi-supervisedlearning[C]//Proceedingsofthe2015IEEEInternationalConferenceonComputerVision.
Piscataway:IEEE,2015:2767-2775.
[2]ZHOUZ.
Abriefintroductiontoweaklysupervisedlearning[J].
NationalScienceReview,2017,5:44-53.
[3]MEYA,LOOGM.
Improvabilitythroughsemi-supervisedlearning:asurveyoftheoreticalresults[EB/OL].
[2020-05-09].
https://arxiv.
org/pdf/1908.
09574v1.
pdf.
[4]刘建伟,刘媛,罗雄麟.
半监督学习方法[J].
计算机学报,2015,38(8):1592-1617.
(LIUJW,LIUY,LUOXL.
Semi-supervisedlearningmethods[J].
ChineseJournalofComputers,2015,38(8):1592-1617.
)[5]ZHANGY,ZHANGX,YUANX,etal.
Large-scalegraph-basedsemi-supervisedlearningviatreeLaplaciansolver[C]//Proceedingsofthe201630thAAAIConferenceonArtificialIntelligence.
PaloAlto:AAAIPress,2016:2344-2350.
[6]ZHOUD,BOUSQUETO,LALTN,etal.
Learningwithlocalandglobalconsistency[C]//Proceedingsofthe200316thInternationalConferenceonNeuralInformationProcessingSystems.
Cambridge:MITPress,2003:321-328.
[7]NIEF,SHIS,LIX.
Semi-supervisedlearningwithauto-weightingfeatureandadaptivegraph[J].
IEEETransactionsonKnowledgeandDataEngineering,2020,32(6):1167-1178.
[8]WANGF,ZHANGC.
Labelpropagationthroughlinearneighborhoods[J].
IEEETransactionsonKnowledgeandDataEngineering,2008,20(1):55-67.
[9]BELKINM,NIYOGIP.
Laplacianeigenmapsfordimensionalityreductionanddatarepresentation[J].
NeuralComputation,2003,15(6):1373-1396.
[10]BELKINM,NIYOGIP.
Semi-supervisedlearningonRiemannianmanifolds[J].
MachineLearning,2004,56(1/2/3):209-239.
[11]SAULLK,ROWEISST.
Thinkglobally,fitlocally:unsupervisedlearningoflowdimensionalmanifolds[J].
JournalofMachineLearningResearch,2003,4:119-155.
[12]LIUG,LINZ,YUY.
Robustsubspacesegmentationbylow-rankrepresentation[C]//Proceedingsofthe201027thInternationalConferenceonMachineLearning.
Madison:Omnipress,2010:663-670.
[13]CHENGH,LIUZ,YANGJ.
Sparsityinducedsimilaritymeasureforlabelpropagation[C]//Proceedingsofthe2009IEEE12thInternationalConferenceonComputerVision.
Piscataway:IEEE,2009:317-324.
[14]CHENGB,YANGJC,YANSC,etal.
Learningwithl1-graphforimageanalysis[J].
IEEETransactionsonImageProcessing,2010,19(4):858-866.
[15]HER,ZHENGW,HUB,etal.
Nonnegativesparsecodingfordiscriminativesemi-supervisedlearning[C]//Proceedingsofthe2011IEEEConferenceonComputerVisionandPatternRecognition.
Piscataway:IEEE,2011:2849-2856.
[16]LIH,ZHANGJ,HUJ,etal.
Graph-baseddiscriminativeconceptfactorizationfordatarepresentation[J].
KnowledgeBasedSystems,2017,118:70-79.
[17]ZHUX,GHAHRAMANIZ,LAFFERTYJ.
Semi-supervisedlearningusingGaussianfieldsandharmonicfunctions[C]//Proceedingsofthe200320thInternationalConferenceonMachineLearning.
PaloAlto:AAAIPress,2003:912-919.
[18]NIEF,XIANGS,LIUY,etal.
Ageneralgraph-basedsemi-supervisedlearningwithnovelclassdiscovery[J].
NeuralComputingandApplications,2010,19(4):549-555.
[19]RUSTAMOVRM,KLOSOWSKIJT.
Interpretablegraph-basedsemi-supervisedlearningviaflows[C]//Proceedingsofthe201832ndAAAIConferenceonArtificialIntelligence.
PaloAlto:AAAIPress,2018:3976-3983.
[20]LIQ,WUX,GUANZC.
Generalizedlabelpropagationmethodsforsemi-supervisedlearning[EB/OL].
[2020-05-09].
https://arxiv.
org/pdf/1901.
09993.
pdf.
[21]SZUMMERM,JAAKKOLAT.
PartiallylabeledclassificationwithMarkovrandomwalks[C]//Proceedingsofthe200114thInternationalConferenceonNeuralInformationProcessingSystems.
Cambridge:MITPress,2001:945-952.
[22]WEINBERGERKQ,SAULLK.
Distancemetriclearningforlargemarginnearestneighborclassification[J].
JournalofMachineLearningResearch,2009,10:207-244.
[23]SONGK,NIEF,HANJ,etal.
Parameterfreelargemarginnearestneighborfordistancemetriclearning[C]//Proceedingsofthe201731stAAAIConferenceonArtificialIntelligence.
PaloAlto:AAAIPress,2017:2555-2561.
[24]XINGEP,NGAY,JORDANMI,etal.
Distancemetriclearningwithapplicationtoclusteringwithside-information[C]//Proceedingsofthe200215thInternationalConferenceonNeuralInformationProcessingSystems.
Cambridge:MITPress,2002:521-528.
[25]VANDERMAATENL,HINTONG.
Visualizinghigh-dimensionaldatausingt-SNE[J].
JournalofMachineLearningResearch,2008,9(2):2579-2605.
ThisworkispartiallysupportedbytheNaturalScienceFoundationofShanxiProvince(201801D121115),theResearchProjectofShanxiScholarshipCouncilofChina(2020-095).
LYUYali,bornin1975,Ph.
D.
,associateprofessor.
Herresearchinterestsincludedatamining,machinelearning,probabilisticreasoning.
MIAOJunzhong,bornin1993,M.
S.
candidate.
Hisresearchinterestsincludedatamining,machinelearning.
HUWeixin,bornin1996,M.
S.
candidate.
Herresearchinterestsincludedatamining,machinelearning.
3436www.
joca.
cn

鲸云10美元,香港BGPRM 1核 1G 10Mbps峰值带宽 1TB流量,江西CN2-NAT 1核 512MB内存 100M带宽 ,

WHloud Official Notice(鲸云官方通知)(鲸落 梦之终章)]WHloud RouMu Cloud Hosting若木产品线云主机-香港节点上新预售本次线路均为电信CN2 GIA+移动联通BGP,此机型为正常常规机,建站推荐。本次预售定为国庆后开通,据销售状况决定,照以往经验或有咕咕的可能性,但是大多等待时间不长。均赠送2个快照 2个备份,1个默认ipv4官方网站:https:/...

器安装环境和运维管理工具推荐

今天看到一个网友从原来虚拟主机准备转移至服务器管理自己的业务。这里问到虚拟主机和服务器到底有什么不同,需要用到哪些工具软件。那准备在下班之间稍微摸鱼一下整理我们服务器安装环境和运维管理中常见需要用到的软件工具推荐。第一、系统镜像软件一般来说,我们云服务器或者独立服务器都是有自带镜像的。我们只需要选择镜像安装就可以,比如有 Windows和Linux。但是有些时候我们可能需要自定义镜像的高级玩法,这...

RackNerd:便宜vps补货/1核/768M内存/12G SSD/2T流量/1G带宽,可选机房圣何塞/芝加哥/达拉斯/亚特拉大/荷兰/$9.49/年

RackNerd今天补货了3款便宜vps,最便宜的仅$9.49/年, 硬盘是SSD RAID-10 Storage,共享G口带宽,最低配给的流量也有2T,注意,这3款补货的便宜vps是intel平台。官方网站便宜VPS套餐机型均为KVM虚拟,SolusVM Control Panel ,硬盘是SSD RAID-10 Storage,共享G口带宽,大流量。CPU:1核心内存:768 MB硬盘:12 ...

iptd-982为你推荐
文章文章音视频iphonecss加载失败为什么打开微博都显示CSS层加载失败?http404未找到"HTTP 404 未找到"的错误如何对付?_重庆电信断网重庆电信的最近是怎么回事啊!老断网asp.net空间谁知道免费的ASP空间字节跳动回应TikTok易主一部电影讲一个小伙子去继承遗产结果是一批雪橇狗男主吹口哨声明不是雪地狂奔internetexplorer无法打开internet explorer网页打不开ldapserver怎样打开DWA文件?请说详细点?结点cuteftp
fc2最新域名 科迈动态域名 GGC singlehop 秒解服务器 kdata koss 哈喽图床 小米数据库 有奖调查 免费吧 流量计费 33456 linux使用教程 web服务器是什么 smtp虚拟服务器 smtp服务器地址 帽子云排名 东莞服务器托管 全能空间 更多