您当前的位置 :鹿城新闻网 > 财经 > 基于稀疏表达特征选择的压缩感知目标跟踪算法

基于稀疏表达特征选择的压缩感知目标跟踪算法

基于稀疏表达特征选择的压缩感知目标跟踪算法 作者:未知 摘要:目标跟踪是计算机视觉领域的重要研究方向之一。 压缩传感具有快速跟踪速度和高精度。然而,当跟踪被遮挡的目标时,使用被遮挡的Haar特征来构造分类器,这导致分类器的较低性能和目标的容易丢失。 为了解决这个问题,建议根据l1稀疏表示判断Haar特征是否被遮挡,然后使用未遮挡特征构造贝叶斯分类器。 首先,使用每个帧跟踪结果的稀疏表示来提取一组未被遮挡的特征,并且在构造贝叶斯分类器时仅使用未被遮挡的特征。 然后,使用训练的候选分类器对下一帧候选样本进行分类,并选择具有最大分类响应的候选x样本作为跟踪结果。 实验结果表明,该算法在跟踪目标遮挡时具有比CT算法更高的跟踪精度,能够实时获得高效准确的目标跟踪结果。 关键词:目标跟踪;哈尔功能;稀疏表示;贝叶斯分类器 DOI:10.11907/rjdk.181200 中图分类号:TP312 文件识别码:商品号:1672-7800(2018)007-0091-06 关键词:targettracking; Haarfeature; sparserepresentation; Bayesianclassifier 0前言 目标跟踪是计算机视觉的重要研究课题之一。它广泛应用于实时监控,人机交互,动作捕捉,医学成像等领域。 近年来,国内外已开发出大量的跟踪算法[1-4],但由于光照强度变化,目标外观变换,目标部分遮挡和目标信息不足等诸多因素,鲁棒跟踪算法仍在开发中。有挑战。 现有的目标跟踪算法根据外观模型分为两类:生产模型和判别模型。 生成的算法模型[3-10]通过训练样本来学习目标外观模型,然后选择具有最小重建误差的样本作为候选样本中的目标。亚当等人。 [3]使用积分图来计算多尺度强度直方图以表示目标特征。 张等人。文献[4]将目标跟踪问题描述为一个多任务稀疏学习问题,并设计了一种协同跟踪算法。 与判别跟踪算法相比,生成算法具有更高的跟踪精度,但是当跟踪环境复杂时,结果不够稳健。 判别算法模型[11-16]将目标跟踪视为分类问题,并使用正样本和负样本训练分类器将目标与背景分离,然后选择具有最大分类响应的样本作为跟踪候选样本中的结果。 张等人。 [1]利用稀疏矩阵根据压缩感知原理减少高纬度图像特征的特征,然后训练贝叶斯分类器对候选目标进行分类。 多实例目标跟踪(MIL)[11]使用在线Boosting算法训练分类器,可以处理非线性分类问题,但算法需要在每次迭代时选择弱分类器,降低跟踪速度。 当在复杂环境中跟踪目标时,判别算法是稳健的,但是跟踪目标在外观上几乎没有变化的精度低于生成算法。 近年来,CT算法因其快速跟踪能力而引起了研究者的关注[17-21],但该算法在跟踪部分遮挡目标时容易发生漂移,这主要是因为在跟踪过程中使用了遮挡Hal特征。构造分类器会降低分类器的性能。为了解决这个问题,本文结合生成模型和判别模型的优点,利用稀疏表达式选择其基于CT算法的特征,以提高分类器的性能。稀疏表达的特征选择目标跟踪算法(FST)。 1压缩感知跟踪(CT)算法 从稀疏感知理论可知,满足RIP条件的稀疏矩阵在投影高纬度原始图像的特征空间之后将保留原始高维图像空间的所有信息。 [1] CT算法使用稀疏矩阵在多尺度卷积后减小高纬度图像矢量的维数,然后使用在线训练的朴素贝叶斯分类器对减维特征上的候选样本进行分类,并选择最大分类响应。样本用作跟踪结果。基于跟踪原理,CT算法实现了鲁棒的跟踪效果。如图1和图2所示,CT算法收集由第t帧图像选择的目标周围的不同范围内的正样本和负样本,然后提取正样本和负样本的低纬度特征更新分类器, 分别。 对于每个目标样本Z∈Rw×h,样本Z由多尺度卷积核{h1,1,h1.2,h1,3,...,hw,h}进行卷积,其中hi,j定义为: 每个卷积核将在卷积后产生Rw×h维向量。 通过wh卷积核的卷积,原始图像可以由高纬度向量U=u1,u2,u1,...,umT表示,其中m=wh2。 n的值通常为108到1012.如图3所示,为了降低计算复杂度,CT算法应用随机高斯矩阵R=Rn×m(高斯矩阵非常稀疏)转换高纬度向量Z进入低纬度特征向量V,并且在随机高斯矩阵满足RIP条件的情况下,V已经包含样本向量Z中的大部分信息。 这是: 文献[15]表明向量V中的所有元素vi满足独立分布。 为了对来自大量候选样本的目标样本进行分类,CT算法建立了朴素贝叶斯分类器。 2FST算法实现 更好的分辨率是鲁棒跟踪算法的必要条件[22]。 CT使用稀疏矩阵压缩感知来获得大量类Haar特征。尽管该方法有效地对压缩域中的投影特征进行分类并且避免了计算中的维度灾难,但是它在特定阈值范围内增加或减少稀疏矩阵行。 Haar特征数量的变化不会影响跟踪效果。例如,在100行和50行的稀疏矩阵投影之后由Haar特征集获得的跟踪效果是相似的[21];另一方面,CT的Hal对特征中某些特征的遮挡会影响分类器的性能,导致跟踪目标的跟踪漂移。 基于此思想,本文通过稀疏表示选择Hal特征集的未被遮挡特征作为特征子集训练分类器,并完成目标跟踪。 如图4和图5所示,该算法结合了生成模型和判别模型的优点。使用稀疏表示来选择跟踪结果的第t帧中的Hal特征集中了未被遮挡的特征,并且对正样本和负样本进行采样并且在远离目标区域并且接近目标区域的范围内更新分类器。 通过t1帧的压缩感知获得候选样本Haar特征,然后将未被遮挡的t帧的特征子集用于分类器分类,并选择具有最大分类响应的样本作为跟踪结果,从而完成t1框架目标。跟踪。 2.1基于Haar特征子集的分类器 判别模型通过建立分类器来区分目标和背景。如等式(3)所示,每个候选样本的分类响应值H(v)近似地定义为属于正样本的目标的所有目标特征的概率累积和值。最后,选择具有最大分类响应值H(v)的候选样本作为跟踪目标。 因此,所选特征及其分辨能力决定了分类器的分类结果质量。然而,CT算法在压缩感测之后选择整个特征空间作为原始Hal特征集,并且不预处理投影的Haar特征。 当跟踪目标中没有遮挡并且目标与其背景之间存在很大差异时,该方法可以获得稳健的跟踪结果。然而,当目标区域中的一些Hal特征被遮挡时,CT算法漂移。 主要原因是被遮挡的Hal特征在分类时失去了区分目标和背景的能力,因此分类器学习了大量的非目标特征信息,并且非目标特征信息的累积减少了分类器的分类效果。 另一方面,实验数据表明,即使在一定的阈值范围内,即使哈尔特征的数量增加,分类器的分类效果也不会提高,这表明CT中的哈尔特征的数量是多余的。 因此,选择感测到的哈尔特征子集V'的压缩特征作为用于构造贝叶斯分类器的分类特征集。计算出的分类响应值H(v)定义为: 2.2基于稀疏表示选择Hal特征子集 图7显示了随机生成特征的多个特征卷积块的结果。为了防止表示跟踪目标特征i的若干卷积核的重叠,影响样本的特征稀疏表示,算法需要多次调整适当的稀疏矩阵。执行每个特征扩展列向量Yi的稀疏表示。图8显示了跟踪期间两个遮挡和未遮挡的Haar特征(绿色被遮挡而蓝色未被遮挡)。 图9是通过图8中两个Haar特征的稀疏表示获得的系数图(上图对应于蓝色,下图对应于绿色),横坐标是模板,纵坐标是稀疏系数值ai,j,1 ≤j≤o。 矢量化上图的特征维数,维数di为40.除第10个模板系数外,普通模板的系数接近0,稀疏系数向量ci满足稀疏性,特征可以是稀疏的功能模板。相反,在下图中,每个模板系数密集分布,特征不能由其特征模板稀疏地表示,并且Haar特征被遮挡。 数据显示,可以通过稀疏表示有效地选择无阻碍的Hal特征,以避免影响分类器。 2.3分类器更新 为了使分类器适应目标及其背景变化,有必要在每个帧跟??踪结果周围的特定范围内收集正负样本更新分类器,以避免继续更新被遮挡的Hal特征,从而导致分类器学习遮挡对象特征,影响分类。设备的分类效果。 本文对CT算法中分类器参数的更新方法进行了如下改进: 2.4功能模板更新 为了适应目标的变化环境,算法应及时更新目标特征模板。 如果模板更新太快,模板生成的错误将累积,这将导致跟踪结果偏移。相反,如果未更新模板或更新特征模板太慢,则将无法准确选择被遮挡的特征。 为了动态更新目标特征模板,本研究使用与Mei等人相同的特征更新方法。 [2]。 初始化特征模板时,第一帧的给定目标中的每个Hal特征的若干特征帧在每个方向上偏移一个像素点,选择若干特征帧,然后根据列向量扩展特征帧。形成哈尔。功能的特征模板Ti。 更新算法流程如下: 2.5实验结果与分析 该算法在Matlab2016a平台上实现,操作系统为Win10,CPU为2.4GHz Inteli5处理器,内存为4G,算法特征数为50(经验参数),稀疏度表示误差阈值M=0.002,学习因子λ=0.85(经验参数)特征模板更新角度阈值γ=30(经验参数),特征数阈值为25,当稀疏表达式选择的Hal特征子集的特征数小于25时,选择具有小稀疏表达式错误的前25个特征。为了测量算法的跟踪效果并评估其有效性,将该算法与CT及其类似的跟踪算法(包括MIL和FRAG)进行比较,并在五个具有挑战性的视频片段中获得四种算法(Basketball,David2,David3,Deduk) 。 ,女人)跟踪结果。 数据表明,该算法在跟踪环境中具有比CT和其他算法更高的跟踪精度,如目标遮挡和目标外观变化。 2.5.1定性分析 如图1所示。如图10所示,在目标外观急剧变化的视频序列篮球中,目标的背景随目标运动而变化,导致分类器混淆跟踪目标和背景,导致跟踪困难,其中CT和MIL在第278。帧偏离目标并以292帧漂移到非目标玩家。 FRAG和本研究中提出的算法可以准确地跟踪目标。 在视频序列David2中,目标区域较小且背景区域与目标相似,因此难以投影有效的Haar特征。 CT算法在第4帧丢失目标,MIL和FRAG在第445帧中偏离跟踪目标。框架461失去目标。 然而,当第173,336,445和461帧中目标的出现发生显着变化时,本研究中提出的算法可以更准确地跟踪目标。 在具有目标部分遮挡的跟踪视频序列Woman和David3中,跟踪的目标在短时间内被部分遮挡,并且跟踪结果显示在Woman中。 CT,MIL和FRAG都在第124帧失去了目标。在David3中,CT,MIL和FRAG分别在帧89,105和167中丢失了目标。 本研究中提出的算法使用特征子集,在更新分类器和分类器分类时,可以实现与原始Hal特征集相同的跟踪效果,避免了遮挡Hal特征对分类器的影响。与CT,MIL,FRAG相比,它对局部遮挡目标的跟踪效果更好。 在目标外观和比例缩放的视频序列Dudek中,CT和MIL算法分别在帧370和218中偏离目标,并且只有FRAG和本研究中提出的算法完成了精确跟踪。2.5.2定量分析 定量分析用于计算四种算法的跟踪性能指标:1跟踪目标中心点与实际中心像素位置之间的平均误差。结果显示在表1中.2PASCALVOC评估标准跟踪目标帧与实际目标帧之间的平均重叠率,即得分。=area(RT∩RG)区域(RT∪RG),其中RT表示算法跟踪的结果区域,RG表示手动校准的目标区域,∪和∩分别代表两个区域的并集和交集,功能area(?)返回区域中的像素数如表2所示。 从表1和表2中的数据可以看出(最佳结果以粗体标出)。当跟踪目标外观,尺度变化和目标部分遮挡时,该算法具有比目标跟踪算法(如CT)更高的跟踪精度。与五个具有挑战性的视频序列中的四种算法相比,除了Dudek之外,FST算法具有最小的中心点误差和最大的重叠率。在Dudek跟踪视频序列中,算法和FRAG跟踪效果非常接近。 3结论 本文提出了一种新的特征选择方法,通过稀疏表示选择更具辨别性的Hal特征来提高CT分类器的分类效果。 该算法选择一些重构误差较小的特征来构造分类器,提高了CT跟踪精度。 对于被遮挡的Hal特征的部分,不更新相应的分类器参数,这避免了对分类器的影响。 该算法易于实现并且可以执行实时跟踪。与五种具有挑战性的视频序列的CT和其他算法相比,它实现了强大的跟踪效果。它具有比CT更高的跟踪精度并改变目标外观。目标局部遮挡是稳健的,并且可以处理目标的实时跟踪。 在后续研究中,我们将重点关注跟踪视野中消失并重新出现的目标。 引用: [1] ZHANGK,ZHANGL,YANGMH.Real-timecompressivetracking [C] .EuropeanConferenceonComputerVision,2012:864-877。[2] MEIX,LINGH.Robustvisualtrackingusingllminimization [C] .2009 IEEE12thInternationalConferenceonComputerVision,2009:1436-1443。 [3] ADAMA,RIVLINE,SHIMSHONII。使用整体组合图进行基于Robustfragments的跟踪[C] .2006 IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,2006:798-805。 [4] ZHANGT,GHANEMB,LIUS,etal。 Robustivualtrackingviamulti-tasksparselearning [C] .2012 IEEE Con??ferenceon ComputerVision and PatternRecognition,2012:2042-2049。 [5] GAOX,TANGX。 Unsupervisedvideo-shotsegmentationandmodel-freeanchorpersondetectionfornewsvideostoryparsing [J]。 IEEETransactionsonCircuitsandSystemsforVideoTechnology,2002,12(9):765-776。 [6] ATKINSONRC,SHIFFRINRM。 Psychologyoflearningandmotivation [M]。 Pittsberg:AcademicPress,1968。[7] MEIX,LINGH.Robustvisualtrackingandvehicleclassificationviasparserepresentation [J] .IEEETransactionsonPatternAnalysisandMachineIntelligence,2011,33(11):2259-2272。 [8] YUANY,EMMAUELS,FANGY,etal.Visualobjecttrackingbasedonbackwardmodelvalidation [J] .IEEETransactionsonCircuitsandSystemsforVideoTechnology,2014,24(11):1898-1910。 [9] LIH,SHENC,SHIQ.Real-timevisualtracking usingcompressivesensing [C] .2011 IEEE Con??ferenceon ComputerVision and PatternRecognition,2011:1305-1312。 [10]王琦,HUOX。目标跟踪与实际可行的移动定位模型[J]。信号处理,2013,93(5):1044-1055。 [11] BABENKOB,YANGMH,BELONGIES.Visualtrackingwithonlinemultipleinstancelearning [C] .IEEEConferenceonComputerVisionandPatternRecognition,2009:983-990。[12] SMEULDERSAWM,CHUDM,CUCCHIARAR,etal。视觉跟踪:实验性的[J]。 IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(7):1442-1468。 [13] WUY,LIMJ,YANGMH.Onlineobjecttracking:abenchmark [C] .2013IEEEConferenceonComputervisionandpatternrecognition,2013:2411-2418。 [14] YIS,HEZ,YOUX,etal.Singleobjecttrackingviarobustcombination ofparticlefilterandsparserepresentation [J]。信号处理,2015,110:178-187。 [15] GRABNERH,GRABNERM,BISCHOFH.Realtimetrackingviaonlineboosting [C] .BritishMachineVisionConference,2006,1(5):6。 [16] DANELLJANM,HAGERG,SHAHBAZKHANF,etal.Adaptivedecontaminationofthetrainingset:Aunifiedformulationfordiscriminativevisualtracking [C] .PeeedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2016:1430-1438。[17] SONGH.Robustvisualtrackingviaonlineinformativefeatureselection [J]。电子学报,2014,50(25):1931-1933。 [18] LIUQ,YANGJ,ZHANGK,etal.Adaptivecompressivetrackingviaonlinevectorboostingfeatureselection [J] .IEEETransactionsonCyber??netics,2017,47(12):4289-4301。 [19] WUY,JIAN,SUNJ。实timemulti-scaletrackingbasedoncompressivesensing [J] .TheVisualComputer,2015,31(4):471-484。 [20]?清庆,何如汉。基于协方差矩阵的压缩感知跟踪算法[J]。软件指南,2017,16(4):31-35。 [21] LIK,HEF,CHENX.Real-timeobjecttrackingviacompressivefeatureselection [J]。计算机科学,2016,10(4):689-701。 [22]王恩,石J,YEUNGDY,等。 Understanding anddiagnosingvisualtrackingsystems [C] .2015 IEEE International Conference on Computer Vision,2015:3101-3109。 (编辑:江燕)

博猫彩票平台 http://wap.comfyplus.com.cn 重庆华龙网