[发明专利]一种针对复杂背景的尺度自适应目标跟踪方法有效
申请号: | 201711431595.6 | 申请日: | 2017-12-26 |
公开(公告)号: | CN108280845B | 公开(公告)日: | 2022-04-05 |
发明(设计)人: | 周小龙;李军伟;陈胜勇;邵展鹏;产思贤 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T5/00 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 针对 复杂 背景 尺度 自适应 目标 跟踪 方法 | ||
一种针对复杂背景的尺度自适应目标跟踪方法,包括以下步骤:1)给定初始帧待跟踪的目标前景区域Rt,在目标周围选择一定大小区域作为目标的背景区域;2)在目标背景区域采用随机扰动的方法选择一定量的目标背景候选区域Rb;3)计算目标背景候选区域的距离矩阵S,该矩阵的任一元素S(i,k)表示第i个背景候选区域和第k个背景候选区域的距离,然后通过AP聚类算法选择n背景候选区域的中心作为目标的背景区域;4)将步骤3)选的目标背景候选区域和目标前景特征提取;5)构建训练样本;6)构建相关滤波器;7)目标跟踪,利用6)中求解的w实现目标跟踪。本发明精确度较高且鲁棒性较好。
技术领域
本发明属于视觉目标跟踪技术领域,尤其是一种针对复杂背景的尺度自适应目标跟踪方法。
背景技术
基于视觉的目标跟踪是计算机领域的一个基础问题,近年来随着硬件计算性能的提高和图像特征提取技术的进步,越来越多的优秀目标跟踪算法被提出。但是由于目标跟踪场景的不确定性和被跟踪目标的随机性,当前的目标跟踪算法仍然面临巨大挑战。如目标遮挡、光照变化、复杂背景、目标快速移动以及噪声干扰等。
视频目标跟踪方法自20世纪70年代起一直受到人们的高度重视,虽然研究人员针对各种问题提出了许多方法,但迄今为止仍然不存在一个普遍适用的理论和方法,最近几年又出现了许多新思路、新方法或改进算法。视频目标跟踪方法由四个基本模块组成:目标表观特征建模,目标状态搜索,多目标状态关联以及跟踪模型更新。其中目标表观特征建模是根据初始帧的目标区域和后续帧中目标候选区域提取有用的目标特征,然后通过统计学习的方法构造目标观测模型。从一般意义上来说,目标表观特征建模包括两个子模块,即目标特征提取和模型学习。其中特征提取方法的优劣会直接影响到跟踪模型的可靠性和稳定性,而特征模型是整个跟踪算法的核心。目标状态搜索首先根据目标的运动状态进行模型构建,然后通过此运动模型对下一帧的目标状态进行预测。目标状态关联主要是针对多目标跟踪算法,当被跟踪目标存在两个或者两个以上的时候,跟踪算法需要对被跟踪目标进行时空匹配,即保证前后两帧图像中的目标为同一个体。目标模型的更新主要是由于目标在跟踪过程中表观模型(姿态,光照变化等)会发生变化,为了保证跟踪模型能够应这些,因此需要对跟踪模型进行更新。
当前目标表观特征建模主要是根据初始帧中的目标区域提取有用目标表观特征,如HOG,SIFT,Color Names,以及卷积神经网络(CNN)特征等,然后利用统计学习算法(逻辑回归,相关滤波器,支持向量机,决策树等)对目标特征建模。但是这些方法主要是根据目标本身的特征进行目标跟踪的,而忽略了目标背景信息对跟踪算法的影响。因为缺乏目标背景信息的监督,而导致训练的目标表观模型判别性不够,在复杂背景和信噪比较低的情况下会出现目标漂移和跟踪失败的情况。
发明内容
为了克服现有的目标跟踪算法存在的精确度较低、鲁棒性较差的不足,被发明在相关滤波器和卷积神经网络特征的基础上,本发明提出了一种针对复杂背景的目标跟踪方法,该方法充分利用了目标前景和目标背景信息构建一种更加的鲁邦的目标跟踪方法,且该方法能够自适应估计目标的尺度变化,从而实现一种精确度较高且鲁棒性较好的视觉跟踪方法。
本发明解决其技术问题所采用的技术方案是:
一种针对复杂背景的尺度自适应目标跟踪方法,所述的跟踪方法包括以下步骤:
1)给定初始帧待跟踪的目标前景区域Rt,在目标周围选择一定大小区域作为目标的背景区域;
2)在目标背景区域采用随机扰动的方法选择一定量的目标背景候选区域Rb,目标背景候选区域的尺度与被跟踪目标尺度保持一致;选定的背景候选的框的中心应该位于Rb中,且目标前景区域的后目标背景候选框的重叠率overlap要小于等于预设阈值,overlap定义为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711431595.6/2.html,转载请声明来源钻瓜专利网。