[发明专利]一种基于自适应子块筛选的多线索视觉跟踪方法有效
申请号: | 201710035427.9 | 申请日: | 2017-01-17 |
公开(公告)号: | CN106898015B | 公开(公告)日: | 2019-09-24 |
发明(设计)人: | 孙伟平 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/223 | 分类号: | G06T7/223;G06T7/207 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 梁鹏 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 筛选 线索 视觉 跟踪 方法 | ||
本发明属于视觉跟踪领域,具体涉及一种基于自适应子块筛选的多线索视觉跟踪方法,包括以下步骤:(1)将目标区域进行显著性检测,结合均匀分块得到候选子块集合;(2)对候选子块进行多尺度采样,确定频域响应较大的子块及相应的尺度,更新候选子块集合;(3)对候选子块集合中的子块进行运动估计,通过子块的多线索融合,确定跟踪目标的中心位置;(4)通过目标的当前位置,对每个子块位置对应的高斯核进行更新,将不满足要求的子块重新初始化。本发明的方法能够去除背景的干扰,充分利用中层特征的视觉限制性和高层语言的先验约束,使得目标的定位更加准确,还具有步骤简单、计算量小的优点,适合在具有遮挡的情况下进行视觉目标跟踪。
技术领域
本发明属于视觉跟踪领域,更具体地,涉及一种基于自适应子块筛选的多线索视觉跟踪方法。
背景技术
实际应用场景中,跟踪对象往往因遮挡等原因导致表观发生部分改变,目标的表观模型需要体现目标表观的变化。为此,在目标表观建模时通常采用局部特征(如子块)。
在中国发明专利《一种新型的基于自适应分块的视频跟踪方法》中公开了一种自适应分块方法,利用视频及图像的内容信息,根据跟踪的目标区域的特征而自动调整分块策略,提高视频跟踪效果。在中国发明专利《一种新型的基于分块策略的视频跟踪方法》中公开了一种子块的分块策略,根据小块的颜色直方图与其周围小块的颜色直方图之间的相似度来判断当前块及周围小块是否发生遮挡,被检测出发生遮挡的小块在后面的粒子滤波算法中计算块之间关系变化系数时,降低其所占的权重,从而减少遮挡现象对跟踪方法准确性的影响。在中国发明专利《一种实时的视频跟踪方法》中,将跟踪目标分割成子块的方式压缩图像特征,并通过构建多尺度的候选区域以适应跟踪目标的尺度变化以及快速移动,最后利用KCF(核化相关滤波器)算法计算特征向量之间的相关性以达到视频跟踪的目的。
在这些方法中,均采用局部特征对表观建模以适应遮挡等情形,通过均匀分块的方法将目标划分成子块或小块,子块的数量和子块的空间位置一般是固定的。均匀划分得到的子块数量较多,在后续的跟踪流程中,无论是采用粒子滤波跟踪框架,还是KCF跟踪框架,都需要对每个子块进行处理,算法的计算量与子块的数量成正比。而在这些子块中,存在大量的信息冗余,而且会引入对跟踪结果产生干扰的背景信息,会引起视觉跟踪中的漂移问题,影响跟踪结果的准确性。
由于存在上述缺陷和不足,本领域亟需做出进一步的完善和改进,设计一种视觉目标跟踪方法,使其能够克服现有技术中对跟踪目标区域进行固定方式分块方法的缺陷,以便满足复杂跟踪场景下的目标跟踪的需要。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于自适应子块筛选的多线索视觉跟踪方法,该方法为一种针对遮挡等复杂跟踪场景提高视觉跟踪算法性能的目标表观表示和目标定位方法,依据先验知识对子块进行划分和筛选,用更具视觉显著性和频域响应高的子块表示目标,融合表观、空域和时域信息对目标的运动进行估计,从而提高视觉跟踪的准确性和对不同场景的适应能力。该方法可用于交通流量或社会监控等系统中对目标人或车辆进行自动监控。
为实现上述目的,按照本发明的一个方面,提供了一种基于自适应子块筛选的多线索视觉跟踪方法,其特征在于,具体包括以下步骤:
S1.采集图像信息,将图像信息进行划分得到目标区域,对目标区域进行均匀分块,并将目标区域的图片进行显著性检测,根据视觉特征显著程度得到候选子块集合;
S2.对步骤S1中得到的候选子块集合中的候选子块进行多尺度采样,并对采样进行核相关滤波,保留候选子块集合中频域响应较大的子块,确定这些子块的尺度,更新候选子块集合;
S3.将候选子块集合中的子块作为跟踪目标,对子块进行运动估计,计算每个子块的表观线索aci、空间分布线索sci和运动轨迹线索mci,由此计算得到跟踪目标的当前位置;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710035427.9/2.html,转载请声明来源钻瓜专利网。