[发明专利]一种基于组合判断策略的视觉目标跟踪方法有效
申请号: | 201711422471.1 | 申请日: | 2017-12-25 |
公开(公告)号: | CN108010067B | 公开(公告)日: | 2018-12-07 |
发明(设计)人: | 张弘;饶波;李伟鹏 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/262;G06K9/62 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 安丽 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 组合 判断 策略 视觉 目标 跟踪 方法 | ||
本发明涉及一种基于组合判断策略的视觉目标跟踪方法,步骤如下:(1)针对目标尺寸变换问题,建立一个自适应尺度,从而自动调整跟踪框大小;(2)针对目标被遮挡后无法继续确定目标所在位置的问题,采用卡尔曼滤波对当前观测量进行预测,当目标重新出现后继续使用KCF算法跟踪目标;(3)针对目标快速移动造成跟踪失败的问题。本发明通过检测目标在相邻帧中位置移动距离,以此计算目标运动速率,自适应的调节检测区域大小扩展系数,能够在不同的环境下获得较高的精度,有效提高整个跟踪系统的鲁棒性,并保持较高的计算速度,具有很高的工程实用价值。
技术领域
本发明涉及一种基于组合判断策略的视觉目标跟踪方法。
背景技术
运动目标跟踪是一种针对视频信号进行处理、采样和检测的方法,通过某些具体特征对图像包含的特定区域进行检测和标记。近些年众多学者提出了很多优秀的跟踪算法,常用的跟踪算法主要有以下三种思路:基于特征匹配的方法、基于区域相关度的方法和基于模型的方法。
其中基于特征的方法不需要在意目标的外型情况和目标种类,在确定好提取的特征之后,构造特征向量或者特征图,在相邻帧之间进行比较,在上一帧的目标位置周围进行特征匹配。例如国外学者StnaBicrhfield提出的基于颜色直方图和灰度梯度联合模型的算法。
基于区域的跟踪方法则是将重点放在运动目标的连通域上,将其作为检测对象从而实现目标跟踪,区域信息包含颜色信息、纹理信息和像素信息等,因此可以选用区域信息中的一种或多种特征,对图像目标进行检测跟踪。对于此类方法Wrell曾提出过利用小区域特征把人的连通域分解为躯干、四肢、头等部分,得到多个小区域的联合体,再对区域块分别跟踪,实现室内环境下的单人跟踪。
基于模型的跟踪方法是目前研究比较热门的方法,它根据原理可以分为生成式模型算法和判别式模型算法,生成式模型算法是通过在线或离线的学习建立目标的外观模型后,再在每一帧视频序列中计算与该模型最接近的位置视为结果坐标,而判别式模型算法采用的是对图像进行分类,把目标和背景进行分离,得到目标和背景的判别模型,并用学习的方法进行模型更新。在主流的生成式模型跟踪算法中,Shen等学者利用颜色搭建的直方图表征目标模型具体信息;Wang.H等使用空间信息和颜色信息的融合编码建立混合高斯模型,近似表征目标外观。
但由于实际视频信号当中,感兴趣的目标区域往往会受到一些环境因素的影响,导致算法计算结果不准确,无法稳定跟踪目标。因此对于运动目标如何保持长期稳定跟踪的理论研究,逐渐成为计算机视觉关注点较高的方向。目前目标跟踪技术的上关于环境因素的主要三个难点分别是:目标运动信息的剧烈变化、目标尺寸的变化和由于障碍物导致的遮挡问题。目标运动信息的变化最主要的是运动速度的突然改变,使得跟踪器无法做出快速调整;目标大小改变、形变等则会导致目标纹理等特征发生变化;目标遮挡的出现往往是视频环境中出现了建筑物等障碍,破坏了目标轮廓的完整性。采用何种特征表示目标,以及如何建立自适应模型来解决这些问题,是设计一个鲁棒的跟踪器的关键。
本发明针对目标跟踪视频中存在的快速移动、部分或完全遮挡、尺寸变换等问题,采用多种跟踪器组合判断图像帧当中目标所在位置,提高目标跟踪算法的性能和计算速度,可以长时间稳定跟踪目标,并有效克服一些环境因素的干扰,具有广泛的实际工程应用价值。
发明内容
本发明的技术解决问题是:克服现有跟踪算法所受到的主要几种环境因素的影响,提供一种多种跟踪器组合判断的目标跟踪方法,能够在不同的环境下获得较高的精度,有效提高整个跟踪系统的鲁棒性,并保持较高的计算速度,具有很高的工程实用价值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711422471.1/2.html,转载请声明来源钻瓜专利网。