[发明专利]一种基于相关滤波器的目标跟踪检测方法有效
| 申请号: | 201810292983.9 | 申请日: | 2018-03-30 |
| 公开(公告)号: | CN108596048B | 公开(公告)日: | 2020-05-19 |
| 发明(设计)人: | 赵亦工;岑晓 | 申请(专利权)人: | 西安电子科技大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46 |
| 代理公司: | 西安睿通知识产权代理事务所(特殊普通合伙) 61218 | 代理人: | 惠文轩 |
| 地址: | 710071*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 相关 滤波器 目标 跟踪 检测 方法 | ||
本发明公开了一种基于相关滤波器的目标跟踪检测方法,属于计算机视觉技术领域,其主要思路为:获取一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置已知,剩余T‑1帧图片上各自目标位置未知;然后计算T帧图片目标搜索域区域;分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T;计算第t帧图片的HOG特征响应矩阵和第t帧图片的HOG特征响应矩阵中的最大值,进而得到第t帧图片的目标中心点t∈{2,3,…,T},直到得到第2帧图片的目标中心点至第T帧图片的目标中心点以及根据第1帧图片上目标位置得到第1帧图片的目标中心点实现了T帧图片中每个目标的实时跟踪。
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于相关滤波器的目标跟踪检测方法,适应于实际应用。
背景技术
视频目标跟踪是计算机视觉领域的重要研究课题,其定义是:给定视频序列初始帧中目标的位置框,在接下来的视频序列中自动给出该目标的位置框.视频目标跟踪研究在视频监控、人机交互、机器人等领域有广泛应用。
经过30多年研究与发展,大量视频目标跟踪算法相继提出,早期工作主要集中于生成学习跟踪方法研究,如Lucas—Kanade算法、Kalman滤波算法和Mean—shift跟踪算法等;但早期研究工作通过经典的数学模型难以准确把握目标的动态表观信息,因此经常导致若干帧后跟踪失败;接着,研究人员尝试在跟踪问题中引入包含考量背景信息在内的鉴别学习方法,以判别分类角度为出发点的鉴别学习跟踪算法得到了广泛研究和发展;如2009年B.Babenko等提出在线多例学习跟踪算法(MIL)与S.Hare建立的利用核方法的结构化输出模型(Struck);基于相关滤波视频目标跟踪算法近年来受到广泛关注,其初衷是设计一个对目标高响应、同时对背景低响应的滤波器,由此实现对目标模式的快速检测;该方法本身可以有效实现对目标定位,但是对训练样本提出了数量要求,直至Bolme在2010年提出了最小平方误差输出总和滤波器(MOSSE),该状况得以改善;利用自适应训练框架,MOSSE实现了鲁棒高效的跟踪模式,在MOSSE基础上,出现了大量改进算法;如Henriques等于2012年构建的循环结构检测跟踪算法(CSK)和于2015年提出的核化相关滤波器算法。
但是目前的相关滤波算法仍然有一些不足之处,如对快速物体与形变物体进行目标跟踪时容易丢失目标;对运动中的物体进行目标跟踪时容易发生中心点偏移导致目标获取不准确。
发明内容
针对上述现有技术存在的缺点,本发明的目的在于提出一种基于相关滤波器的目标跟踪检测方法,该种基于相关滤波器的目标跟踪检测方法对目标响应最大值设定了一个阈值,大于该阈值时,该目标响应最大值的位置就是目标中心点;小于该阈值时,对目标进行重新定位。
为达到上述技术目的,本发明采用如下技术方案予以实现。
一种基于相关滤波器的目标跟踪检测方法,包括以下步骤:
步骤1,获取一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置已知,剩余T-1帧图片上各自目标位置未知;然后计算T帧图片目标搜索域区域;其中,T为大于或等于2的正整数;
步骤2,对第t'帧图片目标搜索域区域分别进行HOG特征提取,得到第t'帧图片目标搜索域区域的HOG特征向量fHOG,t';1≤t′≤T,t'的初始值为1;
步骤3,令t'的值分别取1至T,重复步骤2,进而分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T;
初始化:令t∈{2,3,…,T},令表示第t帧图片目标搜索域区域,t的初始值为2;设定常量阈值为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810292983.9/2.html,转载请声明来源钻瓜专利网。





