[发明专利]一种复杂背景下运动目标检测与跟踪方法在审
| 申请号: | 201810451272.1 | 申请日: | 2018-05-11 |
| 公开(公告)号: | CN108765452A | 公开(公告)日: | 2018-11-06 |
| 发明(设计)人: | 李宁鸟;王文涛;韩雪云;李权;魏璐 | 申请(专利权)人: | 西安天和防务技术股份有限公司 |
| 主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/62 |
| 代理公司: | 西安亿诺专利代理有限公司 61220 | 代理人: | 康凯 |
| 地址: | 710000 陕*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 复杂背景 跟踪 运动目标检测 跟踪目标 候选区域 候选样本 模型更新 帧图像 响应 漂移 分类器模型 复杂场景 候选目标 快速稳定 目标跟踪 目标位置 目标信息 判断条件 预设条件 分类器 检测 振荡 遮挡 取出 模糊 | ||
本发明一种复杂背景下运动目标检测与跟踪方法,属于目标跟踪领域,尤其涉及一种复杂背景下目标稳定跟踪方法。该方法如下:对获取的当前帧图像进行检测,获得满足预设条件的检测目标信息;在当前帧图像上以跟踪目标所在位置为中心,选取候选区域;利用分类器模型在候选区域中获取候选目标所对应的目标位置;本发明所述方法,通过候选样本与分类器之间的响应图振荡情况来设定跟踪丢失判断条件,从而能够准确的判断目标是否碰到遮挡、丢失或者模糊等状况;同时,利用响应图中响应值的历史值来判断模型更新,减少了模型漂移的情况和模型更新的次数,在复杂场景中能够准确的从候选样本中选取出跟踪目标,实现目标的快速稳定跟踪。
技术领域
本发明属于目标跟踪领域,尤其涉及一种复杂背景下目标稳定跟踪方法。
背景技术
无论在军用或者民用领域中,目标跟踪技术都有着广泛的应用。在战场侦查、低空防御、交通监控以及国土安全等方面全自动或者半自动的实现目标跟踪任务都可以大大减少工作人员和工作时间。然而,尽管人们已经提出了许多有效的视频目标跟踪算法,但在实际应用中仍然面临很多困难,例如环境中的光照变化、目标的非线性形变、摄像机的抖动,以及背景中的噪声干扰等因素,给目标跟踪带来了极大的挑战。
同时,现有的目标跟踪方法大多数只能够实现在较短的时间内对目标进行跟踪,相对于稳定跟踪方法则鲜有研究。然而,在实际工程应用中,对目标的长久稳定跟踪则更受关注。
发明内容
本发明旨在解决上述问题,提供一种复杂背景下目标稳定跟踪方法。
本发明所述一种复杂背景下运动目标检测与跟踪方法,该方法如下:
获取当前帧图像;
对获取的当前帧图像进行检测,获得满足预设条件的检测目标信息;在当前帧图像上以跟踪目标所在位置为中心,选取候选区域;利用分类器模型在候选区域中获取候选目标所对应的目标位置;
判断候选目标是否为跟踪目标:
若为跟踪目标,则用当前帧图像中跟踪目标的坐标信息进行跟踪,更新分类器模型,完成视频图像中目标的检测和跟踪;
若不是跟踪目标,则判断候选目标出现的异常类型情况,进入下一帧图像进行目标检测;在下一帧图像中对候选目标进行目标检测,对检测到的候选目标与其上一帧图像中的跟踪目标进行目标一致性判断,挑选满足判断条件的候选目标作为跟踪目标,并更新分类器模型,完成视频图像中目标的检测和跟踪。
本发明所述一种复杂背景下运动目标检测与跟踪方法,该方法如下:
获取当前帧图像;
对当前帧图像进行检测,获得满足预设条件的检测目标信息,所述预设条件包括长宽比和占空比;
在当前帧图像上以跟踪目标所在位置为中心,以目标大小的2-5倍的范围选取候选区域;
用分类器模型求取候选区域的响应图,获得响应图中的最大响应值,该最大响应值所在位置即为候选目标所对应的目标位置;
判断候选目标是否为跟踪目标,若为跟踪目标,则用当前帧图像中跟踪目标的坐标信息进行跟踪,更新分类器模型;若不是跟踪目标,则判断候选目标出现遮挡、丢失或者模糊情况,进入下一帧图像进行目标检测;
在下一帧图像中对候选目标进行目标检测,对检测到的候选目标与其上一帧图像中的跟踪目标进行目标一致性判断,挑选满足判断条件的候选目标作为跟踪目标,并更新分类器模型。
重复上述方法,实现持续完成视频图像中目标的检测和跟踪。
对当前帧图像进行检测的方法借助深度学习目标检测分类器模型完成,检测方法如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安天和防务技术股份有限公司,未经西安天和防务技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810451272.1/2.html,转载请声明来源钻瓜专利网。





