[发明专利]一种基于跟踪学习检测的目标跟踪优化方法有效
| 申请号: | 201810079102.5 | 申请日: | 2018-01-26 |
| 公开(公告)号: | CN108320301B | 公开(公告)日: | 2022-03-18 |
| 发明(设计)人: | 赵亦工;李长桂 | 申请(专利权)人: | 西安电子科技大学 |
| 主分类号: | G06T7/277 | 分类号: | G06T7/277 |
| 代理公司: | 西安睿通知识产权代理事务所(特殊普通合伙) 61218 | 代理人: | 惠文轩 |
| 地址: | 710071*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 跟踪 学习 检测 目标 优化 方法 | ||
本发明公开了一种基于跟踪学习检测的目标跟踪优化方法,属于计算机视觉领域,其主要思路为:确定L帧灰度图像视频帧序列,每帧灰度图像视频帧序列中分别包含一个跟踪目标;第1帧灰度图像视频帧序列中的跟踪目标位置已知,其余L‑1帧灰度图像视频帧序列中的跟踪目标位置未知;t∈{1,2,…,L},t的初始值为1;在第t帧目标限定框中选取个均匀跟踪点,进而在第t+1帧灰度图像视频帧序列中得到第t+1帧灰度图像视频帧序列的跟踪阶段限定框tbt+1;从第t+1帧灰度图像视频帧序列中获得第t+1帧灰度图像视频帧序列的检测阶段限定框dbt+1,进而确定第t+1帧跟踪目标的最终位置;令t的值加1,直到得到第2帧跟踪目标的最终位置至第L帧跟踪目标的最终位置,并记为基于跟踪学习检测的目标跟踪优化结果。
技术领域
本发明属于计算机视觉领域,特别涉及一种基于跟踪学习检测的目标跟踪优化方法,即一种基于跟踪-学习-检测(Tracking-Learning-Detection,TLD)的目标跟踪优化方法,适用于视频帧序列中单个目标长时间的稳定跟踪。
背景技术
近些年来,目标检测和目标跟踪一直是计算视觉领域中备受瞩目的科技前沿方向,主要包括从视频帧序列中检测和识别出感兴趣的运动目标,然后持续稳定地跟踪运动目标,并对运动目标的运动状态实时进行详尽描绘;目标检测和目标跟踪涉及到人工智能、图像处理和模式识别等多领域的学科。
随着相关领域学科的飞速发展,目标检测和目标跟踪无论在民用方面还是军事方面都拥有着无可比拟的应用潜力,已经成为了一项现实生活中无法或缺的非常重要的科学技术;在经过科研工作者长达数十年的研究中,很多优秀的目标跟踪算法一一问世,例如基于粒子滤波的目标跟踪算法、基于运动目标建模的目标跟踪算法和基于卡尔曼滤波的目标跟踪算法等等,这些经典的目标跟踪算法都有自己的局限性,不能很好的适用于更广泛的场景,缺乏对目标长时间实时跟踪的能力,缺乏自我学习和自我调整的能力,随着跟踪时间的变长,跟踪效果越来越差,最终导致跟踪的失败。
目标跟踪算法TLD的提出很好的解决了视频帧序列中单目标长时间实时跟踪的问题,该算法首次将跟踪和检测结合起来,二者相互协作,相辅相成,面对复杂的跟踪场景,如遮挡、光照变化、尺度变换等有较强的抗干扰能力;当目标跟踪算法TLD跟踪失败时,重新检测能有效再次识别到跟踪目标,有效的提高了该跟踪算法的鲁棒性,此外目标跟踪算法TLD创造性的结合了跟踪和检测的结果进行在线学习,自我修正,有效的的提高了该跟踪算法长时间实时跟踪的稳定性。
目标跟踪算法TLD可以分为跟踪阶段、检测阶段和学习阶段三个阶段,跟踪阶段和检测阶段相互独立,学习阶段根据跟踪阶段和检测阶段的结果进行在线学习,不断完善和稳定目标跟踪算法TLD的跟踪能力;其中跟踪阶段和检测阶段的最终输出分别为跟踪阶段限定框和检测阶段限定框,结合跟踪阶段和检测阶段得到的最终输出称为目标限定框;目标跟踪算法TLD的鲁棒性和稳定性值得肯定,但是该算法总体的实时性一般,有待提高,特别是视频帧序列中的检测阶段,每次都要对整个灰度图像视频帧序列进行全局扫描,严重影响了检测阶段的检测速度,进而降低了整个目标跟踪算法TLD的实时性。
发明内容
针对上述现有技术存在的不足,本发明的目的在于提出一种基于跟踪学习检测的目标跟踪优化方法,该种基于跟踪学习检测的目标跟踪优化方法充分考虑了检测阶段的扫描策略,在跟踪阶段对跟踪目标进行马尔科夫预测,在检测阶段利用跟踪阶段的结果缩小扫描范围,并使用尺度等级无序的滑动窗口进行扫描,有效地提高了目标跟踪算法TLD的实时性。
为达到上述技术目的,本发明采用如下技术方案予以实现。
一种基于跟踪学习检测的目标跟踪优化方法,包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810079102.5/2.html,转载请声明来源钻瓜专利网。





