[发明专利]对象跟踪方法及装置有效
申请号: | 201610305056.7 | 申请日: | 2016-05-10 |
公开(公告)号: | CN107358621B | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 田秀霞;彭源 | 申请(专利权)人: | 腾讯科技(深圳)有限公司;上海电力学院 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 11138 北京三高永信知识产权代理有限责任公司 | 代理人: | 刘映东 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对象 跟踪 方法 装置 | ||
本发明公开了一种对象跟踪方法及装置,属于图像处理技术领域。所述方法包括:获取对前一图像帧中的对象的第一跟踪结果;利用预设算法,根据所述第一跟踪结果计算所述对象在当前图像帧中的第二跟踪结果,所述预设算法是根据压缩跟踪CT算法、时空上下文STC算法和跟踪‑学习‑检测TLD算法融合后得到的,使得终端可以通过预设算法来对图像中的对象进行更精确的跟踪,解决了CT算法无法识别出大小发生变化的对象、STC算法易受图像背景影响错误地跟踪到背景区域及TLD算法容易跟踪到与对象相似的物体上的问题,达到了提高跟踪对象的准确性的效果。
技术领域
本发明涉及图像处理技术领域,特别涉及一种对象跟踪方法及装置。
背景技术
当需要对视频记录的对象进行跟踪时,可以由用户向终端指定需要跟踪的对象,再由终端采用预定算法实现对该对象的跟踪。其中,预定算法可以是CT(CompressiveTracking,压缩跟踪)算法或STC(Spatio-Temporal Context,时空上下文)算法或TLD(Tracking-Learning-Detection,跟踪-学习-检测)算法。
其中,CT算法提取对象的特征作为更新朴素贝叶斯分类器的正样本,提取背景的特征作为更新朴素贝叶斯分类器的负样本,利用朴素贝叶斯分类器去分类下一图像帧的对象和背景。STC算法通过贝叶斯框架对需要跟踪的对象和其局部上下文区域的时空关系建立时空上下文模型,得到对象和其局部上下文区域的特征的统计相关性,根据该统计相关性来评估下一图像帧中对象出现位置的置信图,置信度最大的位置为对象的位置。TLD算法将跟踪分解为跟踪、学习和检测三个过程,跟踪过程采用lk光流法实现,其在光流矢量恒定、运动平缓且目标变化不大的前提下跟踪较为准确,当不满足这个前提时,有可能跟踪不到对象;检测过程采用级联分类器根据正样本和负样本查找对象;P-N学习过程能够识别出和原始对象的外观差异较大的对象以及和对象较为相似的背景,并利用学习结果更新检测过程。
CT算法无法识别出大小发生变化的对象。STC算法容易受背景的影响而跟踪到背景区域,且不适应于对象快速运动的场景。TLD算法对对象外观的变化较为敏感,且容易跟踪到与对象相似的物体上。
发明内容
为了解决无法准确跟踪对象的问题,本发明实施例提供了一种对象跟踪方法及装置。所述技术方案如下:
第一方面,提供了一种对象跟踪方法,该方法包括:
获取对前一图像帧中的对象的第一跟踪结果;
利用预设算法,根据第一跟踪结果计算对象在当前图像帧中的第二跟踪结果,预设算法是根据CT算法、STC算法和TLD算法融合后得到的。
第二方面,提供了一种对象跟踪装置,该装置包括:
获取模块,用于获取对前一图像帧中的对象的第一跟踪结果;
计算模块,用于利用预设算法,根据所述获取模块获取的所述第一跟踪结果计算所述对象在当前图像帧中的第二跟踪结果,所述预设算法是根据CT算法、STC算法和TLD算法融合后得到的。
本发明实施例提供的技术方案的有益效果是:
通过融合CT算法、STC算法和TLD算法,根据前一图像帧中的对象的第一跟踪结果来计算该对象在当前图像帧中的第二跟踪结果,使得终端可以通过预设算法来对图像中的对象进行更精确的跟踪,解决了CT算法无法识别出大小发生变化的对象、STC算法易受图像背景影响错误地跟踪到背景区域及TLD算法容易跟踪到与对象相似的物体上的问题,达到了提高跟踪对象的准确性的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司;上海电力学院,未经腾讯科技(深圳)有限公司;上海电力学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610305056.7/2.html,转载请声明来源钻瓜专利网。