[发明专利]基于计算机视觉的目标跟踪方法及系统有效
申请号: | 202210745595.8 | 申请日: | 2022-06-29 |
公开(公告)号: | CN114820716B | 公开(公告)日: | 2022-09-13 |
发明(设计)人: | 王成卓;史卓;徐哲贤;包鑫;朱程铭 | 申请(专利权)人: | 中兴软件技术(南昌)有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/73;G06N3/04;G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 何世磊 |
地址: | 330000 江西省*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 计算机 视觉 目标 跟踪 方法 系统 | ||
本发明公开了一种基于计算机视觉的目标跟踪方法及系统,该方法包括:获取目标视频的当前图像帧,采用改进的卷积神经网络模型对所述当前图像帧进行检测,输出目标位置;采用k邻域搜索算法,根据所述目标位置确定目标区域;采用所述改进的卷积神经网络模型提取所述目标区域的目标特征,并将所述目标特征融合为特征图像,所述特征图像具有所述预设维度;将所述特征图像作为长短期记忆神经网络模型的输入,通过所述长短期记忆神经网络模型对所述特征图像中目标跟踪框的坐标进行回归,以输出并显示目标跟踪框。本发明能够解决现有技术中,当跟踪的目标尺寸较小,且目标被遮挡时,目标跟踪的效果较差的技术问题。
技术领域
本发明涉及图像数据处理技术领域,特别是涉及一种基于计算机视觉的目标跟踪方法及系统。
背景技术
目标跟踪是指在视频序列中对感兴趣的目标进行有效的跟踪,通过计算机获取到视频,并对视频信息进行处理和分析,在视频图像中找到独立的运动目标,在后续的视频序列中检测出运动目标区域位置并且标记出来,为后期对目标的轨迹、行为等信息进行分析做准备。目前计算机视觉技术已广泛应用于目标跟踪的实际应用中。
在民用领域中,目标跟踪主要用于海上交通管制、空中交通管制和卫星导航、定位与监视等方面。在军事领域中,目标跟踪的主要应用包括战场监视、海洋监视、防空、空中攻击和火力控制等方面。随着科学技术的不断发展,现代跟踪环境的显著变化,各种应用系统对多目标跟踪提出了日益复杂的要求。
现有技术中,当跟踪的目标尺寸较小,且目标被遮挡时,目标跟踪的效果较差,最终导致无法有效的对目标进行跟踪。
发明内容
为此,本发明的一个实施例提出一种基于计算机视觉的目标跟踪方法,以解决现有技术中,当跟踪的目标尺寸较小,且目标被遮挡时,目标跟踪的效果较差的技术问题。
根据本发明一实施例的基于计算机视觉的目标跟踪方法,包括:
获取目标视频的当前图像帧,采用改进的卷积神经网络模型对所述当前图像帧进行检测,输出目标位置,所述改进的卷积神经网络模型由输入层、卷积层、池化层、分类器、特征融合层组成,所述改进的卷积神经网络模型使用全局平均池化的方式产生预设尺寸的特征向量,所述特征融合层通过目标卷积核先对特征图进行降维,再将不同特征图在通道上进行叠加,以生成预设维度的多粒度特征进行目标检测;
采用k邻域搜索算法,根据所述目标位置确定目标区域;
采用所述改进的卷积神经网络模型提取所述目标区域的目标特征,并将所述目标特征融合为特征图像,所述特征图像具有所述预设维度;
将所述特征图像作为长短期记忆神经网络模型的输入,通过所述长短期记忆神经网络模型对所述特征图像中目标跟踪框的坐标进行回归,以输出并显示目标跟踪框。
根据本发明实施例的基于计算机视觉的目标跟踪方法,采用改进的卷积神经网络模型对所述当前图像帧进行检测,改进的卷积神经网络模型由输入层、卷积层、池化层、分类器、特征融合层组成,不含全连接层,而使用全局平均池化的方式产生长度固定的特征向量,此外,增加了特征融合层,能够对不同粒度的特征进行了融合,提升了对输入图像尺寸的敏感性,解决了因目标过小,导致特征丢失的问题;此外,在改进的卷积神经网络模型的基础上,引入k邻域搜索算法快速根据目标位置确定目标区域,并利用长短期记忆神经网络模型对时序空间信息的表达能力,选择性的保留目标的运动特征和语义特征,降低了目标跟踪时对特征提取器的依赖,提升了目标被遮挡情况下的跟踪性能。
另外,根据本发明上述实施例的基于计算机视觉的目标跟踪方法,还可以具有如下附加的技术特征:
进一步地,在本发明的一个实施例中,所述跟踪框和所述目标区域均为矩形;
采用k邻域搜索算法,根据所述目标位置确定目标区域的步骤中,所述目标区域满足以下条件式:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中兴软件技术(南昌)有限公司,未经中兴软件技术(南昌)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210745595.8/2.html,转载请声明来源钻瓜专利网。