[发明专利]一种视觉追踪方法、装置、计算机设备以及介质有效
| 申请号: | 201811268263.5 | 申请日: | 2018-10-29 |
| 公开(公告)号: | CN111104831B | 公开(公告)日: | 2023-09-29 |
| 发明(设计)人: | 闫振斌;廖少毅;陈欣然;徐瑀婧 | 申请(专利权)人: | 香港城市大学深圳研究院 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246;G06V10/774;G06V20/70;G06V10/764;G06N3/045;G06N3/048;G06N3/08 |
| 代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 王涛;任默闻 |
| 地址: | 518057 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 视觉 追踪 方法 装置 计算机 设备 以及 介质 | ||
本发明提供一种视觉追踪方法、装置、计算机设备以及介质,该方法处理视频初始帧中给定的追踪对象框,得到样本数据和标签数据;利用所述样本数据和标签数据对预建立的视频追踪网络模型进行训练;利用训练后的视频追踪网络模型标定所述视频的后续帧中的追踪对象,其中,在样本分类和模型训练时,将网络顶层特征图划分为不同置信度等级的区域,将不同置信度等级的区域以权重方式组合起来,进行样本分类和模型训练,以此强化高置信度等级区域,实现模型的快速训练和精确跟踪,进而自动追踪视频图像中不断移动变化的物体,并且能适应不同的应用场景。
技术领域
本发明涉及图像处理领域,尤其涉及一种视觉追踪方法、装置、计算机设备以及介质。
背景技术
视觉追踪系统可从摄像头采集的原始视频中,自动发现并追踪选定的目标,该系统为计算机视觉领域的基础性技术之一,在无人驾驶、机器人、安防监控等中得到广泛应用。
目前,视觉追踪技术主要采用统计学模型自动生成一个物体表示,但是生成的统计学模型固定,只能适应单一的应用场景;而且需要使用大量密集人工标注的视频作为训练依据,但人工标注过于复杂、成本也高,导致采用大量学习样本构造高性能视觉追踪系统难以取得大规模商业应用。
发明内容
本发明提供一种视觉追踪方法,解决现有视觉追踪技术只能适应单一的应用场景,需要使用大量密集人工标注的视频作为训练依据的问题,利于视觉追踪技术的广泛应用。
为解决上述技术问题,本发明采用如下技术方案:
第一方面,提供一种视觉追踪方法,包括:
处理视频初始帧中给定的追踪对象框,得到样本数据和标签数据;
利用所述样本数据和标签数据对预建立的视频追踪网络模型进行训练;
利用训练后的视频追踪网络模型标定所述视频的后续帧中的追踪对象。
进一步地,所述样本数据包括:正集样本及负集样本;所述标签数据由所述正集样本对应的标签及所述负集样本对应的标签组成;
所述处理视频初始帧中给定的追踪对象框,得到样本数据和标签数据,包括:
在所述给定的追踪对象框的周围区域选取多个样本框;
计算所述样本框与所述给定的追踪对象框的交并比;
根据所述交并比从多个样本框中提取正集样本框和负集样本框;
其中,所述正集样本框和给定的追踪对象框组成所述正集样本,所述负集样本框组成所述负集样本。
进一步地,所述计算所述样本框与所述给定的追踪对象框的交并比,包括:
计算所述样本框与所述给定的追踪对象框的交集面积和并集面积;
利用所述交集面积除以所述并集面积得到所述交并比。
进一步地,所述根据所述交并比从多个样本框中提取正集样本框和负集样本框,包括:
将所述交并比与第一预设阈值和第二预设阈值进行比较,其中,所述第一预设阈值大于所述第二预设阈值;
当所述交并比大于第一预设阈值时,将对应样本框划分为正集样本框;
当所述交并比小于第二预设阈值时,将对应样本框划分为负集样本框。
进一步地,所述预建立的视频追踪网络模型包括:预训练的特征提取网络、网络学习训练模块以及计算输出模块;所述网络学习训练模块包括:深度学习网络、置信度等级划分模块、分类器、判断模块、训练器;
所述利用所述样本数据和标签数据对预建立的视频追踪网络模型进行训练,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于香港城市大学深圳研究院,未经香港城市大学深圳研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811268263.5/2.html,转载请声明来源钻瓜专利网。
- 上一篇:集成式油位控制装置和变速器
- 下一篇:一种系统推荐方法、终端及可读存储介质





