[发明专利]基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统有效
| 申请号: | 201810878152.X | 申请日: | 2018-08-03 |
| 公开(公告)号: | CN109191491B | 公开(公告)日: | 2020-09-08 |
| 发明(设计)人: | 邹腊梅;陈婷;李鹏;张松伟;李长峰;熊紫华;李晓光;杨卫东 | 申请(专利权)人: | 华中科技大学 |
| 主分类号: | G06T7/223 | 分类号: | G06T7/223;G06N3/04 |
| 代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智;曹葆青 |
| 地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 多层 特征 融合 卷积 孪生 网络 目标 跟踪 方法 系统 | ||
1.基于多层特征融合的卷积孪生网络的目标跟踪方法,其特征在于,该方法包括以下步骤:
(1)根据图像的目标位置和大小,裁剪出图像序列训练集中的所有图像的目标模板图像和搜索区域图像,目标模板图像和搜索区域图像组成的图像对构成训练数据集;
(2)构建基于多层特征融合的卷积孪生网络,所述基于多层特征融合的卷积孪生网络包含2个完全相同的第一分支卷积网络和第二分支卷积网络,所述第一分支卷积网络用于获取搜索区域图像的特征图,所述第二分支卷积网络用于获取目标模板图像的特征图,两分支网络在指定层特征图上有连接,目标模板图像的特征图和搜索区域图像的特征图的对应层分别做互相关运算,得到对应的得分图;
(3)基于所述训练数据集,训练所述基于多层特征融合的卷积孪生网络,获得训练好的基于多层特征融合的卷积孪生网络;
(4)使用训练好的基于多层特征融合的卷积孪生网络计算待测图像序列中图像的得分图,基于得分图进行目标跟踪;
步骤(2)包括:
搜索区域图像输入第一分支卷积网络,通过Conv1得到第一层特征图SFM1,接着通过Pool1、Conv2层得到第二层特征图SFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图SFM3;
目标模板图像输入到第二分支卷积网络,通过Conv1得到第一层特征图GFM1,接着通过Pool1、Conv2得到第二层特征图GFM2,最后通过Pool2、Conv3、Conv4、Conv5得到第三层特征图GFM3;
将目标模板特征图和搜索区域图像特征图对应层分别做互相关运算,得到对应的三张得分图SM1、SM2、SM3,公式如下:
SMi=GFMi*SFMi
其中,i分别取1、2、3,*为互相关运算。
2.如权利要求1所述的目标跟踪方法,其特征在于,步骤(1)包括:
目标模板图像的裁剪方法为:以目标区域为中心的目标矩形框,以目标区域中心位置代表目标位置,在目标矩形框四边分别扩充p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的目标图像块尺寸缩放至127×127大小;
搜索区域图像的裁剪方法为:以目标区域为中心,在目标矩形框四边分别扩充2p个像素,若矩形框超出图像边界,超出部分用图像均值像素填充,最后将裁剪的搜索区域图像块尺寸缩放至255×255大小;
其中,p=(w+h)/4,w为目标矩形框宽像素,h为目标矩形框长像素。
3.如权利要求1所述的目标跟踪方法,其特征在于,步骤(3)中构建的联合损失函数L(y,v)计算公式如下:
L(y,v)=α1L1(y,v1)+α2L2(y,v2)+α3L3(y,v3)
l(y[u],vi[u])=log(1+exp(y[u]×vi[u]))
其中,Li为得分图SMi的损失函数,y[u]表示得分图中点u的真实标签,为得分图SMi中每个点的对数损失函数,αi为得分图SMi的权重,0<α1<α2<α3≤1,Di表示得分图SMi的中所有点的集合,u为得分图中的点,ci为得分图SMi的中心点,Ri是得分图SMi的半径,ki为得分图SMi的步幅,vi[u]为得分图SMi中u点对应的值,|| ||代表欧氏距离,i=1,2,3。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810878152.X/1.html,转载请声明来源钻瓜专利网。





