[发明专利]一种基于结构化逐像素目标注意机制的目标跟踪方法有效
申请号: | 202010896415.7 | 申请日: | 2020-08-31 |
公开(公告)号: | CN111951297B | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 张焕龙;陈青华;于俊洋;程利云;张杰;史坤峰;安小宇;杨光露;陈宜滨;孔汉 | 申请(专利权)人: | 郑州轻工业大学 |
主分类号: | G06T7/215 | 分类号: | G06T7/215;G06T7/13;G06T7/90;G06N3/04 |
代理公司: | 郑州优盾知识产权代理有限公司 41125 | 代理人: | 张真真 |
地址: | 450002 *** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 结构 像素 目标 注意 机制 跟踪 方法 | ||
1.一种基于结构化逐像素目标注意机制的目标跟踪方法,其特征在于,其步骤如下:
步骤一、根据初始帧图像中目标的位置信息,在初始帧图像中截取包含背景的图像,并将含背景的图像分为目标图像和背景图像;
步骤二、分别将目标图像和背景图像转化至HSV颜色空间,利用标准Epanechnikov核函数提取目标图像的颜色直方图HO,利用标准方法提取背景图像的颜色直方图HB;
步骤三、提取目标图像的特征图,并对特征图进行求解获得记忆器;
S31、将目标图像输入VGG-16网络,分别输出VGG-16网络中的conv4-3层的第一特征图和conv4-1层的第二特征图,然后利用梯度,从特征图中保留固定数量的滤波器得到目标图像的特征图;
S32、提取目标图像的标准HOG特征和Colornames特征;
S33、根据标准HOG特征和Colornames特征构建记忆器模型对应的目标函数,通过求解目标函数的最优解得到目标图像对应的记忆器;
步骤四、获取下一帧图像作为当前处理图像,根据上一帧图像的目标位置信息截取当前处理图像的搜索区域图像;
步骤五、利用目标图像的颜色直方图HO、背景图像的颜色直方图HB和贝叶斯法则对搜索区域图像进行计算得到逐像素目标概率图;
计算空间逐像素目标概率图m,其中,每个元素m∈{0,1}表示每个像素的目标概率;通过贝叶斯法则计算在在外观条件y下位置l处目标概率为:
其中,p(m∈O|y,l)表示每个像素属于目标的概率,p(y|m∈O)表示目标图像的似然矩阵,p(y|m∈S)表示背景图像的似然矩阵;
p(m∈O)=k(l;σ),
其中,k(l;σ)为修正的Epanechnikov核,k(r;σ)=1-(r/σ)2,σ为卷积核的尺寸参数,r表示位置l处像素与中心像素的距离;
步骤六、根据帧间运动信息,利用余弦分布作为时间结构化约束生成的结构化目标概率图,并将逐像素目标概率图和结构化目标概率图进行线性组合获得结构化逐像素目标概率图;
步骤七、将搜索区域图像输入VGG-16网络,分别输出VGG-16的conv4-3和conv4-1层的搜索区域特征,并将搜索区域特征和特征图输入相似性比较网络,通过相似性计算获得搜索区域的得分图;
步骤八、将搜索区域的得分图与结构化逐像素目标概率图相加得到当前处理图像的最终响应图,将最终响应图中响应值的最大值处为当前处理图像的目标位置;
步骤九、截取当前处理图像的目标区域图像作为跟踪结果,并将跟踪结果输入记忆器得到跟踪结果的置信度,判断置信度是否大于稳定阈值,若是,执行步骤十,否则,返回步骤四,直至视频结束;
步骤十、根据跟踪结果截取目标图像及目标周围的背景图像,分别提取目标图像和背景图像的颜色直方图,更新目标图像的颜色直方图HO与背景图像的颜色直方图HB,同时更新记忆器,返回步骤四,直至视频结束。
2.根据权利要求1所述的基于结构化逐像素目标注意机制的目标跟踪方法,其特征在于,所述记忆器模型对应的目标函数为:
其中,fd是具有d个通道的特征图,是具有Nd个通道的特征图,hd是与特征图相对应的记忆器,是与特征图相对应的记忆器,g是期望输出,λ是正则化参数。
3.根据权利要求1所述的基于结构化逐像素目标注意机制的目标跟踪方法,其特征在于,所述结构化逐像素目标概率图为:
其中,mc表示结构化逐像素目标概率图,ms表示利用结构化信息生成的结构化目标概率图,Tm表示逐像素目标概率的最大值,Tc表示给定阈值,α表示加权系数。
4.根据权利要求3所述的基于结构化逐像素目标注意机制的目标跟踪方法,其特征在于,所述最终响应图为:
其中,z为搜索区域图像,x目标图像,f(x,z)为最终响应图,表示提取输入图像特征操作,corr(·)表示互相关操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郑州轻工业大学,未经郑州轻工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010896415.7/1.html,转载请声明来源钻瓜专利网。