[发明专利]基于优化方差下降的计算机视觉单目标跟踪方法有效
申请号: | 202010312961.1 | 申请日: | 2020-04-20 |
公开(公告)号: | CN111539989B | 公开(公告)日: | 2023-09-22 |
发明(设计)人: | 邢薇薇;杨宇翔;张顺利;于淇;张健 | 申请(专利权)人: | 北京交通大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/0464;G06N3/09;G06N3/092 |
代理公司: | 北京市万慧达律师事务所 11111 | 代理人: | 赵赫文 |
地址: | 100044 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 优化 方差 下降 计算机 视觉 目标 跟踪 方法 | ||
1.一种基于优化方差下降的计算机视觉单目标跟踪方法,其特征在于,包括:
步骤S1、根据单目标跟踪问题设计基于非凸优化的随机方差下降梯度的深度神经网络模型,使用图片数据集对所述深度神经网络模型进行监督训练,得到训练好的深度神经网络模型,具体包括:
S1.1、根据单目标跟踪问题设计基于非凸优化的随机方差下降梯度的深度神经网络模型,该深度神经网络模型包括四层卷积层和两层全连接层;
基于非凸优化的随机方差下降梯度的监督学习方式训练所述深度神经网络模型,初始化深度神经网络模型的参数其中θ表示网络参数,s表示第s轮网络训练,m表示每一轮训练数据量;
S1.2、根据当前轮s训练得到的梯度并赋值给在当前轮s的网络参数θs基础上,计算下一轮s+1的网络参数θs+1,计算公式如下:
公式中,B表示批量大小,η表示步长,t表示第t个批量,v表示中间网络参数变量,x表示当前目标特征;表示前s轮训练得到的梯度,表示下一轮s+1网络参数中的目标特征梯度变化量;
S1.3、根据网络设定的有监督训练轮数,最终获得经过数据监督训练后的深度神经网络的网络参数;
S1.4、在S1.3中获得的深度神经网络的网络参数的基础上,初始化深度神经网络的网络参数s表示第s轮网络训练,m表示每一轮训练数据量;
S1.5、基于非凸优化的随机方差下降梯度的强化学习方式训练初始化后的深度网络模型;
根据当前轮s训练得到的梯度并赋值给在当前轮s的网络参数θs基础上,计算下一轮s+1的网络参数θs+1,计算公式如下:
公式中,B表示批量大小,η表示步长,t表示第t个批量,v表示中间网络参数变量,x表示当前目标特征,ω是修正系数;
S1.6、经过网络设定的有监督训练轮数,获得经过数据监督训练后的深度神经网络模型;
步骤S2、根据所述训练好的深度神经网络模型使用基于回归动作奖励函数的强化学习方法训练表观模型与运动模型;
步骤S3、利用训练好的表观模型、运动模型和深度神经网络模型对当前环境下的单目标进行跟踪,采用具有拓展模型探索能力的自适应探索策略计算得到跟踪目标的预测位置和尺度;
步骤S4、根据当前跟踪目标的位置和目标特征进行表观模型以及运动模型更新,利用更新后的表观模型与运动模型使用深度神经网络模型进行下一帧的目标跟踪,直至跟踪结束。
2.根据权利要求1所述的方法,其特征在于,所述深度神经网络模型中的每层卷积层结构的长宽和通道数依次为112*112*3、51*51*96、11*11*256、3*3*512,用于网络卷积特征提取;每层全连接层结构的是长宽和通道数依次为1*1*512、1*1*(512+mk),其中mk为额外特征信息量,用于跟踪目标预测。
3.根据权利要求1所述的方法,其特征在于,所述的步骤S2具体包括:
S2.1、基于回归思想设计强化学习下的动作评价函数计算公式如下:
其中pj表示生成的样本位置,a表示模型预测动作,f(pj,a)表示位移后的预测位置,G表示真实位置,
S2.2、通过优化的非凸随机方差下降梯度方法,根据所述动作评价函数设计表观模型和运动模型的网络损失函数LSL,计算公式如下:
其中m表示批量大小,L1表示交叉熵损失函数,L2是平方损失函数;
S2.3、训练好的深度神经网络包含初始化的表观模型和运动模型,所述表观模型用于对目标表观特征进行刻画,所述运动模型用于对目标运动特征进行刻画,使用基于回归动作奖励函数的强化学习方法利用所述网络损失函数LSL训练初始化的表观模型与运动模型,得到训练好的表观模型与运动模型;
设计表观模型与运动模型的参数更新函数ΔWRL,计算公式如下:
其中Zt,l表示目标位置评价函数,L表示帧数,Tl表示第l帧时更新的次数,目标位置评价函数根据当前跟踪结果给出评价值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京交通大学,未经北京交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010312961.1/1.html,转载请声明来源钻瓜专利网。