[发明专利]一种基于深度学习的自适应粒子滤波目标跟踪方法有效
申请号: | 201711337098.X | 申请日: | 2017-12-14 |
公开(公告)号: | CN108182447B | 公开(公告)日: | 2020-04-21 |
发明(设计)人: | 钱小燕;韩磊;王跃东;张艳琳;张代浩 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 王安琪 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 自适应 粒子 滤波 目标 跟踪 方法 | ||
本发明公开了一种基于深度学习的自适应粒子滤波目标跟踪方法,包括如下步骤:(1)建立浅层深度学习网络模型,采用SGD算法离线训练该模型;(2)将训练好的网络应用于粒子滤波跟踪框架,对于每一个粒子,采用深度特征和颜色表观特征求解观测模型;根据一阶二阶运动信息求解状态转移模型;(3)根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置;(4)计算目标当前状态,判定状态变化程度,实时更新观测模型。本发明提供一种基于深度学习的自适应粒子滤波目标跟踪方法,能够解决现有目标跟踪中快速运动、背景复杂等问题,从而实现连续鲁棒的跟踪。
技术领域
本发明涉及粒子滤波目标跟踪技术领域,尤其是一种基于深度学习的自适应粒子滤波目标跟踪方法。
背景技术
视频目标跟踪已经成为计算机视觉领域的一个前沿研究热点。其主要任务就是获取视频序列中感兴趣的目标的位置和运动信息,为进一步的语义层分析提供基础。视频目标跟踪研究在智能视频监控、人机交互、医学诊断等领域有广泛应用,具有很强的实用价值。
跟踪算法可分为判别型和生成型。判别型方法将跟踪问题建模为一个二元分类问题,用以区分目标和背景。生成型方法通过建立目标表示模型,通过最小重构误差搜索图像区域。这两类方法大多直接使用视频序列中的像素值进行建模,需要根据不同视频序列设计特征提取方法,当跟踪过程中出现严重遮挡、快速运动、复杂背景等较大挑战时,往往无法实现持续稳定的跟踪。而近年来开始广泛应用于计算机视觉领域的深度学习方法有利于处理这些问题。Fan等人选择卷积神经网络进行视觉跟踪,利用大量的辅助图像训练网络;Li等人以及Hong等人以在线的方式对跟踪过程中产生的样本进行训练。由于卷积神经网络规模较大,需要多级池化和卷积来降低参数的数目,获得良好的图像深层视觉特征的学习能力,因此往往需要大量训练样本才能生成权值稳定的深度学习网络。跟踪过程中产生的有限正负样本不能很好地满足这一要求;另外,多级池化作用削弱了目标位置信息,不利于实现精确跟踪。
发明内容
本发明所要解决的技术问题在于,提供一种基于深度学习的自适应粒子滤波目标跟踪方法,能够解决现有目标跟踪中快速运动、背景复杂等问题,从而实现连续鲁棒的跟踪。
为解决上述技术问题,本发明提供一种基于深度学习的自适应粒子滤波目标跟踪方法,包括如下步骤:
(1)建立浅层深度学习网络模型,采用SGD算法离线训练该模型;
(2)将训练好的网络应用于粒子滤波跟踪框架,对于每一个粒子,采用深度特征和颜色表观特征求解观测模型;根据一阶二阶运动信息求解状态转移模型;
(3)根据观测模型,计算每个粒子的权值参数,通过加权平均确定当前目标位置;
(4)计算目标当前状态,判定状态变化程度,实时更新观测模型。
优选的,步骤(1)中,建立浅层深度学习网络模型,采用SGD算法离线训练该模型具体为:采用两个5ⅹ5的卷积核f1,f2通过sigmoid函数提取深层语义特征:其中,Convx代表卷积层Conv1和Conv2;b1、b2为偏置,S1、S2分别代表输入样本Input和第一层池化输出。Subsampling1、Subsampling2为池化层:通过邻域像素特征的加权平均获得当前池化层各像素特征值,从而降低特征维数,减少数据量,其中sum=a1p(i,j)+a2p(i,j+1)+a3p(i+1,j)+a4p(i+1,j+1),p′(i,j)表示当前池化层的像素值,a1,a2,a3,a4为加权系数;FC为全连接层,将Subsampling2输出特征值连接成1ⅹ60的特征向量;SVM分类器在离线训练时识别前景Foreground和背景Background。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711337098.X/2.html,转载请声明来源钻瓜专利网。