[发明专利]一种基于连续吸引子神经网络的在线目标跟踪方法有效
| 申请号: | 201510785470.8 | 申请日: | 2015-11-16 | 
| 公开(公告)号: | CN105469423B | 公开(公告)日: | 2018-06-22 | 
| 发明(设计)人: | 吴思;高奇;弭元元;林小涵;夏燕 | 申请(专利权)人: | 北京师范大学 | 
| 主分类号: | G06T7/20 | 分类号: | G06T7/20;G06N3/06 | 
| 代理公司: | 北京汲智翼成知识产权代理事务所(普通合伙) 11381 | 代理人: | 陈曦;贾兴昌 | 
| 地址: | 100875 北*** | 国省代码: | 北京;11 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 目标跟踪 预测位置 吸引子 神经网络 输入矩阵 网络 神经网络模型 神经元状态 实时性要求 关键参数 接收监控 网络状态 参数域 后续帧 有效地 跟踪 整合 图像 重复 更新 | ||
本发明公开了一种基于连续吸引子神经网络的在线目标跟踪方法,包括如下步骤:S1,根据连续吸引子神经网络模型建立网络,根据网络状态调节神经元状态关键参数到供实际跟踪使用的参数域;S2,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵;S3,将输入矩阵作为网络的输入,输入到建立的网络中;S4,使网络演化时间阈值长度,得到目标的预测位置;S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧整合目标的预测位置,继续跟踪。该方法在目标跟踪过程中根据目标的预测位置实时对网络进行调整,有效地满足了对目标跟踪的准确性和实时性要求。
技术领域
本发明涉及一种目标跟踪方法,尤其涉及一种基于连续吸引子神经网络的在线目标跟踪方法,属于机器视觉技术领域。
背景技术
随着计算机技术的飞速发展,目标跟踪技术作为计算机视觉领域的基础步骤,广泛应用于交通管制、医疗诊断、人机交互以及军事侦察等领域;通过目标跟踪技术,系统可以在连续的图像序列中,自动且快速得获取目标在视频或图像中的位置、大小和形状等信息。
目标跟踪技术在过去一些年被广泛的研究,但涉及不同的应用场景时所需求或使用的跟踪算法大不相同。目前,在视频监控、视频压缩、人机交互等多个领域,目标跟踪技术都展现了广阔的应用空间和前景。而现有的目标跟踪方法一般为:选取一帧无运动目标的图像作为背景图像,对于当前获取的一帧图像,将该帧图像与背景图像相减,得到该帧图像包括的每个像素点分别与在背景图像中对应的像素点之间的差值,获取差值大于预设阈值的像素点,然后由此来判定获取的像素点为出现在运动目标上的像素点,根据获取的像素点确定目标的位置、大小和形状。现有的目标跟踪方法可以有效提取运动目标的信息,但是常常噪音较大,限制了跟踪算法的准确性。而且,对背景图像的准确性要求非常高,当外部环境变化时,背景图像将发生变化,很可能丢失目标,除此之外,在目标跟踪过程中不能根据目标的预测位置进行实时调整,严重限制了对目标跟踪的准确性和实时性。
为了解决上述问题,考虑将日渐成熟的生物神经网络引入到目标跟踪的方法中。生物神经网络中的连续吸引子神经网络,是一种循环神经网络。作为一种基本生物神经网络模型,被提出已有多年,目前可以较好的阐释包括跟踪在内的多种生物神经机制。
负反馈调节机制,是一种广泛存在于实际神经网络活动中的机制。研究表明,整合负反馈调节机制,可以对多种神经网络模型的活动产生影响。尤其是,整合负反馈调节机制的连续吸引子网络,增强了其原有的跟踪特性。
但到目前为止,还没有将生物神经网络跟踪机制应用于实际目标跟踪的实例,以实现对在线目标的实时跟踪。
发明内容
针对现有技术的不足,本发明所要解决的技术问题在于提供一种基于连续吸引子神经网络的在线目标跟踪方法。
为实现上述发明目的,本发明采用下述的技术方案:
一种基于连续吸引子神经网络的在线目标跟踪方法,包括如下步骤:
S1,根据连续吸引子神经网络模型建立网络,根据网络状态调节神经元状态关键参数,使所述神经元状态关键参数在供实际跟踪使用的参数域内;
S2,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵;
S3,将输入矩阵作为网络的输入,输入到建立的网络中;
S4,使网络演化时间阈值长度,得到目标的预测位置;
S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧中整合目标的预测位置,对目标位置继续跟踪。
其中较优地,在步骤S1中,根据连续吸引子神经网络模型建立网络,包括如下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京师范大学,未经北京师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510785470.8/2.html,转载请声明来源钻瓜专利网。





