[发明专利]基于凝视卫星复杂场景的飞机动目标跟踪方法有效
| 申请号: | 201811248505.4 | 申请日: | 2018-10-25 |
| 公开(公告)号: | CN109446978B | 公开(公告)日: | 2022-01-07 |
| 发明(设计)人: | 宿南;闫奕名;张宇墨;王立国;赵春晖 | 申请(专利权)人: | 哈尔滨工程大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 凝视 卫星 复杂 场景 飞机 目标 跟踪 方法 | ||
本发明涉及一种基于凝视卫星复杂场景的飞机动目标跟踪方法,包括以下步骤:输入视频数据;将第1帧分别与第xi1帧、第xi2帧、第xi3帧三次差分并累加;利用形态学滤波开运算处理消除融合后图像差值小处,得到潜在变化区域;选择更快的基于区域卷积神经网络作为检测网络,输入图像经过卷积层生成特征图,得到候选区域,进行分类以及候选区域微调得到检测网络;在视频首帧以变化区域为中心,提取w×h图像并利用检测网络进行目标检测,得到飞机动目标;使用多通道颜色特征算法对检测到飞机动目标进行跟踪,根据目标位置取出该帧目标窗和下一帧目标窗,对这两个窗进行快速傅里叶变换,转化后在频域图直接点乘。本发明能实现全自动的对飞机动目标实施跟踪。
技术领域
本发明涉及一种动目标跟踪方法,特别是一种基于凝视卫星复杂场景的飞机动目标跟踪方法,属于遥感视频目标跟踪优化技术领域。
背景技术
基于视频的运动目标跟踪技术作为计算机视觉领域的核心研究课题之一,通过对摄像头捕捉到的图像序列进行分析,计算出运动目标在每一帧图像中的二维坐标位置,并将图像序列中连续帧间的同一运动目标关联起来,从而得到各个运动目标完整的运动轨迹,即在连续的视频序列中建立运动目标的对应关系。
卫星凝视视频是近年卫星载荷发展的新型遥感数据,星上目标实时跟踪处理的需求也应运而生。卫星视频数据覆盖范围大,地物背景复杂多变,为目标检出增加了困难,单帧图像数据量大,也为实时处理制造了难度。因此,在复杂地物背景场景下,且在覆盖范围存在众多静态飞机目标的干扰中,仅对移动的飞机目标进行准确定位并实时跟踪是相当困难的。现有跟踪算法的方法需要人工给定首帧的待跟踪目标坐标,而显然星上的实时处理无法进行有效、及时的人机交互。本发明通过研究凝视卫星视频特点,引入遥感图像变化检测、目标检测、目标跟踪的处理算法,实现卫星凝视视频数据的全自动目标跟踪。此方法可以为之后的星上动目标自动跟踪提供有力支撑。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种能够在现有的复杂场景下在众多飞机中对动目标进行准确定位并实时跟踪的基于凝视卫星复杂场景的飞机动目标跟踪方法。
为了解决上述技术问题,本发明基于凝视卫星复杂场景的飞机动目标跟踪方法,包括以下步骤:
步骤一、输入视频数据;
步骤二、提取潜在变化区域:对视频进行帧间差分处理,将第1帧分别与第Xi1帧、第Xi2帧、第Xi3帧三次差分并将结果累加;
步骤三、优化潜在变化区域:利用形态学滤波的开运算处理,消除融合后图像差值小处,并得到准确的潜在变化区域;
步骤四、训练飞机检测网络:选择更快的基于区域卷积神经网络作为检测网络,输入图像经过卷积层生成特征图,通过区域推荐网络得到候选区域,然后进行分类以及候选区域微调得到检测网络;
步骤五、检测动目标:在视频首帧,以步骤三得到的变化区域为中心,提取w×h的图像并利用步骤四所得检测网络对此图像进行目标检测,得到飞机动目标;
步骤六、飞机动目标跟踪:使用多通道颜色特征算法对步骤五检测到的飞机动目标进行跟踪,在确定跟踪对象后,根据目标位置取出该帧的目标窗和下一帧的目标窗,再对这两个窗进行快速傅里叶变换,转化后在频域图直接点乘。
本发明基于凝视卫星复杂场景的飞机动目标跟踪方法还包括:
1.步骤六所述多通道颜色特征算法使用主成分分析降维,11个通道通过降维矩阵降至2维。
2.步骤二所述帧间差分处理满足:若相减两帧图像的帧数分别为第k帧,第(k+1)帧,其帧图像分别为fk(x,y),fk+1(x,y),差分图像二值化阈值为T,差分图像用D(x,y)表示,则帧间差分法的公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811248505.4/2.html,转载请声明来源钻瓜专利网。





