[发明专利]一种视频SAR仿真运动目标参数估计方法在审
申请号: | 202111428886.6 | 申请日: | 2021-11-29 |
公开(公告)号: | CN113960601A | 公开(公告)日: | 2022-01-21 |
发明(设计)人: | 黄佳 | 申请(专利权)人: | 南京国睿防务系统有限公司 |
主分类号: | G01S13/90 | 分类号: | G01S13/90 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 刘丰;高娇阳 |
地址: | 210019 江苏省南京市建邺区江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视频 sar 仿真 运动 目标 参数估计 方法 | ||
本发明涉及一种视频SAR仿真运动目标参数估计方法,包括:在miniSAR系统参数下,对不同参数形态的运动目标进行成像仿真;对实际采集到的视频成像结果进行分帧处理,利用图像处理知识去除图像中运动目标的信息,并与仿真的运动目标融合,构成适用于卷积神经网络训练的仿真运动目标样本;根据运动目标不同的成像形态制作不同的目标标签,然后划分训练集和测试集;构建完整的改进后Faster R‑CNN卷积神经网络;训练搭建好的改进后的Faster R‑CNN算法,利用NMS算法消除重叠的预测框,验证该算法在视频SAR仿真运动目标参数估计的有效性。本发明达到了运算量小、运算速度快、精度高的目标参数估计效果。
技术领域
本发明涉及雷达信号处理领域,尤其涉及一种视频SAR仿真运动目标参数估计方法。
背景技术
视频合成孔径雷达(简称,视频SAR)由常规SAR发展而来,继承了常规SAR的优势,同时具备对目标场景进行快速连续成像的能力。由于视频SAR系统的工作在太赫兹频段,因此对SAR系统硬件配置和整体算法效率的要求极高,而国内采用孔径重叠模式的视频SAR系统在器件、相关算法等方面的研究均比较成熟。基于上述背景,本发明参考的X波段的miniSAR系统模拟了视频SAR成像,并对该系统参数下运动目标进行仿真实验。仿真中发现,运动目标不同的径向、方位向的速度和加速度对运动目标成像的形态影响相同,难以进行参数估计。此外,当合成孔径雷达系统对地面目标进行检测时,由于运动目标回波的多普勒频谱和多普勒频率模糊,使得成像能量不聚焦,传统的运动目标估计方法难以有效估计出运动目标的参数。
近年来,基于深度学习的目标检测算法因其优秀的检测能力而备受关注,随着深度学习的不断推广,越来越多的领域开始与深度学习相结合。不少学者已经将深度学习应用到雷达领域,基于深度学习的运动目标参数估计算法具有重要研究价值。其中,FasterR-CNN算法在目标检测和分类上的效果相较其他算法更具优势。但是,针对形态较小的目标,Faster R-CNN算法的检测及分类效果没有十分理想。在传统目标参数估计运算量大且复杂度高的情况下,需要寻找新的方法来降低算法运算量,提高算法效率。
发明内容
为解决现有的技术问题,本发明提供了一种视频SAR仿真运动目标参数估计方法。
本发明的具体内容如下:一种视频SAR仿真运动目标参数估计方法,基于改进的Faster R-CNN算法,包括如下步骤:
步骤1:在miniSAR(微小型合成孔径雷达)系统参数下,利用PFA(坐标格式算法)成像算法和几何失真矫正算法对不同参数形态的运动目标进行成像仿真;
步骤2:对miniSAR系统实际采集到的视频成像结果进行分帧处理,利用图像处理知识去除miniSAR图像中运动目标的信息,并与仿真的运动目标融合,构成适用于卷积神经网络训练的仿真运动目标样本;
步骤3:根据运动目标不同的成像形态制作不同的目标标签,然后划分训练集和测试集;
步骤4:使用Resnet(残差神经网络)101作为主干特征提取器,利用K-means聚类算法和FPN结构(特征金字塔结构),增强RPN(区域生成网络)对小目标的敏感度,至此构建完整的改进后Faster R-CNN卷积神经网络;
步骤5:训练搭建好的改进后的Faster R-CNN算法,利用NMS算法(非极大值抑制算法)消除重叠的预测框,验证该算法在视频SAR仿真运动目标参数估计的有效性。
进一步的,在步骤1中,设miniSAR系统工作在圆迹聚束模式,H、R和v为雷达平台的高度、运动半径和运动速度,雷达沿轨迹方向运动,Rp为孔径中心时刻平台到运动目标的距离,运动目标的径向速度、方位向速度、径向加速度和方位向加速度分别为vx、vy、ax和ay,则合成孔径时间内,运动目标与miniSAR系统平台之间的斜距为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京国睿防务系统有限公司,未经南京国睿防务系统有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111428886.6/2.html,转载请声明来源钻瓜专利网。