[发明专利]基于一维卷积神经网络的雷达目标多普勒像分类识别方法有效
| 申请号: | 201911254099.7 | 申请日: | 2019-12-10 |
| 公开(公告)号: | CN111220958B | 公开(公告)日: | 2023-05-26 |
| 发明(设计)人: | 金钰;赵永亮 | 申请(专利权)人: | 西安宁远电子电工技术有限公司 |
| 主分类号: | G01S7/41 | 分类号: | G01S7/41;G06F18/241;G06N3/0464;G06N3/048;G06N3/084;G06N3/08 |
| 代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 刘新琼 |
| 地址: | 710065 陕西省西安*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 雷达 目标 多普勒 分类 识别 方法 | ||
本发明涉及一种基于一维卷积神经网络的雷达目标多普勒像分类识别方法,本发明通过雷达设备采集到原始回波数据,经过脉冲压缩、动目标检测得到包含目标和杂波的每帧数据,根据不同目标的多普勒差异性,提取出目标所在距离单元内的一维多普勒像,构成数据集;设计一维卷积神经网络模型,对模型参数进行初始化;通过前向传播和后向传播过程训练网络,并计损失函数;迭代训练直到损失函数收敛或者达到最大次数,训练结束得到一维卷积神经网络模型。
技术领域
本发明属于雷达技术领域,特别涉及一种基于一维卷积神经网络的目标分类识别方法,利用雷达目标回波的多普勒信息,在信号级上做处理,可用于对速度高分辨的雷达目标进行分类识别。
背景技术
雷达的原意是一种无线电探测装置,最初的功能是对目标进行探测和测距。当目标在雷达视线方向有着相对速度并被雷达照射到时,雷达反射波的载频会发生调制现象,这种现象称为多普勒频移,载频的偏移量就是目标的多普勒频率。同时,如果目标除了自身的平动外还有其他部件相对于自身平动的摆动、转动等微运动,这些微运动会产生目标多普勒频率附近的副边带,这些副边带被称为微多普勒频率。在动目标检测之后的多普勒频谱中,可以很清晰的看出目标的主峰,及主峰所在同一距离单元周边的微多普勒信息,反映了目标各部分结构速度的波动的情况,因此利用雷达回波信号中的多普勒信息可对雷达目标进行分类识别。
传统雷达目标分类识别流程复杂,需要人工先提取目标特征,利用现有的机器学习方法中的分类算法对特征进行分类识别,花费时间长且不准确,效率低。近年来,随着人工智能的兴起与蓬勃发展,深度学习在智能信号处理领域得到了越来越广泛的研究与应用。其中卷积神经网络在图像识别、目标检测方面具有巨大的优势。卷积神经网络的特征学习更丰富,表达能力更强,它的局部连接和权值共享特性,降低了模型的复杂度并且减少权值的数量,有效的保留了结构信息,并且能够通过卷积核自动的提取特征,实现良好的目标识别功能,获得较高的识别准确率。
因此,本发明研究一种基于一维卷积神经网络的雷达目标多普勒像分类识别方法,探讨如何在低成本的雷达上面,做有效的高性能的目标识别。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于一维卷积神经网络的雷达目标多普勒像分类识别方法,实现目标特征提取和目标识别一体化,降低人工参与所带来的盲目性和不确定性,提高雷达目标分类识别的准确率。
技术方案
一种基于一维卷积神经网络的雷达目标多普勒像分类识别方法,利用雷达回波信号中的多普勒信息,通过一维卷积神经网络,实现目标特征提取和识别一体化;其特征在于步骤如下:
步骤1:对雷达回波数据进行脉冲压缩、动目标检测之后得到距离-多普勒-幅值数据,提取目标所在距离单元内的一维多普勒数据,划分为训练集和测试集,并使用one-hot编码格式对所有数据进行标记;
所述的脉冲压缩处理指将发射的宽脉冲信号压缩成窄脉冲信号,本质就是实现信号的匹配滤波;动目标检测系统是由一组相邻且部分重叠的滤波器组,覆盖整个多普勒频率范围窄带多普勒滤波器组构成;当滤波器组个数为2的整次幂时,用快速傅里叶变换算法来完成动目标检测滤波器;多普勒频移通过正交相位检波器提取,接收信号描述为:
其中a是接收信号的幅度,f0是发射信号的载频,是由于目标运动引起的接收信号上的相移,通过与下式发射信号混频:
st(t)=acos(2πf0t)
经过同步检波器I,和低通滤波器之后,I通道的输出是:
与90度相移的发射信号混频,经过同步检波器II,和低通滤波器之后,Q通道的输出是:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安宁远电子电工技术有限公司,未经西安宁远电子电工技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911254099.7/2.html,转载请声明来源钻瓜专利网。





