[发明专利]基于一维卷积神经网络的雷达目标多普勒像分类识别方法有效
| 申请号: | 201911254099.7 | 申请日: | 2019-12-10 |
| 公开(公告)号: | CN111220958B | 公开(公告)日: | 2023-05-26 |
| 发明(设计)人: | 金钰;赵永亮 | 申请(专利权)人: | 西安宁远电子电工技术有限公司 |
| 主分类号: | G01S7/41 | 分类号: | G01S7/41;G06F18/241;G06N3/0464;G06N3/048;G06N3/084;G06N3/08 |
| 代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 刘新琼 |
| 地址: | 710065 陕西省西安*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 雷达 目标 多普勒 分类 识别 方法 | ||
1.一种基于一维卷积神经网络的雷达目标多普勒像分类识别方法,利用雷达回波信号中的多普勒信息,通过一维卷积神经网络,实现目标特征提取和识别一体化;
其特征在于步骤如下:
步骤1:对雷达回波数据进行脉冲压缩、动目标检测之后得到距离-多普勒-幅值数据,提取目标所在距离单元内的一维多普勒数据,划分为训练集和测试集,并使用one-hot编码格式对所有数据进行标记;
所述的脉冲压缩处理指将发射的宽脉冲信号压缩成窄脉冲信号,本质就是实现信号的匹配滤波;动目标检测系统是由一组相邻且部分重叠的滤波器组,覆盖整个多普勒频率范围窄带多普勒滤波器组构成;当滤波器组个数为2的整次幂时,用快速傅里叶变换算法来完成动目标检测滤波器;多普勒频移通过正交相位检波器提取,接收信号描述为:
其中a是接收信号的幅度,f0是发射信号的载频,是由于目标运动引起的接收信号上的相移,通过与下式发射信号混频:
st(t)=acos(2πf0t)
经过同步检波器I,和低通滤波器之后,I通道的输出是:
与90度相移的发射信号混频,经过同步检波器II,和低通滤波器之后,Q通道的输出是:
形成一个复多普勒信号如下:
将信号按照模值排列、I路排列和Q路排列重新对数据进行计算,可得到去除杂波的雷达回波的每一帧数据,在目标所在的每一帧中,提取距离单元内的一维多普勒数据,构成数据集,并标记目标构建训练集和测试集,使用one-hot编码格式,对所有数据进行标记;
步骤2:构建一维卷积神经网络模型,并对模型参数进行初始化;
所述的一维卷积神经网络,包含十层,分别是四个卷积层,四个池化层,两个全连接层;使用构建好的训练集和测试集对该一维卷积神经网络进行训练;具体过程如下:
(2a)构建一维卷积神经网络的卷积层:输入网络的数据尺寸为m×m,设置卷积层包括K个卷积核,卷积核大小为F×F,填充大小步幅S,则卷积后输出的尺寸为激活函数采用σ(h)函数;其中二维卷积操作特征映射计算为:
其中X为输入的数据,W为滤波器的卷积核,b为偏置向量,H为卷积操作后得到的特征图,*表示卷积操作,i,j代表矩阵中的元素;
经过非线激活函数ReLu()输出为:
σ(H(i,j))=σ((X*W)[i,j]+b)=max(0,(X*W)[i,j]+b)
第l卷积层的输出为:
Hl=Relu(Hl-l*Wl+bl)
其中Hl为第l层的输出矩阵,Hl-1为第l-1层的输出矩阵,Wl为第l层的卷积核,bl为第l层的偏置向量;
(2b)构建一维卷积神经网络的池化层:对输入张量的各个子矩阵进行压缩,设置池化区尺寸k×k,池化标准为最大池化;输入是m×m维,输出是
(2c)构建一维卷积神经网络的全连接层:设置全连接层激活函数和全连接各层神经元个数L,激活函数通常使用Sigmoid函数,则第l全连接层输出为:
Hl=o(WlHl-1+bl)
其中Sigmoid函数为:
步骤3:对网络模型进行训练:包括前向传播和后向传播两个过程;具体步骤如下:
卷积神经网络的正向传播过程:在正向传播过程中卷积神经网络每层参数和本层数据进行卷积运算再加上偏置,逐步向前传递,最终获得整个网络的处理结果;其中,上标代表层数,*代表卷积;步骤流程如下:
输入:样本序列X,模型的层数L和所有隐藏层的类型,对于卷积层,定义卷积核的个数K,卷积核子矩阵维度小F×F,填充大小P,步幅S;对于池化层,定义池化区域k×k,池化标准;对于全连接层,要定义全连接层的激活函数和各层神经元个数;
输出:卷积神经网络第L层输出HL;
I根据输入层的填充大小P,填充原始序列边缘,得到输入张量H1;
II初始化所有隐藏层参数W,b;
III循环:l=2,…,L-1:
如果第l层是卷积层,则输出为:Hl=Relu(zl)=Relu(Hl-1*Wl+bl);
如果第l层是池化层,则输出为:Hl=pool(Hl-1),这里pool按照池化区域大小k×k和池化标准将输入张量缩小的过程;
如果第l层是全连接层,则输出为:Hl=Sigmoid(xl)=Sigmoid(WlHl-1+bl);IV输出层第L层:HL=Softmax(zL)=Softmax(WLHL-1+bL);
卷积神经网络训练的目标是最小化损失函数,常用的损失函数为交叉熵损失函数:hi为HL中元素
卷积神经网络的反向传播过程:输入X经过前向传播后通过损失函数计算出与真实标签yi之间的差异,称为残差;优化方法是梯度下降法,残差通过梯度下降进行反向传播,根据链式求导法则,逐层更新卷积神经网络各层的可训练参数W和b,学习速率η用于控制残差反向传播的强度;步骤如下:
输入:正向传播过程计算的损失函数J,梯度迭代参数:迭代步长η,最大迭代次数M,停止迭代阈值ε;
输出:卷积神经网络各隐藏层与输出层的W,b;
I通过损失函数计算输出层的
II循环l=L-1,…,2,根据反向传播算法计算梯度:
如果当前是全连接层:δl=(Wl+1)Tδl+1⊙σ′(zl);
如果当前是池化层:δl=upsample(δl+1)⊙σ′(zl);
如果当前是卷积层:δl=δl+1*rot180((Wl+1)⊙σ′(zl);
III计算第l层的Wl,bl:
Wl=Wl-1-η(Hl-1*δl)
其中⊙表示Hadamard积,对于两个维度相同的向量A(a1,a2,…an)T和B(b1,b2,…bn)T,则A⊙B=(a1b1,a2b2,…anbn)T;upsample函数完成池化误差矩阵放大与误差重新分配的逻辑;rot180表示卷积核被旋转了180度;
步骤4:重复步骤3的网络模型训练过程,直到损失函数收敛或者训练达到最大迭代次数,得到可用于目标识别的一维卷积神经网络模型;
步骤5:将测试集输入构建好的一维卷积神经网络模型,训练得随迭代次数增加,识别精度变化曲线。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安宁远电子电工技术有限公司,未经西安宁远电子电工技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911254099.7/1.html,转载请声明来源钻瓜专利网。





