[发明专利]预训练复数全卷积神经网络的SAR目标分类方法在审
| 申请号: | 201911345759.2 | 申请日: | 2019-12-24 |
| 公开(公告)号: | CN111126570A | 公开(公告)日: | 2020-05-08 |
| 发明(设计)人: | 喻玲娟;胡跃虹;仓明杰;谢晓春;黄光华 | 申请(专利权)人: | 江西理工大学 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 341000 *** | 国省代码: | 江西;36 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 训练 复数 卷积 神经网络 sar 目标 分类 方法 | ||
1.一种预训练复数全卷积神经网络的SAR目标分类方法,其特征在于,该方法的步骤包括:
步骤S1:根据复数全卷积神经网络结构,改进复数卷积自编码器结构;
步骤S2:采用训练样本进行复数卷积自编码器的训练;
步骤S3:将训练好的复数卷积自编码器中的编码器参数初始化复数全卷积神经网络,进一步采用训练样本微调复数全卷积神经网络;
步骤S4:采用训练好的复数全卷积神经网络对测试样本进行分类。
2.根据权利要求1所述的预训练复数全卷积神经网络的SAR目标分类方法,其特征在于,所述复数全卷积神经网络为实虚两路全卷积神经网络。
3.根据权利要求1所述的预训练复数全卷积神经网络的SAR目标分类方法,其特征在于,根据复数全卷积神经网络结构,改进复数卷积自编码器结构的步骤如下:
步骤S11:设计实虚两路复数全卷积神经网络结构。实虚两路复数全卷积神经网络包括:步长为s的卷积层、取模层、Softmax分类层,每个卷积层后均有一个激活函数。其中,s为大于等于2的正整数。
考虑任意的第l(l=1,2,……,L-1)层卷积层的前向传播,其中L+1是实虚两路复数全卷积神经网络的总层数。假定输入特征图为即为第l-1层卷积层的输出,其中I为总的输入通道数。当l为1时,则第l-1层表示输入图像。设输入特征图的宽度和高度分别表示为H1和H2,进一步假定用于第i幅特征图的第j(j=1,2,……J)个卷积核权重为其中J为总的输出通道数,卷积核的大小为K1×K2,则输出第j通道的复数特征图的实部和虚部分别为,
和
其中,(x,y)为特征图的像素单元,x∈[0,H1-1],y∈[0,H2-1],(u,v)为卷积核的像素单元。σ(·)代表激活函数,为第j通道的复数偏置。表示实部,表示虚部。
激活函数σ(·)选取为,
考虑取模层的前向传播。假定实虚两路复数全卷积神经网络的隐藏层中,最后一个卷积层能获取1×K的复数特征矢量,其中K为目标的总类别数,则复数特征矢量中第k(k=1,2,…K)个元素取模运算后的幅值为,
考虑Softmax分类层的前向传播,训练样本属于第k类的概率为,
步骤S12:改进复数卷积自编码器结构。改进后的复数卷积自编码器中编码器结构包括:步长为s的卷积层;解码器结构包括:上采样层和步长为1的卷积层。其中,编码器和解码器中每个卷积层后均有一个激活函数。
由于步长为s的卷积层的前向传播和复数全卷积神经网络相同,接下来分别考虑解码器中上采样层和步长为1的卷积层的前向传播。
假设复数卷积自编码器共有L′层,考虑任意的第l(l∈[2,L′-1])层上采样层的前向传播。假设第l-1层输出特征图中每个像素单元被上采样为G×G,则第l层上采样后的输出可以表示为,
其中,upsampling(·)表示上采样函数,(m,n)表示上采样过程中的像素单元,m∈[0,G-1],n∈[0,G-1]。
考虑任意的第l(l∈[2,L′])层步长为1的卷积层的前向传播。假定输入特征图为即为第l-1层卷积层的输出,其中I′为总的输入通道数。进一步假定第i幅特征图的第j(j=1,2,……J′)个卷积核权重为其中J′为总的输出通道数,则输出第j通道的复数特征图的实部和虚部分别为,
和
其中,激活函数σ(·)选取为,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江西理工大学,未经江西理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911345759.2/1.html,转载请声明来源钻瓜专利网。





