[发明专利]基于多层感知网络的推扫辐射计数字波束合成方法在审
| 申请号: | 202211339052.2 | 申请日: | 2022-10-28 |
| 公开(公告)号: | CN115932843A | 公开(公告)日: | 2023-04-07 |
| 发明(设计)人: | 李浩;杨小娇;马严;李一楠;刘淑波;宋广南;吴袁超;高文钰;薛亮 | 申请(专利权)人: | 西安空间无线电技术研究所 |
| 主分类号: | G01S13/89 | 分类号: | G01S13/89;G01S7/02;G01R29/10;G01J5/48;G06N3/084;G06N3/08;G06T7/90;G06N3/04 |
| 代理公司: | 中国航天科技专利中心 11009 | 代理人: | 徐晓艳 |
| 地址: | 710100 陕西省西*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 多层 感知 网络 辐射计 数字 波束 合成 方法 | ||
1.基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于步骤如下:
S1、建立多层感知网络并初始化网络连接权值及偏置,所述多层感知网络包括输入层、L-1个隐含层、输出层,输入层用于接收推扫辐射计k个馈源的输出信号,L-1个隐含层以及输出层,对k个馈源的接收信号进行复数加权求和,在输出层得到H个优化后的数字波束;
S2、收集不同观测场景的彩色图片,将彩色图片转成灰度图片,将灰度图片当作推扫辐射计所得到的亮温图像,建立亮温图像数据库;灰度图片中每个像素坐标等效于馈源观测角度每个像素的灰度值等效于亮温值;
S3、从亮温图像数据库中提取亮温图像,根据亮温图像推导得到k个馈源的输出信号,将k个馈源的输出信号作为多层感知网络的输入,经过多层感知网络处理之后,得到输出层的输出值
S4、根据期望得到的数字波束合成后H个波束的天线方向图构建输出层中所有神经元的期望输出信号(t1,t2,…,th,…,tH),结合S4输出层的输出值,建立损失函数;
S5、判断损失函数是否低于设定阈值,若是,则完成多层感知网络的训练,否则,求损失函数一阶偏导,更新网络连接权值及偏置,反向传播到所有隐含层,重复执行步骤S3~步骤S5,不断循环迭代,直至损失函数低于设定阈值时停止反向传播,完成多层感知网络的训练;
S6、采用训练好的多层感知网络对推扫辐射计进行数字波束合成。
2.根据权利要求1所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于所述多层感知网络中:
输入层接收到的k个馈源的输出信号分别输出至第1个隐含层的神经元,输入层、隐含层的神经元与馈源一一对应,隐含层和输出层的每一个神经元与前一层所有神经元连接,即全连接,同一层的神经元间不相连;将隐含层和输出层共记为L个神经网络层,定义是多层感知网络的第l个神经网络层第j个神经元的输入值,和分别为第l个神经网络层第j个神经元的输出值和偏置值,为第l-1层第n个神经元与第l层第j个神经元的网络连接权值,则有:
式中,f(·)为激励函数,N为第l-1层神经元的数量,与馈源的数量相同。
3.根据权利要求2所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于所述激励函数为线性纠正函数、sigmoid函数、tanh函数或者径向基函数。
4.根据权利要求1所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于所述步骤S3中,k个馈源的输出信号表示为馈源i的输出信号为:
式中,ηfeed,Mi为馈源i的次级天线方向图对应的主波束效率,为馈源主瓣范围内对应的观测场景辐射亮温平均值,表示除了主瓣以外的副瓣波束范围对应的观测场景辐射亮温平均值。
5.根据权利要求1所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于输出层中第h神经元的期望输出信号为:
式中,ηbeam,Mh为数字波束合成后第h个波束的天线方向图对应的主波束效率,为波束天线方向图的主瓣范围内对应的观测场景辐射亮温平均值,表示波束天线方向图除了主瓣以外的副瓣波束范围对应的观测场景辐射亮温平均值。
6.根据权利要求4或5所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于主瓣定义为馈源次级天线方向图的2.5倍3dB波束宽度范围,馈源的3dB波束宽度为则馈源的主瓣范围定义为
7.根据权利要求1所述的基于多层感知网络的推扫辐射计数字波束合成方法,其特征在于损失函数E为:
其中,为输出层L的第h个神经元的输出,th为输出层第h个神经元的期望输出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安空间无线电技术研究所,未经西安空间无线电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211339052.2/1.html,转载请声明来源钻瓜专利网。





