[发明专利]一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法有效
| 申请号: | 202010344573.1 | 申请日: | 2020-04-27 |
| 公开(公告)号: | CN111555781B | 公开(公告)日: | 2022-07-12 |
| 发明(设计)人: | 于小烔;白洋;贺以恒;郝子瀛;陈诗劼;吴华明 | 申请(专利权)人: | 天津大学 |
| 主分类号: | H04B7/0413 | 分类号: | H04B7/0413;H04B7/0456;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 天津市三利专利商标代理有限公司 12107 | 代理人: | 张义 |
| 地址: | 300072*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 注意力 机制 大规模 mimo 信道 状态 信息 压缩 重建 方法 | ||
1.一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,包括如下步骤:
步骤一:对输入的信道矩阵做DFT变换;
在用户端,对MIMO信道CSI在空频域的信道矩阵做DFT变换,得到在角延迟域稀疏的信道矩阵H;将复数矩阵的实部和虚部拆分为两个实数矩阵,作为模型的输入;
步骤二:构建DS-NLCsiNet模型;
DS-NLCsiNet模型包含编码器和译码器,其中编码器以信道矩阵H为输入,将其压缩编码为更低维度的码字s;译码器从码字s中复原出信道矩阵重建值
步骤三:对模型进行训练,得到模型各层参数;
A.使用Adam优化算法和端到端的学习方式,联合训练编码器和译码器的参数,使损失函数最小;
使用信道矩阵重建值与原始信道矩阵H的均方误差作为损失函数,损失函数表达式为:
其中,T为训练集样本数,||·||2为欧几里得范数;
B.所述的模型参数主要包括全连接层的权重、偏置和卷积层的卷积核权重、偏置;
步骤四:对模型的输出进行逆DFT变换;
对通过DS-NLCsiNet得到的信道矩阵估计值进行逆DFT变换,获得原始信道矩阵重建值
在步骤二中:编码器位于用户端,包括一个卷积层、一个Non Local Block和一个全连接层,随机初始化各层参数。
编码器第一层为卷积层,使用两通道3×3大小的卷积核与输入进行卷积,通过零填充、激活函数LeakyReLU和BatchNormalization,得到两通道32×32大小的特征图;
编码器第二层为Non Local Block,其通用公式表示为:
其中,x是输入信号,i,j表示输出位置,f函数计算i和j的相似度,g函数计算featuremap在j位置的表示,C(x)表示响应因子,对结果进行标准化处理;
编码器第三层为Dense层,将第二层的输出重组为一个2048×1的向量,作为第三层的输入,该层含有M个神经元,激活函数为线性激活函数,Dense层将2048×1的向量压缩为M×1的码字s,作为编码器的输出,传入基站端的解码器,假设传输过程无损失。
2.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
编码器第二层具体实施方法包括:
首先,使用两路两通道的1×1卷积核分别对输入的featuremap进行处理,并将两路卷积的输出进行点乘运算,即可得到上式中的f(xi,xj);然后使用两通道的1×1卷积核对输入的featuremap进行处理,得到上式中的g(xj);再将得到f(xi,xj)和g(xj)进行点乘运算,使用softmax激活函数;最后,将点乘的结果通过两通道的1×1卷积核,得到编码器第二层的输出。
3.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
基站端收到码字s后,使用位于基站端的解码器解码,解码器包含一个全连接层,两个DS-RefineNet单元和一个卷积层,随机初始化各层参数,码字在经过解码器各层处理后,输出信道矩阵H的估计值
解码器Dense层以M×1码字s为输入,将其复原为2048×1的一维向量,激活函数为线性激活函数,经过Reshape层,还原为两通道32×32大小的特征图,再通过non-local block,得到初步还原的特征图;
解码器的第三、四层为两个DS-RefineNet单元;
解码器的最后一层为一个两通道3×3卷积核,激活函数为Sigmoid。
4.根据权利要求3所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,
解码器的第三、四层具体的实施方法,包括:
首先,将初步还原的特征图输入第一个DS-RefineNet,每个DS-RefineNet单元包含一个输入层和4个卷积层,前三个卷积层均使用3×3尺寸的卷积核,卷积核通道数分别为8、16、2,最后一个卷积层使用1×1尺寸的卷积核,对结果进行降维,每个卷积层都以输入与其之前所有卷积核的输出在channel维度上的拼接为其输入,其数学表达式为:
xl=Hl([x0,x1,...,xl-1])
其中,xl表示第l层的输出;
最后一层卷积核的输出即为DS-RefineNet单元的输出,除最后一层外其余各层均采用LeakyReLU激活函数并使用批归一化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010344573.1/1.html,转载请声明来源钻瓜专利网。





