[发明专利]一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法有效

专利信息
申请号: 202010344573.1 申请日: 2020-04-27
公开(公告)号: CN111555781B 公开(公告)日: 2022-07-12
发明(设计)人: 于小烔;白洋;贺以恒;郝子瀛;陈诗劼;吴华明 申请(专利权)人: 天津大学
主分类号: H04B7/0413 分类号: H04B7/0413;H04B7/0456;G06K9/62;G06N3/04;G06N3/08
代理公司: 天津市三利专利商标代理有限公司 12107 代理人: 张义
地址: 300072*** 国省代码: 天津;12
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 注意力 机制 大规模 mimo 信道 状态 信息 压缩 重建 方法
【权利要求书】:

1.一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,包括如下步骤:

步骤一:对输入的信道矩阵做DFT变换;

在用户端,对MIMO信道CSI在空频域的信道矩阵做DFT变换,得到在角延迟域稀疏的信道矩阵H;将复数矩阵的实部和虚部拆分为两个实数矩阵,作为模型的输入;

步骤二:构建DS-NLCsiNet模型;

DS-NLCsiNet模型包含编码器和译码器,其中编码器以信道矩阵H为输入,将其压缩编码为更低维度的码字s;译码器从码字s中复原出信道矩阵重建值

步骤三:对模型进行训练,得到模型各层参数;

A.使用Adam优化算法和端到端的学习方式,联合训练编码器和译码器的参数,使损失函数最小;

使用信道矩阵重建值与原始信道矩阵H的均方误差作为损失函数,损失函数表达式为:

其中,T为训练集样本数,||·||2为欧几里得范数;

B.所述的模型参数主要包括全连接层的权重、偏置和卷积层的卷积核权重、偏置;

步骤四:对模型的输出进行逆DFT变换;

对通过DS-NLCsiNet得到的信道矩阵估计值进行逆DFT变换,获得原始信道矩阵重建值

在步骤二中:编码器位于用户端,包括一个卷积层、一个Non Local Block和一个全连接层,随机初始化各层参数。

编码器第一层为卷积层,使用两通道3×3大小的卷积核与输入进行卷积,通过零填充、激活函数LeakyReLU和BatchNormalization,得到两通道32×32大小的特征图;

编码器第二层为Non Local Block,其通用公式表示为:

其中,x是输入信号,i,j表示输出位置,f函数计算i和j的相似度,g函数计算featuremap在j位置的表示,C(x)表示响应因子,对结果进行标准化处理;

编码器第三层为Dense层,将第二层的输出重组为一个2048×1的向量,作为第三层的输入,该层含有M个神经元,激活函数为线性激活函数,Dense层将2048×1的向量压缩为M×1的码字s,作为编码器的输出,传入基站端的解码器,假设传输过程无损失。

2.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,

编码器第二层具体实施方法包括:

首先,使用两路两通道的1×1卷积核分别对输入的featuremap进行处理,并将两路卷积的输出进行点乘运算,即可得到上式中的f(xi,xj);然后使用两通道的1×1卷积核对输入的featuremap进行处理,得到上式中的g(xj);再将得到f(xi,xj)和g(xj)进行点乘运算,使用softmax激活函数;最后,将点乘的结果通过两通道的1×1卷积核,得到编码器第二层的输出。

3.根据权利要求1所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,

基站端收到码字s后,使用位于基站端的解码器解码,解码器包含一个全连接层,两个DS-RefineNet单元和一个卷积层,随机初始化各层参数,码字在经过解码器各层处理后,输出信道矩阵H的估计值

解码器Dense层以M×1码字s为输入,将其复原为2048×1的一维向量,激活函数为线性激活函数,经过Reshape层,还原为两通道32×32大小的特征图,再通过non-local block,得到初步还原的特征图;

解码器的第三、四层为两个DS-RefineNet单元;

解码器的最后一层为一个两通道3×3卷积核,激活函数为Sigmoid。

4.根据权利要求3所述的一种基于深度学习注意力机制的大规模MIMO信道状态信息压缩及重建方法,其特征在于,

解码器的第三、四层具体的实施方法,包括:

首先,将初步还原的特征图输入第一个DS-RefineNet,每个DS-RefineNet单元包含一个输入层和4个卷积层,前三个卷积层均使用3×3尺寸的卷积核,卷积核通道数分别为8、16、2,最后一个卷积层使用1×1尺寸的卷积核,对结果进行降维,每个卷积层都以输入与其之前所有卷积核的输出在channel维度上的拼接为其输入,其数学表达式为:

xl=Hl([x0,x1,...,xl-1])

其中,xl表示第l层的输出;

最后一层卷积核的输出即为DS-RefineNet单元的输出,除最后一层外其余各层均采用LeakyReLU激活函数并使用批归一化。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010344573.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top