[发明专利]基于神经网络的信道均衡方法、译码方法及对应设备有效
申请号: | 201810440913.3 | 申请日: | 2018-05-10 |
公开(公告)号: | CN108650201B | 公开(公告)日: | 2020-11-03 |
发明(设计)人: | 张川;徐炜鸿;钟志伟;尤肖虎 | 申请(专利权)人: | 东南大学 |
主分类号: | H04L25/03 | 分类号: | H04L25/03 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 冯艳芬 |
地址: | 210000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 神经网络 信道 均衡 方法 译码 对应 设备 | ||
1.一种基于神经网络的信道均衡方法,其特征在于包括:
(1-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
(1-2)对构建的卷积神经网络模型进行训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络;
(1-3)采用训练好的卷积神经网络对接收端接收到的信号矢量r进行处理,得到均衡后的估计信号
2.根据权利要求1所述的基于神经网络的信道均衡方法,其特征在于:步骤(1-2)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
3.一种基于神经网络的译码方法,其特征在于包括:
(2-1)构建包含L个卷积层的卷积神经网络模型,其中:
第一个卷积卷积层到第L-1卷积层中每层实现以下操作:
式中,是第n层卷积层的系数矩阵W(n)中所包含的第i个滤波器的第c行第k个元素,为未知的待训练参数,每个滤波器尺寸都为1×K,是第n层卷积层的输出特征图第i行第j列的元素,且I(0)=r,r是接收端接收到的信号矢量,为第n层卷积层的第i个偏置系数,为未知的待训练参数,Cn为第n层卷积层的输入特征图的行数,此外第n-1层的输出特征图即为第n层的输入特征图,σ(·)表示ReLU非线性单元,并且σ(·)=max(0,·);
第L层卷积层实现以下操作:
其中,表示从r均衡后恢复的信号;
(2-2)构建包含D层隐藏层的全连接神经网络译码模型,每层实现以下操作:
X(d)=σ(V(d)X(d-1)+a(d)),d=1,...,D
式中,V(d)是第d层的二维系数矩阵W(d),为未知的待训练参数,X(d)是第d层的输出向量,X(d-1)是第d层的输入向量,且为译码得到的信号,a(d)为第d层的偏置系数向量,为未知的待训练参数;
(2-3)对构建的卷积神经网络模型和全连接神经网络译码模型进行单独训练或联合训练,得到待训练参数的最优值,进而得到训练好的卷积神经网络和全连接神经网络译码模型;
(2-4)采用训练好的卷积神经网络模型进行均衡,采用全连接神经网络译码模型对均衡后得到信号进行译码。
4.根据权利要求3所述的基于神经网络的译码方法,其特征在于:步骤(2-3)中训练所采用的方法为深度学习中后向传播和Mini-batch随机梯度下降算法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810440913.3/1.html,转载请声明来源钻瓜专利网。