[发明专利]一种基于深度学习的位置信息辅助的可见光信道估计方法有效

专利信息
申请号: 201911360037.4 申请日: 2019-12-25
公开(公告)号: CN111049768B 公开(公告)日: 2021-04-27
发明(设计)人: 张琳;林心桐 申请(专利权)人: 中山大学
主分类号: H04L25/02 分类号: H04L25/02;H04B10/116
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 位置 信息 辅助 可见光 信道 估计 方法
【权利要求书】:

1.一种基于深度学习的位置信息辅助的可见光信道估计方法,其特征在于:包括以下步骤:

S1:采集导频信号、位置坐标和真实的可见光信道频率响应CFR,获取训练数据集;

S2:对训练数据集进行预处理,得到预处理后的训练数据集;

S3:将预处理后的导频信号、位置坐标作为深度神经网络DNN模型的输入,真实的CFR为DNN模型的目标输出,对DNN模型进行离线训练;

S4:实时采集导频信号和位置坐标,进行数据预处理后输入训练完成的DNN模型中,输出实时的CFR,完成可见光信道的估计;

其中,所述步骤S2具体包括以下步骤:

S21:对导频信号进行拆分实部虚部处理;

S22:对已拆分实部虚部的导频信号、位置坐标分别进行归一化处理,完成导频信号、位置坐标的预处理;

S23:对真实的CFR进行拆分实部虚部处理,完成真实的CFR的预处理;

其中,所述在所述步骤S22中,所述已拆分实部虚部的导频信号归一化处理的具体计算公式为:

其中,Y为归一化前的数值,是归一化后的数值,Ymin是导频信号实部值和虚部值中的最小值,Ymax是导频信号实部值和虚部值中的最大值;同理,位置坐标(m,n)进行归一化处理后为

2.根据权利要求1所述的一种基于深度学习的位置信息辅助的可见光信道估计方法,其特征在于:所述步骤S1具体为:在房间内部署一个可见光通信VLC系统,通过发光二极管LED发送可见光信号,以接收二极管PD作为接收机,通过室内定位技术获取各个采样点的位置坐标;收集各个采样点处的来自LED的经过快速傅里叶变换FFT处理后的导频信号;采用用信道测量方法来测得真实的CFR,或通过已有的信道建模方法计算出真实的CFR。

3.根据权利要求1所述的一种基于深度学习的位置信息辅助的可见光信道估计方法,其特征在于:在所述步骤S3中,采用有L个全连接层的DNN模型,设其输入为x,第l层的输出表示为:

其中,和分别表示权重矩阵和偏置向量,f(·)是激活函数;其中,除了DNN模型最后一层不使用任何激活函数外,其他层均采用了指数线性单元ELU函数;所述DNN模型训练目标是最小化损失函数,即真实CFR和估计CFR之间的均方误差函数MSE最小化,具体计算公式为:

其中,E[·]表示求数学期望,为DNN的输出,即估计的CFR,H为DNN的期望输出,即真实的CFR;通过损失函数计算出DNN模型的输出值与真实值的误差,再使用反向误差传播算法,从输出层到输入层逐层更新权值,对DNN模型进行训练;当DNN模型的损失函数不再下降时,训练完成。

4.根据权利要求1所述的一种基于深度学习的位置信息辅助的可见光信道估计方法,其特征在于:所述步骤S4具体为:在线实时通过室内定位技术获取PD的位置坐标并进行归一化处理,收集来自LED的经过FFT处理的导频信号并对其进行拆分实部虚部处理、归一化处理;将处理后的位置坐标、导频信号输入训练完成的DNN模型中,实时输出估计的CFR。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911360037.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top