[发明专利]LTE-V中基于深度强化学习的基站选择方法有效

专利信息
申请号: 201810885951.X 申请日: 2018-08-06
公开(公告)号: CN109195135B 公开(公告)日: 2021-03-26
发明(设计)人: 郭爱煌;谢浩 申请(专利权)人: 同济大学
主分类号: H04W4/40 分类号: H04W4/40;H04W28/02;H04W28/08;H04W48/20
代理公司: 上海科盛知识产权代理有限公司 31225 代理人: 翁惠瑜
地址: 200092 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: lte 基于 深度 强化 学习 基站 选择 方法
【权利要求书】:

1.一种LTE-V中基于深度强化学习的基站选择方法,其特征在于,包括以下步骤:

1)根据LTE-V网络通信特点及基站选择性能指标,构建Q函数;

2)移动管理单元获取网络内车辆的状态信息,构建状态矩阵,并存入经验回放池;

3)以经验回放池为样本,基于构建的Q函数,采用竞争-双重训练方式训练获得一用于选择最优接入基站的主DQN;

4)以训练获得的主DQN对输入信息进行处理,输出选择接入基站;

所述LTE-V网络通信特点包括通信带宽和信噪比,所述基站选择性能指标包括用户接收速率和基站负载;

所述Q函数具体构建如下:

式中,μ表示用户接收速率,L表示基站负载,R表示奖励函数,α表示学习率,Q(st,at)表示在t时刻处于状态s采取动作a所能获得的期望奖励,下标s'表示在状态s处采取动作a进入的下一个状态,γ∈[0,1]为折扣因子,w1、w2为权重系数,表示在t+1时刻处于状态s采取不同动作所能获得的最大期望奖励;

所述竞争-双重训练方式中:

基于Q函数建立一目标DQN和一主DQN,由主DQN选择基站,该基站的Q函数最大值由目标DQN计算生成,以损失函数是否收敛作为判断训练是否结束的依据,所述损失函数为:

式中,rt+1表示在t+1时刻位于状态s采取动作a之后收获的奖励大小,Qtarget表示目标DQN生成的Q函数最大值,Qmain表示主DQN生成的Q函数最大值,γ∈[0,1]是折扣因子。

2.根据权利要求1所述的LTE-V中基于深度强化学习的基站选择方法,其特征在于,所述竞争-双重训练方式中,每次训练使用ε-greedy算法来选择接入基站,同时使用反向传播算法和适应性矩估计算法更新网络参数。

3.根据权利要求2所述的LTE-V中基于深度强化学习的基站选择方法,其特征在于,所述ε-greedy算法的探索概率如下:

εt+1(s)=δ×f(s,a,σ)+(1-δ)×εt(s)

式中,δ是当前状态可选择的动作总数,f(s,a,σ)来表征环境的不确定性,σ∈[0,1]表示方向灵敏度,εt+1(s)表示在t+1时刻位于状态s采取DQN生成动作a的概率。

4.根据权利要求1所述的LTE-V中基于深度强化学习的基站选择方法,其特征在于,所述竞争-双重训练方式中,使用交叉验证法选择最优的超参数。

5.根据权利要求1所述的LTE-V中基于深度强化学习的基站选择方法,其特征在于,经验回放池的容量为T,当存入的状态矩阵的数量大于T时,优先删除最早存入的状态矩阵。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810885951.X/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top