[发明专利]一种D2D系统中基于深度强化学习的功率分配方法有效
| 申请号: | 202110475005.X | 申请日: | 2021-04-29 |
| 公开(公告)号: | CN113115355B | 公开(公告)日: | 2022-04-22 |
| 发明(设计)人: | 梁应敞;史佳琦 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | H04W24/06 | 分类号: | H04W24/06;H04W72/04;G06N3/04;G06N3/08 |
| 代理公司: | 成都点睛专利代理事务所(普通合伙) 51232 | 代理人: | 孙一峰 |
| 地址: | 611731 四川省*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 d2d 系统 基于 深度 强化 学习 功率 分配 方法 | ||
1.一种D2D系统中基于深度强化学习的功率分配方法,D2D系统中具有N对链路对,即N个智能体,其特征在于,包括以下步骤:
S1、每个智能体分别从中心控制器中接收过时的信道、功率信息和其他链路的功率决策信息,得到各自的观测向量;
S2、每个智能体单独创建自己的基于深度学习的功率分配网络,并建立自己的经验存储池;每个智能体单独创建的功率分配网络具体结构为:功率分配网络包括用于训练的Main网络和用于计算的Target网络,Main网络的输入输出均与经验存储池连接;
Main网络和Target网络的结构完全相同,均分别包含一个用于接收链路的状态信息并输出一个功率决策值的actor网络和用于对本次的输出进行评价的critic网络;Main网络在Actor和Critic网络计算损失函数后进行实时更新,Target网络用于计算目标Q值,用于固定Q值稳定网络;
S3、基于步骤S1获取的上一时刻的过时观测向量,根据功率分配网络进行在线决策获得当前时刻的功率分配结果,并将智能体和环境交互获得的状态、动作、奖励和观测向量一起存储入经验池中,同时从各自的经验存储池中取出数据对网络进行训练,更新网络参数,下一次进行在线决策时使用更新网络参数后的网络;
智能体和环境交互获得的状态、动作、奖励的定义分别为:
定义状态为智能体i在时隙t的状态信息集合,K为状态信息的个数,其中,为上一时刻从发射机i到接收机j的信道增益,为上一时刻功率信息,为本链路发送机对其他接收机的干扰,σ2代表了加性高斯白噪声的功率,为本链路接收机所受到其他链路发送机的干扰,为上一时刻本链路的速率,为t时刻用户i的SINR比,为本链路周围链路的信道信息,为过去的信息,
定义动作空间为对于智能体i,定义为当前智能体所要存储到经验池中的决策向量,为智能体在时隙t的动作,智能体在[0,Pmax]的值域中任取一个实数,Pmax为最大功率;
定义奖励函数为:
W为权重,代表了链路j抛去链路i对其产生的干扰后的速率;
表示如果没有其余链路对当前链路i产生影响,当前链路能够取得的速率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110475005.X/1.html,转载请声明来源钻瓜专利网。





