[发明专利]基于深度强化学习DDPG算法框架的策略协同选择方法在审

专利信息
申请号: 202110160581.5 申请日: 2021-02-05
公开(公告)号: CN112906885A 公开(公告)日: 2021-06-04
发明(设计)人: 钟颖嘉;朱清新 申请(专利权)人: 电子科技大学
主分类号: G06N3/08 分类号: G06N3/08
代理公司: 成都玖和知识产权代理事务所(普通合伙) 51238 代理人: 胡琳梅
地址: 611731 四川省成*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 深度 强化 学习 ddpg 算法 框架 策略 协同 选择 方法
【权利要求书】:

1.一种基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,包括下列步骤:

选定网络结构,初始化参数;

利用动作策略选择输出action;

输出action与环境探索交互,采集数据样本;

利用所述数据样本进行网络参数的训练更新。

2.如权利要求1所述的基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,在选定网络结构,初始化参数的具体步骤如下:

选定两个actor当前网络,两个actor目标网络,两个critic当前网络和两个critic目标网络,并给actor网络添加dropout层;

使用随机参数θ1,θ2,和对两个所述critic当前网络和以及actor当前网络和进行初始化;

用参数θ′1,θ′2,和初始化对应的所述critic目标网络和以及对应的所述actor目标网络和

3.如权利要求2所述的基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,设置初始参数θ′1为θ1,θ′2为θ2,为为

4.如权利要求1所述的基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,在利用动作策略选择输出action的过程中,

将state(s)输入两个所述actor当前网络和中,获得两个不同的action分别是a1和a2,将a1和a2以及s输入到两个critic当前网络和中,获取在s的状态下a1和a2对应的评估Q值q1和q2,将q1和q2输入softmax函数,把输出作为概率输入到取样函数中,加权概率选取action(a)。

5.如权利要求1所述的基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,在输出action与环境探索交互,采集数据样本的过程中,

在特定的步数内,随机选取action,和环境交互得到对应的reward(s,a),与转到的下一个状态s’,将四元组(s,a,r,s’)存入replay buffer中;

超过特定的步数,通过策略协同的方式选取action,并加入对应的噪声函数,得到a,将s,a和环境交互产生对应的r,与转到的下一个状态s’组成四元组存入所述replay buffer中。

6.如权利要求1所述的基于深度强化学习DDPG算法框架的策略协同选择方法,其特征在于,在利用所述数据样本进行网络参数的训练更新的过程中,从replay buffer中回放N条(s,a,r,s’),并将s’输入两个所述actor目标网络中加上噪声得到下一个动作a′1和a′2,再将它们分别输入两个所述critic目标网络中,评估出四个Q值,选取最小的目标Q值,更新所述critic当前网络和所述actor当前网络,最后软更新所述critic目标网络和所述actor目标网络。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110160581.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top