[发明专利]一种强化学习的高效探索方法在审

专利信息
申请号: 201910549586.X 申请日: 2019-06-24
公开(公告)号: CN110390399A 公开(公告)日: 2019-10-29
发明(设计)人: 张寅;胡滨 申请(专利权)人: 浙江大学
主分类号: G06N20/00 分类号: G06N20/00
代理公司: 杭州求是专利事务所有限公司 33200 代理人: 傅朝栋;张法高
地址: 310058 浙江*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 强化学习 探索 智能体 奖赏信号 奖赏 策略处理 次数计算 函数估计 连续空间 平衡问题
【权利要求书】:

1.一种强化学习的高效探索方法,其特征在于,步骤如下:

1)预训练计数估计函数,预训练过程为:

1.1)在环境的状态空间中进行采样;

1.2)对每个采样到的状态,分别用独立的VAE对其进行重构;

1.3)对每个采样到的状态s,用不同数量的状态s训练VAE,并计算对应的重构误差;记数量为count时的重构误差为error,得到三元组为<s,error,count>;

1.4)将不同状态和不同数量下得到的三元组<s,error,count>构成三元组集合M;

1.5)将计数估计函数用神经网络cθ(s,err)表示,用1.4)中所得到的三元组集合M作为数据集训练神经网络cθ,每一轮训练时从三元组集合M中采样一个批次的数据:

式中:N为当前批次数据的个数;si为第i个数据记录的状态s,erri为第i个数据记录的重构误差error,cnti为第i个数据记录的数量count;

神经网络cθ损失函数为:

2)利用预训练的计数估计函数进行强化学习的高效探索,探索过程为:

2.1)将强化学习算法中的行动策略μ(s)拷贝一份作为探索策略μE(s);

2.2)初始化一个VAE,记为V*

2.3)对于强化学习过程中遇到的<状态s,动作a,奖励r>序列,对于每一个<状态s,动作a,奖励r>对,用状态s训练V*并计算其重构误差err*=‖V*(s)-s‖2,V*(s)表示状态s输入V*所得到的结果;

2.4)用状态s的实时重构误差err*和预训练的计数估计函数cθ(s,err)估计状态s出现次数cnt(s)=cθ(s,err*);

2.5)按照公式(1)或(2),用估计的状态出现次数cnt(s)计算相应的奖赏:

式中:β为奖赏量级因子,β>0;

2.6)用环境给出的奖励信号r训练行动策略μ(s),用奖赏信号R训练探索策略μE(s);在训练探索策略时,同时引入与行动策略的距离约束α‖μ(s)-μE(s)‖2,α为约束项因子;

2.7)以一定的概率p选择探索策略产生的动作与环境进行交互,以剩下的概率1-p选择行动策略产生的动作与环境进行交互;

2.8)不断重复2.3)~2.7),直到满足终止条件,终止循环,完成强化学习的高效探索。

2.如权利要求1所述的强化学习的高效探索方法,其特征在于,所述的终止条件为强化学习算法与环境交互次数达到设定上限T。

3.如权利要求1所述的强化学习的高效探索方法,其特征在于,所述的奖赏R优选采用公式(2)计算。

4.如权利要求1所述的强化学习的高效探索方法,其特征在于,所述的2.6)中,在训练过程中,计算两个策略的距离dist=‖μ(s)-μE(s)‖2,α根据距离dist动态调整,当两个策略的距离超过设定的上限时,增大α;当两个策略的距离低于设定的下限时,减小α。

5.如权利要求1所述的强化学习的高效探索方法,其特征在于,所述的奖赏量级因子β=1,概率p=0.1。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910549586.X/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top