[发明专利]一种深度强化学习训练方法及计算机可读存储介质在审
申请号: | 202110208061.7 | 申请日: | 2021-02-24 |
公开(公告)号: | CN112819159A | 公开(公告)日: | 2021-05-18 |
发明(设计)人: | 张甜甜;袁博 | 申请(专利权)人: | 清华大学深圳国际研究生院 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06K9/62 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 孟学英 |
地址: | 518055 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 深度 强化 学习 训练 方法 计算机 可读 存储 介质 | ||
1.一种深度强化学习训练方法,其特征在于,包括如下步骤:
S1:指定情境数量,初始化深度强化学习多头神经网络模型的权重参数;智能体随机决策,收集样本存于经验回放缓冲区;
S2:依据所述情境数量,采用在线聚类算法实现自适应情境划分,对当前时间步状态进行在线聚类,自适应进行情境推断,得到截止当前时刻的情境划分和各情境中心;
S3:从所述经验回放缓冲区随机采样小批量样本,并依据各所述样本对应的状态与各所述情境中心的欧氏距离依次将各所述样本分配至距离最近的所述情境中;
S4:依据所述样本对应情境训练共享特征提取器及相应输出头的权重参数,并结合知识蒸馏损失对其他输出头权重参数进行同步更新,估计值函数;
S5:下一时间步,智能体依据所述值函数继续决策,收集样本存于所述经验回放缓冲区,重复进行所述自适应情境划分和所述深度强化学习多头神经网络模型的权重参数更新迭代,直至所述深度强化学习多头神经网络模型完成预先指定的训练次数或达到收敛。
2.如权利要求1所述的深度强化学习训练方法,其特征在于,指定所述情境数量k,其中,k>1;选用一个共享特征提取器和一组线性输出头组成的神经网络结构参数化值函数,每个线性输出头对应于一个特定情境;初始化所述深度强化学习多头神经网络模型的权重参数其中,为共享特征提取器参数,为对应当前训练样本所属情境的输出头参数,为其他输出头参数;将单个强化学习环境划分为k个情境,并针对每个所述情境中包含的状态采用所述深度强化学习多头神经网络分别对每个所述情境进行值函数估计。
3.如权利要求2所述的深度强化学习训练方法,其特征在于,收集样本存于所述经验回放缓冲区,在t时刻收集到的样本表示为{st,at,rt,st+1};
其中,st为t时刻智能体所处的环境状态,at为t时刻智能体所采取的动作,rt为采取动作at后环境反馈的奖励,st+1为采取动作后智能体达到的t+1时刻环境状态,经验回放缓冲区表示为大小为N。
4.如权利要求3所述的深度强化学习训练方法,其特征在于,对所述深度强化学习多头神经网络模型训练过程中经历的所有状态进行划分得到有限个簇,每个所述簇称为一个情境ω,Ω={ω1,ω2,...,ωk}为划分得到的所述情境的有限集合。
5.如权利要求4所述的深度强化学习训练方法,其特征在于,利用Sequential K-Means算法对当前时刻t智能体所处的环境状态st进行在线聚类实现自适应情境划分,得到情境划分中心为其中,ci为第i个情境ωi的聚类中心。
6.如权利要求5所述的深度强化学习训练方法,其特征在于,对每个时间步状态进行在线聚类,自适应进行情境推断,得到截止当前时刻的情境划分和各情境中心,具体操作包括:
当前时刻t下,各所述情境中心为每个所述情境内包含的状态个数为并分别计算当前时刻智能体所处的环境状态st与各个所述情境中心ci之间的距离d(st,ci),将当前时刻智能体所处的环境状态st分配至距离最近的所述情境ωj中;然后相应地更新所述情境ωj包含的状态个数nj=nj+1及所述情境划分中心
其中,i∈{1,2,...,k},j=arg minid(st,ci)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳国际研究生院,未经清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110208061.7/1.html,转载请声明来源钻瓜专利网。