[发明专利]基于环境状态预测的深度强化学习方法及装置有效
申请号: | 201810093845.8 | 申请日: | 2018-01-31 |
公开(公告)号: | CN108288094B | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 陈峰;陈达贵;闫琪 | 申请(专利权)人: | 清华大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 环境 状态 预测 深度 强化 学习方法 装置 | ||
1.一种基于环境状态预测的深度强化学习方法,其特征在于,包括以下步骤:
建立基于环境预测的深度强化学习网络,并根据环境的复杂度设定环境预测部分的网络规模,根据任务的特点选择合适的策略决策方法;
初始化网络参数,并建立满足存储条件的存储区作为经验回放区;
根据策略决策网络的输出选择合适的策略来与环境进行交互,并将交互过程的交互信息连续存储到所述经验回放区;
从所述经验回放区采样第一样本序列,并利用监督学习的方法对所述环境预测部分进行训练,并重复第一预设次数;
从所述经验回放区采样第二样本序列,并固定所述环境预测部分的参数不动,利用强化学习的方法对策略决策部分进行训练,并重复第二预设次数;
在网络收敛满足预设条件时,获取强化学习网络;
其中,通过卷积神经网络对原始图像数据进行特征提取;获取传感数据,并根据所述传感数据生成一维向量,并通过全连接网络提取特征,以将所述卷积神经网络的输出拉平成一维向量,并和所述全连接网络的输出相连接,得到所有数据的特征向量,以及利用全连接层,将所述特征向量进行融合;
其中,利用监督学习得到抽象环境特征,以通过所述抽象环境特征进行策略决策训练;
所述抽象环境特征st为:
st=g(f(o0),f(o1),f(o2),...,f(ot)),
其中,t为第t个时刻,st为t时刻的抽象环境特征,o0为第0时刻的观测值,o1为第1时刻的观测值,o2为第2个时刻的观测值,ot为第t个时刻的观测值,f(ot)为对t时刻的观测值使用映射f进行特征提取后的输出,g(f(o0),f(o1),f(o2),...,f(ot))为对t时刻以及t之前的观测进行特征提取,并针对这些特征使用映射g进行特征融合得到t时刻的抽象环境特征。
2.一种基于环境状态预测的深度强化学习装置,其特征在于,包括:
建立模块,用于建立基于环境预测的深度强化学习网络,并根据环境的复杂度设定环境预测部分的网络规模,根据任务的特点选择合适的策略决策方法;
初始化模块,用于初始化网络参数,并建立满足存储条件的存储区作为经验回放区;
交互模块,用于根据策略决策网络的输出选择合适的策略来与环境进行交互,并将交互过程的交互信息连续存储到所述经验回放区;
训练模块,用于从所述经验回放区采样第一样本序列,并利用监督学习的方法对所述环境预测部分进行训练,并重复第一预设次数;
强化模块,用于从所述经验回放区采样第二样本序列,并固定所述环境预测部分的参数不动,利用强化学习的方法对策略决策部分进行训练,并重复第二预设次数;以及
获取模块,用于在网络收敛满足预设条件时,获取强化学习网络;
提取模块,用于通过卷积神经网络对原始图像数据进行特征提取;
融合模块,用于获取传感数据,并根据所述传感数据生成一维向量,并通过全连接网络提取特征,以将所述卷积神经网络的输出拉平成一维向量,并和所述全连接网络的输出相连接,得到所有数据的特征向量,以及利用全连接层,将所述特征向量进行融合;
其中,利用监督学习得到抽象环境特征,以通过所述抽象环境特征进行策略决策训练;
所述抽象环境特征st为:
st=g(f(o0),f(o1),f(o2),...,f(ot)),
其中,t为第t个时刻,st为t时刻的抽象环境特征,o0为第0时刻的观测值,o1为第1时刻的观测值,o2为第2个时刻的观测值,ot为第t个时刻的观测值,f(ot)为对t时刻的观测值使用映射f进行特征提取后的输出,g(f(o0),f(o1),f(o2),...,f(ot))为对t时刻以及t之前的观测进行特征提取,并针对这些特征使用映射g进行特征融合得到t时刻的抽象环境特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810093845.8/1.html,转载请声明来源钻瓜专利网。