[发明专利]利用深度强化学习的连续控制有效
| 申请号: | 201680043561.7 | 申请日: | 2016-07-22 |
| 公开(公告)号: | CN108027897B | 公开(公告)日: | 2022-04-12 |
| 发明(设计)人: | 蒂莫西·保罗·利利克拉普;乔纳森·詹姆斯·亨特;亚历山大·普里策尔;尼古拉斯·曼弗雷德·奥托·黑斯;汤姆·埃雷兹;尤瓦尔·塔萨;大卫·西尔韦;丹尼尔·彼得·维尔斯特拉 | 申请(专利权)人: | 渊慧科技有限公司 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04 |
| 代理公司: | 中原信达知识产权代理有限责任公司 11219 | 代理人: | 周亚荣;安翔 |
| 地址: | 英国*** | 国省代码: | 暂无信息 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 用于训练动作器神经网络的方法、系统、和装置,包括编码在计算机存储介质上的计算机程序,所述动作器神经网络用于选择待由与环境交互的代理执行的动作。所述方法中的一个方法包括:获得小批经验元组;以及更新所述动作器神经网络的参数的当前值,包括:对于所述小批中的每个经验元组:使用评价器神经网络来处理所述经验元组中的所述训练观测值和所述训练动作以确定所述经验元组的神经网络输出,并且确定所述经验元组的目标神经网络输出;使用在所述目标神经网络输出与所述神经网络输出之间的误差来更新所述评价器神经网络的参数的当前值;以及使用所述评价器神经网络来更新所述动作器神经网络的参数的当前值。 | ||
| 搜索关键词: | 利用 深度 强化 学习 连续 控制 | ||
【主权项】:
1.一种用于训练动作器神经网络的方法,所述动作器神经网络被用于选择待由代理执行的动作,所述代理通过接收表征环境的当前状态的观测值并且执行从连续动作空间中选择的动作来与所述环境交互,其中,所述动作器神经网络根据所述动作器神经网络的参数的当前值将观测值映射至接下来的动作,并且其中,所述方法包括:从重演存储器获得小批经验元组,每个经验元组包括表征所述环境的训练状态的训练观测值、来自所述代理响应于接收到所述训练观测值而执行的所述连续动作空间的训练动作、由所述代理接收的执行所述训练动作的训练奖励、和表征所述环境的下一训练状态的下一训练观测值;以及使用所述小批经验元组来更新所述动作器神经网络的参数的当前值,包括:对于所述小批中的每个经验元组:使用评价器神经网络来处理所述经验元组中的所述训练观测值和所述训练动作以根据所述评价器神经网络的参数的当前值来确定所述经验元组的神经网络输出,以及根据所述经验元组中的所述训练奖励和所述经验元组中的所述下一训练观测值来确定所述经验元组的目标神经网络输出,使用在所述目标神经网络输出与所述小批中的所述经验元组的所述神经网络输出之间的误差来更新所述评价器神经网络的参数的当前值;以及使用所述评价器神经网络来更新所述动作器神经网络的参数的当前值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于渊慧科技有限公司,未经渊慧科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201680043561.7/,转载请声明来源钻瓜专利网。
- 上一篇:充气轮胎
- 下一篇:用于诊断分析设备的反应容器交换装置





