[发明专利]基于Q学习神经网络的无人船路径规划方法在审
| 申请号: | 201811612058.6 | 申请日: | 2018-12-27 |
| 公开(公告)号: | CN109726866A | 公开(公告)日: | 2019-05-07 |
| 发明(设计)人: | 冯海林;吕扬民;方益明;周国模 | 申请(专利权)人: | 浙江农林大学 |
| 主分类号: | G06Q10/04 | 分类号: | G06Q10/04;G06N3/08 |
| 代理公司: | 北京轻创知识产权代理有限公司 11212 | 代理人: | 王新生 |
| 地址: | 311300 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 路径规划 最终状态 目标位置 神经网络 初始化 无人船 实时性要求 时刻状态 随机采样 随机选择 网络参数 训练目标 在线规划 返回 算法 网络 奖励 重复 更新 优化 决策 | ||
1.一种基于Q学习神经网络的无人船路径规划方法,其特征在于,包括以下步骤:
a)、初始化存储区D;
b)、初始化Q网络,状态、动作初始值;Q网络中包含以下元素:S,A,Ps,α,R,其中其中S表示USV所处的系统状态的集合,A表示USV所能采取的动作的集合,Ps,α表示系统状态转移概率,R表示奖励函数;
c)、随机设定训练目标;
d)、随机选择动作at,得到当前奖励rt,下一时刻状态st+1,将(st,at,rt,st+1)存到存储区D中;
e)、从存储区D中随机采样一批数据进行训练,即一批(st,at,rt,st+1),当USV达到目标位置,或超过每轮最大时间时的状态都认为是最终状态;
f)、如果st+1不是最终状态,则返回步骤d,若st+1是最终状态,则更新Q网络参数,并返回步骤d,重复n轮后算法结束;
g)、设定目标,用训练后的Q网络进行路径规划,直到USV到达目标位置。
2.根据权利要求1所述的基于Q学习神经网络的无人船路径规划方法,其特征在于,步骤a)中,存储区D为经验回放存储区,用来存储USV航行过程兵采集训练样本。
3.根据权利要求1所述的基于Q学习神经网络的无人船路径规划方法,其特征在于,Q网络的算法规则为:
Q(st,at)=Q(st,at)+αδ′t
其中,函数Q(st,at)为在状态st时执行动作at,α为学习率,δ′t为TD(0)偏差值,TD(0)中的0表示的是在当前状态下往前多看1步,其值为:
δ′t=R(st)+γV(st+1)-Q(st,at)
其中,γ为折扣因子,R(s)为奖励函数,V(s)为值函数,值函数另外,也可以把TD(0)偏差值定义为
δt+1=R(st+1)+γV(st+2)-V(st+1)
其中,δt+1为TD(0)偏差值,R(s)为奖励函数,V(s)为值函数,
应用另一个折扣因子λ∈[0,1]来对将来步骤中的TD偏差值进行折扣,
Q(st,at)=Q(st,at)+αδtλ
其中,函数Q(st,at)为在状态st时执行动作at,α为学习率,δtλ为TD(λ)的偏差值,TD(λ)是在当前状态下往前多看λ步;
在这里TD(λ)的偏差值δtλ定义为
其中,δ′t代表着过去学习得到的偏差值,δtλ进行多步学习的偏差值,γ为折扣因子,λ为折扣因子,且λ∈[0,1],δt+i为现在学习得到的偏差值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江农林大学,未经浙江农林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811612058.6/1.html,转载请声明来源钻瓜专利网。
- 同类专利
- 专利分类
G06Q 专门适用于行政、商业、金融、管理、监督或预测目的的数据处理系统或方法;其他类目不包含的专门适用于行政、商业、金融、管理、监督或预测目的的处理系统或方法
G06Q10-00 行政;管理
G06Q10-02 .预定,例如用于门票、服务或事件的
G06Q10-04 .预测或优化,例如线性规划、“旅行商问题”或“下料问题”
G06Q10-06 .资源、工作流、人员或项目管理,例如组织、规划、调度或分配时间、人员或机器资源;企业规划;组织模型
G06Q10-08 .物流,例如仓储、装货、配送或运输;存货或库存管理,例如订货、采购或平衡订单
G06Q10-10 .办公自动化,例如电子邮件或群件的计算机辅助管理





