[发明专利]基于部分可观测迁移强化学习的自动驾驶决策方法及系统有效
申请号: | 201911373375.1 | 申请日: | 2019-12-27 |
公开(公告)号: | CN111026127B | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 章宗长;俞扬;周志华;王艺深;蒋俊鹏 | 申请(专利权)人: | 南京大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 南京乐羽知行专利代理事务所(普通合伙) 32326 | 代理人: | 李玉平 |
地址: | 210023 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 部分 观测 迁移 强化 学习 自动 驾驶 决策 方法 系统 | ||
1.一种基于部分可观测迁移强化学习的自动驾驶决策方法,其特征在于,包括如下步骤:
S1、基于虚拟环境数据库提供的环境模型,情景单元使用强化学习算法得到相应的驾驶策略接着,情景单元将驾驶策略集合扩展为驾驶方案集合最后,情景单元输出的驾驶方案集合将被添加到驾驶方案数据库中;
S2、在决策单元中,初始化Q值网络Q(x,o;θ)、终止网络β(x,o;θβ)及相应的目标网络Q(x,o;θ-)和把从驾驶方案数据库中选择的驾驶方案集合Π={o1,…,oi,…,on}视为动作集合A;
S3、在时刻t,感知单元将观测xt输入到决策单元的Q值网络中;随后,Q值网络输出驾驶方案oi的Q值Q(xt,oi;θ),其中i={1,2,…,n};
S4、在决策单元中,使用最大熵Mellowmax算法将驾驶方案oi的Q值Q(xt,oi;θ)转换为概率值Pi;此阶段将输出概率分布{P1,…,Pi,…,Pn};其中i={1,2,…,n};
S5、决策单元将基于S4得到的概率分布选出驾驶方案oi={Ii,πi,β(x,oi;θβ)};然后,动作规划单元将根据驾驶方案oi中的策略πi,决定在观测xt下智能体要执行的动作at;接着,控制单元将动作at转换成控制信号,改变车辆的行驶状态;最后,感知单元会将奖励rt和下一个观测xt+1反馈给智能体;将(xt,at,rt,xt+1)看作是一个经验元组,存放到回放池中;
S6、在决策单元中,从回放池中随机抽取经验元组(xj,aj,rj,xj+1);
S7、在决策单元中,获得在观测xj+1下最大Q值对应的行车方案omax和最小Q值对应的行车方案omin;
S8、在决策单元中,计算权重w;
S9、在决策单元中,使用玻尔兹曼软最大化算法选择目标驾驶方案otarget;
S10、在决策单元中,计算驾驶方案oi的目标值yi;
S11、在决策单元中,计算驾驶方案oi的损失Li;
S12、在决策单元中,使用梯度下降算法更新Q值网络参数;
S13、在决策单元中,使用反向传播算法更新终止网络的参数;
即:
其中,i={1,2,…,n};
S14、在决策单元中,对于观测xt+1,基于终止概率β(xt+1,oi;θβ)来判断驾驶方案oi是否是可靠的;如果β(xt+1,oi;θβ)<η,那么就认为方案oi在路况xt+1下是可靠的,执行方案重用,即继续使用驾驶方案oi与环境交互;如果β(xt+1,oi;θβ)≥η,那么就认为方案oi在路况xt+1下是不安全的,选择新的驾驶方案;其中,η是安全阈值;S15、在决策单元中,每与环境进行K次交互,便将Q值网络和终止网络的参数赋值给对应的目标网络;
S16、重复S4——S15,直至到达终止状态T。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911373375.1/1.html,转载请声明来源钻瓜专利网。