[发明专利]一种基于深度强化学习的机器人追逃博弈方法在审
申请号: | 202110348781.3 | 申请日: | 2021-03-31 |
公开(公告)号: | CN113377099A | 公开(公告)日: | 2021-09-10 |
发明(设计)人: | 张雪波;戚琪;赵铭慧;古明阳 | 申请(专利权)人: | 南开大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 北京慕达星云知识产权代理事务所(特殊普通合伙) 11465 | 代理人: | 符继超 |
地址: | 300110*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 强化 学习 机器人 博弈 方法 | ||
1.一种基于深度强化学习的机器人追逃博弈方法,其特征在于,包括:
构建包含障碍物的虚拟追逃博弈场景;
确定追逃双方智能体在所述追逃博弈场景中的非完整运动约束条件和环境范围约束条件;追逃双方智能体包括追捕者和逃跑者;
分别构建追逃双方智能体的回报函数;回报函数用于评估追逃双方智能体在某一特定状态下对某一动作的执行情况,并输出回报值;
引入深度Q网络算法,并结合所述非完整运动约束条件、所述环境范围约束条件和所述回报函数,分别构建追逃双方智能体的初始追逃博弈模型;
结合课程学习机制和自我对弈机制分别对追逃双方智能体的初始追逃博弈模型进行训练,获得训练过程中的交互数据;
利用训练过程中的交互数据不断对追逃双方智能体的深度Q网络进行更新,并实时改变各自深度Q网络的自身策略,得到追逃双方智能体的最终追逃博弈模型;
基于追捕者的最终追逃博弈模型实时输出追捕策略;或基于逃跑者的最终追逃博弈模型实时输出逃跑策略。
2.根据权利要求1所述的一种基于深度强化学习的机器人追逃博弈方法,其特征在于,追逃双方智能体的非完整运动约束条件均一致,表达式如下:
x=vcosθ;
y=vsinθ;
v=u1;
θ=u2;
A=[u1,u2];
u1={-u1max,0,u1max};
u2={-u2max,0,u2max};
上式中,x、y表示追逃双方智能体的位置,u1表示线加速度,u2表示角速度;A表示追逃双方智能体中任一智能体的动作空间,u1max和u2max分别表示最大线加速度和最大角速度。
3.根据权利要求1所述的一种基于深度强化学习的机器人追逃博弈方法,其特征在于,所述环境范围约束条件的表达式为:
xl≤xp≤xu;
yl≤yp≤yu;
xl≤xe≤xu;
yl≤ye≤yu;
其中,[xl,yl,xu,yu]为环境的边界,(xp,yp)为追捕者的位置;(xe,ye)为逃跑者的位置,在博弈的过程中某一方超出边界或撞到障碍物,则算作其任务失败,当追逃双方智能体之间的距离小于某一阈值时,则认为追捕者成功捕获逃跑者。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110348781.3/1.html,转载请声明来源钻瓜专利网。