[发明专利]一种基于Q-Learning强化学习的状态空间缩减方法在审
申请号: | 202110754859.1 | 申请日: | 2021-07-04 |
公开(公告)号: | CN113342367A | 公开(公告)日: | 2021-09-03 |
发明(设计)人: | 赵峰睿;郭洪强;刘晓东 | 申请(专利权)人: | 聊城大学 |
主分类号: | G06F8/61 | 分类号: | G06F8/61;B60L58/12 |
代理公司: | 山东舜天律师事务所 37226 | 代理人: | 李新海 |
地址: | 252000*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 learning 强化 学习 状态 空间 缩减 方法 | ||
1.一种基于Q-Learning强化学习的状态空间缩减方法,其特征在于包含以下步骤:
(1)状态参数的选取,选取电池SOC与归一化的行驶距离(Ld)为状态参数;
(2)以步骤(1)选择的两种状态参数为X轴、Y轴,构造出一个二维平面,对该平面进行区间划分,将X轴的归一化的行驶距离0~1划分为n等份,n小于100;将Y轴的电池SOC 0~1划分为m等份,m小于100;沿X轴、Y轴的等分点分别标画水平线及竖直线将二维平面被划分为“棋格”区域,将每个“棋格”区域视为一个状态变量,并进行依次编号,从而缩减了状态变量;
(3)获取最优SOC轨迹分布,以步骤(1)选择的两种状态参数为X轴、Y轴,构造出一个二维平面,以步骤(2)中平面划分方法将该二维平面划分为“棋格”区域,在此基础上确定每个“棋格”回报值,依据最优SOC轨迹的分布获取有效控制区间,其中SOC轨迹经过的“棋格”区域视为有效控制区间,有效控制区间的回报值为正回报,且距离终点值越近,正回报值越大,有效控制区间之外的“棋格”回报值为负回报,且偏离有效控制区间越远,负回报值越大。
2.根据权利要求1所述的一种基于Q-Learning强化学习的状态空间缩减方法,其特征在于:所述的n为10,m为10,“棋格”区域的个数为100。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于聊城大学,未经聊城大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110754859.1/1.html,转载请声明来源钻瓜专利网。