[发明专利]一种大型复杂系统分布式多智能体确定性策略控制方法在审
| 申请号: | 202011453683.8 | 申请日: | 2020-12-12 |
| 公开(公告)号: | CN112418349A | 公开(公告)日: | 2021-02-26 |
| 发明(设计)人: | 陶模;冯毅;李献领;郑伟;周宏宽;邱志强;林原胜;汪伟;邹海;劳星胜;李少丹;赵振兴;吴君;庞杰;黄崇海 | 申请(专利权)人: | 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 武汉东喻专利代理事务所(普通合伙) 42224 | 代理人: | 李佑宏 |
| 地址: | 430205 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 大型 复杂 系统 分布式 智能 确定性 策略 控制 方法 | ||
1.一种大型复杂系统分布式多智能体确定性策略控制方法,其特征在于,所述方法包括:
确定大型复杂系统中各控制节点对应的各智能体的本节点控制目标,设置每个所述智能体的奖励函数;
随机获取所述大型复杂系统的初始化状态,确定当前控制周期内所述智能体的动作对应的动作集合,基于所述动作集合以及所述奖励函数对应的环境奖励集合得到经验集合,存储所述经验集合至经验缓冲区并更新所述初始化状态;
根据所述经验缓冲区对所述智能体进行训练直至遍历整个所述智能体;
重复所述确定当前控制周期内所述智能体的动作对应的动作集合的步骤,直至遍历所有所述智能体,得到目标深度策略网络;
重复所述随机获取所述大型复杂系统的初始化状态的步骤,对所述目标深度策略网络进行收敛,基于收敛后的所述目标深度策略网络对所述大型复杂系统进行控制。
2.根据权利要求1所述的方法,其特征在于,所述确定大型复杂系统中各控制节点对应的各智能体的本节点控制目标,包括:
设置大型复杂系统的总体控制目标;
对所述总体控制目标进行分解,将所述大型复杂系统的各个控制节点作为多智能体,使每个智能体分别将对应的分解后的所述总体控制目标作为本节点控制目标。
3.根据权利要求1所述的方法,其特征在于,所述确定当前控制周期内所述智能体的动作对应的动作集合,包括:
通过确定性策略计算获取当前控制周期内所述智能体的动作ai:
其中为深度策略网络,θi为深度策略网络参数,oi为当前智能体能够观测到的局部状态;
确定所述动作ai对应的动作集合
4.根据权利要求1所述的方法,其特征在于,所述基于所述动作集合以及所述奖励函数对应的环境奖励集合得到经验集合,存储所述经验集合至经验缓冲区并更新所述初始化状态,包括:
获取所述大型复杂系统的环境奖励集合以及新的大型复杂系统状态x’;
基于所述动作集合α、环境奖励集合r、初始化状态x、新的大型复杂系统状态x'生成经验集合(x,a,r,x');
将所述经验集合(x,a,r,x')存入经验缓存区D,并更新所述初始化状态x=x'。
5.根据权利要求1所述的方法,其特征在于,所述根据所述经验缓冲区对所述智能体进行训练,包括:
从所述经验缓存区D中随机提取总数为S个的训练集合(xj,aj,rj,x'j),根据下述公式得到深度策略网络的训练目标:
其中,γ是系统折扣,取值范围0γ1;
根据下述公式计算所述智能体的深度策略网络损失函数:
根据下述公式计算所述深度策略网络训练过程中的最快梯度:
更新目标深度策略网络参数:
θ'i←τθi+(1-τ)θ'i
其中,τ是深度策略网络参数的更新率,调整τ可以调整训练的速度,取值范围一般取0τ0.5。
6.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5任一项所述方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所),未经武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011453683.8/1.html,转载请声明来源钻瓜专利网。





