[发明专利]分布式模型训练方法、系统及相关装置有效
申请号: | 202111323472.7 | 申请日: | 2021-11-10 |
公开(公告)号: | CN113762512B | 公开(公告)日: | 2022-03-18 |
发明(设计)人: | 任涛;何航;谷宁波;牛建伟;戴彬;邱源;胡哲源;胡舒程;姚依明;李青锋 | 申请(专利权)人: | 北京航空航天大学杭州创新研究院 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04;G06F9/50 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 张欣欣 |
地址: | 310000 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布式 模型 训练 方法 系统 相关 装置 | ||
1.一种分布式模型训练方法,其特征在于,应用于部署有DDPG模型的决策系统,所述决策系统包括管理设备以及多个终端设备,所述DDPG模型包括Critic网络以及Actor网络,所述Actor网络包括第一在线网络以及第二在线网络,每个所述终端设备部署有所述第一在线网络,所述管理设备部署有所述Critic网络以及所述第二在线网络,所述方法包括:
执行至少一次模型训练流程,直到所述DDPG模型满足预设收敛条件;
所述模型训练流程,包括:
针对每个所述终端设备,所述终端设备根据自身的第一设备状态,通过所述第一在线网络生成与所述第一设备状态相对应的动作;
所述终端设备将所述第一设备状态对应的策略经验存放至经验池,其中,所述策略经验包括所述第一设备状态、所述动作、执行所述动作后的第二设备状态以及所述动作的即时奖励;
所述管理设备对所述经验池进行采样,获得策略样本;
所述管理设备根据所述策略样本,通过所述Critic网络调整所述第二在线网络的模型参数;
当满足预设同步条件,则所述管理设备将调整后的第二在线网络同步至每个所述第一在线网络,以使每个同步后的第一在线网络与所述调整后的第二在线网络具有相同的参数。
2.根据权利要求1所述的分布式模型训练方法,其特征在于,所述动作包括终端任务本地执行或者卸载至服务器执行,所述终端设备将所述第一设备状态、所述动作、执行所述动作后的第二设备状态以及所述动作的即时奖励存放至经验池之前,所述管理设备通过表达式确定所述动作的即时奖励,所述表达式为:
式中,表示终端设备在时间片执行所述终端任务的任务延时,表示终端设备在时间片执行所述终端任务的任务能耗,表示预设权重。
3.根据权利要求2所述的分布式模型训练方法,其特征在于,所述表达式还配置有至少一条约束条件,当满足任意一条所述的约束条件时,则生成惩罚因子,所述惩罚因子用于减小所述即时奖励;
所述约束条件包括:
执行所述终端任务需要的计算资源不能超过所述终端设备与所述服务器各自的资源上限;
所述终端任务只允许在所述终端设备执行或者所述服务器执行;
执行所述终端任务的延时不能超过时长阈值;
执行所述终端任务的能耗不能超过终端设备与所述服务器各自的储能上限。
4.一种决策系统,其特征在于,所述决策系统部署有DDPG模型,所述决策系统包括管理设备以及多个终端设备,所述DDPG模型包括Critic网络以及Actor网络,所述Actor网络包括第一在线网络以及第二在线网络,每个所述终端设备部署有所述第一在线网络,所述管理设备部署有所述Critic网络以及所述第二在线网络;
执行至少一次模型训练流程,直到所述DDPG模型满足预设收敛条件;
所述模型训练流程,包括:
针对每个所述终端设备,所述终端设备用于根据自身的第一设备状态,通过所述第一在线网络生成与所述第一设备状态相对应的动作;
所述终端设备用于将所述第一设备状态对应的策略经验存放至经验池,其中,所述策略经验包括所述第一设备状态、所述动作、执行所述动作后的第二设备状态以及所述动作的即时奖励;
所述管理设备用于对所述经验池进行采样,获得策略样本;
所述管理设备还用于根据所述策略样本,通过所述Critic网络调整所述第二在线网络的模型参数;
当满足预设同步条件,则所述管理设备将调整后的第二在线网络同步至每个所述第一在线网络,以使每个同步后的第一在线网络与所述调整后的第二在线网络具有相同的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学杭州创新研究院,未经北京航空航天大学杭州创新研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111323472.7/1.html,转载请声明来源钻瓜专利网。