[发明专利]具有约束的分布式随机优化模型训练方法、装置及终端有效
| 申请号: | 202210486474.6 | 申请日: | 2022-05-06 |
| 公开(公告)号: | CN114580578B | 公开(公告)日: | 2022-08-23 |
| 发明(设计)人: | 侯洁;孙涛;崔金强;丁玉隆;尉越 | 申请(专利权)人: | 鹏城实验室 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N20/00 |
| 代理公司: | 深圳市君胜知识产权代理事务所(普通合伙) 44268 | 代理人: | 朱阳波 |
| 地址: | 518000 广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 具有 约束 分布式 随机 优化 模型 训练 方法 装置 终端 | ||
本发明公开了一种具有约束的分布式随机优化模型训练方法、装置及终端,上述方法包括:循环获取所述智能体集合中的每一个智能体,对所述智能体进行迭代训练并在所述智能体中保存生成的迭代数据,直至所述模型的迭代次数达到设定次数;其中,对智能体进行迭代训练时获取随机训练样本,在每次迭代中通过随机选择的无偏随机局部梯度来计算局部目标函数的全局梯度。与现有技术相比,大大降低了梯度评估的成本和计算复杂性,可用于高维、大规模优化问题。
技术领域
本发明涉及机器学习技术领域,尤其涉及的是一种具有约束的分布式随机优化模型训练方法、装置及终端。
背景技术
近年来,随着高科技的蓬勃发展,特别是云计算和大数据等新兴领域的出现。具有约束和随机因素的分布式优化理论和应用得到了越来越多的重视,并逐渐渗透到科学研究、工程应用和社会生活的各个方面。分布式优化是通过多智能体之间的合作协调有效地实现优化的任务,可用来解决许多集中式算法难以胜任的大规模复杂的优化问题。可以创建具有约束的随机优化模型用来解决带有约束和随机因素的优化问题,目前对该优化模型训练时常采用基于投影的随机梯度下降法和条件梯度法。
采用基于投影的随机梯度下降法训练时,在向负随机梯度方向迈出一步后,迭代将被投射回约束集上。当执行投影的计算成本较低时(如投影单纯形上),这种方法是有效的。但在许多实际情况下,如处理迹范数球、基多面体等可行域情况时,投影到约束集上的成本可能很高,计算效能低。
条件梯度法,通过求解约束集上的线性最小化子问题来避免投影的计算以获得一个条件梯度,然后通过当前迭代和条件梯度的凸组合来更新下一步迭代。虽然条件梯度法及其变体可以解决具有约束和随机因素的随机优化问题,但是只能应用在集中式环境,无法应用在分布式环境中,并且收敛速率不快。
发明内容
本发明的主要目的在于提供一种具有约束的分布式随机优化模型训练方法、装置、智能终端及存储介质,能够对随机优化模型进行训练,以在分布式环境中解决具有复杂约束和随机因素的优化问题。
为了实现上述目的,本发明第一方面提供一种具有约束的分布式随机优化模型训练方法,所述模型中包括由至少两个智能体组成的智能体集合,所述方法包括:
循环获取所述智能体集合中的每一个智能体,对所述智能体进行迭代训练并在所述智能体中保存生成的迭代数据,直至所述模型的迭代次数达到设定次数;
所述对智能体进行迭代训练包括如下步骤:
获取训练样本,所述训练样本为随机的样本数据;
基于所述智能体集合中各智能体之间的关联关系,获得与当前迭代的智能体对应的邻居节点数据;
基于所述邻居节点数据,根据平均一致性算法获得平均状态数据;
基于所述平均状态数据和当前迭代的智能体的迭代数据,计算随机梯度并根据所述随机梯度计算局部梯度;
计算局部梯度的梯度下降值并根据所述邻居节点数据获得全局梯度;
基于所述全局梯度,根据条件梯度算法更新当前迭代的智能体的待优化参数。
可选的,所述基于所述平均状态数据和当前迭代的智能体的迭代数据,计算随机梯度并根据所述随机梯度计算局部梯度,包括:
基于所述平均状态数据,获得第一随机梯度;
基于所述迭代数据中的平均状态数据,获得第二随机梯度;
基于预设的衰减步长、所述迭代数据中的局部梯度、所述第一随机梯度、所述第二随机梯度,获得所述局部梯度。
可选的,所述基于预设的衰减步长、所述迭代数据中的局部梯度、所述第一随机梯度、所述第二随机梯度,获得所述局部梯度的表达式为:
,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于鹏城实验室,未经鹏城实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210486474.6/2.html,转载请声明来源钻瓜专利网。





