[发明专利]分布式的模型训练方法、系统、设备以及存储介质在审
申请号: | 202111301761.7 | 申请日: | 2021-11-04 |
公开(公告)号: | CN114139605A | 公开(公告)日: | 2022-03-04 |
发明(设计)人: | 胡建猛 | 申请(专利权)人: | 乐视新生代(北京)文化传媒有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京华专卓海知识产权代理事务所(普通合伙) 11664 | 代理人: | 王一 |
地址: | 100025 北京市朝阳*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布式 模型 训练 方法 系统 设备 以及 存储 介质 | ||
本公开的实施例提供了分布式的模型训练方法、系统、设备以及存储介质。该方法应用于包括多个节点服务器的集群服务器,该方法包括接收用户输入的待训练模型以及训练样本;集群服务器中的每个节点服务器,根据训练样本,对待训练模型进行训练,其中,训练样本包括样本数据以及样本数据对应的标识;当训练得到的模型对训练样本中的样本数据进行计算得到的标识,与样本数据对应的标识的差值小于预设阈值时,将训练得到的模型作为目标模型。以此方式,可以提高模型训练的效率。
技术领域
本公开涉及模型训练领域,尤其涉及分布式的模型训练领域。
背景技术
目前,在同一个系统下,各个节点所持有的模型不同,因此各个节点的模型训练结果不同,这将会导致系统下数据整体不稳定,进而浪费计算资源,实际训练效率较低。
发明内容
本公开提供了一种分布式的模型训练方法、系统、设备以及存储介质。
根据本公开的第一方面,提供了一种分布式的模型训练方法,应用于包括多个节点服务器的集群服务器,该方法包括:
接收用户输入的待训练模型以及训练样本;
集群服务器中的每个节点服务器,根据训练样本,对待训练模型进行训练,其中,训练样本包括样本数据以及样本数据对应的标识;
当训练得到的模型对训练样本中的样本数据进行计算得到的标识,与样本数据对应的标识的差值小于预设阈值时,将训练得到的模型作为目标模型。
在第一方面的一些实现方式中,所述集群服务器中的每个节点服务器,根据训练样本,对待训练模型进行训练,包括:
集群服务器中的每个节点服务器并行运行,基于待训练模型,对训练样本中的样本数据进行计算,得到标识;
根据标识与样本数据对应的标识之间的差值,调整待训练模型中的参数。
在第一方面的一些实现方式中,当训练得到的模型对训练样本中的样本数据进行计算得到的标识,与样本数据对应的标识的差值小于预设阈值时,将训练得到的模型作为目标模型,包括:
当训练得到的模型对训练样本中的样本数据进行计算得到的标识,与样本数据对应的标识的差值小于预设阈值时,生成训练停止命令,以用于集群服务器中的每个节点服务器基于训练停止命令停止训练;
将训练得到的模型作为目标模型。
在第一方面的一些实现方式中,在训练得到目标模型后,该方法还包括:
训练得到目标模型的节点服务器,将目标模型发送给集群服务器中的其他节点服务器,以用于其他节点服务器基于目标模型进行对应计算。
在第一方面的一些实现方式中,该方法还包括:
根据每个节点服务器中目标模型对应的差值,选取差值最小的目标模型作为最优模型。
在第一方面的一些实现方式中,在接收用户输入的待训练模型之前,该方法还包括:
当集群服务器中存在除待训练模型之外的其他模型时,删除其他模型。
在第一方面的一些实现方式中,该方法还包括:
接收用户输入的新的训练样本;
根据预设周期,基于新的训练样本,对目标模型中的参数进行调整。
根据本公开的第二方面,提供了一种分布式的模型训练系统,该模型训练系统包括多个节点服务器;其中,
至少一个节点服务器,用于接收用户输入的待训练模型以及训练样本;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于乐视新生代(北京)文化传媒有限公司,未经乐视新生代(北京)文化传媒有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111301761.7/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种组合式多功能LED灯具
- 下一篇:一种具有语音识别的智能消防疏散机器人