[发明专利]数据训练方法及装置、存储介质、电子装置在审
申请号: | 201711488171.3 | 申请日: | 2017-12-29 |
公开(公告)号: | CN109993299A | 公开(公告)日: | 2019-07-09 |
发明(设计)人: | 韩炳涛 | 申请(专利权)人: | 中兴通讯股份有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 江舟;董文倩 |
地址: | 518057 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 存储介质 电子装置 集群资源 数据训练 样本数据 训练样本数据 并行训练 训练模型 可用 | ||
本发明提供了一种数据训练方法及装置、存储介质、电子装置,其中,该方法包括:确定样本数据和可用的集群资源;将总训练模型拆分为多个子模型;使用集群资源在多个子模型上并行训练样本数据。通过本发明,解决了相关技术中训练样本数据效率过低的技术问题。
技术领域
本发明涉及人工智能领域,具体而言,涉及一种数据训练方法及装置、存储介质、电子装置。
背景技术
相关技术中,深度学习模型(Deep Learning Models)的训练需要消耗庞大的计算力,完成一次训练的耗时经常达到数天甚至数月。因此,为了加快深度学习模型的训练,通常采用增加处理设备,优化训练模型来实现,但第一种会加大网络资源的投入量,第二种在短时间内也很难实现。
针对相关技术中存在的上述问题,目前尚未发现有效的解决方案。
发明内容
本发明实施例提供了一种数据训练方法及装置、存储介质、电子装置。
根据本发明的一个实施例,提供了一种数据训练方法,包括:确定样本数据和可用的集群资源;将总训练模型拆分为多个子模型;使用所述集群资源在所述多个子模型上并行训练所述样本数据。
根据本发明的另一个实施例,提供了一种数据训练装置,包括:确定模块,用于确定样本数据和可用的集群资源;拆分模块,用于将总训练模型拆分为多个子模型;训练模块,用于使用所述集群资源在所述多个子模型上并行训练所述样本数据。
根据本发明的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明,通过将总训练模型拆分为多个子模型,然后在多个子模型上并行训练样本数据,解决了相关技术中训练样本数据效率过低的技术问题,在不增加网络资源的情况下,提高了训练样本数据的速度。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的数据训练方法的流程图;
图2是根据本发明实施例的数据训练装置的结构框图;
图3是本实施例提供的并行算法示意图;
图4是本实施例提供的基于输入拆分方案示意图;
图5是本实施例提供的Split-Concat算子优化方案示意图;
图6是本实施例提供的基于参数拆分方案示意图;
图7是根据本实施例提供的交互流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
实施例1
在本实施例中提供了一种数据训练方法,图1是根据本发明实施例的数据训练方法的流程图,如图1所示,该流程包括如下步骤:
步骤S102,确定样本数据和可用的集群资源;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中兴通讯股份有限公司,未经中兴通讯股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711488171.3/2.html,转载请声明来源钻瓜专利网。
- 上一篇:用于压缩神经网络的方法和装置
- 下一篇:一种神经网络模型的训练方法及装置