[发明专利]智能分配模型训练内存方法、装置及计算机可读存储介质有效
| 申请号: | 201910520760.8 | 申请日: | 2019-06-14 |
| 公开(公告)号: | CN110363303B | 公开(公告)日: | 2023-07-07 |
| 发明(设计)人: | 金戈;徐亮 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
| 主分类号: | G06N20/00 | 分类号: | G06N20/00;G06N3/0442;G06N3/0464;G06N3/084 |
| 代理公司: | 深圳市沃德知识产权代理事务所(普通合伙) 44347 | 代理人: | 于志光;高杰 |
| 地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 智能 分配 模型 训练 内存 方法 装置 计算机 可读 存储 介质 | ||
1.一种智能分配模型训练内存的方法,其特征在于,所述方法包括:
在python环境构建PyTorch框架,所述PyTorch框架包括多种机器学习模型,利用所述PyTorch框架接收训练数据,并将所述训练数据随机分割为单元数据集A和单元数据集B;
将所述单元数据集A采用批量梯度下降法运算后得到小批量梯度数据集,利用所述PyTorch框架创建循环神经网络,将所述小批量梯度数据集输入至所述循环神经网络中进行反向传播训练得到训练值,直至所述循环神经网络的训练值小于预设阈值时,所述循环神经网络退出训练并输出所述反向传播训练的内存空间余量值:
其中ω’为所述内存空间余量值,ω为所述小批量梯度数据集,k为所述循环神经网络模型的卷积核,s为所述小批量梯度数据集与所述循环神经网络模型隐藏层的基本参数进行卷积操作时的步幅,p为数据补零矩阵;
根据所述内存空间余量值,以及所述单元数据集A和单元数据集B的数量比,计算多种机器学习模型训练所述单元数据集B时所占用的模型训练内存,根据所述模型训练内存,将所述单元数据集B分别导入所述多种机器学习模型进行训练,直至所述多种机器学习模型的训练值收敛于预设区间时完成训练。
2.如权利要求1所述的智能分配模型训练内存的方法,其特征在于,所述多种机器学习模型包括朴素贝叶斯、支持向量机、卷积神经网络;
所述训练数据按照数据格式划分为文本数据、图片数据。
3.一种智能分配模型训练内存的装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的智能训练程序,所述智能训练程序被所述处理器执行时实现如下步骤:
在python环境构建PyTorch框架,所述PyTorch框架包括多种机器学习模型,利用所述PyTorch框架接收训练数据,并将所述训练数据随机分割为单元数据集A和单元数据集B;
将所述单元数据集A采用批量梯度下降法运算后得到小批量梯度数据集,利用所述PyTorch框架创建循环神经网络,将所述小批量梯度数据集输入至所述循环神经网络中进行反向传播训练得到训练值,直至所述循环神经网络的训练值小于预设阈值时,所述循环神经网络退出训练并输出所述反向传播训练的内存空间余量值:
其中ω’为所述内存空间余量值,ω为所述小批量梯度数据集,k为所述循环神经网络模型的卷积核,s为所述小批量梯度数据集与所述循环神经网络模型隐藏层的基本参数进行卷积操作时的步幅,p为数据补零矩阵;
根据所述内存空间余量值,以及所述单元数据集A和单元数据集B的数量比,计算多种机器学习模型训练所述单元数据集B时所占用的模型训练内存,根据所述模型训练内存将所述单元数据集B分别导入所述多种机器学习模型进行训练,直至所述多种机器学习模型的训练值收敛于预设区间时完成训练。
4.如权利要求3所述的智能分配模型训练内存的装置,其特征在于,所述多种机器学习模型包括朴素贝叶斯、支持向量机、卷积神经网络;
所述训练数据按照数据格式划分为文本数据、图片数据。
5.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能训练程序,所述智能训练程序可被一个或者多个处理器执行,以实现如权利要求1至2中任一项所述的智能分配模型训练内存的方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910520760.8/1.html,转载请声明来源钻瓜专利网。





