[发明专利]神经网络模型的处理方法、装置、计算机设备和存储介质有效
申请号: | 202011213215.3 | 申请日: | 2020-11-04 |
公开(公告)号: | CN112036554B | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 郑哲;刘思亮;文博;刘云峰 | 申请(专利权)人: | 深圳追一科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06F9/50 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 魏宇星 |
地址: | 518051 广东省深圳市南山区粤海街道*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 处理 方法 装置 计算机 设备 存储 介质 | ||
本申请涉及一种神经网络模型的处理方法、装置、计算机设备和存储介质。所述方法包括:将神经网络模型加载在内存中;从所述内存中的所述神经网络模型中读取各个数据,从各个数据中确定数值类型的数据,将所述数值类型的数据转换为字符串类型的数据;和/或确定所述内存中的神经网络模型所包括的至少两个结构层数据,将所述至少两个结构层数据进行压缩。采用本方法能够降低神经网络模型所占用的内存空间大小。
技术领域
本申请涉及计算机技术领域,特别是涉及一种神经网络模型的处理方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,出现了人工智能技术,通过人工智能技术可以帮助人们进行智能处理各种任务,如语言识别、图像识别、自然语言处理等。在人工智能技术中,可以采用神经网络模型处理任务。神经网络(Neural Networks,NN)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。
然而,传统的神经网络模型,存在占用内存空间大的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够降低神经网络模型所占用的内存空间大小的神经网络模型的处理方法、装置、计算机设备和存储介质。
一种神经网络模型的处理方法,所述方法包括:
将神经网络模型加载在内存中;
从所述内存中的所述神经网络模型中读取各个数据,从各个数据中确定数值类型的数据,将所述数值类型的数据转换为字符串类型的数据;和/或
确定所述内存中的神经网络模型所包括的至少两个结构层数据,将所述至少两个结构层数据进行压缩。
在其中一个实施例中,所述结构层数据包括卷积层数据;
所述确定所述内存中的神经网络模型所包括的至少两个结构层数据,将所述至少两个结构层数据进行压缩,包括:
确定所述内存中的神经网络模型所包括的至少两个卷积层数据,将所述至少两个卷积层数据进行相乘,得到第一系列算子。
在其中一个实施例中,所述将所述至少两个卷积层数据进行相乘,得到第一系列算子之后,还包括:
将输入对象输入压缩完成的神经网络模型中,通过所述压缩完成的神经网络模型将所述输入对象与所述第一系列算子进行相乘,得到结果,并输出所述结果。
在其中一个实施例中,所述结构层数据包括池化层数据;
所述确定所述内存中的神经网络模型所包括的至少两个结构层数据,将所述至少两个结构层数据进行压缩,包括:
确定所述内存中的神经网络模型所包括的至少两个池化层数据,针对每一个所述池化层,将所述池化层数据转换成对应的中间卷积层数据;
将得到的至少两个所述中间卷积层数据进行相乘,得到第二系列算子。
在其中一个实施例中,所述针对每一个所述池化层,将所述池化层数据转换成对应的中间卷积层数据,包括:
针对每一个所述池化层数据,将所述池化层数据乘以预设矩阵,得到所述池化层数据对应的中间卷积层数据。
在其中一个实施例中,所述结构层数据包括卷积层数据和池化层数据;
所述确定所述内存中的神经网络模型所包括的至少两个结构层数据,将所述至少两个结构层数据进行压缩,包括:
确定所述内存中的神经网络模型所包括的至少两个卷积层数据,将所述至少两个卷积层数据进行相乘,得到第一系列算子;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳追一科技有限公司,未经深圳追一科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011213215.3/2.html,转载请声明来源钻瓜专利网。