[发明专利]一种卷积神经网络的快速卷积计算方法、设备及存储介质在审
申请号: | 202111027436.6 | 申请日: | 2021-09-02 |
公开(公告)号: | CN113705808A | 公开(公告)日: | 2021-11-26 |
发明(设计)人: | 钱涛;邹帅;孙浩;李甜;韩冰;贾佳;周莉;刘冬阳 | 申请(专利权)人: | 新疆信息产业有限责任公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06F17/15;G06N3/04 |
代理公司: | 济南金迪知识产权代理有限公司 37219 | 代理人: | 杨树云 |
地址: | 830000 新疆维吾尔自治区乌鲁木齐市*** | 国省代码: | 新疆;65 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 卷积 神经网络 快速 计算方法 设备 存储 介质 | ||
本发明涉及一种卷积神经网络的快速卷积计算方法、设备及存储介质,该方法应用于大多现有卷积神经网络结构,如AlexNet,ResNet,包括步骤如下:(1)先确定所需处理的图像的特征大小以及卷积核大小n*n;(2)建立存储图像特征的空平面;(3)根据卷积核大小建立空平面;(4)将卷积核与特征图像中的元变换到对数域中,即从整数到对数;将对应元做相加处理,将相加结果转换到整数域,即从对数到整数;(5)将所得结果读入空平面中;求取卷积的特征图。本发明(加法)大大节约计算机内存空间,加快了计算速度,节约了训练时间。
技术领域
本发明涉及一种卷积神经网络的快速卷积计算方法、设备及存储介质,属于人工智能深度学习技术领域。
背景技术
随着近年来深度学习技术的快速发展,实际应用中往往需要往往需要完成对大量数据集的处理和识别,所以对深度学习模型的训练速度要求越来越高。
卷积神经网络在深度学习图像识别领域发挥着重要作用,近年来为了达到更好的识别准确率,卷积神经网络模型在层数设计上在逐步递增,例如,2012年AlexNet模型包含8层网络结构,而2015年的ResNet模型已达到100多层甚至上千层网络结构,同时需要训练海量数据集,使得卷积神经网络在进行图像训练及识别时往往要消耗大量时间,这对基于卷积神经网络的图像识别开展产生了很大的限制性。而卷积神经网络在训练时最耗时的模块就是卷积计算,所以对卷积模块的算法优化非常重要。因此,如何提高卷积计算效率,是本领域技术人员需要解决的问题。
基础的CNN由卷积(convolution)、激活(activation)和池化(pooling)三种结构组成,对于CNN中最基础的操作2-D卷积,现有的卷积处理方式是:卷积核kernel所有权重与其在输入图像上对应元素亮度之和,可以表示为(忽略偏移量):其中(x,y)为单一通道输入图像的空间坐标,p*q为卷积核大小,w为卷积核权重,v为图像亮度值。而计算机在计算实数w和v相乘时会占用大量的计算机空间,因此此种算法对计算机的内存大小要求较高,且耗时较长。
发明内容
针对现有技术的不足,本发明提供了一种对数域内进行的快速卷积计算方法;
本发明还提供了一种计算机设备及存储介质。
术语解释:
空平面,即用于储存特征的矩阵(张量),对于矩阵内任意空间坐标(p,q)值dpq=0。
本发明的技术方案为:
一种对数域内进行的快速卷积计算方法,该方法应用于大多现有卷积神经网络结构,如AlexNet,ResNet,包括步骤如下:
(1)先确定所需处理的图像的特征大小M*N以及卷积核大小n*n,记图像中像素的亮度值为aij,aij∈[1,255],1≤i≤M,1≤j≤N;卷积核中神经元的权重为bkl,1≤k≤n,1≤l≤n,根据对数运算性质,对于所有实数A和B,logA+logB=logA*B,得到:aij*bkl=log-1(logaij+logbkl);
(2)设步长为α,根据图像的特征大小M*N,建立(M-n)/α*(N-n)/α大小的存储图像特征的空平面,即对于所有1≤p≤(M-n)/α,1≤q≤(N-n)/α,dpq=0;
(3)根据卷积核大小n*n,建立n*n大小的空平面;
(4)将卷积核与特征图像中的元变换到对数域中,即从整数到对数;将对应元做相加处理,将相加结果转换到整数域,即从对数到整数;
(5)将所得结果读入空平面中;求取卷积的特征图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新疆信息产业有限责任公司,未经新疆信息产业有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111027436.6/2.html,转载请声明来源钻瓜专利网。