[发明专利]卷积神经网络在量化过程前向推理降低精度损失的方法在审
| 申请号: | 202010020803.9 | 申请日: | 2020-01-09 |
| 公开(公告)号: | CN113095472A | 公开(公告)日: | 2021-07-09 |
| 发明(设计)人: | 周飞飞;于晓静 | 申请(专利权)人: | 北京君正集成电路股份有限公司 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
| 代理公司: | 北京竹辰知识产权代理事务所(普通合伙) 11706 | 代理人: | 聂鹏 |
| 地址: | 100193 北京市海淀区西北旺*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 卷积 神经网络 量化 过程 推理 降低 精度 损失 方法 | ||
本发明提供一种提供卷积神经网络在量化过程前向推理降低精度损失的方法,所述方法包括:在进行权重量化反量化过程中,提取batchnorm值,避免batchnorm值异常值对权重量化影响;卷积之后32bit反量化输出与batchnorm提取值相乘,从而避免精度损失。所述的量化过程是直接对权重进行量化,不对权重合并任何batchnorm参数值。
技术领域
本发明涉及卷积神经网络8bit量化反量化技术领域,特别涉及一种卷积神经网络在量化过程前向推理降低精度损失的方法。
背景技术
卷积神经网络(CNN)是一种用于进行图像处理的、包含卷积计算且具有深度结构的前馈神经网络,其被广泛用于图像分类、图像识别等。近年来,随着科技的飞速发展,大数据时代已经到来。深度学习以深度神经网络(DNN)作为模型,在许多人工智能的关键领域取得了十分显著的成果。卷积神经网络(CNN)作为一种典型的DNN结构,能有效提取出图像的隐层特征,并对图像进行准确分类,在近几年的图像识别和检测领域得到了广泛的应用。
量化网络最初的动机是减小模型文件尺寸,利用8-bit量化能缩小到原来的四分之一,在模型载入后仍转换回浮点数。具体方法是在网络权值保存为文件时,将每层最小值、最大值存储下来,然后将每个浮点数值采用8-bit整数表示(在最大值、最小值范围内空间线性划分256段,每段用一个唯一的8-bit整数表示在该段内的实数值)。将计算移植到8-bit可以帮助你更快地运行模型,功耗更低,在移动设备上特别重要。google量化反量化首先需要把batchnorm值合并入权重值,对合并之后权重值进行整体量化及反量化操作。
现有技术中的术语和解释:
卷积神经网络(Convolutional Neural Networks,CNN):是一类包含卷积计算且具有深度结构的前馈神经网络。
检测模型:根据目标任务定位图像中的目标对象的位置。
量化反量化:量化指将全精度模型中权重值以离散值形式进行8bit存储,反量化指将8bit离散值反量化到全精度;
batchnorm:训练过程中对神经网络每一层进行归一化的方法,能有效加速收敛速度及模型稳定性;
前向传播:利用已固化神经网络进行前向运算,获得预测结果。
推理:在深度学习中,推理是指将一个预先训练好的神经网络模型部署到实际业务场景中,如图像分类、物体检测、在线翻译等。由于推理直接面向用户,因此推理性能至关重要,尤其对于企业级产品而言更是如此。
现有技术中batchnorm是按照通道合并,不可避免出现某个通道值偏大,进一步影响整体量化精度,使得模型整体精度损失严重。
发明内容
为了解决上述问题,特别是模型推理和模型后处理之间产生等待的问题,本发明的目的在于:让模型推理和模型结果后处理可以并行运行,从而提高检测模型的整体效率。
具体地,本发明提供卷积神经网络在量化过程前向推理降低精度损失的方法,所述方法包括:在进行权重量化反量化过程中,提取batchnorm值,避免batchnorm值异常值对权重量化影响;卷积之后32bit反量化输出与batchnorm提取值相乘,从而避免精度损失。
所述的量化过程是直接对权重进行量化,不对权重合并任何batchnorm参数值。
进一步包括:
假设第i层的量化计算如下所示:
X0=scale×D(Xi×Q(W))+b
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京君正集成电路股份有限公司,未经北京君正集成电路股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010020803.9/2.html,转载请声明来源钻瓜专利网。





