[发明专利]基于稀疏卷积神经网络的模型压缩方法、系统及相关设备在审
| 申请号: | 202011065618.8 | 申请日: | 2020-09-30 |
| 公开(公告)号: | CN112183748A | 公开(公告)日: | 2021-01-05 |
| 发明(设计)人: | 朱凤华;韦越;陈世超;陈圆圆;吕宜生;熊刚;叶佩军;王飞跃 | 申请(专利权)人: | 中国科学院自动化研究所 |
| 主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
| 代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩;尹文会 |
| 地址: | 100190 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 稀疏 卷积 神经网络 模型 压缩 方法 系统 相关 设备 | ||
本发明涉及深度学习技术领域,具体涉及一种基于稀疏卷积神经网络的模型压缩方法、系统及相关设备,旨在减轻模型对资源的占用。本发明的压缩方法包括:对模型进行稀疏正则化训练得到待压缩模型;根据待压缩模型各卷积层与BN层的参数,计算各滤波器的重要性评分;根据重要性评分以及预设的剪枝率设定重要性阈值;将重要性评分低于重要性阈值的滤波器,以及该滤波器对应的BN层参数一并剪除,获得剪枝后的模型。还可以对剪枝后的模型进行微调,以保证模型精度不低于预设的精度。本发明在不影响模型性能的前提下,实现了对模型参数量与计算量的大幅压缩,可以很好地减轻模型对资源的占用问题,使得深度学习模型能在资源受限的边缘计算设备上运行。
技术领域
本发明涉及深度学习技术领域,具体涉及一种基于稀疏卷积神经网络的模型压缩方法、系统及相关设备。
背景技术
深度学习如今迅速发展,在计算机视觉、语音识别、自然语言处理、自动驾驶等领域获得广泛应用,并且在移动端与嵌入式系统的边缘设备上有巨大的应用前景。
随着深度神经网络模型规模不断变大,训练和运行深度学习模型需要强大的计算能力和大量的数据存储空间,而边缘设备的存储空间与计算能力有限,这使得深度学习模型在资源受限的边缘设备上难以运行。因此,如何去除模型中多余的参数,且保证模型精度是目前需要解决的问题。
有鉴于此,特提出本发明。
发明内容
为了解决现有技术中的上述问题,本发明提出了一种基于稀疏卷积神经网络的模型压缩方法、系统及相关设备,在保证模型效果的前提下,压缩了神经网络模型,解决了模型参数量与计算量过大,难以在资源受限的边缘设备上运行的问题。
本发明的第一方面,提出一种基于稀疏卷积神经网络的模型压缩方法,所述方法包括:
通过对模型进行稀疏正则化训练,得到待压缩模型;
根据所述待压缩模型各卷积层与BN层的参数,计算各滤波器的重要性评分;
根据所述重要性评分以及预设的剪枝率设定重要性阈值;
将所述重要性评分低于所述重要性阈值的滤波器,以及该滤波器对应的BN层参数一并剪除,获得剪枝后的模型。
优选地,“通过对模型进行稀疏正则化训练,得到待压缩模型”的步骤包括:
通过下式在损失函数中添加惩罚因子:
L′=L+λR(X)
其中,L′是添加惩罚因子的损失函数,L是原损失函数,λR(X为添加的惩罚因子,λ是正则化系数,R(·)表示正则化范数,X表示卷积核的权重或BN层的缩放系数α,对于卷积核W={w1,w2,...,wm},m为卷积核W中权重参数w的数目;对于缩放系数α,R(α)=|α|。
优选地,对所述模型进行稀疏正则化训练时,在向后传播过程中通过下式对上一层权重X对应的输出梯度gX作为输入梯度进行稀疏正则化处理:
g′X=gX+λsign(X)
其中,g′X是稀疏化处理后梯度,λ是正则化系数,sign(·)是符号函数,对梯度gX对应的权重X的符号进行判断,在X0,X=0,X0时分别取-1,0,1;
所述上一层为卷积层或BN层,所述梯度为卷积层中各滤波器中卷积核权重的梯度或BN层中各缩放系数的梯度。
优选地,“根据所述待压缩模型各卷积层与BN层的参数,计算各滤波器的重要性评分”的步骤包括:
按照下式的方法对第n个滤波器的权重进行绝对值求和:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011065618.8/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种显示基板及其制备方法、显示装置
- 下一篇:一种抗菌硅胶材料及其制备方法





