[发明专利]一种基于联合动态剪枝的深度神经网络压缩方法在审
申请号: | 202011561741.9 | 申请日: | 2020-12-25 |
公开(公告)号: | CN112613610A | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 张明明;宋浒;卢庆宁;俞俊;温磊;刘文盼;范江;查易艺 | 申请(专利权)人: | 国网江苏省电力有限公司信息通信分公司;南瑞集团有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 柏尚春 |
地址: | 210008 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 联合 动态 剪枝 深度 神经网络 压缩 方法 | ||
1.一种基于联合动态剪枝的深度神经网络压缩方法,其特征在于:包括以下步骤:
步骤1:获得卷积核动态剪枝率β和通道动态压缩率α两个超参数;
步骤2:利用卷积核动态剪枝方法,剪除卷积层中Mi(1-β)个卷积核,其中Mi为第i层卷积核个数;
步骤3:利用通道动态压缩方法,选择Niα个通道参与训练,其中Ni为第i层输入通道数;
步骤4:训练过程中更新模型参数,使得卷积核动态剪枝收敛为通道动态压缩的子集。
2.根据权利要求1所述基于联合动态剪枝的深度神经网络压缩方法,其特征在于:步骤2包括以下步骤:
步骤21:获得同一卷积层中每一个卷积核的L1范数;
步骤22:将该卷积层中L1范数最小的Mi(1-β)个卷积核进行置零;
步骤23:反向传播中更新模型参数,然后返回步骤(21),进行模型下一轮迭代;
步骤24:迭代完成时剪除为零的卷积核。
3.根据权利要求1所述基于联合动态剪枝的深度神经网络压缩方法,其特征在于:步骤2根据删除模型参数以降低复杂度的原则剪除迭代收敛后对卷积运算的影响小于设定阈值的卷积核。
4.根据权利要求1所述基于联合动态剪枝的深度神经网络压缩方法,其特征在于:步骤3包括以下步骤:
步骤31:利用全局平均池化方法,采样输入特征图;
步骤32:将输入特征图的采样作为预测网络的输入,计算其通道重要性函数;
步骤33:基于胜者通吃原则,将通道重要性函数权值最小的Ni(1-α)个通道置零;
步骤34:将该卷积层对应BN层的缩放因子γ替换为通道重要性函数权值;
步骤35:在反向传播中更新模型参数。
5.根据权利要求4所述基于联合动态剪枝的深度神经网络压缩方法,其特征在于:步骤32中所述预测网络采用全连接神经网络,并与训练网络独立。
6.根据权利要求1所述基于联合动态剪枝的深度神经网络压缩方法,其特征在于:步骤3中根据在不删除模型参数的同时降低复杂度的原则,选择Niα个通道参与训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网江苏省电力有限公司信息通信分公司;南瑞集团有限公司,未经国网江苏省电力有限公司信息通信分公司;南瑞集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011561741.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种数据处理方法与装置
- 下一篇:一种铁路货车车厢号识别抓拍方法及系统