[发明专利]一种深度神经网络的压缩方法、装置及计算机可读存储介质在审

专利信息
申请号: 201910002531.7 申请日: 2019-01-02
公开(公告)号: CN111401544A 公开(公告)日: 2020-07-10
发明(设计)人: 鲍媛媛 申请(专利权)人: 中国移动通信有限公司研究院;中国移动通信集团有限公司
主分类号: G06N3/08 分类号: G06N3/08
代理公司: 北京派特恩知识产权代理有限公司 11270 代理人: 高洁;张颖玲
地址: 100053 北*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 深度 神经网络 压缩 方法 装置 计算机 可读 存储 介质
【说明书】:

发明公开了一种深度神经网络的压缩方法、装置及计算机可读存储介质,所述方法包括:基于预设训练集,预先训练得到初始深度神经网络;构建与所述预设训练集同分布的第一数据集;利用所述初始深度神经网络对所述第一数据集进行处理,得到所述第一数据集的标注集;构建浅层神经网络,基于所述第一数据集以及所述第一数据集的标注集,对所述浅层神经网络进行监督训练,得到所述浅层神经网络的网络参数。

技术领域

本发明涉及深度学习领域,尤其涉及一种深度神经网络的压缩方法、装置及计算机可读存储介质。

背景技术

现有的神经网络压缩方法主要有网络剪枝、权值量化两种,两种方式都是对初始训练得到的模型进行分析,通过权值阈值等方式确定剪枝、量化等操作的对象,因此,目前神经网络压缩方法没有从本质上改变网络结构,只是对网络结构进行微调整,因此涉及的模型参数值、计算量仍很大,致使神经网络模型部署在轻量级的设备上所需花费的成本仍很高。

发明内容

为解决上述技术问题,本发明实施例提供了一种深度神经网络的压缩方法、装置及计算机可读存储介质。

本发明实施例提供的一种深度神经网络的压缩方法,包括:

基于预设训练集,预先训练得到初始深度神经网络;

构建与所述预设训练集同分布的第一数据集;

利用所述初始深度神经网络对所述第一数据集进行处理,得到所述第一数据集的标注集;

构建浅层神经网络,基于所述第一数据集以及所述第一数据集的标注集,对所述浅层神经网络进行监督训练,得到所述浅层神经网络的网络参数。

其中,所述构建与所述预设训练集同分布的第一数据集,包括:

获取所述预设训练集X:

X={xi,i=1,2,3,…,m};

其中,xi={xij,j=1,2,3,…,n};m表示所述训练集X包含的样本个数,n表示样本xi中包含的数值的个数,m和n均为正整数;

构建与X中每一个样本xi距离最近的两个样本pi和qi

pi={pij,j=1,2,3,…,n};

基于所述样本pi和qi,构建与样本xi对应的数据样本zi:

zi={zij,j=1,2,3,…,n};

其中,zij根据以下关系式得到:

其中,θ满足:0≤θ≤1,α满足:0≤α≤1;

基于得到的数据样本zi,构建与所述预设训练集同分布的第一数据集Z:

Z={zi,i=1,2,3,…,m}。

其中,所述利用所述初始深度神经网络对所述第一数据集进行处理,得到所述第一数据集的标注集,包括:

将所述第一数据集输入所述初始深度神经网络,得到输出数据集,作为所述第一数据集的标注集。

其中,所述基于预设训练集,预先训练得到初始深度神经网络,包括:

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国移动通信有限公司研究院;中国移动通信集团有限公司,未经中国移动通信有限公司研究院;中国移动通信集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910002531.7/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top