[发明专利]用于深度神经网络频繁传输的压缩方法及系统有效
| 申请号: | 201810528239.4 | 申请日: | 2018-05-29 |
| 公开(公告)号: | CN108665067B | 公开(公告)日: | 2020-05-29 |
| 发明(设计)人: | 段凌宇;陈子谦;楼燚航;黄铁军 | 申请(专利权)人: | 北京大学 |
| 主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
| 代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 刘广达 |
| 地址: | 100871*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 用于 深度 神经网络 频繁 传输 压缩 方法 系统 | ||
1.一种基于深度神经网络频繁传输压缩的方法,用于图像检索、分割和/或分类任务、语音识别,其特征在于,包括:
基于本次和历史传输的一个或多个深度神经网络模型,将待传输模型部分或全部与历史传输的模型之间部分或全部的模型差异进行组合,生成一个或多个预测残差,并将相关预测所需信息进行传输;
基于接收到的一个或多个量化的预测残差和在接收端存储的深度神经网络进行组合,对原存储的深度神经网络模型进行替换或累加,生成接收的深度神经网络;
基于所述接收的深度神经网络进行图像检索、分割和/或分类任务、语音识别;
所述方法具体包括:传输端将待传输的深度神经网络送入压缩端,压缩端获得待传输的一个或多个深度神经网络的数据信息和组织方式;
压缩端的预测模块基于本次和历史传输的一个或多个深度神经网络模型,进行多次传输的模型预测压缩,产生待传输的一个或多个深度神经网络的预测残差;
压缩端的量化模块基于产生的一个或多个预测残差,采取一种或多种量化方式对预测残差进行量化,生成一个或多个量化的预测残差;
压缩端的编码模块基于一个或多个产生的量化的预测残差,采取编码的方法对量化的预测残差进行编码,生成一个或多个编码的预测残差并传输;
解压端接收到一个或多个编码的预测残差,在解压端的解压模块采取对应的解码方法对编码的预测残差进行解码,产生一个或多个量化的预测残差;
在解压端的模型预测解压模块,基于一个或多个量化的预测残差和在接收端前一次的存储的深度神经网络,通过多个模型预测的方式,在接收端生成接收的深度神经网络。
2.根据权利要求1所述的方法,其特征在于,
所述深度神经网络的数据信息和组织方式包含部分或全部深度神经网络的数据和网络结构。
3.根据权利要求1所述的方法,其特征在于,
在所述压缩端基于频繁传输的环境下,能够获得对应接收端的历史传输的一个或多个深度神经网络模型的数据信息和组织方式,若无历史传输的深度神经网络模型,将空模型设定为默认的历史传输模型。
4.根据权利要求1所述的方法,其特征在于,
所述模型预测压缩利用多个完整或预测的模型之间的冗余性进行压缩。
5.根据权利要求4所述的方法,其特征在于,
所述模型预测压缩为以下方式:采用计算待传输的深度神经网络模型和历史传输的深度神经网络模型之间整体的残差。
6.根据权利要求1所述的方法,其特征在于,
所述模型预测压缩包含源于一种或多种残差压缩粒度或深度神经网络的一种或多种数据信息和组织方式。
7.根据权利要求3所述的方法,其特征在于,
所述接收端的历史传输的多个模型是完整无损模型和/或有损的部分模型。
8.根据权利要求1所述的方法,其特征在于,
所述量化方式包含采取原始数据直接输出,或者对待传输的权重的精度控制,或者采取kmeans非线性量化算法。
9.根据权利要求1所述的方法,其特征在于,
所述多个模型预测的方式包括:对原存储的一个或多个深度神经网络模型进行替换或累加。
10.根据权利要求1所述的方法,其特征在于,
所述多个模型预测的方式包括:同时或非同时地接收一个或多个量化的预测残差,结合原存储的一个或多个深度神经网络部分或全部的累加或替换。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810528239.4/1.html,转载请声明来源钻瓜专利网。





