[发明专利]基于神经网络中数据稀疏特性的智能训练加速方法及系统有效
| 申请号: | 202011633404.6 | 申请日: | 2020-12-31 |
| 公开(公告)号: | CN112308215B | 公开(公告)日: | 2021-03-30 |
| 发明(设计)人: | 何水兵;陈平;陈帅犇;杨斯凌;陈伟剑;孙贤和;陈刚;毛旷 | 申请(专利权)人: | 之江实验室;浙江大学 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06N7/00;G06F9/50 |
| 代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 邱启旺 |
| 地址: | 311121 浙江省杭州市余*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 神经网络 数据 稀疏 特性 智能 训练 加速 方法 系统 | ||
1.一种基于神经网络中数据稀疏特性的智能训练加速方法,其特征在于,包括以下步骤:
步骤一:采用贝叶斯优化器算法针对当前训练系统搜索出合适的GPU块数、网格大小;测出GPU与CPU之间的转移带宽,使用不同数据大小、不同稀疏度的样本对压缩、解压缩算法进行预运行,收集信息并拟合成数据大小、稀疏度与压缩/解压缩时间的关系曲线,建立获得压缩/解压缩算法的性能模型;
步骤二:收集神经网络模型训练时的数据信息,包括ReLu激活层输出的数据的大小、数据稀疏度信息以及ReLu激活层下一层的训练时间;
步骤三:根据收集到的数据信息以及性能模型进行智能决策:
若性能模型对应压缩后的开销小于原始数据的转移开销,则在神经网络模型训练过程中输出数据转移时进行对应的压缩/解压缩,反之不压缩;
其中,性能模型对应的压缩后的开销、原始数据的转移开销由下式表示:
T’(s) = max(2×(s / b) – hf – hb , 0)
T(s,r,tc,tdc) = tc + tdc + Of + Ob
Of =max(s×(1 - r) / b – hf , 0)
Ob =max(s×(1 - r) / b – hb , 0)
式中T’(s)表示原始数据的转移开销,T(s,r,tc,tdc)表示性能模型对应的压缩后的开销,s为数据大小,b为GPU与CPU之间的转移带宽,hf与hb分别表示前向传播与后向传播过程中ReLu激活层下一层的训练时间;tc、tdc分别表示压缩、解压缩的操作时间;Of、Ob分别表示被压缩后数据在前向传播与后向传播过程中的转移开销,r表示数据的稀疏度,s×(1-r)表示压缩后数据的大小;
步骤四:根据智能决策对神经网络模型进行训练;
步骤五:重复执行步骤二至四,直至训练完成。
2.根据权利要求1所述的智能训练加速方法,其特征在于,包括多个压缩与解压缩算法的性能模型。
3.根据权利要求1所述的智能训练加速方法,其特征在于,所述压缩算法为ZVC压缩算法和/或RLE压缩算法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室;浙江大学,未经之江实验室;浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011633404.6/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置





