[发明专利]数据处理方法和处理器在审
申请号: | 201911342244.7 | 申请日: | 2019-12-23 |
公开(公告)号: | CN110866603A | 公开(公告)日: | 2020-03-06 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 中科寒武纪科技股份有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 朱五云 |
地址: | 100190 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 数据处理 方法 处理器 | ||
本申请涉及一种数据处理方法和处理器,该方法在预设的条件满足时可以直接执行所述网络的各个层的前向推理操作。采用该方法,能够大大减少网络的计算量,进而极大的降低了资源占用率,进而大大提高了网络的执行效率,提高了图像数据、语音数据和文本数据的处理效率。
技术领域
本申请涉及计算机应用技术领域,特别是涉及一种数据处理方法和处理器。
背景技术
随着神经网络技术的发展,深度学习框架(Caffe)已经广泛的得到应用。
在Caffe的原生设计中,神经网络在每次前向推理(forward)时都会执行一次重塑(reshape)。对于处理器而言,重塑的过程需要重置所有算子和张量资源,然后再进行计算。例如,在神经网络处理图像数据的过程中,一个网络层对图像数据进行卷积操作,并输入下一个网络层的时候,每次都执行重塑的过程,即重置所有的算子和张量,然后,基于重置后的算子和张量,对上述图像数据进行计算。在神经网络处理语音数据和文本数据的时候也是采用这样的方法。
在传统的数据处理过程中,网络在处理数据时由于反复重塑,导致计算量大,资源占用率高,对于图像、文本和语音数据的处理效率低。
发明内容
基于此,有必要针对传统的神经网络中网络前向推理时进行重塑所导致处理效率低的问题,提供一种数据处理方法、装置、处理器、主板和电子设备。
第一方面,本申请实施例提供一种数据处理方法,所述方法包括:
获取网络的各个层对应的重塑标识值;其中,所述重塑标识值用于指示所述网络的各个层是否执行重塑操作;其中,所述输入数据包括图像数据、语音数据和文本数据中的至少一种;
当所述重塑标识值为第一预设值时,确定所述第一预设值对应的层无需执行重塑操作,基于所述网络的输入数据直接执行所述第一预设值对应的各个层的前向推理操作。
在其中一个实施例中,当所述重塑标识值为第二预设值时,确定所述第二预设值对应的层需要执行重塑操作,根据所述第二预设值对应的各个层的所述输入数据进行重塑操作,再基于所述输入数据执行所述网络的前向推理操作,其中,所述第一预设值与所述第二预设值不同。
在其中一个实施例中,所述方法还包括:
获取所述网络的各个层的重塑模式;
分别根据所述网络的各个层的重塑模式,确定所述网络各个层对应的重塑标识值。
在其中一个实施例中,所述重塑模式包括无闲模式;所述分别根据所述网络的各个层的重塑模式确定所述网络各个层对应的重塑标识值,包括:
当所述重塑模式为所述无闲模式时,则确定所述重塑标识值为所述第二预设值。
在其中一个实施例中,所述重塑模式包括初始化模式;所述分别根据所述网络的各个层的重塑模式确定所述网络各个层对应的重塑标识值,包括:
当所述重塑模式为所述初始化模式时,则根据所述网络的初始化信息,确定所述重塑标识值,所述初始化信息用于表征所述网络是否进行初始化。
在其中一个实施例中,所述根据所述网络的初始化信息,确定所述重塑标识值,包括:
当所述初始化信息为所述网络已初始化时,则确定所述重塑标识值为所述第二预设值;
当所述初始化信息为所述网络未初始化时,则确定所述重塑标识值为所述第一预设值。
在其中一个实施例中,所述重塑模式包括检测模式;所述分别根据所述网络的各个层的重塑模式确定所述网络各个层对应的重塑标识值,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科寒武纪科技股份有限公司,未经中科寒武纪科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911342244.7/2.html,转载请声明来源钻瓜专利网。