[发明专利]数据处理方法及相关产品在审
| 申请号: | 202010336260.1 | 申请日: | 2020-04-24 |
| 公开(公告)号: | CN113554157A | 公开(公告)日: | 2021-10-26 |
| 发明(设计)人: | 曹雨;王文强;胡英俊;蒋科;其他发明人请求不公开姓名 | 申请(专利权)人: | 上海商汤智能科技有限公司 |
| 主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04 |
| 代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 熊永强;董文俊 |
| 地址: | 200233 上海市徐*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 数据处理 方法 相关 产品 | ||
本公开实施例公开了一种数据处理方法及相关产品,该方法包括:获取芯片设备的片内存储器的存储容量信息;依据所述存储容量信息,对神经网络模型中的至少一个网络层进行划分得到多个运算块。其中,多个运算块的最大数据量小于所述存储容量信息对应的存储容量,所述多个运算块被编译为被所述芯片设备执行的操作指令。采用本申请,可提高数据处理效率。
技术领域
本申请涉及计算机技术领域,具体涉及一种数据处理方法及相关产品。
背景技术
目前,在运算神经网络的芯片设备的片内存储较小时,需借助片外存储器逐层进行运算,以减小运算数据。具体的,芯片设备先从片外存储器获取当前运算的层的输入数据,然后基于该输入数据完成该层的运算得到输出数据。再将该输出数据作为下一层运算的输入数据发送给片外存储器进行缓存。可见,芯片设备与片外存储器的交互多,导致运算时间长,数据处理效率低。
发明内容
本公开实施例提供了一种数据处理方法及相关产品,通过划分运算块,减少网络层的数据量,可提高数据处理效率。
第一方面,本公开实施例提供一种数据处理方法,包括:
获取芯片设备的片内存储器的存储容量信息;
依据所述存储容量信息,对神经网络模型中的至少一个网络层进行划分,得到多个运算块,其中,所述多个运算块的最大数据量小于所述存储容量信息对应的存储容量,所述多个运算块被编译为被所述芯片设备执行的操作指令。
在一种可能的示例中,所述对神经网络模型中的至少一个网络层进行划分,包括:
从所述神经网络模型中选取包含连续的多个目标网络层的目标子网络模型;
对所述目标子网络模型进行划分,得到多个运算块,其中,所述多个运算块中每个运算块包括所述多个目标网络层中每个目标网络层的一部分。
在一种可能的示例中,所述对神经网络模型中的至少一个网络层进行划分,包括:
对所述至少一个网络层中每个网络层进行划分,得到多个子运算块,其中,所述多个运算块中每个运算块包括所述多个子运算块中的一个子运算块。
在一种可能的示例中,所述对神经网络模型中的至少一个网络层进行划分,包括:
对所述至少一个网络层以从后向前的顺序依次进行划分,其中,所述至少一个网络层中第一网络层的划分依赖于至少一个第二网络层的划分结果,所述至少一个第二网络层为所述至少一个网络层中位于所述第一网络层后面的网络层。
在一种可能的示例中,在所述对神经网络模型中的至少一个网络层进行划分之前,还包括:
对所述神经网络模型进行划分,得到多个子网络模型,其中,所述多个子网络模型包括所述至少一个网络层所属的目标子网络模型。
在一种可能的示例中,所述方法还包括:
响应于所述神经网络模型包含两个分支网络模型,基于所述两个分支网络模型的并行度和数据量,确定所述两个分支网络模型的划分结果。
在一种可能的示例中,在得到所述多个运算块之后,所述方法还包括:
确定所述多个运算块的重复计算率;若所述重复计算率满足重复计算率限定条件,则确定完成对所述至少一个网络层的划分。
在一种可能的示例中,所述方法还包括:
若所述重复计算率不满足所述重复计算率限定条件,重新执行对所述至少一个网络层的划分,直到重新得到的所述多个运算块的重复计算率满足所述重复计算率限定条件,或者,所述多个运算块的数量等于2且所述多个运算块的重复计算率仍不满足所述重复计算率限定条件。
在一种可能的示例中,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海商汤智能科技有限公司,未经上海商汤智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010336260.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用于挖机设备线上服务平台系统
- 下一篇:地漏窨井通用防臭盒





