[发明专利]降低神经网络中的内存需求的系统和方法在审
| 申请号: | 202110023177.3 | 申请日: | 2021-01-08 | 
| 公开(公告)号: | CN113095493A | 公开(公告)日: | 2021-07-09 | 
| 发明(设计)人: | M·洛弗尔;R·马奇塞尔 | 申请(专利权)人: | 马克西姆综合产品公司 | 
| 主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/08;G06N3/04 | 
| 代理公司: | 永新专利商标代理有限公司 72002 | 代理人: | 邬少俊 | 
| 地址: | 美国加利*** | 国省代码: | 暂无信息 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 降低 神经网络 中的 内存 需求 系统 方法 | ||
1.一种用于处理大量神经网络数据的方法,该方法包括:
确定神经网络中的一个或多个活动神经网络层;
使用该一个或多个活动神经网络层来处理第一神经网络层的输入数据集的子集,该子集的数据大小基本上小于该输入数据集的大小;
从该第一神经网络层输出第一输出数据集;
在第二神经网络层中使用该第一输出数据集;以及
在处理该输入数据集的所有内容之前,从该第二神经网络层输出第二输出数据集。
2.根据权利要求1所述的方法,进一步包括在输出该第一输出数据集之后,丢弃该子集的至少一些内容。
3.根据权利要求1所述的方法,其中,该输入数据集包括音频数据或图像传感器数据中的至少一者,该输入数据被逐行扫描,并且该第一输出数据集被逐行排序。
4.根据权利要求1所述的方法,进一步包括:使用握手机制、排序机制或异步逻辑中的至少一者来确定该一个或多个活动神经网络层。
5.一种用于处理大量神经网络数据的系统,该系统包括:
处理器;以及
包含指令的非暂态计算机可读介质,这些指令在由该处理器执行时使得步骤得以执行,这些步骤包括:
确定神经网络中的一个或多个活动层;
使用该一个或多个活动层来处理第一神经网络层的输入数据集的子集,该子集的数据大小基本上小于该输入数据集的大小;
从该第一网络层输出第一输出数据集;
在第二神经网络层中使用第一输出数据集;以及
在处理该输入数据集的所有内容之前,从该第二网络层输出第二输出数据集。
6.根据权利要求5所述的系统,进一步包括耦合到该处理器的滚动缓冲器,该滚动缓冲器对该输入数据集的该子集进行处理。
7.根据权利要求5所述的系统,进一步包括耦合到该处理器和传感器的卷积神经网络(CNN)加速器电路,该CNN加速器电路将该子集从该传感器流式传输到该处理器。
8.一种或多种非暂态计算机可读介质,包括一个或多个指令序列,该一个或多个指令序列在由至少一个处理器执行时使得步骤得以执行,这些步骤包括:
包含指令的非暂态计算机可读介质,这些指令在由处理器执行时使得步骤得以执行,这些步骤包括:
确定神经网络中的一个或多个活动神经网络层;
使用该一个或多个活动神经网络层来处理第一神经网络层的输入数据集的子集,该子集的数据大小基本上小于该输入数据集的大小;
从该第一神经网络层输出第一输出数据集;
在第二神经网络层中使用第一输出数据集;以及
在处理该输入数据集的所有内容之前,从该第二神经网络层输出第二输出数据集。
9.根据权利要求8所述的一种或多种非暂态计算机可读介质,其中,该过程在输出该第一输出数据集之后丢弃该子集的至少一些内容。
10.根据权利要求8所述的一种或多种非暂态计算机可读介质,其中,该子集的大小至少取决于池化步幅和卷积类型或神经网络类型中的一者。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于马克西姆综合产品公司,未经马克西姆综合产品公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110023177.3/1.html,转载请声明来源钻瓜专利网。





