[发明专利]神经网络的计算方法、加速器、计算机可读存储介质在审
申请号: | 202111268496.7 | 申请日: | 2021-10-28 |
公开(公告)号: | CN114004350A | 公开(公告)日: | 2022-02-01 |
发明(设计)人: | 王佳东;牛昕宇;蔡权雄 | 申请(专利权)人: | 深圳鲲云信息科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N3/08;G06F13/28 |
代理公司: | 深圳市恒程创新知识产权代理有限公司 44542 | 代理人: | 赵正琪 |
地址: | 518000 广东省深圳市福田区福保*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 计算方法 加速器 计算机 可读 存储 介质 | ||
本申请公开了一种神经网络的计算方法、加速器、计算机可读存储介质,所述神经网络的计算方法应用于加速器,其中,所述加速器包括控制器、直接存储器存取DMA模块、至少两个寄存器以及与所述寄存器连接的解码器,所述神经网络的计算方法包括:控制直接存储器存取DMA模块获取外部缓存的配置数据,并将所述配置数据缓存至所述寄存器;从所述寄存器缓存的配置数据中获取目标配置数据,并将所述目标配置数据发送至所述解码器;控制所述解码器对所述目标配置数据进行解码,得到解码后的目标配置数据;接收解码后的所述目标配置数据,根据所述目标配置数据以及计算数据执行神经网络计算,得到计算结果。旨在提高神经网络计算的速度。
技术领域
本申请涉及神经网络技术领域,尤其涉及一种神经网络的计算方法、加速器、计算机可读存储介质。
背景技术
在神经网络计算中,每一层计算都需要获取大量的配置信息。矢量加速器通过使用APB(Advanced Peripheral Bus)总线获取配置信息。但由于APB总线的传输数据较慢,导致矢量加速器在进行每一层计算时都需要耗费大量的时间等待通过APB总线获取的配置信息,降低了加速器进行神经网络计算的速度。
发明内容
本申请实施例通过提供一种神经网络的计算方法、加速器、计算机可读存储介质,旨在解决在进行神经网络的计算时,通过APB总线获取配置数据存在获取速度慢的问题。
为实现上述目的,本申请实施例提供了一种神经网络的计算方法,应用于加速器,其中,所述加速器包括控制器、直接存储器存取DMA模块、至少两个寄存器以及与所述寄存器连接的解码器,所述神经网络的计算方法包括:
控制直接存储器存取DMA模块获取外部缓存的配置数据,并将所述配置数据缓存至所述寄存器;
从所述寄存器缓存的配置数据中获取目标配置数据,并将所述目标配置数据发送至所述解码器;
控制所述解码器对所述目标配置数据进行解码,得到解码后的目标配置数据;
接收解码后的所述目标配置数据,根据所述目标配置数据以及计算数据执行神经网络计算,得到计算结果。
可选地,所述从所述寄存器缓存的配置数据中获取目标配置数据的步骤包括:
获取所述寄存器的数据指针当前指向的指针位置;
确定所述指针位置缓存的配置数据为所述目标配置数据;
获取所述目标配置数据。
可选地,所述控制所述解码器对所述目标配置数据进行解码,得到解码后的目标配置数据的步骤包括:
控制解码器对所述目标配置数据进行解码,得到解码后的所述目标配置数据。
可选地,所述从所述寄存器缓存的配置数据中获取目标配置数据,并将所述目标配置数据发送至所述解码器的步骤之前,包括:
获取所述解码器当前的解码状态;
在所述解码器的解码状态为空闲状态时,执行从所述寄存器缓存的配置数据中获取目标配置数据,并将所述目标配置数据发送至所述解码器的步骤。
可选地,所述控制直接存储器存取DMA模块获取外部缓存的配置数据,并将所述配置数据缓存至所述寄存器的步骤之前,包括:
获取所述配置数据的数据量;
当所述配置数据的数据量大于预设数据量时,执行所述控制直接存储器存取DMA模块获取外部缓存的配置数据,并将所述配置数据缓存至所述寄存器的步骤;
当所述配置数据的数据量小于预设数据量时,通过配置总线获取所述配置数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳鲲云信息科技有限公司,未经深圳鲲云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111268496.7/2.html,转载请声明来源钻瓜专利网。