[发明专利]卷积运算芯片和通信设备有效
申请号: | 201611243272.X | 申请日: | 2016-12-29 |
公开(公告)号: | CN106844294B | 公开(公告)日: | 2019-05-03 |
发明(设计)人: | 徐斌;袁宏辉;何雷骏 | 申请(专利权)人: | 华为机器有限公司 |
主分类号: | G06F17/15 | 分类号: | G06F17/15 |
代理公司: | 北京龙双利达知识产权代理有限公司 11329 | 代理人: | 魏雪娇;毛威 |
地址: | 523808 广东省东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 运算 芯片 通信 设备 | ||
本申请提供了一种卷积运算芯片和通信设备,该卷积运算芯片包括:M×N乘法累加器阵列,包括第一乘法累加器窗口,该第一乘法累加窗口的处理单元PEX,Y用于将PEX,Y的卷积数据和PEX,Y的卷积参数进行乘法运算,并将PEX,Y的卷积参数传输至PEX,Y+1,将PEX,Y的卷积数据传输至PEX‑1,Y+1,分别作为PEX,Y+1和PEX‑1,Y+1进行乘法运算的乘数;数据缓存模块,用于向第一乘法累加窗口传输卷积数据和卷积参数;输出控制模块,用于输出卷积结果。本申请的卷积运算芯片和通信设备,能够在提高阵列资源利用率的同时降低RAM访问次数,减小RAM访问压力。
技术领域
本申请涉及人工智能领域,更具体地,涉及一种卷积运算芯片和通信设备。
背景技术
深度神经网络(Deep Neural Networks,简称“DNN”)技术已经成为人工智能领域的代表性算法,基于深度神经网络技术的字符识别、图像分类或语音识别等关键技术,已经广泛应用于搜索引擎和智能手机等产品中。其中,当前最为有效,且应用最为广泛的神经网络算法是卷积神经网络(Convolutional Neural Network,简称“CNN”)算法,简称“卷积运算”。在现有技术中,CNN算法的核心计算单元是乘加运算,乘法累加器(MultiplicationAccumulator,简称“MAC”)阵列常用于矩阵乘法运算,而卷积运算可以转换为矩阵乘法运算,因此业界广泛采用MAC阵列为计算核心的专用加速硬件,例如,现场可编程门阵列(Field-Programmable Gate Array,FPGA)、专用集成电路(Application SpecificIntegrated Circuits,ASIC)等,以加速卷积运算的运算速度。
在现有技术的方案中,一方面,当MAC阵列中存在多个卷积窗口同时进行卷积运算时,这些卷积窗口分布在MAC阵列中的不同位置,使得MAC阵列不是所有处理单元均会利用到。并且,当MAC阵列的尺寸和多个卷积窗口的尺寸不适配时,MAC阵列的利用率会非常低。另一方面,所谓的卷积运算可以转换成矩阵乘法运算,实际上是将有大量交叠的卷积运算平铺成两个大矩阵,该两个大矩阵之间进行乘法运算。由于两个矩阵中存在大量重复数据,而这些数据都需要从随机存取存储器(Random Access Memory,简称“RAM”)中,通过MAC阵列外部的数据通道,被输入到MAC阵列进行计算。因此存在大量重复数据被从RAM输入到MAC阵列,这样会增加RAM的访问次数。
发明内容
本申请提供了一种卷积运算芯片和通信设备,能够在提高阵列资源利用率的同时降低RAM访问次数,减小RAM访问压力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为机器有限公司,未经华为机器有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611243272.X/2.html,转载请声明来源钻瓜专利网。