[发明专利]可重构的自然语言深度卷积神经网络加速器有效
申请号: | 201911083419.7 | 申请日: | 2019-11-07 |
公开(公告)号: | CN111126593B | 公开(公告)日: | 2023-05-05 |
发明(设计)人: | 刘诗玮;张怡云;史传进 | 申请(专利权)人: | 复旦大学 |
主分类号: | G06N3/082 | 分类号: | G06N3/082;G06N3/0464 |
代理公司: | 上海正旦专利代理有限公司 31200 | 代理人: | 陆飞;陆尤 |
地址: | 200433 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 可重构 自然语言 深度 卷积 神经网络 加速器 | ||
本发明属于集成电路技术领域,具体为一种可重构的自然语言深度卷积神经网络加速器。本发明加速器是基于时间序列输入的,包括:多组可重构的计算单元向量,用于实现不同尺寸卷积核的计算;多组多输入加法树,用于求和不同输入通道的乘法结果;一个输入特征图存储单元;多组输出特征图存储单元,用于存储计算过程中的中间结果以及最终的输出特征值;一个控制单元,用于配置计算单元向量、计算流程以及数据流向。本加速器特意针对输入的语言时间序列进行优化,避免当前输入序列小于空洞卷积感受野时的重复计算与计算暂停的问题;同时可重构的计算单元向量可以实现不同尺寸的卷积核计算。
技术领域
本发明属于集成电路技术领域,具体涉及一种可重构的自然语言深度卷积神经网络加速器。
背景技术
当今,深度卷积神经网络被广泛的应用与自动驾驶、图像分类、目标识别以及自然语言处理等各个领域。在诸如语义分割、语音识别等自然语言处理任务中,为了解决卷积神经网络感受野较小的问题,特别引入了空洞卷积。
空洞卷积区别于传统的卷积,在卷积核相连权重之间插入零值,得到一个尺寸更大的卷积核,进而增加了卷积的感受野。
语音序列一般随着时间逐次输入,造成当前时刻的输入序列长度可能小于空洞卷积的感受野。此时,对于CPU/GPU来说,一般需要等待后续语音序列的输入,使计算资源利用率较低。此外,空洞卷积在语音序列上滑动完成卷积,相邻滑动窗口之间重叠较大,引入了数据的重复计算,降低了计算能耗。
为解决以上问题,本发明提供了一种基于时间序列输入的可重构的自然语言深度卷积神经网络加速器。该加速器将输入的语音时间序列逐次传播到相连的计算单元中,当前时刻产生的中间结果暂存在片上存储单元中,以供与之后输入的时间序列完成卷积计算。
发明内容
为克服上述现有技术的缺点,本发明提供基于时间序列输入的可重构的自然语言深度卷积神经网络加速器。
本发明提供的可重构的自然语言深度卷积神经网络加速器,是基于时间序列输入技术的,包括:
16组可重构的计算单元向量,每组计算单元向量包含6个计算单元;用于计算卷积神经网络中16个不同的输入通道。通过配置该计算单元向量,可以计算不同尺寸的卷积核;
6组16输入加法树,用于求和16个输入通道的乘法结果,得到最多6个输出通道的中间结果;
16个用于存储输入特征图的存储单元;
6组输出特征图存储单元,用于存储最多6个输出通道上的中间结果以及最终的输出特征图;
一个控制单元,用于配置计算单元向量、计算流程以及数据流向。
本发明中,所述计算单元向量中的6个计算单元,其连接关系可以重构,用于计算不同尺寸的卷积核,以高的计算资源利用率;所述的输出特征图存储单元暂存中间结果并与不同的计算单元进行数据交互,避免逐层计算空洞卷积时输出特征图的重复计算。
本发明中,每组输入特征图存储单元与计算单元向量用于计算卷积的一个输入通道; 16个输入通道的乘法结果经过加法器得到一个输出通道的中间结果;当前时刻的中间结果与之后输入的时间序列对应的中间结果在下一个计算单元中完成累加得到最终的输出特征图。
本发明中,同一输入通道内的6个计算单元,可以重构为1x6、2x3、3x2、5x1的连接结构,用于同时计算1x1卷积核的6个输出通道,或同时计算2x1卷积核的3个输出通道,或同时计算3x1卷积核的2个输出通道,或计算5x1卷积核的1个输出通道。除最后一种连接结构外,其余结构均可实现100%的计算资源利用率。
本发明中,输入特征图根据输入通道索引存储在不同的输入特征图存储单元中,作为同组的计算单元向量的输入;输出特征图根据输出通道索引存储在不同的输出特征图存储单元中。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911083419.7/2.html,转载请声明来源钻瓜专利网。