[发明专利]一种用于深度学习加速的硬件平台在审
申请号: | 202111483448.X | 申请日: | 2021-12-07 |
公开(公告)号: | CN114139694A | 公开(公告)日: | 2022-03-04 |
发明(设计)人: | 刘金建;余雷;杨帆 | 申请(专利权)人: | 苏州聚悦信息科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06F17/16 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 215100 江苏省苏州市苏州高新*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 深度 学习 加速 硬件 平台 | ||
本发明提供一种用于深度学习加速的硬件平台,包括控制模块、运算模块、存储模块;所述控制模块用于协调硬件电路中各类资源的有序工作,协调对象包括FPGA运算单元、SRAM存储单元、FLASH存储单元、输入输出IO口;所述运算模块以FPGA为核心,对深度学习所依赖的卷积神经网络进行求解运算,运算模块包括卷积模块、池化模块、全连接层模块;所述存储模块包括SRAM和FLASH两种存储介质,SRAM用于存储卷积神经网络运算过程中的权重系数和中间值,FLASH用于存储训练完成的卷积神经网络模型。本发明相比于传统的深度学习平台,实现了高速度、低功耗、稳定且延迟低的优点,适用于数据量大且计算过程繁杂的密集型任务,在获得最优效果的基础上降低开发周期和开发成本。
技术领域
本发明涉及深度学习领域,尤其涉及一种用于深度学习加速的硬件平台。
背景技术
近年来,由于计算机硬件水平的大幅提高和软件开发能力的高速发展,互联网进入了大数据的时代。其中,人工智能技术依托于互联网的发展,成为了广大学者的研究热点。而在人工智能的核心技术中,深度学习技术又是其中的灵魂所在,正是深度学习的崛起才使得人工智能有了实现的可能。
深度学习的概念源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。观测值可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等,而使用某些特定的表示方法更容易从实例中学习任务。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分,不同的学习框架下建立的学习模型很是不同。
在深度学习的发展过程中,除了解决算法、策略等问题,如何将极为复杂繁多的数据进行有效的分析使用,进而充分挖掘利用数据的价值也是研究的重中之重。本发明针对传统的深度学习平台存在的问题,比如研发成本高,处理逻辑复杂,功耗高,带宽受限的缺点,提出使用FPGA作为深度学习的处理核心,在获得最优效果的基础上降低开发周期和开发成本。
发明内容
本发明的目的是为了解决传统的深度学习平台存在的研发成本高,处理逻辑复杂,功耗高,带宽受限等问题,提出使用FPGA作为处理核心,搭配外挂的存储器和控制器,实现高速度、低功耗、稳定且延迟低的深度学习加速平台,该平台适用于数据量大且计算过程繁杂的密集型任务。
为实现以上目的,本发明通过以下技术方案予以实现:
本发明提供一种用于深度学习加速的硬件平台,包括控制模块、运算模块、存储模块;
所述控制模块用于协调硬件电路中各类资源的有序工作,协调对象包括FPGA运算单元、SRAM存储单元、FLASH存储单元、输入输出IO口;
所述运算模块以FPGA为核心,对深度学习所依赖的卷积神经网络进行求解运算,运算模块包括卷积模块、池化模块、全连接层模块;
所述存储模块包括SRAM和FLASH两种存储介质,SRAM用于存储卷积神经网络运算过程中的权重系数和中间值,FLASH用于存储训练完成的卷积神经网络模型。
优选地,所述运算模块中提出了一种将输入的串行数据转换为处理所需的矩阵数据的方法,其实现步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州聚悦信息科技有限公司,未经苏州聚悦信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111483448.X/2.html,转载请声明来源钻瓜专利网。