[发明专利]用于深度卷积神经网络的卷积计算方法及装置有效
申请号: | 201810118043.8 | 申请日: | 2018-02-06 |
公开(公告)号: | CN108320019B | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 张先轶;贾海鹏 | 申请(专利权)人: | 澎峰(北京)科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04 |
代理公司: | 北京卓唐知识产权代理有限公司 11541 | 代理人: | 唐海力;韩来兵 |
地址: | 100098 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 深度 卷积 神经网络 计算方法 装置 | ||
本申请公开了一种用于深度卷积神经网络的卷积计算方法及装置。该方法包括确定第一优化参数;根据所述第一优化参数建立知识库,其中所述知识库用于按照表结构储存卷积算法和对应的第一优化参数;检索所述知识库中的是否存在符合预设性能条件的执行计划;如果所述知识库中的存在符合预设性能条件的执行计划,则生成符合预设性能条件的卷积计算方法。本申请解决了卷积计算方法的性能无法根据不同深度卷积神经网络自适应调优的技术问题。
技术领域
本申请涉及深度学习领域,具体而言,涉及一种用于深度卷积神经网络的卷积计算方法及装置。
背景技术
随着深度学习的发展,深度卷积神经网络成为应用最为广泛的网络结构,在图像、语音等领域应用广泛。深度卷积神经网络的核心算法是卷积计算,卷积计算在整个神经网络的计算中占据核心地位。
发明人发现,卷积算法的计算性能决定了深度卷积卷积网络的性能。影响卷积计算算法选择的因素主要包括:硬件架构特征、输入规模、通道数量、连续两次卷积计算的间隔大小以及卷积核大小等方面。
针对相关技术中卷积计算方法的性能无法根据不同深度卷积神经网络自适应调优的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种用于深度卷积神经网络的卷积计算方法,以解决卷积计算方法的性能无法根据不同深度卷积神经网络自适应调优的问题。能够实现不同输入在不同计算平台上卷积计算的最佳性能,大大提升深度学习算法在嵌入式平台上的性能。
为了实现上述目的,根据本申请的一个方面,提供了一种用于深度卷积神经网络的卷积计算方法,用于构建卷积算法的选择模型。
根据本申请的用于深度卷积神经网络的卷积计算方法包括:
确定第一优化参数,其中,所述第一优化参数用于初始化选择模型;根据所述第一优化参数建立知识库,其中,所述知识库用于按照表结构储存卷积算法和对应的第一优化参数;检索所述知识库中的是否存在符合预设性能条件的执行计划,其中,所述执行计划用于作为当前深度卷积神经网络的卷积计算方法;以及如果所述知识库中的存在符合预设性能条件的执行计划,则生成符合预设性能条件的卷积计算方法。
进一步地,根据所述第一优化参数建立知识库包括:按照哈希表{key,value}的方式建立知识库;其中,将哈希表的key值配置为预设参数,将哈希表的value配置为深度卷积神经网络中的最优卷积算法。
进一步地,根据所述第一优化参数建立知识库包括:构建多维数组,用于表示知识库中的索引表;构建实际输入参数到所述多维数组索引的映射表;根据实际输入参数和所述映射表,确定key值在索引表中的索引,并返回对应的value值。
进一步地,检索所述知识库中的是否存在符合预设性能条件的执行计划包括:按照第一优化参数,提取实际输入参数;确定实际输入参数;通过实际输入参数在所述知识库中检索得到执行计划;通过执行计划生成用于卷积计算的预设代码。
进一步地,确定第一优化参数包括:硬件平台、输入图片规模、通道数量、连续两次卷积计算的间隔大小、卷积核的大小中的一种或者多种。
进一步地,如果所述知识库中的存在符合预设性能条件的执行计划,则生成符合预设性能条件的卷积计算方法包括如下任一一种:生成通用矩阵-矩阵乘法算法;生成Winograd算法;生成直接卷积算法。
为了实现上述目的,根据本申请的另一方面,提供了一种用于深度卷积神经网络的卷积计算装置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于澎峰(北京)科技有限公司,未经澎峰(北京)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810118043.8/2.html,转载请声明来源钻瓜专利网。