[发明专利]一种卷积神经网络的训练方法、验证方法及装置在审
申请号: | 201811481672.3 | 申请日: | 2018-12-05 |
公开(公告)号: | CN109583572A | 公开(公告)日: | 2019-04-05 |
发明(设计)人: | 贾书军;程帅;袁淮;刘威;胡骏;田欢;周玲武 | 申请(专利权)人: | 东软睿驰汽车技术(沈阳)有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王宝筠 |
地址: | 110179 辽宁省沈阳市浑*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 激活 卷积神经网络 神经网络模型 计算效率 数据修改 验证 前向计算 神经网络 移位操作 正整数 前向 申请 运算 改进 | ||
1.一种卷积神经网络的训练方法,其特征在于,所述方法包括:
第一步:初始化神经网络的各个卷积核参数的初始值;
第二步:按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
第三步:判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
第四步:按照所述神经网络的神经网络结构进行反向传播计算;
第五步:按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
第六步:返回执行所述第二步进行训练;
第七步:保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述n=3或者,所述n=4。
3.一种卷积神经网络的验证方法,其特征在于,应用于ARM处理器,所述方法包括:
获取目标输入数据;
将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
4.根据权利要求3所述的方法,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括激活计算;所述激活计算具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的比较函数,确定所述激活计算的输入数据是否小于0;
如果是,则将所述小于0的输入数据执行取反操作,并将取反之后得到的数据执行向左移位n位的操作;
将执行所述向左移位n位的操作之后得到的数据执行取反操作。
5.根据权利要求3所述的方法,其特征在于,在计算得到所述卷积神经网络的输出结果的过程中,包括最大池化;所述最大池化具体包括:
利用ARM处理器的单指令、多数据扩展结构NEON的取最大值函数,确定所述池化的输入数据中的最大值。
6.一种卷积神经网络的训练装置,其特征在于,所述装置包括:
初始化单元,用于初始化神经网络的各个卷积核参数的初始值;
前向计算单元,用于按照所述神经网络的结构进行前向计算;其中,所述前向计算中的激活计算具体为:
若所述激活计算的输入数据为小于0的值,则将所述输入数据修改为所述输入数据的1/2n,其中n为正整数;若所述激活计算的输入数据为大于或者等于0的值,则保持所述输入数据的值不变;
判断单元,用于判断所述神经网络的损失函数是否达到给定阈值,或者,所述神经网络的训练次数是否达到预设次数,如果是则执行第七步;反之执行第四步;
反向传播计算单元,用于按照所述神经网络的神经网络结构进行反向传播计算;
权重更新单元,用于按照所述神经网络的神经网络结构更新所述神经网络的卷积核参数的权重;
循环单元,用于返回执行所述第二步进行训练;
保存单元,用于保存所述神经网络对应的网络结构以及训练得到的神经网络模型。
7.根据权利要求6所述的装置,其特征在于,所述n=3或者,所述n=4。
8.一种卷积神经网络的验证装置,其特征在于,应用于ARM处理器,所述装置包括:
获取单元,用于获取目标输入数据;
计算单元,用于将所述目标输入数据作为神经网络模型的输入,计算得到所述卷积神经网络的输出结果;其中,所述神经网络模型为利用如权利要求1-2任意一项的方法训练得到的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东软睿驰汽车技术(沈阳)有限公司,未经东软睿驰汽车技术(沈阳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811481672.3/1.html,转载请声明来源钻瓜专利网。