[发明专利]用于训练卷积神经网络的方法和装置在审
申请号: | 201710859122.X | 申请日: | 2017-09-21 |
公开(公告)号: | CN107609645A | 公开(公告)日: | 2018-01-19 |
发明(设计)人: | 刘文献 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司11204 | 代理人: | 王达佐,马晓亚 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 训练 卷积 神经网络 方法 装置 | ||
1.一种用于训练卷积神经网络的方法,其特征在于,所述方法包括:
对于初始化卷积神经网络的各层中的每层,利用至少一块显卡存储该层的输入信息集合,其中,所述至少一块显卡中的每块显卡存储至少部分该层的输入信息集合;计算所述至少一块显卡中的每块显卡所存储的至少部分该层的输入信息集合的均值和方差;将所述至少一块显卡中的每块显卡所存储的至少部分该层的输入信息集合的均值和方差发送至其他显卡,以计算该层的输入信息集合的均值和方差;利用该层的输入信息集合的均值和方差对该层的输入信息集合进行归一化处理,得到该层的归一化的输入信息集合;
利用各层的归一化的输入信息集合对所述初始化卷积神经网络进行训练,得到训练完成的卷积神经网络。
2.根据权利要求1所述的方法,其特征在于,所述利用各层的归一化的输入信息集合对所述初始化卷积神经网络进行训练,得到训练完成的卷积神经网络,包括:
执行以下训练步骤:将每层的归一化的输入信息集合输入至所述初始化卷积神经网络的每层,得到特征向量集合,确定所述特征向量集合是否满足预设条件,若满足所述预设条件,则将所述初始化卷积神经网络作为训练完成的卷积神经网络;
响应于不满足所述预设条件,调整所述初始化卷积神经网络的参数,并继续执行所述训练步骤。
3.根据权利要求2所述的方法,其特征在于,输入信息集合包括多个相同类别的输入信息;以及
所述确定所述特征向量集合是否满足预设条件,包括:
计算所述多个相同类别的输入信息所对应的多个特征向量中的各个特征向量之间的距离,得到第一计算结果;
基于所述第一计算结果,确定是否满足预设条件。
4.根据权利要求3所述的方法,其特征在于,所述计算所述多个相同类别的输入信息所对应的多个特征向量中的各个特征向量之间的距离,得到第一计算结果,包括:
计算所述多个相同类别的输入信息所对应的多个特征向量中的各个特征向量之间的欧氏距离,得到第一计算结果。
5.根据权利要求4所述的方法,其特征在于,所述基于所述第一计算结果,确定是否满足预设条件,包括:
确定所述多个相同类别的输入信息所对应的多个特征向量中的各个特征向量之间的欧氏距离是否均小于第一预设距离阈值;
若均小于所述第一预设距离阈值,则满足所述预设条件;
若不是均小于所述第一预设距离阈值,则不满足所述预设条件。
6.根据权利要求2-5之一所述的方法,其特征在于,输入信息集合包括多个不同类别的输入信息;以及
所述确定所述特征向量集合是否满足预设条件,包括:
计算所述多个不同类别的输入信息所对应的多个特征向量中的各个特征向量之间的距离,得到第二计算结果;
基于所述第二计算结果,确定是否满足预设条件。
7.根据权利要求6所述的方法,其特征在于,所述计算所述多个不同类别的输入信息所对应的多个特征向量中的各个特征向量之间的距离,得到第二计算结果,包括:
计算所述多个不同类别的输入信息所对应的多个特征向量中的各个特征向量之间的欧氏距离,得到第二计算结果。
8.根据权利要求7所述的方法,其特征在于,所述基于所述第二计算结果,确定是否满足预设条件,包括:
确定所述多个不同类别的输入信息所对应的多个特征向量中的各个特征向量之间的欧氏距离是否均大于第二预设距离阈值;
若均大于所述第二预设距离阈值,则满足所述预设条件;
若不是均大于所述第二预设距离阈值,则不满足所述预设条件。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取第一输入信息和第二输入信息;
将所述第一输入信息和所述第二输入信息输入至所述训练完成的卷积神经网络,得到所述第一输入信息的特征向量和所述第二输入信息的特征向量;
计算所述第一输入信息的特征向量和所述第二输入信息的特征向量之间的距离;
基于所计算的距离,确定所述第一输入信息和所述第二输入信息是否是同一类别的输入信息,并输出确定结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710859122.X/1.html,转载请声明来源钻瓜专利网。