[发明专利]深度卷积神经网络初始化和训练方法、装置、介质及设备在审
申请号: | 201911138266.1 | 申请日: | 2019-11-20 |
公开(公告)号: | CN112825121A | 公开(公告)日: | 2021-05-21 |
发明(设计)人: | 周军;丁松;王洋;江武明 | 申请(专利权)人: | 北京眼神智能科技有限公司;北京眼神科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京恩赫律师事务所 11469 | 代理人: | 刘守宪;李善学 |
地址: | 100085 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 卷积 神经网络 初始化 训练 方法 装置 介质 设备 | ||
本发明公开了一种深度卷积神经网络初始化和训练方法、装置、介质及设备,属于模式识别领域。该初始化方法包括:获取DCNN、与DCNN对应的简易网络和初始训练集,初始训练集包括多个类别的样本,样本上设置有表示该样本类别的标签;使用初始训练集训练简易网络;将初始训练集的样本输入训练好的简易网络,得到每个样本在简易网络的特征层或分类层的输出;将初始训练集中每个样本的标签替换为该样本在简易网络的特征层或分类层的输出,得到更新后的训练集;使用更新后的训练集预训练DCNN,完成DCNN的初始化。本发明能够使得任何结构的不易收敛的DCNN获得更好的初始化,使其更易收敛,加快训练速度。
技术领域
本发明涉及模式识别领域,特别是指一种深度卷积神经网络初始化和训练方法、装置、介质及设备。
背景技术
卷积神经网络(Convolutional Neural Network,CNN),也简称为网络,是一类模式识别方法。该方法旨在使用卷积的方法对图像等数据进行表征量化,进而完成分类或是回归任务。该方法目前在图像分类、语音识别等方向表现出了优异的性能。
近年来随着深度学习的发展,为了显著的提升模型准确率,网络的计算量和参数随之大幅增加,这种巨大的网络模型也称为深度卷积神经网络(Deep ConvolutionalNeural Network,DCNN)模型。当DCNN应用于图像识别训练时,由于网络层数很多,训练会十分困难不易收敛,需要一种合适的初始化来保证训练过程的稳定。
现有技术为基于方差不变性的高斯分布初始化方法,例如Xavierinitialization,kaiming initialization等,此类方法假设特征图的神经元间是独立同分布的,在参数初始化时,保证网络前馈各层神经元间的方差不会变化过大,反馈时各层神经元间的梯度不会过大,进而使得网络在训练时不会出现梯度发散和梯度消失。
但是,现有的基于方差不变性的高斯分布初始化方法并不能很好的解决训练会困难不易收敛的问题,即便使用BatchNorm收敛速度也比较慢。尤其是在复杂的神经网络结构中(例如googlenet,inception_resnet,mobilenet等),现有初始化技术并不能很好解决训练困难的问题,需要凭借经验手动调节分支层高斯方差来获得更合适的初始化分布,工作量巨大且不能获得稳定的结果。
发明内容
为解决上述技术问题,本发明提供一种深度卷积神经网络初始化和训练方法、装置、介质及设备,本发明能够使得任何结构的不易收敛的DCNN获得更好的初始化,使其更易收敛,加快训练速度。
本发明提供技术方案如下:
第一方面,本发明提供一种深度卷积神经网络初始化方法,所述方法包括:
获取DCNN、与DCNN对应的简易网络和初始训练集,所述初始训练集包括多个类别的样本,所述样本上设置有表示该样本类别的标签;
使用初始训练集训练所述简易网络;
将初始训练集的样本输入训练好的简易网络,得到每个样本在简易网络的特征层或分类层的输出;
将初始训练集中每个样本的标签替换为该样本在简易网络的特征层或分类层的输出,得到更新后的训练集;
使用更新后的训练集预训练DCNN,完成DCNN的初始化。
进一步的,使用初始训练集训练所述简易网络时,采用的是多分类交叉熵损失函数,使用更新后的训练集预训练DCNN时,采用的是欧几里得损失函数。
进一步的,所述DCNN和简易网络用于人脸识别,所述初始训练集的样本通过如下方法得到:
对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,所述人脸关键点包括左眼坐标和右眼坐标;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京眼神智能科技有限公司;北京眼神科技有限公司,未经北京眼神智能科技有限公司;北京眼神科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911138266.1/2.html,转载请声明来源钻瓜专利网。