[发明专利]一种有效防止卷积神经网络过拟合的图像分类方法有效
申请号: | 201410333924.3 | 申请日: | 2014-07-14 |
公开(公告)号: | CN104102919B | 公开(公告)日: | 2017-05-24 |
发明(设计)人: | 王瀚漓;俞定君 | 申请(专利权)人: | 同济大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 上海科盛知识产权代理有限公司31225 | 代理人: | 赵继明 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 有效 防止 卷积 神经网络 拟合 图像 分类 方法 | ||
技术领域
本发明涉及图像处理领域,尤其是涉及一种有效防止卷积神经网络过拟合的图像分类方法。
背景技术
随着多媒体技术与计算机网络的广泛应用,网络上出现大量图像数据。为了能够有效的管理这些图像文件,为用户提供更好的体验服务,自动识别这些图像的内容变的越来越重要。
随机机器学习方法的不断完善和发展,深度学习算法越来越受到重视,其中卷积神经网络就是深度学习中一种重要的算法,目前已成为语音分析和图像识别领域的研究热点。卷积神经打破了传统神经网络中层与层之间的神经元全连接的方式,它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是图像是表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者其他形式的形变具有高度不变性。
基于卷积神经网络的图像分类技术能够有效地自动的从图像中提取特征信息,提取的特征具有非常好的图像表达能力,因此该技术在一些图像分类问题中取得了令人满意的实验结果。尽管如此,该技术目前还存在以下缺陷:
第一,由于图像数据库中带标签的数据是有限的,随着卷积神经网络的规模不断增大,需要训练的权值也会不断增加,这势必使得神经网络出现过拟合现象,即训练时的分类精度远远好于测试时的分类精度。
第二,为了获取更好的特征表达能力以便取得更好的分类精度,某些研究人员采用增加网络深度、扩大网络规模的方法。但是,这种方法将极大的增加计算复杂度,传统的CPU运算速度已经不能满足这样的计算复杂度。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种分类精度高、收敛速度快、计算效率高的有效防止卷积神经网络过拟合的图像分类方法。
本发明的目的可以通过以下技术方案来实现:
一种有效防止卷积神经网络过拟合的图像分类方法,该方法运行在GPU中,包括:
步骤一,获得图像训练集和图像测试集;
步骤二,卷积神经网络模型的训练,具体包括以下步骤:
a)设定卷积神经网络的结构和训练次数上限N,初始化神经网络权值矩阵W,所述结构包括卷积神经网络的层数和每层中特征图的数量;
b)从所述图像训练集中获取图像数据进行预处理,并进行样本扩增,形成训练样本;
c)对所述训练样本进行前向传播提取图像特征,所述前向传播包括卷积层、非线性归一化层和混合pooling层的计算;
d)在Softmax分类器中计算各样本的分类概率:
式中,si表示Softmax分类器第i个神经元的输出值,si=F·η,F为某个训练样本的图像特征向量,η为相应的权值,n为需要分类的类别数量;
e)根据概率yi计算得到训练误差
当i=k时,θik=1,i表示第i个类别,当原始输入属于类别i时,
f)利用所述训练误差从卷积神经网络的最后一层依次往前反向传播,同时利用随机梯度下降法SGD修改网络权值矩阵W;
g)判断模型训练是否完成,若是,则保存卷积神经网络模型和Softmax分类器后执行步骤三,若否,则返回步骤b);
步骤三,利用训练后的卷积神经网络模型对图像测试集进行图像分类。
所述步骤二的a)中,初始权值矩阵W的元素的取值范围为[-0.01,0.01]。
所述步骤二的b)具体为:
b1)对于长宽相等的图像,利用OPENCV中的cvResize函数进行缩放,缩放后的图片大小为N×N;
b2)对长宽不相等的图像,固定短边S不变,截取长边中间的连续S个像素,形成S×S大小的图像,再重复步骤b1)最终形成N×N大小的图像;
b3)计算所有图像的像素值之和,并除以图像的数量得到一个均值图像,在每一幅图像中减去所述均值图像得到输入样本;
b4)对所述输入样本进行数据扩增,形成最终的训练样本。
步骤二的c)中,所述卷积层的计算具体为:
yk=max{wk*x,0}
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410333924.3/2.html,转载请声明来源钻瓜专利网。