[发明专利]一种基于VGG深度卷积网络的自然场景图像识别方法有效
申请号: | 201810130178.6 | 申请日: | 2018-02-08 |
公开(公告)号: | CN108399378B | 公开(公告)日: | 2021-08-06 |
发明(设计)人: | 曾大治;董安冉;赵艳霞;刘英杰 | 申请(专利权)人: | 北京理工雷科电子信息技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 北京理工大学专利中心 11120 | 代理人: | 李爱英;仇蕾安 |
地址: | 100081 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 vgg 深度 卷积 网络 自然 场景 图像 识别 方法 | ||
本发明提供了一种基于VGG深度卷积网络的自然场景图像识别方法,本发明方法通过在VGG19网络前两个最大池化层前分别加入BatchNorm策略,使训练网络更容易拟合;通过训练好的网络在训练样本和验证样本上作检测,以类别概率区间为节点对样本重新细分类,并对细分样本进行增广重训练,达到精细区分不同自然场景图像,提高难分场景和错分场景的识别率,进而提高整个网络对自然场景图像的识别率。
技术领域
本发明属于图像目标识别领域,具体涉及一种基于VGG深度卷积网络的自然场景图像识别方法。
背景技术
自然场景目标识别在图像视频检索、旅游导航、城区监控及规划等方面都有着非常重要的应用。然而,不同于一般具有较为固定几何特征的目标,自然场景图像目标更为复杂,往往由多类小目标构成一类场景,不同场景的复杂性和多变性无疑增加了分类识别难度,特别对于相似的不同类场景。
目前对于自然场景图像分类方法主要为基于低层特征结合传统机器学习分类器的方法和基于卷积神经网络的机器学习方法。前者一般需要人为构造有效底层特征,如颜色特征:颜色直方图、颜色矩、颜色相关图等,形状特征:HOG、SIFT、BOVW等,纹理特征:LBP、灰度共生矩阵等,然后将提取得到的特征送入分类器(如贝叶斯分类器、支持向量机等)进行分类识别。此类方法对一些简单场景目标往往有较好的识别率,然而,其构造的低层特征对场景描述不够精细,很难对所有场景(特别是复杂场景)都能有效适应,且传统分类器对场景目标拟合能力也有限,导致此类方法泛化能力不足,在很多场景下的目标分类识别很难得到较高的精度。基于卷积神经网络的机器学习方法以其强大的特征提取和场景目标拟合能力,成为近年来图像各领域都使用较为热门的方法,此方法不需要人为进行针对性的设计特征,而是通过逐层卷积、池化交替的方式由低层特征逐渐构造高级复杂语义特征,对图像目标或场景有较强的特征描述能力,因此在图像分类识别领域获得了较高的识别率。然而,对于较为相似的难分的不同类型目标或场景,单纯的深度卷积网络对于小数据集仍然会有较高的误识别率。
发明内容
有鉴于此,本发明提供了一种基于VGG深度卷积网络的自然场景图像识别方法,能够解决复杂自然场景图像识别率不高,特别是难分场景的识别率较低的问题。
实现本发明的技术方案如下:
一种基于VGG深度卷积网络的自然场景图像识别方法,包括以下步骤:
步骤一、对n类样本Si,i=1,2,...,n进行数据增广,将增广后的样本分成训练样本集Ii和验证样本集Ii;
步骤二、在经数据集训练过的VGG19网络的前两个最大池化层前分别加入BatchNorm批量标准化策略;
步骤三、对步骤二得到的网络设置网络学习率和每批次的训练数据量得到改进后的VGG19网络,利用改进后的VGG19网络对训练样本集Ii进行迁移学习训练,并对验证样本集Ii进行验证;
步骤四、根据步骤三中的训练精度、验证精度和损失函数曲线选择相对最优一代训练网络参数代入改进后的VGG19网络得到识别网络I,利用识别网络I对每类样本进行检测识别,记录每个样本的正确识别概率;
步骤五、根据每个样本的正确识别概率将每类样本分成q小类,并将错分样本加入到正确识别概率最低区间类别;
步骤六、根据每一小类数据量情况对每一小类样本进行数据增广,并对增广后的每一小类样本随机分成训练样本集IIj、验证样本集IIj和测试样本集j,j=1,2,...,qn;
步骤七、冻结识别网络I的卷积层的网络参数,以只调节识别网络I的全连接层网络参数的方式训练训练样本集IIj,并验证验证样本集IIj;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工雷科电子信息技术有限公司,未经北京理工雷科电子信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810130178.6/2.html,转载请声明来源钻瓜专利网。