[发明专利]一种基于CNN深度学习的DBCC分类模型构建方法有效
申请号: | 201710025117.9 | 申请日: | 2017-01-13 |
公开(公告)号: | CN106910185B | 公开(公告)日: | 2019-01-01 |
发明(设计)人: | 李良福;马卫飞;李丽;张玉霞 | 申请(专利权)人: | 陕西师范大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/62;G06K9/62 |
代理公司: | 西安智萃知识产权代理有限公司 61221 | 代理人: | 张蓓 |
地址: | 710119 陕西省西安市长*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 cnn 深度 学习 dbcc 分类 模型 构建 方法 | ||
本发明公开了一种基于CNN深度学习的DBCC分类模型及构建方法,DBCC分类模型包括4层卷积层、3层池化层和2层全连接层,该DBCC分类模型采用softmax loss函数作为损失函数,第一卷积层、第四卷积层、第二池化层、第三池化层、第一全连接层后面各添加了一个激活函数(RELU),并且,在第一卷积层后面添加局部响应值归一化层LRN,在第一全连接层后面添加dropout层。本发明的DBCC分类模型是基于卷积神经网络CNN而构建的,通过在每个卷积层中使用更多的卷积核以及添加LRN、使用dropout、加深网络深度,使得该DBCC分类模型在识别16*16pixel分辨率的小图片时,识别精度更高。
技术领域
本发明属于图像处理与计算机视觉领域,具体涉及一种基于CNN深度学习的DBCC分类模型构建方法。
背景技术
桥梁作为道路,公路,铁路等交通系统的枢纽,需要定期的对其健康状况做出评估,而桥梁裂缝作为最主要的桥梁病害之一,严重影响着桥梁的安全运营,更为严重的会发生桥毁人亡的事故。因此,对桥梁裂缝进行有效的检测识别至关重要。
目前对桥梁裂缝检测的研究,大部分是基于图像处理算法进行的。图像处理算法的核心是窗口滑动算法、构建训练集以及利用训练集训练分类模型。具体地,利用窗口滑动算法和采集来的桥梁裂缝图片构建好训练集之后,需要利用训练集训练桥梁背景面元和桥梁裂缝面元的一个分类模型。
基于彩色的桥梁裂缝图片进行的桥梁裂缝检测定位中,该桥梁裂缝面元和背景面元均为16*16pixel分辨率的小图片,而在深度学习中,对于小图片的识别有一个经典的深度学习模型CIFAR10模型。但是,如果直接把CIFAR10模型用于对桥梁裂缝面元和背景面元的分类识别,其效果并不理想,并且由于CIFAR10模型针对的是32*32pixel分辨率的小图片识别,会导致最终在整幅桥梁裂缝图片上桥梁裂缝识别不准确,裂缝识别精度差等问题。
发明内容
本发明的目的是克服CIFAR10模型针对16*16pixel分辨率的小图片识别不准确,裂缝识别精度差的问题。为此,本发明提供了一种基于CNN深度学习的DBCC分类模型及构建方法。本发明要解决的技术问题通过以下技术方案实现:
一种基于CNN深度学习的DBCC分类模型构建方法,包括以下步骤:
步骤一、以卷积方式将输入的原始图片与第一卷积层中的所有卷积核进行卷积求和,得到第一卷积层的特征映射图;
步骤二、在第一卷积层后添加一Relu激活函数;
步骤三、在第一卷积层后添加一用于图片明亮度矫正的局部响应值归一化层,所述局部响应值归一化层提升了网络的识别效果;
步骤四、将第一卷积层的特征映射图在第一池化层中进行下采样,降低分辨率并选取优秀的特征,作为第一池化层的特征映射图;
步骤五、在第二卷积层上以卷积方式将第一池化层的特征映射图与第二卷积层中的所有卷积核进行卷积求和,得到第二卷积层的特征映射图,将第二卷积层的特征映射图在第二池化层中进行下采样,降低分辨率并选取优秀的特征,作为第二池化层的特征映射图;
步骤六、在第二池化层后添加一Relu激活函数后在第三卷积层上以卷积方式将第二池化层的特征映射图与第三卷积层中的所有卷积核进行卷积求和,得到第三卷积层的特征映射图,将第三卷积层的特征映射图在第三池化层中进行下采样,降低分辨率并选取优秀的特征,作为第三池化层的特征映射图;
步骤七、在第三池化层后添加一Relu激活函数后在第四卷积层上以卷积方式将第三池化层的特征映射图与第四卷积层中的所有卷积核进行卷积求和,得到第四卷积层的特征映射图;
步骤八、在第四卷积层后添加一Relu激活函数后将第四卷积层的特征映射图输出至第一全连接层,并且,在第一全连接层后添加用于防止过拟合的Dropout层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于陕西师范大学,未经陕西师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710025117.9/2.html,转载请声明来源钻瓜专利网。