[发明专利]一种基于深度学习的路面裂缝快速识别方法有效
申请号: | 201911385351.8 | 申请日: | 2019-12-28 |
公开(公告)号: | CN111126505B | 公开(公告)日: | 2023-07-04 |
发明(设计)人: | 曹丹丹;彭勃;王俊涛;侯越;杨湛宁;陈逸涵 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/764;G06V10/26;G06N3/0464;G06N3/048;G06N3/084 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 沈波 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 路面 裂缝 快速 识别 方法 | ||
本发明公开了一种基于深度学习的路面裂缝快速识别方法,首先调整现场照片的大小,其次,调整现场图片的曝光。原始的现场照片光照不均匀,必须对不均匀的曝光进行处理才能实现现场图像的遮挡效果。利用基于灰度分布的像素强度值的直方图来拟合灰度像素值的分布。用基于上一步的均值的阈值方法来实现二进制颜色可视化。如果像素值大于阈值,则将其设置为背景。采用基于连接构件的方法使裂缝形状增强。应用连接工具去噪。搜索图中所有连接的对象,并检查裂缝形状的面积。如果裂缝形状的面积小于阈值,则认为是噪声。如果裂缝形状的面积大于阈值,则视为裂缝。最后,调整CNN输入,并应用扩张和侵蚀重新连接裂缝。调整CNN超参数,确定最优CNN框架。
技术领域
本发明属于图像处理领域,涉及一种基于深度学习的路面裂缝快速识别方法。本发明应用于未处理的原始路面裂缝现场图片并识别四种裂缝种类。
背景技术
开裂是路面危害中不可避免的问题之一。针对裂缝的检测土木工程师目前大多是通过人工目测或室内实验等方法进行检测。但是这些方法都是繁琐而且劳动密集型的,会减慢路面的维护效率。
在这方面,已经有了很多快速检测路面裂缝和识别裂缝的图像处理方法,比如,利用噪声分析路面图像的方向边缘检测方法;基于自适应视觉裂缝检测的结构状态监测方法;利用卷积神经网络(Crack Net)对沥青路面裂缝进行像素级精度的自动检测方法;基于组合的启发式优化边缘检测算法和卷积神经网络(CNN)自动检测方法等。
但是,现在的检测方法存在一些问题:
1、在实际的路面养护工程中,路面检测系统在现场拍摄的照片由于光照不均匀、相机分辨率低、污迹等原因,通常会产生较多的背景噪声,这在以往的研究中并没有得到充分的考虑。因此,CNN模型从干净、合格的照片中学习后可能并不适用于现场带噪音的原始照片。
2、一些研究使用标记图像训练他们的CNN模型,这些图像具有预先手动识别的裂纹位置和预先识别的裂纹种类。
3、裂缝自动识别和裂缝分类的研究较多,但针对不同原因引起的裂缝形态特征以及不同的维修活动的研究较少。
因此,本发明提出了一种基于深度学习的路面裂缝快速识别方法,将路面裂缝分为四种类型:横向裂缝、纵向裂缝、斜向裂缝、鳄鱼皮状裂缝。与其他CNN方法不同,该方法使用有限数量的未经预先手动识别的现场图像进行训练,可以识别路面裂缝模式。本发明的优点是可以在非常早期的学习阶段,无需人工操作就可以学习未处理的路面裂缝现场图像,即使图像中有一些背景噪声。其中内部预处理步骤可以减少无用信息,简化CNN的输入,从而提高性能,帮助土木工程师及时进行相应的维修,在裂缝恶化产生破坏性作用前及时修复裂缝。
发明内容
本发明采用的技术方案为一种基于深度卷积神经网络的路面裂缝快速识别方法,包括图像预处理和CNN两大部分,如图1所示,具体步骤如下:
步骤一:现场照片预处理。
首先,调整现场照片的大小,把现场照片统一调整为856×856像素。其次,调整现场图片的曝光。原始的现场照片光照不均匀,必须对不均匀的曝光进行处理才能实现现场图像的遮挡效果。使用两种方法来处理不同类型的路面裂缝:
1)如果是横向裂缝、斜向裂缝或鳄鱼皮状裂缝,采用平均值法,即从每张单独的现场图像中取平均像素值P_m,其中m代表取平均值;循环遍历每一列,记每一列的像素值c(:,i),其中i为循环参数,i=1,2,3……,取c(:,i)的平均值c_m(i);然后,调整这一列的像素值,调整后的像素值等于列平均值和图平均值的差值加上原像素值:c(:,i)=c(:,i)+(c_m(i)-P_m)。(1)
2)如果是纵向裂缝,采用掩膜处理方法,对于光照不均匀的图像,采用如下模型:
I′(x,y)=I(x,y)+B(x,y) (1)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911385351.8/2.html,转载请声明来源钻瓜专利网。