[发明专利]一种基于智能数据处理的桥梁表观异常识别方法及系统在审
申请号: | 202211643646.2 | 申请日: | 2022-12-20 |
公开(公告)号: | CN115937595A | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 刘天成;潘放;程潜;朱超;王小宁;王伟;鲜荣;郭国和;王杨 | 申请(专利权)人: | 中交公路长大桥建设国家工程研究中心有限公司;广东省公路建设有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/80;G06V10/774;G06V20/17;G06V10/82;G06T7/00;G06T5/10;G06V10/54 |
代理公司: | 广州科跃云专利商标代理事务所(普通合伙) 44919 | 代理人: | 李瑶 |
地址: | 100120 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 智能 数据处理 桥梁 表观 异常 识别 方法 系统 | ||
1.一种基于智能数据处理的桥梁表观异常识别方法,其特征在于,所述方法应用于桥梁表观异常识别系统,所述系统与无人机数据采集装置通信连接,所述方法包括:
控制所述无人机数据采集装置对桥梁体表面进行采集,得到桥梁表面图像数据集;
对所述桥梁表面图像数据集中的每一帧图像进行离散余弦变换,得到离散余弦变换系数;
根据所述离散余弦变换系数进行图像背景纹理特征值计算,输出图像背景特征值集合;
根据所述图像背景特征值集合进行数据分类,得到分类图像数据集,其中,所述分类图像数据集中的每一类图像对应一个背景特征;
将所述图像背景特征值集合作为训练数据集进行神经网络训练,生成自编码器;
将所述分类图像数据集输入所述自编码器中,根据所述自编码器进行分析,得到还原误差指标;
以所述还原误差指标进行异常识别,输出异常图像数据集。
2.如权利要求1所述的方法,其特征在于,根据所述离散余弦变换系数进行图像背景纹理特征值计算,输出图像背景特征值之后,方法还包括:
根据所述离散余弦变换系数,提取背景直流系数和背景交流系数;
以所述背景直流系数和所述背景交流系数进行特征值计算,获取所述图像背景特征值集合;
对所述图像背景特征值集合中的各个特征值进行离散度计算,获取特征离散度;
判断所述特征离散度是否小于预设特征离散度;
若所述特征离散度小于所述预设特征离散度,获取二次提取指令。
3.如权利要求2所述的方法,其特征在于,根据所述背景直流系数和所述背景交流系数进行特征值计算的公式如下:
其中,Tn为所述图像背景特征值集合,ACn(x,y)是指所述背景直流系数,DCn(x,y)是指所述背景交流系数,n是指图像集合数量,ε1是指所述背景直流系数对背景特征值的影响因子,ε2是指所述背景交流系数对背景特征值的影响因子,ε1+ε2=1。
4.如权利要求3所述的方法,其特征在于,所述方法还包括:
若所述特征离散度小于所述预设特征离散度,对所述桥梁表面图像数据集进行灰度处理,获取背景灰度特征;
根据所述二次提取指令基于所述背景灰度特征,获取背景灰度系数;
根据所述背景灰度系数、所述背景直流系数和背景交流系数进行特征值计算,输出优化图像背景特征值集合。
5.如权利要求1所述的方法,其特征在于,根据所述背景灰度系数、所述背景直流系数和背景交流系数进行特征值计算的公式如下:
其中,Tn为所述优化图像背景特征值集合,ACn(x,y)是指所述背景直流系数,DCn(x,y)是指所述背景交流系数,GCn(x,y)是指所述背景灰度系数,n是指图像集合数量,ε1是指所述背景直流系数对背景特征值的影响因子,ε2是指所述背景交流系数对背景特征值的影响因子,ε3是指所述背景灰度系数对背景特征值的影响因子,ε1+ε2+ε3=1。
6.如权利要求1所述的方法,其特征在于,将所述分类图像数据集输入所述自编码器中,根据所述自编码器进行分析,得到还原误差指标,方法还包括:
将所述分类图像数据集输入所述自编码器中,其中,所述自编码器包括图像清洗层、图像编码层、图像解码层和误差输出层;
根据所述图像清洗层对所述分类图像数据集进行清洗,获取清洗图像数据;
将所述清洗图像数据输入所述图像编码层,获取图像编码结果;
将所述图像编码结果输入所述图像解码层,得到图像解码结果;
根据所述误差输出层对所述图像解码结果进行还原误差分析,输出所述还原误差指标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中交公路长大桥建设国家工程研究中心有限公司;广东省公路建设有限公司,未经中交公路长大桥建设国家工程研究中心有限公司;广东省公路建设有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211643646.2/1.html,转载请声明来源钻瓜专利网。