[发明专利]一种基于多参数和卷积神经网络的结构损伤识别方法有效
申请号: | 201910585736.2 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110472272B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 陈贡发;腾帅 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510006 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 参数 卷积 神经网络 结构 损伤 识别 方法 | ||
本发明提出一种基于多参数和卷积神经网络的结构损伤识别方法,包括以下步骤:输入基础钢架结构图片,对基础钢架结构图片进行数据采集并组合为多参数数据,以矩阵数据形式将多参数数据转换为基础钢架结构数据矩阵;将基础钢架结构数据矩阵通过损伤模拟得到对应的损伤位置向量,组成训练集和测试集;构建卷积神经网络模型,将训练集输入卷积神经网络中进行训练,保存完成训练的卷积神经网络;将测试集输入卷积神经网络,若输出的识别结果对应的误差值收敛,则卷积神经网络完成训练,否则重新对卷积神经网络进行训练;对待结构损伤识别的图片进行数据采集并组合为多参数数据后输入完成训练的卷积神经网络中,其输出的结果即为结构损伤识别结果。
技术领域
本发明涉及损伤识别技术领域,更具体地,涉及一种基于多参数和卷积神经网络的结构损伤识别方法。
背景技术
随着我国综合实力的提升,经济发展及工业发展的需要,各种高层写字楼、大型购物广场、娱乐场所、城市标志性建筑等大规模建筑得以建设,这些大型建筑物在使用期间,不可避免地产生结构损伤,具体地表现为系统局部的材料或几何特性的改变,也包括边界条件和整个系统的变化。建筑物的结构损伤改变了建筑物整体结构的力学性能,存在结构承载能力降低的问题,对系统现在或未来造成不利的影响。因此,损伤识别对于预防结构突然坍塌,从而避免或降低人财损失有着及其重大的研究意义。
近年来基于深度卷积神经网络的智能识别技术有了很多突破,智能识别主要是利用卷积算法提取图像的特征,将待识别的图像输入到网络中,从而判断物体的类别;而卷积神经网络是一种可以提取特征的算法,具有极好的鲁棒性,抗干扰性强。然而,现有的基于深度卷积神经网络的智能识别技术中,在结构损伤识别过程中的存在识别指标单一,且无法携带所识别的结构损伤信息的问题,不能满足对结构损伤识别的要求。
发明内容
本发明为克服上述现有技术所述的无法携带所识别的结构损伤信息的缺陷,提供一种基于多参数和卷积神经网络的结构损伤识别方法,识别结果携带有相应的结构损伤信息,且能够增加卷积神经网络对损伤检测的指标。
为解决上述技术问题,本发明的技术方案如下:
一种基于多参数和卷积神经网络的结构损伤识别方法,包括以下步骤:
S1:输入基础钢架结构图片,对所述基础钢架结构图片进行数据采集并组合为多参数数据,以矩阵数据形式将多参数数据转换为基础钢架结构数据矩阵;
S2:将所述基础钢架结构数据矩阵通过进行不同位置杆的损伤模拟,得到对应的损伤位置向量,组成训练集和测试集;
S3:构建卷积神经网络模型,将所述训练集输入卷积神经网络中进行训练,保存完成训练的卷积神经网络;
S4:将所述测试集输入卷积神经网络,若输出的识别结果对应的误差值收敛,则卷积神经网络完成训练并执行S5步骤,否则跳转执行S3步骤;
S5:对待结构损伤识别的图片进行数据采集并组合为多参数数据后输入完成训练的卷积神经网络中,其输出的结果即为结构损伤识别结果。
本技术方案中,通过对基础钢架结构图片进行数据采集并构造网络输入数据格式,以矩阵数据形式作为卷积神经网络的输入,并经过损伤模拟得到不同的损伤位置向量构成训练集,因此训练集中每一个输入代表一种结构损伤,并对应一个目标输出,且训练集中每一个数据为多参数数据包括钢架结构的相关参数,使其对应的输出包含相应的结构损伤信息,然后将包含多参数数据的训练集输入卷积神经网络中进行训练,至卷积神经网络所输出的识别结果对应的误差收敛至最小值时完成卷积神经网络的训练。经过由该模拟有不同损伤位置及损伤情况的训练集对卷积神经网络进行训练,完成训练的卷积神经网络具备损伤检测网络指标多样性,满足损伤识别技术的要求。
优选地,S1步骤中的基础钢架结构数据矩阵的大小为n×(n+1)。
优选地,S2步骤中,采用有限元法对不同位置杆的不同程度的损伤进行模拟。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910585736.2/2.html,转载请声明来源钻瓜专利网。