[发明专利]一种基于深度学习理论的设备故障声源定位方法在审
申请号: | 202210141874.3 | 申请日: | 2022-02-16 |
公开(公告)号: | CN114528979A | 公开(公告)日: | 2022-05-24 |
发明(设计)人: | 田阳普;邓敏;周荣兴;洪鹏鹏;贺鹏 | 申请(专利权)人: | 红相股份有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06F17/14 |
代理公司: | 泉州市博一专利事务所(普通合伙) 35213 | 代理人: | 方传榜 |
地址: | 361008 福建省厦*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习理论 设备 故障 声源 定位 方法 | ||
本发明公开了一种基于深度学习理论的设备故障声源定位方法,包括如下步骤:通过麦克风阵列MEMS传感器进行声源信号采集,从而获取故障点的原始声源信号;对原始声源数据进行傅里叶变换和灰度处理,使其转换为STFT灰度图像,并将STFT灰度图像输入经过训练的声源位置神经网络模块,从而得到故障点的定位信息;将原始声源数据输入经过训练的声压强度神经网络模块,从而得到故障点的声压强度;结合故障点的定位信息和声压强度判断设备的故障情况。本发明基于原始声源数据的特性,创新性地采用相互独立的声源位置神经网络模块+声压强度神经网络模块的多任务学习网络构架,由此同时获取故障点的定位信息和声压强度,为设备故障情况的判断提供了双向支持。
技术领域
本发明涉及声源定位技术领域,特别涉及一种基于深度学习理论的设备故障声源定位方法。
背景技术
声源定位方法是电力行业和工业行业常用的设备故障定位方法,该方法的原理通过分析麦克风阵列采集信号从而对场景内所有声源相对于麦克风阵列的波达方向进行估计。最近几年,得益于人工智能技术的迅猛发展,许多专家学者开始将深度神经网络应用于声源定位方法当中,例如申请号为202010916621.X的中国专利公开了一种设备故障声源定位方法,该方法将延迟加和波束形成成像结果输入经过训练的双通道卷积神经网络,从而得到故障声源点的定位信息,由此能够避免定位过程中的迭代计算,提高了定位结果的实时性和定位信息的精确度。
该方法以延迟求和算法的结果输入网络,因此需要对原始的声源信号进行傅里叶变换、快速谱峭度算法以及延迟求和算法等多步处理,这存在以下两个问题:其一,原始的声源信号中包含有声源强度信息和相位信息,但是经过傅里叶变换后声源强度信息会有所缺失,导致该算法只能得到声源点的定位信息,而无法获取声源点的声功率强度,因此存在一定的弊端;其二,经过多步处理后的原始声源信息中所包含的丰富信息出现缺失,直接影响了定位结果的准确性,并且一旦该算法失效,会对后续的推理产生影响,可靠性较低。此外,该方法所采用的双通道卷积神经网络还存在推理较慢、占用硬件存储较多等问题。
发明内容
本发明提供一种基于深度学习理论的设备故障声源定位方法,其主要目的在于解决现有技术存在的问题。
本发明采用如下技术方案:
一种基于深度学习理论的设备故障声源定位方法,其特征在于:包括如下步骤:
S1、通过麦克风阵列MEMS传感器进行声源信号采集,从而获取故障点的原始声源信号;
S2、对原始声源数据进行傅里叶变换和灰度处理,使其转换为STFT灰度图像,并将STFT灰度图像输入经过训练的声源位置神经网络模块,从而得到故障点的定位信息;
S3、将原始声源数据输入经过训练的声压强度神经网络模块,从而得到故障点的声压强度;
S4、结合故障点的定位信息和声压强度判断设备的故障情况。
进一步,在步骤S2中, 所述声源位置神经网络模块为RepVGG-B0网络
进一步,所述RepVGG-B0网络的训练和推理过程均有5个阶段,每个阶段的层数依次为[1,4,6,16,1]。
进一步,在步骤S3中,所述声压强度神经网络模块为浅层一维卷积神经网络,其包括3层一维卷积层和4层全连接层。
进一步,在步骤S2中,根据公式(1)将原始声源信号通过短时傅里叶变换转化为时频图像 ;
式中:N表示声源个数, 表示汉明窗的长度,R表示相邻窗之间的跳接尺寸,表示汉明窗的宽度。
在步骤S2和S3中,通过bp训练方法对所述声源位置神经网络模块和声压强度神经网络模块进行训练,首先计算输出的声源位置与实际声源位置的差值 以及输出的声压强度与实际声压强度的差值 ,接着根据公式(2)计算代价函数,最后根据代价函数对声源位置神经网络模块和声压强度神经网络模块进行迭代修正;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于红相股份有限公司,未经红相股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210141874.3/2.html,转载请声明来源钻瓜专利网。