[发明专利]一种基于热成像的电能表过热故障判别方法在审
| 申请号: | 202111458119.X | 申请日: | 2021-12-02 |
| 公开(公告)号: | CN114359146A | 公开(公告)日: | 2022-04-15 |
| 发明(设计)人: | 刘玲;张晓宙;豆林林;周渠;赵仲勇;白莉;侯运瑶 | 申请(专利权)人: | 国网山西省电力公司晋中供电公司;西南大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/62;G06N3/04;G06N3/08;G06V10/764;G06V10/82 |
| 代理公司: | 北京同恒源知识产权代理有限公司 11275 | 代理人: | 赵荣之 |
| 地址: | 030600 山*** | 国省代码: | 山西;14 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 成像 电能表 过热 故障 判别 方法 | ||
1.一种基于热成像的电能表过热故障判别方法,其特征在于:该方法包括以下步骤:
S1:收集电能表热成像图片数据。
S2:对热成像图片数据进行人为标签分类以及数据预处理。
S3:建立深度卷积神经网络,以及优化函数和优化器的选择。
S4:训练模型,通过测试集的准确率对模型的超参数微调。
S5:搭建最小系统,并将训练好的网络嵌入。
2.根据权利要求1所述的一种基于热成像的电能表过热故障判别方法,其特征在于:所述S1中,数据类型为电能表的热成像图片。
数据的获取方式为通过热成像仪对工作的电能表进行非侵入式地收集图片。
3.根据权利要求2所述的一种基于热成像的电能表过热故障判别方法,其特征在于:所述S2中,对所有热成像图片进行初筛,剔除模糊的图片以及未完全包含整个电能表结构的图片。然后通过技术人员进行对所有电能表的过热故障进行人为分类打分,分为5个等级并给出建议;
若数据少,通过对热成像图片进行旋转、裁剪和加高斯噪声手段对数据进行增广。最后对把所有带标签的热成像图片转换成RGB格式的227×227×3灰度值。
4.根据权利要求3所述的一种基于热成像的电能表过热故障判别方法,其特征在于:所述S3中,深度卷积神经网络包含8层,前5层是卷积层,后3层为全连接层,其中最后一层采用softmax进行分类。采用ReLU作为激活函数,还利用dropout来减轻过拟合问题。具体如下:
第一层:卷积层,其输入为原始图像的RGB的灰度值,尺寸为227×227×3,使用96个11×11×3的卷积核,步长为4,之后输出为55×55×96的矩阵值,使用的激活函数是ReLU。然后进行局部响应归一化和最大池化,其中最大池化的尺寸为3×3,滑动步长为2,之后输出27×27×96的矩阵值。
第二层:卷积层,其输入为前一层最后输出的矩阵值,尺寸为27×27×96。首先对输入进行相同补白,之后使用了256个5×5的卷积核,步长为1,得到为27×27×256的矩阵值,使用的激活函数是ReLU。然后进行局部响应归一化和最大池化,其中最大池化的尺寸为3×3,步长为2,之后输出13×13×96的矩阵值。
第三层:卷积层,其输入为前一层最后输出的矩阵值,尺寸为13×13×256。首先对输入进行相同补白,之后使用384个3×3的卷积核,步长为1,得到为13×13×384的矩阵值,使用的激活函数是ReLU。
第四层:卷积层,其输入为前一层最后输出的矩阵值,尺寸为13×13×384。首先对输入进行相同补白,之后使用384个3×3的卷积核,步长为1,得到为13×13×384的矩阵值,使用的激活函数是ReLU。
第五层:卷积层,其输入为前一层最后输出的矩阵值,尺寸为13×13×384。首先对输入进行相同补白,之后使用256个13×13的卷积核,步长为1,得到为13×13×256的矩阵值,使用的激活函数是ReLU。然后进行最大池化,其中最大池化的尺寸为3×3,步长为2,之后输出6×6×256的矩阵值。
第六层:全连接层,其输入为前一层最后输出矩阵值打平的向量,尺寸为4096×1,使用的激活函数是ReLU,并且对其使用dropout。
第七层:全连接层,其输入为前一层最后的输出,尺寸为4096×1,全连接层的节点数为4096,使用的激活函数是ReLU,并且对其使用dropout。
第八层:全连接层,其输入为前一层最后的输出,尺寸为4096×1,全连接层的节点数为1000,使用的激活函数是ReLU,并且对其使用dropout。
第九层:softmax层,其输入为前一层最后的输出,尺寸为1000×1,判别的种类为5。
其中,激活函数ReLU为:
使用局部响应归一化,提高模型的准确率,函数为:
其中,i表示第i个核在位置(x,y)运用激活函数ReLU后的输出,n是同一位置上临近的kernal map的数目,N是kernal的总数;参数k,n都是超参数,一般设置k=2,n=5,ɑ=1×e-4,β=0.75。
最后一层为softmax层,使用softmax函数来将各神经元的输出压缩到[0,1]之间,其函数为:
其中,C为输出层神经元的个数,z是一个C维的向量,表示的是未经softmax之前的输出(softmax层的输入),p(i)表示是第i类的概率,是一个标量,概率最大即为判断的类别。
将标签变为独热编码的形式,与深度卷积神经网络最后的输出的交叉熵,作为损失函数,其函数形式为:
其中,q(i)为真实标签的独热编码,p(i)为神经网络最后的输出。其值越小,说明模型分类能力越强。
为使收敛更快,优化器为Adam。
在全连接层中使用dropout技术,对神经网络单元按照50%的几率将其从网络中丢弃,不再对前向和反向传输的数据响应。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网山西省电力公司晋中供电公司;西南大学,未经国网山西省电力公司晋中供电公司;西南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111458119.X/1.html,转载请声明来源钻瓜专利网。





