[发明专利]一种数控机床运行状态健康诊断系统及诊断方法有效
| 申请号: | 201910980485.8 | 申请日: | 2019-10-16 |
| 公开(公告)号: | CN110554657B | 公开(公告)日: | 2023-03-03 |
| 发明(设计)人: | 杨泽青;李月;陈英姝;刘丽冰;张艳蕊;马玉琼;冯慧娟;彭凯;杨伟东 | 申请(专利权)人: | 河北工业大学 |
| 主分类号: | G05B19/406 | 分类号: | G05B19/406 |
| 代理公司: | 天津翰林知识产权代理事务所(普通合伙) 12210 | 代理人: | 王瑞 |
| 地址: | 300130 天津市红桥区*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 数控机床 运行 状态 健康 诊断 系统 方法 | ||
1.一种数控机床运行状态健康诊断系统,其特征在于该系统包括边缘数据采集模块、云平台和客户端;云平台分别与边缘数据采集模块和客户端连接;
所述云平台包括预测性诊断模块、信息管理及存储模块和应用服务器;所述应用服务器与边缘数据采集模块单向连接,用于边缘数据采集模块向应用服务器传输实时基础数据;应用服务器与预测性诊断模块双向连接;预测性诊断模块接收应用服务器转发的实时基础数据,对机床的实时健康状况进行诊断,得到实时诊断数据并发送给应用服务器;预测性诊断模块接收应用服务器转发的来自客户端的处理后零件表面纹理图像与加工基本信息,生成加工后诊断数据;预测性诊断模块根据加工后诊断数据和实时诊断数据生成综合诊断数据发送给应用服务器;应用服务器与信息管理及存储模块双向连接,用于应用服务器向信息管理及存储模块传输实时诊断数据、综合诊断数据、处理后零件表面纹理图像、实时基础数据和加工基本信息并且信息管理及存储模块对其进行分类存储,以及信息管理及存储模块接收应用服务器转发的来自客户端的调取历史诊断数据请求后向应用服务器传输历史诊断数据;应用服务器与客户端双向连接,用于应用服务器向客户端传输实时基础数据、实时诊断数据、综合诊断数据、历史诊断数据和诊断结果,以及客户端向应用服务器传输处理后零件表面纹理图像、加工基本信息和调取历史诊断数据请求;
基于该数控机床运行状态健康诊断系统的数控机床运行状态健康诊断方法,包括以下步骤:
步骤1、系统的安装:
(1)将数据采集设备中的各个部分安装到数控机床的适当位置;
(2)安装数据初步处理模块,并与数据采集设备的各个部分连接;
(3)将云平台的各个部分部署到指定位置并与边缘数据采集模块连接,且预测性诊断模块已经训练完成;
(4)部署客户端并将客户端与云平台连接;
步骤2、对数控机床运行状态进行健康诊断:
(1)数据采集设备采集机床的各项状态数据和正在执行的加工指令,得到原始实时数据;再将原始实时数据发送至数据初步处理模块;
(2)数据初步处理模块对原始实时数据进行数据运算,并支持边缘计算以及数据打包和压缩处理,得到实时基础数据,然后发送至应用服务器;
(3)应用服务器将实时基础数据转发给实时诊断模块、信息管理及存储模块和客户端;
(4)实时诊断模块使用递归神经网络或其变种的神经网络对实时基础数据进行分析处理,得到实时诊断数据;然后将实时诊断数据发送至应用服务器和综合诊断模块;应用服务器再将实时诊断数据发送至信息管理及存储模块和客户端;
(5)在加工完成后,工作人员利用客户端得到加工后零件表面纹理图像,再对图像进行预处理,得到处理后零件表面纹理图像;再将处理后零件表面纹理图像和加工基本信息传输至应用服务器;
(6)应用服务器将处理后零件表面纹理图像和加工基本信息发送至加工后诊断模块和信息管理及存储模块;
(7)加工后诊断模块使用卷积神经网络或其变种的神经网络对处理后零件表面纹理图像和加工基本信息进行分析处理,得到加工后诊断数据,并发送至综合诊断模块;
(8)综合诊断模块使用多层感知机对加工后诊断数据和实时诊断数据进行分析处理,得到综合诊断数据并发送至应用服务器;
(9)应用服务器将综合诊断数据发送至客户端和信息管理及存储模块;工作人员查看实时诊断数据、处理后零件表面纹理图像、加工基本信息、综合诊断数据和诊断结果,实现对系统的健康诊断;
所述多层感知机采用全相联神经网络;全相联神经网络包含一个隐含层、一个输入层和一个输出层,其中隐含层包含40个神经元,输入层包含20个神经元,输出层包含10个神经元;对于全相联神经网络,在输入标号为第k代样本时,实时诊断数据表示为Xr,k与加工后诊断数据表示为Xp,k做向量拼接⊕,得到的结果传递给输入层通过相应的运算,得到输入层输出Oi,k;再将输入层
输出Oi,k传递给隐含层通过相应的运算,得到隐含层输出Oh,k;再将隐含层输出Oh,k传递给输出层通过相应的运算,得到实际输出为Yk;隐含层、输入层和输出层为使用Sigmoid激活函数的神经元;
上述过程的具体的公式表示如式1)-式3)所示:
Oh,k=σ(WhOi,k+bh)2)Yk=σ(WoOh,k+bo)3)式1)-式3)中,Xr,k为实时诊断数据输入;Xp,k为加工后诊断数据输入;⊕为向量拼接操作;Oi,k为输入层输出;Oh,k为隐含层输出;Yk为神经网络在输入Xr,k和Xp,k时的实际输出;下标k表示训练样本的编号,即第k个样本;Wi和bi分别表示输入层的权重矩阵和偏置矩阵;Wh和bh分别表示隐含层的权重矩阵和偏置矩阵;Wo和bo分别表示输出层的权重矩阵和偏置矩阵;σ(·)函数表示Sigmoid函数,为该神经网络的激活函数;
定义全相联神经网络的误差ek如式4)所示:
ek=(Yk′-Yk)2 4)式4)中,Yk为神经网络的实际输出,Yk′为神经网络的期望输出;
则训练全相联神经网络的过程是求ek对式1)-式3)中的各个参数的梯度,并利用这些梯度调整各个参数以最小化ek的过程;各个参数指Wi、bi、Wh、bh、Wo和bo;
递归神经网络采用LSTM网络;对于LSTM网络,在输入标号为第k代样本时,当前实时基础数据表示为Xr,t,k与上步实时诊断数据ht-1,k做向量拼接得到总体输入Xt,k;总体输入Xt,k分别传递给以遗忘门、输入门、新记忆元和输出门通过相应的运算,得到遗忘门输出ft,k、输入门输出it,k、新记忆元输出ct′,k以及输出门输出ot,k;遗忘门输出ft,k与上步的LSTM内部状态ct-1,k相乘*,以确定之前的记忆是否将对此时的操作产生影响,得到的结果为长期记忆m;输入门输出it,k与新记忆元输出ct′,k相乘,得到的结果为短期记忆m′;短期记忆m′与长期记忆m相加,传递到最终记忆元,由最终记忆元通过相应的运算产生该步的LSTM内部状态ct,k;将该步的LSTM内部状态ct,k与输出门输出ot,k相乘*,得到该步的实时诊断数据ht,k;遗忘门、输入门和输出门为使用Sigmoid激活函数的神经元;新记忆元和最终记忆元为使用tanh激活函数的神经元;
上述过程的具体的公式表示如式5)-13)所示:
it,k=σ(WiXt,k+bi) 6)
ft,k=σ(WfXt,k+bf) 7)
ot,k=σ(WoXt,k+bo) 8)
c′t,k=tanh(WcXt,k+bc) 9)
m=ft,k*ct-1,k 10)
m′=it,k*c′t,k 11)
ct,k=tanh(m+m′) 12)
ht,k=ot,k*ct,k 13)
式5)-式13)中,Xr,t,k表示当前实时基础数据输入;ht-1,k为上步实时诊断数据输入;下标k表示训练样本的编号,即第k个样本;Xt,k为总体输入;ft,k为遗忘门输出,it,k为输入门输出;ot,k为输出门输出;c′t,k为新记忆元输出;ct-1,k为上步的LSTM内部状态;m为长期记忆输出;m′为短期记忆输出;ct,k为该步的LSTM内部状态;ht,k为该步的实时诊断数据;*为Hadamard积;+为向量加操作;为向量拼接操作;tanh(·)为tanh激活函数;σ(·)为Sigmoid激活函数;Wi与bi分别表示输入门的权重矩阵和偏置矩阵;Wf与bf分别表示遗忘门的权重矩阵和偏置矩阵;Wc与bc分别表示新记忆元的权重矩阵和偏置矩阵;Wo与bo分别表示输出门的权重矩阵和偏置矩阵;
定义LSTM网络的误差et,k为如式14)所示:
et,k=(h′t,k-ht,k)2 14)
式14)中,h′t,k为神经网络的期望输出;
则训练递归神经网络的过程是求et,k对式5)-式13)中的各个参数的梯度,并利用这些梯度调整各个参数以最小化et,k的过程;各个参数指Wi、Wf、Wo、Wc、bi、bf、bo和bc;
卷积神经网络为LeNet-5网络;将处理后零件表面纹理图像输入第一卷积层中;第一卷积层使用6个特征图,卷积核大小为5*5,步长为1,输出特征图大小为28*28,激活函数为ReLU;第一池化层使用6个特征图,卷积核大小为2*2,步长为2,输出特征图大小为14*14,池化方法为求和;第二卷积层使用16个特征图,卷积核大小为5*5,步长为1,输出特征图大小为10*10,激活函数为ReLU;第二池化层使用16个特征图,卷积核大小为2*2,步长为2,输出特征图大小5*5,池化方法为求和;将加工基本信息输入第三卷积层中;第三卷积层使用150个特征图,其中120个特征图来自第二池化层,30个特征图来自加工基本信息,卷积核大小为5*5,步长为2,输出特征图大小为1×1,激活函数为ReLU;第一全相联层为一个普通的隐含层,包含84个神经元;第二全相联层为一个使用了10个神经元的输出层;
对于LeNet-5网络,由于卷积神经网络包括卷积层、池化层和全相联层;全相联层的训练方法与全相联神经网络相同,下面介绍池化层和卷积层的训练方法;
对于池化层,从该层的输出误差反向推导其输入误差的公式为:
el-1=upsample(el)*ol-1 15)
式15)中,ol-1为前一层的输出;el-1为前一层的误差;*为Hadamard积;upsample(·)为上采样函数,上采样函数为平均函数,将el分四平均,得到一个2*2矩阵;el为该层的误差;在池化层仅将误差进行反向传播;
对于卷积层,其输入误差与输出误差之间的关系为:
el-1=el*rot180(Wl)*ol-1 16)
式16)中,Wl为该层的卷积核;rot180(·)函数为旋转函数,它将输入矩阵做一次水平翻转和一次竖直翻转;训练卷积层的过程为更新卷积核的过程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河北工业大学,未经河北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910980485.8/1.html,转载请声明来源钻瓜专利网。





