[发明专利]一种工业系统中缺失的时序数据的填充方法有效
| 申请号: | 202110818499.7 | 申请日: | 2021-07-20 | 
| 公开(公告)号: | CN113591954B | 公开(公告)日: | 2023-10-27 | 
| 发明(设计)人: | 戴运桃;梁源;彭立章;王淑娟;曾占魁;沈继红;谭思超;赵富龙;关昊夫 | 申请(专利权)人: | 哈尔滨工程大学 | 
| 主分类号: | G06F18/213 | 分类号: | G06F18/213;G06F18/241;G06N3/0464 | 
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 | 
| 地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 一种 工业 系统 缺失 时序 数据 填充 方法 | ||
1.一种工业系统中缺失的时序数据的填充方法,其特征在于,包括以下步骤:
步骤一:数据预处理:获取工业系统历史运行过程中的完整数据作为故障诊断的原始数据集X,X中有n种类型的故障数据,对完整数据进行随机丢失处理,即规定丢失事件发生的可能性概率为p0,则不发生的概率为1-p0;
步骤二:针对缺失的多元时序数据,以边界平衡生成对抗网络BEGAN模型为基础,构建生成对抗网络模型BiGRU-BEGAN,包括判别器D和生成器G,所述判别器D是一个自编码器模型,包括Encoder表示编码器和Decoder表示解码器,所述生成器G采用双向循环神经网络BiGRU,BiGRU网络模型分为前向循环神经网络层和后向循环神经网络层,每一次训练序列向前和向后分别是两个门控循环神经网络,网络中的隐状态均取决于前一时刻的隐状态和输入值,而且这两个神经网络都连接着一个输出层;
步骤三:训练BiGRU-BEGAN网络模型;
步骤四:用训练好的BiGRU-BEGAN模型生成完整的人工数据并填充原始缺失数据:在训练好的模型中输入从原始缺失数据提取的特征向量z|t,生成完整的时序数据,再将生成的数据插补至原始缺失数据的对应缺失位置。
2.根据权利要求1所述的一种工业系统中缺失的时序数据的填充方法,其特征在于:步骤三所述训练BiGRU-BEGAN网络模型具体为:
S3.1:参数设置:设定训练数据的批次batchsize、迭代次数epoch和超参数学习率α,Loss1损失函数系数θ,更新的学习率λ以及生成数据的重构损失权值系数kt;
S3.2:训练判别器D:提取原始缺失数据的特征z|t作为生成器输入的低维向量,通过生成器生成数据G(z|t),再将原始缺失数据x|t以及生成数据G(z|t)作为判别器的输入,计算判别器的损失函数LD=L(x|t)-ktL(G(z|t)),根据Adam优化算法更新判别器的权重参数:
wd←wd-α*Adam(wd,dw)
kt+1←kt+λ(rL(x|t)-L(G(z|t)))
kt=min(max(k,0),1)
其中,kt是生成数据重构损失的权重系数,λ为kt更新的学习率;x|t表示原始缺失数据,G(z|t)表示生成数据;L(x|t)、L(G(z|t))分别表示原始数据和生成数据的重构损失,wd表示判别器的权重参数,dw是对判别器的参数wd所求的梯度;
S3.3:训练生成器G:将由原始数据特征生成的低维向量z|t作为生成器的输入,生成数据G(z|t),计算生成器的损失函数LG=L(G(z|t))+θLoss1,根据Adam优化算法去更新生成器的权重参数:
wg←wg-α*Adam(wg,gw)
其中L(G(z|t))表示生成数据的重构损失,θ为权值系数,wg表示生成器的权重参数,gw表示对生成器的参数所求的梯度。Loss1表示真实数据和生成数据之间的L1范数,其数学表达式为:
Loss1=||G(z|t)-x|t||1
S3.4:交替训练判别器和生成器,至Mgloable损失函数值趋于稳定不再下降,Mgloable损失函数如下:
Mgloable=L(x|t)+||rL(x|t)-L(G(z|t))||1
其中,r表示多样性比率,用于调节生成器和判别器之间的平衡,公式如下:
当E(L(x|t))=E(L(G(z|t)))时,则判别器和生成器达到平衡。
3.根据权利要求1或2所述的一种工业系统中缺失的时序数据的填充方法,其特征在于:步骤二所述门控循环神经网络包括更新门和重置门,更新门zt定义了前面记忆的信息保存到当前时刻的量,控制当前时刻的输出状态ht中要保留多少历史状态ht-1,以及保留多少当前时刻的候选状态重置门rt决定当前t时刻的候选状态是否需要依赖上一时刻的网络状态ht-1以及依赖程度,其更新公式为:
zt=σ(Wzxt+Uzht-1+bz)
rt=σ(Wrxt+Urht-1+br)
其中,是当前候选状态信息,xt为当前时刻的输入,ht是当前隐含状态信息,ht-1是上一时刻的隐含状态信息,zt表示更新门,rt表示重置门,Wr,Ur,br是重置门的权重和偏置参数,Wz,Uz,bz是更新门的权重和偏置参数,Wc,Uc,bc是更新当前候选状态信息的权重和偏置参数,σ是sigmoid函数,在更新记忆单元时使用了tanh函数,具体函数公式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110818499.7/1.html,转载请声明来源钻瓜专利网。





