[发明专利]一种基于JIT-RVM的多模态间歇过程建模方法有效
申请号: | 201810471890.2 | 申请日: | 2018-05-17 |
公开(公告)号: | CN108732931B | 公开(公告)日: | 2021-03-26 |
发明(设计)人: | 王建林;张维佳;韩锐;邱科鹏;赵利强 | 申请(专利权)人: | 北京化工大学 |
主分类号: | G05B13/04 | 分类号: | G05B13/04 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 沈波 |
地址: | 100029 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 jit rvm 多模态 间歇 过程 建模 方法 | ||
1.一种基于JIT-RVM的多模态间歇过程建模方法,其特征在于:该方法具体包括以下步骤:
步骤一:将间歇过程状态变量及测量变量三维历史数据沿变量方向展开为二维数据,再将三维历史数据中状态变量数据按时间方向展开为二维数据并标准化数据,由此得到预处理后的间歇过程数据;
步骤二:利用SCFCM算法对步骤一得到的预处理后的间歇过程数据进行模态划分,得到多模态划分结果;
步骤三:利用式(10)所示间歇过程机理模型进行状态实时估计,获得状态变量实时估计新数据xtest,并利用步骤二所得模态划分结果,获得状态变量实时估计数据xtest所属模态及其编号κtest,若当前数据属于主模态,则提取第κtest个主模态历史数据子集;若当前数据处于过渡模态,则提取第κtest个过渡模态及其相邻两主模态历史数据子集,构成状态变量实时估计数据xtest的模态历史数据子集{Xtest,Ytest};
式中,υ为控制变量;η为系统噪声;
步骤四:引入数据融合相似度计算因子,计算状态变量实时估计数据与历史数据之间的相似度,提取所有相似历史数据的输入部分及其对应输出值部分,构建即时学习最优相似训练集,建立JIT-RVM模型,最终得到多模态间歇过程模型;所述步骤四,具体包括:
为了从过程特性上和空间特性同时寻找与状态变量实时估计数据xtest特性相近的历史数据,分别根据式(11)和式(12)计算数据模态相似度Sm,n和数据代数空间相似度So,n;
Sm,n=exp(-||utest-un||2) (11)
So,n=exp(-||xtest-xn||2) (12)
式中,n为数据序号;un和utest分别第n个历史数据与状态变量新数据的隶属度值;xn为第n个历史状态数据;
为了融合两个相似度,利用式(13)和式(14)分别对计算出的数据模态相似度Sm,n和数据代数空间相似度So,n进行标准化;
式中,为数据模态相似度集合;为标准化后数据模态相似度;为数据代数空间相似度集合;为标准化后数据代数空间相似度;为历史数据个数;
将标准化后的数据代数相似度和数据模态相似度的平均值作为数据融合相似度计算因子;
利用式(15)计算状态变量实时估计数据xtest与各历史状态数据xn之间的数据融合相似度Sn,得到数据融合相似度集合为了选择数据融合相似度较高的历史数据作为训练数据,设定重要相似度判别阈值比较历史数据的数据融合相似度Sn与判别阈值的大小,若历史数据xn的数据融合相似度Sn与设定判别阈值间关系满足式(16),则认为该数据xn与状态变量实时估计数据xtest相似;
提取所有满足式(17)的历史状态数据xn及其对应测量变量值yn,构建即时学习最优训练数据集合
利用即时学习最优训练数据集结合RVM算法,由式(17)构建JIT-RVM模型;
式中,ε是均值为0,方差为β-1的高斯白噪声序列,且相互独立;为权值向量;为相似数据个数;为核函数;
利用式(18)计算,为与当前状态相似的第n个历史数据;
式中,σ为高斯核函数宽度参数;
为模型各个权值wn参数引入均值为0,方差为的独立高斯先验分布,并按照式(19)所示,利用贝叶斯定理更新其后验分布;
Σ=(β-1ΦTΦ+A) (21)
式中,μ为权值后验均值;Σ为权值后验方差;为模型的超参数,
将式(19)转化为
利用Ⅱ型极大似然法求解式(22),计算出模型超参数、噪声方差以及权值参数的最优估计值及相关向量集合,利用式(23)得到观测变量与状态变量的JIT-RVM模型;
结合状态变量的机理模型g,最终,得到式(24)所示多模态间歇过程模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京化工大学,未经北京化工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810471890.2/1.html,转载请声明来源钻瓜专利网。