[发明专利]基于ELM-ADHDP的复杂分离过程优化方法有效
| 申请号: | 202011266460.0 | 申请日: | 2020-11-13 |
| 公开(公告)号: | CN112381139B | 公开(公告)日: | 2023-07-25 |
| 发明(设计)人: | 秦伟;李慧;常华鹏;李颖;骆万博;丛铄沣;罗明月;赵启亮;叶伟康 | 申请(专利权)人: | 长春工业大学 |
| 主分类号: | G06F17/16 | 分类号: | G06F17/16;G06F18/214;G06N3/0464;G06N3/06 |
| 代理公司: | 北京华际知识产权代理有限公司 11676 | 代理人: | 张天会 |
| 地址: | 130012 吉林*** | 国省代码: | 吉林;22 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 elm adhdp 复杂 分离 过程 优化 方法 | ||
1.基于ELM-ADHDP的复杂分离过程优化方法,其特征在于:包括以下步骤:
步骤一:将复杂分离过程同一时刻下的蒸发温度、真空度、刮膜电机转速和进料速度四个对分离过程影响最大的工艺参数和产品指标的值作为输入量M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)],其中,u1(k),u2(k),u3(k),u4(k)分别是输入量中的蒸发温度、真空度、刮膜电机转速和进料速度,将分离产物的得率和纯度也作为输入量,x(k)=[x1(k),x2(k)],将x(k+1)=[x1(k+1),x2(k+1)]作为输出量,其中,x1(k),x2(k)分别是分离产物的得率和纯度,确立一个在同一时刻下输入量与输出量具有映射对应关系的实验数据组;在分离过程稳态进行的情况下,在不同时刻提取并记录Q个具有上述映射关系的实验数据组,将这些实验数据组作为实验样本,存入实验样本数据库中;
步骤二:建立以步骤一所述实验样本中的输入量作为极限学习机的输入变量、以对应分离产物的得率和纯度的预测值作为输出变量的极限学习机预测模型网络;该极限学习机为三层拓扑结构,输入层神经元为m+n个,n=4,m=2,输出层神经元为m个,隐含层神经元为L个,N个任意不同样本,隐含层的激活函数选取双极性sigmoidal函数,即g(),输出层的激活函数选取Purelin线性函数,wi=[wi1,wi2,...,wir]T表示输入层神经元与隐层第i个神经元之间的输入权值矩阵,βi表示隐层第i个神经元和输出层神经元之间的输出权值,bi表示隐层第i个神经元的阈值,wi·uj表示wi和uj的内积,得到如下形式:
单隐层极限学习机训练的目标是使得输出的误差最小,可以表示为:
即存在wi、uj和bi使得:
上述等式可以改写为Hβ=X,其中:
其中,H为极限学习机的隐层输出矩阵;因此极限学习机的训练等同于求线性系统Hβ=X的最小二乘解
所述步骤二中利用极限学习机原理训练模型网络的具体过程如下:
步骤2-1:定义模型网络k时刻的输入向量M(k),
M(k)=[u1(k),u2(k),u3(k),u4(k),x1(k),x2(k)]
步骤2-2:模型网络的正向计算过程:
mh1(k)=M(k)×Wm1(k)+βm
mh2(k)=sigmoid(mh1(k))
其中mh1(k)、mh2(k)为模型网络隐含层的输入和输出,Wm1(k)、Wm2(k)分别为输入层到隐层和隐层到输出层的权值;
步骤2-3:根据极限学习机的思想,最小化误差:
求取Wm2(k)等于求线性系统的最小二乘解即:
步骤2-4:则模型网络网隐层到输出层权值矩阵特解为
其中,为k时刻的伪逆矩阵;
步骤三:将x(k)输入到执行网络,得到u(k),执行网络的输入分别是系统在k时刻的状态向量x(k)的n个分量,输出则是与输入状态x(k)对应的控制向量u(k)的m个分量;由三层拓扑结构极限学习机构成,隐含层的激活函数选取双极性sigmoidal函数,即g();输出层的激活函数选取Purelin线性函数;
步骤四:将[u(k)x(k)]输入到模型网络,得到x(k+1);
步骤五:将[u(k)x(k)]输入到评价网络中,得到J(k),并计算U(k);评价网络同样由三层拓扑结构极限学习机构成,输入层神经元为m+n个,n=4,m=2,输出层神经元为1个,隐含层神经元为14个,隐含层的激活函数选取双极性sigmoidal函数g(),输出层的激活函数选取Purelin线性函数;
步骤六:将x(k+1)输入执行网络,得到u(k+1);
步骤七:将[u(k+1)x(k+1)]输入到评价网络,产生状态量J(k+1),并计算U(k+1);
步骤八:根据ELM-ADHDP评价网络计算的过程公式,对评价网络的相关权值进行训练更新;
步骤九:根据ELM-ADHDP中执行网络计算的过程公式,对执行网络相关权值进行训练更新;
步骤十:令k=k+1,返回步骤2-1,重新训练;
步骤十一:如达到最大训练次数,训练结束;
所述步骤三中执行网络的计算过程如下:
αh1(k)=x(k)·Wa1(k)+βα
αh2(k)=sigmoid(αh1(k))
u(k)=αh2(k)·Wα2(k)
ah1(k)是执行网络隐藏层输入矩阵,ah2(k)是执行网络隐藏层输出;
根据极限学习机权值调整的思想,得到隐层到输出层的权值为
其中为αh2(k)的伪逆矩阵,u(k)为执行网络的期望输出,所求的u(k)是一个使代价函数J(k)最小的控制量,因此求得u(k)即可校正执行网络的权值,令sigmoidal函数的反函数为θ(·),u(k)的求取过程如下,令
P=[γJ(k+1)+U(k)]×Wc2-1
Z=[θ(P)-βc]×Wc1-1×Wmm2-1
则u(k)为矩阵[θ(Z)-βm]×Wm1-1的前m行,令则ux(k)=[θ(Z)-βm]×Wm1-1
u(k)=ux(k)(1:m,:)
所以其中ux(k)(1:m,:)是Matlab中常用的矩阵表示形式,表示矩阵ux(k)的前m行;
所述步骤五中评价网络具体如下:
步骤5-1:评价网络的训练仍采用极限学习机权值更新的最小二乘方法,其正向的计算过程为:
ch1(k)=M(k)×We1(k)+βc
ch2(k)=sigmoid(ch1(k))
J(k)=ch2(k)×Wc2(k)
步骤5-2:最小化误差Ec(k),Ec(k)的计算如下式所示:
ec(k)=J(k)-U(k)-γJ(k+1)
步骤5-3:为了获得较快的收敛速度,将效用函数U(k)定义为二次型形式,定义如下:
U(k)=x(k)Ax(k)T+u(k)Du(k)T
其中A、D分别为n与m维的单位矩阵;
由ch2(k)×Wc2=J(k+1)知,求取隐层到输出层的权值Wc2等于求线性系统ch2(k)×Wc2=J(k+1)的最小二乘解即:
其中,为k时刻的伪逆矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长春工业大学,未经长春工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011266460.0/1.html,转载请声明来源钻瓜专利网。





