[发明专利]COD软测量的方法有效
申请号: | 200810118052.3 | 申请日: | 2008-08-07 |
公开(公告)号: | CN101334395A | 公开(公告)日: | 2008-12-31 |
发明(设计)人: | 乔俊飞;李淼 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G01N33/18 | 分类号: | G01N33/18;G06F19/00 |
代理公司: | 北京思海天达知识产权代理有限公司 | 代理人: | 刘萍 |
地址: | 100124*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | COD软测量的方法属于污水处理领域。由于污水生物处理过程的非线性、时变性及复杂性,水质指标难以在线测量,但往往对污水处理很重要。本发明针对COD在线测量困难的问题,根据污水处理过程非线性的特点,提出一种运用快速EFAST方法修剪冗余神经元,简化神经网络结构,并对COD进行软测量的方法。根据软测量结果,及时调整无数处理曝气池生化反应的物料搭配,以便对COD进行更好的清除,避免了研发传感器的复杂工程。也可以将本方法进行扩展,对其它水质指标进行研究,以指导实际的生产运行。 | ||
搜索关键词: | cod 测量 方法 | ||
【主权项】:
1.一种COD软测量的方法,其特征在于,包括以下步骤:(1).建立COD软测量的三层前向神经网络预测模型;输入为污水调节池进水水质指标,输出为化学需氧量COD;初始化神经网络:确定l-p-1的连接方式,对神经网络的权值进行随机赋值;即一个输入层有l个神经元,隐含层有p个神经元的单输出三层前向神经网络,x1,x2,...,xl表示神经网络的输入,yd表示神经网络的期望输出;共有k个训练样本,设第t个训练样本为x1(t),x2(t),...,xl(t),yd(t),则用第t个训练样本训练神经网络时,隐含层第j个神经元的输出表示为: 其中,xi为神经网络的输入,wi,j1为输入层权值,Zj为隐含层第j个神经元的输出,ψ为sigmoid函数,其形式为: 隐含层神经元输出和神经网络输出的关系为: 其中,wjO为输出层权值,y为神经网络的实际输出;定义误差函数为 训练神经网络的目的是使得式(4)定义的误差函数达到最小;(2).对样本数据进行校正;设k个数据样本x(1),x(2),...,x(k),均值为x ,每一个样本的偏差为v(t)=x(t)-x ,按照Besse1公式计算出标准偏差: 若某一个样本x(t)的偏差满足:|v(t)|≥3σt=1,2,...,k (6)则认为样本x(t)是异常数据,应予以剔除,得到校正后的数据;(3).用校正后的数据训练神经网络,并在训练过程中利用快速EFAST对神经网络的冗余隐神经元进行修剪,以简化神经网络结构,增加神经网络的泛化能力和预测速度;具体为:将p个隐神经元的输出Z1,Z2,...,Zp作为快速EFAST算法的p个输入参数,将神经网络的输出作为快速EFAST算法的输出,通过计算输入参数Z1,Z2,...,Zp对于输出Y的灵敏度,修剪灵敏度小的神经元;记下训练过程中每个隐含层神经元的输出值,找出最大值和最小值;第j(j=1,2,...,p)个隐神经元输出在训练m步中的最大值是bj,最小值是aj,则假定Zj以指定频率wj在[aj,bj]内振荡,即: 结合式(3)神经网络的输出y表示为: (5).计算各个神经元的灵敏度:如果要计算第h个隐神经元的灵敏度,则该神经元对应的傅立叶系数为: 其中,wh=8p;除第h个神经元外的其余神经元傅立叶系数Aj和Bj表示为: 其中,j=1,2,...,h-1,h+1,...,p,且wj=j;由前向神经网络的各隐含层神经元的输出Z1,Z2,...,Zp之间没有相互作用,傅立叶振幅值主要集中在基频上,采用下式计算第h个隐神经元的总灵敏度; 其中,分母是包括Ah2+Bh2在内的所有隐神经元傅立叶系数之和;STh包括Zh独立于其它输入参数对输出的作用和Zh与其它输入参数的协同作用,称为总灵敏度;则p个隐神经元的总灵敏度之和为: 第h个输入参数的灵敏度为:Sh=STh/Sum_S (15)对神经网络进行修剪,即删除Sh小于5%的隐含层神经元;(6).继续训练神经网络,然后每隔一定步数重复步骤(2)-(5),直到新神经网络中所有隐含层神经元的灵敏度均大于5%停止修剪;(7).训练神经网络直到误差E小于规定误差Ed;(8).对预测样本进行预测:将预测样本数据作为训练好的神经网络的输入,神经网络的输出即为出水COD的预测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/200810118052.3/,转载请声明来源钻瓜专利网。