[发明专利]一种基于超限学习机的高光谱遥感图像地物分类方法有效
申请号: | 201710052482.9 | 申请日: | 2017-01-24 |
公开(公告)号: | CN106897737B | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 邓宸伟;周士超;王文正;代嘉慧;唐林波 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京理工大学专利中心 11120 | 代理人: | 李微微;仇蕾安 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 超限 学习机 光谱 遥感 图像 地物 分类 方法 | ||
1.一种基于超限学习机的高光谱遥感图像地物分类方法,其特征在于,包括如下步骤:
步骤1、搜集高光谱影像数据样本,经过预处理,形成训练集;其中,训练集包括目标的光谱信息、空间信息以及目标的类别标识;
步骤2、将超限学习机网络模型的特征提取层设置成两个通道,分别接收步骤1得到的光谱信息和空间信息,并分别进行训练,最后得到两个通道的输出,即空间特征Spatproj与光谱特征Spetproj:
其中,针对光谱信息和空间信息中的任意一种,特征提取层的训练过程为:光谱信息或者空间信息定义为输入数据T,将输入数据T进行随机非线性映射,获得特征提取层的网络隐层节点输出h(T):
h(T)=[g1(T),....,gL(T)]
gi(T)=g(ωiT+bi),i=1,2,……L
上式中gi(T)为第i个隐层节点输出,L为隐层节点的数量;第i个隐层节点的权重ωi与偏置bi均随机产生,选择sigmoid函数为隐层节点的激活函数g(ωiT+bi);
当训练集的样本数为N时,整个特征提取的过程看作解决如下形式的学习问题:
Hβ=T
上式中H=[h1T(T),....hTN(T)]T,表示所有样本对应的隐层节点输出矩阵,则网络输出权重β即为特征提取层的待求参数;该网络待求参数通过优化如下代价函数获得:
上式中λ为衡量训练误差与l1正则项间的平衡权值,在实际应用过程中遍历有限候选值,选择使模型性能最佳的为最优值;
根据代价函数得到网络输出权重β的解βAE,则输入数据的特征表示即为输入数据在特征基βAE上的投影,由下式表示:
根据式(1)得到空间特征Spatproj与光谱特征Spetproj;
步骤3、将步骤2得到的空间特征Spatproj与光谱特征Spetproj进行级联,形成超限学习机网络模型的融合层初始输入数据[Spetproj,Spatproj];采取同步骤二的方法训练所述融合层的网络参数,进而获得所述融合层的输出,即为空谱联合特征;
步骤4、将步骤3获得的空谱联合特征输入至超限学习机网络模型的分类决策层,结合步骤1的待识别目标的类别标识进行有监督训练,得到分类决策层网络参数,由此,获得训练好的超限学习机网络模型;
步骤5、获得待识别目标的光谱信息与空间信息,并送入训练好的超限学习机网络模型中,实现样本的目标类别辨识结果。
2.如权利要求1所述的一种基于超限学习机的高光谱遥感图像地物分类方法,其特征在于,所述步骤2中,网络输出权重β的解βAE的具体求解算法由FISTA实现。
3.如权利要求1所述的一种基于超限学习机的高光谱遥感图像地物分类方法,其特征在于,所述步骤4的具体方法为:首先随机初始化分类决策层的隐层节点权重ω与偏置b,然后计算分类决策层的隐层节点输出矩阵H0,最后优化输出权重,以使得训练误差最小,即:
表示范数算子,令上式中σ=u=2,则得到如下解析解:
上式中T0=[t1,t2,...,tN]T为地物目标的类别标识,β0即为分类决策层的网络参数。
4.如权利要求3所述的一种基于超限学习机的高光谱遥感图像地物分类方法,其特征在于,将新的训练样本集与原有样本集整合成当前样本集,预处理获得当前样本集的光谱信息、空间信息以及待识别目标的类别标识;分别采用步骤2和3的方法,获得当前样本集下的空谱联合特征,并输入至超限学习机网络模型的分类决策层,按照步骤4的方法,根据当前样本集的类别标识进行有监督训练,得到更新后的分类决策层网络参数,并进行目标类别辨识;
其中,分类决策层网络参数的更新方程为:其中,Tk+1表示当前训练集对应的类别标识,I为单位矩阵;Hk+1为当前训练集对应的分类决策层隐层节点输出矩阵;βk为第k次更新样本集对应的输出权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710052482.9/1.html,转载请声明来源钻瓜专利网。