[发明专利]一种基于超限学习机的高光谱遥感图像地物分类方法有效
申请号: | 201710052482.9 | 申请日: | 2017-01-24 |
公开(公告)号: | CN106897737B | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 邓宸伟;周士超;王文正;代嘉慧;唐林波 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京理工大学专利中心 11120 | 代理人: | 李微微;仇蕾安 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 超限 学习机 光谱 遥感 图像 地物 分类 方法 | ||
本发明公开了一种基于高光谱遥感图像的地物分类方法,将原始的超限学习机网络扩展为层级化多通道融合网络,在网络训练方面,不同于原始ELM网络的最小二乘算法求解输出权重策略以及深度学习网络的全局迭代调优策略,本发明采用贪婪式逐层训练的方式,对层级网络逐层训练,极大地缩短了网络的训练时间,在逐层训练的过程中,每层网络的训练求解模型均添加l1正则优化项,使得参数求解结果更稀疏,减少过拟合风险,在网络功能方面,单隐层ELM网络侧重解决简单数据的拟合、分类问题,而本发明所提网络模型的不同层级实现了目标数据特征学习或特征融合,同时也继承了前者训练速度快、泛化能力强的优点,非常有利于模型的在轨实现并适应应急响应任务的要求。
技术领域
本发明属于遥感图像处理技术领域,涉及一种基于高光谱遥感图像的地物分类方法。
背景技术
高光谱遥感影像在对地物目标空间信息成像的同时,还可对每个空间像元经过色散形成几十个乃至几百个窄波段以进行连续的光谱覆盖,记录地物目标的光谱信息。这样形成的数据既可以像常规影像数据一样,从空间维度反映地物目标的大小、形状等特征,还可以在光谱维度下根据目标不同成分对光谱差异吸收的特性反映目标物理结构、化学材质等属性。这些数据特性使得高光谱影像在城市配置科学性、矿产资源探测、森林覆盖检测、农业种植分布规划以及军事敏感目标辨识等领域均有重要应用价值。
在实际应用中,高光谱卫星影像的地物目标分类技术是实现具体任务的关键,也是当前的重要研究方向之一。随着卫星遥感技术的迅速发展,高光谱卫星影像的空间分辨率与光谱间分辨率越来越高,由此引发的对于地物目标分类技术的要求也逐步提高。高空、谱分辨率意味着地物目标结构、材质细节更丰富,背景对目标的影响也增大,进而影响目标分类精度。此外,数据量的大幅增加也对分类算法效率提出了更高的要求。
当前高光谱影像地物分类技术主要包括两类方法:一类光谱匹配法,通过将待测地物目标的光谱与已有的光谱地物光谱库进行对比,实现目标的分类与辨识。其中基于核理论的光谱探测方法得到了很好的应用。它能够使原有的点积匹配算法具有更好的非线性数据处理能力,将原始光谱数据映射到高维特征空间内,使映射后的数据具有较好的线性结构,提高算法的非线性处理能力。但是随着遥感图像分辨率越来越高会有类间方差减少,类内方差增大,从而导致类间重叠,出现同物异谱以及同谱异物的现象,导致分类错误;另一类是基于机器学习类的方法,该类方法是当前研究的焦点。采用学习与训练的思想,包括BP神经网络模型,遗传模型及支持向量机等,机器学习方法具备一定的增量调整性。但是当影像的空间分辨率与光谱分辨率不断提高时,对于训练样本的选择以及对于每类样本的训练速度都是一个挑战,尤其是训练样本的选择是一个人工选择的过程,带来更大的时间成本。
同时,高分辨率光谱影像的发展意味着特征选择的种类增多,以纹理、形状等底层特征为基础建立起来的与样本高层信息的关系,会出现泛化性差,适用度不高的缺点。为了克服底层特征与样本高层次语义信息的鸿沟,由此诞生了原始样本数据或样本低级特征与样本高层次语义信息之间的推导模型。当前深度神经网络模型作在目标表征学习(Representation Learning)方面已经有了长足的进步。但是当前的很多深度神经网络模型存在固有缺陷,训练时间极为冗长繁琐,需要消耗海量的训练样本以及依赖大规模并行计算资源,在理论上也未得到充分的证明,黑箱属性依然明显。此外,高光谱影像从空间维度与光谱维度两个互补的方面共同刻画了地物目标信息,而传统的高光谱影像分析方法则过于偏重光谱信息,忽视了地物目标的空间结构信息。因此,如何运用“空谱”联合的思想,设计一种训练高效、执行速度快且应用效果好的深度神经网络来解决地物分类问题已经成为高光谱图像重要的研究方向之一。
发明内容
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710052482.9/2.html,转载请声明来源钻瓜专利网。