[发明专利]基于全色锐化技术支持下的空间引力模型亚像元定位方法有效
申请号: | 201910196829.6 | 申请日: | 2019-03-15 |
公开(公告)号: | CN110084747B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 王鹏 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T5/00;G06T5/40;G06T5/50;G06T7/49 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 姜慧勤 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 全色 锐化 技术支持 空间 引力 模型 亚像元 定位 方法 | ||
本发明公开了基于全色锐化技术支持下的空间引力模型亚像元定位方法,具体为:将原始粗糙分辨率的遥感图像与来自同一区域的精细分辨率的全色图像基于主成分分析的全色锐化技术进行融合,产生精细分辨率的遥感图像;精细分辨率的遥感图像通过软分类技术获得包含空‑谱信息的精细丰度图像;前一步得到的精细丰度图像与通过基于混合空间引力模型获得的精细丰度图像利用线性整合方法获得更精细的丰度图像;根据更精细的丰度图像提供的亚像元预测值,通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。本发明通过全色锐化技术更加充分利用空‑谱信息,改善传统的基于空间引力模型亚像元定位方法,获得更精确的亚像元定位结果。
技术领域
本发明涉及基于全色锐化技术支持下的空间引力模型亚像元定位方法,属于遥感信息处理技术领域。
背景技术
土地覆盖类型的多样性和传感器瞬时视场的局限性所产生的混合像元是制约遥感图像空间分辨率的主要因素。这些制约使得准确的地物目标识别产生了很大的困难,而准确的目标识别对工业、农业、环境以及军事等方面都有着十分重要的意义。因此,现今遥感信息处理技术领域的热点问题之一就是处理混合像元以提高地物类别分布精度。亚像元定位技术(也称为超分辨率制图技术)通过一定的比例尺度将每个混合像元细分成亚像元并估计出各亚像元的地物类别,实现了从低分辨率的丰度图像(光谱解混结果)转变成高分辨率的地物类别分布图像的过程。
Tatem博士提出了一系列基于Hopfield神经网络模型的亚像元定位方法。Muad等继续讨论了在基于Hopfield神经网络模型的亚像元定位方法中不同的参数设置对识别不同尺度目标的能力。比利时根特大学的Mertens博士提出了基于BP神经网络的亚像元定位方法。后来Mertens博士又将该网络与小波变换相结合从而发掘更多的空间分布细节,进而提高了该方法目定位精度。基于空间引力模型的亚像元定位模型由于其简单的物理意义和不需要先验的结构信息而得到了广泛的应用。属于基于空间引力模型的亚像元定位模型的方法主要区别在于计算空间引力的尺度不同,如亚像元-像元空间引力模型、亚像元-亚像元空间引力模型和更有效的混合空间引力模型。然而,现有的这些基于空间引力模型的亚像元定位模型方法被直接应用于通过对原始的粗遥感图像进行解混而得到的粗糙丰度图像中。由于原始图像的分辨率较粗糙,粗糙丰度图像很难完全提取出原始图像的空-谱信息,影响最终的定位精度。
发明内容
本发明所要解决的技术问题是:提供基于全色锐化技术支持下的空间引力模型亚像元定位方法,能够更加充分利用原始图像的空-谱信息,获得定位精度更高的结果。
本发明为解决上述技术问题采用以下技术方案:
基于全色锐化技术支持下的空间引力模型亚像元定位方法,包括如下步骤:
步骤1,将原始低空间分辨率的遥感图像与来自同一区域的高空间分辨率的全色图像通过基于主成分分析的全色锐化技术进行融合,得到具有高空间分辨率的遥感图像;
步骤2,将步骤1得到的具有高空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得具有空-谱信息的丰度图像;
步骤3,将原始低空间分辨率的遥感图像,通过基于线性混合模型的软分类方法获得粗糙丰度图像,将粗糙丰度图像通过基于混合空间引力模型获得精细丰度图像;
步骤4,将步骤2得到的具有空-谱信息的丰度图像与步骤3得到的精细丰度图像,利用线性整合方法进行整合,得到整合后的丰度图像,根据整合后的丰度图像获取图像中亚像元属于每个类别标签的预测值,并通过类别分配方法将类别标签分配到每个亚像元中,获得最终的亚像元定位结果。
作为本发明的一种优选方案,步骤1所述基于主成分分析的全色锐化技术,具体公式为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910196829.6/2.html,转载请声明来源钻瓜专利网。