[发明专利]基于深度学习语义分割网络的遥感影像地物分类方法有效
申请号: | 201811130333.0 | 申请日: | 2018-09-27 |
公开(公告)号: | CN109255334B | 公开(公告)日: | 2021-12-07 |
发明(设计)人: | 楚博策;帅通;高峰;王士成;陈金勇 | 申请(专利权)人: | 中国电子科技集团公司第五十四研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06N3/04;G06N3/08;G06T7/13;G06T7/40 |
代理公司: | 河北东尚律师事务所 13124 | 代理人: | 王文庆 |
地址: | 050081 河北省石家庄*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 语义 分割 网络 遥感 影像 地物 分类 方法 | ||
本发明公开了一种基于深度学习语义分割网络的遥感影像地物分类方法,首先对遥感影像中各类地物进行逐像素标注,构建遥感地物标注影像库作为训练标签。随后本发明设计一种采用纹理、结构特征为基础构建多尺度特征图组的方法,将特征图组和原始影像合并作为深度学习网络的输入,除此之外本发明根据deeplab算法设计了一种全卷积网络的改进网络结构,通过卷积与反卷积进行参数训练,最终对宽幅遥感图像进行重叠切分,分类后合并得到最终宽幅遥感影像地物分类结果。可以在高效迅速地实现高分辨率遥感影像各种地物像素级分类,精简了传统的分类方法的复杂流程,并且实现很好的分割与分类效果。
技术领域
本发明属于遥感图像智能分类技术领域,更为具体地讲,涉及在地物解译需求下一种基于全卷积语义分割网络的遥感地物分类方法。
背景技术
遥感影像地物分类目前广泛应用于土地勘测、卫片执法、区域侦查等各类军民应用当中,取得了较好的应用效果并拥有较大的市场发展潜力。随着卫星载荷与数据量的逐步增加,在遥感高精度分类研究中,特别面对大区域(全国或全球尺度)地表分类时,传统的人工标定的方法难以支撑爆发式增长的任务与需求工作量,因此研究如何采用人工智能的方法实现遥感影像智能化自动处理是一项具有深远意义的重要工作。
目前已有的地物分类方法,
(1)传统大部分方法主要采用超像素等分割方法将遥感影像分割成为若干区域,随后对区域内提取形态、纹理等传统特征,最终采用SVM等分类器根据特征对区域分类并合并,形成分类结果。
(2)最近几年深度学习在地物分类方面的研究主要集中于对原始影像采用超像素等方法进行初始分割,并对分割后的块图像采用CNN、DBN等神经网络进行分类,从而达到像素级地物分类的目的。
(3)本发明创新性地提出一种图像纹理与结构的多尺度特征描述图,把多尺度特征描述图与原始3维图像合并生成高维图像实现图像纹理等特征描述力加深,随后把应用于语义分割任务的深度学习模型-全卷积深度网络进行改进并应用于高分辨率遥感影像的地物分类,实现了分割与分类过程的一体化,取得了良好的分类效果。
发明内容
本发明的目的在于克服现有技术的不足,提出基于深度学习语义分割网络的遥感影像地物分类方法,来进一步提高分类精度与效率,减少分类误差。
本发明的目的是这样实现的:
一种基于深度学习语义分割网络的遥感影像地物分类方法,包括以下步骤:
(1)采集不同载荷的高分辨率可见光的遥感图像,对每一张图像中地物进行逐像素标注,标注后的数据组成一幅二值图像,把原始遥感图像和对应标注图像打包构成训练集和测试集;
(2)对训练集中原始遥感图像采用多尺度窗口对二维熵、粗糙度和对比度纹理特征进行提取,形成多尺度特征图组;并对训练集中原始遥感图像采用Canny算子将地物边缘提取出来,形成结构特征图;
(3)以DeepLab的思想为基础,构建深度学习全卷积语义分割模型;
(4)将步骤(2)中生成的多尺度特征图组、结构特征图与原始遥感图像进行组合形成输入图组,作为步骤(3)中深度学习全卷积语义分割模型的输入进行模型训练,最终得到参数稳定的模型;
(5)对测试集中待分类的原始遥感图像进行切分,将切分后影像通过步骤(4)中训练好的参数稳定的模型进行分类,将分类结果合并到一起生成宽幅检测结果,当重叠区域检测结果产生矛盾时,保留其中分类为非背景像素的结果,得到最终的合并结果。
其中,步骤(3)中全卷积语义分割模型具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第五十四研究所,未经中国电子科技集团公司第五十四研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811130333.0/2.html,转载请声明来源钻瓜专利网。