[发明专利]基于感兴趣区块提取的遥感图像舰船检测方法有效
申请号: | 201911338663.3 | 申请日: | 2019-12-23 |
公开(公告)号: | CN111027511B | 公开(公告)日: | 2022-04-29 |
发明(设计)人: | 侯彪;刘佳丽;焦李成;马文萍;马晶晶;杨淑媛 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/25;G06V10/764;G06V10/774;G06K9/62;G06T5/30;G06T7/11;G06T7/136;G06T7/187;G06T7/62;G06T7/80 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;黎汉华 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 感兴趣 区块 提取 遥感 图像 舰船 检测 方法 | ||
本发明公开了一种基于感兴趣区块提取的光学遥感图像舰船检测方法,主要解决现有技术检测精度低,虚警较多的问题。其实现方案为:构建光学遥感图像舰船检测数据集;对宽幅遥感图像下采样并去雾增强,利用上下文信息和图像全局特征进行水陆分割;用构建的数据集训练基于SCRDet的目标检测模型;根据水陆分割结果,用部分重叠的滑动窗口扫描原宽幅遥感图像提取感兴趣区块作为待检测区域,将待检测区域图像输入检测模型得到区域检测结果;将区域结果映射到原宽幅图像尺度上,作改进的非极大值抑制以优化初步检测结果;根据舰船的结构特征再次优化检测结果。本发明检测精度高,虚警率低,可用于获取大幅面遥感图像中感兴趣的舰船目标及其的位置。
技术领域
本发明属于图像处理技术领域,特别涉及一种光学遥感图像舰船检测方法,可用于大幅面遥感图像中的目标识别。
背景技术
光学遥感图像的目标检测是遥感影像研究领域的重要问题之一,而舰船目标检测由于其特殊性和关键性,在渔业管理、军事侦察和战略部署等方面有着极为重要的应用价值。舰船目标检测就是要从复杂的场景中确定水域或岸边是否存在舰船,并对其进行定位。
传统的舰船目标检测方法主要包括利用海陆分割和利用先验地理信息的方法,这些方法需要手动设计大量特征来定位舰船,并且在对靠岸舰船和离岸舰船这两种不同场景目标进行同时检测时适应性不强。
近年来,深度学习得到了快速发展,深度卷积神经网络因其能够自动提取图像浅层及深层特征,避免了传统方法的手动特征提取,在图像处理领域获得了先进的结果。目前,基于深度学习的方法是目标检测的主流方法。
基于深度学习的舰船目标检测方法按检测框形式可分为两类:基于水平检测框和基于倾斜检测框。其中:
基于水平检测框的方法,包括经典两阶段检测框架Faster-RCNN,单阶段检测框架Yolo、RetinaNet和SSD。
基于倾斜检测框的方法,包括R2CNN、ROI-Transformer、SCRDet等。
由于舰船方向任意、靠岸舰船密集等特点,倾斜检测框能够对舰船更精确的定位。在采用倾斜检测框的方法中,SCRDet(Towards More Robust Detection for Small,Cluttered and Rotated Objects)模型能充分融合底层特征和高层特征,对密集目标达到更优的检测结果。然而,基于深度学习的方法不会对图像进行水陆分割,而是直接将宽幅图像切片输入训练好的模型生成结果,将不包含水域的复杂陆地区域输入检测模型不仅降低了检测效率,同时还可能造成明显的陆地虚警,另外由于切分图像导致的船体残缺也会造成明显漏检,所以检测精度不高。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于感兴趣区块提取的光学遥感图像舰船检测方法,以优化遥感图像中舰船目标的定位,提高检测效率与精度。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)构建光学遥感图像舰船检测数据集G:
1a)下载高分二号光学遥感数据,人工筛选出包含舰船目标的区域,用部分重叠的方式裁剪这些区域并保存;
1b)对1a)得到的所有图像随机进行上下左右翻转或旋转,得到扩增图像并保存;
1c)对扩增的图像用倾斜的矩形框进行标注,并将标注信息保存为xml格式文件,并用所有扩增图像和其对应的标注信息构成光学遥感图像舰船检测数据集G;
(2)对宽幅光学遥感图像进行下采样,利用基于暗通道先验的去雾算法减少图像上的云雾遮挡,得到增强图像I;
(3)利用上下文信息和图像全局特征对增强图像I进行水陆分割,提取感兴趣的水域区块,得到二值图:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911338663.3/2.html,转载请声明来源钻瓜专利网。