[发明专利]一种基于场景先验知识的海面目标检测方法有效
申请号: | 202011122034.X | 申请日: | 2020-10-20 |
公开(公告)号: | CN112417961B | 公开(公告)日: | 2023-02-10 |
发明(设计)人: | 骆祥峰;郭银赛;陈雪 | 申请(专利权)人: | 上海大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/764;G06V10/82;G06N3/0464;G06N3/047;G06N3/09 |
代理公司: | 上海上大专利事务所(普通合伙) 31205 | 代理人: | 何文欣 |
地址: | 200444*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 场景 先验 知识 海面 目标 检测 方法 | ||
本发明公开了一种基于场景先验知识的海面目标检测方法,首先输入高分辨率相机获取的图片;再从Faster‑RCNN的骨干特征网络中提取整张图片的特征图;然后在特征图上获取目标类别注意力权重矩阵;再经过区域定位网络得到特征图的候选区域特征FH;然后在整张图像的目标候选区域中增加场景先验知识Fz;再在目标候选区域上进行分类及回归,获得分类器权重矩阵;然后进行场景类别关联度计算,得到场景类别关联矩阵R;再得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。与传统的方法相比,该专利利用场景先验知识,更容易检测出海面的弱小目标,降低视觉观测的不确定性,提高海面目标检测的准确率。
技术领域
本发明涉及一种海面目标检测方法,具体是涉及了专家知识及场景知识等,级联融合目标类别注意力权重,目标类别关联特征及场景先验知识的特征,是一种基于场景先验知识的海面目标检测方法。
背景技术
目前应用最广的海面目标检测方法是单纯的基于深度神经网络的特征提取及检测,包括 One-stage和Two-stage模型。One-stage模型根据神经网络直接预测及回归目标类型及位置,Two-stage模型根据预先定义的区域,筛选出候选的区域,然后再根据神经网络预测及回归目标类型及位置。
但是仅仅使用基于深度神经网络的特征提取及检测时,存在以下不足:
1.基于深度神经网络的目标特征提取时,不能充分利用低维度信息:颜色,纹理,形状等,导致获取的目标特征不完善。
2.基于深度神经网络的目标特征提取时,目标与目标直接的关联性无法提取,易导致目标检测的不确定性。
发明内容
为了解决现有技术问题,本发明的目的在于针对基于深度神经网络的海面目标特征提取的不足,提供一种基于场景先验知识的海面目标检测方法,该计算方法以专家知识及场景知识等为先验知识,级联融合候选区域特征,目标类别关联特征及专家知识定义的特征,提高海面目标检测的准确度。
为了达到上述的目的,本发明的构思如下:
首先获得图片特征图的目标注意力权重,然后通过分类器获得目标分类器权重矩阵,即场景类别特征分布;再者利用海洋目标关系获得场景类别关联矩阵,最终级联融合候选区域特征,场景类别特征分布,目标类别关联特征及场景先验知识的特征,以实现海面目标检测。
根据上述发明构思,本发明采用如下技术方案:
一种基于场景先验知识的海面目标检测方法,具体步骤如下:
(1)输入高分辨率相机获取的图片;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在特征图上获取目标类别注意力权重矩阵;
(4)经过区域定位网络得到特征图的候选区域特征FH;
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识 Fz;
(6)在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。
优选地,所述步骤(3)中的在特征图上获取目标类别注意力权重矩阵,其目标类别注意力权重矩阵计算式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海大学,未经上海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011122034.X/2.html,转载请声明来源钻瓜专利网。