[发明专利]一种基于场景先验知识的海面目标检测方法有效
申请号: | 202011122034.X | 申请日: | 2020-10-20 |
公开(公告)号: | CN112417961B | 公开(公告)日: | 2023-02-10 |
发明(设计)人: | 骆祥峰;郭银赛;陈雪 | 申请(专利权)人: | 上海大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/764;G06V10/82;G06N3/0464;G06N3/047;G06N3/09 |
代理公司: | 上海上大专利事务所(普通合伙) 31205 | 代理人: | 何文欣 |
地址: | 200444*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 场景 先验 知识 海面 目标 检测 方法 | ||
1.一种基于场景先验知识的海面目标检测方法,其特征在于,具体步骤如下:
(1)输入高分辨率相机获取的图片;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在特征图上获取目标类别注意力权重矩阵;
(4)经过区域定位网络得到特征图的候选区域特征FH;
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识Fz;
(6)在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置;
所述步骤(8)中的目标类别关联特征计算公式如下:
Fr=P×(α*R×D)×E
其中,Fr代表海面目标类别关联特征矩阵,维度为N×M,N代表候选区域个数,M代表特征维度;P代表候选区域的分类概率分布矩阵,维度为N×C,C为场景类别个数;α代表整张图片的特征图计算得到的类别注意力权重矩阵,维度为1×C;R代表场景类别关联矩阵,维度为C×C;D代表场景类别特征分布矩阵,维度为C×K,K代表区域候选特征的特征维度;E代表维度变换矩阵,维度为K*M,此处α与R做的*运算是类别通道上的对位相乘。
2.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(3)中的在特征图上获取目标类别注意力权重矩阵,其目标类别注意力权重矩阵计算式如下:
α=softmax(H×Wc×DT)
其中,H是整张图片的特征图;Wc是维度变换操作矩阵,DT代表场景类别特征分布转置。
3.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(5)中在候选区域中增加场景先验知识,其场景先验知识Fz为低维视觉特征:颜色、纹理和形状。
4.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(7)场景类别关联矩阵计算公式为:
R=rAij+βLij
其中,R代表场景类别关联矩阵;r、β分别代表检测任务中视觉外观属性关联度与目标类别间位置关联度的重要程度;Aij代表类别i与j的视觉外观属性关联度;Lij代表目标类别间位置关联度。
5.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(8)中级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,即使用Concat函数Concat=FH∪Fr∪FZ拼接目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,然后采用目标类别分类器及回归器获得目标的类别概率向量p及位置(x,y,w,h),其中x,y代表矩形框的中心坐标,w,h代表矩形框的宽和高。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海大学,未经上海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011122034.X/1.html,转载请声明来源钻瓜专利网。