[发明专利]一种基于语义分割的FOD检测方法及系统在审
申请号: | 202210549962.7 | 申请日: | 2022-05-20 |
公开(公告)号: | CN114821065A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 刘国良;祝志坤;田国会 | 申请(专利权)人: | 山东大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/80;G06V10/82;G06V10/764;G06T7/73;G06N3/04 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 闫圣娟 |
地址: | 250061 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 语义 分割 fod 检测 方法 系统 | ||
1.一种基于语义分割的FOD检测方法,其特征在于,包括如下步骤:
获取机场跑道的待检测图像,待检测图像包括深度图像和灰度图像,提取图像中的深度信息和灰度信息;
将深度信息进行预处理,并利用预处理后得到的深度图像,基于灰度信息对灰度图像进行初步剪裁;
将经过处理后的深度图像和初步裁减后的灰度图像中的信息数据进行融合,对异物区域的信息进行增强;
将融合后的信息输入至改进的语义分割网络模型进行图像分割,实时地确定异物类型及位置。
2.如权利要求1所述的一种基于语义分割的FOD检测方法,其特征在于:待检测图像采用车载线性扫描结构光相机采集。
3.如权利要求1所述的一种基于语义分割的FOD检测方法,其特征在于:将深度信息进行预处理,具体包括如下步骤:
设定虚拟基准平面,根据深度信息确定每个点与该基准平面的距离,以该距离为每个点的像素值构建得到深度图像;
对得到的深度图像应用Sobel算子提取图像中的边缘特征;
将提取边缘后的深度图像利用高斯滤波降噪;
将高斯滤波后的图像进行二值化处理,得到处理后的深度图像。
4.如权利要求1所述的一种基于语义分割的FOD检测方法,其特征在于:利用深度信息对灰度图像进行初步剪裁,具体的,采用移动窗口法对灰度图像进行初步剪裁。
5.如权利要求4所述的一种基于语义分割的FOD检测方法,其特征在于:利用深度信息对灰度图像进行初步剪裁,包括如下步骤:
设定移动窗口的大小,按照步长移动截取被处理后的深度图像;
计算窗口截取图像中的像素值的和,得到像素值的和最大的窗口为裁减窗口;
通过裁减窗口截取灰度图像中相对应的区域,为裁减后的灰度图像。
6.如权利要求1所述的一种基于语义分割的FOD检测方法,其特征在于:对异物区域的信息进行增强融合的方法,包括如下步骤:
按照对灰度图像进行初步剪裁的裁减窗口,裁减处理后的深度图像,使得剪裁后的深度图像与剪裁后的灰度图像为同一片区域;
将剪裁后的深度图像乘以放大系数,然后加上偏置得到权重矩阵;
将权重矩阵与剪裁后的灰度图像对应位置相乘,得到异物区域数据增强后的融合数据。
7.如权利要求1所述的一种基于语义分割的FOD检测方法,其特征在于:改进的语义分割网络模型包括Deeplab V3+网络,Deeplab V3+网络包括依次连接的编码器和解码器,编码器中包括金字塔池化模块,Deeplab V3+网络的编码器的金字塔池化模块连接注意力模块,注意力模块的输出连接解码器;
或者,通过改进的语义分割网络模型,进行语义分割的方法,包括如下步骤:
将异物区域数据增强后的融合数据进行特征提取;
将提取的特征输入至注意力模块,增加注意力权重,得到缩放后的新特征;
将特征提取的到的特征与缩放后的新特征进行融合联结,解码后得到分割后的数据。
8.一种基于语义分割的FOD检测系统,其特征在于,包括:
数据获取模块,被配置为用于获取机场跑道的待检测图像,待检测图像包括深度图像和灰度图像,提取图像中的深度信息和灰度信息;
初步裁减模块,被配置为用于将深度信息进行预处理,并利用预处理后得到的深度图像,基于灰度信息对灰度图像进行初步剪裁;
融合模块,被配置为用于将经过处理后的深度图像和初步裁减后的灰度图像中的信息数据进行融合,对异物区域的信息进行增强;
图像分割模块,被配置为用于将融合后的信息输入至改进的语义分割网络模型进行图像分割,实时地确定异物类型及位置。
9.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项方法所述的步骤。
10.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项方法所述的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210549962.7/1.html,转载请声明来源钻瓜专利网。