[发明专利]一种基于卷积神经网络的图像检测方法及系统在审
申请号: | 201910067772.X | 申请日: | 2019-01-24 |
公开(公告)号: | CN109886307A | 公开(公告)日: | 2019-06-14 |
发明(设计)人: | 钱步月;王谞动;李扬;赵荣建;张先礼;侯梦薇;张寅斌;郑庆华 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 徐文权 |
地址: | 710049 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 特征矩阵 标注 实体检测 检测 预处理 目标区域图像 特征提取 图像检测 图片 检测结果 目标区域 实体目标 样本图像 去噪 预设 采集 输出 | ||
1.一种基于卷积神经网络的图像检测方法,其特征在于,包括以下步骤:
步骤1,采集获取预设数量的标注好的样本图像;对每个样本图像进行预处理,获得去噪后的带标注的目标区域图像;
步骤2,对步骤1获得的每个带标注的目标区域图像进行特征提取,获得每个带标注的目标区域的3D特征矩阵;
步骤3,构建3D卷积神经网络弱实体检测模型,用步骤2获得的所有3D特征矩阵对3D卷积神经网络弱实体检测模型进行训练,训练至预设收敛条件时停止,获得训练好的3D卷积神经网络弱实体检测模型;
步骤4,将待检测图片按照步骤1中的预处理方法进行预处理;然后用步骤2中特征提取的方法进行特征提取,获得待检测图片的3D特征矩阵;将获得的待检测图片的3D特征矩阵输入步骤3训练好的3D卷积神经网络弱实体检测模型中,输出待检测图片的检测结果。
2.根据权利要求1所述的一种基于卷积神经网络的图像检测方法,其特征在于,步骤1中对每个样本图像进行预处理的方法具体包括:
步骤1.1,将采集获取的每个标注好的样本图像处理为以像素为基本单位的图像;
步骤1.2,对获得的以像素为基本单位的图像进行二值化处理,设定阈值并提取预设目标区域的轮廓;
步骤1.3,根据连通域的算法原理,计算获得的预设目标区域轮廓的连通域,并通过预设目标区域面积估计的方法得到去噪后的目标区域;
步骤1.4,用掩码对步骤1.3获得的去噪后的目标区域进行空洞填充,获得填充后的目标区域;
步骤1.5,将步骤1.4获得的目标区域与步骤1.1采集的原始样本图像进行与运算,获得原始的目标区域图像;
步骤1.6,将步骤1.5获得的原始目标区域图像的灰度值归一化至0~255范围内。
3.根据权利要求1所述的一种基于卷积神经网络的图像检测方法,其特征在于,步骤2中特征提取的方法具体包括:
步骤2.1,构建传统的U-net网络结构,然后将其下采样中的两个连续的卷积操作定义为一组,每组的输入和输出叠加后作为该组的最终输出,并作为下一组的输入,最后获得特征提取模块;
步骤2.2,将步骤1获得的去噪后的带标注的目标区域图像输入步骤2.1获得的特征提取模块中,提取获得每个目标区域图像的3D特征矩阵。
4.根据权利要求1所述的一种基于卷积神经网络的图像检测方法,其特征在于,步骤3中,设计类别和位置损失函数,并使用卷积神经网络中区域推荐网络,构建出3D卷积神经网络弱实体检测模型。
5.根据权利要求4所述的一种基于卷积神经网络的图像检测方法,其特征在于,损失函数包括:是否是弱实体的概率预测以及对于弱实体的位置回归。
6.根据权利要求1所述的一种基于卷积神经网络的图像检测方法,其特征在于,所述3D卷积神经网络弱实体检测模型的具体结构包括:将3D-Unet网络作为底层网络,用于提取物体特征;然后使用区域推荐网络和用于分类及回归的卷积神经网络共同构成目标检测网络,用于物体分类和物体框的回归。
7.根据权利要求1所述的一种基于卷积神经网络的图像检测方法,其特征在于,提取的3D特征矩阵输入3D卷积神经网络弱实体检测模型,在3D特征矩阵上的每一个点均产生5个固定大小和比例的框,分别代表不同的标记圆的半径;
固定框与标记框之间的IOU值大于threshold的标为正例,IOU值介于[0,threshold]范围的标为负例;IOU的计算公式为:
式中,区域1的面积为s1,区域2的面积为s2,区域1和区域2的重叠面积为s;
3D特征矩阵上的每一个固定框均预测出5个值(P,X,Y,Z,R),其中P代表存在弱实体的概率,X、Y、Z分别代表预测的球的球心位置坐标,R代表预测的球半径;
预测的P值大于预设阈值,则判断存在弱实体。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910067772.X/1.html,转载请声明来源钻瓜专利网。