[发明专利]目标物检测、目标物检测模型的建立方法及装置有效
申请号: | 201910926688.9 | 申请日: | 2019-09-27 |
公开(公告)号: | CN110705633B | 公开(公告)日: | 2022-06-07 |
发明(设计)人: | 肖航;张子昊 | 申请(专利权)人: | 北京猎户星空科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06V10/764;G06V10/44;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 赵祎 |
地址: | 100025 北京市朝*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 模型 建立 方法 装置 | ||
1.一种目标物检测方法,其特征在于,包括:
获取待检测图像;
将所述待检测图像输入到建立的目标物检测模型中,以确定所述待检测图像中各像素的概率信息,每个像素的概率信息包括该像素属于所述目标物的概率;
若根据所述待检测图像中各像素的概率信息确定所述待检测图像中任一像素属于所述目标物的概率大于预设概率,则确定所述待检测图像中包含所述目标物;
其中,所述目标物检测模型是根据以下步骤建立的:
获取目标物的图像样本;
将所述图像样本输入到深度学习网络模型中,以确定所述图像样本中各像素的概率信息,每个像素的概率信息包括该像素属于所述目标物的概率;
根据所述深度学习网络模型输出的所述图像样本中各像素的概率信息和预先生成的标签图像,确定所述深度学习网络模型的损失值;
根据所述损失值调整所述深度学习网络模型的参数,建立目标物检测模型;
其中,所述标签图像是根据以下步骤生成的:
获取所述图像样本中所述目标物的轮廓标注信息,所述轮廓标注信息包括所述目标物的每个轮廓标注点的位置信息;
根据所述图像样本中所述目标物的每个轮廓标注点的位置信息,生成所述标签图像,所述标签图像中位于闭合区域外的各像素为第一预设值,剩余各像素为第二预设值,所述闭合区域由所述标签图像中与每个轮廓标注点对应的像素形成;以及
在根据所述图像样本中所述目标物的每个轮廓标注点的位置信息,生成所述标签图像之后,还包括:
根据所述标签图像中各像素的取值,放大所述闭合区域;
所述第二预设值大于所述第一预设值,根据所述标签图像中各像素的取值,放大所述闭合区域,包括:
对所述标签图像中各像素的取值进行优化,其中,对所述标签图像中的每个像素,确定以该像素为中心的预设大小的像素区域,将该像素的取值更新为所述像素区域中的最大值;
若确定优化次数小于预设次数,则对优化后的所述标签图像执行所述对所述标签图像中各像素的取值进行优化的步骤。
2.如权利要求1所述的方法,其特征在于,确定所述待检测图像中包含所述目标物之后,还包括:
根据所述待检测图像中各像素的概率信息,对所述待检测图像中的所述目标物进行标注。
3.如权利要求2所述的方法,其特征在于,根据所述待检测图像中各像素的概率信息,对所述待检测图像中的所述目标物进行标注,包括:
根据所述待检测图像中各像素的概率信息,对所述待检测图像中属于所述目标物的概率大于所述预设概率的每个像素进行标注;或者
根据所述待检测图像中各像素的概率信息,生成目标图像,对所述目标图像进行轮廓提取,得到所述待检测图像中所述目标物的轮廓信息,根据所述轮廓信息对所述待检测图像中所述目标物的轮廓进行标注。
4.如权利要求3所述的方法,其特征在于,对所述待检测图像中的每个像素,若该像素属于所述目标物的概率不大于所述预设概率,则所述目标图像中与该像素对应的像素为第一预设值;否则,所述目标图像中与该像素对应的像素为第二预设值。
5.如权利要求1~4任一所述的方法,其特征在于,还包括:
若根据所述待检测图像中各像素的概率信息确定所述待检测图像中各像素属于所述目标物的概率均不大于所述预设概率,则确定所述待检测图像中不包含所述目标物。
6.如权利要求1所述的方法,其特征在于,根据所述深度学习网络模型输出的所述图像样本中各像素的概率信息和预先生成的标签图像,确定所述深度学习网络模型的损失值,包括:
对所述图像样本中的每个像素,根据该像素属于所述目标物的概率和所述标签图像中对应像素的取值,确定该像素的损失值,将该像素的损失值更新为该像素的损失值与所述标签图像中对应像素的取值的乘积;
确定所述图像样本中各像素的损失值的平均值为所述深度学习网络模型的损失值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京猎户星空科技有限公司,未经北京猎户星空科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910926688.9/1.html,转载请声明来源钻瓜专利网。