[发明专利]基于先验知识的小目标实时检测与定位方法、系统、设备有效
申请号: | 202110129392.1 | 申请日: | 2021-01-29 |
公开(公告)号: | CN113158743B | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 王鹏;沈晓飞;黄一锟 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/774;G06V10/764;G06V10/762;G06K9/62 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩;尹文会 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 先验 知识 目标 实时 检测 定位 方法 系统 设备 | ||
本发明属于机器视觉检测技术领域,具体涉及一种基于先验知识的小目标实时检测与定位方法、系统、设备,旨在现有的目标检测与定位方法忽略目标之间的位置关系和空间分布的先验知识,导致检测与定位精度差的问题。本方法包括获取包含待定位目标的场景图像,作为输入图像;获取输入图像中待定位目标的各候选区域的位置及对应的分类置信度;获取各候选区域位置的置信度;对各候选区域,基于其对应的分类置信度、位置的置信度求取联合概率分布,得到联合置信度;将联合置信度大于设定置信度阈值的候选区域作为待定位目标最终的预测区域,进而得到待定位目标的最终位置。本发明提高了目标检测、定位的精度。
技术领域
本发明属于机器视觉检测技术领域,具体涉及一种基于先验知识的小目标实时检测与定位方法、系统、设备。
背景技术
机器视觉作为智能机器关键的感知技术,目标检测作为机器视觉中核心技术被广大的学者研究,为了提高目标检测的识别精度和速度,常引入目标形状、颜色等先验知识。例如,“一种利用先验知识的大场景内运动目标检测方法[P].郑文涛;林姝含;梁振山.中国专利: CN111210459A,2020-05-29”,通过引入目标形状先验来减少目标检测的搜索空间,提高检测的实时性;“基于知识图谱的绝缘子目标检测方法、系统、装置[P].翟永杰;王坤峰;刘鑫月;贾雪健;王飞跃.中国专利:CN110210387A,2019-09-06”,通过引入检测目标的知识图谱来提供更丰富的语义关系,增强了机器的学习能力。
但在工业制造业设备生产组装中,常需要对设备的多个关键目标进行检测来保证设备完整性且正常运行,例如继电器、变压器等电力设备组装中,需要对漏电保护元件、电阻元件等关键目标进行检测,以保证设备达到安全标准。目前常见的视觉检测算法,将每个关键目标作为一个单独的目标去检测,忽略目标之间的极强的位置关系和空间分布的先验知识,错检率高、定位精度差。基于此,本发明提出了一种基于先验知识的小目标实时检测与定位方法。
发明内容
为了解决现有技术中的上述问题,即为了解决现有的目标检测与定位方法忽略目标之间的位置关系和空间分布的先验知识,导致检测与定位精度差的问题,本发明第一方面,提出了一种基于先验知识的小目标实时检测与定位方法,该方法包括:
步骤S10,获取包含待定位目标的场景图像,作为输入图像;
步骤S20,通过预训练的基于深度学习的目标检测网络获取所述输入图像中待定位目标的各候选区域的位置及对应的分类置信度;所述位置为各候选区域的中心点坐标;
步骤S30,通过预构建的基于目标位置概率密度分布的高斯混合模型获取各候选区域位置的置信度;
步骤S40,对各候选区域,基于其对应的分类置信度、位置的置信度求取联合概率分布,得到联合置信度;将联合置信度大于设定置信度阈值的候选区域作为待定位目标最终的预测区域,进而得到待定位目标的最终位置。
在一些优选的实施方式中,所述基于目标位置概率密度分布的高混合模型,其构建方法为:
步骤A10,采集训练样本图像,并标定训练样本图像中待定位目标的中心点坐标,即位置;所述训练样本图像为包含待定位目标的场景图像;
步骤A20,对所述训练样本图像中待定位目标的中心点坐标进行预处理;预处理后,通过k-mean算法进行聚类,得到待定位目标的位置概率密度分布;所述预处理包括去中心化和标准化;
步骤A30,利用高斯混合模型对待定位目标的位置概率密度分布进行建模,得到基于目标位置概率密度分布的高斯混合模型。
在一些优选的实施方式中,所述去中心化为将每个训练样本图像中待定位目标的中心点坐标减去所有目标中心的坐标平均值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110129392.1/2.html,转载请声明来源钻瓜专利网。