[发明专利]用于识别物体类别的方法及装置、电子设备有效
申请号: | 201611168161.7 | 申请日: | 2016-12-16 |
公开(公告)号: | CN108229509B | 公开(公告)日: | 2021-02-26 |
发明(设计)人: | 李步宇;闫俊杰 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46 |
代理公司: | 北京康达联禾知识产权代理事务所(普通合伙) 11461 | 代理人: | 张雪飞;兰淑铎 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 识别 物体 类别 方法 装置 电子设备 | ||
1.一种用于识别物体类别的方法,其特征在于,包括:
根据待检测图像的多个物体候选框中M个关键点的位置信息从相应的物体候选框中确定M个关键点邻域区域,其中,M为N个预设的物体类别的关键点的总个数,M和N均为正整数;
根据所述M个关键点邻域区域,采用用于识别图像中物体类别的卷积神经网络模型,确定所述待检测图像中至少一个物体的类别信息,
其中,所述卷积神经网络模型包括K个卷积层、池化层和输出层,K为正整数;
所述根据所述M个关键点邻域区域,采用用于识别图像中物体类别的卷积神经网络模型,确定所述待检测图像中至少一个物体的类别信息,包括:
从第K-1个卷积层输出与所述M个关键点一一对应的特征图;
从第K个卷积层输出每一所述特征图转化后得到的关键点的响应图;
分别将所述M个关键点邻域区域映射到相应的关键点的响应图上得到映射区域;
从池化层输出对应于M个所述映射区域的池化结果;
基于M个所述池化结果从所述输出层获得属于各预设的物体类别的第一置信度,并根据所述属于各预设的物体类别的第一置信度确定所述至少一个物体的类别信息。
2.根据权利要求1所述的方法,其特征在于,所述基于M个所述池化结果从所述输出层获得属于各预设的物体类别的第一置信度,包括:
对属于同一预设的物体类别的关键点相应的池化结果求取平均值得到各个预设的物体类别的分数;
根据所述各个预设的物体类别的分数从所述输出层获得属于各预设的物体类别的第一置信度。
3.根据权利要求1所述的方法,其特征在于,在所述根据所述M个关键点邻域区域,采用用于识别图像中物体类别的卷积神经网络模型,确定所述待检测图像中至少一个物体的类别信息之前,所述方法还包括:对卷积神经网络模型进行训练;
所述对卷积神经网络模型进行训练,包括:
获取含有关键点的位置信息、物体框标注信息以及类别标注信息的样本图像;
对所述样本图像进行卷积处理,获取卷积结果;
根据所述物体框标注信息以及类别标注信息,判断所述卷积结果中的物体框位置信息和/或类别信息是否满足训练完成条件;
若满足,则完成对所述卷积神经网络模型的训练;
若不满足,则根据所述卷积结果中物体框位置信息和/或类别信息调整所述卷积神经网络模型的参数,并根据调整后的所述卷积神经网络模型的参数对所述卷积神经网络模型进行迭代训练,直至迭代训练后的物体框位置信息和/或类别信息满足所述训练完成条件。
4.根据权利要求1所述的方法,其特征在于,在所述根据待检测图像的多个物体候选框中M个关键点的位置信息从相应的物体候选框中确定M个关键点邻域区域之前,所述方法还包括:
获取所述多个物体候选框的位置;
根据所述多个物体候选框的位置获取所述多个物体候选框中M个关键点的位置信息。
5.根据权利要求4所述的方法,其特征在于,所述获取所述多个物体候选框的位置,包括:
采用第一卷积神经网络获得所述多个物体候选框的位置信息,或者,
采用选择性搜索方法获得所述多个物体候选框的位置信息,或者,
采用边缘方块Edge Box方法获得所述多个物体候选框的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述根据所述多个物体候选框的位置获取所述多个物体候选框中M个关键点的位置信息,还包括:根据所述多个物体候选框的位置获取每个关键点相对应的第二置信度,所述第二置信度为表征关键点是否存在于候选框中的可能性的数据;
所述根据所述M个关键点邻域区域,采用用于识别图像中物体类别的卷积神经网络模型,确定所述待检测图像中至少一个物体的类别信息,还包括:将超过设定的置信度阈值的关键点对应的响应图的池化结果记为零。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611168161.7/1.html,转载请声明来源钻瓜专利网。