[发明专利]一种用于密集拿取物品检测的方法和装置有效
| 申请号: | 201811402692.7 | 申请日: | 2018-11-23 |
| 公开(公告)号: | CN110378361B | 公开(公告)日: | 2022-04-12 |
| 发明(设计)人: | 李艺 | 申请(专利权)人: | 北京京东乾石科技有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06V20/00;G06T7/13 |
| 代理公司: | 北京德琦知识产权代理有限公司 11018 | 代理人: | 谢安昆;宋志强 |
| 地址: | 100176 北京市大兴区北京经济技*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 用于 密集 物品 检测 方法 装置 | ||
1.一种用于密集拿取物品检测的训练样本提取方法,其特征在于,该方法包括:
获取多个物品被拿取并做相互远离和靠近运动的视频数据;
追踪视频数据中的每个物品,确定该物品在每帧视频图像中的边界标注框;
将确定了每个物品的边界标注框的每帧视频图像,作为用于密集拿取物品检测的训练样本。
2.根据权利要求1所述的方法,其特征在于,
追踪视频数据中的每个物品,确定该物品在每帧视频图像中的边界标注框,包括:
针对视频数据中的每帧视频图像,利用运动捕捉方法确定该帧视频图像中每个物品的边界标注框;
如果确定该帧视频图像中存在未被追踪的物品,则基于该未被追踪的物品在该帧视频图像中的边界标注框,在该帧视频图像之后的视频数据中对该未被追踪的物品进行追踪,确定该物品在该帧视频图像之后的每帧视频图像中的边界标注框。
3.根据权利要求2所述的方法,其特征在于,
基于该未被追踪的物品在该帧视频图像中的边界标注框,在该帧视频图像之后的视频数据中对该未被追踪的物品进行追踪的方法为:
将该未被追踪的物品在该帧视频图像中的边界标注框作为初始边界标注框,使用核化相关滤波追踪算法对该帧视频图像之后的视频数据进行针对该物品的追踪,得到该物品在该帧视频图像之后的每帧视频图像中的边界标注框。
4.根据权利要求3所述的方法,其特征在于,
在该帧视频图像之后的视频数据中对该未被追踪的物品进行追踪时,进一步设置该物品对应的追踪标志;
判断物品是否被追踪的方法为:如果设置有该物品对应的追踪标志,则确定该物品已经被追踪,否则,确定该物品未被追踪。
5.根据权利要求4所述的方法,其特征在于,
使用核化相关滤波追踪算法对该帧视频图像之后的视频数据进行针对该物品的追踪的过程中,如果对该帧视频图像之后的视频数据中的任一帧视频图像进行针对该物品的追踪失败,则删除该物品对应的追踪标志。
6.根据权利要求2所述的方法,其特征在于,
利用运动捕捉方法确定该帧视频图像中每个物品的边界标注框的方法为:
按照预设比例缩小该帧视频图像;
对缩小后的视频图像进行背景减除;
对背景减除后的视频图像进行二值化处理;
对二值化处理后的视频图像进行中值滤波;
将经中值滤波后的视频图像进行膨胀处理,得到该帧视频图像中每个物品的轮廓;
根据该帧视频图像中每个物品的轮廓确定该物品的边界标注框。
7.一种用于密集拿取物品检测的训练模型生成方法,其特征在于,该方法包括:
预先获取用于密集拿取物品检测的训练样本;所述训练样本是利用如权利要求1-6中任一权项所述的方法提取得到的;
基于预设损失函数对所述训练样本进行训练,得到用于密集拿取物品检测的训练模型。
8.根据权利要求7所述的方法,其特征在于,
所述损失函数为排斥Repulsion损失函数,使用以下公式表示:
L=LAttr+α×LRepGT+β×LRepBox,
其中,L为损失值,LAttr为检测输出框与边界标注框的吻合程度,LRepGT为检测输出框与其它物体的边界标注框的远离程度,LRepBox为检测输出框与其它物体的检测输出框的远离程度,α和β是预先设定的权重系数值。
9.一种用于密集拿取物品检测的训练样本提取装置,其特征在于,该装置包括:
获取单元,用于获取多个物品被拿取并做相互远离和靠近运动的视频数据;
追踪单元,用于追踪视频数据中的每个物品,确定该物品在每帧视频图像中的边界标注框;
收集单元、用于将确定了每个物品的边界标注框的每帧视频图像,作为用于密集拿取物品检测的训练样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京京东乾石科技有限公司,未经北京京东乾石科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811402692.7/1.html,转载请声明来源钻瓜专利网。





