[发明专利]抛扔区域定位方法、装置、设备及存储介质在审
申请号: | 201910231890.X | 申请日: | 2019-03-26 |
公开(公告)号: | CN111753574A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 曾晓嘉 | 申请(专利权)人: | 顺丰科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/46;G06K9/62 |
代理公司: | 北京志霖恒远知识产权代理事务所(普通合伙) 11435 | 代理人: | 成丹 |
地址: | 518061 广东省深圳市南山区学府路(以南)*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 区域 定位 方法 装置 设备 存储 介质 | ||
本申请公开了一种抛扔区域定位方法、装置、设备及存储介质。该方法包括:将所获取的待处理视频分解为多个连续的N帧图像集,其中,N为正整数,N≥3;对每N帧图像进行融合处理,确定融合后的图像;将所述融合后的图像输入抛扔区域定位网络模型,确定所述待处理视频中的抛扔区域。该技术方案能够精确定位出视频中的抛扔区域,通过将多帧图像进行融合处理,很大程度上保留了每帧图像的内容信息和时序信息,减少了计算量,其结果稳定且准确度高。
技术领域
本发明一般涉及图像处理领域,具体涉及一种抛扔区域定位方法、装置、设备及存储介质。
背景技术
近年来,特征识别技术是当今人工智能与模式识别领域中研究的一个热点,其已经越来越多的应用于人们的日常生活之中,比如:基于生物特征识别的考勤系统、门禁系统等,其中,在物流领域,可以通过实时对工作人员的分拣行为进行特征识别,以监测工作人员是否存在抛扔行为,从而实现对企业的高效管理。
目前,可以通过基于深度学习模型的显著性检测方法来进行特征识别,该模型训练过程中需要大量的数据集,很难进行训练收敛,且对没有抛扔区域的案例误报率高,另外,还可以通过基于pix2pix模型生成对抗网络的方法来识别视频中的抛扔区域,该方法能捕捉到视频中的运动区域,但是对抛扔区域的定位不清晰,且后续需经过进一步人工处理方可得到,该处理过程比较复杂,且对抛扔区域的定位不准确。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种抛扔区域定位方法、装置、设备及存储介质,能够解决现有技术中对抛扔区域定位不准确、误报率高的问题。
第一方面,本发明提供了一种抛扔区域的定位方法,该方法包括:
将所获取的待处理视频分解为多个连续的N帧图像集,其中,N为正整数,N≥3;
对每N帧图像进行融合处理,确定融合后的图像;
将所述融合后的图像输入抛扔区域定位网络模型,确定所述待处理视频中的抛扔区域。
在其中一个实施例中,将每N帧图像进行融合处理,确定融合后的图像,包括:
确定所述每N帧图像的B通道值、G通道值和R通道值;
根据所述B通道值、G通道值和R通道值,确定融合后的图像。
在其中一个实施例中,所述确定每N帧图像的B通道值、G通道值和R通道值,包括:
确定每帧图像的B通道值、G通道值和R通道值;
将所述每N帧图像中的N1帧图像的B通道均值、N2帧图像的G通道均值和N3帧图像的R通道均值作为所述每N帧图像的B通道值、G通道值和R通道值;其中,N1+N2+N3=N,N、N1、N2、N3均为正整数,N1≥1,N2≥1,N3≥1。
在其中一个实施例中,将所述融合后的图像输入抛扔区域定位网络模型,确定所述待处理视频中的抛扔区域,包括通过如下步骤构建的抛扔区域定位网络模型:
获取历史视频;
对所述历史视频按时序分解为多个连续N帧图像集;其中,N为正整数,N≥3;
将每N帧图像进行融合处理,确定融合图;
将所述融合图输入预设定位网络模型进行训练,确定抛扔区域定位网络模型。
在其中一个实施例中,将所述融合图输入预设的定位网络模型进行训练,确定抛扔区域定位网络模型,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于顺丰科技有限公司,未经顺丰科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910231890.X/2.html,转载请声明来源钻瓜专利网。