[发明专利]多路负载均衡异步目标检测方法、存储介质及处理器在审
申请号: | 201811655208.1 | 申请日: | 2018-12-29 |
公开(公告)号: | CN111382737A | 公开(公告)日: | 2020-07-07 |
发明(设计)人: | 刘若鹏;栾琳;肖剑雄峰 | 申请(专利权)人: | 深圳光启空间技术有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06F9/50 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518000 广东省深圳市龙岗区坂田街道*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 负载 均衡 异步 目标 检测 方法 存储 介质 处理器 | ||
本发明提供了一种多路负载均衡异步目标检测方法、存储介质及处理器。其中所述方法包括:S11、dealer监听视频发送模块发送图像帧所占用的端口,得到输入图像;S12、用ZMQ的多路均衡负载和队列共享图像帧,将接收到的图像分发到并发开启的多进程YOLO模块;S13、各个YOLO进程处理分发得到的图像帧,检测得到图像中的目标属性;S14、通过ZMQ的多路均衡负载,以及队列共享检测结果,返回给下游的识别模块。开启多路YOLO进程,通过队列、字典等共享进程信息,可以同时实时处理多路视频输入,通过负载均衡可以充分利用硬件资源,可普遍适用于YOLO监测系统、facenet、tinyface等目标识别中。
技术领域
本发明涉及目标识别技术领域,更为具体地说,涉及一种多路负载均衡异步目标检测方法、存储介质及处理器。
背景技术
目标检测可运用于安防、工业、汽车辅助驾驶等众多领域,比如安防领域中,可以对重点区域进行人数统计以防止拥挤踩踏事件、对敏感区域做异常目标检测以防止区域入侵等;同时目标检测也是目标识别、实例分割、形态分析等视觉技术的上游输入,目标检测效果的好坏直接决定了这些更复杂任务处理结果。
基于计算机视觉的目标检测技术,是给定一张图像,给出对图像前景和背景的理解,我们需要从背景中分离出感兴趣的目标,并且要确定目标的分类和位置;因而目标检测输出的是一个列表,列表的每一项数据组元素给出一个检测目标的分类和位置;对于人类从给定图像中定位、分类目标很容易,但是对于计算机,从多通道像素矩阵中得到“人”、“车”等目标物体的抽象概念并确定其位置,再加上多目标重叠、遮盖等情况,目标检测就更加困难了。
目前目标检测主流是基于深度学习的方法,在速度和精度上达到较好平衡的PUSH/PULL模式的多进程YOLO目标检测方案。
YOLO是端到端模型的开山之作,在速度它以得到目标位置和分类只需要一次处理而得名,相比两阶段方法,实时速度令人映像深刻;YOLO_V3的川练过程如下:
1、准备数据:将图片缩放到规定尺寸,输入到网络;提取特征的网络将会输出3个不同尺度【分别是13*13、26*26、52*52】的特征图,将样本按照IOU【只考虑面积,不考虑位置】匹配到不同的anchor【yolo_v3为每个特征图设定3个anchor,因此总共有9个anchor】;
2、卷积网络:使用Darknet-53来实现提取特征,三个尺度的特征图中每个网格对每个类别预测一个条件概率值,并在每个网格上生成B个box,每个box预测[num_anchors*(5+num_classes+hum_properti es)]个回归值,既是输出不同anchor下的bounding box的x,y,width,height,configure score,classes scores。测试时,分数如下计算:
等式左边第一项由网格预测,后两项由每个box预测,以条件概率的方式得到每个box含有不同类别物体的分数。因而,卷积网络共输出的预测值个数为S×S×(B×5+C),其中S为网格数,B为每个网格生成box个数,C 为类别数;
YOLO_V3在做前向预测时,输入为任意尺寸的图像,在最终输出 detection时,需要使用NMS(Non-Maximum Suppression,非极大抑制)过滤得到最后的预测框。
使用ZMQ的PUSH/PULL模式时,一个服务端负责PUSH数据,多个客户端排队PULL数据,服务端PUSH的一份数据只会被其中一个客户端拉取,服务端和客户端任一方断掉,都不会影响另一方;
应用到YOLO目标检测系统时,为提高检测的实时性,视频提供模块做服务端,YOLO检测模块做客户端,可以同时开启多个YOLO检测进程,能较快的检测目标。
由此可见,其不足之处有:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳光启空间技术有限公司,未经深圳光启空间技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811655208.1/2.html,转载请声明来源钻瓜专利网。