[发明专利]一种远程多目标的高效检测和识别方法有效
申请号: | 202110014959.0 | 申请日: | 2021-01-06 |
公开(公告)号: | CN112784709B | 公开(公告)日: | 2023-06-20 |
发明(设计)人: | 谢巍;陈定权;周延;许练濠 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/764;G06V10/774 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 何淑珍;江裕强 |
地址: | 511458 广东省广州市南沙区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 远程 多目标 高效 检测 识别 方法 | ||
本发明公开了一种远程多目标的高效检测及识别方法,包括下列步骤:S1、终端通过限流算法将视频流处理成图片集S2、对图片集原始图片归一化成固定大小的样本图像;S3、将样本图像的像素点作为节点,用所有节点的邻接矩阵表示无向图的状态;S4、获取每个节点的s纬特征向量;S5、预先构建完备向量化的标签字典,将输出的特征矩阵通过字典得到标签的预测值;S6、终端将标签的预测值通过阈值筛选;S7、服务器根据标签结果生成对应哈希码,通过哈希码进入不同的目标识别模型通道;S8、服务器预先将所有的已知目标识别后存储成特征向量库,有效图片进入对应模型通道后解析成特征向量,和特征向量库比对后得到结果,反馈到终端。
技术领域
本发明涉及计算机视觉和模式识别技术领域,具体涉及一种远程多目标的高效检测和识别方法。
背景技术
目前来说,目标识别是计算机视觉和模式识别领域的热点研究问题之一,如何降低服务器算力负荷和避免网络拥塞问题,成为目标识别中的一个重点和难点问题。
在人工智能发展初期,计算机很容易处理一些人类很难甚至是无法解决的问题,这些问题可以用一种形式化的数学规律来描述。人工智能真正面临的任务是那些很难用形式化符号描述的任务,自从深度神经网络算法首次在ImageNet数据集上大放异彩,物体检测领域逐渐开始利用深度学习来做研究。随后各种结构的深度模型被提出,数据集的准确率一再被刷新。实际上,深度学习模型在分类任务上将传统的方法远远地甩在身后。图像分类上明显的提升也带动了检测领域的快速发展。
到目前为止,高性能的检测算法都基于深度学习。最早的R-CNN(Region-basedCNN)首次使用深度模型提取图像特征,以49.6%的准确率开创了检测算法的新时代。早期的物体检测,都以滑动窗口的方式生成目标建议框,这种方式本质上与穷举法无异。
如今大部分远程目标检测运用在远程监控系统中,传统的远程识别方法是在边缘端的目标检测和识别中,前端采集信息,通过网络传到服务器,服务器使用算法匹配再将识别结果返回到终端,在专利《一种远程监控方法、装置及系统》使用传统的方法会有两个问题:(1)大量终端通过网络将视频流传到后端时候,会造成网络拥塞(2)视频中很多时刻并不存在目标,在服务器识别会占用服务器资源。
发明内容
本发明的目的在于提供种一种远程多目标的高效检测和识别方法,该方法是终端配置摄像头通过网络传输实现远程识别,终端先将终端信息压缩再使用高效的分类器,将摄像机采集到的信息筛选出有效的信息,再通过自身的网络模块将信息传递到服务器,服务器调用正确的网络模型比对有效信息,将识别结果呈现给终端,从而实现远程识别的方案。在保证高识别成功率的前提下大大减小服务器的运算负荷和网络流量,提高实用性。
本发明的目的通过以下技术方案实现。
一种远程多目标的高效检测和识别方法,包括下列步骤:
S1、终端将视频流处理成终端图片集,对终端图片集密度设置上限;
S2、对终端图片集原始图片归一化成固定大小的样本图像;
S3、将样本图像的像素点作为节点,每个节点与周围节点的距离值构造该节点的邻接矩阵,用所有节点的邻接矩阵表示无向图的状态;
S4、每个节点的邻接矩阵使用频域方法得到对应节点的s纬特征向量,最终m个节点构成m×s纬的特征矩阵;
S5、预先构建完备向量化的标签字典,将特征矩阵通过每层图卷积不断更新自己,将输出的特征矩阵通过字典得到标签的预测值,每个标签对应一种检测结果;
S6、终端将标签的预测值通过阈值筛选,把高于阈值的标签定义为有效标签,最终从M个图片中筛选出包含有效标签的N个图片发送到服务器。
S7、服务器根据标签结果生成对应哈希码,通过哈希码进入不同的目标识别模型通道,将选择模型的时间复杂度由O(n)降为O(1);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110014959.0/2.html,转载请声明来源钻瓜专利网。