[发明专利]一种交通路网行人密度检测的方法、系统及服务器有效
申请号: | 202110282986.6 | 申请日: | 2021-03-16 |
公开(公告)号: | CN113052039B | 公开(公告)日: | 2022-12-02 |
发明(设计)人: | 闫丹凤;李明臻;姬捷 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/40;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 丁芸;马敬 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 交通 路网 行人 密度 检测 方法 系统 服务器 | ||
本发明实施例提供了一种交通路网行人密度检测的方法、系统及服务器,在接收到对交通路网的监控视频中行人密度的查询指令时,获取查询指令对应的监控视频的至少一个视频帧作为待检测图像;将待检测图像输入预先训练得到的行人密度检测模型,以使行人密度检测模型:利用分类子模型检测待检测图像的密度类型,并利用与密度类型对应的检测子模型检测待检测图像中的行人密度;基于所获得的行人密度,展示查询指令对应的监控视频的行人密度的检测结果;其中,待检测图像的密度类型包括:行人密度小于第一阈值的稀疏类型,以及行人密度大于第一阈值的密集类型。本方案可以提高交通路网行人密度检测的准确度。
技术领域
本发明涉及图像处理技术领域,特别是涉及一种交通路网行人密度检测的方法、系统及服务器。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN)作为深度学习领域最具代表性的算法之一,具有能够关注到图像细微之处特征的特点,在图像处理方面具有极高的优势。因此,涌现了很多基于CNN的行人密度检测方法。例如,可以基于CNN的行人密度检测方法获得交通路网中的行人密度,以通过行人密度反映的行人密集情况,分析行车风险。
但是,发明人在实现本发明的过程中发现,上述基于CNN的行人密度检测方法均存在检测结果不够准确的问题。
发明内容
本发明实施例的目的在于提供一种交通路网行人密度检测的方法、系统及服务器,以实现提高交通路网行人密度检测准确度的效果。具体技术方案如下:
第一方面,本发明实施例提供一种交通路网行人密度检测的方法,所述方法包括:
在接收到对交通路网的监控视频中行人密度的查询指令时,获取所述查询指令对应的监控视频的至少一个视频帧,作为待检测图像;
将所述待检测图像输入预先训练得到的行人密度检测模型,以使所述行人密度检测模型:利用分类子模型检测所述待检测图像的密度类型,并利用与所述密度类型对应的检测子模型检测所述待检测图像中的行人密度;
基于所获得的行人密度,展示所述查询指令对应的监控视频的行人密度的检测结果;
其中,所述待检测图像的密度类型包括:行人密度小于第一阈值的稀疏类型,以及行人密度大于第一阈值的密集类型;所述分类子模型为利用多个稀疏类型的样本图像,多个密集类型的样本图像以及每个样本图像的行人密度标签训练得到的模型;针对每个密集类型,该密集类型对应的检测子模型为利用多个该密集类型的样本图像以及每个样本图像的行人密度标签训练得到的模型。
第二方面,本发明实施例提供一种交通路网行人密度检测的系统,所述系统包括:图像采集设备,客户端以及服务器;
所述图像采集设备,用于采集交通路网的监控视频;
所述客户端,用于在接收到对交通路网的监控视频中行人密度的查询指令时,向所述服务器发送针对所述查询指令对应的监控视频中行人密度的检测指令;在接收到所述服务器返回的行人密度的检测结果时,对所述检测结果进行展示;
所述服务器,用于获取所述图像采集设备所采集的所述查询指令对应的监控视频的至少一个视频帧,作为待检测图像;将所述待检测图像输入预先训练得到的行人密度检测模型,以使所述行人密度检测模型:利用分类子模型检测所述待检测图像的密度类型,并利用与所述密度类型对应的检测子模型检测所述待检测图像中的行人密度,将基于所述行人密度获取检测结果并返回给所述客户端;其中,所述待检测图像的密度类型包括:行人密度小于第一阈值的稀疏类型,以及行人密度大于第一阈值的密集类型;所述分类子模型为利用多个稀疏类型的样本图像,多个密集类型的样本图像以及每个样本图像的行人密度标签训练得到的模型;针对每个密集类型,该密集类型对应的检测子模型为利用多个该密集类型的样本图像以及每个样本图像的行人密度标签训练得到的模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110282986.6/2.html,转载请声明来源钻瓜专利网。