[发明专利]一种复杂场景下融合运动信息的行人检测方法有效
| 申请号: | 202011290529.3 | 申请日: | 2020-11-18 |
| 公开(公告)号: | CN112347967B | 公开(公告)日: | 2023-04-07 |
| 发明(设计)人: | 侯舒娟;韩羽菲;李海;张钦;宋政育;武毅 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V20/52;G06V10/25;G06V10/44;G06V10/80;G06V10/82;G06N3/0464;G06N3/047;G06N3/08 |
| 代理公司: | 北京理工大学专利中心 11120 | 代理人: | 李微微 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 复杂 场景 融合 运动 信息 行人 检测 方法 | ||
1.一种复杂场景下融合运动信息的行人检测方法,其特征在于,包括如下步骤:
步骤1、获取原始视频,处理得到图片序列;
步骤2、将所述图片序列通过RPN网络,获得目标检测提议候选框;
步骤3、将所述原始视频通过运动目标识别算法,获得运动目标框;
步骤4、将步骤3获得的运动目标框与步骤2中的目标检测提议候选框进行融合,得到全部提议候选框;所述融合利用非极大抑制值算法进行;
步骤5、将步骤4获得的全部提议候选框按照尺寸大小划分成两个群组,分别输入到两个神经网络分别进行分类和回归处理;
步骤6、将步骤5中两个神经网络输出的行人检测结果一并输出,得到带有行人目标框的视频。
2.如权利要求1所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤1中,对图片序列中图片先进行缩放后输入卷积网络获取每张图片的特征图,然后再获得目标检测提议候选框,具体为:
a.利用九种不同尺寸的anchor boxes对图片中每一个像素点进行分类,判断是物体还是背景;
b.对anchors进行回归,得到分类的精准参数;
c.按照anchor的softmax分数进行排序,找到分类最优的2000个;
d.将anchor映射回原图;
e.利用NMS算法,对anchor进行排序,输出前256个提议候选框。
3.如权利要求1所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤2和3同步执行。
4.如权利要求1所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤3中,利用GMM算法对原始视频序列进行运动目标识别,获得运动目标框。
5.如权利要求1所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤5中,将步骤4中获得的全部提议候选框按照面积大小进行排序,将面积排在前50%的图片划为第一群组,将面积排在后50%的划为第二群组。
6.如权利要求5所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤5中,在每个神经网络中,先对提议候选框部分的特征图采用Faster-RCNN网络的ROI池化层进行归一化处理;将该部分特征图输入Faster-RCNN网络的全连接层与softmax层计算每个提议目标属于什么类别,利用只包含人物标签的数据集进行预训练;同时再次利用目标框回归获得每个提议目标的位置偏移量。
7.如权利要求5所述的复杂场景下融合运动信息的行人检测方法,其特征在于,所述步骤5中,所述两个神经网络的结构相同。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011290529.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种透光度实时可调的窗机构
- 下一篇:一种可快速更换收卷筒的纺织面料收卷装置





