[发明专利]一种行人检测方法、装置、电子设备及存储介质在审
申请号: | 202111129908.9 | 申请日: | 2021-09-26 |
公开(公告)号: | CN114067186A | 公开(公告)日: | 2022-02-18 |
发明(设计)人: | 刘浩;张雷;辛山;卢云志 | 申请(专利权)人: | 北京建筑大学 |
主分类号: | G06V10/80 | 分类号: | G06V10/80;G06V10/774;G06V40/10;G06K9/62;G06N3/08 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王治东 |
地址: | 100044*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 行人 检测 方法 装置 电子设备 存储 介质 | ||
1.一种行人检测方法,其特征在于,包括:
获取待识别目标图片;
将所述待识别目标图片输入至行人检测模型中,得到行人检测结果;所述行人检测结果为一张包含多个行人检测框的图片;
其中,所述行人检测模型由卷积神经网络、注意力机制网络和区域候选网络组成,所述行人检测模型基于以下步骤进行训练,包括:
步骤1,获取样本图片,将所述样本图片输入至卷积神经网络中进行多尺度特征融合,得到融合所述卷积神经网络各层图片特征信息的多通道特征图;其中,所述样本图片包含预先标注好的行人真实框;
步骤2,将所述多通道特征图输入至注意力机制网络中,对所述多通道特征图进行全局平均池化和全局最大池化处理,得到聚合所述多通道特征图中重要通道特征信息的特征图;
步骤3,将经过步骤2处理后的特征图输入至区域候选网络中,得到一张包含多个行人候选框的图片,并根据所述候选框与所述真实框的位置关系计算Focal-EIOU-Loss损失,以及根据所述候选框和所述真实框的坐标计算Smooth L1 Loss损失,以使将所述Focal-EIOU-Loss损失和所述Smooth L1 Loss损失之和作为目标损失,并根据所述目标损失优化所述行人检测模型,当所述目标损失小于预设阈值时训练结束,从而获取训练好的行人检测模型。
2.根据权利要求1所述的行人检测方法,其特征在于,将所述样本图片输入至卷积神经网络中进行多尺度特征融合,得到融合所述卷积神经网络各层图片特征信息的多通道特征图,包括:
将所述样本图片输入至卷积神经网络中进行特征提取,并在所述卷积神经网络每次进行卷积操作前,将卷积神经网络当前层输出的特征图中的图片特征信息与上一层输出的特征图中的图片特征信息进行堆叠和特征融合,作为所述卷积神经网络当前层的融合特征图,从而最终得到融合所述卷积神经网络各层图片特征信息的多通道特征图。
3.根据权利要求1所述的行人检测方法,其特征在于,在所述得到行人检测结果后,还包括:
根据所述行人检测结果,确定所述待识别目标图片中出现的行人数量。
4.根据权利要求1所述的行人检测方法,其特征在于,所述对所述多通道特征图进行全局平均池化和全局最大池化处理,得到聚合所述多通道特征图中重要通道特征信息的特征图,包括:
基于全局最大池化公式,确定所述多通道特征图中的重要通道特征信息,并基于全局平均池化公式,聚合所述重要通道特征信息,得到聚合所述多通道特征图中重要通道特征信息的特征图。
5.根据权利要求1所述的行人检测方法,其特征在于,所述根据所述候选框和所述真实框的位置关系计算Focal-EIOU-Loss损失的损失函数LFocal-EIoU为:
其中,IoU表示真实框与候选框的交并比,p表示真实框与候选框各参数间的距离,c表示真实框与候选框并集所围图像左上角右下角的直线距离,w表示真实框与候选框的宽,Cw表示真实框与候选框的宽损失,h表示真实框与候选框的高,Ch表示真实框与预测框的高损失,γ表示超参数。
6.根据权利要求1所述的行人检测方法,其特征在于,根据所述候选框和所述真实框的的坐标计算Smooth L1 Loss损失的损失函数Smooth L1为:
t=(x1,y1,x2,y2)
x=t-t*
其中,x表示候选框和真实框的横坐标,y表示候选框和真实框的纵坐标,t表示候选框坐标,t*表示真实框坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京建筑大学,未经北京建筑大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111129908.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种跨模态匹配方法及系统
- 下一篇:一种远程数显锅炉膨胀量采集分析系统