[发明专利]一种地铁轨道异物智能识别方法有效
申请号: | 202110160090.0 | 申请日: | 2021-02-05 |
公开(公告)号: | CN112989931B | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 李静;李朝辉;王荣秋;尚伟艺 | 申请(专利权)人: | 广州华微明天软件技术有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/40;G06V10/762;G06V10/774;G06N3/04;G06N3/08;G06T7/13;G06T7/136 |
代理公司: | 北京棘龙知识产权代理有限公司 11740 | 代理人: | 谢静 |
地址: | 510630 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 地铁 轨道 异物 智能 识别 方法 | ||
1.一种地铁轨道异物智能识别方法,其特征在于,包括:
步骤一、将实时采集的地铁轨道区域内的视频流数据进行解析,得到多帧识别图像;
步骤二、将步骤一得到的识别图像输入至最优算法模型,得到深度学习异物检测框信息;
步骤三、对步骤一得到的识别图像进行传统图像检测得到传统异物检测结果框信息;
步骤四、根据步骤三得到的传统异物检测结果框信息和步骤二得到的深度学习异物检测框信息进行重复异物过滤,得到检测结果;
步骤五、根据步骤四得到的检测结果对应输出异物告警;
所述最优算法模型通过如下步骤得到:
步骤A、收集多张地铁轨道异物的素材图像;
步骤B、分别对步骤A得到的素材图像进行标注,得到多个异物区域框信息;
步骤C、对步骤B得到的多个异物区域框信息进行重聚类,得到重聚类分组数据;
步骤D、对yolov4-tiny深度学习神经网络算法的训练参数进行设置,得到训练参数;
步骤E、将步骤A得到的素材图像、步骤B得到的异物区域框信息和步骤D得到的训练参数输入至darknet框架训练深度学习神经网络yolov4-tiny算法,得到最优算法模型;
所述步骤四包括有:
步骤4.1、根据步骤三得到的传统异物检测结果框信息和步骤二得到的深度学习异物检测框信息计算IOU值,
步骤4.2、将步骤4.1得到IOU值与IOU阈值γ进行对比,当IOU值小于等于IOU阈值时为不同异物进入步骤4.3,当IOU值大于IOU阈值时为同一异物进入步骤4.4,且IOU阈值大于0;
步骤4.3、保留传统异物检测结果框信息和深度学习异物检测框信息,并作为两个检测结果,进入步骤五;
步骤4.4、删除传统异物检测结果框信息,保留深度学习异物检测框信息并作为一个检测结果,进入步骤五。
2.根据权利要求1所述的地铁轨道异物智能识别方法,其特征在于:所述步骤C具体是对步骤B得到的多个异物区域框信息进行kmeans重聚类,且K设置为6,得到重聚类分组数据。
3.根据权利要求2所述的地铁轨道异物智能识别方法,其特征在于,所述步骤D包括有:
步骤D1、设置yolov4-tiny深度学习神经网络算法输入batch,其中batch为训练输入的素材图像数目;
步骤D2、设置yolov4-tiny深度学习神经网络中的前神经网络卷积层的filters,其中filters=3*(5+classes),其中classes为检测地铁轨道异物的种类数量;
步骤D3、分别设yolov4-tiny深度学习神经网络两个yolo层的anchor和classes,其中anchor为步骤C的重聚类分组数据。
4.根据权利要求3所述的地铁轨道异物智能识别方法,其特征在于:所述步骤二包括有:
步骤2.1、分别依次将步骤一得到的多帧识别图像输入至最优算法模型,对应得到识别图像内的地铁轨道异物的score和box,其中score为识别目标的置信度,box为识别目标的边框信息(x,y,w,h)其中x为边框中心点的x轴坐标,y为边框中心点的y轴坐标,w为边框的宽,h为边框的高;
步骤2.2、当score<θ时则判定为误检目标,并删除对应的box;当score≥θ时则判定为检测目标,并进入步骤2.3,其中θ为0.4;
步骤2.3、保存box得到深度学习异物检测框信息。
5.根据权利要求4所述的地铁轨道异物智能识别方法,其特征在于:所述步骤三包括有:
步骤3.1、对步骤一得到的识别图像进行地铁轨道定位,得到轨间区域;
步骤3.2、进行HSV提取轨间异物特征,其中HSV为图像颜色模型,其中H为色调参数,S为饱和度参数,V为亮度参数;
步骤3.3、进行异物特征筛选,得到传统异物检测结果框信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州华微明天软件技术有限公司,未经广州华微明天软件技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110160090.0/1.html,转载请声明来源钻瓜专利网。