[发明专利]一种基于机器视觉的车道提取识别方法在审
申请号: | 202210370999.3 | 申请日: | 2022-04-11 |
公开(公告)号: | CN114463724A | 公开(公告)日: | 2022-05-10 |
发明(设计)人: | 倪树新;陈启光;李宇盛 | 申请(专利权)人: | 南京慧筑信息技术研究院有限公司 |
主分类号: | G06V20/58 | 分类号: | G06V20/58;G06V10/26;G06V10/774;G06V10/764;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210031 江苏省南京市江北新*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 车道 提取 识别 方法 | ||
本发明提供一种基于机器视觉的车道提取识别方法,所述基于机器视觉的车道提取识别方法包括以下步骤:S1、车辆检测,利用成熟的YOLOv5网络完成对车辆的检测;S2、车辆轨迹提取,利用步骤S1中检测目标框的中心坐标信息拟合成车辆的轨迹信息;S3、车道自动提取,利用步骤S2中生成的车辆轨迹作为图割算法的初始条件,完成车道的自动提取。本发明提供的基于机器视觉的车道提取识别方法具有可直接对车道进行自动提取的优点。
技术领域
本发明涉及车道提取技术领域,尤其涉及一种基于机器视觉的车道提取识别方法。
背景技术
复杂场景下的车道提取是计算机视觉领域中一种重要的应用技术,在交通管理、城市规划、车道监测等方面发挥着重要作用,诸如车流量统计,路边标识牌的检测和识别,车辆检测和追踪,车道上的异常落物检测等方面,通过对车道的提取可以限定信息提取的范围,为车道上的异常行为检测奠定基础,近年来,车道提取广泛地使用深度学习的算法,但受限于车道样本集的数量,如果某类对象不在训练数据集中,没有通过深度卷积神经网络学习其基本特征,则这类对象的提取性能不高,并且计算量也较大,阈值法是极为经典的图像分割算法之一,利用灰度值的差异,通过人工或者自适应选择阈值的方式可以实现车道区域的提取。
目前,阈值法等方法只适应于感兴趣区域与背景边界清晰,且背景像素简单的图像,不适用于复杂场景下的车道提取,图割算法能够针对车道数据从感兴趣区域中搜索并指定种子点,通过定义相应的“前景”和“背景”,获得了较好的提取结果,但需要人工交互,耗时耗力。
因此,有必要提供一种基于机器视觉的车道提取识别方法以解决上述技术问题。
发明内容
为解决上述技术问题,本发明提供一种可直接对车道进行自动提取的基于机器视觉的车道提取识别方法。
本发明提供的基于机器视觉的车道提取识别方法包括以下步骤:
S1、车辆检测,利用成熟的YOLOv5网络完成对车辆的检测;
S2、车辆轨迹提取,利用步骤S1中检测目标框的中心坐标信息拟合成车辆的轨迹信息;
S3、车道自动提取,利用步骤S2中生成的车辆轨迹作为图割算法的初始条件,完成车道的自动提取。
为了达到能够利用大量数据完成模型的训练,使其泛化能力和鲁棒性更强,更适合复杂多变的实际场景的效果,所述YOLOv5中的YOLO为基于卷积神经网络的目标检测算法,能够利用大量数据完成模型的训练,YOLO车辆检测算法其网络模型分为四个部分,分别为输入端、特征提取网络、多尺度特征融合模块和预测输出端。
为了达到方便丰富数据集,增加网络的普适性的效果,所述输入端包含数据增强、自适应锚框计算和自适应图片缩放三个部分,使用随机裁剪、随机缩放和随机分布将图片拼接,丰富数据集,增加网络的普适性;自适应锚框计算是自适应的计算不同训练集中的最佳锚框值;自适应图片缩放则是将图像统一成标准尺寸。
为了达到方便对特征进行提取的效果,所述特征提取网络中,特征提取的Focus结构将输入的图像进行切片,再经过32个卷积核后得到304×304×32的特征图,YOLOv5借鉴YOLOv4主干网络中的CSP结构。
为了达到方便对特征信息进行融合的效果,所述多尺度特征融合模块使用FPN(特征金字塔网络)与PAN(金字塔注意力网络)结构,FPN自顶向下将高层的特征信息传递融合,传达强语义特征,PAN为自底向上传达强定位特征,两者同时使用加强网络特征融合能力。
为了达到方便衡量目标检测的精度的效果,所述预测输出端包括Boundingbox损失函数和非极大值抑制,YOLO系列的损失计算基于置信度损失,分类损失,定位损失。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京慧筑信息技术研究院有限公司,未经南京慧筑信息技术研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210370999.3/2.html,转载请声明来源钻瓜专利网。