[发明专利]一种面向语义分割结果的车道线参数化方法有效
申请号: | 201811208274.4 | 申请日: | 2018-10-17 |
公开(公告)号: | CN109543520B | 公开(公告)日: | 2021-05-28 |
发明(设计)人: | 庞彦伟;修宇璇 | 申请(专利权)人: | 天津大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/34 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 程毓英 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 语义 分割 结果 车道 参数 方法 | ||
本发明涉及一种面向语义分割结果的车道线参数化方法,包含:步骤(1):在语义分割的结果上选取感兴趣区域X,利用逆透视变换得到感兴趣区域的俯视图,作为初始化的检测窗Y;步骤(2):找到新的初始化检测窗;步骤(3):找到新的检测窗,直至得到的点坐标的数量足够拟合车道线参数方程为止。保留此时得到的全部的车道线上的点坐标。步骤(5):根据步骤(4)中得到的点坐标拟合求解车道线参数方程。
技术领域
本发明涉及智能驾驶、计算机视觉和深度学习领域,特别涉及一种面向语义分割结果的车道线参数化方法,可以快速、准确地从语义分割的结果中提取属于车道线的点,从而拟合车道线的参数方程。
背景技术
近年来,智能驾驶技术受到了广泛的关注。车道线检测,作为车道保持和路径规划的重要依据,是智能驾驶汽车的关键技术之一。现有的车道线检测算法中,无论是基于逆透视变换和高斯滤波的传统方法[1],还是基于深度学习的方法[2,3],都是作为一个独立的模块或程序。然而,在实际的智能驾驶汽车中,最优化的设计是将全部基于计算机视觉的环境感知任务用一个神经网络来完成,而不是将每个类似车道线检测的子任务都用一个单独的神经网络来完成。
语义分割能够将图像分割为不同的区域,并为每个区域分配对应的类别标签。因此,可以用语义分割的思想端到端地识别车载相机拍摄到的图片中的各种目标,即,将一幅图像中的不同目标分割为不同区域,其类别标签即为不同的目标类型。
深度学习已经在语义分割任务中取得了很好的性能,研究者们提出了包括FCN[4],SegNet[5],PSPNet[6]和DeepLab系列[7,8]等卷积神经网络,在交通场景数据库CamVid[9]和Cityscape[10]等上取得了很好的性能。这些方法都能够相当精确的分割出交通场景中的车辆、行人和车道线等目标。然而,实际的无人驾驶汽车的路径规划和智能决策需要得到车道线在车载坐标系下的参数方程。如何将语义分割结果中带有透视效应的车道线转换为现实坐标系下的车道线参数方程,仍是一个亟待解决的问题。
参考文献:
[1]Aly M.Real time detection of lane markers in urban streets[C]//Proceedings of IEEE International Vehicles Symposium,Eindhoven,Netherlands,2008:7-12.
[2]Li J,Xue M,Prokhorov D.Deep neural network for structuralprediction and lane detection in traffic scene[J].IEEE Transactions on NeuralNetworksLearning Systems,2017,28(3):690.
[3]GurghianA,Koduri T,Bailur S V,et al.Deeplanes:End-to-end laneposition estimation using deep neural networks[C]//Proceedings of IEEEConference on Computer Vision and Pattern Recognition Workshops,Las Vegas,USA,2016:38-45.
[4]Long J,Shelhamer E,Darrell T.Fully convolutional networks forsemantic segmentation[C]//Proceedings of IEEE Conference on Computer Visionand Pattern Recognition,Boston,USA,2015:3431-3440.
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811208274.4/2.html,转载请声明来源钻瓜专利网。