[发明专利]一种基于深度学习和双目立体视觉相结合的测距方法有效
申请号: | 201710604350.2 | 申请日: | 2017-07-24 |
公开(公告)号: | CN107392965B | 公开(公告)日: | 2020-10-30 |
发明(设计)人: | 王华锋;李飞;成也;付明霞;冯瑾;潘海侠 | 申请(专利权)人: | 王华锋 |
主分类号: | G06T7/77 | 分类号: | G06T7/77;G01B11/02 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 安丽 |
地址: | 100191 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 双目 立体 视觉 相结合 测距 方法 | ||
本发明提出了一种基于深度学习和双目立体视觉相结合的测距方法,利用深度学习框选出目标对象在场景图像中的坐标位置,将该坐标位置对应到由三维重建形成的视差图中,进而可以框选出该目标物在视差图中的坐标范围。最后,利用一种统计方法——众数,来对视差图中框选出的区域按列求取一个出现次数最多的灰度值。由于视差图是一个二维数组,因此可以求得所有等于该灰度值的点的坐标位置。由于这些点的灰度值都是相同的,因此,选取这些点中任意一个点的坐标位置,输入给双目立体视觉模块生成的深度图,即可求得目标物与该双目立体视觉系统之间的距离。本发明与现有的测距方法相比,还具有能够对现实场景下具体目标物进行基于识别的非接触测量的优点。
技术领域
本发明提供了一种基于深度学习和双目立体视觉相结合的测距方法,涉及深度学习、计算机视觉技术领域。
背景技术
拥有非接触测量特点的测距方式有超声波测距、红外测距、激光测距和计算机双目视觉测距。
超声波测距的原理是利用超声波在空气中的传播速度为已知,测量声波在发射后遇到障碍物反射回来的时间,根据发射和接收的时间差计算出发射点到障碍物的实际距离。由于超声波测距仪是声波发射,具有声波的扇形发射特性,方向性差。当声波经过之处障碍物较多时,反射回来的声波较多,干扰较多,易报错。
激光测距,是利用激光对目标的距离进行准确测定的仪器。激光测距仪在工作时向目标射出一束很细的激光,由光电元件接收目标反射的激光束,计时器测定激光束从发射到接收的时间,计算出从观测者到目标的距离。但是,测量容易受到烟雾、灰尘、雨滴的干扰且目的性不强。
红外测距是由红外发射器按照一定的角度发射红外光束,当遇到物体后,光束会反射回来。反射回来的红外光束被CCD检测器检测到以后,会得到一个偏移值,利用三角关系,在知道发射角度、偏移值、中心距以及滤镜的焦距后,传感器到物体的距离就可以通过几何关系计算出来。但是,测量容易受到日光或者其他相近波长光源的干扰,也会受到烟雾、灰尘的干扰且方向性差。
双目立体视觉是计算机视觉的一个重要分支,双目立体视觉测距技术是双目立体视觉的一个重要应用。测距技术分为主动式和被动式测距两种。双目立体视觉测距技术是根据视差原理建立的被动测距系统,该系统是人类利用双目感知距离的原理设计的,即两眼从稍有不同的两个角度去观察三维世界的同一场景时,由于几何光学的投影,观察者观察到的点在左右两眼视网膜上成的像不在同一位置上,存在一定的偏差,这个偏差就是双眼视差,客观物体的实际距离就是通过视差来体现的。两个摄像机从不同位置对同一物体拍摄得到的两幅图像,通过匹配算法找出两幅图像中的对应点,并进过计算得出视差,然后基于三角测量原理恢复出物体在真实世界中的距离信息。双目立体视觉测距在测量的过程中仅需要通过捕获图像就能得到物体到相机的距离信息,而不用发射信号,具有良好的隐蔽性,因此在各个领域发挥着越来越大的作用。但是,单纯的基于双目立体视觉的测距功能单一,没有充分挖掘计算机视觉的潜能。
本发明把双目立体视觉与时下流行的机器学习技术相结合,提出了一种基于深度学习和双目立体视觉相结合的测距方法。该方法除了具有一般的双目立体视觉测距的功能外,通过与基于机器学习的物体识别相结合,达到对具体物体测距的能力,并且可以完成对识别的多个物体测距的要求。
发明内容
本发明解决的技术问题是:针对现有的非接触测量方法在现实场景测量的成本高及语义性不足的问题,提供一种物体识别和双目立体视觉相结合的测距方法,具有能够对现实场景下具体目标物进行基于识别的非接触测量的优点。
本发明采用的技术方案为:一种基于深度学习和双目视觉相结合的测距方法,包括以下五个步骤:
步骤(1)、首先应用标定后的双目相机模块捕获现实场景下的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于王华锋,未经王华锋许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710604350.2/2.html,转载请声明来源钻瓜专利网。