[发明专利]一种基于加权投票的双目视觉立体匹配方法及其系统有效
| 申请号: | 201910161434.2 | 申请日: | 2019-03-04 |
| 公开(公告)号: | CN109978928B | 公开(公告)日: | 2022-11-04 |
| 发明(设计)人: | 赵勇;谢旺多;卢昌义;桑海伟;张丽;陈天健 | 申请(专利权)人: | 北京大学深圳研究生院 |
| 主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/35 |
| 代理公司: | 深圳鼎合诚知识产权代理有限公司 44281 | 代理人: | 郭燕 |
| 地址: | 518055 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 加权 投票 双目 视觉 立体 匹配 方法 及其 系统 | ||
一种基于加权投票的双目视觉立体匹配方法及其系统,包括:获取两个视点下的图像;根据预设的多个代价函数和预设的多个视差值对其中一幅图像中同一像素点进行代价聚合,得到各个代价函数对应的代价聚合函数;根据各个代价聚合函数分别获取所述像素点处各个视差值对应的匹配代价;对所述像素点处各个视差值对应的匹配代价进行加权投票,计算得到每个视差值对应的加权投票值;从各个视差值对应的加权投票值中获取所述像素点的最佳视差值。上述方法可对各个代价函数进行代价聚合,能够根据求出的极小值点进行加权投票的运算,使得通过加权投票结果得到鲁棒性较高的代价聚合函数以及得到各个像素点的准确率较高的最佳视差值称为可能。
技术领域
本发明涉及双目视觉技术领域,具体涉及一种基于加权投票的双目视觉立体匹配方法及其系统。
背景技术
众所周知,场景中的光线在人眼这个精密的成像系统中被采集,通过神经中枢被送入包含有数以亿计的神经元的大脑中被并行的处理,得到了实时、高清晰、准确的深度感觉信息。这使得人类对环境的适应能力大大提高,很多复杂的动作能够得以完成:如行走、体育运动、驾驶车辆以及进行科学实验等。而计算机视觉正是使用计算机来模拟人的视觉系统的学科,目的是根据获取的两幅平面图像恢复3D图像。当前,计算机立体视觉的水平与人类的双目视觉水平还相距甚远,因此对它的研究仍然是一个非常活跃的邻域。
双目立体视觉(Binocular Stereo Vision)是计算机视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。由此可知,它通过模拟人的视觉系统来处理现实世界,对于立体视觉匹配的研究,能够大大的增强计算机或机器人对环境的感知能力,使得机器人能够更好的适应环境、更加智能,从而能够更好的为人们服务。经过多年的技术发展,双目立体视觉已在机器人视觉、航空测绘、反求工程、军事运用、医学成像和工业检测等邻域中得以应用。
当前,双目立体视觉融合了两取像设备获得的图像并观察它们之间的差别,使计算机可以获得准确的深度信息,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,通常将这种差别称作视差(disparity)。然而,双目立体视觉中最重要但又非常困难的问题就是立体视觉匹配问题,即从不同视点图像中找到匹配的对应点。
为在不同视点图像中找到匹配的对应点,可以采用全局匹配误差最小且上边沿光滑性能约束的方法,但该方法计算量十分巨大,几乎不可能在现有的处理器上进行实时计算。另一种办法是采用一个像素周边区域的像素来估计该像素点,如用一个矩形区域、自适应生长区域或最小生成树等等,但在区域内,对像素的匹配代价的加权仍然只能采用上面所谓的颜色(亮度)、纹理、梯度等与视差没有直接关系的特征来进行计算,因此,在实用过程中,都还有较大的不鲁棒性。
发明内容
本发明主要解决的技术问题是如何从不同的视点图像中找到匹配的对应点,以提高双目视觉立体匹配的准确度和鲁棒性。为解决上述技术问题,本申请提供一种基于加权投票的双目视觉立体匹配方法及其系统。
根据第一方面,一种实施例中提供一种基于加权投票的双目视觉立体匹配方法,包括以下步骤:
获取两个视点下的图像;
根据预设的多个代价函数和预设的多个视差值对其中一幅图像中同一像素点进行代价聚合,得到各个所述代价函数对应的代价聚合函数;
根据各个所述代价聚合函数分别获取所述像素点处各个视差值对应的匹配代价;
对所述像素点处各个视差值对应的匹配代价进行加权投票,计算得到每个视差值对应的加权投票值;
从各个视差值对应的加权投票值中获取所述像素点的最佳视差值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学深圳研究生院,未经北京大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910161434.2/2.html,转载请声明来源钻瓜专利网。





