[发明专利]一种用于深度图视差估计的并行实现方法在审
申请号: | 201911271204.8 | 申请日: | 2020-03-05 |
公开(公告)号: | CN111050180A | 公开(公告)日: | 2020-04-21 |
发明(设计)人: | 谢晓燕;张西红;朱筠 | 申请(专利权)人: | 西安邮电大学 |
主分类号: | H04N19/436 | 分类号: | H04N19/436;H04N19/597;H04N19/51;H04N19/593 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 710121 陕西省西安*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 深度 视差 估计 并行 实现 方法 | ||
本发明提供一种用于深度图视差估计的并行实现方法,该方法包括:基于邻接互连的4×4二维处理元阵列构建用于深度图视差估计的并行结构;读取基本视点像素值和参考视点像素值到所述并行结构的所述处理元中,并行地进行时域相邻块和空域相邻块的块匹配操作,计算得到各相邻块的SAD值;根据所述SAD值,并行地进行最优时域相邻块和最优空域相邻块选取,及运动补偿预测和视差补偿预测。本发明通过构建并行结构,对三维高效视频编码的深度图视差估计算法进行并行化实现,提高其视差估计过程的计算效率,缩短深度图编码时间。
技术领域
本发明涉及视频处理技术领域,尤其涉及三维高效视频编码深度图视差估计算法的并行实现方法。
背景技术
视差指同一像素点在不同视点投影中的位置偏差。视差估计(DisparityEstimation,简称DE)就是寻找不同视点间图像数据的空域相关性,计算视差矢量(Disparity Vector,简称DV)的过程。采用视差估计可以大大消除多个视点间的冗余数据,是三维视频编码中进行视点间运动预测、残差预测、光照补偿和视点合成预测的重要环节。
JCT-3V提出的三维高效视频编码(3D High Efficiency Video Coding,简称3D-HEVC),是基于H.264/AVC的扩展部分MVC(Multi-view Video Coding,简称MVC)和H.265/HEVC标准的算法基础设计的,采用多视点视频加深度(Multi-view Video plus Depth,简称MVD)格式对多个视点的纹理图像和深度图像进行编码。在3D-HEVC中,使用基于相邻块视差估计(Disparity Vector from Neighboring Blocks,简称NBDV)方法获得深度图的视差矢量。例如,对于一个N×N的基本视点编码块,视差矢量的获取是对基本视点的2个时域相邻块和参考视点的5个空域相邻块的搜索及匹配过程。采用这样的块匹配方式,所带来的问题是与标准二维视频编码相比,需要更多的参考帧信息,带来更高的计算量和更大的数据吞吐量,会严重影响视频编码的效率。如果为了降低计算量而选择过大的编码块,又会导致连续性预测误差,影响视点合成。
上述缺陷是本领域技术人员期望克服的。
因此,亟需一种用于三维高效视频编码的深度图视差估计并行实现方法。
发明内容
(一)要解决的技术问题
为了解决现有技术的上述问题,本发明提供一种用于深度图视差估计的并行实现方法,解决现有技术中的视差估计耗时的问题。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
本发明一实施例提供一种用于深度图视差估计的并行实现方法,包括以下步骤:
S1、基于邻接互连的4×4二维处理元阵列构建用于三维高效视频编码深度图视差估计的并行结构;
S2、基于获取的视频图像读取基本视点像素值和参考视点像素值到所述并行结构的所述处理元中;
S3、在所述并行结构的所述处理元中并行地进行时域相邻块和空域相邻块的块匹配操作,计算得到各相邻块的SAD值;
S4、根据所述SAD值,选取时域最小SAD值得到最优时域相邻块,进行运动补偿预测,选取最小空域SAD值得到最优空域相邻块,进行视差补偿预测;
S5、根据所述运动补偿预测和视差补偿预测结果,计算得到深度图视差矢量。
本发明的一个实施例中,在步骤S2所述读取基本视点像素值和参考视点像素值之前,还包括:
将视频的测试序列的基本视点图像和参考视点图像转换成所述阵列能识别的二进制数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安邮电大学,未经西安邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911271204.8/2.html,转载请声明来源钻瓜专利网。