[发明专利]一种基于纹理的深度图像边界修正方法有效
申请号: | 201610007975.6 | 申请日: | 2016-01-07 |
公开(公告)号: | CN105678765B | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 金欣;许娅彤;张新;戴琼海 | 申请(专利权)人: | 深圳市未来媒体技术研究院;清华大学深圳研究生院 |
主分类号: | G06T7/13 | 分类号: | G06T7/13 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 江耀纯 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 纹理 深度 边界 修正 方法 | ||
本发明涉及一种基于纹理的深度图像边界修正方法,包括如下步骤:A1、输入深度传感器(如Kinect)采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理图像边界为基准获取深度边界错位图;A3、计算准确深度点(好点)与误差深度点(坏点)的像素差值,确定边界错位区域;A4、根据错位区域分布特征,自适应地确定方形窗口边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域。利用本发明能够显著提高类似Kinect等低端深度传感器采集的深度图像边缘的准确性和时域稳定性,应用于三维重建、自由视点视频编码等领域,能有效提升场景三维重建质量和编码效率。
技术领域
本发明涉及计算机视觉与数字图像处理领域,特别涉及一种基于纹理的深度图像边界修正方法。
背景技术
深度图像常被用于三维重建、自由视点编码等诸多领域。现有的深度信息采集常常基于一些复杂和昂贵的传感器,如结构光相机或激光测距仪等。基于这些设备采集的深度图像,不仅受到各类噪声干扰,过低的分辨率也大大限制了将深度图像作为基础的其他研究应用的发展。以Kinect为代表的低端深度传感器,它们的售价低廉并且作为主动式传感器,能够快速获取场景的深度与纹理信息,因而在研究中被广泛使用。但是由于低端深度传感器主要通过发射结构光并接收其反射光线获取场景深度图像,因此受到环境光源与物体形状材质的严重干扰,致使采集的深度图像噪声较大,尤其在物体边界区域存在严重抖动准确性低的问题。由于边界区域包含了场景中物体的形状位置等重要信息,并且属于视觉敏感区域,深度图像边界误差严重影响到基于深度图像的其他应用,例如场景三维重建等。
为了提高低端深度传感器采集深度图像边界区域的质量,目前针对其深度图像边界成像缺陷提出了一系列的改进方法。其中具有代表性的方法有两种:对深度图像用双边滤波器预处理,然后在空域上将深度图划分为非边界区域与边界区域,针对边界区域用特殊加权法增强深度信息,该方法降低深度图像在物体边界区域的噪声,但由于缺乏对时域稳定性的限制,相邻各帧边界深度值仍存在较大波动;利用时域上多帧对应区域深度信息的纹理加权平均值提高深度图像稳定性,对当前帧深度图从时域和空域上进行联合双边滤波的方法使得深度图像在时域一致性上获得很大改善,平滑表面深度值的连续性显著提升,但是由于忽视对受噪声影响巨大的物体边界的处理,边界区域的滤波效果不够理想,边界错位有待抑制。
发明内容
本发明的目的在于提供一种基于纹理的深度图像边界修正方法,对边界区域进行更好的处理。
为此,本发明提出的一种基于纹理的深度图像边界修正方法,其特征在于包括如下步骤:A1、输入深度传感器采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理图像边界为基准获取深度边界错位图;A3、计算好点与坏点的像素差值,确定边界错位区域;其中好点是指准确深度点,坏点是指误差深度点;A4、根据错位区域分布特征,自适应地确定方形窗口W边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域;其中步骤A4中保证窗口W中好点占优,即好点个数Ngood多过坏点个数Nbad。
本发明的优点在于:
1)保证边界错位区域进一步地,通过算法能完全消除边界错位区域Er;
2)由于在深度增强处理前,即修正Dbad前,始终保证W中好点占优,因此提高了窗口W内所有好点的深度加权均值的可靠性,即保证错位区完全被窗口包含并且窗口内好点数量多过坏点数量,从而保证了深度增强处理的鲁棒性。
附图说明
图1是本发明实施例流程示意图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市未来媒体技术研究院;清华大学深圳研究生院,未经深圳市未来媒体技术研究院;清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610007975.6/2.html,转载请声明来源钻瓜专利网。