[发明专利]深度图处理方法和装置有效
| 申请号: | 201910626063.0 | 申请日: | 2019-07-11 |
| 公开(公告)号: | CN110400331B | 公开(公告)日: | 2021-04-30 |
| 发明(设计)人: | 康健 | 申请(专利权)人: | OPPO广东移动通信有限公司 |
| 主分类号: | G06T7/254 | 分类号: | G06T7/254;G06T7/20;G06T7/50;G06T5/00 |
| 代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
| 地址: | 523860 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 深度 处理 方法 装置 | ||
本发明提出一种深度图处理方法和装置,其中,方法包括:根据第一深度图像帧采集时的的运动参数确定测量误差;确定相邻图像帧之间的深度差值;根据深度差值和测量误差在第一深度图像帧中确定可信像素和非可信像素,并确定与可信像素对应的第一平滑因子和与非可信像素对应的第二平滑因子;根据第一平滑因子对可信像素对应的深度值滤波处理,并根据第二平滑因子对非可信像素对应的深度值滤波处理。由此,基于时间维度自适应确定深度值对应的测量误差,进而,基于该测量误差确定深度图中的可信像素和非可信像素,以便于不同的像素进行不同的误差平滑处理,保证了图像帧滤波后的深度值误差具有时间一致性。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种深度图处理方法和装置。
背景技术
通常,在基于飞行时间(Time of flight,ToF)传感器测量物体的深度时,ToF传感器通过计算脉冲信号的飞行时间来确定传感器和物体之间的距离,进而基于距离确定出物体的深度值。其中,由于测量过程中存在着各类不确定性,带来了多种误差,在离线标定阶段已经对多种误差进行了修正,但是由于这些误差具有很大的随机性,这造成了在测量范围内ToF的深度测量误差大约为1%。在计算物体的深度值时,我们基于该固定的深度测量误差进行深度值的平滑处理。
然而,若在一定时间内,深度值的误差是固定的,即具有时间一致性,则会为我们的深度值的精确计算具有较大意义,因此,亟需一种方法能够保证深度误差在在短时间内具有时间一致性,不会发生深度误差的跳变。
发明内容
本发明旨在至少在一定程度上解决相关技术中,深度值的误差在时间上不一致具有跳变的技术问题之一。
为此,本发明的第一个目的在于提出一种深度图处理方法,基于时间维度自适应确定深度值对应的测量误差,进而,基于该测量误差确定深度图中的可信像素和非可信像素,以便于不同的像素进行不同的误差平滑处理,保证了图像帧滤波后的深度值误差具有时间一致性。
本发明的第二个目的在于提出一种深度图处理装置。
本发明的第三个目的在于提出一种电子设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本发明第一方面实施例提出了一种深度图处理方法,包括以下步骤:获取第一深度图像帧和采集所述第一深度图像帧时的运动参数,并根据所述运动参数确定测量误差;确定所述第一深度图像帧中每个像素与第二深度图像帧中对应的像素之间深度值的深度差值,其中,所述第二深度图像帧与所述第一深度图像帧相邻;根据所述深度差值和所述测量误差在所述第一深度图像帧中确定可信像素和非可信像素,并确定与所述可信像素对应的第一平滑因子和与所述非可信像素对应的第二平滑因子;根据所述第一平滑因子对所述可信像素对应的深度值滤波处理,并根据所述第二平滑因子对所述非可信像素对应的深度值滤波处理。
本发明第二方面实施例提出了一种深度图处理装置,包括:第一确定模块,用于获取第一深度图像帧和采集所述第一深度图像帧时的运动参数,并根据所述运动参数确定测量误差;第二确定模块,用于确定所述第一深度图像帧中每个像素与第二深度图像帧中对应的像素之间深度值的深度差值,其中,所述第二深度图像帧与所述第一深度图像帧相邻;第三确定模块,用于根据所述深度差值和所述测量误差在所述第一深度图像帧中确定可信像素和非可信像素,并确定与所述可信像素对应的第一平滑因子和与所述非可信像素对应的第二平滑因子;滤波模块,用于根据所述第一平滑因子对所述可信像素对应的深度值滤波处理,并根据所述第二平滑因子对所述非可信像素对应的深度值滤波处理。
本发明第三方面实施例提出了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如第一方面实施例所述的深度图处理方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于OPPO广东移动通信有限公司,未经OPPO广东移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910626063.0/2.html,转载请声明来源钻瓜专利网。





