[发明专利]一种基于自然场景统计的深度图优化方法无效
申请号: | 201310257938.7 | 申请日: | 2013-06-24 |
公开(公告)号: | CN103391446A | 公开(公告)日: | 2013-11-13 |
发明(设计)人: | 曹汛;黄炜程;吕科;戴琼海 | 申请(专利权)人: | 南京大学;中国科学院大学;清华大学 |
主分类号: | H04N13/00 | 分类号: | H04N13/00;G06T7/00 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张大威 |
地址: | 210093 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自然 场景 统计 深度 优化 方法 | ||
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于自然场景统计的深度图优化方法。
背景技术
近年来,立体显示终端和立体视频成为了影视行业和科技领域的新热点,引起国内外科技工作者的极大关注。一个阻碍立体显示设备推广的关键问题是立体视频的缺乏。解决立体视频片源缺乏问题有两个途径。第一个途径是直接采用立体摄像机拍摄视频。这种方法需要一套专业的立体视频拍摄设备和完整的生产流水线,成本高昂。此外,立体摄像机对校准有着严格的要求,对拍摄环境及摄像机的运动也有一定的限制,这些都在很大程度上限制了直接采用立体摄像机拍摄视频这种方式的普及。第二个途径是利用现有平面视频的丰富资源,然后在后期制作时将平面视频转换为立体视频。这种方法的成本比直接用立体摄像机拍摄低很多,而且可以将现有的任何平面视频转换为对应的立体视频。考虑到现有平面视频的大量资源,如能将其转换为立体视频,不仅可以获得更好的观赏体验,还可以推进以立体电视、立体影院为代表的立体显示技术的推广普及。
电影产业中所运用的平面视频转立体视频方法基本上是对每一帧人工赋给它对应的深度图,这种方法十分费时,工作量较大,且成本相对较高,这些 缺点限制了平面视频转立体视频方法的应用。半自动方法通过引入人机交互,由人来提供平面视频中关键帧的深度信息,然后结合平面视频和扩展得到的深度图,通过一定的算法生成立体视频。在人机交互下,关键帧的深度信息已经相当准确,因此如何提高拓展到非关键帧的深度图的质量,成了半自动方法的关键。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的目的在于提出一种基于自然场景统计的深度图优化方法,该方法能够快速地对深度图进行优化,从而提升立体视频的质量。
为了实现上述目的,本发明的实施例提出了一种基于自然场景统计的深度图优化方法,包括以下步骤:提供平面图像及其初始深度图,并提取所述平面图像的亮度信息;对所述亮度信息进行域变换滤波;基于可控金字塔分别对滤波后的亮度信息和所述初始深度图进行小波分解以得到亮度小波金字塔和深度小波金字塔;根据自然场景统计信息对所述亮度小波金字塔构造高斯模型,并估算所述高斯模型的形状参数和伸展参数;对所述深度小波金字塔和形状参数和伸展参数通过贝叶斯理论构造能量函数,并对所述能量函数进行极小化以得到优化后的深度小波金字塔;以及基于所述可控金字塔对所述优化后的深度小波金字塔进行小波合成,以得到优化后的深度图。
根据本发明实施例的基于自然场景统计的深度图优化方法,可快速地对深度图进行优化,提高深度图的深度信息的准确性,从而在转换为立体视频后,可提升立体视频的质量,提升用户观赏体验。
另外,根据本发明上述实施例的基于自然场景统计的深度图优化方法还可 以具有如下附加的技术特征:
在一些示例中,所述提取所述平面图像的亮度信息,进一步包括:如果所述平面图像为灰度图,则直接将其作为亮度图,并提取亮度信息;如果所述平面图像为彩色图,则亮度图L为:L=0.2126·R+0.7152·G+0.0722·B,并提取亮度信息。
在一些示例中,对所述亮度图L的域变换滤波执行迭代过程,,所述过程包含m次迭代,m为正整数,每次迭代执行以下步骤:
A:第k次迭代,取反馈系数:
B:对亮度图L的每一行以从左至右的顺序构成一维信号,并通过一维递推域变换滤波法进行滤波;
C:对步骤B中得到的结果的每一行以从右至左的顺序构成一维信号,并通过一维递推域变换滤波法进行滤波;
D:对步骤C中得到的结果的每一列以从上至下,构成一维信号,并通过一维递推域变换滤波法进行滤波;
E:对步骤D中得到的结果的每一列以从下至下,构成一维信号,并通过一维递推域变换滤波法进行滤波。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学;中国科学院大学;清华大学,未经南京大学;中国科学院大学;清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310257938.7/2.html,转载请声明来源钻瓜专利网。