[发明专利]一种基于卡尔曼滤波的由光场EPI重建稠密深度方法有效
申请号: | 202110897506.7 | 申请日: | 2021-08-05 |
公开(公告)号: | CN113610961B | 公开(公告)日: | 2022-12-09 |
发明(设计)人: | 王晓敏;刘畅;史立根 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卡尔 滤波 epi 重建 稠密 深度 方法 | ||
本发明公开了一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI;步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配;步骤3,将步骤2获得的不同方向的光场EPI的匹配点集合进行拼接,并将拼接后的离散点进行拟合成直线;步骤4,深度重建:在光场计算成像中,光场数据中相邻视点之间的视差与深度图存在反比例关系,因此使得深度重建问题被转化为视差重建问题。本发明能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
技术领域
本发明涉及计算机视觉与数字图像处理技术领域,特别是关于一种基于卡尔曼(Kalman)滤波的由光场EPI重建稠密深度方法。
背景技术
光场包含光线的空间和角度信息,刻画了场景中光线的辐照度,广泛应用于场景渲染、深度获取、计算摄影与三维重构。七维全光函数最早被提出用来形式化描述空间中任意时刻任意波长的光线辐照度信息。之后Levoy等人对其进行简化处理,提出了光场的双平面参数化L(u,v,x,y)模型。
基于四维光场的理论,由光场数据获取场景深度信息的方法可分为五类:基于多视点像素匹配的深度获取方法、基于宏像素角度一致性的深度获取方法、基于极线图的深度获取方法、基于编码孔径的深度图像获取方法和基于聚焦堆栈深度获取方法。基于多视点像素匹配的深度获取方法通过像素匹配获取任意物点在所有视点下的视差信息;基于宏像素角度一致性是利用角度一致性评估来获得场景的深度信息;基于极线图的深度获取方法通过搜索极线图中直线的斜率来获得视差信息;基于编码孔径通过对光路的编码和解码获得场景的深度信息;基于聚焦堆栈深度获取方法通过清晰度评价来估计深度。
高精度的深度重建方法可用于光场相机的深度信息获取,以及为三维场景重构提供精确的深度信息。但是,现有技术中缺少高精度的深度重建方法。
发明内容
本发明的目的在于提供一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,其能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
为实现上述目的,本发明提供一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:
步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI,(u,v)平面和(x,y)平面相互平行,间距描述为f;
步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配点,其具体包括:
步骤21,以光场EPI的中心视点为初始状态
步骤22,以X+和X-两个方向分别搜索光场EPI的匹配点,通过式(9),预测X+方向匹配点的下一个状态分别为以及预测X-方向匹配点的下一个状态
式中,Xi表示i时刻的状态变量,Xi-1表示i-1时刻的状态变量,表示修正后的i时刻的预测状态变量,表示修正后的i-1时刻的预测状态变量,Δt表示两个相邻状态变量之间的时间间隔,Wi为观测噪声:
步骤23,以预设倍数maxdisp的最大搜索视差为搜索范围进行搜索,计算X+方向上与中心视点(x0,y0)最接近的像素点(x1,y1)、以及X-方向上与中心视点(x0,y0)最接近的像素点(x1',y1'),则斜率分别对应为k1=(y1-y0)、k1'=(y0-y1');
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110897506.7/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种适用于边坡的排水结构及其施工方法
- 下一篇:一种羽绒服用锁绒面料