[发明专利]一种融合焦点堆栈和全聚焦图像的光场特征提取方法在审
| 申请号: | 202011432055.1 | 申请日: | 2020-12-07 |
| 公开(公告)号: | CN112465796A | 公开(公告)日: | 2021-03-09 |
| 发明(设计)人: | 金欣;周思瑶 | 申请(专利权)人: | 清华大学深圳国际研究生院 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/46 |
| 代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 方艳平 |
| 地址: | 518055 广东省深圳市*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 融合 焦点 堆栈 聚焦 图像 特征 提取 方法 | ||
本发明公开了一种融合焦点堆栈和全聚焦图像的光场特征提取方法,包括以下步骤:A1:输入光场数据,对所述光场数据进行解码和预处理得到光场子视角图像阵列,根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;A2:将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合,根据所述图像集合生成高斯差分金字塔;A3:搜索所述高斯差分金字塔中的局部极值点作为特征点位置,并生成对应的特征点描述符。本发明提出的光场特征提取方法能够提取深度和尺度都鲁棒的四维光场特征点。
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种融合焦点堆栈和全聚焦图像的光场特征提取方法。
背景技术
图像的点特征是一个稀疏的向量组合,可以表示图像区别于其他图像的自身特征,是计算机识别和理解图像的开始。点特征也用来寻找不同图像中的对应位置,从而应用于图像拼接、三维重建、SLAM等领域。
手持式光场相机在图像传感器前放置一个微透镜阵列,能够在一次拍摄中同时记录场景光线的空间位置和方向信息,因此可以为图像重聚焦、深度图估计、虚拟现实等领域的研究提供助力。光场通常被参数化为二维空间信息与二维角度信息的组合,被描述为四维光场。因为光场有四个维度,而普通图像只包含两个维度,因此难以直接通过二维图像对四维光场进行描述,传统的二维图像特征提取方法不考虑图像角度信息,不能完整表征光场的高维信息。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种融合焦点堆栈和全聚焦图像的光场特征提取方法,能够提取深度和尺度都鲁棒的四维光场特征点。
为了达到上述目的,本发明采用以下技术方案:
本发明的一个实施例公开了一种融合焦点堆栈和全聚焦图像的光场特征提取方法,包括以下步骤:
A1:输入光场数据,对所述光场数据进行解码和预处理得到光场子视角图像阵列,根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像;
A2:将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合,根据所述图像集合生成高斯差分金字塔;
A3:搜索所述高斯差分金字塔中的局部极值点作为特征点位置,并生成对应的特征点描述符。
优选地,步骤A1中根据所述光场子视角图像阵列得到多个视角位置的焦点堆栈和全聚焦图像具体包括:提取所述光场子视角图像阵列中对角线视角上的光场自视角图像,根据对角线视角上的光场自视角图像生成对角线视角上的焦点堆栈和全聚焦图像。
优选地,生成的对角线视角上的焦点堆栈为:
其中,是角度域坐标为(u0,v0)的视角处的焦点堆栈,λ是重聚焦系数,L(u,v,s,t)表示根据所述光场数据解码后的光场,(u,v)为角度域坐标,(s,t)为空间域坐标,U、V是光场子视角图像阵列的行数和列数;
优选地,生成的全聚焦图像为:
其中,是角度域坐标为(u0,v0)的视角处的全聚焦图像,Depth是光场深度图索引。
优选地,步骤A2中将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联得到图像集合具体包括:采用下式将多个视角位置的所述焦点堆栈和所述全聚焦图像分别进行级联:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳国际研究生院,未经清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011432055.1/2.html,转载请声明来源钻瓜专利网。





