[发明专利]一种光场相机的快速盲标定方法有效
| 申请号: | 201910257799.5 | 申请日: | 2019-04-01 |
| 公开(公告)号: | CN110009693B | 公开(公告)日: | 2020-12-11 |
| 发明(设计)人: | 金欣;孙绪福;戴琼海 | 申请(专利权)人: | 清华大学深圳研究生院 |
| 主分类号: | G06T7/80 | 分类号: | G06T7/80 |
| 代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 王震宇 |
| 地址: | 518055 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 相机 快速 标定 方法 | ||
一种光场相机的快速盲标定方法,包括:在主透镜与图像传感器之间插入微透镜阵列以搭建初始的光场相机2.0结构,根据成像过程建立光场相机2.0标定数学模型;利用搭建的光场相机2.0结构对三层以上深度标定板进行拍摄,并记录图像传感器采集的标定板图像,该标定板具有三个或更多个不同的深度,提供不同深度位置处的块尺寸值;基于光场相机2.0结构下微透镜成像部分交叠的特性,结合采集到的标定板图像,获取标定板图像的每个深度位置处的块尺寸值;将块尺寸值代入到光场相机2.0标定数学模型,计算得到微透镜阵列的几何参数,实现对光场相机的快速标定。本发明能够在单次拍摄的条件下准确获取光场相机2.0结构的几何参数,实现对光场相机的快速标定。
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及光场相机2.0的一种快速盲标定方法。
背景技术
光场相机不同于传统相机的最大之处在于其结构中加入了微透镜阵列,因而使得图像传感器上能够记录更多的有效信息,包括场景的方向信息和位置信息等。正是由于这种结构,使光场相机具有许多特殊的本领,如拍照后重新聚焦、转换视角、获取深度信息等。由于光场相机具有能够同时捕获光线的位置与方向信息的特点,使得其在虚拟现实、全息技术、三维重建等方面受到广泛的关注。为了获得较好的成像效果,光场相机对于微透镜阵列的位置要求较高,因此需要精准的光场相机标定方法。
光场相机1.0是指图像传感器到微透镜阵列的距离等于微透镜焦距的光场相机,而光场相机2.0指的是图像传感器到微透镜阵列的距离不等于微透镜焦距的光场相机。由于光场相机1.0的每个微透镜下的子图像是场景中某个点的各个方向的积分,只是描述了角度信息,所以它的子图像几乎是看不出真实场景的纹理信息;相反光场相机2.0的子图像适度地减少了角度信息,同时增加了位置信息。
现有的光场相机标定及搭建方法主要是通过在已有微透镜阵列结构参数的先验基础上,利用高斯公式计算出对应的物距及像距并搭建相应光场相机结构,之后利用图像传感器记录的图像微调微透镜阵列和物体的位置来使得图像传感器所成像清晰。虽然这种方法能够实现对光场相机的搭建,但往往不能够获取准确的结构参数导致微透镜阵列实际位置与理论位置有偏移,图像传感器记录的非最佳成像。此外,在对光场采集到的图像进行处理的过程中,准确的几何参数能够获取更加精准的结果,因此实现对光场相机2.0结构的快速标定具有重要意义。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明的主要目的在于弥补现有技术的上述缺陷,提出一种光场相机的快速盲标定方法,能够通过单次拍摄成像实现对光场相机2.0结构几何参数的获取,增强图像处理过程中数据的准确性,并提升重聚焦、深度图获取、视角转变等功能的精确度。
为此,本发明提出一种光场相机的快速盲标定方法,包括以下步骤:
A1:在主透镜与图像传感器之间插入微透镜阵列以搭建初始的光场相机2.0结构,根据成像过程建立光场相机2.0标定数学模型;
A2:利用搭建的所述光场相机2.0结构对三层以上深度标定板进行拍摄,并记录所述图像传感器采集的标定板图像,其中所述三层以上深度标定板具有三个或更多个不同的深度,提供不同深度位置处的块尺寸值;
A3:基于光场相机2.0结构下微透镜成像部分交叠的特性,结合步骤A2采集到的所述标定板图像,获取所述标定板图像的每个深度位置处的块尺寸值;
A4:将步骤A3得到的所述标定板图像的不同深度位置处的块尺寸值代入到步骤A1建立的所述光场相机2.0标定数学模型,计算得到所述微透镜阵列的几何参数,实现对光场相机的快速标定。
进一步地:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳研究生院,未经清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910257799.5/2.html,转载请声明来源钻瓜专利网。





