[发明专利]深度成像系统及其标定方法、深度成像方法、存储介质在审
申请号: | 202011433023.3 | 申请日: | 2020-12-09 |
公开(公告)号: | CN112598719A | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 张芊 | 申请(专利权)人: | 北京芯翌智能信息技术有限公司 |
主分类号: | G06T7/521 | 分类号: | G06T7/521;G06T7/80 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 张振军 |
地址: | 100190 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 成像 系统 及其 标定 方法 存储 介质 | ||
一种深度成像系统及其标定方法、深度成像方法、存储介质,深度成像系统包括:投影成像装置,包括光机镜头,用以对预设的投影图案进行投影,并获取待测物体对所述投影图案的反射图像;点云计算模块,用以根据投影图案、反射图像以及光机镜头的参数计算得到点云数据;对焦马达,用以响应于控制指令对所述光机镜头进行至少一次移动,每次移动后通过所述投影成像装置和所述点云计算模块确定相应的点云数据;点云融合模块,用以对多个点云数据进行融合,以得到待测物体的点云数据。本发明技术方案能够准确地获取高度差异超过深度成像系统工作景深的物体的点云。
技术领域
本发明涉及成像技术领域,尤其涉及一种深度成像系统及其标定方法、深度成像方法、存储介质。
背景技术
深度相机系统中使用光机投影条纹图案的结构光方法是最普遍的方案。这种光机投影的结构光方案其恢复点云的准确度取决于光机的光学特性。
结构光是一组由投影仪和摄像头组成的系统结构。使用结构光技术的深度相机系统原理如下,通过光机投射预先已知图案到空间中,并在空间内待测物体上发生反射。由于空间内待测物体表面纹理距离光机的深度不同,投影的图案会因此产生视差。摄像机捕捉到反射的图案并根据视差基于三角测量原理可以计算出待测物体的表面深度信息。由此可见,为保证正确解算出深度信息,需要投影到物体表面的图案纹理清晰。结构光投影光机以基于数字光处理(Digital light processing,DLP)微镜反射的投影系统为主。根据相应光学原理,其投影清晰像的距离有限,满足景深计算公式。实际应用中,为了减少环境光照影响及尽可能增强深色物体的成像效果,需要让光机的投影光通量尽可能大。因此光机镜头的光圈F值通常很小。
但是,在光机镜头的F值通常很小的情况下,光机投影的精确聚焦景深也很小,导致整个深度相机系统的工作景深很小。当对高度差异超过系统景深物体进行3D成像时,其表面成像将会失焦,当出现失焦时,物体表面的投影图案会变得模糊,此时根据视差算法计算的点云将极易出现深度误差,无法准确得到物体表面真实深度信息,将出现超出部分产生飞点现象甚至点云缺失等问题。
发明内容
本发明解决的技术问题是如何准确地获取高度差异超过深度成像系统工作景深的物体的点云。
为解决上述技术问题,本发明实施例提供一种深度成像系统,深度成像系统包括:投影成像装置,包括光机镜头,用以对预设的投影图案进行投影,并获取待测物体对所述投影图案的反射图像;点云计算模块,用以根据所述投影图案、所述反射图像以及所述光机镜头的参数计算得到点云数据;对焦马达,用以响应于控制指令对所述光机镜头进行至少一次移动,每次移动后通过所述投影成像装置和所述点云计算模块确定相应的点云数据;点云融合模块,用以对多个点云数据进行融合,以得到所述待测物体的点云数据。
可选的,所述投影成像装置还包括:结构光控制器,用以生成所述投影图案,以及所述控制指令;数字光处理模块,用以响应于所述控制指令对所述投影图案进行投影;相机,用以拍摄所述待测物体对所述投影图案的反射图像。
可选的,所述点云计算模块根据所述投影图案、所述反射图像以及所述光机镜头所处当前位置对应的标定参数计算得到所述点云数据。
可选的,所述对焦马达每次对所述光机镜头移动预设距离。
可选的,所述点云融合模块对所述多个点云数据进行加权平均,以得到所述待测物体的点云数据。
可选的,所述点云计算模块利用视差算法计算所述点云数据。
为解决上述技术问题,本发明实施例还公开了一种基于所述深度成像系统的标定方法,标定方法包括:确定基础工作距离;至少对所述光机镜头进行初次标定,以得到对应的一组标定参数;通过所述对焦马达对所述光机镜头进行至少一次移动,并至少对所述光机镜头进行至少一次标定,以得到对应的至少一组标定参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京芯翌智能信息技术有限公司,未经北京芯翌智能信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011433023.3/2.html,转载请声明来源钻瓜专利网。