[发明专利]基于预测器-校正器的位姿检测有效
申请号: | 201780026415.8 | 申请日: | 2017-04-10 |
公开(公告)号: | CN109074667B | 公开(公告)日: | 2022-04-08 |
发明(设计)人: | C·阿尔塔;P·沃尔哈特;V·勒珀蒂 | 申请(专利权)人: | 高通股份有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73 |
代理公司: | 永新专利商标代理有限公司 72002 | 代理人: | 赵腾飞 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 预测 校正 检测 | ||
一种用于根据输入图像确定6DOF位姿的计算机实施的方法、设备、计算机可读媒体及移动装置。确定6DOF位姿的过程可包含处理输入图像以创建所述输入图像的一或多个静态表示,从所估计的6DOF位姿及2.5D参考地图创建所述输入图像的动态表示,并测量所述动态表示与所述输入图像的所述一或多个静态表示之间的相关性。可根据所述所测量的相关性误差迭代地调整所述所估计的6DOF,直到最终经调整的动态表示满足输出阈值。
本申请案主张在2016年5月20日申请的标题为“基于预测器-校正器的位姿检测(PREDICTOR-CORRECTOR BASED POSE DETECTION)”的序号为15/161,055的美国专利申请案的优先权权益,所述美国专利申请案以引用的方式并入本文中。
技术领域
本发明大体来说涉及基于计算机视觉的位姿检测,且更具体地涉及基于预测器-校正器的位姿检测。
背景技术
位置及定向(位姿)估计描述摄像机视角相对于可为已知或未知环境的校准或对准的任务。基于图像的位姿估计方法可用于估计六自由度(6DOF)位姿。基于图像的位姿估计传统上需要场景的一些重建或3D模型。例如,SLAM(同时定位及映射)或SFM(运动结构)系统可从摄像机捕获的传入图像序列重建三维(3D)点,并用于实时构建场景的3D地图(即,SLAM地图)。从重建的地图,可能在当前图像帧中定位摄像机的6DOF位姿。
相对于用户环境的准确6DOF自定位有利于增强现实(AR)应用中的正确及视觉上令人愉悦的结果。由于AR应用程序的交互性质,定位时间直接影响AR应用程序的用户体验,因为其确定用户在可开始与AR应用程序交互之前必须等待多长时间。因此,期望利用移动装置中发现的有限处理能力快速定位移动装置,同时保持所要应用的6DOF位姿的准确性。
然而,在某些情况下可能难以实现6DOF位姿初始化。例如,在室外环境中捕获足够的摄像机基线以初始化SLAM算法是具有挑战性的。另外,SLAM可在具有未知比例的任意参考中提供相对位姿,这对于AR系统(例如地标的导航或标记)可能为不够的。将SLAM地图的局部参考与具有度量尺度的3D地图的全局参考对准的现有方法要求用户等待直到SLAM系统已获取足够数量的图像以初始化3D地图。初始化所需要的等待对于实时交互式AR应用程序来说并不理想。此外,某些AR系统需要摄像机的特定技术动作以在可准确地初始化SLAM地图以开始跟踪摄像机位姿之前获取一系列图像。
另外,将捕获的图像帧与2.5D或3D地图对准的方法可能受到估计摄像机位姿的移动传感器的相对较差的准确性的限制。例如,严格使用全球定位系统(GPS)来估计用户的实际位置及观看方向的方法可能不足且使AR内容在实际用户视图中漂浮。因此,期望改进的方法。
发明内容
本文中所论述的一些实施例提供改进的6DOF位姿采集。在一个方面中,一种计算机实施的方法包含:创建输入图像的一或多个静态表示;从估计的6DOF位姿及2.5D参考地图创建输入图像的动态表示;测量动态表示与一或多个静态表示之间的相关性误差;根据相关性误差调整估计的6DOF位姿;根据经调整的6DOF位姿更新动态表示;以及响应于满足输出阈值而输出经调整的6DOF位姿。
在另一方面中,一种计算机可读媒体包含存储在其上用于确定图像的6DOF位姿的程序代码。程序代码包含用以进行以下操作的指令:创建输入图像的一或多个静态表示;从估计的6DOF位姿及2.5D参考地图创建输入图像的动态表示;测量动态表示与一或多个静态表示之间的相关性误差;根据相关性误差调整估计的6DOF位姿;根据经调整的6DOF位姿更新动态表示;以及响应于满足输出阈值而输出经调整的6DOF位姿。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于高通股份有限公司,未经高通股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780026415.8/2.html,转载请声明来源钻瓜专利网。