[发明专利]策划的摄影测量有效
申请号: | 201780066254.5 | 申请日: | 2017-10-18 |
公开(公告)号: | CN109891189B | 公开(公告)日: | 2022-08-19 |
发明(设计)人: | N·伯顿;V·阮 | 申请(专利权)人: | 微软技术许可有限责任公司 |
主分类号: | G01C11/04 | 分类号: | G01C11/04;G06T7/73 |
代理公司: | 永新专利商标代理有限公司 72002 | 代理人: | 刘瑜;王英 |
地址: | 美国华*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 策划 摄影 测量 | ||
提供了生成摄影测量数据的方法。在一些实现方式中,当捕获设备围绕物理环境移动时,捕获设备捕获物理环境的图像序列,同时跟踪捕获设备的设备姿势。对于图像序列中的图像中的每一个图像,对应的设备姿势存储为图像的元数据。使用摄影测量,根据图像生成物理环境的三维(3D)模型,其中摄影测量针对图像中的每一个图像使用来自图像的元数据的对应设备姿势来生成3D模型。在另外的方面,可以使用用户反馈回路来指引用户将捕获设备移动至特定的设备姿势以用于捕获图像。用于捕获图像的另外的相机属性可以存储在其元数据中并且由摄影测量使用。
背景技术
三维(3D)捕获技术允许将现实世界的物体和环境再现为对应的3D虚拟物体。3D虚拟物体有许多可能的用途,例如,用于3D打印、增强现实(AR)和虚拟现实(VR)体验、快速原型制作、电影等等。典型地,3D虚拟物体可以通过利用一个或多个捕获设备捕获环境来生成,捕获设备包括能够检测现实世界的物理特征的任何数量的环境传感器。这些物理特征被转换为3D虚拟物体的对应特征。
使用摄影测量进行3D捕获的应用可以使用相机获取环境的一系列或者一组图像或者视频。这种摄影测量数据在不知道用于产生3D模型的数据的质量或者适合性的情况下,由系统简单地处理。典型地,摄影测量数据被任意地捕获,例如,每当用户按下相机的捕获按钮时图像应该被捕获,控制相机的移动或者位置用于捕捉,或者设置多个相机以同时地捕获数据。由于该过程的任意性,由摄影测量产生的3D模型趋向于包括降低模型质量的孔、间隙或者伪像。例如,这可能由于摄影测量数据不完整,数据在对于摄影测量不合适的条件下被捕获,或者摄影测量可能无法准确地表征摄影测量数据以确定用于产生模型的捕获条件。此外,摄影测量数据可能包括冗余信息,这增加了处理要求并且可能导致不一致的结果。
发明内容
在某些方面,本公开提供了获取摄影测量数据的系统和方法。在一些实现方式中,当用户围绕物体或者空间移动捕获设备时系统跟踪捕获设备,同时捕获设备提供捕获数据的视频馈送,其中提供了快照或者图像或者摄影测量数据。捕获设备的姿势被存储和监视以确保对图像的“捕获跟踪”满足所选场景的期望路径(例如,(多个)物体对空间捕获)。系统以一定间隔捕获图像,同时确保实现正确的图像到图像覆盖和图像之间的角度分离。在系统确定应该提供更多的摄影测量数据的情况下,系统提供用户反馈来将用户引导至正确的设备姿势以允许获得附加数据。在每个捕获位置处理视频馈送以确保图像内容是合适的并且相机参数是经调整的,以优化在该位置捕获的摄影测量数据。
在另外的方面,每个(多个)捕获位置与对应的设备姿势、捕获的图像或者多个图像以及图像特性(例如,相机固有参数)相关联。该信息作为摄影测量源材料用于后处理,以产生原始场景或者物体的3D纹理化重建。在一些情况下,捕获设备将这种摄影测量数据提供(例如,上传)至服务器(例如,云)或另一本地设备用于后处理。这可以在系统确定已经捕获了足够的摄影测量数据集以用于再现之后或者当摄影测量数据正在被捕获时发生。
本公开的方面提供了实时计算的姿势先验,其与每个对应的图像一起存储为设备姿势。这为摄影测量提供了针对特定照片的精确且准确的姿势,显著地改进了摄影测量在再现现实世界物体和空间方面的质量和可靠性。处理时间减少,因为系统监视是否已经获得了足够的摄影测量数据,从而可以将数据量调整至摄影测量要求而不捕获冗余数据。
附图说明
下面参考附图详细描述本发明,其中:
图1是示出根据本公开实施例的操作环境的示例的框图;
图2示出了根据本公开实施例的摄影测量系统的框图;
图3示出了根据本公开实施例的捕获会话的图示;
图4是示出根据本公开实施例的方法的流程图;
图5是示出根据本公开实施例的方法的流程图;
图6是示出根据本公开实施例的方法的流程图;
图7是示出根据本公开实施例的方法的流程图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于微软技术许可有限责任公司,未经微软技术许可有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780066254.5/2.html,转载请声明来源钻瓜专利网。