[发明专利]一种三维重建方法、装置、计算机设备及存储介质在审
| 申请号: | 202210589283.2 | 申请日: | 2022-05-27 |
| 公开(公告)号: | CN114972645A | 公开(公告)日: | 2022-08-30 |
| 发明(设计)人: | 汪伊 | 申请(专利权)人: | 深圳市商汤科技有限公司 |
| 主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T19/20 |
| 代理公司: | 北京中知恒瑞知识产权代理事务所(普通合伙) 11889 | 代理人: | 袁忠林 |
| 地址: | 518000 广东省深圳市*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 三维重建 方法 装置 计算机 设备 存储 介质 | ||
1.一种三维重建方法,其特征在于,包括:
获取针对目标场景采集的多个视频、以及与多个所述视频分别对应的信号数据;其中,所述信号数据是在采集所述视频时捕捉的位于所述目标场景内的目标信号源的信号得到的;每个视频包括多帧图像;
基于所述信号数据,从所述多个视频中确定多个关联图像对;
基于所述关联图像对,对所述目标场景进行三维重建,得到所述目标场景的三维模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述信号数据,从所述多个视频中确定多个关联图像对,包括:
提取多个视频中各帧图像的特征数据;
基于不同图像的特征数据之间的相似度,确定多个备选图像对;每个备选图像对中包括第一图像和第二图像;
基于多个备选图像对中第一图像和第二图像分别对应的信号数据,从所述备选图像对中,筛选所述关联图像对。
3.根据权利要求2所述的方法,其特征在于,所述基于多个备选图像对中第一图像和第二图像分别对应的信号数据,从所述备选图像对中,筛选所述关联图像对,包括:
针对多个备选图像对中的每个备选图像对,基于所述每个备选图像对中第一图像对应信号数据,以及所述每个备选图像对中第二图像对应信号数据,确定所述第一图像与所述第二图像之间的信号距离;
响应于所述第一图像和所述第二个之间的信号距离小于预设距离阈值,将所述备选图像对确定为所述关联图像对。
4.根据权利要求3所述的方法,其特征在于,所述信号数据包括:与所述目标视频中各帧图像分别对应的信号源标识信息;
所述基于所述每个备选图像对中第一图像对应信号数据,以及所述每个备选图像对中第二图像对应信号数据,确定所述第一图像与所述第二图像之间的信号距离,包括:
基于所述第一图像对应信号源标识信息、以及所述第二图像对应的信号源标识信息,确定所述第一图像和所述第二图像对应的共有信号源的数量;
基于所述数量,确定所述第一图像和所述第二图像对应的信号距离;其中,所述信号距离和所述共有信号源的数量成负相关。
5.根据权利要求3所述的方法,其特征在于,所述信号数据包括:与所述目标视频中各帧图像分别对应的信号强度信息、以及信号源标识信息;
所述基于所述每个备选图像对中第一图像对应信号数据,以及所述每个备选图像对中第二图像对应信号数据,确定所述第一图像与所述第二图像之间的信号距离,包括:
基于所述第一图像对应的信号源标识、和所述第二图像对应的信号源标识,确定所述第一图像和第二图像对应的共有信号源、和非共有信号源;
基于所述第一图像和所述第二图像分别对应的信号强度信息,确定所述共有信号源的强度差异;
基于所述强度差异、以及非共有信号源对应的预设信号距离,确定所述第一图像和所述第二图像之间的信号距离。
6.根据权利要求2-5任一项所述的方法,其特征在于,所述基于所述关联图像对,对所述目标场景进行三维重建,得到所述目标场景的三维模型,包括:
针对多个视频中的每个视频,基于所述每个视频中的多帧图像进行三维重建,得到所述每个视频对应的三维子模型;
基于所述关联图像对,将多个所述视频分别对应的三维子模型进行拼接处理,得到所述目标场景的三维模型。
7.根据权利要求6所述的方法,其特征在于,所述基于所述关联图像对,将多个所述视频分别对应的三维子模型进行拼接处理,得到所述目标场景的三维模型,包括:
针对每两个视频,确定该两个视频之间是否存在目标关联图像对;所述目标关联图像对中的第一关联图像和第二关联图像分别属于该两个视频;
响应于该两个视频之间存在所述目标关联图像对,基于该两个视频之间的目标关联图像对,确定该两个视频分别对应的三维子模型之间的转换关系信息,并基于所述转换关系信息,将该两个视频分别对应的三维子模型进行拼接处理;
基于多个视频分别对应的拼接结果,得到所述目标场景的三维模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市商汤科技有限公司,未经深圳市商汤科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210589283.2/1.html,转载请声明来源钻瓜专利网。





