[发明专利]三维表面重建方法、装置、电子设备及存储介质在审
申请号: | 202211313699.8 | 申请日: | 2022-10-25 |
公开(公告)号: | CN115761112A | 公开(公告)日: | 2023-03-07 |
发明(设计)人: | 胡事民;黄家晖;陈浩翔 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06F17/11;G06T3/40;G06V10/764;G06N3/0464;G06N3/08 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 李文清 |
地址: | 100084 北京市海淀区双清路*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维 表面 重建 方法 装置 电子设备 存储 介质 | ||
本发明提供一种三维表面重建方法、装置、电子设备及存储介质,其中的方法包括:确定目标三维场景对应的多个不同尺度的体素网格,体素网格中的每一体素均包含一个基函数;根据体素网格对应的三维点云数据,获取与体素网格对应的基函数参数、法向数据以及目标标量;基于基函数参数、法向数据以及目标标量,确定基函数对应的基函数系数;根据基函数及其对应的基函数系数,对目标三维场景的三维表面进行重建。该方法能够最大限度尊重三维点云数据的三维位置信息,从而使得重建尽可能的精确,克服了现有技术中三维表面重建效率低下且重建结果精度不高的缺陷,实现了三维表面的快速重建。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种三维表面重建方法、装置、电子设备及存储介质。
背景技术
三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。
但是,传统的多视角几何重建方法在多视角捕获上耗时长,重建效率过低,且三维表面重建结果的精度不高,而以往深度学习的重建算法大多采用体素或是点云的输出结构,体素表示在提升精度时会极大地耗费内存和增加计算时长,从而,难以重建得到视觉效果良好的三维表面。
因此,如何解决现有技术中三维表面重建效率低下且重建结果精度不高的问题,是计算机视觉技术领域亟待解决的重要课题。
发明内容
本发明提供一种三维表面重建方法、装置、电子设别及存储介质,用以克服现有技术中三维表面重建效率低下且重建结果精度不高的缺陷,实现三维表面的快速重建。
一方面,本发明提供一种三维表面重建方法,包括:确定目标三维场景对应的多个不同尺度的体素网格,所述体素网格中的每一体素均包含一个基函数;根据所述体素网格对应的三维点云数据,获取与所述体素网格对应的基函数参数、法向数据以及目标标量;根据所述基函数参数、所述法向数据以及所述目标标量,确定所述基函数对应的基函数系数;根据所述基函数及其对应的基函数系数,对所述目标三维场景的三维表面进行重建。
进一步地,所述根据所述体素网格对应的三维点云数据,获取所述体素网格对应的基函数参数、法向数据以及目标标量,包括:将所述三维点云数据输入至自适应稀疏卷积网络,得到所述体素网格对应的所述基函数参数、所述法向数据以及所述目标标量;其中,所述自适应稀疏卷积网络包括编码器、体素解码器以及点云解码器,所述编码器与所述体素解码器跳层连接。
进一步地,所述将所述三维点云数据输入至自适应稀疏卷积网络,得到所述体素网格对应的所述基函数参数、所述法向数据以及所述目标标量,包括:通过所述编码器提取所述体素网格内三维点云数据的整体特征;通过所述体素解码器对所述整体特征进行卷积处理,得到所述体素网格对应的所述基函数参数和所述法向数据;基于所述体素解码器中各网络层的输出结果,通过三线性插值法获取所述各网络层对应的特征向量;并联所述各网络层对应的特征向量,并将并联后的特征向量输入至多层感知机,得到所述目标标量。
进一步地,所述基于所述基函数参数、所述法向数据以及所述目标标量,确定所述基函数对应的基函数系数,包括:根据所述基函数参数、所述法向数据以及所述目标标量,构建表面拟合的变分问题;通过伽辽金法对所述变分问题进行变形,并采用欧拉-拉格朗日定理求取所述变分问题的最小化条件;基于所述变分问题的最小化条件,构建线性方程;采用乔列斯基方法对所述线性方程进行求解,得到所述基函数系数。
进一步地,所述三维表面重建方法还包括:利用预设损失函数对所述自适应稀疏卷积网络进行训练,所述预设损失函数包括表面拟合损失函数、第一法向损失函数、第二法向损失函数以及结构分类损失函数。
进一步地,所述表面拟合损失函数、所述第一法向损失函数、所述第二法向损失函数以及所述结构分类损失函数的公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211313699.8/2.html,转载请声明来源钻瓜专利网。