[发明专利]画虚拟线条的方法、装置、设备及存储介质在审
| 申请号: | 202010513115.6 | 申请日: | 2020-06-08 |
| 公开(公告)号: | CN111739121A | 公开(公告)日: | 2020-10-02 |
| 发明(设计)人: | 罗颖灵;郑新宇;吕君校;张洪涛 | 申请(专利权)人: | 北京联想软件有限公司 |
| 主分类号: | G06T11/20 | 分类号: | G06T11/20;G06T17/00;G06T19/00 |
| 代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王娇娇 |
| 地址: | 100085 北京市海淀*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 虚拟 线条 方法 装置 设备 存储 介质 | ||
1.一种在真实场景中画虚拟线条的方法,包括:
获取至少一帧视频图像,所述至少一帧视频图像组成目标场景对应的视频上被画出线条的第一动画,一帧所述视频图像至少包括所述线条的局部线段;
基于所述至少一帧视频图像、三维场景模型以及预设的目标用户位置信息,得到所述线条位于所述三维场景模型的三维坐标集合;
其中,所述三维坐标集合包括位于所述线条上的至少一个点分别对应的三维坐标;所述三维场景模型包含所述目标场景对应的预构建的三维预测场景模型;
在所述目标场景的所述三维坐标集合处显示包含画出所述虚拟线条的第二动画,其中,画出所述虚拟线条的画线方向与所述第一动画中画出所述线条的画线方向相同。
2.根据权利要求1所述在真实场景中画虚拟线条的方法,所述基于所述至少一帧视频图像、三维场景模型以及预设的用户位置信息,得到所述线条位于所述三维场景模型的三维坐标集合,包括:
基于所述至少一帧视频图像以及所述三维场景模型,得到所述线条位于三维场景模型的待调节三维坐标集合,所述待调节三维坐标集合包括位于所述线条上的至少一点分别对应的待调节三维坐标;
基于所述目标用户位置信息,调整所述待调节三维坐标集合包含的至少一个待调节三维坐标中表征深度方向的值,得到所述三维坐标集合。
3.根据权利要求2所述在真实场景中画虚拟线条的方法,所述基于所述至少一帧视频图像以及所述三维场景模型,得到所述线条位于所述三维场景模型的待调节三维坐标集合,包括:
针对每一帧视频图像,获取所述视频图像与所述三维场景模型对应的至少一组匹配点集合,一组匹配点集合包括位于所述视频图像上的第一匹配点以及位于所述三维场景模型的第二匹配点,以得到所述至少一帧视频图像分别对应的至少一组匹配点集合;
基于所述至少一帧视频图像分别对应的至少一组匹配点集合,得到所述线条位于所述三维场景模型的待调节三维坐标集合。
4.根据权利要求1所述在真实场景中画虚拟线条的方法,还包括:
确定所述用户在所述目标场景的当前工作模式为第一工作模式;
基于所述第一工作模式对应的预设的工作环境信息,调节所述目标场景中目标物对应的预构建的三维物体模型,以得到所述三维预测场景模型;
其中,一个所述工作环境信息包括:所述用户观看所述目标场景中的所述目标物的位姿信息、所述目标物所处形态,以及,至少表征所述用户在所述目标场景中位置的用户位置信息中的一种或多种,所述第一工作模式对应的用户位置信息为所述目标用户位置信息。
5.根据权利要求4所述在真实场景中画虚拟线条的方法,所述确定所述用户在所述目标场景的当前工作模式为第一工作模式包括:
基于当前采集的所述目标场景对应的至少一个视频,生成所述目标场景对应的三维真实模型的第一局部区域;
若所述第一局部区域与当前已调整的三维物体模型相应区域不匹配,基于预设的工作模式执行次序,获取第二工作模式的下一所述第一工作模式,当前已调整的三维物体模型是基于所述第二工作模式对应的工作环境信息调节得到的。
6.根据权利要求4或5所述在真实场景中画虚拟线条的方法,所述基于所述第一工作模式对应的预设的工作环境信息调节所述三维物体模型,以得到所述三维预测场景模型,包括以下至少一种:
基于所述目标用户位置信息,调节所述三维物体模型的尺寸;
基于所述第一工作模式对应的位姿信息,调整所述三维物体模型对应的视角;
基于所述第一工作模式对应的所述目标物所处形态,调整所述三维物体模型的形态,以得到所述三维预测场景模型。
7.根据权利要求1至5任一所述在真实场景中画虚拟线条的方法,还包括:
基于采集的所述目标场景的至少一个视频,构建所述目标场景对应的三维真实模型的第二局部区域;
基于所述三维预测场景模型与所述第二局部区域,获得所述三维场景模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京联想软件有限公司,未经北京联想软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010513115.6/1.html,转载请声明来源钻瓜专利网。





