[发明专利]面向虚拟现实的协同渲染方法在审
申请号: | 201710419121.3 | 申请日: | 2017-06-06 |
公开(公告)号: | CN107274469A | 公开(公告)日: | 2017-10-20 |
发明(设计)人: | 崔勇;孙霖晖;赖泽祺 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T15/00 | 分类号: | G06T15/00;G06T19/00;H04L29/06;H04M1/725 |
代理公司: | 西安智大知识产权代理事务所61215 | 代理人: | 段俊涛 |
地址: | 100084 北京市海淀区1*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 虚拟现实 协同 渲染 方法 | ||
1.一种面向虚拟现实的协同渲染方法,其特征在于,包括如下步骤:
首先,将VR应用的内容拆分成动态交互内容和静态环境内容两个部分;
其次,利用手机本身的GPU实时地根据用户输入渲染、显示所述动态交互内容;利用云端的服务器渲染所述静态环境内容;
最后,手机在运行VR应用时,向服务器请求已渲染的静态环境内容,并与本地渲染好的动态交互内容在客户端进行叠加、组合得到最终VR应用的画面。
2.根据权利要求1所述面向虚拟现实的协同渲染方法,其特征在于,所述动态交互内容主要包括会根据用户的输入而发生改变的一些物体,它们的模型规模相对较小、渲染纹理相对简单,但是需要实时响应用户的输入;所述静态环境内容是构成整个虚拟环境的主要成分,它们的模型规模相对庞大、渲染纹理相对复杂,但是通常只随着用户在虚拟空间内的移动才发生连续性的改变和更新。
3.根据权利要求1所述面向虚拟现实的协同渲染方法,其特征在于,在虚拟现实场景下,通过如下步骤实现:
步骤(1),将目标VR应用的3D渲染模型拆分成两部分:交互模型和环境模型,分别对应VR应用的动态交互内容和静态环境内容;
步骤(2),服务器端加载VR应用的环境模型,并按固定间隔在模型空间中可到达的范围内遍历取点,对于每一个采样点,服务器都渲染出一张全景图,并以采样点对应三维位置信息作为其索引存储在服务器端;
步骤(3),客户端实时追踪、接收用户的姿势信息,客户端利用位置信息向服务器请求、获取对应位置的全景图;
步骤(4),客户端实时追踪、接收用户的交互信息,客户端根据交互信息利用手机的GPU实时渲染出动态交互内容;
步骤(5),客户端将获取的全景图加载、映射到球面上以产生360度环绕效果;同时客户端还利用全景图的深度信息将本地实时渲染得出的交互物体叠加到球面全景图上,完成前后景结合;
步骤(6),客户端根据方向信息在手机屏幕上以双眼畸变的形式显示出对应角度的最终合成画面。
4.根据权利要求3所述面向虚拟现实的协同渲染方法,其特征在于,所述步骤(2)中,固定间隔小于0.05米,所述步骤(3)中,姿势信息包括位置和方向信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710419121.3/1.html,转载请声明来源钻瓜专利网。