[发明专利]一种基于动态场景的实时光线追踪加速结构的方法有效
申请号: | 201811002620.3 | 申请日: | 2018-08-30 |
公开(公告)号: | CN109215106B | 公开(公告)日: | 2023-01-03 |
发明(设计)人: | 高天寒;李颖 | 申请(专利权)人: | 东北大学 |
主分类号: | G06T15/06 | 分类号: | G06T15/06 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 梁焱 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 动态 场景 实时 光线 追踪 加速 结构 方法 | ||
本发明提供一种基于动态场景的实时光线追踪加速结构的方法,涉及计算机图形学技术领域。该方法在图像渲染过程中首先对场景中的物体进行复杂度分类,再利用AABB包围盒以及内包围盒分别对不同复杂度的物体建立不同的包围盒,利用自顶向下和自底向上这两种构建方式相结合的方法构建BVH树,渲染出图。本发明提供的方法能减少光线求交次数,提高光线追踪算法效率,加快场景的渲染速度,非常适用于动态场景的实时渲染等方面,可将该方法应用于图像渲染优化等研究领域。
技术领域
本发明涉及计算机图形学技术领域,尤其涉及一种基于动态场景的实时光线追踪加速结构的方法。
背景技术
渲染是指利用软件将场景模型等信息生成图像的过程,是一项非常重要的技术。光线追踪技术是一种图像合成技术,也是真实感图形学领域中的重要算法,它通过模拟光线与物体表面的交点来实现图像的绘制,是一个在二维(2D)屏幕上呈现三维(3D)图像的方法。光线追踪是根据光学的能量传播的原理,模拟光线在场景中实际传播的过程:从摄像机发出光线,模拟光线在场景中折射、反射等传播情况,并不断计算获得的能量,同时不断迭代,直到达到收敛条件为止。这种方法计算出的图像具有绝对的真实性,可合成高品质的复杂3D场景。然而,由于光线追踪技术在使用中需要考虑全局因素,光源发出的每条光线都必须要与场景中包含的每一个多边形进行求交运算,这会耗费大量的计算资源。单纯的将传统的光线追踪技术用于场景渲染,效果不理想,效率也较低,不能实现实时场景的渲染。但时至今日,实时网游和影视化产业迅猛发展,仅仅基于静态场景的渲染已经远不能满足人们的需求。然而,已有的基于静态场景的渲染数据结构难以满足场景的实时绘制。因此,实现动态场景的实时光线追踪渲染是一个重要的研究方向。
包围盒加速技术是光线追踪算法中最早的加速技术之一,是利用几何特性简单的包围盒将渲染场景中的物体包围起来,利用这些包围盒与光线求交速度较快的思想预先判断光线与场景中的物体是否相交,从而以较小的代价去除与光线不相交的物体,以达到提高算法效率的目的,是加速光线追踪算法的关键步骤之一。在对场景进行空间划分的方法中,最常用的就是KD-tree(k-dimensional树的简称)和BVH-tree(Bounding VolumeHierarchies的简称),但针对动态场景,BVH-tree的性能优于KD-tree,但传统BVH算法需要很大的时间开销,这阻碍了在场景发生动态变化时BVH-tree的快速重建,这就需要对传统BVH-tree算法进行改进。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于动态场景的实时光线追踪加速结构的方法,能减少光线求交次数,提高光线追踪算法效率,加快场景的渲染速度,非常适用于动态场景的实时渲染等方面,可将该方法应用于图像渲染优化等研究领域。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于动态场景的实时光线追踪加速结构的方法,包括以下步骤:
步骤1:读取场景中的3D模型,将读取数据储存在GPU显存中,并保存这些3D模型的面片、顶点数量信息;
步骤2:利用步骤1中保存的场景3D模型物体的面片、顶点数量信息对场景中的3D模型进行复杂度分类,具体方法为:
首先针对不同场景设置场景的系统阈值,然后对场景中的所有3D物体进行复杂度分类,若该3D物体的面片顶点数值大于该阈值,则将该物体分类到复杂物体类别中;若该3D物体的面片顶点数小于等于该阈值,则将该物体分类到简单物体类别中;
步骤3:根据步骤2中的分类结果,复杂物体利用内包围盒的构造方法,简单物体利用轴对齐包围盒的构造方法,分别为场景中的所有3D物体建立各自的包围盒;
步骤4:根据场景中的模型分布,分别求出模型X轴、Y轴和Z轴的跨度,并利用坐标轴SAH机制划分空间;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811002620.3/2.html,转载请声明来源钻瓜专利网。