[发明专利]基于深度学习和SPH框架的流体动画生成方法及装置在审
申请号: | 201810317702.0 | 申请日: | 2018-04-10 |
公开(公告)号: | CN108717722A | 公开(公告)日: | 2018-10-30 |
发明(设计)人: | 应翔;仇强;于瑞国;喻梅;王建荣;于健 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T13/20 | 分类号: | G06T13/20;G06T17/20 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李林娟 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 流体模拟 数据驱动 神经网络模型 流体动画 流体 预处理 表面模型 场景数据 构造流体 计算效率 流体表面 流体网格 模拟场景 神经网络 数据文件 网络模型 数据集 离线 网格 学习 替换 存储 渲染 场景 输出 表现 | ||
本发明公开了一种深度学习和SPH框架的流体动画生成方法及装置,包括:构造深度学习模型,训练流体模拟数据以生成基于神经网络的数据驱动项;根据数据集的特征,构造神经网络模型,设定相关超参数,然后读取数据集进行预处理,进行网络模型的训练;将训练完成的神经网络模型导入到SPH流体模拟框架中,作为数据驱动项,替换流体模拟步骤中的压力项;将数据驱动项导入低精度流体场景数据后,进行SPH流体模拟计算;采用Marching Cubes算法构造流体表面模型,提取流体表面网格并输出,将每帧的流体网格存储为数据文件,用于离线渲染。实现了低精度SPH模拟场景下的流体高细节表现,提高大规模流体模拟场景的计算效率。
技术领域
本发明涉及计算机图形学中的流体模拟领域,同时包含深度学习领域的相关研究内容,尤其涉及拉格朗日流体模拟方案中的SPH(光滑粒子动力学)方法,采用SPH与深度神经网络相结合的方法,进行高精度、高效率的流体模拟的研究。
背景技术
流体模拟一直以来都是计算机图形学领域重要的研究课题,为了实现流体动画的高真实感,基于物理的流体模拟方案被大量研究和应用,其中,拉格朗日方法和欧拉方法是被广泛研究的流体模拟方法。与基于网格的欧拉方法相比,拉格朗日方法在细节表现方面有很多优势,其中,SPH算法是拉格朗日方法中最为广泛研究的对象。
SPH方法使用粒子进行流体建模,其中实现流体的不可压缩性是流体真实感的关键,长久以来,流体的不可压缩性是很多研究的重点,由此出现了很多改进的SPH方案。WCSPH(弱可压缩SPH)方法采用刚性状态方程,但为了保证计算的稳定性,必须施加严格的时间步长限制;其后,使用预测校正方案的PCISPH(预测校正不可压缩SPH)被提出,其在时间步长设置方面较WCSPH提升了一个数量级;为了提高算法的稳定性和收敛效率,IISPH(隐式不可压缩SPH)方法被提出。在这些改进的SPH方法中,压力项的计算效率是一个很大的桎梏,有效的提高压力项的计算效率对算法整体执行效率的改进有着十分重要的意义,而且由于大规模流体场景可能需要计算千万级乃至上亿数量的粒子,一个有效的算法加速策略亟待被提出。
发明内容
本发明提供了一种基于深度学习和SPH框架的流体动画生成方法及装置,本发明基于神经网络的数据驱动改进传统SPH流体模拟框架计算效率低的缺陷,实现低精度SPH模拟场景下的流体高细节表现,提高大规模流体模拟场景的计算效率,详见下文描述:
一种基于深度学习和SPH框架的流体动画生成方法,所述方法包括以下步骤:
根据一次迭代过程中的压力项的求解过程,获取压力项计算前和计算后的相关模拟数据;构造深度学习模型,训练流体模拟数据以生成基于神经网络的数据驱动项;
根据数据集的特征,构造神经网络模型,设定相关超参数,然后读取数据集,在训练之前,对数据集进行预处理,然后进行网络模型的训练,训练结束保存神经网络模型;
将训练完成的神经网络模型导入到SPH流体模拟框架中,作为数据驱动项,替换流体模拟步骤中的压力项;
将基于神经网络的数据驱动项导入低精度流体场景数据后,进行SPH流体模拟计算;
采用Marching Cubes算法构造流体表面模型,提取流体表面网格并输出,将每帧的流体网格存储为数据文件,用于离线渲染。
进一步地,所述方法还包括:
创建流体模拟场景的数据文件,所有流体数据及场景数据均通过外部的数据文件进行定义;
将场景文件中定义的数据转化为流场边界数据和流体参数,通过边界数据初始化流场边界,通过流体参数初始化流体。
其中,所述定义的内容包括但不限于:流体参数、流体位置及规模、流体边界条件、流场位置及规模。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810317702.0/2.html,转载请声明来源钻瓜专利网。