[发明专利]一种基于前馈神经网络的实时角色服装布料动画模拟方法在审
| 申请号: | 202110194168.0 | 申请日: | 2021-02-21 |
| 公开(公告)号: | CN112819930A | 公开(公告)日: | 2021-05-18 |
| 发明(设计)人: | 朱青;孟彦宁;齐娜 | 申请(专利权)人: | 北京工业大学 |
| 主分类号: | G06T13/40 | 分类号: | G06T13/40;A63F13/537;A63F13/60;A63F13/79 |
| 代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
| 地址: | 100124 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 神经网络 实时 角色 服装 布料 动画 模拟 方法 | ||
一种基于前馈神经网络的实时角色服装布料动画模拟方法涉及计算机科学技术学科的两个领域:它一方面属于计算机图形学‑计算机动画‑布料模拟问题,另一方面属于人工智能‑机器学习‑深度学习。本发明对于给定角色与服装,在游戏等实时交互应用中,用户输入当前时刻角色动画,本方法可以实时输出当前时刻布料顶点。本发明包括两部分,一部分是一个由服装特征提取和动画推断两部分组成的模型(Neural Cloth Simulation,简称NCS),另一部分是数据集生成管线。通过构建一个完整实例,证明本发明的可行性,它取得了可实时交互的运行速率以及较低且稳定的误差。在实际应用中,开发者可以根据需求调整模型的超参数,达到所期望的效率与结果的平衡。
技术领域
本发明涉及计算机科学技术学科的两个领域。一方面,它属于计算机图形学领域,进一步,它属于计算机动画分野的布料模拟问题,特别的,本发明是一种针对给定角色与服装的实时布料动画模拟方法。另一方面,它属于人工智能领域,机器学习的神经网络方法,特别的,它涉及前馈神经网络和自编码器。
背景技术
在游戏、虚拟仿真等实时交互应用中,布料动画是重要的视觉表现效果之一:角色服装随着人物动作出现褶皱,或因阵风吹过而上下翻飞。作为日常生活中最常见的现象之一,真实的布料动画可以显著地提升虚拟世界的真实感。目前已有许多基于物理和非物理的研究被提出,如Mass-Spring System、Position Based Dynamics、Projective Dynamics等。这些方法取得了很好的视觉效果,但存在性能问题。为了尽可能获得细节动画,需要建立细密的网格模型,使得表达顶点间相互作用的运动方程的解算规模过大,同时方程求数值解涉及复杂的矩阵运算,复杂的网格也给角色碰撞造成性能问题。对此,一些加速计算的优化算法被提出。游戏在每一帧中都有许多运算需要进行,真正留给布料模拟的时间预算并不多,因此它难以出现在产品级的实时应用中落地。
数据驱动方法,作为另一种思路,目标是用数据学习真实值的近似。此类方法离线生成大量动画数据,在运行时进行插值,或者与传统方法的模拟结果混合。近年来出现了基于神经网络的方法,这些研究体现了一定的运行效率提升,更加重要的是,通过调整网络超参数,可以让模型规模可控,而工业应用往往面临运算时长受限、内存有限等诸多限制,因此该方法可以适应这种需求。但该方法仍然存在效果不佳的问题。
发明内容
为了解决上述现有解决方案中的不足,即运算过慢问题,本发明提出一种基于前馈神经网络的实时服装布料模拟方法。本发明的优点在于,在速度快且计算规模可控的前提下,保持较好的布料动画效果。这是传统方法做不到的。
具体来讲,对于给定角色与服装,在游戏等实时交互应用中,用户输入当前时刻角色动画,本方法可以实时输出当前时刻服装模型(即布料顶点),从而满足实时交互的目的。即,对于三维欧几里得空间下有N个顶点的服装,第t帧时服装的状态用顶点位置表示。角色动画用骨骼动画实现,以J根骨骼在该时刻的位置表示。给定角色模型、绑定以及服装网格,本发明输入当前时刻角色动作Mt,输出对应的布料动画Vt。实验结果表示,本发明的实例可以在0.6毫秒内计算一帧拥有1891个顶点模型的布料动画(2018年主流笔记本电脑)。计算规模可控是指使用者可以通过调节网络的超参数中全连接层的维度来改变计算量。
本发明包括两部分,一部分是一个由服装特征提取和动画推断两部分组成的模型(Neural Cloth Simulation,简称NCS),另一部分是数据集生成管线。因为使用了神经网络模型,在运行时之前需要对网络参数进行训练,为此需要构建数据集,所以本说明书不光在“发明内容”一节介绍两部分发明,还在“具体实施方式”中介绍了实际使用时的三个步骤。
一、Neural Cloth Simulation
Neural Cloth Simulation模型由Garment Feature Auto-Encoder(GFE)和Animation Inference Network(AIN)两个神经网络模型构成。接下来介绍两个部分。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110194168.0/2.html,转载请声明来源钻瓜专利网。





