[发明专利]虚拟形象的视频生成方法、装置、计算机设备和存储介质在审
申请号: | 202211245566.1 | 申请日: | 2022-10-12 |
公开(公告)号: | CN115690276A | 公开(公告)日: | 2023-02-03 |
发明(设计)人: | 赵安琪;方骅;奚晓斌;陈馥婧 | 申请(专利权)人: | 中国工商银行股份有限公司 |
主分类号: | G06T13/40 | 分类号: | G06T13/40;G06T13/20 |
代理公司: | 华进联合专利商标代理有限公司 44224 | 代理人: | 胡雪 |
地址: | 100140 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟 形象 视频 生成 方法 装置 计算机 设备 存储 介质 | ||
1.一种虚拟形象的视频生成方法,其特征在于,所述方法包括:
获取针对目标虚拟形象的形象描述标签集,将所述形象描述标签集输入至预训练的形象图像生成模型,得到与所述形象描述标签集对应的目标虚拟形象图像;
获取与所述目标虚拟形象所属的形象类型对应的向量动作变化参数集;所述向量动作变化参数集包括播报样本语音中的各样本音素对应的向量变化数据;所述各样本音素对应的向量变化数据为所述形象类型对应的预设形象执行各所述样本音素对应的发音动作时,所述预设形象的活动部位向量的向量变化数据;
将待播报语音中的各待播报音素与所述向量动作变化参数集中各所述样本音素对应的向量变化数据相匹配,得到所述目标虚拟形象与所述待播报语音相匹配的目标向量动作变化参数集;
根据所述待播报语音、所述目标向量动作变化参数集和所述目标虚拟形象图像,生成所述目标虚拟形象播报所述待播报语音的目标视频。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标虚拟形象对应的形象描述参数;所述形象描述参数为对所述形象描述标签集中与各形象描述类别对应的形象描述标签进行量化得到的;
在各预设形象类型所对应的预设形象描述参数中,确定所述形象描述参数对应的目标形象描述参数;
将所述目标形象描述参数对应的预设形象类型,作为所述目标虚拟形象所属的形象类型。
3.据权利要求2所述的方法,其特征在于,所述在各预设形象类型所对应的预设形象描述参数中,确定所述形象描述参数对应的目标形象描述参数,包括:
将所述形象描述参数中与各所述形象描述类别对应的形象描述子参数,作为各形象描述维度上的维度数据,得到所述目标虚拟形象对应的形象描述坐标;
根据K最近邻算法,在预设形象描述坐标中,确定与所述形象描述坐标距离最近,且在各所述形象描述维度上与所述形象描述坐标之间的距离小于预设距离阈值的第一形象描述坐标,作为目标形象描述坐标;所述预设形象描述坐标为将所述预设形象描述参数中与各所述形象描述类别对应的预设形象描述子参数,作为各所述形象描述维度上的维度数据得到的;
将所述目标形象描述坐标在各所述形象描述维度上的维度数据,作为所述目标形象描述参数。
4.根据权利要3所述的方法,其特征在于,若不存在所述第一形象描述坐标,所述在各预设形象类型所对应的预设形象描述参数中,确定所述形象描述参数对应的目标形象描述参数,包括:
在所述形象描述坐标和所述预设形象描述坐标所处的多维空间坐标系中,确定与各所述形象描述类别对应的目标形象描述维度;
在所述预设形象描述坐标中,分别确定在各所述形象描述类别对应的目标形象描述维度上,与所述形象描述坐标之间的距离最短的第二形象描述坐标;
将各所述第二形象描述坐标在对应的目标形象描述维度上的维度数据,作为所述形象描述参数在对应的所述目标形象描述维度上的维度数据,得到所述形象描述参数对应的目标形象描述参数。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练视频;所述训练视频为真实人员播报所述播报样本语音的正面人像视频;所述训练视频中的所述真实人员标记有活动部位样本向量;所述活动部位样本向量为对所述真实人员的活动部位进行向量标记得到的;
根据所述训练视频中所述真实人员执行各所述样本音素对应的发音动作时,所述真实人员的活动部位样本向量的变化,生成所述真实人员的活动部位样本向量对应的向量参数变化曲线;
根据K均值聚类算法,对所述训练视频中各所述真实人员的各活动部位样本向量之间的比例和对应的向量参数变化曲线进行归类,得到预设形象类型集以及与所述预设形象类型集中各预设形象类型对应的向量动作变化参数集;所述预设形象类型集为根据所述真实人员对应的形象描述样本标签得到的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国工商银行股份有限公司,未经中国工商银行股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211245566.1/1.html,转载请声明来源钻瓜专利网。