[发明专利]视频处理方法、相关装置及存储介质有效
申请号: | 202211667935.6 | 申请日: | 2022-12-23 |
公开(公告)号: | CN116074577B | 公开(公告)日: | 2023-09-26 |
发明(设计)人: | 请求不公布姓名 | 申请(专利权)人: | 北京生数科技有限公司 |
主分类号: | H04N21/44 | 分类号: | H04N21/44;G06N20/00 |
代理公司: | 北京箴思知识产权代理有限公司 11913 | 代理人: | 蒋志栋 |
地址: | 100086 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 处理 方法 相关 装置 存储 介质 | ||
1.一种视频处理方法,所述方法包括:
获取候选图像序列,所述候选图像序列通过预设对抗生成模型中的生成器,基于目标语音片段以及目标对象的面部图像得到;
基于所述候选图像序列获取目标损失,所述目标损失至少包括真实度判别损失,所述真实度判别损失至少基于所述候选图像序列的时序连接特征得到;所述候选图像序列包括多个候选图像;所述时序连接特征包括各个候选图像的图像表征和区域运动趋势变化值;所述区域运动趋势变化值包括:各个候选图像中全局区域的运动趋势变化值和相邻候选图像中对应区域的运动趋势变化值;
若所述目标损失未收敛,则基于所述目标损失更新所述生成器;
基于更新的生成器,获取更新的候选图像序列,直至目标损失收敛,并将目标损失收敛时的候选图像序列作为目标图像序列;
其中,在获取候选图像序列的时序连接特征时,获取各个候选图像中,每一个候选图像的各个预设区域的运动趋势变化值,作为所述时序连接特征,以便基于同一个候选图像中各个预设区域的运动趋势变化向量之间的距离,获取所述真实度判别损失;一个预设区域的运动趋势变化值基于该预设区域中的全部像素获取;所述预设区域根据目标对象讲话时面部会产生变化的重点区域事先确定。
2.如权利要求1所述的方法,其中,所述面部图像中包括多个目标区域,所述目标区域基于所述面部图像的预设关键点确定;
所述候选图像序列基于所述目标语音片段以及所述多个目标区域得到。
3.如权利要求1所述的方法,其中,得到所述目标图像序列之后,所述方法还包括:
获取所述目标对象的第一预设视频;
基于所述目标图像序列和目标语音片段更新所述第一预设视频,得到目标视频;
其中,所述目标图像序列用于更新所述第一预设视频中的面部图像序列。
4.如权利要求1所述的方法,其中,一个候选图像的图像表征基于预设图像通道的像素值获取,所述预设图像通道包括以下至少一项:亮度、色度、对比度和饱和度;
所述区域运动趋势变化值基于目标像素点在不同时序的数值确定;
所述目标像素点根据目标对象的预设面部关键点确定,所述预设面部关键点为第二预设视频中的目标对象讲话时突出显示的面部关键点。
5.如权利要求1所述的方法,其中,所述目标损失基于所述真实度判别损失、口型判别损失和图像质量判别损失加权得到,所述图像质量判别损失的权重值不小于全部类型的损失中至少一种的权重值;
所述口型判别损失基于各个候选图像的口型语义特征与各个目标语音的语义特征之间的距离得到,候选图像与目标语音的时序对应;
所述图像质量判别损失基于各个候选图像的面部特征与所述面部图像的面部特征之间的距离得到。
6.如权利要求5所述的方法,其中, 所述口型判别损失、所述图像质量判别损失由所述预设对抗生成模型中的第一判别器,基于所述候选图像序列得到;
所述真实度判别损失由第二判别器基于所述候选图像序列得到;
所述第二判别器基于所述生成器的参数数量从预设判别器库中得到。
7.如权利要求6所述的方法,其中,所述第二判别器预先通过以下方式从所述预设判别器库中得到:
获取目标参数数量,所述目标参数数量基于历史目标参数数量更新得到,所述目标参数数量大于所述历史目标参数数量,所述历史目标参数数量的初始值与所述生成器的参数数量的比例不大于第一预设值;
基于所述目标参数数量,从所述预设判别器库中获取候选判别器,其中,所述候选判别器的参数数量与所述目标参数数量的差值不大于第二预设值;
将所述生成器生成的图像序列输入所述候选判别器,以得到用于更新所述生成器的更新梯度值;
若所述更新梯度值小于第三预设值,则更新所述目标参数数量;
基于更新的目标参数数量,获取新的候选判别器,直至更新梯度值等于第三预设值,并将更新梯度值等于第三预设值时的候选判别器作为所述第二判别器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京生数科技有限公司,未经北京生数科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211667935.6/1.html,转载请声明来源钻瓜专利网。