[发明专利]一种视频构建方法及系统有效
申请号: | 202110175132.8 | 申请日: | 2021-02-09 |
公开(公告)号: | CN112995537B | 公开(公告)日: | 2023-02-24 |
发明(设计)人: | 张旻晋;许达文 | 申请(专利权)人: | 成都视海芯图微电子有限公司 |
主分类号: | H04N5/262 | 分类号: | H04N5/262;G06T7/194;G06T5/50;G06V10/75 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 张超 |
地址: | 610000 四川省成都市中国(四川)自由*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视频 构建 方法 系统 | ||
本发明公开的一种视频构建方法及系统,方法包括:首先将描述同一视频的多种输入信息分别进行特征转换获取各输入信息的特征表征信息;然后依次获得各输入信息的表征抽象模型视、表征视频,接着对各表征视频进行融合处理得到一组融合图像集合,最后以和谐融合图集作为所有输入信息的构建视频输出,构建出流畅的视频作品;可实现针对不同风格与场景的视频生成,同时将所生成的视频进行融合与和谐化处理,最终构建出流畅的视频作品,同时对其中的并行运算过程具备加速功能,减少了计算量和内存占用,减少边缘设备工作量,使其快速构建视频。
技术领域
本发明涉及视频动画技术领域,具体涉及一种视频构建方法及系统。
背景技术
深度学习智能感知算法使电子设备具备准确的语义感知能力,如基于文本的语义识别,基于语音信息的语义识别,以及基于图像语义的识别,为设备刻画和表征环境与意图提供了良好的方法基础。而基于语义信息构建视频的方法在人物的视频预测与生成上也获得了良好的表达效果,从语音、文本、图像来生成视频的功能实现也将为动画、传播、教育、建筑等行业的设计工作提高效率。
当前智能算法可依据简单的平面构图可针对人体姿态,表情,嘴型,手势,场景实现视频的生成,也能针对智能算法训练进行针对特种风格的绘画图像生成。然而,当前所用智能方法均针对一种类型视频进行预测,而在实时应用中需要对多种视频预测,同时需要对不同预测类型的视频进行融合处理。
此外,针对当前方法的视频构建方法运算量巨大,在终端设备上的运行时间难以满足用户需求。
发明内容
为克服上述技术的缺陷,本发明提供一种视频构建方法及系统,该方法可实现针对不同输入类型进行风格与场景的视频生成,同时将所生成的视频进行融合与和谐化处理,最终构建出流畅的视频作品。
本发明通过下述技术方案实现:
本方案提供的一种视频构建方法,包括步骤:
S1.将描述同一视频的多种输入信息分别进行特征转换获取各输入信息的特征表征信息;
S2.将各输入信息的特征表征信息分别与抽象模型库进行匹配,生成基于各输入信息的表征抽象模型视图;
S3.将各输入信息的表征抽象模型视图分别输入视频生成算法模型中生成对应的表征视频;
S4.对各表征视频分别进行图像化处理最终得到一组融合图像集合;
S5.对融合图像集合执行和谐化处理生成和谐融合图集,以和谐融合图集作为所有输入信息的构建视频输出。
本方案工作原理:本方案提供的视频构建方法,可以将描述同一特征视频的不同描述信息同时作为输入信息构建出一个完整视频,当前智能方法依据简单的平面构图可针对人体姿态,表情,嘴型,手势,场景实现视频的生成,也能使用智能方法针对特种风格的绘画图像进行训练生成视频;但是现有的方法每次只能同时将同一种格式的信息进行视频构建,然而在实时应用中需要对多种类型的视频进行预测,同时需要对不同预测类型的视频进行融合处理,本方案提供的方法可以实现多种格式的视频描述信息同时输入(例如以语音描述信息作为第一输入信息,以图像描述信息/图像描述信息和语音描述信息作为第二输入信息),经过对多个输入信息的同步处理获得各输入信息的表征视频,最后再将所有表征视频进行融合等处理得到融合图像集合,最后得到一个完整的视频,该视频能够包含所有输入信息的特征;该视频构建方法不仅实现针对不同风格与场景的视频生成,多个输入信息的同步处理,有效提升视频构建效率。
进一步优化方案为,S1中所述输入信息的种类为手画抽象图、语音、文本、图像的一种或多种。
进一步优化方案为,S1中所述特征表征信息包括:文本表征信息,语义表征信息,特征图表征信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都视海芯图微电子有限公司,未经成都视海芯图微电子有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110175132.8/2.html,转载请声明来源钻瓜专利网。