[发明专利]一种基于生成对抗网络的无参考视频质量评价方法及装置有效
| 申请号: | 202010161674.5 | 申请日: | 2020-03-10 |
| 公开(公告)号: | CN111369548B | 公开(公告)日: | 2023-06-06 |
| 发明(设计)人: | 桑庆兵;朱泽;殷莹;孙俊;吴小俊 | 申请(专利权)人: | 江南大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/46;G06V10/80;G06V10/82;G06N3/045;G06N3/0464;G06N3/0475;G06N3/094 |
| 代理公司: | 无锡盛阳专利商标事务所(普通合伙) 32227 | 代理人: | 顾吉云;黄莹 |
| 地址: | 214000 江苏*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 生成 对抗 网络 参考 视频 质量 评价 方法 装置 | ||
本发明提供一种基于生成对抗网络的无参考视频质量评价方法,其无需原始视频信息,方法简单,适用范围广,且分类准确率高。首先利用生成对抗网络恢复失真视频帧块的分辨率,然后将失真视频帧块和与其对应的复原的视频帧块的显著图作为输入送入到视频质量评价网络,对失真视频帧块的质量进行评价。同时本发明还公布了一种基于生成对抗网络的无参考视频质量评价装置。
技术领域
本发明涉及图像处理技术领域,具体为一种基于生成对抗网络的无参考视频质量评价方法及装置。
背景技术
在视频的获取、存储、处理、传输过程中,会因为镜头精度不够、视频压缩、传输中数据丢失等等原因导致视频质量损失,进而导致最终得到的视频失真。技术人员为了让用户看到高质量的视频,通常会先对获得的视频质量进行评价,然后根据视频质量评价的结果对编码器、传输信道等等硬件参数进行调整。
现有的对视频质量评价方法分为全参考型、部分参考型、无参考型。全参考型和部分参考型评价方法都需要额外的带宽来传输原始视频及相关信息,而无参考质量评价方法不需要依赖原始视频,更具实用性。现有技术中,很多视频质量评价方法方法是利用卷积神经网络和循环神经网络提取失真视频的空域和时域特征,导致方法比较复杂,比如,目前主流的全参考方法ViS3和无参考方法V-BLIINDS。
ViS3:该方法首先估计视频序列在空域内由失真导致的图像退化状况,然后通过度量失真视频和参考视频之间的不相似度估计时域和空域视频质量退化,最后结合上两个阶段预估整体视频的客观质量评分;但是因为是全参考类型的方法,所以适用范围有限;
V-BLIINDS:该方法依赖于在离散余弦变换域上视频场景的时空模型,以及描述场景中发生的运动类型的模型来预测视频质量;该方法提出了一种视频时空自然场景统计模型和一种量化视频场景中运动相干性的运动模型;但是该方法对于因视频压缩过程中高频量的损失、摄像机对焦模糊等等原因导致的视频的质量评价效果不佳。
发明内容
为了解决现有的视频质量评价方法应用范围有限、面对压缩导致的视频评价能力欠缺的问题,本发明提供一种基于生成对抗网络的无参考视频质量评价方法,其无需原始视频信息,方法简单,适用范围广,且分类准确率高。同时本发明还公布了一种基于生成对抗网络的无参考视频质量评价装置。
本发明的技术方案是这样的:一种基于生成对抗网络的无参考视频质量评价方法,其包括以下步骤:
S1:获取失真视频和原始参考视频,分别抽取所述失真视频、所述原始参考视频的视频帧,得到失真视频帧、原始参考视频帧;将所述失真视频帧、所述原始参考视频帧的格式转换成指定的图片格式;
其特征在于:
S2:分别按照指定的像素数将所述失真视频帧、所述原始参考视频帧切块,同时将切块后的失真视频帧按照指定的压缩比率进行压缩,获得失真视频帧块、原始参考视频帧块;
S3:构建生成对抗网络模型;所述生成对抗网络模型包括:生成网络、判别网络;
所述生成网络的输入为所述失真视频帧块,通过卷积和上采样得到所述失真视频帧块对应的复原的视频帧块;
所述判别网络的输入为所述生成网络生成的所述复原的视频帧块;
所述判别网络判断所述复原视频块是否属于参考视频帧块;对于所述判别网络判断为不属于参考视频帧块的所述复原的视频帧块继续输入到所述生成网络中进行复原;
S4:训练所述生成对抗网络模型,得到训练好的所述生成对抗网络模型;
通过所述失真视频帧块训练所述生成网络,得到训练好的所述生成网络;
将所述复原的视频帧块和所述原始参考视频帧块作为输入训练所述判别网络,得到训练好的所述判别网络;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010161674.5/2.html,转载请声明来源钻瓜专利网。





