[发明专利]一种基于生成对抗网络的无参考图像质量评价方法有效
申请号: | 201810459572.4 | 申请日: | 2018-05-15 |
公开(公告)号: | CN108648188B | 公开(公告)日: | 2022-02-11 |
发明(设计)人: | 桂冠;华文韬;熊健;杨洁;朱颖 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04;G06N3/08 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 朱妃;董建林 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 生成 对抗 网络 参考 图像 质量 评价 方法 | ||
本发明公开了一种基于生成对抗网络的无参考图像质量评价方法,包括以下步骤:使用生成对抗网络来构建图像训练模型;将高清无损图像作为训练数据集送入图像训练模型中进行训练学习,通过训练前鉴别网络判别所输入图像块的真伪性,并得到具有训练完备鉴别网络的无参考图像质量评价模型;将待评价图像送入无参考图像质量评价模型中,通过训练完备鉴别网络对待评价图像进行打分,及对打分结果进行加权,从而得到待评价图像的评价结果。本方法不仅解决使用传统的无参考图像质量评价方法对待评价图像进行质量评价只能针对图像的某一失真类型或是根据特定应用而进行设计的缺陷,还可以解决现有的使用神经网络的评价方法面临着训练数据收集困难的困境。
技术领域
本发明涉及一种无参考图像质量评价方法,特别是涉及一种基于生成对抗网络的无参考图像质量评价方法,属于深度学习技术领域。
背景技术
在无参考图像质量评价方法中,传统的评价方法主要集中于面向特定失真的图像质量评价。在面向特定失真的图像质量评价研究中,最为广泛的是对图像模糊和噪声的研究,另外还有针对块状效应的评价、针对JPEG压缩和JPEG2000压缩的评价等。但这些传统方法大多使用的是针对某一失真类型或根据特定应用进行设计的专用型模型,并且这类方法需要事先知道图像的失真类型,这也导致它们的推广与应用受到了限制。
随着深度学习理论的不断成熟,针对深度学习的无参考图像质量评价算法逐渐流行,如基于支持向量机(SVM)与基于卷积神经网络(CNN)建立学习模型的图像质量评价方法。这些基于深度学习的质量评价算法相比传统的无参考图像质量评价算法有了极大的提升,但它们的评价方法仍然受限于训练数据库的影响,并且有监督的训练模式也使得训练数据库的建立面临巨大的挑战。
发明内容
本发明的主要目的在于,克服现有技术中的不足,提供一种基于生成对抗网络的无参考图像质量评价方法,不仅解决使用传统的无参考图像质量评价方法对待评价图像进行质量评价只能针对图像的某一失真类型或是根据特定应用而进行设计的缺陷,还可以解决现有的使用神经网络的评价方法面临着训练数据收集困难的困境。
为了达到上述目的,本发明所采用的技术方案是:
一种基于生成对抗网络的无参考图像质量评价方法,包括以下步骤:
1)使用生成对抗网络来构建图像训练模型,所述生成对抗网络包括训练前生成网络和训练前鉴别网络;
2)将高清无损图像作为训练数据集送入图像训练模型中进行训练学习,通过训练前鉴别网络判别所输入图像块的真伪性,并得到具有训练完备鉴别网络的无参考图像质量评价模型;
3)将待评价图像送入无参考图像质量评价模型中,通过训练完备鉴别网络对待评价图像进行打分,及对打分结果进行加权,从而得到待评价图像的评价结果;
所述步骤2)将高清无损图像作为训练数据集送入图像训练模型中进行训练学习,并得到训练完备的无参考图像质量评价模型,具体为,
2-1)采用图像处理中的均匀分割法,将高清无损图像均匀的分割成若干个同等大小的高清无损图像方块,构成训练数据集;
2-2)将训练数据集送入图像训练模型中进行训练学习,使用训练前生成网络拟合训练数据集的数据分布;
再将随机噪声送入训练前生成网络,该训练前生成网络根据训练数据集的数据分布输出假数据样本;
2-3)将假数据样本与高清无损图像方块送入训练前鉴别网络进行鉴别输出判别结果,该训练前鉴别网络的输出通过sigmod激活函数量化至0~1之间;
其中,0表示训练前鉴别网络将输入图像的质量判别为差,1表示训练前鉴别网络将输入图像的质量判别为好;
所述sigmod激活函数为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810459572.4/2.html,转载请声明来源钻瓜专利网。