[发明专利]基于选通卷积神经网络的多任务全参考图像质量评价方法有效
| 申请号: | 201810418632.8 | 申请日: | 2018-05-04 |
| 公开(公告)号: | CN108596902B | 公开(公告)日: | 2020-09-08 |
| 发明(设计)人: | 蒋婷婷;黄晨;姜明 | 申请(专利权)人: | 北京大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04 |
| 代理公司: | 北京市商泰律师事务所 11255 | 代理人: | 黄晓军 |
| 地址: | 100871 北*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 任务 参考 图像 质量 评价 方法 | ||
本发明提供了一种基于选通卷积神经网络的多任务全参考图像质量评价方法。该方法包括:基于全参考图像质量评价数据集构建无监督训练数据集,利用无监督训练数据集对选通自编码器进行训练;构建包括编码器模块、抽象模块和预测模块的掩码选通卷积神经网络,使用训练好的选通自编码器初始化掩码选通卷积神经网络的编码器模块,利用全参考图像质量评价数据集对掩码选通卷积神经网络进行端到端的训练;利用训练好的掩码选通卷积神经网络对测试图片进行图像质量评价。本发明通过编码参考图像和失真图像之间的变换,同时估计图像质量分数和识别失真类型,能够更加充分准确的评价图像质量。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于选通卷积神经网络的多任务全参考图像质量评价方法。
背景技术
随着信息化时代的到来,多媒体(图像,视频等)成为日常生活中信息的重要载体。然而,在图像获取、处理、压缩、存储、传输和显示等过程中,任何一个阶段都可能造成图像质量的损失。图像质量评价已经成为信息工程领域重要的基础课题之一。
一般而言,图像质量评价分为两大类:主观质量评价和客观质量评价。根据参考源的有无,客观质量评价可以分为全参考、半参考、无参考客观图像质量评价。大多情况下,失真图像往往是参考图像经过某种失真变换得到,因此图像的质量与失真类型和失真程度紧密相关。
现有技术中的全参考图像质量评价方法往往局限于估计图像的质量分数,然而,光凭图像质量分数并不足以描述图像的质量。一方面,不同失真类型的失真图像可能具有相近的质量分数;另一方面,具有相同失真的不同图像可能具有完全不同的质量分数。
发明内容
本发明的实施例提供了一种基于选通卷积神经网络的多任务全参考图像质量评价方法,以实现准确地评价图像质量。
为了实现上述目的,本发明采取了如下技术方案。
一种基于选通卷积神经网络的多任务全参考图像质量评价方法,包括:
基于全参考图像质量评价数据集构建无监督训练数据集,利用无监督训练数据集对选通自编码器进行训练;
构建包括编码器模块、抽象模块和预测模块的掩码选通卷积神经网络,使用训练好的选通自编码器初始化掩码选通卷积神经网络的编码器模块,利用所述全参考图像质量评价数据集对掩码选通卷积神经网络进行端到端的训练;
利用训练好的掩码选通卷积神经网络对测试图片进行图像质量评价。
进一步地,所述的基于全参考图像质量评价数据集构建无监督训练数据集,包括:
将全参考图像质量评价数据集划分为训练集和验证集,从训练集的图像对中随机裁剪图像块对构建无监督训练数据集的训练集,从验证集的图像对中随机裁剪图像块对构建无监督训练数据集的验证集,所述图像对包括参考图像和失真图像,所述图像块对包括参考图像块和失真图像块;
对所述无监督训练数据集的训练集和验证集中的所有数据进行归一化操作。
进一步地,所述的利用无监督训练数据集对选通自编码器进行训练,包括:
构建包括编码器模块和解码器模块的选通自编码器模型,将所述无监督训练数据集中的参考图像块x,失真图像块y输入到选通自编码器模型中的编码器模块,选通自编码器模型中的解码器模块输出重构的参考图像块和失真图像块
基于输入的参考图像块x、失真图像块y和重构的参考图像块失真图像块对构建损失函数,使用基于所述损失函数的优化算法,迭代多个周期利用无监督训练数据集对选通自编码器模型进行训练,调整所述选通自编码器模型网络的权重。
进一步地,所述的将所述无监督训练数据集中的参考图像块x,失真图像块y输入到选通自编码器模型中的编码器模块,选通自编码器模型中的解码器模块输出重构的参考图像块和失真图像块包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810418632.8/2.html,转载请声明来源钻瓜专利网。





