[发明专利]一种无参考非对称失真立体图像质量评价方法在审
申请号: | 201910632969.3 | 申请日: | 2019-07-12 |
公开(公告)号: | CN110517308A | 公开(公告)日: | 2019-11-29 |
发明(设计)人: | 陈勇;朱凯欣;刘焕淋 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06T7/593 | 分类号: | G06T7/593 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 400065*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 立体图像 深度信息 双目视觉 质量感知 组合行为 构建 双目 映射关系模型 极限学习机 质量分数 质量评价 非对称 固定的 视差图 特征域 单目 度量 加权 算法 失真 参考 | ||
1.一种无参考非对称失真立体图像质量评价方法,其特征在于:充分考虑双目视觉特性和深度质量度量,完成非对称立体图像质量度量。包括以下步骤:
步骤1:根据左右视图之间的结构相似度以及有用信息量的大小,对立体图像对的双目组合行为进行判断,并构建相应的独眼图来模拟人类视觉系统(Human Visual System,HVS)中的双目组合行为;
步骤2:在左、右视图以及上述独眼图上提取能够表征图像失真的统计分布特征和纹理特征;
步骤3:在加权视差图上提取水平深度感知特征,左右视图相关系数图上提取纵向深度感知特征;
步骤4:利用极限学习机(Extreme Learning Machine,ELM)进行训练,构建从特征域到质量分数域的映射关系。
2.根据权利要求1所述的一种无参考非对称失真立体图像质量评价方法,其特征在于:所述的步骤1具体通过以下方式实现:使用结构相似度模型计算左右视图的结构相似度值S,并通过阈值设置,将立体图像对在HVS中的组合行为分为双目融合和双目竞争(双目抑制是双目竞争的一种特殊情况)。然后,计算左右视图的有用信息量,若差异较小,则判为双目竞争;若差异较大,则判为双目抑制,并选取信息量大的视图主导整个融合过程,因为有主观实验证明信息量大的视图更容易吸引HVS的注意力。最后,根据不同的双目行为构建相应的独眼图来模拟HVS的双目组合行为,而非使用固定独眼图模拟三种不同的双目行为。
3.根据权利要求1所述的一种无参考非对称失真立体图像质量评价方法,其特征在于:所述的步骤3具体通过以下方式实现:双目视差导致左右视图出现不匹配信息,这种不匹配信息是为立体图像带来深度信息的主要原因,但是,不是所有区域的不匹配信息对人眼的吸引力都是一样的,本发明根据人眼视觉注意机制,为像素点(i,j)处视差值d(i,j)分配权重ω(i,j),从而获得式(1)所示,用于度量立体图像深度质量的加权视差图Dω。
由于失真会改变视差图的统计特征,因此,本发明选取一些简单的统计特征,如:峰度k和偏斜度s,作为水平深度特征,如式(2-3)。
Dω(i,j)=ω(i,j)*d(i,j) (1)
k=E[(Dω-E(Dω))4]/E[(Dω-E(Dω))2] (2)
s=E[(Dω-E(Dω))3]/(E[(Dω-E(Dω))2])3/2 (3)
4.根据权利要求1所述的一种无参考非对称失真立体图像质量评价方法,其特征在于:所述的步骤3具体通过以下方式实现:虽然双目视差是产生深度信息的主要原因,但是它反映的是空间中给定点的左右视网膜投影之间的水平位置差异,从而忽略了由非对称失真导致的左右视图纵向差异对深度信息带来的影响。因此,本发明利用自相关函数按列计算左视图Il与右视差补偿图Idr,以及右视图Ir与左视差补偿图Idl纵向信息变化的相关系数图,然后提取统计特征,表征左右视图纵向不匹配信息对深度质量的影响。
Idl(i,j)=Il((i,j)+dl(i,j)) (4)
Idr(i,j)=Ir((i,j)+dr(i,j)) (5)
其中,dl(x,y)表示以左视图为主视图,基于结构相似度量算法(SSIM)从右视图中找其最大相似点,并计算两点之间的差值,dr(x,y)表示以右视图为主视图,基于SSIM算法从左视图中找其最大相似点,并计算两点之间的差值。
5.根据权利要求1所述的一种无参考非对称失真立体图像质量评价方法,其特征在于:所述的步骤4具体通过以下方式实现:利用极限学习机(Extreme Learning Machine,ELM)进行训练,学习从特征域到质量分数域的映射关系模型。ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910632969.3/1.html,转载请声明来源钻瓜专利网。