[发明专利]一种无参考模糊失真立体图像质量评价方法有效

专利信息
申请号: 201410245174.4 申请日: 2014-06-03
公开(公告)号: CN104036502A 公开(公告)日: 2014-09-10
发明(设计)人: 邵枫;王珊珊;李柯蒙 申请(专利权)人: 宁波大学
主分类号: G06T7/00 分类号: G06T7/00;G06K9/66
代理公司: 宁波奥圣专利代理事务所(普通合伙) 33226 代理人: 周珏
地址: 315211 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种无参考模糊失真立体图像质量评价方法,其在训练阶段,选择多幅无失真立体图像和对应的模糊失真立体图像构成训练图像集,然后采用Fast-ICA方法进行字典训练操作,构造训练图像集中的每幅图像的视觉字典表;通过计算每副无失真立体图像和对应的模糊失真立体图像的视觉字典表之间的距离,构造每副失真立体图像的视觉字典表的视觉质量表;在测试阶段,对于任意一副测试立体图像,对测试立体图像的左视点图像和右视点图像进行非重叠的分块处理,然后根据已构造的视觉字典表和视觉质量表,获取测试立体图像的图像质量客观评价预测值;优点是计算复杂度低,且客观评价结果与主观感知的相关性好。
搜索关键词: 一种 参考 模糊 失真 立体 图像 质量 评价 方法
【主权项】:
一种无参考模糊失真立体图像质量评价方法,其特征在于包括训练阶段和测试阶段两个过程,其中,训练阶段包括以下步骤:①‑1、选取N幅原始的无失真立体图像,然后将选取的N幅原始的无失真立体图像和每幅原始的无失真立体图像对应的模糊失真立体图像构成训练图像集,记为{Si,org,Si,dis|1≤i≤N},其中,Si,org表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像,Si,dis表示{Si,org,Si,dis|1≤i≤N}中的第i幅原始的无失真立体图像对应的模糊失真立体图像;①‑2、对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像进行非重叠的分块处理,然后采用Fast‑ICA方法对由每幅模糊失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的左视点图像的视觉字典表,将Si,dis的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数;对{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast‑ICA方法对由每幅模糊失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅模糊失真立体图像的右视点图像的视觉字典表,将Si,dis的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中包含的视觉字典的总个数一致;对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像进行非重叠的分块处理;然后采用Fast‑ICA方法对由每幅原始的无失真立体图像的左视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的左视点图像的视觉字典表,将Si,org的左视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致;对{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像进行非重叠的分块处理;然后采用Fast‑ICA方法对由每幅原始的无失真立体图像的右视点图像中的所有子块构成的集合进行字典训练操作,得到每幅原始的无失真立体图像的右视点图像的视觉字典表,将Si,org的右视点图像的视觉字典表记为其中,的维数为64×K,K表示中包含的视觉字典的总个数,与中各自包含的视觉字典的总个数一致;①‑3、通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表与对应的模糊失真立体图像的左视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的左视点图像的视觉字典表的视觉质量表,将Si,dis的左视点图像的视觉字典表的视觉质量表记为<mrow><msubsup><mi>Q</mi><mi>L</mi><mi>i</mi></msubsup><mo>=</mo><mo>{</mo><msubsup><mi>q</mi><mi>L</mi><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mn>1</mn><mo>&le;</mo><mi>k</mi><mo>&le;</mo><mi>K</mi><mo>}</mo><mo>,</mo><msubsup><mi>q</mi><mi>L</mi><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>=</mo><mfrac><mn>1</mn><mrow><mn>1</mn><mo>+</mo><mn>6</mn><mo>&times;</mo><msup><mrow><mo>(</mo><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>-</mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><msup><mrow><mo>|</mo><mo>|</mo></mrow><msub><mi>C</mi><mn>1</mn></msub></msup><mo>&times;</mo><msup><mrow><mo>(</mo><mi>arccos</mi><mrow><mo>(</mo><mfrac><mrow><mo>&lt;</mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>,</mo><mo>></mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup></mrow><mrow><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mo>|</mo><mo>&CenterDot;</mo><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>L</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mo>|</mo></mrow></mfrac><mo>)</mo></mrow><mo>)</mo></mrow><msub><mi>C</mi><mn>2</mn></msub></msup><mo>)</mo></mrow><mrow><mo>-</mo><mn>2</mn></mrow></msup></mrow></mfrac><mo>,</mo></mrow>其中,表示中的第k个视觉字典的视觉质量,符号“||||”为求欧氏距离符号,arccos()为取反余弦函数,符号“<>”为求内积符号,C1和C2为控制参数,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;通过计算{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表与对应的模糊失真立体图像的右视点图像的视觉字典表之间的距离,获取{Si,org,Si,dis|1≤i≤N}中的每幅模糊失真立体图像的右视点图像的视觉字典表的视觉质量表,将Si,dis的右视点图像的视觉字典表的视觉质量表记为<mrow><msubsup><mi>Q</mi><mi>R</mi><mi>i</mi></msubsup><mo>=</mo><mo>{</mo><msubsup><mi>q</mi><mi>R</mi><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mn>1</mn><mo>&le;</mo><mi>k</mi><mo>&le;</mo><mi>K</mi><mo>}</mo><mo>,</mo><msubsup><mi>q</mi><mi>R</mi><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>=</mo><mfrac><mn>1</mn><mrow><mn>1</mn><mo>+</mo><mn>6</mn><mo>&times;</mo><msup><mrow><mo>(</mo><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>-</mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><msup><mrow><mo>|</mo><mo>|</mo></mrow><msub><mi>C</mi><mn>1</mn></msub></msup><mo>&times;</mo><msup><mrow><mo>(</mo><mi>arccos</mi><mrow><mo>(</mo><mfrac><mrow><mo>&lt;</mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>,</mo><mo>></mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup></mrow><mrow><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>dis</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mo>|</mo><mo>&CenterDot;</mo><mo>|</mo><mo>|</mo><msubsup><mi>g</mi><mrow><mi>R</mi><mo>,</mo><mi>org</mi></mrow><mrow><mi>i</mi><mo>,</mo><mi>k</mi></mrow></msubsup><mo>|</mo><mo>|</mo></mrow></mfrac><mo>)</mo></mrow><mo>)</mo></mrow><msub><mi>C</mi><mn>2</mn></msub></msup><mo>)</mo></mrow><mrow><mo>-</mo><mn>2</mn></mrow></msup></mrow></mfrac><mo>,</mo></mrow>其中,表示中的第k个视觉字典的视觉质量,表示中的第k个视觉字典,的维数为64×1,表示中的第k个视觉字典,的维数为64×1,的维数为1×K;测试阶段包括以下步骤:②对于任意一副测试立体图像Stest,分别对Stest的左视点图像和右视点图像进行非重叠的分块处理;然后根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的左视点图像的视觉字典表、对应的模糊失真立体图像的左视点图像的视觉字典表及其视觉质量表,计算Stest的左视点图像中的每个子块的客观评价度量值,同样根据{Si,org,Si,dis|1≤i≤N}中的每幅原始的无失真立体图像的右视点图像的视觉字典表、对应的模糊失真立体图像的右视点图像的视觉字典表及其视觉质量表,计算Stest的右视点图像中的每个子块的客观评价度量值;再根据Stest的左视点图像和右视点图像中的每个子块的客观评价度量值,获取Stest的图像质量客观评价预测值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201410245174.4/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top