[发明专利]一种重定位立体图像质量评价方法有效
| 申请号: | 201810543553.X | 申请日: | 2018-05-31 |
| 公开(公告)号: | CN108848365B | 公开(公告)日: | 2019-09-10 |
| 发明(设计)人: | 邵枫;富振奇;李福翠 | 申请(专利权)人: | 宁波大学 |
| 主分类号: | H04N13/128 | 分类号: | H04N13/128;H04N17/00;G06K9/62 |
| 代理公司: | 宁波奥圣专利代理事务所(普通合伙) 33226 | 代理人: | 周珏 |
| 地址: | 315211 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种重定位立体图像质量评价方法,其计算重定位立体图像的左、右视点图像之间的视差图像中的所有遮挡像素点的相对宽度特征、所有匹配像素点的深度差特征和视差幅值特征及视差梯度特征,及计算左视点图像的长宽比相似性和右视点图像的长宽比相似性,得到重定位立体图像的特征矢量;在训练阶段利用支持向量回归对训练集中的特征矢量进行训练;在测试阶段利用构造的支持向量回归训练模型,得到测试集中的特征矢量对应的重定位立体图像的客观质量评价预测值,由于获得的特征矢量具有较强的稳定性且能较好地反映重定位立体图像的深度感、舒适度和图像质量变化情况,因此有效地提高了客观评价结果与主观感知之间的相关性。 | ||
| 搜索关键词: | 立体图像 重定位 特征矢量 质量评价 支持向量回归 右视点图像 长宽比 视差 图像质量变化 左视点图像 测试阶段 客观评价 宽度特征 匹配像素 视差图像 梯度特征 训练阶段 训练模型 主观感知 深度差 舒适度 像素点 有效地 遮挡 测试 预测 | ||
【主权项】:
1.一种重定位立体图像质量评价方法,其特征在于包括以下步骤:步骤一:令Sorg表示原始的立体图像,令Sret表示Sorg对应的重定位立体图像;将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sret的左视点图像记为{Lret(x',y)},将Sret的右视点图像记为{Rret(x',y)};其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Sorg的宽度,W'表示Sret的宽度,H表示Sorg和Sret的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Lret(x',y)表示{Lret(x',y)}中坐标位置为(x',y)的像素点的像素值,Rret(x',y)表示{Rret(x',y)}中坐标位置为(x',y)的像素点的像素值;步骤二:计算{Lret(x',y)}与{Rret(x',y)}之间的视差图像,记为{dL(x',y)},将{dL(x',y)}中坐标位置为(x',y)的像素点的像素值记为dL(x',y),如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为匹配像素点,并令dL(x',y)=x'*‑x';如果{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中不能找到匹配的像素点,则将{dL(x',y)}中坐标位置为(x',y)的像素点定义为遮挡像素点,并令dL(x',y)=255;然后计算{dL(x',y)}中的所有遮挡像素点的相对宽度特征,记为f1,![]()
其中,x'*表示{Lret(x',y)}中坐标位置为(x',y)的像素点在{Rret(x',y)}中能找到匹配的像素点的横坐标;采用K均值聚类方法对{Lret(x',y)}中的所有像素点进行聚类分割,得到{Lret(x',y)}的前景分割对象和背景分割对象,将由{Lret(x',y)}的前景分割对象中的所有像素点的坐标位置构成的集合记为ΩF,将由{Lret(x',y)}的背景分割对象中的所有像素点的坐标位置构成的集合记为ΩB;然后计算{dL(x',y)}中的所有匹配像素点的深度差特征,记为f2,
其中,符号“||”为取绝对值符号,MF表示{Lret(x',y)}的前景分割对象中的像素点的总个数,MB表示{Lret(x',y)}的背景分割对象中的像素点的总个数;采用分层显著性检测模型提取出{Lret(x',y)}的视觉显著图,记为{SO(x',y)};然后计算{dL(x',y)}中的所有匹配像素点的视差幅值特征,记为f3,
并计算{dL(x',y)}中的所有匹配像素点的视差梯度特征,记为f4,
其中,SO(x',y)表示{SO(x',y)}中坐标位置为(x',y)的像素点的像素值,Ω=ΩF∪ΩB,
如果x'+1≤W,则dL(x'+1,y)表示{dL(x',y)}中坐标位置为(x'+1,y)的像素点的像素值;如果x'+1>W,则令dL(x'+1,y)=dL(W,y),dL(W,y)表示{dL(x',y)}中坐标位置为(W,y)的像素点的像素值;如果x'‑1≥1,则dL(x'‑1,y)表示{dL(x',y)}中坐标位置为(x'‑1,y)的像素点的像素值;如果x'‑1<1,则令dL(x'‑1,y)=dL(1,y),dL(1,y)表示{dL(x',y)}中坐标位置为(1,y)的像素点的像素值;如果y+1≤H,则dL(x',y+1)表示{dL(x',y)}中坐标位置为(x',y+1)的像素点的像素值;如果y+1>H,则令dL(x',y+1)=dL(x',H),dL(x',H)表示{dL(x',y)}中坐标位置为(x',H)的像素点的像素值;如果y‑1≥1,则dL(x',y‑1)表示{dL(x',y)}中坐标位置为(x',y‑1)的像素点的像素值;如果y‑1<1,则令dL(x',y‑1)=dL(x',1),dL(x',1)表示{dL(x',y)}中坐标位置为(x',1)的像素点的像素值;步骤三:采用长宽比相似性评价方法获取{Lorg(x,y)}和{Lret(x',y)}的客观评价预测值,记为f5,f5=G(Lorg,Lret);同样,采用长宽比相似性评价方法获取{Rorg(x,y)}和{Rret(x',y)}的客观评价预测值,记为f6,f6=G(Rorg,Rret);其中,G(Lorg,Lret)表示计算{Lorg(x,y)}和{Lret(x',y)}的长宽比相似性,G(Rorg,Rret)表示计算{Rorg(x,y)}和{Rret(x',y)}的长宽比相似性;步骤四:根据f1、f2、f3、f4、f5和f6,获取Sret的特征矢量,记为F,F=[f1,f2,f3,f4,f5,f6];其中,F的维数为6×1,[f1,f2,f3,f4,f5,f6]表示将f1,f2,f3,f4,f5,f6连接起来形成一个特征矢量;步骤五:将n'幅原始的立体图像对应的共n幅重定位立体图像构成重定位立体图像集合;然后采用主观质量评价方法,获取重定位立体图像集合中的每幅重定位立体图像的平均主观评分差值,将重定位立体图像集合中的第g1幅重定位立体图像的平均主观评分差值记为
;并按照步骤一至步骤四的过程,以相同的方式获取重定位立体图像集合中的每幅重定位立体图像的特征矢量,将重定位立体图像集合中的第g1幅重定位立体图像的特征矢量记为
;其中,n'>1,n≥n',g1为正整数,1≤g1≤n,![]()
的维数为6×1;步骤六:从重定位立体图像集合中随机选择m幅重定位立体图像构成训练集,将重定位立体图像集合中剩余的n‑m幅重定位立体图像构成测试集;然后将训练集中的所有重定位立体图像的特征矢量和平均主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分差值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;再利用得到的最优的权重矢量wopt和最优的偏置项bopt,构造重定位立体图像的支持向量回归训练模型,记为f(Finp),
其中,1≤m<n,f()为函数表示形式,Finp表示重定位立体图像的支持向量回归训练模型的输入矢量,为重定位立体图像的特征矢量,Finp的维数为6×1,(wopt)T为wopt的转置,
表示重定位立体图像的支持向量回归训练模型的输入矢量Finp的线性函数;步骤七:将测试集中的所有重定位立体图像的特征矢量构成测试样本数据集合;然后根据构造得到的重定位立体图像的支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的重定位立体图像的客观质量评价预测值,将测试样本数据集合中的第q个特征矢量对应的重定位立体图像的客观质量评价预测值记为Qq,Qq=f(Fq),
其中,q为正整数,1≤q≤n‑m,Fq表示测试样本数据集合中的第q个特征矢量,Fq的维数为6×1,
表示测试样本数据集合中的第q个特征矢量Fq的线性函数;步骤八:重复执行步骤六至步骤七共Q次,并使重定位立体图像集合中的每幅重定位立体图像至少有一次属于测试集,经过Q次执行后计算重定位立体图像集合中的每幅重定位立体图像的若干个客观质量评价预测值的平均值,再将重定位立体图像集合中的每幅重定位立体图像的客观质量评价预测值的平均值作为该幅重定位立体图像的最终的客观质量评价预测值;其中,Q≥100。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810543553.X/,转载请声明来源钻瓜专利网。





