[发明专利]基于压缩感知的声纳图像超分辨率重建目标跟踪和检测方法有效
申请号: | 201810041142.0 | 申请日: | 2018-01-16 |
公开(公告)号: | CN108319970B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 张铁海;徐志京 | 申请(专利权)人: | 上海海事大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 上海三和万国知识产权代理事务所(普通合伙) 31230 | 代理人: | 陈伟勇 |
地址: | 201306 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 压缩 感知 声纳 图像 分辨率 重建 目标 跟踪 检测 方法 | ||
1.一种基于压缩感知的声纳图像超分辨率追踪和检测方法,其特征在于包括以下步骤:
步骤一:初始化原图像参数,进行字典训练,将原始图像的光滑、边缘、纹理成分αs、αe、αt,分别对应的利用离散光滑小波变换、非规则轮廓小波变换和小波纹理模型变换进行相应的处理,生成相应的初始过完备字典;
(一)光滑成分的处理:
(1)输入光滑成分经离散光滑小波变换生成的初始过完备字典训练样本Ys,正则化参数λs
(2)输入样本集D={X1,X2,X3,...Xn},邻域半径参数r,重合面积的阈值MinS;
(3)初始化每一个样本点集合,初始化聚类簇数k=0,初始化访问样本集合Γ=D,簇划分
(4)按照下列算法进行类别划分:
(a)为样本点Xj添加邻域半径;
(b)计算每个样本点邻域的交叉重合的面积大小,与阈值作比较,将满足重合面积S(Xj,Xk)MinS的对应的两个点归为一个核心样本集合Ω=Ω∪{Xj},直到所有的样本对比完为止;
(5)按照(一)中的步骤(3),依次比照两两样本的邻域重合面积,将重合面积大于阈值MinS的样本归为一类,将没有与其他样本重合的样本剔除,即剔除其中的噪声样本;
(6)区分出类别后,利用距离均值算法,确定类别的核心对象,即最终的聚类中心用于过完备字典训练目标的追踪检测;
(7)对参数进行初始化设置:设初始迭代的次数值n=1,聚类中心矩阵μ0∈Rn×z,J=1;
(8)将字典ψs中的原子dj分到与聚类中心最相似的Z个聚类集合中,并通过对矩阵的第z列更新,其中,
聚类集合表示为:
(9)根据原子索引i计算权重矩阵Ws、对角矩阵Cs及拉普拉斯矩阵Ls,并根据GOMP算法求出稀疏表示系数βs,最后更新字典ψs,其过程为:
(10)n=n+1;循环(一)中的步骤(8)-(9)至满足停止条件;
(11)输出光滑成分对应的过完备字典ψs;
(二)边缘成分处理:
(1)输入边缘成分经非规则轮廓小波变换生成的初始过完备字典训练样本Ye,正则化参数λe;
(2)输入样本集D={X1,X2,X3,...Xn},邻域半径参数r,重合面积的阈值MinS;
(3)初始化每一个样本点集合,初始化聚类簇数k=0,初始化访问样本集合Γ=D,簇划分
(4)按照下列算法进行类别划分:
(a)为样本点Xj添加邻域半径;
(b)计算每个样本点邻域的交叉重合的面积大小,与阈值作比较,将满足重合面积S(Xj,Xk)MinS的对应的两个点归为一个核心样本集合Ω=Ω∪{Xj},直到所有的样本对比完为止;
(5)按照(二)中的步骤(3),依次比照两两样本的邻域重合面积,将重合面积大于阈值MinS的样本归为一类,将没有与其他样本重合的样本剔除,即剔除其中的噪声样本;
(6)区分出类别后,利用距离均值算法,确定类别的核心对象,即最终的聚类中心用于过完备字典训练目标的追踪检测;
(7)对参数进行初始化设置:设初始迭代的次数值n=1,聚类中心矩阵μ0∈Rn×Z,J=1;
(8)将字典ψe中的原子dj分到与聚类中心最相似的Z个聚类集合中,并通过对矩阵的第z列更新,其中,
聚类集合表示为:
(9)根据原子索引i计算权重矩阵We、对角矩阵Ce及拉普拉斯矩阵Le,并根据GOMP算法求出稀疏表示系数βe,最后更新字典ψe,其过程为:
(10)n=n+1;循环(二)中的步骤(8)-(9)至满足停止条件;
(11)输出边缘成分对应的过完备字典ψe;
(三)纹理成分处理:
(1)输入纹理成分经小波纹理模型变换生成的初始过完备字典训练样本Yt,正则化参数λt;
(2)输入样本集D={X1,X2,X3,...Xn},邻域半径参数r,重合面积的阈值MinS;
(3)初始化每一个样本点集合,初始化聚类簇数k=0,初始化访问样本集合Γ=D,簇划分
(4)按照下列算法进行类别划分:
(a)为样本点Xj添加邻域半径;
(b)计算每个样本点邻域的交叉重合的面积大小,与阈值作比较,将满足重合面积S(Xj,Xk)MinS的对应的两个点归为一个核心样本集合Ω=Ω∪{Xj},直到所有的样本对比完为止;
(5)按照(三)中的步骤(3),依次比照两两样本的邻域重合面积,将重合面积大于阈值MinS的样本归为一类,将没有与其他样本重合的样本剔除,即剔除其中的噪声样本;
(6)区分出类别后,利用距离均值算法,确定类别的核心对象,即最终的聚类中心用于过完备字典训练目标的追踪检测;
(7)对参数进行初始化设置:设初始迭代的次数值n=1,聚类中心矩阵μ0∈Rn×Z,J=1;
(8)将字典ψt中的原子dj分到与聚类中心最相似的Z个聚类集合中,并通过对矩阵的第z列更新,其中,
聚类集合表示为:
(9)根据原子索引i计算权重矩阵Wt、对角矩阵Ct及拉普拉斯矩阵Lt,并根据GOMP算法求出稀疏表示系数βt,最后更新字典ψt,其过程为:
(10)n=n+1;循环(三)中的步骤(8)-(9)至满足停止条件;
(11)输出纹理成分对应的过完备字典ψt;
步骤二:压缩感知的超分辨率声纳图像重建
超分辨率图像的重建是退化模型的逆过程,其过程表示为原始图像的光滑、边缘、纹理成分为αs、αe、αt,则超分辨率图像中光滑成分表示为:Is=ψsαs
超分辨率图像中边缘成分表示为:Ie=ψeαe
超分辨率图像中纹理成分表示为:It=ψtαt
对应三个类内强稀疏且类间不相干的过完备字典为ψs、ψe、ψt,可得图像压缩感知超分辨率退化模型如下:
Vk=DkBkHk(ψsαs+ψeαe+ψtαt)+ηk
其中Hk表示为Vk相对于图像I的运动变形矩阵,Bk为光学模糊矩阵,Dk表示下采样矩阵,ηk是模型引入的高斯白噪声,该噪声是加性的且均值为零, 运用拉格朗日乘数法能够求解压缩感知稀疏表示退化模型,得:
其中,Vk是图像压缩感知超分辨率退化模型,ψs、ψe、ψt分别为图像光滑成分、边缘成分、纹理成分的过完备字典,γs、γe、γt是用来平衡各部分比重的参数,其能够控制误差和稀疏性之间的平衡,而迭代过程中的方程模型 看作是三个非线性凸优化问题,运用基追踪去噪法对其求解;
上述过程的逆过程为超分辨率图像的重建,则超分辨率图像的获得表示为:
其中,图像I光滑成分Is、边缘成分Ie、纹理成分It对应的三个过完备字典为ψs、ψe、ψt;而各成分系数在上述过程中求出,最终获得数据重建声纳图像;
步骤三:图像目标的追踪和检测
首先对压缩后得到的超分辨率图像采用斑点检测的方法获取特征区域;
简单等级要求斑点识别算法原理是基于块运动的算法,利用了斑点的空间连续性与时间不连续性特性;首先需要构建一个向量p(x,y,t),p(x,y,t)由经过运动估计后的前后帧6个像素的像素值组成,如下式所示,在局部运动估计的简单等级要求算法中,不是前后帧所有的像素都进行运动补偿,只有待识别的位置的点对应在前后帧中的6个像素在识别时需要进行运动补偿
p(x,y,t)=
[I(x,y-1,t-1),I(x,y,t-1),I(x,y+1,t-1),
I(x,y-1,t+1),I(x,y,t-1),I(x,y+1,t+1)]
式中,x,y表示待识别像素值的坐标值;t表示当前帧,t-1,t+1分别表示前一帧和后一帧;I(x,y-1,t+1)表示对应帧对应像素的灰度值, 对p(x,y,t)向量进行如下操作
若SD(x,y,t)大于阈值T,当前点被判为斑点,否则为非斑点像素;阈值T的设置采用自适应的方法,即根据当前帧图像的灰度信息平均值与运动量大小来自动调整T的大小;
然后运用图像显著性检测的方法确定显著性区域的位置;
这里采用通过利用特征集合优化技术的方法;
(1)构建该声纳图像Ih(i,j)的共享信息素矩阵A,设定初始值为A(0)=a;此时,特征点分配给图像上各个像素位置,即结点;
(2)特征结点以(l,m)为始点,在图像上移动L像素范围至其邻域点(i,j),依据的数学表达式为:
其中,是结点的像素值,Ω(l,m)是点(l,m)邻域点的集合,τi,j是结点(i,j)的推断值,常数α和β分别为信息素矩阵和推断矩阵的影响参数;
(3)更新特征点路径的信息素系数值:
首先,在特征点移动后,每个信息素矩阵中的元素根据以下表达式进行更新:
其中,λ为常数,与的更新程度有关,λ越大更迭的速度越快, 由推断矩阵决定;
当所有特征点均移动结束后,信息素矩阵便更新为:
A(n)=(1-γ)A(n-1)+γA(0)=(1-γ)A(n-1)+aγ
其中,γ为信息素延迟系数,A(n-1)为移动前的信息素矩阵,A(0)为共享信息素矩阵初始值,为a;
(4)循环步骤三的步骤(2)-(3),迭代次数为N;
(5)得输入声纳图像所表示的显著性特征信息素矩阵A(n),利用输出的信息矩阵完成目标的跟踪检测。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海海事大学,未经上海海事大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810041142.0/1.html,转载请声明来源钻瓜专利网。