[发明专利]一种基于WIML比较图的自适应焦点检测多聚焦图像融合方法有效
| 申请号: | 201910978835.7 | 申请日: | 2019-10-15 |
| 公开(公告)号: | CN110738628B | 公开(公告)日: | 2023-09-05 |
| 发明(设计)人: | 张子蓬;庆毅辉;邹煜;刘逸凡;王淑青;马烨;周博文;王晨曦;兰天泽 | 申请(专利权)人: | 湖北工业大学 |
| 主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T5/00;G06T5/20;G06T7/13;G06T7/168 |
| 代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 魏波 |
| 地址: | 430068 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 wiml 比较 自适应 焦点 检测 聚焦 图像 融合 方法 | ||
1.一种基于WIML比较图的自适应焦点检测多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤1:将彩色源图像A和B均转换为灰度图像;
步骤2:根据步骤1中获得的灰度图像,选择检测范围;
在灰度图像中,选取X·Y区域进行灰度值方差估计,X、Y均为奇数,若灰度值方差σ不跟随X·Y区域内M·N检测范围的改变而变化或随M·N检测范围的改变而轻微变化,则表示X·Y区域为平坦区域,否则表示X·Y区域为边缘区域;
像素灰度值方差σ为:
其中,M·N表示检测范围,I(i,j)表示点(i,j)的灰度值,表示检测范围内像素的平均灰度值;
步骤3:获取平坦区域;
若X·Y区域为平坦区域,则选择X·Y区域为焦点检测区域;若X·Y区域为边缘区域,则适当缩小X·Y区域后,重新进行步骤2灰度值方差估计,直到X·Y区域缩小为平坦区域后,选择其为焦点检测区域;
步骤4:在平坦区域内包含边缘区域的检测进行焦点检测,获得焦点图像;
在灰度图像中,选取X·Y区域进行灰度值方差估计,X、Y均为奇数;
在X·Y区域内进行焦点检测,选择像素间距step=1,采用加权新改进拉普拉斯算法WIML计算水平方向、垂直方向、主对角线区域和次对角线区域的改进拉普拉斯算子;
加权新改进拉普拉斯WIML定义为:
其中,IML(x,y)表示点(x,y)的新改进拉普拉斯算子,T表示阈值,定义为:
其中,w为像素之间的空间距离权重,Tr和Po分别代表横向梯度和纵向梯度通式,MDL和SDL分别代表主对角线区域和次对角线区域的的梯度通式,具体定义为:
Tr=|2I(x,y)-I(x,y-j)-I(x,y+j)| (5)
Po=|2I(x,y)-I(x-i,y)-I(x+i,y)| (6)
MDS=|2I(x,y)-I(x-i,y-j)-I(x+i,y+j)| (7)
SDS=|2I(x,y)-I(x+i,y-j)-I(x+i,y-j)| (8)
采用加权新改进拉普拉斯算法WIML将灰度图像转换为焦点图像M;
步骤5:由焦点图像得到三级比较图C3;
步骤6:由三级比较图C3获得两级比较图C2;
步骤7:消除两级比较图C2中的孤立噪声;
步骤8:结合两级比较图C2,将彩色源图像A和B融合。
2.根据权利要求1所述的基于WIML比较图的自适应焦点检测多聚焦图像融合方法,其特征在于:步骤1中,采用公式(1)将彩色源图像A和B均转换为灰度图像;
其中,I表示灰度图像中像素的亮度值,位于[0,255]区间,R、G、B分别表示彩色源图像中红、绿、蓝三基色通道的强度分量,α、β和表示权重系数。
3.根据权利要求1所述的基于WIML比较图的自适应焦点检测多聚焦图像融合方法,其特征在于:步骤5中,由焦点图像M通过式(9)得到三级比较图C3;
其中,分别表示焦点图像MA和MB中(x,y)点的像素值,D表示像素的差值,Th表示阈值,C3=0、C3=128和C3=255分别代表像素处于低层次、中层次和高层次。
4.根据权利要求1所述的基于WIML比较图的自适应焦点检测多聚焦图像融合方法,其特征在于:步骤6中,根据焦距不能突变的特点,通过比较像素与检测区域质心的距离,将中层次像素重新分配为低层次像素或高层次像素,获得两级比较图C2;
其中,(xc,yc)表示焦点检测区域质心位置,G表示中层次像素与焦点检测区域质心的距离,Thr表示阈值。
5.根据权利要求1所述的基于WIML比较图的自适应焦点检测多聚焦图像融合方法,其特征在于:步骤8中,结合两级比较图C2,彩色源图像通过式(12)融合;
其中,SA、SB表示源图像A和源图像B,C2表示两级比较图,F表示所得融合图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910978835.7/1.html,转载请声明来源钻瓜专利网。





