[发明专利]基于卷积神经网络的离散小波变换域多聚焦图像融合方法有效
| 申请号: | 201910534050.0 | 申请日: | 2019-06-20 | 
| 公开(公告)号: | CN110443775B | 公开(公告)日: | 2022-12-16 | 
| 发明(设计)人: | 李雄飞;于爽;张小利;张维轩;王泽宇 | 申请(专利权)人: | 吉林大学 | 
| 主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T7/136 | 
| 代理公司: | 长春吉大专利代理有限责任公司 22201 | 代理人: | 郭佳宁 | 
| 地址: | 130012 吉*** | 国省代码: | 吉林;22 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 离散 变换 聚焦 图像 融合 方法 | ||
本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法;该方法包括以下步骤:首先,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;第二,将它们输入到不同的卷积神经网络中,以便获得不同的权重图;第三,通过执行一系列处理后重新定义决策图;第四,根据它们的决策图,将频率子带分别融合;最后,通过逆DWT获得融合图像;是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。
技术领域
本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法。
背景技术
由于镜头的景深有限,因此很难获得所有物体都“聚焦”的图像。这种现象可能会对人类观察和进一步的图像处理造成负面影响。当数码设备关聚焦于同一场景中的不同目标时,我们可以获得一组清晰区域的分布不同的图像。这些图像称为多聚焦图像。一种获得“全焦点”图像的方式是多聚焦图像融合。
多聚焦图像融合是图像融合的重要分支,已广泛应用于医学图像处理、遥感和目标检测等各个领域。现今,已有的各种算法大致可以分为以下两类:
第一类是基于空域的方法:这类方法通常从空域中的源图像中选择聚焦图像部分以构建融合图像。就这种方法而言,最简单的模型是将源图像取平均,但是这种模型可能会导致边界效应。为了解决这个问题,已经提出了一些基于区域的方法,其中源图像被分割成块,并且每组块使用基于清晰度度量的方法进行融合。如果图像块部分聚焦同时部分散焦,则使用传统算法在融合图像中获得聚焦区域几乎是不可能的。此外,融合图像的效果与块的大小相关。该领域的另一种经典方法是检测聚焦区域,将这些区域组合成融合图像。这些方法的优点在于可以成功地挑选出聚焦区域内的像素作为融合图像的像素。但是,由于无法准确地辨别聚焦区域的边界,因此可能导致融合图像聚焦区域中的边界存在模糊的现象。另外,由于源图像类型的限制,基于空间域的方法在融合颜色和纹理图像方面表现不佳。
另一类是基于变换域的方法。在这些算法中,通常有三个步骤:图像分解、系数融合和图像重建。多尺度变换(MST)是此类别中非常流行的方法,MST中有许多经典方法,如拉普拉斯金字塔,离散小波变换(DWT),抽取采样滤波器(FSD)层次金字塔,双树复小波变换(DTCWT),和非下采样轮廓波变换(NSCT)。这些方法可以克服空间域方法难以克服的伪影和边界效应的问题。然而,MST中的这些方法具有一些缺点,例如,它们对传感器噪声敏感并且缺乏方向感。
尽管基于变换域的方法不受源图像类型的限制,但它需要人工设计的融合规则。就现有方法而言,每个融合规则都有一定的局限性。这些规则根据某些指标选择系数,但每个指标都有其重点和局限性。因此,融合图像的质量主要受到无法很好地选择融合系数的限制。如果有方法可以自适应地选择特征和融合规则,则一定会对提高融合图像的质量产生积极影响。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,利用了卷积神经网络(简称CNN)的端到端方法,是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。
基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,包括以下步骤:
步骤一,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;
步骤二,基于卷积神经网络的性质,构建一种卷积神经网络,该网络分为两个分支,网络的输入是一对频率子带,输出为概率分布;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910534050.0/2.html,转载请声明来源钻瓜专利网。





