[发明专利]基于FTL损失函数和注意力的U-Net图像分割方法在审
申请号: | 202110726063.5 | 申请日: | 2021-06-29 |
公开(公告)号: | CN113538458A | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 颜成钢;刘硕;张二四;朱晨瑞;孙垚棋;张继勇;李宗鹏 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06T7/11 | 分类号: | G06T7/11;G06K9/62;G06T7/194 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 ftl 损失 函数 注意力 net 图像 分割 方法 | ||
本发明公开了一种基于FTL损失函数和注意力的U‑Net图像分割方法。本发明对U‑Net模型进行重新设计,在U‑Net模型基础上结合FocalTverskyLoss和Attention注意力机制。本发明具体步骤:步骤1、图像预处理;步骤2、构建损失函数:用FTL损失函数来评价分割结果;步骤3、构建注意力机制:在模型的上采样过程中加入Attention注意力模块,使得模型在输出高水平特征图时不会丢失空间细节信息;步骤4、训练网络模型:将划分好的数据集输入到搭建好的网络模型中,通过训练集和验证集完成训练后,将测试集输入到网络模型中,得到分割结果。本发明改进了准确率和召回率的不平衡问题,并且对于多尺度输入的图像有更好的输出特征表示。
技术领域
本发明提供一种基于FTL损失函数和注意力的U-Net图像分割 方法。
背景技术
在医学图像分析领域,通过对全局图像的小部分病灶区域进行 检测和分割是一项普遍的任务。由于图像病灶区域的不平衡性,使 得建立生成和辨别框架具有不稳定性。近年来,卷积神经网络( CNNs)已经成功地应用到2D和3D医学图像的自动分割中。大多数现有的深度学习方法都源于全卷积神经网络结构(FCN),使用全卷 积层替代之前的全连接层。U-Net作为FCN的变形,因其独特的跳 跃连接和编码-解码结构,成为医学图像分割的主要网络框架。
解决类别不平衡问题是医学图像分割领域一个主要的研究方向 。Focal Loss损失函数结合调节指数,重构了交叉熵损失函数,从 而对良好分类的样本进行了降权运算。Focal Loss通过阻止大量的 容易分割的负样本主导梯度从而改善了类别不平衡问题。然而,在 实际问题中,由于医学图像的病灶区域不明显这一普遍现象,这种 方法在平衡准确率和召回率上具有很大的困难。调查研究显示例如 注意力机制的方法可以使辨别模型更专注于小的感兴趣的分割区域 。
发明内容
在医学图像处理领域,为了解决数据不平衡以及模型性能的问 题,本发明对U-Net模型进行了重新设计,在其基础上结合Focal Tversky Loss和Attention注意力机制,提出了一种基于FTL损失 函数和注意力的U-Net图像分割方法,改进了准确率和召回率的不 平衡问题,并且对于多尺度输入的图像有更好的输出特征表示。
为实现上述目的,本发明提供了如下方案:
基于FTL损失函数和注意力的U-Net图像分割方法,所述方法 包括以下步骤:
步骤1、图像预处理:
1-1、采用公共数据集ISIC 2018皮肤病灶数据集。对图像集进 行数据增强操作处理,方法包括对图像进行旋转、平移、重构尺寸 、正则化、随机亮度对比以及高斯模糊等。通过这一手段,增大了 数据量,防止了过拟合,使模型达到更好的训练效果。
1-2、将数据集划分为训练集、验证集和测试集,所占比例分别 为80%,10%和10%;
步骤2、构建损失函数:Focal Tversky Loss(FTL)损失函数 用来评价分割结果,是在Dice系数的基础上进行构建的:
如公式(1)所述,其中gic∈{0,1}和pic∈[0,1]分别表示真实 标签和预测标签,c表示预测类别,N表示一张图像中像素的总量,∈ 是数值常量来防止分母除零。DSC系数在医学图像分割领域中是被 广泛使用的交叉指数评估指标;
如公式(2)所述,Dice loss表示预测值与真实值重叠的最 小值。
Dice loss的缺点是它对假正例(FP)和假负例(FN)赋予同 样的权重,其中FP表示预测为真,实际为假的样本,FN表示预测 为假,实际为真的样本。这在实际情况中将导致分割特征结果输出 高准确率但是低召回率的结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110726063.5/2.html,转载请声明来源钻瓜专利网。