[发明专利]一种基于深度神经网络的乳腺癌图像识别分类方法有效
申请号: | 202110658703.3 | 申请日: | 2021-06-15 |
公开(公告)号: | CN113256605B | 公开(公告)日: | 2021-11-02 |
发明(设计)人: | 章毅;郭泉;戚晓峰;张蕾;秦浩钧 | 申请(专利权)人: | 四川大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11;G06T7/136;G06T5/00;G06K9/38;G06K9/42;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 成都弘毅天承知识产权代理有限公司 51230 | 代理人: | 谢建 |
地址: | 610000 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 神经网络 乳腺癌 图像 识别 分类 方法 | ||
1.一种基于深度神经网络的乳腺癌图像识别分类方法,其特征在于,应用基于深度神经网络的乳腺癌图像识别分类系统,对乳腺部位彩超图像报告进行拍照,并将彩超图像报告的照片上传至基于深度神经网络的乳腺癌图像识别分类系统对该彩超图像照片进行识别分类,所述基于深度神经网络的乳腺癌图像识别分类系统包括用于对乳腺报告进行彩超图片切割的分割模型、用于规范彩超分割图片的生成模型和用于对乳腺病灶图像识别分类的分类模型;所述基于深度神经网络的乳腺癌图像识别分类方法包括以下步骤:
(1)采集并预处理用于训练神经网络模型的乳腺彩超图像数据;
(2)建立并训练神经网络分割模型、生成模型和分类模型;
(3)使用分割模型对用户提交的乳腺报告进行彩超图片切割,提取彩超报告中的彩超图片形成彩超分割图片;
(4)生成模型转换彩超分割图片形式,并消除彩超分割图片存在的噪音及规范化图片,形成彩超规范图片;
(5)分类模型读入彩超规范图片,给出乳腺癌图像分类结果;
所述生成模型的网络模型结构为UNet网络,训练生成模型时将分割的彩超图片作为Unet网络的输入数据,彩超截图作为Unet网络的生成目标。
2.根据权利要求1所述的一种基于深度神经网络的乳腺癌图像识别分类方法,其特征在于,所述生成模型使用Adam算法作为本模型的优化函数,通过存储梯度平方的指数衰减平均值并且保持指数衰减平均值来对模型进行优化;其公式为:
mt=β1mt-1+(1-β1)gt
其中,vt为梯度的平方指数衰减平均值,mt为梯度的指数衰减平均值;
若mt以及vt被初始化为0向量,则会向0偏置,这样会造成梯度消失的问题,因此对其进行偏差矫正,使用偏差矫正后的mt以及vt来抵消本来存在的偏差;具体为:
其中与即为偏差值,最后得到梯度更新规则:
所述生成模型的损失函数包括交叉熵损失函数和感知损失函数;通过感知损失函数,模型能够捕捉训练数据中的共有特征,从而生成图片模版,再由交叉熵损失函数捕捉到每一幅待生成图片的关键信息,将该信息附加在生成图片中,最终得到生成图片;交叉熵损失函数的标准形式如下:
其中,表示为样本,表示为实际的标签,表示为预测的输出,表示样本总数量;在本生成模型中,通过对最后输出层生成的图片与目标图片进行计算,得到损失值;
所述感知损失函数采用VGG-16网络,将中间层activations作为目标,计算两个图像经过VGG-16中间层的两个activations的欧式距离,使用如下数学公式表示:
其中:j是VGG-16的中间层代号,指的是输入图像是y,CjHjWj是的长宽高;通过对两个图像在VGG-16的中间特征层的欧式距离进行对比,可以得到两幅图片的接近程度;所述生成模型使用交叉熵损失函数捕获图片特征,再经过感知损失进行特征对比,最终获得生成图片。
3.根据权利要求1所述的一种基于深度神经网络的乳腺癌图像识别分类方法,其特征在于,所述步骤(1)中,采集并预处理用于训练神经网络模型的乳腺彩超图像数据,包括以下步骤:
(11)使用脚本,对仅包含乳腺、拥有良恶性肿瘤标签的彩超截图进行拼接,生成一份模拟彩超报告并打印,生成纸质档模拟彩超报告;
(12)对纸质档模拟彩超报告进行拍摄,得到彩超报告照片。
4.根据权利要求1所述的一种基于深度神经网络的乳腺癌图像识别分类方法,其特征在于,所述分割模型采用yolo5网络;在分割模型训练过程中,模型的分割可信度阈值设为0.6至0.8,交并比为0.6至0.8。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110658703.3/1.html,转载请声明来源钻瓜专利网。