[发明专利]一种基于多任务学习的显微图像细胞识别方法及装置有效
申请号: | 202010637815.6 | 申请日: | 2020-07-06 |
公开(公告)号: | CN111524138B | 公开(公告)日: | 2020-09-22 |
发明(设计)人: | 谷秀娟;许会 | 申请(专利权)人: | 湖南国科智瞳科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 董惠文 |
地址: | 410000 湖南省长沙市高新开发区尖山湖社*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 任务 学习 显微 图像 细胞 识别 方法 装置 | ||
本发明公开一种基于多任务学习的显微图像细胞识别方法,首先采用多重标注的方式对获取的显微图像进行标注;然后将含有多重标注的显微图像分割形成训练集;接着利用含有多重标注的训练集对预先构建的细胞识别模型进行训练;最后利用训练好的细胞识别模型对待识别显微图像进行细胞识别,获得待识别显微图像中各个细胞的类别以及特征属性。与现有技术相比,本发明提供的方法采用多重标注的方式对显微图像进行标注,使得训练获得的模型能够实现多重检测,多重的检测可保证最终检测结果的准确性。
技术领域
本发明涉及医学图像技术领域,尤其是一种基于多任务学习的显微图像细胞识别方法及装置。
背景技术
随着计算机技术和医学技术的发展与成熟,两者相结合的显微图像自动分析技术应运而生,并引起了广泛的关注。显微图像自动分析技术是医疗辅助诊断的重要方法,可以定量、定性地诊断病情,更快、更直接地发现病源与病因,进而提高病理医生的工作效率,降低工作强度,缩短病人的看诊时间。在临床应用中,妇科宫颈刮片分析、白带湿片显微图像分析、尿沉渣细胞成分分析、血液红白细胞分析等对预防疾病与指导治疗方面有非常重要的作用。
在显微图像自动分析技术中,显微图像中细胞的正确识别至关重要。现有的细胞识别方法通常基于人工鱼群算法对显微图像进行特征提取,然后设计分类器对提取的特征进行分类,常用的分类器有决策树、随机森林、支持向量机等。这些方法中训练后的分类器识别精度低、速度慢。
发明内容
本发明提供一种基于多任务学习的显微图像细胞识别方法及装置,用于克服现有技术中精度低、速度慢等缺陷。
为实现上述目的,本发明提出一种基于多任务学习的显微图像细胞识别方法,包括:
获取若干显微图像,并对所述显微图像进行标注;所述标注包括中心位置的标注、类别的标注、特征属性的标注、细胞包围框的标注以及细胞边界的标注;
将含有多重标注的显微图像分割成若干预设大小的图像子块,所有所述图像子块形成训练集;
利用所述训练集对预先构建的细胞识别模型进行训练,所述细胞识别模型包括全卷积神经网络模型、分割掩码生成网络模型和多任务学习框架;在所述训练过程中,所述全卷积神经网络模型的输入为所述训练集,所述分割掩码生成网络模型的输入为所述训练集以及所述全卷积神经网络模型的输出,所述多任务学习框架的输入为所述分割掩码生成网络模型的输出;
将待识别显微图像分割成若干所述预设大小的图像子块并输入训练好的细胞识别模型中进行细胞识别,获得待识别显微图像中各个细胞的类别以及特征属性。
为实现上述目的,本发明还提出一种基于多任务学习的显微图像细胞识别装置,所述装置包括:
图像获取模块,用于获取若干显微图像,并对所述显微图像进行标注;所述标注包括中心位置的标注、类别的标注、特征属性的标注、细胞包围框的标注以及细胞边界的标注;
训练集生成模块,用于将含有多重标注的显微图像分割成若干预设大小的图像子块,所有所述图像子块形成训练集;
模型训练模块,用于利用所述训练集对预先构建的细胞识别模型进行训练,所述细胞识别模型包括全卷积神经网络模型、分割掩码生成网络模型和多任务学习框架;在所述训练过程中,所述全卷积神经网络模型的输入为所述训练集,所述分割掩码生成网络模型的输入为所述训练集以及所述全卷积神经网络模型的输出,所述多任务学习框架的输入为所述分割掩码生成网络模型的输出;
细胞识别模块,用于将待识别显微图像分割成若干所述预设大小的图像子块并输入训练好的细胞识别模型中进行细胞识别,获得待识别显微图像中各个细胞的类别以及特征属性。
为实现上述目的,本发明还提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南国科智瞳科技有限公司,未经湖南国科智瞳科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010637815.6/2.html,转载请声明来源钻瓜专利网。