[发明专利]基于弱监督学习的用户定制化目标检测方法、系统和存储介质有效
申请号: | 202011497649.0 | 申请日: | 2020-12-17 |
公开(公告)号: | CN112613548B | 公开(公告)日: | 2023-06-13 |
发明(设计)人: | 郑伟诗;罗京 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/764;G06V10/40;G06N3/0464;G06N3/0895 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 学习 用户 定制 目标 检测 方法 系统 存储 介质 | ||
1.基于弱监督学习的用户定制化目标检测方法,其特征在于,包括下述步骤:
构建目标检测架构,所述目标检测架构包括客户端和服务端,所述客户端采用PyQT设计,用于与服务端交互、采集网络数据及过滤不良数据;所述服务端使用tornado搭建,用于接收用户上传数据、创建目标检测模型、训练模型、存储模型、存储训练数据和检测结果,所述服务端数据库使用MySQL管理,用于图像数据、标注数据和模型的存储,所述目标检测模型使用Pytorch搭建;所述客户端采用PyQT设计,具体为:
项目设计,所述项目设计包括创建项目和打开项目,若选择创建项目,则服务端生成项目文件夹用于管理新项目;若选择打开项目,则选择要打开某一具体项目;
模型检测,所述模型检测包括模型训练和目标检测;当选择模型训练,服务端自动生成模型并进行训练,训练好的模型被保存到服务端并由用户命名;当选择目标检测,则选择已经训练好的模型版本,并选择一个测试集,最终服务端会将测试集的图像数据输入所选模型进行目标检测,并输出结果到服务端;
数据传输,所述数据传输包括上传训练集、上传测试集和下载检测结果;若选择上传训练集,则用户从本地文件中选择训练集后上传,上传的数据集将被合并到该项目的训练集中,一个项目只能有一个训练集;若选择上传测试集,则用户从本地文件中选择测试集,命名后上传,一个项目可有多个测试集;若选择下载检测结果,则用户从服务端中下载模型的检测结果;
数据爬取,输入检测和爬取数量,自动从网络图库中爬取相关图像,爬取结果将展示在界面中,过滤数据之后,并输入该数据集的分类标签并为数据集命名,将数据集上传至服务端;
所述服务端使用tornado搭建,所述服务端用于训练模型和目标检测;训练模型时,服务端分配GPU和内存资源,导入客户端指定的训练集,生成模型并训练,训练好的模型将保存于服务端并由相应项目管理;进行目标检测时,服务端分配GPU和内存资源,导入客户端指定的模型和测试集并执行目标检测,目标检测的结果将保存于服务端并由相应项目管理;
在客户端上传训练所需的图像数据和图像类别标注数据,服务端根据标注类别数构建WSDDN-PCL弱监督目标检测模型;所述WSDDN-PCL弱监督目标检测模型的损失函数由两部分组成:
其中LWSDDN是WSDDN模型的多元交叉熵损失函数,是第i层自训练网络的损失函数;
服务端使用用户上传的图像和标注数据训练弱监督目标检测模型,训练好的模型保存在服务端;
在客户端上传需要检测的图像数据,服务端加载训练好的目标检测模型,并对用户上传的图像数据进行检测,将检测结果存储在服务端;
用户从服务端下载检测结果,完成目标检测任务。
2.根据权利要求1所述基于弱监督学习的用户定制化目标检测方法,其特征在于,所述图像数据和图像类别标注数据从本地上传;
或者使用图像自动采集功能从互联网图库中收集图像数据,用户在数据采集模块中输入关键字和采集数量,由系统从互联网图库中爬取相关图像,爬取结果将以略缩图形式展示给用户,并剔除不良数据,完成图像爬取后,为爬取到的数据集命名,作为该数据集的类别标注。
3.根据权利要求1所述基于弱监督学习的用户定制化目标检测方法,其特征在于,使用ResNet-50模型作为提取图片特征的主干网络,网络在ImageNet分类数据集上经过预训练,训练时,使用Adam优化算法来优化网络参数。
4.根据权利要求1所述基于弱监督学习的用户定制化目标检测方法,其特征在于,所述WSDDN-PCL弱监督目标检测模型是在传统的以MIL方式为基础的弱监督目标检测模型上,增加了多层自训练的细化网络层,最终将多层细化网络层的输出取均值,作为模型的输出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011497649.0/1.html,转载请声明来源钻瓜专利网。