[发明专利]一种基于深度学习的鱼类定位检测和识别方法及系统在审
申请号: | 201810548635.3 | 申请日: | 2018-05-31 |
公开(公告)号: | CN108805064A | 公开(公告)日: | 2018-11-13 |
发明(设计)人: | 陈英义;龚川洋;刘烨琦;方晓敏;程倩倩;成艳君;于辉辉 | 申请(专利权)人: | 中国农业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;吴欢燕 |
地址: | 100193 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 预设 目标框 定位检测 输出结果 图像输入 样本图像 鱼类 传统图像 检测结果 种类标记 鲁棒性 图像 学习 | ||
本发明提供一种基于深度学习的鱼类定位检测和识别方法及系统,其中方法包括:将待识别图像输入第一预设神经网络,根据第一预设神经网络的输出结果,获得待识别图像中每条鱼对应的目标框;将每个目标框对应的图像输入第二预设神经网络,根据第二神经网络的输出结果,获得每个目标框中鱼的种类;其中,第一预设神经网络是根据带有目标框标记的样本图像进行训练后获得;第二预设神经网络是根据带有种类标记的样本图像进行训练后获得。该方法及系统有效确保了检测结果和识别结果的准确性,具有良好的抗干扰性和鲁棒性;避免了传统图像识别中通过人工提取和选择特征所导致的识别结果不准确且效率低下的问题。
技术领域
本发明涉及图像处理技术领域,更具体地,涉及一种基于深度学习的鱼类定位检测和识别方法及系统。
背景技术
由于海水养殖产业受高温、风灾等自然灾害影响大,抵御风险能力弱,许多暴露的场所与操作方法依靠人工巡查并不方便。水下机器人作为水下监测的辅助工具可以帮助养殖户快速完成日常的监测任务,实时传输回有价值的信息,从而改善渔产养殖质量,省时又省力。
水下机器人携带的摄像头把水下的图像通过实时传送设备直接传送到水面上进行图像识别。传统的图像识别一般采用人工提取图像特征的方法,操作者必须具有丰富的先验作支撑。处理步骤包括:图像的滤波去躁、边缘增强、图像区域分割、基于直观的自然特征,如亮度、边缘、纹理、色彩;基于变换或者处理才能得到的特征,如矩、直方图以及主成分。此外,传统的图像识别方法都是基于人工手动选择特征,手动选择特征的方法不仅效率低下,还会导致遗漏重要的特征,导致分类准确率低。
随着计算机性能的大幅提升,一些开源的GPU集群并行计算框架相继出现,比较有代表性有Google的TensorFlow、Facebook的Torch、加州大学伯克利的PHD贾扬清开发的Caffe等,这样使得快速开发构建深度学习模型成为可能。1990年,LeCun等在研究手写体数字识别问题时,首先提出来使用梯度反向传播算法训练的卷积神经网络模(LeNet5),并在MNIST手写数字数据集上表现出了好的性能,以后对卷积神经网络的研究突飞猛进。2012年,Alex获得ImageNet冠军,其所用的AlexNet5个卷积层3个pool层和2个全连接层。2014年获得ImageNet的GoogleNet,使用了59个卷积层,16个pool层和2个全连接层。2016年微软的ResNet深度残差网络,用了152层的架构,由此可见卷积神经网络迅猛发展。
深度学习在图像分类领域日益展现出了出色的性能。有鉴于此,本发明针对鱼类定位检测和识别,提供一种基于深度学习的鱼类定位检测和识别方法及系统。
发明内容
本发明为了克服传统图像识别中通过人工提取和选择特征所导致的识别结果不准确且效率低下的问题,提供一种基于深度学习的鱼类定位检测和识别方法及系统。
一方面,本发明提供一种基于深度学习的鱼类定位检测和识别方法,包括:
将待识别图像输入第一预设神经网络,根据所述第一预设神经网络的输出结果,获得所述待识别图像中每条鱼对应的目标框;
将每个所述目标框对应的图像输入第二预设神经网络,根据所述第二神经网络的输出结果,获得每个所述目标框中鱼的种类;
其中,所述第一预设神经网络是根据带有目标框标记的样本图像进行训练后获得;所述第二预设神经网络是根据带有种类标记的样本图像进行训练后获得。
优选地,所述将待识别图像输入第一预设神经网络,根据所述第一预设神经网络的输出结果,获得所述待识别图像中每条鱼对应的目标框,具体为:
将所述待识别图像输入所述第一预设神经网络的卷积层和池化层,获得所述待识别图像对应的特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国农业大学,未经中国农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810548635.3/2.html,转载请声明来源钻瓜专利网。