[发明专利]卷积神经网络的训练方法及图像处理方法、装置有效
申请号: | 201810136118.5 | 申请日: | 2018-02-09 |
公开(公告)号: | CN108304921B | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 程光亮;石建萍 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06K9/62 |
代理公司: | 北京派特恩知识产权代理有限公司 11270 | 代理人: | 李梅香;张颖玲 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 训练 方法 图像 处理 装置 | ||
本发明公开了一种卷积神经网络的训练方法及图像处理方法、装置、计算机存储介质、计算机可读存储介质、计算机程序,所述卷积神经网络的训练方法包括:在第一卷积神经网络中删除至少一个设在线性结构层后的非线性修正层,得到第二卷积神经网络;基于训练图像和所述训练图像的标注信息,对所述第二卷积神经网络进行监督训练。所述图像处理方法包括:将训练完成的第二卷积神经网络中的至少一串行分支和/或至少一并行分支进行合并处理,得到第三卷积神经网络;其中,所述第二卷积神经网络中至少一个设在线性结构层后的非线性修正层被删除;将图像输入所述第三卷积神经网络;经所述第三卷积神经网络对所述图像进行处理,得到所述图像的处理结果。
技术领域
本发明涉及深度学习技术领域,尤其涉及一种卷积神经网络的训练方法及图像处理方法、装置、计算机设备、计算机可读存储介质、计算机程序。
背景技术
随着深度卷积神经网络的发展,更深或更宽的网络结构不断刷新着各个计算机视觉数据集的准确率。然而,网络的加深或加宽势必会增加网络在训练及测试过程中的运行时间。近年来,为了能够在低功耗、低计算资源的平台上运行深度卷积神经网络,越来越多的研究人员开始关注轻量级且训练及测试过程所需时间较短的网络。
如何设计一些轻量级的卷积神经网络以实现更短的训练时间或更短的测试时间成为了深度学习研究的一个重要方向。
发明内容
本发明实施例提供了一种卷积神经网络的训练方法及图像处理方法、装置、计算机设备、计算机可读存储介质、计算机程序。
本发明实施例提供一种卷积神经网络的训练方法,所述方法包括:
在第一卷积神经网络中删除至少一个设在线性结构层后的非线性修正层,得到第二卷积神经网络;
基于训练图像和所述训练图像的标注信息,对所述第二卷积神经网络进行监督训练。
上述方案中,所述第一卷积神经网络包括残差单元;
所述在第一卷积神经网络中删除至少一个设在线性结构层后的非线性修正层,得到第二卷积神经网络,包括:
在所述第一卷积神经网络中删除残差单元中部分或全部设在线性结构层后的非线性修正层,得到第二卷积神经网络。
上述方案中,所述线性结构层包括:卷积层或者批归一化层。
上述方案中,所述基于训练图像和所述训练图像的标注信息,对所述第二卷积神经网络进行监督训练,包括:
初始化所述第二卷积神经网络的训练参数,并迭代执行如下步骤:将训练图像输入所述第二卷积神经网络,基于所述训练参数,计算所述训练样本的处理结果,更新所述训练参数;直至所述训练图像的处理结果收敛;其中,所述训练图像的处理结果收敛是指所述训练图像的处理结果与所述训练图像的标注信息的差值小于等于目标门限值。
本发明实施例提供一种图像处理方法,所述方法包括:
将训练完成的第二卷积神经网络中的至少一串行分支和/或至少一并行分支进行合并处理,得到第三卷积神经网络;其中,所述第二卷积神经网络中至少一个设在线性结构层后的非线性修正层被删除;
将图像输入所述第三卷积神经网络;
经所述第三卷积神经网络对所述图像进行处理,得到所述图像的处理结果。
上述方案中,所述串行分支包括至少二个串接的线性结构层;
对所述串行分支进行合并处理,包括:将所述串行分支中的一线性结构层并入另一线性结构层。
上述方案中,所述至少二个串接的线性结构层,包括:二个串接的卷积核大小不同的卷积层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810136118.5/2.html,转载请声明来源钻瓜专利网。