[发明专利]基于深度强化学习的图二值特征学习方法及装置有效
申请号: | 201810043210.7 | 申请日: | 2018-01-17 |
公开(公告)号: | CN108182438B | 公开(公告)日: | 2020-09-25 |
发明(设计)人: | 鲁继文;周杰;段岳圻 | 申请(专利权)人: | 清华大学 |
主分类号: | G06K9/38 | 分类号: | G06K9/38;G06K9/46;G06K9/62;G06N3/04 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 强化 学习 图二值 特征 学习方法 装置 | ||
本发明公开了一种基于深度强化学习的图二值特征学习方法及装置,其中,方法包括:提取图像深度实值特征;根据深度强化学习的位间关系挖掘得到位间关系挖掘网络的基本量,其中,基本量包括状态、转移矩阵、行动和奖励,以训练得到位间关系挖掘网络;通过位间关系挖掘网络和互信息的特征提取网络提取得到鲁棒特征。该方法可以通过位间关系挖掘网络和互信息的特征提取网络提取得到鲁棒特征,有效提高特征鲁棒性。
技术领域
本发明涉及计算机视觉与机器学习技术领域,特别涉及一种基于深度强化学习的图二值特征学习方法及装置。
背景技术
计算机视觉领域非常重要的基本问题之一是视觉识别任务,该任务被广泛应用到各种视觉任务中,例如通用物体识别,场景识别,人脸识别以及指纹识别等。视觉识别任务本质上是模式识别任务,该任务具有数据维度高、数据量大以及数据差异大等特点。视觉识别任务的基础和依据是视觉特征,视觉特征指的是与图片对应的特征向量。一个“好”的特征满足同类图片的特征向量相似性强,不同类图片的特征向量相似性弱的特点。视觉识别通常通过如下两步来完成:特征提取和特征匹配。特征提取的目标是为每一张图片提取满足上述叙述的“好”的特征,而特征匹配则依据特征的相似性来对图片进行分类。由于在自然环境中,物体的光照、姿态、背景、视角和遮挡的差异较大,可能出现同一类物体之间的相似性小,不同物体之间的相似性较大的情况,因此得到能准确描述图片信息的特征向量是视觉识别技术中最为关键的环节。
图像特征提取方法主要有两类:基于手工提取的方法和基于学习的方法。词袋模型是手工提取方法的重要代表,主要通过如下步骤来完成:1)提取图像关键点或关键区域;2)在图像关键点或关键区域提取局部特征描述子;3)对词袋模型建立字典;4)池化局部特征描述子进行并提取直方图特征。上述过程中,关键点或关键区域的提取以及特征描述子的提取是计算机视觉领域中的传统问题。关键点或关键区域的提取致力于找到图像中关键且稳定局部区域,这些区域随着图像的变化具有一定的稳定性和可重复性。而提取特征描述子则为找到的关键点或关键区域提供准确、鲁棒的描述。由于具有干扰不变性的局部特征对图像中的遮挡,尺度,光照等干扰因素具有较好的鲁棒性,因而近年来逐渐取代了全局特征而成为图像特征的主流。图像局部特征检测方法有角点检测、斑点检测、区域检测,近年来也出现了大量方法,代表性的方法有SIFT(Scale-invariant feature transform,尺度不变特征变换),LBP(Local Binary Patterns,局部二值模式)和HOG(Histogram ofOriented Gradient,方向梯度直方图)等。基于特征学习的方法通过对训练样本的学习,总结数据集蕴含的规律,泛化生成适应数据集的特征提取方法。基于特征学习的方法由于对数据集有更强的针对性,因而在多种视觉任务中取得了更为突出的成绩。
近些年来,由于深度学习的迅速发展和其在计算机视觉领域中的成功应用,深度特征提取方法已成为应用到各个视觉任务中的主流方法。随着大数据时代的到来,许多计算机视觉领域的工作充分利用大数据的优势,极大地提高了完成各种视觉任务的方法性能。由于深度学习方法不仅关注全局特征,更是将局部特征抽取的算法有效地融入到了神经网络中,完成视觉目标的特征表达,所以深度学习方法能更好地利用视觉大数据学习出准确的视觉特征。如基于深度卷积神经网络的AlexNet得到了最高的准确率;大规模物体识别设计了“非常深”的卷积神经网络VGG(Visual Geometry Group,计算机视觉组);通过批正则化的方式加速卷积神经网络的训练的方法;深度残差网络大幅增加网络深度,进一步提升了基于深度学习的目标检测及识别的方法性能。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810043210.7/2.html,转载请声明来源钻瓜专利网。