[发明专利]一种低秩判别特征子空间学习方法有效
| 申请号: | 201811366758.1 | 申请日: | 2018-11-16 |
| 公开(公告)号: | CN109522956B | 公开(公告)日: | 2022-09-30 |
| 发明(设计)人: | 李骜;刘鑫;林克正;陈德运;孙广路 | 申请(专利权)人: | 哈尔滨理工大学 |
| 主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774 |
| 代理公司: | 哈尔滨市伟晨专利代理事务所(普通合伙) 23209 | 代理人: | 赵君 |
| 地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 判别 特征 空间 学习方法 | ||
1.一种低秩判别特征子空间学习方法,其特征在于,包括下列步骤:
步骤a、将一个图像数据集分成测试集和训练集;
步骤b、定义判别特征子空间学习模型的目标函数,目标函数中第一项对矩阵进行低秩约束,第二项为判别正则化项,将低秩表示系数作为正则化参数来约束两个样本投影后的距离,矩阵中的元素被视为对两个样本的低维结构相似性的测量,对矩阵中的每个元素引入非负约束;
所述目标函数如下:
s.t.X=XZ+E,Zij≥0
其中,X=[X1,X2,...,Xm]表示训练集,Xi表示X的每一列,i= 1,2,...,m , m表示训练样本的总数,Z表示矩阵,P表示特征子空间,E表示误差矩阵,λ是平衡三项的一个参数;
步骤c、采用类别标签作为一种监督信息,目标函数重新拟定;
所述目标函数重新拟定,如下:
s.t.X=XZ+E,Zij≥0
其中,Y=[Y1,Y2,...,Ym]是由类别标签决定的矩阵,Yi=[-1,-1,...,1,...,-1]T∈RC表示Y的第i列,如果第i个示例属于第c类,第c个元素为1,其余的为-1;
步骤d、将目标函数中的特征子空间施加正交约束;
步骤e、通过训练集,求解出目标函数值最小化时各个变量的值;
步骤f、目标函数求解后得到一个特征子空间;
步骤g、通过所述特征子空间投影测试集,得到数据集里所有类别图像的所有特征,最终通过分类器将得到所述数据集的识别率;
通过学习到特征子空间,之后将每个训练样本投影到特征子空间上得到该训练样本的特征来提取该训练样本所属类别的特征,随后根据投影特征进行图片识别和分类;
采用四个已公开的数据集,数据集包括两个人脸数据集,一个物体数据集和一个手写数字数据集,数据集的细节描述如下:
一个面部数据集采用ExtendedYaleB,包括3814个2414正面图像,每个人具有64个具有不同光照条件的图像,所述面部数据集使用测试图像的大小被裁剪为32×32,随机选择每个人的32个图像作为训练集,而其余的图像用作测试集;
另一个面部数据集采用AR,包括120个人的3120个灰度图像;对于所述面部数据集中的每个人,均包括正面视图的26个图像,所述图像采用不同的表达方式,包括光照条件和遮挡;所述面部数据集中的面部图像均被裁剪,调整为55×40,每个人的一半用作训练,其余的用作测试;
对象数据集采用COIL20,包括20个对象的1440个图像,每个对象具有从连续角度以5度的间隔获得的72个图像,对象数据集中的所有图像均被调整为32×32,并进行了规范化;每个对象的10个图像用于训练,其余用于测试;
手写数字数据集采用HandwrittendatasetUSPS,包括9298个手写数字图像,其中10个类从0到9,所述手写数字数据集中所有图像大小均为16×16,对于每个数字,随机选择10个图像对训练集进行分组,其余图像用于测试;
将本方法与几种现有的特征子空间学习方法进行了比较,分别包括PCA,LDA,NPE,LSDA,LatentLRR,ProCRC,DLRDSR和SFE-ALR,使用两种分类器SRC和KNN来分别测试比较方法:SRC用于AR和USPS数据集,KNN用于ExtendedYaleB和COIL20,对于SRC,训练实例用作字典中的原子,识别或分类结果由最小的特定于类的回归误差决定;对于KNN,分类结果由特征子空间中的前K个近邻决定,K被设置为1;每个数据集均实施五次,求得的平均识别结果作为各对比方法的识别率;
所述的一种低秩判别特征子空间学习方法,用于图像特征提取以及识别和分类任务。
2.根据权利要求1所述一种低秩判别特征子空间学习方法,其特征在于,所述将目标函数中的特征子空间施加正交约束,如下:
s.t.X=XZ+E,Zij≥0,PTP=I。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811366758.1/1.html,转载请声明来源钻瓜专利网。





