[发明专利]基于端到端的分布式深度哈希检索方法有效
申请号: | 202110288629.0 | 申请日: | 2021-03-18 |
公开(公告)号: | CN112905599B | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 胡海峰;郭伟;吴建盛;朱燕翔 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06F16/22 | 分类号: | G06F16/22;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 秦秋星 |
地址: | 210012 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 端到端 分布式 深度 检索 方法 | ||
1.基于端到端的分布式深度哈希检索方法,其特征在于包括以下步骤:
步骤1:构建分布式哈希检索环境,所述分布式哈希检索环境中包括若干个计算节点以及节点之间的通信链路;每个节点网络都有各自的由带标记信息的图片集构成的训练样本;节点网络包括特征提取层、哈希层和输出层;哈希层与输出层之间的全连接的参数,称为全连接层;
步骤2:每个节点采用微调的ResNet网络架构,并进行参数初始化;所述微调的ResNet网络架构包括特征提取层、哈希层、输出层;
步骤3:每个节点用训练样本batch进行第一次前向传播,通过特征提取层得到训练样本batch的特征;
步骤4:利用提取到的特征通过哈希层和输出层,并输出分类信息;
步骤5:通过交替方向乘子法ADMM优化所有节点ResNet网络中的全连接层参数,使得ADMM优化后的全连接层参数达到全局最优,并将该参数赋值给每个节点网络的全连接层;
步骤6:每个节点用与步骤3中同样的训练样本batch通过ResNet网络进行第二次前向传播;
步骤7:通过最小化分类误差和约束哈希码的目标函数进行训练,即利用深度学习的反向传播机制,在固定全连接层参数的情况下,更新ResNet网络的特征层参数;
步骤8:观察loss曲线是否收敛,若收敛则训练完成,反之,重复步骤3-7;
步骤9:训练完成后,保存模型,并通过模型实现哈希编码函数,把图片转变成哈希码,将哈希码保存为数据库;
步骤10:将需要查询的图像输入到模型中,生成哈希码,并在数据库中进行搜索,通过比较哈希码之间的汉明距离,返回汉明距离最近的图像,即是需要查找的图像。
2.根据权利要求1所述的基于端到端的分布式深度哈希检索方法,其特征在于,步骤1中,不同节点之间的数据集类别相同,但完全独立,彼此所采用的样本互有差异。
3.根据权利要求1所述的基于端到端的分布式深度哈希检索方法,其特征在于,步骤2中,所述参数初始化是利用在ImageNet数据集上预训练好的ResNet模型对节点网络进行参数初始化,并将拉格朗日乘子矩阵初始化为全0矩阵。
4.根据权利要求1所述的基于端到端的分布式深度哈希检索方法,其特征在于,步骤5包括如下步骤:
利用第i个节点中第m个batch图像的哈希特征及其对应的标签Yi,m,通过最小化分类误差,并对每个节点的全连接层参数Wi进行一致性约束,最终得到当前全局最优的全连接层参数W;目标函数及其对应的增广拉格朗日函数,以及ADMM的迭代步骤如下所示:
目标函数:
s.t.Wi-W=0
增广拉格朗日函数:
ADMM迭代步骤:
在公式(1-1)中,Wi和bi是指第i个节点的全连接层参数,是指第i个节点中第m个batch图像的哈希特征,t为哈希特征的维度,n为batch中样本的数量;为所对应的标签,c为分类的类别数量,n为batch中样本的数量;L为交叉熵损失函数,λ为正则化项系数,用于控制正则项的相对重要性,N表示为分布式系统中的节点总数;F为范数,计算方式为矩阵中所有元素的平方和再开根号;在公式(1-2)中,为当前batch全局最优的全连接层参数,t为哈希特征的维度,c为分类的类别数量,ρ为惩罚系数,Λi为拉格朗日乘子,Ui为转换因子,用来表示ρ和Λi;当优化完所有节点ResNet网络中的全连接层参数后,得到当前最优的参数W,将该参数赋值给每个节点网络的全连接层,为第二次前向传播做准备。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110288629.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种两轮车停放器
- 下一篇:一种砂炮真空吸运装置