[发明专利]基于向量迁移的推荐方法、装置、计算机设备及存储介质有效
申请号: | 201910871369.2 | 申请日: | 2019-09-16 |
公开(公告)号: | CN110838020B | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 陈楚 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06Q30/0201 | 分类号: | G06Q30/0201;G06Q30/0601;G06N3/08 |
代理公司: | 深圳市世联合知识产权代理有限公司 44385 | 代理人: | 汪琳琳 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 向量 迁移 推荐 方法 装置 计算机 设备 存储 介质 | ||
本发明适用于人工智能领域,提供基于向量迁移的推荐方法、装置、计算机设备及存储介质,其中,方法包括:获取通过全量数据训练好的隐语义模型,其中,全量数据包括用户历史偏好数据,训练好的隐语义模型包括由全量数据训练得到的全量矩阵;提取隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量;将目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;基于融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。本申请能够减小深度神经网络的模型规模,降低模型训练时间,提高生产效率。
技术领域
本发明属于人工智能技术领域,尤其涉及一种基于向量迁移的推荐方法、装置、计算机设备及存储介质。
背景技术
目前,由于网购的发展成熟与人工智能的技术兴起,商品推荐系统已经得到广泛应用,主要是采用的是LFM隐语义模型以及DNN深度神经网络进行预测。其中,LFM需要长期的数据,时间窗口跨度很大,涉及的用户和商品都是全量的,考虑的是某个用户在某个时间窗口内对所有商品的偏好,因此计算量大,模型结果也反映用户的长期的稳定的偏好,一般工业应用LFM都是离线使用全量数据进行训练,无法反应用户近期的偏好,灵敏度不高。DNN深度神经网络的训练数据主要为点击序列,是排序模型,虽然方便线上训练,但是模型结果反映相对短期的偏好,预测结果受数据集影响较大,需要对数据集以及模型频繁进行更新。另外,当模型想要反映较为长期的偏好时,商品量和用户量会变得较大或当商品量和用户量较大时,深度神经网络的参数量也变大,训练时间变长,导致模型的生产效率不高。
发明内容
本发明实施例提供一种基于向量迁移的推荐方法、装置、计算机设备及存储介质,旨在解决现有技术中DNN深度神经网络存在的需要频繁更新以及反映长期偏好时模型训练时间长的问题。
为了解决所述问题,本发明实施例是这样实现的,提供一种基于向量迁移的推荐方法,包括步骤:
获取通过全量数据训练好的隐语义模型,其中,所述全量数据包括用户历史偏好数据,所述训练好的隐语义模型包括由全量数据训练得到的全量矩阵;
提取所述隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量;
将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;
基于所述融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。
进一步的,所述提取所述隐语义模型中的目标特征向量的步骤具体包括:
对所述隐语义模型中的全量矩阵进行矩阵分解,得到包括商品特征的隐式因子矩阵,所述全量矩阵包括商品特征及用户特征;
基于所述商品特征的隐式因子矩阵提取商品特征向量。
进一步的,所述对所述隐语义模型中的全量矩阵进行矩阵分解的步骤具体包括:
使用随机梯度下降算法对损失函数进行优化,迭代计算参数,直到参数收敛;
基于收敛的参数得到隐式因子矩阵,其中参数指的是隐式因子矩阵中矩阵单元的参数。
进一步的,所述基于所述商品特征的隐式因子矩阵提取商品特征向量的步骤具体包括:
提取所述商品特征的隐式因子矩阵中的类别所在的行或列作为目标特征向量,其中,目标特征向量包括至少一个类别属性与多个隐式因子对应的矩阵单元。
进一步的,所述深度神经网络的预先设置的步骤具体包括:
获取所述深度神经网络的初始权重参数,并通过训练集对所述深度神经网络进行训练;
调整深度神经网络中的权重参数,使训练集的曲线拟合,得到最终权重参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910871369.2/2.html,转载请声明来源钻瓜专利网。