[发明专利]一种融入评论信息的图神经网络推荐方法有效
| 申请号: | 202011614918.7 | 申请日: | 2020-12-31 |
| 公开(公告)号: | CN112650929B | 公开(公告)日: | 2022-05-03 |
| 发明(设计)人: | 吴国栋;王伟娜;李景霞;涂立静;刘玉良 | 申请(专利权)人: | 安徽农业大学 |
| 主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06F40/284;G06F40/30;G06N3/04;G06N3/08 |
| 代理公司: | 安徽合肥华信知识产权代理有限公司 34112 | 代理人: | 余成俊 |
| 地址: | 230036 安徽*** | 国省代码: | 安徽;34 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 融入 评论 信息 神经网络 推荐 方法 | ||
1.一种融入评论信息的图神经网络推荐方法,其特征在于,包括以下步骤:
(1)、利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;
(2)、构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;
(3)、构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;
(4)、利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;
(5)、利用步骤(4)得到交互的概率作为预测结果进行推荐;
步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到如公式(1)的内容表述:
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到公式(2)的内容表述:
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.1)中采用平均向量化方法将词向量聚合成特征向量以得到公式(1),步骤(1.2)中同样采用平均向量化方法将词向量聚合成特征向量得到公式(2);
步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
公式(4)中:表示用户的结构表述经过第一图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
公式(5)中:表示用户的结构表述经过第一图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,为物品节点与用户节点的相关度,的计算公式如公式(6)所示:
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项;
步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
公式(9)中:表示物品的结构表述经过第二图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
公式(10)中:表示物品的结构表述经过第二图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,为步骤(2.5)中计算得到的物品节点与用户节点的相关度的转置;
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项;
步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
公式(13)中:表示用户u对物品i产生交互的预测概率,sigmoid(·)为激活函数,Wp为该全连接层的权重参数,bp表示该全连接层的偏置项。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽农业大学,未经安徽农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011614918.7/1.html,转载请声明来源钻瓜专利网。
- 信息记录介质、信息记录方法、信息记录设备、信息再现方法和信息再现设备
- 信息记录装置、信息记录方法、信息记录介质、信息复制装置和信息复制方法
- 信息记录装置、信息再现装置、信息记录方法、信息再现方法、信息记录程序、信息再现程序、以及信息记录介质
- 信息记录装置、信息再现装置、信息记录方法、信息再现方法、信息记录程序、信息再现程序、以及信息记录介质
- 信息记录设备、信息重放设备、信息记录方法、信息重放方法、以及信息记录介质
- 信息存储介质、信息记录方法、信息重放方法、信息记录设备、以及信息重放设备
- 信息存储介质、信息记录方法、信息回放方法、信息记录设备和信息回放设备
- 信息记录介质、信息记录方法、信息记录装置、信息再现方法和信息再现装置
- 信息终端,信息终端的信息呈现方法和信息呈现程序
- 信息创建、信息发送方法及信息创建、信息发送装置





