[发明专利]一种基于联邦学习的上下文感知推荐系统及方法有效
申请号: | 202110192913.8 | 申请日: | 2021-02-20 |
公开(公告)号: | CN112836130B | 公开(公告)日: | 2023-02-03 |
发明(设计)人: | 邵杰;阿里·瓦格尔;王衍松;邓智毅 | 申请(专利权)人: | 四川省人工智能研究院(宜宾) |
主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06F16/9536;G06F16/35;G06F21/62;G06Q30/0601;G06N20/00 |
代理公司: | 北京正华智诚专利代理事务所(普通合伙) 11870 | 代理人: | 杨浩林 |
地址: | 644000 四川省宜宾市临*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 联邦 学习 上下文 感知 推荐 系统 方法 | ||
1.一种基于联邦学习的上下文感知推荐系统,其特征在于,包括:中央服务器和多个客户端;
所述中央服务器分别与多个客户端连接;所述中央服务器上包括:全局推荐模型;每个所述客户端上包括:本地推荐模型和用户自定义数据协作协议模块;
所述本地推荐模型用于使用用户自定义数据协作协议模块输出的用户数据和全局推荐模型发送过来的服务端模型权重参数进行联邦学习训练,得到训练完成的本地推荐模型;所述训练完成的本地推荐模型用于对新的用户数据进行处理,得到对用户的推荐内容;
所述用户自定义数据协作协议模块用于将用户上下文信息、物品上下文信息、评分历史和评分历史的时间记录进行拼接,得到含有上下文信息的用户数据,用户在此过程中可以自由地选择拼接数据中是否含有用户上下文信息或者物品上下文信息,之后该模块在每次迭代时将用户数据发送至每个客户端;每个所述客户端用于根据用户数据和中央服务器的全局推荐模型发送来的服务端模型权重参数训练本地推荐模型,完成对本地推荐模型的一次训练,并将得到的本地模型权重参数发送至中央服务器;所述中央服务器的全局推荐模型用于聚合所有客户端发送的本地模型权重参数,得到新的服务端模型权重参数,并将新的服务端模型权重参数发送至本地推荐模型,进行对本地推荐模型的第二次训练,多次训练本地推荐模型,直到本地推荐模型收敛,得到训练完成的本地推荐模型;所述训练完成的本地推荐模型用于对新的用户数据进行处理,得到对用户的推荐内容;
所述本地推荐模型的损失函数为:
其中,Li(θ)为第i个本地推荐模型对第i个用户的所有样本的平均损失函数,i表示由用户评分后的物品的总数,为训练过程中本地推荐模型的输入,为训练过程中本地推荐模型的输出,j为本地数据的编号,为第t次迭代的本地模型权重参数,为MSE_Loss损失函数;
所述本地模型权重参数在每个客户端的计算公式为:
其中,为第t-1次迭代的方向权重参数,α为学习速率,为梯度因子,为学习速率,为包含上下文嵌入信息的测试集,为包含上下文嵌入信息的训练集;
所述服务端模型权重参数的计算公式为:
其中,为第t次迭代的服务端模型权重参数,N为客户端的数量,Wi为各客户端所占权重大小。
2.一种基于联邦学习的上下文感知推荐方法,其特征在于,包括以下步骤:
S1、在每个客户端的本地数据和本地推荐模型间构建一个用户自定义数据协作协议模块;
S2、采用用户自定义数据协作协议模块将本地数据中的用户上下文信息、物品上下文信息、评分历史和评分历史的时间记录进行拼接,得到用户数据;
S3、通过中央服务器将服务端模型权重参数初始值分配至各客户端;
S4、将用户数据和服务端模型权重参数初始值输入客户端的本地推荐模型,对本地推荐模型进行训练;
S5、将在本地推荐模型上训练得到的本地模型权重参数发回至中央服务器;
S6、通过中央服务器接收所有客户端发回的本地模型权重参数,基于全局推荐模型通过加权的方法将所有本地模型权重参数进行聚合处理,得到缓存的服务端模型权重参数,将缓存的服务端模型权重参数作为新的服务端模型权重参数初始值;
S7、跳转至步骤S3,循环执行步骤S3至步骤S6,直到本地推荐模型收敛,联邦学习过程结束,得到训练完成的本地推荐模型;
S8、将新的用户数据输入训练完成的本地推荐模型中,得到对用户的推荐内容。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川省人工智能研究院(宜宾),未经四川省人工智能研究院(宜宾)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110192913.8/1.html,转载请声明来源钻瓜专利网。