[发明专利]一种面向社交网络的动态网络表示学习方法及系统有效
申请号: | 202010042807.7 | 申请日: | 2020-01-15 |
公开(公告)号: | CN111460275B | 公开(公告)日: | 2023-04-18 |
发明(设计)人: | 金海;黄宏;王璐 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06N3/0464;G06N3/08 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 社交 网络 动态 表示 学习方法 系统 | ||
1.一种面向社交网络的动态网络表示学习方法,其特征在于,包括:
(S1)从历史数据中获取动态网络在v个连续时间戳下的拉普拉斯矩阵;所述动态网络用于表示社交网络,v为正整数;
(S2)对于每一个时间戳下的拉普拉斯矩阵,将其分别输入与其时间戳对应的私有自编码器和由所有时间戳共享的共享自编码器,由私有自编码器和共享自编码器分别进行网络表示学习,将所得到的两个网络表示结果拼接以得到该时间戳下的中间表示结果,并将中间表示结果输入与其时间戳相对应的解编码器,由解编码器还原出拉普拉斯矩阵;
(S3)在还原得到各时间戳下的拉普拉斯矩阵后,基于重构损失约束、相似性损失约束和差异损失约束构建损失函数,以最小化损失函数值为目标,在反向传播的过程中调整各私有自编码器及共享自编码器的模型参数,从而完成一次训练;
(S4)重复执行步骤(S2)~(S3),直至达到最大迭代次数或满足精度要求,从而完成对私有自编码器及共享自编码器的训练;
(S5)将最后一次训练中,各时间戳下的中间表示结果作为对应时间戳下动态网络的最终表示结果;
其中,自编码器为基于神经网络的模型,并且其中每一层的输出都直接与输入的拉普拉斯矩阵相关;所述自编码器为共享自编码器或私有自编码器。
2.如权利要求1所述的面向社交网络的动态网络表示学习方法,其特征在于,所述自编码器的表达式为:
Y(1)=σ(W(1)X+b(1))
Y(k)=σ(XW(k)Y(k-1)+b(k)),k=2,...,K
其中,X表示输入所述自编码器的拉普拉斯矩阵;Y(1)表示所述自编码器的第一层的输出,W(1)和b(1)表示所述自编码器的第一层中需要通过训练确定的参数;Y(k-1)和Y(k)分别表示所述自编码器中第k-1层和第k层的输出,W(k)和b(k)表示所述自编码器的第k层中需要通过训练确定的参数;K表示所述自编码器的总层数;σ(·)为激活函数。
3.如权利要求1或2所述的面向社交网络的动态网络表示学习方法,其特征在于,所述步骤(S3)中,损失函数中表达式为:
L=Lrecon+αLsimilary+βLdifference
其中,L表示损失函数,Lrecon表示重构损失,Lsimilary表示相似性损失,Ldifferent表示差异损失;α和β为超参数,用于控制各损失约束项的比重。
4.如权利要求3所述的面向社交网络的动态网络表示学习方法,其特征在于,
其中,Xi表示所述动态网络在第i个时间戳下的拉普拉斯矩阵,表示由第i个时间戳对应的解编码器还原得到的拉普拉斯矩阵,ζ∈[0,1]表示加权因子。
5.如权利要求3所述的面向社交网络的动态网络表示学习方法,其特征在于,
其中,表示所述共享自编码器对在第i个时间戳下的拉普拉斯矩阵进行网络表示学习后,所得到的网络表示结果;Ycomm表示通过训练学习到的所述动态网络结构在各时间戳下的一致性信息;表示二范式。
6.如权利要求3所述的面向社交网络的动态网络表示学习方法,其特征在于,
其中,Yis和Yip分别表示所述共享自编码器和第i个时间戳对应的私有自编码器对第i个时间戳下的拉普拉斯矩阵进行网络表示学习后,所得到的网络表示结果;表示二范式。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010042807.7/1.html,转载请声明来源钻瓜专利网。