[发明专利]一种社交网络舆论演变方法有效
| 申请号: | 201880001570.9 | 申请日: | 2018-08-01 |
| 公开(公告)号: | CN109496305B | 公开(公告)日: | 2022-05-13 |
| 发明(设计)人: | 侯韩旭;郝建业;张程伟 | 申请(专利权)人: | 东莞理工学院 |
| 主分类号: | G06F16/9536 | 分类号: | G06F16/9536 |
| 代理公司: | 深圳市科吉华烽知识产权事务所(普通合伙) 44248 | 代理人: | 胡玉 |
| 地址: | 523000 *** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 社交 网络 舆论 演变 方法 | ||
1.一种社交网络舆论演变方法,其特征在于:所述社交网络舆论演变方法包括两类智能体,分别为模拟社交网络中普通大众的Gossiper类智能体和模拟社交网络中以吸引普通大众为目的的媒体或公众人物的Media类智能体,其中,所述Media类智能体采用所述连续动作空间上的纳什均衡策略计算对其回报最优的观念,更新其观念并在社交网络中广播,
所述连续动作空间上的纳什均衡策略包括如下步骤:
(1)设置常数αub和αus,其中,αubαus,αub,αus∈(0,1)为学习率;
(2)初始化参数,其中,所述参数包括智能体i期望动作u的均值ui、累计平均策略常数C、方差σi和累计平均回报Qi;
(3)重复以下步骤直至智能体i的采样动作的累计平均策略收敛,
(3.1)按一定探索率依正态分布N(ui,σj)随机选择一个动作xi;
(3.2)执行动作xi,然后从环境中获取回报ri;
(3.3)如果智能体i执行动作xi后收到的回报ri大于当前的累计平均回报Qi,那么ui的学习率为αub,反之学习率为αus,根据选定的学习率更新ui;
(3.4)根据学习到ui的更新方差σi;
(3.5)如果智能体i执行动作xi后收到的回报ri大于当前的累计平均回报Qi,那么ui的学习率为αub,反之学习率为αus,根据选定的学习率更新Qi;
(3.6)根据常数C和动作xi更新
(4)输出累计平均策略作为智能体i的最终动作。
2.根据权利要求1所述的社交网络舆论演变方法,其特征在于:在步骤(3.3)和步骤(3.5)中,Q的更新步长和u的更新步长同步,在ui的邻域内,Qi关于ui的映射能够线性化为Qi=Kui+C,其中斜率
3.根据权利要求2所述的社交网络舆论演变方法,其特征在于:给定正数σL和一个正数K,两个智能体的连续动作空间上的纳什均衡策略最终可以收敛到纳什均衡,其中,σL是方差σ的下界。
4.根据权利要求1所述的社交网络舆论演变方法,其特征在于包括如下步骤:
S1:每个Gossiper和Media的观念被随机的初始化为动作空间[0,1]上的一个值;
S2:在每一次交互中,各智能体按照以下策略调整自己的观念,直至各智能体都不再改变观念;
S21:对任意一个Gossiper类智能体,按照设定概率在Gossiper网络中随机选择一个邻居,根据BCM策略更新其观念及追随的Media;
S22:随机采样Gossiper网络G的一个子集将子集G′中的Gossiper观念广播给所有Media;
S23:对任意一个Media,使用连续动作空间上的纳什均衡策略计算其回报最优的观念,并将更新后的观念广播到整个社交网络中。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东莞理工学院,未经东莞理工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880001570.9/1.html,转载请声明来源钻瓜专利网。





