[发明专利]一种基于强化学习的网络舆情装置的调度方法有效
| 申请号: | 201910204236.X | 申请日: | 2019-03-18 |
| 公开(公告)号: | CN110046746B | 公开(公告)日: | 2021-09-10 |
| 发明(设计)人: | 费豪;武开智 | 申请(专利权)人: | 北京牡丹电子集团有限责任公司数字电视技术中心 |
| 主分类号: | G06Q10/04 | 分类号: | G06Q10/04;G06Q50/00;G06N3/04 |
| 代理公司: | 北京轻创知识产权代理有限公司 11212 | 代理人: | 赵秀斌 |
| 地址: | 100191*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 强化 学习 网络 舆情 装置 调度 方法 | ||
1.一种基于强化学习的网络舆情装置的调度方法,其特征在于,包括:
S1:建立一个深度强化学习模型;
S2:根据所述深度强化学习模型对网络舆情装置的状态进行判断;
S3:调度一个网络舆情装置执行网络媒体主题操作行为并记录所述操作行为;
S4:保存所述S3执行完成时的所述网络舆情装置的代理的状态记录并以此计算出奖励分数;
S5:根据所述S4中得到的所述奖励分数计算值以更新所述深度强化学习模型的参数;
S6:根据所述S5中更新后的所述深度强化学习模型进行网络舆情预测;
所述S4中,代理的状态至少包括以下之一:上一次转发是否成功、转发前的原帖总转发数量、上一次点赞是否成功、点赞前的总点赞数量、上一次回复是否成功、上一次发帖是否成功、上一次关注是否成功、回复前的原帖总回复数量、当前时间、当前代理网络节点、当前剩余可用代理、当前操作代价、当前路径长度;
所述S5中,强化学习模型的奖励分数的计算定义为:
R=r1+r2+r3+r4;
其中R为奖励总和,r为奖励参数,具体对应以下4个考核目标:
r1:操作是否成功,成功为1,失败为-1;
r2:路径长度相比上次的差值;
r3:发布的意见结果对总体的舆论导向的影响程度;
r4:代理的时间损耗log值。
2.根据权利要求1所述的基于强化学习的网络舆情装置的调度方法,其特征在于,所述S1中,所述深度强化学习模型为基于DQN的模型,所述深度强化学习模型包括:策略生成网络、代理操作行为、代理状态和代理本次操作的奖励;其中,所述策略生成网络是一个3层前馈神经网络模型。
3.根据权利要求1所述的基于强化学习的网络舆情装置的调度方法,其特征在于,在所述S3中,装置的操作行为采用日志的方式对每一个操作进行在线记录,所述日志的内容包括:代理节点id、代理的操作行为和代理的操作状态。
4.根据权利要求1所述的基于强化学习的网络舆情装置的调度方法,其特征在于,所述S3中,所述网络媒体主题操作行为包括:是否选取当前目标、是否进行转发操作、是否进行点赞操作、是否进行关注操作、是否进行发帖操作和是否进行回复操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京牡丹电子集团有限责任公司数字电视技术中心,未经北京牡丹电子集团有限责任公司数字电视技术中心许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910204236.X/1.html,转载请声明来源钻瓜专利网。
- 同类专利
- 专利分类
G06Q 专门适用于行政、商业、金融、管理、监督或预测目的的数据处理系统或方法;其他类目不包含的专门适用于行政、商业、金融、管理、监督或预测目的的处理系统或方法
G06Q10-00 行政;管理
G06Q10-02 .预定,例如用于门票、服务或事件的
G06Q10-04 .预测或优化,例如线性规划、“旅行商问题”或“下料问题”
G06Q10-06 .资源、工作流、人员或项目管理,例如组织、规划、调度或分配时间、人员或机器资源;企业规划;组织模型
G06Q10-08 .物流,例如仓储、装货、配送或运输;存货或库存管理,例如订货、采购或平衡订单
G06Q10-10 .办公自动化,例如电子邮件或群件的计算机辅助管理





