[发明专利]基于深度强化学习的Web服务众包测试任务分配方法有效

专利信息
申请号: 201910834368.0 申请日: 2019-09-03
公开(公告)号: CN110554964B 公开(公告)日: 2023-05-16
发明(设计)人: 郭世凯;陈荣;张佳丽;唐文君;李辉 申请(专利权)人: 大连海事大学
主分类号: G06F11/36 分类号: G06F11/36;G06Q10/0631;G06Q10/1057
代理公司: 大连东方专利代理有限责任公司 21212 代理人: 姜玉蓉;李洪福
地址: 116026 辽*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 深度 强化 学习 web 服务 测试 任务 分配 方法
【权利要求书】:

1.一种基于深度强化学习的Web服务众包测试任务分配方法,其特征在于,包括:

根据众包平台上的工人池和任务池内的数据信息、对深度强化学习的Web服务测试任务分配模型进行训练;

众包平台接收需求者提交的测试任务,使用完成训练的Web服务测试任务分配模型进行测试任务的分配;

工人接受并执行任务、将任务测试结果反馈给众包平台,众包平台将工人反馈的测试结果传送给相应的任务需求者;

所述对深度强化学习的Web服务测试任务分配模型进行训练具体方式为:

将每个测试任务定义为深度强化学习网络的一个状态s、为每个测试任务选择某个测试工人作为一个动作a、将强化学习中的回报值r设置为任务s分配给测试工人a得到的任务完成质量;

设置三项约束条件分别为:测试工人的能力大于测试任务的难度等级,测试任务分配至测试工人需要支付的报酬小于测试任务的最大成本,每个测试工人执行任务的数量小于设定阈值;

将每个测试任务s传递给当前Q值网络,当前Q值网络反馈出使Q值最大的动作a、同时满足三项约束条件,即动作a为当前任务s选择的工人,将当前任务选择的结果作为一个组合(s,a,r,s')存储至回放记忆单元中、其中s'为下一个需要分配的任务;

使用回放记忆单元中的数据对当前Q值网络和目标Q值网络进行参数学习更新:将回放记忆单元中的一条数据(s,a)对传递给当前Q值网络;

当前Q值网络输出其对应的Q值Q(s,a)、并将Q(s,a)传递给DQN误差函数,将回放记忆单元中该条数据中的下一个任务s'传递给目标Q值网络,目标Q值网络输出使s'的Q值最大的动作a',并将得到的最大Q值MaxQ(s',a')传递给DQN误差函数,将回放记忆单元中该条数据的回报值r传递给DQN误差函数;

误差函数为:

L(θ)=E[(TargetQ-Q(s,a;θ))2]

TargetQ为目标Q值,且θ为网络参数,Q(s,a;θ)为当前Q值,γ为折扣因子。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连海事大学,未经大连海事大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910834368.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top